Che supporto può offrire il femminismo dei dati per progettare politiche più eque e contrastare le minacce ai principi democratici? Ne abbiamo parlato con Lauren Klein, professoressa alla Emory University di Atlanta, in Georgia, e coautrice del libro Data Feminism (MIT Press, 2020), alla vigilia dell'insediamento di Trump alla Casa Bianca
Nel femminismo
dei dati

In un mondo ormai pervaso dalle intelligenze artificiali, addestrate a partire da enormi quantità di dati, è fondamentale raccogliere e utilizzare informazioni sempre più svincolate da stereotipi e pregiudizi di genere per progettare politiche più eque e inclusive. Per sensibilizzare istituzioni e opinione pubblica sull'argomento, a dicembre 2024, in collaborazione con l'organizzazione non profit The Good Lobby e Prime Minister, scuola di politica per giovani donne, l'associazione femminista Period Think Tank - che da tempo sottolinea come la carenza di dati disaggregati per genere contribuisce ad alimentare le disuguaglianze - ha organizzato Data Feminism in Action, un ciclo di eventi nelle città di Bologna, Napoli e Roma.
"All’Italia mancano la metà dei dati necessari a utilizzare i 72 indicatori di genere dell’Agenda 2030 per lo Sviluppo Sostenibile" si legge nel comunicato stampa diffuso da Period Think Tank, che, grazie al supporto dell’Ambasciata degli Stati Uniti in Italia, ha dato spazio a esperte internazionali fra cui Thais Ruiz de Alda, Sarah Williams e Lauren F. Klein.

Fra le maggiori studiose a livello mondiale nel campo del data feminism, Klein è Winship Distinguished Research Professor e professoressa associata nei dipartimenti di Teoria e metodi quantitativi e Inglese presso la Emory University di Atlanta, Georgia. Direttrice dell'Emory Digital Humanities Lab e dell'Atlanta Interdisciplinary AI Network, è coautrice, insieme a Catherine D’Ignazio, del volume Data Feminism, pubblicato nel 2020 da MIT Press. Il libro, in corso di traduzione in lingua italiana, è disponibile online in open access. In occasione della conferenza che si è tenuta a Roma il 7 dicembre 2024 nell'ambito del ciclo di incontri, le abbiamo rivolto alcune domande anche in vista dell'insediamento di Donald Trump alla Casa Bianca.
Professoressa, nel suo intervento ha sottolineato che ci sono due aspetti problematici: la mancanza di dati e il fatto che i dati contengono pregiudizi (bias). Pensa che l'uso massiccio dell'intelligenza artificiale migliorerà o peggiorerà la situazione?
Penso che la peggiorerà, perché, come società civile e come utenti, siamo portati a credere che questi modelli siano la fonte di tutta l'intelligenza, mentre in realtà sono stati addestrati su dati che riguardano una porzione molto ristretta della popolazione mondiale.
Lei ha affermato che oggi i dati sono sinonimo di potere; anche il femminismo – in particolare il femminismo intersezionale – fa un'analisi del potere, di chi ce l’ha e chi no. Come possiamo assicurarci che le donne e i gruppi marginalizzati abbiano potere sui dati?
Se vogliamo continuare a far crescere il potere delle donne e dei gruppi marginalizzati, garantendo loro l'accesso ai dati, dobbiamo investire molto di più nelle tecnologie di interesse pubblico. Quindi, tornando all'intelligenza artificiale generativa, al momento la situazione è che i modelli vengono creati solo da aziende private. Modelli creati invece in un'ottica di interesse pubblico garantirebbero una maggiore inclusione e la rappresentazione di donne e gruppi marginalizzati. È necessario inoltre sostenere iniziative per la raccolta di dati dal basso e l'alfabetizzazione sui dati.
Quando dice che la potenza delle tecnologie di intelligenza artificiale è legata non solo ai dati su cui vengono addestrate, ma anche alle condizioni e al contesto in cui vengono sviluppate, a cosa si riferisce?
Quando parliamo di condizioni, la prima da tener presente è quella infrastrutturale, dal momento che, come dicevamo, questi modelli sono sviluppati all’interno di grandi aziende private. Ci sono dei progetti per provare a costruire dei modelli più aperti e rappresentativi, ma sono convinta che il loro sviluppo debba avvenire al di fuori di questi sistemi, se vogliamo svincolarli da questi presupposti.
Esistono secondo lei possibili soluzioni? Quali potrebbero essere?
Penso che sia innanzitutto necessario porre maggior enfasi sulle infrastrutture di interesse pubblico e su quelle accademiche, che possano contribuire ad addestrare questi modelli. In questo modo possiamo iniziare a creare alcune delle condizioni infrastrutturali necessarie per raggiungere quest’obiettivo. Per quanto riguarda invece il contesto di utilizzo, credo che la legislazione giochi un ruolo fondamentale nel garantire che questi modelli non vengano impiegati in contesti a rischio, non verificati, o che in qualche modo non rientrino nei limiti della regolamentazione attuale perché percepiti come magici o misteriosi, o come una sorta di nuova tecnologia senza nessuna legge a regolamentarla. Al momento infatti non ci sono regole, e questi strumenti vengono utilizzati in contesti non controllati, oltre che – quasi ovunque – molto pericolosi. Questa è una via. L'altra cosa che trovo interessante rispetto a questi grandi modelli, e ciò che possono fare in termini di contesto, è capire come interpretare i risultati che producono.

Può spiegarci più nel dettaglio in che modo?
Spesso questi modelli replicano o addirittura amplificano le disuguaglianze esistenti nel mondo. In questo momento ci viene detto che dovremmo interpretarne i risultati come se fossero una verità, una sorta di riproduzione dello stato del mondo per com'è e che non può essere cambiato. Quello che invece possiamo cambiare è la nostra volontà, pretendendo che questi modelli smettano di prevedere sempre la stessa cosa. E dal momento che ci dimostrano che se non cambiamo le nostre azioni, il risultato che otterremo sarà sempre una replica dello status quo, possiamo prendere i risultati che generano e usarli per sostenere i cambiamenti, in modo che in futuro i risultati di questi modelli possano essere più rappresentativi della società per com’è davvero e dei reali desideri delle persone.
Una delle azioni cruciali per rendere l'intelligenza artificiale più inclusiva è riconoscere che si tratta di un sistema sia tecnologico che sociale e che, quindi, i suoi problemi intrinseci non possono essere risolti unicamente con soluzioni tecniche. Pensa che questo stia iniziando a cambiare, anche nel discorso pubblico, o c'è ancora molto da fare da questo punto di vista?
È interessante constatare come il cambiamento in questo senso stia avendo luogo molto più nel discorso pubblico che nelle aziende: da quando questi sistemi vengono incorporati nei prodotti, le persone si stanno rendendo conto, attraverso la loro esperienza diretta, che le risposte date da questi sistemi non rispecchiano né loro stesse né i loro desideri, e che non sono né accurate né utili. Tutto quello che ci è stato detto in astratto, forse anche solo un anno fa, si è rivelato non vero nei fatti. Insomma, credo che le persone stiano prendendo coscienza del fatto che questi strumenti sono insufficienti. Il problema è che, a causa della questione infrastrutturale e dell’attuale enorme concentrazione di risorse nelle mani delle grandi aziende tecnologiche, queste ultime non sono costrette a cambiare nulla, perché non si preoccupano dell'impatto sulle persone, ma solo dei loro profitti.
Quali crede che potranno essere le prossime sfide?
Secondo me – e penso che sarà resa più complessa dalla nuova amministrazione Trump – la prossima sfida sarà capire come fare per togliere a queste aziende tecnologiche parte del potere che hanno acquisito. Se fosse stata eletta Harris, avrei riposto maggiore fiducia nella regolamentazione e nell’allentamento di certi monopoli, fra cui quelli dell'informazione; credo che con Trump non vedremo accadere una cosa del genere, e che ci vorrà quindi più tempo per vincere questa battaglia.
Ritiene che la vittoria di Trump alle ultime elezioni e il ruolo politico sempre più importante di Elon Musk rappresentino una minaccia reale al lavoro che avete svolto negli ultimi anni con il femminismo dei dati?
Sul fatto che la vittoria di Trump rappresenti una minaccia reale per le persone non c'è alcun dubbio. Penso che dal primo giorno della sua amministrazione – come ci ha detto lui stesso, e penso che succederà davvero – molte persone saranno colpite dai suoi provvedimenti in maniera profonda e irreversibile. Non sappiamo con certezza di quali gruppi si tratterà: è probabile che a trovarsi nel mirino saranno le persone immigrate, le persone trans. E anche se alcune delle azioni politiche che Trump metterà in atto potranno essere modificate in seguito, penso che, purtroppo, a quel punto avranno già avuto il peggior impatto possibile sulle vite delle persone, determinando cambiamenti destinati a durare nel tempo. Detto questo, penso che la vittoria di Trump abbia chiaramente dimostrato quanto il lavoro portato avanti attraverso l'attivismo, le strutture organizzative e i principi femministi sia profondamente necessario, forse anche più di quanto pensassimo. Credo che molte persone dessero per scontato che questi valori e approcci fossero più condivisi di quanto in realtà non siano, e la vittoria di Trump ci ha dimostrato che non è così.
Quali scenari ipotizza per il prossimo futuro?
La buona notizia è che noi conosciamo già i valori e i principi femministi, e credo che, auspicabilmente, un numero sempre maggiore di persone sentirà la necessità di affiliarsi in maniera esplicita o di impegnarsi in questo senso. Quella cattiva è che la minaccia è diventata più grave e ha acquisito molto potere, per cui dovremo essere molto più forti - dentro e tra le diverse comunità - nel sostenerci a vicenda per superare questo periodo.