Prossima

Letture. Se i motori di ricerca hanno reso i processi di conoscenza più democratici, gli algoritmi si portano dietro gli stereotipi e i pregiudizi di chi li genera. Una riflessione a partire da Algorithms of oppression di Safiya Umoja Noble

6 min lettura
Foto: Unsplash/Michael Dziedzic

Da almeno un decennio siamo abituate ad avere costantemente a nostra disposizione strumenti potentissimi di accesso alla conoscenza: i nostri smartphone ci permettono in un tempo velocissimo di acquisire informazioni su qualsiasi fenomeno, personaggio o avvenimento che catturi la nostra curiosità. E se "googlare" una notizia non fosse il modo migliore per approfondirla?

È una delle domande al centro del saggio Algorithms of oppression. How search engines reinforce racism di Safiya Umoja Noble (New York University Press, 2018). Attraverso una lista di esempi che provengono dalla sua esperienza personale di cittadina e di ricercatrice, l'autrice, docente di studi di genere e afroamericani presso l'Università della California, Los Angeles, riflette su come persino fare ricerca non significhi più (solo) andare in biblioteca, chiedere a un'esperta, leggere un articolo o un libro.

Davanti a qualsiasi informazione, fatto, storia che susciti in noi il desiderio di saperne di più, la nostra prima reazione è inserire una parola chiave in un motore di ricerca online – nella maggior parte dei casi Google, che da solo copre l'80% delle richieste a livello mondiale. Nello spazio di un respiro, la nostra sete di conoscenza è così immediatamente gratificata da una selezione di migliaia di contenuti sull'argomento.

"Questo monopolio nel settore dell'informazione" avverte Noble "rappresenta una minaccia alla democrazia". Quando facciamo una ricerca sul web, la maggior parte di noi si ferma ai risultati contenuti nella prima pagina: legge le prime schermate dei primi siti della selezione e, soprattutto, quando il tema è lontano dal proprio campo di esperienza, ritiene, in questo modo, di aver acquisito informazioni sufficienti per farsi un'idea.

Di fatto, ci mette in guardia Noble, con le nostre azioni quotidiane finiamo per riconoscere ai motori di ricerca online la stessa autorevolezza che attribuiremmo a una persona esperta in tutti i campi del sapere, basando sulle informazioni che ci vengono presentate la costruzione di una nostra opinione sull'argomento, dalla quale verranno condizionate, inevitabilmente, anche le decisioni che prenderemo. 

Infatti, a meno di non fare una ricerca su qualcosa che abbiamo studiato e che conosciamo, non mettiamo quasi mai in discussione la selezione che il motore di ricerca ha fatto per noi. Abbiamo la tendenza a prendere per buone le risposte, come se fossero neutre, scientifiche, verificate. Con, in più, il vantaggio che sono gratuite, facilmente accessibili e a nostra disposizione in pochissimi minuti. 

Questi fattori ci portano a dimenticare che stiamo in realtà interagendo con motori di ricerca commerciali, il cui business consiste anche nel soddisfare le richieste dei propri clienti, cioè le imprese e le organizzazioni che pagano per indicizzare i propri contenuti e averli tra i primi risultati della ricerca: "il motore di ricerca di Google è una piattaforma pubblicitaria, che non nasce esclusivamente come risorsa informativa pubblica" spiega l'autrice. Non possiamo, in altre parole, equiparare la sua funzione a quella di servizi come le biblioteche: "Google crea algoritmi pubblicitari, non algoritmi informativi". 

L'accesso alla conoscenza, quindi, è solo apparentemente gratuito per l'utente finale – noi, che facciamo le domande. Ci sembra di usufruire gratuitamente di un servizio che, in realtà, paghiamo con una contropartita di informazioni – i nostri gusti, le nostre ricerche, le nostre curiosità inconfessabili – talmente ricca da consentire un livello di profilazione e conoscenza che spesso supera l'intimità e la condivisione che abbiamo con le persone che vivono con noi.

Tuttavia, afferma Noble, non si tratta solo di quello che, senza fare troppa attenzione, diciamo di noi stesse quando facciamo una ricerca online, ma anche di ciò che, con quella ricerca, ci viene restituito. 

L'autrice descrive infatti il potere degli algoritmi nell'era neoliberale e il modo in cui decisioni digitali che ci vengono presentate come neutre non solo non lo siano, ma, di fatto, rinforzino le relazioni sociali oppressive delle nostre società, mettendo in atto nuovi modelli di profilazione razziale.

Questa "oppressione algoritmica", secondo Noble, "non è semplicemente un difetto del sistema operativo del web; piuttosto, è fondamentale per il suo funzionamento". È un meccanismo che contribuisce ad acuire le disuguaglianze e a rafforzare le disparità di accesso e di controllo sulle risorse, ancora più temibile perché presentato come neutro e autorevole.

Attraverso esempi ricavati dall'analisi di ricerche testuali e sui media e da un'approfondita ricerca sulla pubblicità online a pagamento, Algorithms of oppression ci mostra come le informazioni che i motori di ricerca selezionano per noi siano spesso basate su pregiudizi (biased), quando non esplicitamente false (fake), contribuendo così a rafforzare stereotipi sulle donne, sulle persone razzializzate e sulle minoranze e, in ultima analisi, a una radicalizzazione delle posizioni.

Il saggio di Noble sottopone ad analisi critica il funzionamento dell'algoritmo della selezione, che, lungi dall'essere neutro e basato su mere scelte tecnologiche, riflette invece, e inevitabilmente, convincimenti etici e valoriali della maggioranza al potere (uomini bianchi, cristiani, di mezza età): "quando gli uomini progettano la tecnologia, lo fanno escludendo le donne, soprattutto le donne nere".

Parallelamente, l'autrice affronta il tema della catalogazione e dell'indicizzazione della conoscenza, mostrando come si tratti di un problema non nuovo: rimanda, infatti, agli stessi principi razzisti e colonialisti che ispiravano già i sistemi di catalogazione del sistema nazionale delle biblioteche americane e che, nonostante alcuni tentativi di correzione, si ripresenta con forza nella selezione delle informazioni del motore di ricerca a partire dai contenuti catalogati.

A questo scenario, Noble aggiunge un'ulteriore considerazione: nonostante alcuni casi clamorosi abbiano costretto alcuni motori di ricerca ad ammettere che la propria attività produce risultati condizionati dagli stereotipi e non sempre del tutto attendibili (come la gaffe razzista del 2015, in cui due persone nere sono state etichettate dal software Google foto come gorilla, ndr), la reazione delle multinazionali della conoscenza è stata limitarsi a scusarsi e dichiarare di non poter intervenire per ragioni legate alla tecnologia e alla necessità di difendere il diritto alla libertà di espressione. Quest'ultimo, tra l'altro, negli Stati Uniti è un principio costituzionale, che tutela la possibilità di esprimersi anche a siti negazionisti o espressamente razzisti, che non possono quindi essere rimossi.

Secondo l'autrice, prima che sia troppo tardi è necessario, da un lato, tenere vivo il dibattito sulla qualità delle informazioni, ad esempio in termini di verifica e autenticità delle fonti, soprattutto nel momento in cui Google diventa il motore privilegiato di ricerca anche di università ed enti pubblici. Dall'altro, capire come regolamentare la diffusione delle informazioni, guardando all'esperienza europea, anche quando sono gestite da soggetti privati che però svolgono una funzione di utilità sociale fondamentale per la tenuta delle nostre democrazie.

Infine, è fondamentale superare un approccio colour-blind che non riconosce, cioè, l'ampiezza del razzismo sistemico implicito nelle scelte dell'algoritmo, e che porta a ritenere che una maggiore presenza di persone razzializzate tra chi ne programma i funzionamenti possa essere sufficiente a contrastare i pregiudizi. Questo passaggio non potrà avvenire senza una riflessione profonda sui meccanismi attraverso cui oggi si forma la conoscenza.

Leggi anche

Discriminazioni algoritmiche

Le nuove bambole del sesso artificiale

Cinque video su donne e AI

Ivana Bartoletti, il futuro dei dati

Cinque libri su donne e AI