Senza una critica femminista della tecnologia, l'intelligenza artificiale generativa rischia di restare un coacervo di pregiudizi e stereotipi: uno specchio che deforma la realtà, appiattendo diversità e vissuti specifici su caratteristiche appartenenti a soggetti privilegiati spacciati per neutri. Quello sui Large Language Model dev'essere articolato come un discorso sul potere

Sguardi queer
sull'AI

L'intelligenza artificiale generativa è uno strumento di massa per la riproduzione sociale, capace di immagazzinare informazioni ed elaborare proiezioni. Dotati di interfacce intuitive e a basso costo, i Large Language Model (LLM), come ChatGPT, sono i motori della sua rapida diffusione audiovisiva in versione sintetica. Spesso si sottovaluta quanta influenza eserciti, in questo processo, il sostrato culturale

Il mondo familiare, dice Sara Ahmed, studiosa femminista, inizia con la prossimità, ovvero dagli oggetti che ci circondano, offerti e resi disponibili in quanto omologati.

Quali storie è in grado di elaborare l'intelligenza artificiale generativa se non quelle che conosce già? Le analisi di impatto hanno evidenziato la presenza di distorsioni all’interno dei modelli, ma si sono concentrate su dove e su chi ricadono i danni (sanità, servizi assicurativi, pubblicità, giustizia), piuttosto che sulla rappresentazione, sulla visibilità politica e sulle possibili conseguenze indirette – impedire di determinare la propria identità, oggettificare, sminuire o eliminare gruppi sociali a discapito di altri, diffondere stereotipi e replicare come “normali” certi stili di vita, escludendo tutto ciò che è ambiguo, marginale o non conforme.

L'intimità non smette di essere un campo di battaglia. Modernizzando le tecniche dell’industria culturale mainstream, piattaforme di AI generativa come Midjourney, Stable Diffusion e Dall-E (di OpenAI), insieme al realistico text-to-video di Sora (OpenAI), creano ritratti che rispondono al senso comune, dove le differenze di età, peso e disabilità scompaiono, reiterando così forme di ingiustizia. 

D’altra parte, un’alterazione dei prompt in Gemini (l’LLM di Google), ha comportato piogge di critiche per aver adottato la scelta (definita woke) di generare immagini antistoriche, probabilmente in reazione a una prevalenza caucasica. 

Nel caso degli LLM, è complicato risalire al percorso che ottimizza le tracce digitali (nome, e-mail, età, genere, posizione, dispositivo, per menzionarne alcune) con la tipologia delle ricerche. Da un punto di vista sociale, non è statisticamente rilevante quante volte sarà presentata una storia che sfugge dall’ordinario, ma è politico il numero di volte in cui non comparirà. Molti modelli evitano riferimenti espliciti all’identità queer, producendo risposte neutre o eccessivamente cautelative, talvolta rimuovendo termini classificati come “contenuti sensibilI”.

De-eteronormare (unstraightness) l'intelligenza artificiale è la sfida di gruppi di ricerca come Queer in AI (organizzazione no-profit nata nel 2017) e di moltə artistə, che devono fare i conti con le inerzie legate all’iperpositività dei canoni estetici e all'antisessualità incorporata dai modelli. Una tendenza produttiva che va a discapito della creatività. 

Sul profilo Instagram RuPublicans, l'AI generativa viene utilizzata in deepfake satirici che ritraggono politici anti-Lgbtqia+ (GOP Glammed Up) come drag, per raccogliere fondi a supporto di cause queer, aggirando le policy sul contenuto politico. 

Soluzioni alternative, infatti, contemplano l’elusione della moderazione con variazioni lessicali e un utilizzo combinato di più LLM per perfezionare il risultato. Tali forme di appropriazione sono manifestazioni di agency, cioè del ruolo attivo che le persone queer hanno nell’interazione con l'intelligenza artificiale generativa, e accrescono le consapevolezze, come distinguere – con un gioco di parole - ciò che è "diritto" da ciò che è giusto. 

Nondimeno, quando si osservano i dati sulla produzione di deepfake, sono i tratti della cultura patriarcale a palesarsi: il 96% ha contenuto pornografico, e il 99% raffigura donne (a prescindere da siti come SocialMediaGirls). Ribaltare il tavolo, in ogni caso, è possibile. 

In un esperimento che ha coinvolto alcunə artistə nell'ambito delle arti figurative e performative, dell'editoria e dell'architettura, è stato chiesto loro di applicare un “uso queer” all'AI generativa, che recupera la visione di Sara Ahmed sull’interazione con gli oggetti in modi o da parte di soggetti non previsti dallə designer, ovvero non allineati alle norme sociali (parla, infatti, di straightening devices). 

È emerso che la moderazione dei contenuti è fortemente sbilanciata su concetti come “sicurezza”, “decenza” e “oscenità”. Sono quasi del tutto assenti identità transgender e non-binarie, mentre il corpo femminile è sessualizzato – causandone l’esclusione e l'appiattimento dei risultati – e non sono ammesse critiche nei confronti delle forze dell’ordine. 

Il rapporto tra artista e dispositivo è alterato dalla frizione che vede le aziende automatizzarne il lavoro, mentre replicano le opere senza previo consenso (da qui è nato Glaze, strumento che inserisce una particolare filigrana per disturbare gli LLM che cercano di imitarne lo stile). 

Nightshade, un attacco di data poisoning (cioè di manipolazione intenzionale dei dati) insinuato nelle vulnerabilità dei sistemi, è la prova che la negoziazione può diventare un percorso obbligato per creator e sviluppatori verso l'acquisizione su licenza dei dati. 

Le ricerche dimostrano anche che non c’è univocità nell’utilizzo dell’intelligenza artificiale nell’arte: talvolta diventa uno strumento di critica nei confronti della tecnologia, altre volte a essere apprezzati sono proprio incertezze e allucinazioni dei modelli stocastici. Per esempio, la rapida ripetizione del prompt permetteva di aggirare la moderazione, ma alcunə artistə hanno notato che è il controllo sull’output ad agire come censura.

Rappresentazioni rispondenti alla realtà richiedono più dati. La studiosa Sonia Katyal, co-autrice di The Gender Panopticon, invita i gruppi maggiormente colpiti a fornire quei dati mancanti, correndo il rischio di alimentare un sistema che non ha intenzione di porsi come equo. 

Lo vediamo da come cambia la qualità dell’immagine nella restituzione del Nord e del Sud globale, dove persistono stili caricaturali e orientalismo, semioticamente analoghi alle tecniche di riduzione che delegittimano la presenza dei contenuti. 

In DALL-E 3, la queerness corrisponde a persone giovani, magre, mascoline, bianche, occidentali e adornate di arcobaleni, così come in altri modelli la discriminazione discorsiva crea omogeneità latente nei temi associati a specifici gruppi sociali (la comunità Lgbtqia+ parla soltanto di coming out?). Nella sua analisi, Grace Leonora Turtle suggerisce, anzi, che si possano rifiutare le forme tradizionali di computabilità culturale, affrontando e giocando con l’idea delle mutazioni e del divenire performativo.

L’omologazione dell'AI generativa è un discorso sul potere, che deve essere trasferito dalle corporation digitali alle comunità marginalizzate.

Per approfondire

Ahmed, S. (2006). “Orientations: Toward a Queer Phenomenology”, GLQ: A Journal of Lesbian and Gay Studies, 12 (4), 543-574. 

Ahmed, S. (2019), What’s the use?: On the uses of use, Duke University Press.

Gillespie, T. (2024). “Generative AI and the Politics of Visibility”, Big Data & Society,
April-June: 1–14.

Katyal, S. K., & Jung, J. Y. (2021). The Gender Panopticon: AI, Gender, and Design Justice. UCLA L. Rev., 68, 692.

Santoriello, S. C. (2025). “Whose Reality? Consent Boundaries and Free Speech Arguments in the Politics of Generative AI”, Politikon: The IAPSS Journal of Political Science, 59 (2), 29-56. 

Turtle, G. L. (2022). “Mutant in the mirror: Queer becomings with AI”, DRS Biennial Conference Series, Bilbao, June 25th


Source URL: https://www.ingenere.it/prossima/sguardi-queer-ai