Come sta cambiando il nostro senso della realtà? In che modo nuovi strumenti possono rinsaldare vecchie ingiustizie e come un'arte digitale femminista può riformulare il concetto di 'embodiement' alla luce delle narrazioni sugli eventi in corso? Una conversazione con Ameera Kawash, artista, scrittrice e giornalista di origine palestinese e iracheno-americana

L'arte non
è un fake

L'intelligenza artificiale generativa sta cambiando radicalmente il nostro modo di considerare la realtà, inserendosi a pieno titolo in un processo già in corso di ridefinizione del concetto stesso di "verità". Questo ha delle implicazioni intrascurabili da un punto di vista non solo etico e politico, ma anche epistemologico, e offre nuove prospettive per ripensare un'arte femminista. 

Ne abbiamo parlato con Ameera Kawash, artista interdisciplinare, scrittrice e giornalista di origine palestinese e iracheno-americana, che oggi vive a Londra, dove ha conseguito un dottorato di ricerca presso il Royal College of Art e sta lavorando a una mappatura dell’Ai generativa nelle culture popolari e del suo impatto sulla giustizia rappresentativa. 

La sua pratica intreccia con un approccio critico arte, media e tecnologie, concentrandosi su progetti di archiviazione e innovazione localizzati nel Sud del mondo e nelle sue diaspore. Di seguito, la conversazione che abbiamo avuto Roma, in occasione dell’ultima edizione di inQuiete, festival di scrittrici.

Nella tua ricerca, analizzi il modo in cui i contenuti generati dall'intelligenza artificiale – come i deepfake, i testi automatizzati e altre forme di manipolazione delle informazioni – influenzano la percezione pubblica della violenza politica, ci racconti cosa significa?

Oggi esistono immagini create interamente a partire dai dati, e che sono quindi completamente costruite. Queste immagini sono il risultato di una sintesi che combina e semplifica una grande quantità di informazioni, e sono state addestrate in base a valori che non possiamo comprendere perché le aziende hanno reso questi processi opachi. Non abbiamo idea di quali siano le logiche attraverso cui le immagini vengono istruite e modellate e in base a quali valori. Ora che esiste questo ulteriore strato artificiale tra noi e quello che accade nella realtà, l'esperienza vissuta e la nostra capacità di esserne testimoni – anche a livello digitale – dovremmo chiederci come cambia il nostro modo di stare davanti alle cose.

Che ruolo giocano queste tecnologie nel plasmare o distorcere le narrazioni sugli eventi? Prendiamo l’esempio di quello che sta accadendo in Palestina, a cui tu hai dedicato diverse ricerche.

In relazione alla Palestina, quello che ho potuto riscontrare nei pregiudizi contenuti negli stessi modelli di partenza da cui gli algoritmi attingono è questa massiccia manipolazione, ma i criteri con cui le immagini vengono costruite restano oscuri. Ci sono elementi che restano fuori dall’inquadratura: prendiamo l'immagine iconica del bambino palestinese che si salva dai bombardamenti, o del bambino che scappa da un edificio che è stato colpito: c'è catastrofe ovunque, ma le immagini sono state chiaramente modificate per non mostrare, ad esempio, i carri armati israeliani o la presenza di militari. Il livello di manipolazione delle immagini è altissimo, e allo stesso tempo questo non le rende meno credibili. 

Pensi che ci sia un margine anche minimo per l’autodeterminazione in questo processo?

Penso che l’autodeterminazione sia collegata all'autorappresentazione: se in questi sistemi ce ne fosse la possibilità, il risultato sarebbe completamente differente. Ci troveremmo di fronte a immagini diverse se, per esempio, fossero le persone palestinesi a produrle, e a controllare il processo di manipolazione e immissione dei dati. Ma non è quello che sta accadendo. Nella maggior parte delle aziende, da Meta a MidJourney, non solo non è previsto un processo di autorappresentazione, ma non c'è nemmeno un dialogo con le comunità che vengono rappresentate.

Ameera Kawash

In che modo il tuo lavoro intercetta le questioni sollevate dalle intelligenze artificiali e dai media sintetici?

Sono impegnata in una mappatura critica dell'ecosistema, per analizzare come queste tecnologie vengono usate contro gruppi emarginati e oppressi, come aziende specifiche si posizionano a livello di responsabilità e trasparenza, in particolare per quanto riguarda l'uso dell'Ai in ambito militare, ad esempio, ma anche dei social media, e come i diversi stati e gli altri attori coinvolti li usino per la sorveglianza. Questa operazione di mappatura e comprensione pubblica del panorama che si va formando mi sembra fondamentale. Non so se possiamo parlare di opportunità, ma credo che il rischio sia quello di creare sistemi basati sul divario digitale, e che dovremmo cercare in tutti i modi di prevenirlo.

A quali condizioni secondo te le intelligenze artificiali potrebbero offrire opportunità di "resistenza" o di "emancipazione" per voci e comunità emarginate dal discorso pubblico?

Nel caso della Palestina e di Israele, al momento c’è una sorta di apartheid tecnologica. Per dire, Israele ha accesso al 5G, mentre le infrastrutture palestinesi, le torri telefoniche, ecc., sono fortemente limitate. Anche prima dell'attuale genocidio, Gaza aveva accesso unicamente a reti 2G. Credo che non si tratti solo di opportunità, ma di un imperativo a una maggiore partecipazione a questo sistema, in particolare per i gruppi oppressi ed emarginati, che spesso si trovano dall'altra parte del divario digitale. 

Quindi, concretamente, quale sarebbe l’approccio auspicabile per uno scenario diverso?

Sarebbe necessaria un'analisi politica del divario digitale, del suo impatto reale su queste comunità e sulla vita quotidiana. Dal mio punto di vista, sono fondamentali un accesso e una partecipazione maggiori e più radicali a questi sistemi, che non offriranno nessuna opportunità se non cambiamo non solo chi partecipa, ma anche chi innova e crea soluzioni. L'intelligenza artificiale viene presentata come universale, progettata in maniera generalista. In realtà non è così: è stata progettata secondo prospettive dominanti, per utenti egemonici, per lo più situati nel Nord del pianeta. E invece la natura dell'innovazione dovrebbe spostarsi a Sud, verso i gruppi emarginati e oppressi a livello globale. Dovremmo mettere queste voci al centro del discorso.

Tatreez Garden
Ameera Kawash, Tatreez Garden

In Tatreez Garden hai lavorato alla reinterpretazione del ricamo tradizionale palestinese attraverso l'Ai per decolonizzare lo sguardo su una cultura troppo spesso oppressa dalle stesse narrazioni che la raccontano, e lo hai fatto intessendo una sorta di giardino immaginario. È un lavoro che ho trovato delicato e bellissimo, quale ruolo pensi possa avere oggi l'arte digitale?

Chi sperimenta forme di arte digitale dovrebbe avere un ruolo di peso nello sviluppo tecnologico, perché l’approccio nei confronti delle tecnologie è molto più complesso, stratificato e dotato di sensibilità quando abbiamo a che fare con l’arte: perché ingloba al suo interno le prospettive delle comunità, gli studi critici decoloniali, il materiale biografico personale che ogni artista porta con sé, l’arte performativa e altre modalità più informali di lavorare o intendere la produzione. Penso che il processo artistico dovrebbe essere alla base di ogni innovazione. Quello tecnologico è un settore dominato da interessi commerciali nella progettazione di uno scenario molto limitato e di stampo capitalistico, l’arte invece offre un approccio intrinsecamente più esplorativo ai problemi, e partendo da punti di vista più ampi.

Rispetto a tutto questo che postura affidi al tuo lavoro?

Per quanto riguarda il mio lavoro, da un lato ho un approccio di ricerca critico ai media, quindi mi sento coinvolta in prima persona in questa mappatura. Dall'altro, sono un’artista digitale e voglio anche “giocare”, usare e provare le tecnologie. Sono sicuramente a favore dell'intelligenza artificiale, per esempio, e quindi in questo senso c’è una duplicità etica da parte mia. Ma credo che come artista – dal momento che per un’artista è più importante “fare” che assumere una posizione impeccabile dal punto di vista teorico – sia giusto sporcarsi un po' le mani, sperimentare. Per chiedersi, ad esempio, cosa succederebbe se mettessimo le narrazioni palestinesi, l'artigianato, al centro, usando queste tecnologie. Il risultato avrà un reale impatto sociale e politico.

Da femminista, immagini che le donne e i soggetti altri sfideranno i discorsi dominanti per lavorare ad altre narrazioni, usando l’Ai e i media sintetici nei prossimi anni?

Ho una certa familiarità con l’universo delle startup e dell'innovazione. E so che, per esempio, le aziende fondate da donne e guidate da donne sono, circa l'1-2% di quelle che vengono finanziate dai grandi venture capital. È assolutamente vergognoso, e non se ne parla abbastanza, del fatto che le aziende tecnologiche fondate da donne e guidate da donne siano ancora così poche. Credo che questo sia un aspetto che rende gran parte dell’innovazione tecnologica un processo che intrinsecamente va contro le donne. Concetti chiave del femminismo, come quello del consenso, mi sembrano nodi fondamentali di cui tener conto nella progettazione delle tecnologie. Perché spesso invece ci troviamo di fronte a sistemi non basati sul consenso. È quello che sta accadendo ai sistemi di gestione del welfare in Brasile o in India, dove per ricevere i sussidi, bisogna accettare la digitalizzazione. Non si tratta di un modello consensuale, perché o si accetta o si perdono tutti i benefici. Uno degli aspetti messi in evidenza dagli approcci femministi al consenso è proprio la dinamica del potere. Quanto potere abbiamo di dire: “no, non voglio usare questi sistemi”, che impatto avrà questo sulla nostra vita quotidiana. Penso che dovremmo costruire sistemi che siano per definizione più consensuali, e credo che le donne si sentano molto più propense a farlo.

Black body radiation
La performer Ama BE in un momento di Black Body Radiation di Ameera Kawash

La tua opera Black Body Radiation, è una meditazione sulla visibilità e l'invisibilità del corpo nell'era digitale. L'embodiment è stato un concetto chiave nella teoria femminista; come potremmo ripensarlo oggi nello spettro dell'Ai e dei media digitali? In che modo esplorare il concetto di corpo può dare vita a nuove forme di presenza, resistenza e identità?

È un lavoro che ho realizzato insieme ad Ama BE, una performer ghanese-americana, e a un’amica di vecchia data. Cercavamo di creare forme alternative di documentazione per le opere d'arte performative, perché queste tendono a essere molto più difficili da documentare, e per questo non sono trattate con la stessa solennità che tipicamente ritroviamo nel canone della storia dell'arte – a eccezione della fotografia, che non rientra nei parametri della performance. Volevamo che il processo di documentazione fosse innescato dall'embodiment dell'artista, dai suoi gesti, dai movimenti e dalle coreografie, così abbiamo sviluppato una struttura digitale in cui Ama BE indossa un computer che è stato programmato per generare avatar in base al movimento, alla frequenza del respiro, ai livelli di sforzo, ai dati biometrici. Alla base di quest’opera ci sono le maschere tradizionali dell'Africa occidentale. Volevamo rintracciare l'avatar attraverso quest’idea della maschera intesa come un vuoto di sé che allo stesso tempo rappresenta un’identità piena. È una strana dualità in cui non si è disincarnati quando si entra in contatto con il digitale, come invece accade in un contesto di sfruttamento coloniale delle tecnologie.

Con Orbital Bloom indaghi l’intersezione tra crisi ambientale e spazio digitale. Come si evolverà, secondo te il rapporto tra arte femminista e crisi climatica? Quale pensi possa essere il ruolo di una prospettiva di questo tipo nell'affrontare le sfide che riguardano il pianeta?

Il mio lavoro sulla sostenibilità e sulla ricerca di modi alternativi per dare forma al processo di traduzione della realtà in dati riguarda la creazione di un sistema basato sulla natura, in cui i dati climatici – nel caso di Orbital Bloom, le informazioni relative alla sostenibilità degli edifici – acquisiscono un'autonomia, come in un sistema digitale influenzato da ecologie femministe in cui l’autonomia non è centralizzata o controllata da una forza o un attore specifico. In questo quadro, poiché stiamo creando media biofili, vale a dire progettati in relazione al funzionamento degli ecosistemi, i dati ora assumono una forma radicata nella natura. Ma questi dati provengono da sistemi naturali, da sensori che registrano il consumo elettrico, l’uso dell’acqua e la relazione con la riduzione di emissioni di gas serra. Esiste il rischio di una riduzione della natura a un dataset, che diventa un’ontologia piatta e piuttosto violenta. La domanda è, come possiamo dare una nuova dimensione ai dati, trasformandoli in mondi, in modo da generare mondi digitali partendo da quei dati? È dalle connessioni tra disumanizzazione digitale e potenziale riduzione della capacità di agire della natura, dei suoi attori e dei sistemi ecologici che dobbiamo ripartire.


Source URL: http://www.ingenere.it/node/9486