Prossima

L'intelligenza artificiale è percepita spesso come una minaccia dai media tradizionali, che ne alimentano una narrazione incentrata sui suoi rischi piuttosto che sul contributo che potremmo trarre dai suoi utilizzi creativi. L'analisi di una studiosa di comunicazione e media 

Rivoluzione (quasi)
misconosciuta 

11 min lettura
Credits Unsplash/Aidin Geranrekab
Rivoluzione misconosciuta

L'uso dell'intelligenza artificiale generativa nei settori dei media e della creatività sta cambiando radicalmente il modo in cui i contenuti vengono prodotti e distribuiti.

Per la precisione, lo ha già fatto. Per chi scrive, parlare di intelligenza artificiale in termini di "rivoluzione" significa quindi porre quest'ultima in una linea di continuità con altri media e altre innovazioni tecnologiche, che sono state dichiarate "rivoluzioni" quando erano già ampiamente in atto.

E come per ogni rivoluzione, fin dalla stampa a caratteri mobili di Gutenberg, anche per l'AI il fronte è diviso tra entusiasti e scettici – o tra "apocalittici e integrati", definizione con cui Umberto Eco descrisse gli atteggiamenti opposti della sfera intellettuale nei confronti della cultura di massa negli anni Sessanta.[1]

Il valore del confronto

L'aggettivo "misconosciuta" nel titolo di questo articolo si riferisce anche alla stampa, così definita da Elizabeth L. Eisenstein nel suo affascinante libro The Printing Press as an Agent of Change: Communications and Cultural Transformations in Early-Modern Europe (1979).

Secondo Eisenstein, l'effetto rivoluzionario della stampa è stato sottovalutato per via dell'attenzione che gli storici hanno riservato al suo ruolo nella diffusione di idee "nuove". Ma la vera novità fu che per la prima volta lettori e lettrici avevano la possibilità di vedere più testi insieme e confrontarli, accumulando informazioni ed elaborandole in modi nuovi. Questo ha prodotto una trasformazione radicale di quella che oggi chiameremmo "forma mentis" (in inglese, "brainframe"), con ripercussioni sulla società occidentale in senso più ampio.

L'uso dell'intelligenza artificiale nel settore dei media sta avendo gli stessi effetti dirompenti – ma ugualmente "misconosciuti" – della stampa: quando si parla di AI, i media e l'ambito creativo rimangono piuttosto nell'ombra all'interno del dibattito pubblico. 

Questo è certamente legato al fatto che, secondo l'indice globale di adozione dell'intelligenza artificiale (Global AI Adoption Index) recentemente elaborato dalla IBM, questi settori non sono tra quelli leader nell'adozione dell'intelligenza artificiale: in testa ci sono le aziende del settore dei servizi finanziari, in cui circa la metà dei professionisti IT che vi sono impiegati dichiara che la propria azienda utilizza l'AI attivamente. Segue il settore delle telecomunicazioni con il 37%.[2]

Panico morale

Per quanto riguarda l'Europa, la legge sull'intelligenza artificiale (AI Act, fondata sulla valutazione dei rischi dei nuovi prodotti, da effettuare prima della loro immissione sul mercato) non include il settore dei media tra le otto categorie "ad alto rischio", per via della definizione in essa contenuta sui sistemi di AI, considerati alla luce del loro impatto sui diritti fondamentali e sulla sicurezza.[3]

Condivido il criterio che sta alla base di questa classificazione, ma in qualità di studiosa dei media non posso fare a meno di pensare al ruolo molto delicato che i media svolgono nella società, proprio per la natura peculiare dei loro prodotti.

A differenza di altri settori, i media producono beni "simbolici" o "creatori di significato", che modellano la nostra percezione del mondo e orientano le nostre scelte – da chi votare a cosa comprare o a come educare i nostri figli e le nostre figlie. Sembra che questa peculiarità dei media ci venga ricordata solo di fronte a eventi inaspettati, che alimentano immaginari distopici e, spesso, risposte emergenzali da parte della politica.

Ed eccoci al "quasi" contenuto nel titolo. Di recente, l'impatto dell'AI sui media ha fatto irruzione nella sfera pubblica in numerose occasioni, producendo panico morale. In tutti i casi, si è trattato di episodi che hanno mostrato le inedite possibilità di falsificazione della realtà consentite dall'AI generativa.

Ad esempio, prima di essere smascherata, il 22 maggio 2023 la foto falsa di un attentato al quartier generale del Pentagono, apparsa su un profilo Twitter verificato – Bloomberg Feed – è diventata virale, facendo perdere 85 punti all'indice Dow Jones. 

Più di recente, la trasmissione, su emittenti radiofoniche locali, della voce del Presidente degli Stati Uniti Joe Biden, clonata dalla robocall della start up di intelligenza artificiale ElevenLabs, ha dissuaso le persone dal votare alle primarie repubblicane in New Hampshire, innescando un "giro di vite" governativo sull'AI.[4]

Queste reazioni sono comprensibili, soprattutto considerato che nel 2024 metà della popolazione mondiale sarà chiamata alle urne. Eppure, a ogni uso negativo dell'AI corrisponde un numero più alto di usi positivi. È grazie all'AI che è possibile individuare i cosiddetti deepfake.

Un esempio è rappresentato dalle "impronte digitali di disinformazione" di NewsGuard (un'estensione per browser Internet creata da NewsGuard Technologies, che contrassegna le notizie con un'icona di colore verde oppure rosso, permettendo così agli utenti di riconoscere le fake news ndr), che isolano le narrazioni di disinformazione più diffuse e forniscono dati in un formato leggibile sia dai sistemi di intelligenza artificiale che da chi si occupa di analizzarli. 

Un'altra applicazione, sviluppata dall'Università del Michigan, permette di identificare con precisione le notizie false nel 76% dei casi. Si tratta di applicazioni su cui si lavora ormai da anni.

La generazione vocale sintetizzata si presta anche a molti usi nella produzione audiovisiva e nel doppiaggio, consentendo di far fronte alla necessità delle piattaforme di streaming di avere una programmazione su misura per nicchie esigenti. Applicazioni come Hume AI di ComCast consentono di riconoscere ben sessanta "emozioni non verbali" culturalmente codificate (cioè espresse attraverso la voce e il suono). Finora esistevano solo sei emozioni universali.

Simbolismo e materialismo

Mi occupo di media e di Information and communication technologies (ICT) da un tempo sufficientemente lungo per essere consapevole del fatto che ogni innovazione tecnologica è stata accompagnata da un atteggiamento di "strabismo", in cui la percezione dei suoi usi distorti viene amplificata a scapito delle più numerose applicazioni benefiche. 

Vale tuttavia la pena demistificare alcune delle narrazioni che contribuiscono alla demonizzazione dell'AI, e che rischiano di ostacolarne il percorso verso una regolamentazione equilibrata.

Credo che questo significhi soprattutto mostrare che dietro ai principi etici, alle istanze filantropiche e alle preoccupazioni sociali si celano spesso interessi economici – che sono del tutto legittimi. Tuttavia, se vogliamo avere una visione chiara, è importante distinguere il simbolico dal materiale.

Come caso di studio, farò riferimento a un argomento molto dibattuto quando si parla di AI e industria culturale: il copyright. 

Com'è noto, la questione è finita sotto i riflettori con la denuncia del New York Times nei confronti di OpenAI e Microsoft, a cui si sono poi uniti molti organi di informazione (fra cui The Guardian, USA Today, il Washington Post, la CNN, CBS e NBC), impedendo ai bot di ChatGPT che raccolgono dati da Internet – i cosiddetti "crawler" – di accedere ai loro contenuti. Alcune piattaforme hanno fatto lo stesso, tra cui X, Pinterest e Amazon.

Quando si è diffusa la notizia che negli Stati Uniti i giornali e i siti di destra, come Fox News, The Daily Caller e Breitbart, non avevano bloccato i crawler, è sorta una domanda: si tratta semplicemente di un ritardo tecnico o di un progetto che ha lo scopo di politicizzare le risposte degli algoritmi, addestrandoli con i contenuti dei giornali di destra e sfruttando così i blocchi delle loro controparti liberali

Non sarebbe il primo caso di politicizzazione dell'AI generativa. Ad esempio, ERNIE Bot, la versione cinese di ChatGPT, è stato progettato per evitare discussioni su Taiwan o Xi Jinping.

A questa domanda se ne aggiunge un'altra: se gli editori di informazioni di qualità, siano essi di destra o di sinistra, consentono solo l'accesso a pagamento, i crawler finiranno per nutrirsi unicamente dei "contenuti-spazzatura" gratuiti presenti sul web?

Questo timore, a mio avviso, si basa su due presupposti fallaci. In primo luogo, la convinzione che l'AI generativa sia alimentata esclusivamente o prevalentemente da articoli di giornale. Al contrario, le risposte vengono prodotte utilizzando l'intera "enciclopedia" del web, fatta di testi, ma anche di immagini, video, dati e suoni, che aumentano notevolmente la probabilità di ottenere risultati affidabili.

In secondo luogo, l'equazione secondo cui l'informazione gratuita è di scarsa qualità e quella a pagamento è affidabile rivela un cortocircuito: i modelli di business gratuiti sono sempre stati utilizzati in ogni settore dell'industria mediatica, in primis dai quotidiani, che sono finanziati dalla pubblicità. Tuttavia, questo non impedisce agli editori della carta stampata di considerarsi produttori di informazioni di qualità.

L'idea che l'AI generativa rappresenti una minaccia per la catena di valore del settore giornalistico è ampiamente condivisa. Ad esempio, lo scorso ottobre, la News/Media Alliance (un'associazione di categoria senza scopo di lucro che rappresenta circa 2.000 testate giornalistiche negli Stati Uniti e in Canada) ha pubblicato un rapporto che evidenzia l'impatto negativo dell'AI e dell'uso non autorizzato di contenuti protetti da copyright sulla sostenibilità e sulla disponibilità di contenuti originali di alta qualità.

In questo caso si riscontrano analogie con la direttiva europea sul diritto d'autore, che prevede la possibilità per le piattaforme online di fornire un'equa remunerazione agli editori della carta stampata per l'utilizzo online delle loro pubblicazioni.[5]

Nell'emendamento 55 della direttiva, questa possibilità è giustificata al fine di "garantire la sostenibilità dell'industria editoriale e favorire così la disponibilità di informazioni affidabili". 

Non è un caso che dividere equamente i proventi dell'uso di contenuti protetti da copyright sia la soluzione individuata anche da Danielle Coffey, CEO e Presidente della News/Media Alliance, per far fronte alla temuta depredazione di tali contenuti da parte dei crawler, "in maniera simile a come Netflix o Spotify compensano i creatori di contenuti per la loro proprietà intellettuale", sostiene Coffey.

Tutto questo si traduce in un'altra serie di aspetti da chiarire. Il primo è l'insistenza sul fatto che le informazioni affidabili e verificate siano una prerogativa del settore giornalistico, e che il tempo e le risorse necessarie per produrle debbano essere monetizzate con un "equo compenso".

Una risposta a questa domanda è che ci vuole molto più tempo per pubblicare articoli scientifici su riviste peer-reviewed, che in termini di affidabilità non sono certo inferiori agli articoli di giornale. Tuttavia, nessuna persona che detenga diritti relativi a pubblicazioni scientifiche ha mai chiesto un equo compenso per il loro sfruttamento online.

In secondo luogo, quando chiediamo a un settore del mercato (le Big Tech ieri, le aziende di AI generativa oggi) di sostenerne un altro (gli editori) attraverso un'equa remunerazione, attribuiamo a quel settore una funzione sussidiaria che è più tipicamente una funzione delle autorità pubbliche.

In terzo luogo, asservendo il diritto d'autore alla sostenibilità di un'informazione "affidabile" o "di qualità", si snatura la sua logica, che mira esattamente al contrario: proteggere le opere dell'ingegno, comprese le pubblicazioni a mezzo stampa, per promuoverne la ricchezza, indipendentemente dalle valutazioni di merito.

Un conflitto di interessi economici

Oltre alle questioni teoriche, esiste anche un conflitto di interessi economici. Le risposte fornite da AI generative come ChatGPT potrebbero portare a bypassare la fonte (gli articoli di giornale), facendo approdare gli utenti su un motore di ricerca, un aggregatore di notizie o altri servizi di piattaforme online. In questo modo, gli editori di articoli si troverebbero privati dell'opportunità di monetizzare l'uso dei loro prodotti.

Tenendo conto di questo, analizziamo la soluzione introdotta dalla legge europea sull'AI, che all'articolo 60i recita: "Qualsiasi utilizzo di contenuti protetti dal diritto d'autore richiede l'autorizzazione del titolare del diritto interessato, a meno che non si applichino le relative eccezioni e limitazioni al diritto d'autore".[6]

Si tratta certamente di una soluzione ragionevole. Tuttavia, vale la pena di "fare l'avvocato del diavolo" per individuare - e in futuro, eliminare - eventuali contraddizioni. 

La prima è la seguente: perché le persone che leggono i giornali non hanno bisogno dell'autorizzazione del titolare dei diritti per utilizzare i loro contenuti? I lettori e le lettrici usano questi contenuti per imparare, conoscere e dare agli altri e a se stessi risposte sul mondo. Esattamente come fanno gli algoritmi generativi.

E se questi lettori e lettrici, attraverso la lettura dei giornali, diventassero dei veri e propri esperti, sarebbero certamente in grado di fornire risposte affidabili a domande su temi e fatti. In questo modo, potrebbero rappresentare dei pericolosi concorrenti per i giornali, e potrebbero essere indotti a "scavalcarli". Si comporterebbero esattamente come l'AI generativa.

Apprendere da informazioni protette da copyright

Si potrebbe obiettare che quando gli algoritmi di intelligenza artificiale generativa si allenano su articoli di giornale o altri contenuti protetti da copyright, lo fanno per imparare, in modo tale da perfezionare le risposte che forniscono agli utenti – a pagamento. 

A questa obiezione rispondo che anch'io ho sempre imparato e continuo a imparare (da libri e articoli di giornale) per trarne guadagno in termini economici: ho conseguito una laurea e un dottorato di ricerca, e ho superato le selezioni pubbliche per diventare docente universitaria e monetizzare così le competenze che ho acquisito attraverso contenuti protetti da copyright nel corso della mia vita. Oggi, purtroppo, quasi nessuno studia pro bono.

Concludo qui questa argomentazione paradossale, che ho fatto al solo scopo di mostrare come l'intelligenza artificiale e l'intelligenza umana seguano logiche non dissimili. 

Per regolamentarle, non dovremmo quindi usare due pesi e due misure. Credo che una regolamentazione equilibrata dell'intelligenza artificiale, sia sul fronte della violazione del copyright che su molti altri, non possa prescindere da due azioni preliminari. 

La prima, un'analisi rigorosa dell'interazione tra i diversi attori e dei flussi economici reali: chi guadagna di più da quali servizi/contenuti protetti da copyright? La seconda, una diagnosi precisa. Si suppone che la regolamentazione avvenga quando c'è un problema da risolvere. 

Le patologie vanno prima identificate, e solo allora potremo decidere le terapie più efficaci.

Questo testo è una traduzione dell'articolo The (almost) unacknowledged revolution of AI in the media and creative industries pubblicato sul volume 52, numero 1 di marzo 2024 della rivista InterMEDIA

Note

[1] U. Eco, Apocalittici e integrati, Bompiani, Milano, 1964.

[2] Cina (85%), India (74%) ed Emirati Arabi Uniti (72%) sono i mercati più propensi ad accelerare l'adozione dell'AI, mentre le meno propense sono le aziende del Regno Unito (40%), dell'Australia (38%) e del Canada (35%).

[3] L'unica eccezione è rappresentata dall'industria dei videogiochi, dannosa per la sicurezza e lo sviluppo dei minori.

[4] Si definisce "robocall" una chiamata telefonica che utilizza un compositore automatico computerizzato per fornire un messaggio preregistrato, come se provenisse da un robot, ndr.

[5] Si veda la direttiva (UE) 2019/790 del Parlamento europeo e del Consiglio europeo del 17 aprile 2019 sul diritto d'autore e i diritti connessi nel mercato unico digitale, che modifica le direttive 96/9/CE e 2001/29/CE.

[6] Proposta di regolamento del Parlamento europeo e del Consiglio d’Europa del 26 gennaio 2024, che stabilisce norme armonizzate sull'intelligenza artificiale (Atto sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione.