Perché non possiamo fare a meno di Taiwan
Una storiella americana – quasi una leggenda metropolitana perché di difficile attribuzione – racconta di una grande impresa manifatturiera, probabilmente una cartiera di Chic
Come riconoscere allora il contenuto prodotto da un uomo da quelli creati dall’Intelligenza artificiale? Al momento non c’è una vera risposta e mancano ancora regole certe.
«È la prima volta che il futuro dell’umanità si giocasu ciò che non facciamo, piuttosto che quello che facciamo. Finora il progresso si è verificato in funzione delle nostre azioni. Mentre ora dobbiamo davvero sapere quando e come dire no, collettivamente» sostiene Mustafa Suleyman, uno dei cofondatori di DeepMind, azienda di Intelligenza artificiale. Nel recente saggio The coming Wave (ed.Crown), Suleyman si riferisce ai rischi che lo sviluppo senza limiti dell’Intelligenza artificiale (IA) può determinare per il futuro dell’uomo. E non si tratta solo di posti di lavoro spariti, o di perdere il controllo dei sistemi di difesa o delle centrali nucleari, quanto di qualcosa di peggio: della fine della democrazia e della convivenza pacifica sulla Terra. L’AI sta infatti ingigantendo l’impatto della disinformazione, mettendo in discussione la fiducia generale nell’ informazione online e sollevando interrogativi sulla possibile manipolazione dell’opinione pubblica.
I ricercatori della Freedom House, organizzazione dedicata alla difesa dei diritti umani, hanno raccolto evidenze di come, nel corso del 2022, almeno in 16 Paesi l’intelligenza artificiale generativa sia stata utilizzata per seminare dubbi, diffamare gli avversari o influenzare il dibattito pubblico. Lo scorso luglio uno studio pubblicato sull’autorevole periodico Science ha dimostrato come la maggior parte degli utenti tenda a fidarsi delle risposte a una domanda fornite dall’intelligenza artificiale, dando per scontato che siano esse stesse a scartare a priori le fake news, mentre non funziona così. In questo modo si rischia che le informazioni false e gli stereotipi negativi si diffondano sempre di più. Ecco perché istituzioni e organismi di ricerca si stanno muovendo per redigere una normativa anti fake news, a cominciare dall’International Panel on the Information Environment, diretta da Phil Howard, direttore del programma su Misinformation, Science and Media dell’università di Oxford, che raccoglie i migliori scienziati del pianeta per combattere la disinformazione nell’epoca dell’intelligenza artificiale.
Il problema di oggi non sono, in realtà, le notizie false, che sono sempre esistite, bensì la velocità con cui ora si propagano. Come ha spiegato Tristan Harris, direttore del Center for Humane Technology della Stanford University le ricerche indicano che le notizie false si propagano sei volte più velocemente di quelle vere. E le piattaforme favoriscono questa velocità perché lo scopo di Facebook, Instagram e di altri social media è catturare con le notizie più divisive l’attenzione della gente, per poi motivarla a condividerle tramite la gratificazione rappresentata dal numero di interazioni. Più provocatorio è il contenuto, più la strategia ha successo. Ma che effetto può avere questo meccanismo sulla democrazia nei nostri Paesi? Finora i risultati delle ricerche sul potere dei social media nell’influenzare le nostre opinioni politiche non sono stati univoci. Quindi, proprio per fare chiarezza, il team del citato International Panel on the Information Environment ha esaminato centinaia di studi sull’impatto dei social sulle convinzioni delle persone, e ne ha ricavato che per evitare che si convincano di cose false funzionano solo due strategie: 1) etichettare i post precisando da chi sono pagati e facendo fact checking e 2) fare debunking delle informazioni sbagliate tramite un personaggio autorevole.
Per fortuna ora anche i governi sono entrati nel gioco. L’Unione Europea ha promosso il Digital service act, in vigore dal 17 febbraio 2024, che obbligherà i grandi aggregati e le piattaforme di social media a limitare il proliferare di contenuti illegali, imporrà di essere più trasparenti circa le modalità di moderazione delle discussioni e permetterà agli utenti di affrontare i gestori delle piattaforme quando credono che un loro contenuto sia stato ingiustamente rimosso. Anche Australia, Brasile, Canada, Regno Unito e Stati Uniti stanno proponendo una legge al riguardo, ma il principale problema è che tutto questo succede mentre si affaccia un’altra minaccia: l’intelligenza artificiale generativa che produce testi, foto e video convincenti in risposta a prompt umani.
Ora si può allenare il chatbot ChatGPT a produrre in pochi istanti migliaia di post con notizie fasulle per vedere quali vanno di più. E studi recenti dimostrano che i post scritti dall’intelligenza artificiale sembrano perfino più convincenti di quelli umani, perché sono scritti in modo più accattivante e sintetico. Non è finita: nel luglio scorso, i ricercatori di Logically, società che combatte la disinformazione, hanno chiesto a 3 software che generano immagini, cioè Midjourney, Dall-E2 e Stable diffusion di produrre false immagini su argomenti dibattuti negli Stati Uniti, in India e nel Regno Unito. Sono state prodotte alcune immagini fuorvianti, ma profondamente realistiche, quali una manifestazione per presunte frodi elettorali negli Stati Uniti, con i manifestanti ai piedi della statua di Isaac Newton a Cambridge. Ben l’86% delle immagini prodotte dai 3 software era estremamente credibile per quanto del tutto falso.E prossimamente l’AI potrà produrre simultaneamente testi, video e foto false, imparando da sola quali argomenti attirano di più.
Come riconoscere allora il contenuto prodotto da un uomo da quelli creati dall’IA? Una possibilità è prendere in prestito tecniche mutuate dalla crittografia, e specificamente una sorta di “firma digitale” da applicare sui social. L’idea è che, come nella crittografia si usano le firme digitali per verificare l’autenticità di chi redige un documento, si possa usare lo stesso meccanismo di verifica per capire se chi ha prodotto un certo post sui social media sia umano o no. La migliore soluzione a lungo termine però resta l’educazione digitale, seguendo casi di successo come la Finlandia. Nel Paese nordico i corsi di educazione digitale si seguono fin dalle elementari, e le persone vengono “inoculate” dal male della disinformazione, ovvero gradualmente esposte a teorie manipolatorie, come vari tipi di complottismi e ad atti di bullismo, per abituarle a sviluppare una sorta di resistenza cognitiva.
Educare i cittadini, però, richiede più tempo di quello in cui le nuove tecnologie si sviluppano, ed è difficile prevedere come finirà. La prospettiva migliore è che Big tech, governi e istituti di ricerca si alleino per contrastare l’azione dell’AI sulle fake news. La peggiore è che le piattaforme si rifiutino di seguire delle regole e i legislatori non abbiano la forza di fargliela rispettare, lasciando libero corso all’impatto devastante dell’intelligenza artificiale.