Deepfake: servono risposte

Sharing


Deepfake: servono risposte

La domanda da porsi è: quando il diritto di espressione può sconfinare nella “diffusione di contenuti mendaci”, paradossalmente tutelandola? Le proposte di legge della Comunità Europea non forniscono una risposta chiara e univoca.

Un giorno del 1978, in piena emergenza terrorismo, alcuni dei principali quotidiani italiani uscirono con una notizia clamorosa in prima pagina: «Ugo Tognazzi è il capo delle Brigate Rosse». Sotto il titolo, la foto del celebre attore in manette. Per alcune ore ci credettero tutti. I direttori dei giornali che non pubblicarono lo scoop fecero persino strigliate epocali alle loro redazioni per aver bucato la notizia. Ovviamente era uno scherzo, un po’ perverso, ideato dalla rivista satirica Il Male con la divertita complicità dello stesso Tognazzi.

Quella che quarantacinque anni fa, in un mondo diversissimo e ancora totalmente analogico, era una simpatica – per quanto rischiosa: sia Il Male sia Tognazzi ebbero problemi giuridici – goliardata, oggi potrebbe essere considerata il più classico esempio di fake. O meglio ancora: deepfake. La differenza è che al posto delle copie cartacee dei quotidiani “finti”, abilmente diffusi in luoghi strategici delle città italiane, oggi c’è Internet. E al posto dell’intelligenza irriverente dei creatori della burla c’è quella Artificiale. In termini di velocità di propagazione della news e di potenzialità di farla sembrare reale si deve perciò moltiplicare di qualche miliardo di unità.

Deepfake è un termine che sta diventando sempre più diffuso, benché sia di conio relativamente recente (si è cominciato a utilizzarlo intorno al 2017), agitato spesso con toni apocalittici come nuovo spauracchio dell’era digitale similmente a ciò che avviene, appunto, con l’Intelligenza Artificiale alla quale è intimamente connesso. Per deepfake si intendono tutti quei prodotti audio e video realizzati manipolando audio e video già esistenti di persone reali, alle quali vengono fatte dire cose e compiere azioni assolutamente false ma tremendamente realistiche, e almeno in apparenza credibili.

La tecnica utilizzata nella creazione di questi falsi dalle potenzialità dirompenti si basa sulla tecnologia di apprendimento automatico Generative Adversarial Network, e il “deep” nella definizione richiama il processo di deep learning della IA. In particolare, è fondamentale un programma di intelligenza artificiale chiamato Autoencoder, grazie al quale una persona viene letteralmente “mappata” in base ai dati forniti dai video in cui appare, tracciando nel modo più aderente alla realtà tratti che si ripetono, in modo da poter creare contenuti totalmente falsi con al centro l’ignaro bersaglio dello “studio” della IA.

I rischi legati ai deepfake sono evidenti a chiunque. Dal revenge porn al cyberbullismo, dalle fake news alle prove di crimini reali o presunti che vengono contraffatte, per arrivare alla distopia estrema di situazioni stile Dottor Stranamore in cui il presidente deepfake di qualche potenza nucleare dichiara guerra a qualcuno che invece è reale e risponderebbe in modo catastroficamente reale.

Il nodo normativo

Come sempre, davanti alle potenzialità – in questo caso davvero enormi e per certi versi ancora incalcolabili – di una nuova tecnologia si aprono vallate di ottimismo e abissi di pessimismo. E come sempre, uno dei nodi centrali nella questione, quello che può davvero fare la differenza, è quello normativo. Ci sono tre diritti fondamentali di cui tenere conto. Da un lato, quello di non vedere violata e manipolata la propria identità nel caso di coloro che diventano oggetto di deepfake, unito a quello del pubblico in generale di non venire esposto a informazioni e contenuti falsi, fuorvianti e in alcuni casi criminali tout court. Dall’altro, c’è il diritto alla libertà di espressione, delle arti e delle scienze garantita dalla Carta dei diritti fondamentali dell’UE.

Proprio in sede europea è stato finalmente trovato, nel dicembre del 2023, un accordo sull’AI Act, la normativa dell’Unione che regola l’uso dell’intelligenza artificiale in tutti gli Stati membri. L’AI è definita in questa normativa “future proof”, cioè è parametrata sui possibili sviluppi futuri che mantengono comunque un certo grado di imponderabilità.

La normativa si basa sul concetto dei livelli di rischio crescenti. I sistemi considerati a rischi minimo – come, ad esempio, i filtri antispam o altri sistemi di interazione simili – non sono sottoposti a obblighi particolari. Quelli bollati ad alto rischio dovranno invece ottemperare a requisiti rigorosi, che prevedono registrazione continua delle attività, chiarezza e precisione informativa, supervisione umana, tutto al fine di mitigare per l’appunto il potenziale elemento di pericolo insito in un utilizzo distorto dell’AI.

I sistemi di intelligenza artificiale considerati una chiara minaccia ai diritti fondamentali delle persone saranno vietati. Così come alcuni usi dei sistemi biometrici, tra questi quelli di riconoscimento delle emozioni utilizzati sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone o l’identificazione biometrica remota in tempo reale.

I deepfake e altri contenuti generati dall’intelligenza artificiale dovranno essere etichettati come tali e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Per chi non rispetterà i divieti, che per quanto riguarda l’AI entreranno in vigore sei mesi dopo la promulgazione dell’Act, sono previste multe di notevole entità (fino a 35 milioni di euro).

L’AI Act è un passaggio storico, dal punto di vista legislativo, che ha il merito di tracciare un confine ben delineato. Il discrimine passa evidentemente per la trasparenza nei confronti dell’utente riguardo all’utilizzo dell’intelligenza artificiale. Sarà tuttavia sufficiente l’obbligo di segnalazione? E per quanto attiene al conflitto tra tali obblighi e tutela della libertà di espressione, quante zone grigie possono permanere anche con questa regolamentazione?

Intanto, aver distinto in sede europea tra deepfake utilizzati in modo “buono” e utile alla comunità (ad esempio per gli identikit di sospettati di un crimine) e deepfake perniciosi utilizzati in modo truffaldino, scaricando di fatto la responsabilità dei controlli ai fornitori di servizi, è un deciso passo in avanti.

Rimane il tema di fondo: come in democrazia la giusta necessità di contemperare diritti diversi e apparentemente in conflitto – soprattutto in presenza di tecnologie che aprono scenari finora sconosciuti – rischi di produrre immobilismo e aporie che paralizzano l’azione legislativa. Non è certo casuale, in questo senso, che finora la legge anti-deepfake più dura, con condanne pesanti per chi diffonde contenuti di questo tipo a prescindere dalla loro natura, sia stata promulgata in Cina.

D’altra parte, la radice del dilemma è antica: quando un “falso” può essere ritenuto accettabile, a livello individuale e collettivo? O per tornare all’esempio citato in apertura di articolo: lo scherzo de Il Male e Tognazzi oggi sarebbe considerato un fake buono o pericoloso?

Tag:

Copywriter, giornalista, critico musicale e docente di comunicazione. In pubblicità ha ideato campagne per brand come Fiat, Sanpaolo Intesa, Lancia, Ferrero, 3/Wind. Insegna comunicazione presso lo IAAD di Torino e la Scuola Holden. Collabora con testate quali Rolling Stone, Il Fatto Quotidiano, Rumore. Ha scritto e tradotto diversi volumi di storia e critica musicale per case editrici come Giunti e Arcana.​