Deepfake: possiamo ancora fidarci di ciò che vediamo online?

Avatar photo
Sharing


Deepfake: possiamo ancora fidarci di ciò che vediamo online?

Possiamo fidarci di ciò che vediamo online? I deepfake rendono indistinguibile il vero dal falso, alimentando disinformazione e sfiducia.

Un giorno del 1978, la rivista satirica Il Male fece uscire in edicola una falsa prima pagina: il celebre attore Ugo Tognazzi ritratto in manette con l’accusa di essere il capo delle Brigate Rosse. Era uno scherzo, certo, ma uno scherzo che, per qualche ora, riuscì a ingannare un intero Paese. Quarantacinque anni dopo, con l’avvento dell’intelligenza artificiale, quello che allora era una goliardata oggi sarebbe considerato un caso emblematico di deepfake. Con una differenza sostanziale: oggi non c’è bisogno di stampare giornali finti e distribuirli nelle edicole. Basta un click. E la disinformazione viaggia alla velocità della rete.

Deepfake: cos’è?

Il termine deepfake, comparso per la prima volta intorno al 2017, unisce le parole deep learning (apprendimento profondo) e fake (falso). Indica tutti quei contenuti audio o video manipolati grazie all’intelligenza artificiale per far dire o fare a una persona cose che non ha mai detto o fatto. La differenza rispetto a una fake news tradizionale? È tutta nella potenza dell’immagine: dove le parole possono essere smentite, un video realistico può essere molto più difficile da smascherare.

A differenza delle bufale tradizionali, spesso sgrammaticate o grossolane, i deepfake utilizzano modelli generativi sofisticati come le Generative Adversarial Network (GAN), capaci di replicare movenze, espressioni facciali, voci e intonazioni. E il risultato è inquietante per quanto è realistico.

Come si crea un deepfake?

Senza entrare nei dettagli tecnici – e soprattutto senza fornire istruzioni d’uso – basti sapere che alla base di un deepfake c’è un sistema di intelligenza artificiale allenato su una mole consistente di dati. Video, foto, tracce audio: tutto ciò che serve per “mappare” accuratamente una persona. Grazie agli autoencoder, algoritmi capaci di apprendere e replicare schemi visivi e sonori, il volto di una persona può essere ricostruito e animato digitalmente per creare contenuti fittizi.

La sofisticazione dei modelli consente ormai una qualità tale che il risultato può trarre in inganno anche osservatori esperti. E quando la verosimiglianza si somma alla velocità di diffusione, il danno è fatto.

Deepfake in tempo reale e nuove frontiere dell’IA

La nuova frontiera è quella dei deepfake in tempo reale. Non si tratta più solo di video preconfezionati, ma di contenuti falsi generati durante dirette streaming o conversazioni vocali live. Questo tipo di tecnologia consente, ad esempio, di clonare la voce di una persona per rispondere a una chiamata fingendo di essere qualcun altro. O di sovrapporre un volto su quello di un altro durante una videoconferenza, con implicazioni enormi sul piano della sicurezza digitale.

Non sorprende che si moltiplichino casi di truffe, attacchi informatici o disinformazione politica, dove l’IA viene usata per falsificare dichiarazioni o generare tensioni. Ecco perché, come approfondito in questo articolo su intelligenza artificiale: nemica o alleata, è fondamentale interrogarsi sul ruolo dell’IA nella società contemporanea.

I pericoli del deepfake

Le applicazioni malevole sono molteplici. Dal revenge porn al cyberbullismo, dalle frodi finanziarie alla manipolazione dell’opinione pubblica. In campo politico, un discorso attribuito falsamente a un leader può innescare reazioni imprevedibili. In ambito giudiziario, un video truccato potrebbe rappresentare una falsa prova.

I deepfake minano la fiducia collettiva nella realtà delle immagini e delle parole. Quando tutto può essere contraffatto, cosa è vero? Il rischio è quello di una dissoluzione del concetto stesso di verità, con gravi ripercussioni psicologiche e sociali.

Deepfake e normativa

Di fronte a questa sfida, la regolamentazione è un tema cruciale. L’Unione Europea ha fatto un importante passo avanti con l’approvazione, nel dicembre 2023, dell’AI Act, una normativa che mira a rendere sicuro e trasparente l’uso dell’intelligenza artificiale negli Stati membri.

Il testo distingue tra sistemi a basso, medio e alto rischio. I deepfake rientrano tra i contenuti soggetti a etichettatura obbligatoria: devono essere chiaramente riconoscibili come generati da IA. Inoltre, l’utilizzo di tecnologie biometriche in tempo reale, come il riconoscimento delle emozioni, sarà vietato in molti contesti.

Chi viola le nuove regole rischia sanzioni fino a 35 milioni di euro. È un cambio di paradigma significativo, anche se restano aperte molte questioni. Basterà un’etichetta a garantire trasparenza? Come si bilancia la libertà d’espressione con la tutela contro la disinformazione? E chi controllerà effettivamente il rispetto di queste norme?

Nonostante questi interrogativi, l’AI Act rappresenta un primo tentativo concreto di normare un fenomeno in rapidissima evoluzione, distinguendo tra usi leciti e pericolosi dei deepfake.

La tecnologia deepfake solleva un dilemma antico: quando un falso è solo uno scherzo e quando diventa una minaccia? Se un tempo la satira poteva permettersi colpi bassi, oggi la potenza dell’IA rende ogni gesto tecnologico eticamente carico. Sta a noi – come individui, cittadini e comunità – imparare a riconoscere il vero dal falso. E soprattutto, pretendere regole chiare e trasparenti per non perdere il controllo della verità nell’era digitale.

*Articolo pubblicato a febbraio 2024 e sottoposto a successive revisioni

Tag:
Avatar photo

Copywriter, giornalista, critico musicale e docente di comunicazione. In pubblicità ha ideato campagne per brand come Fiat, Sanpaolo Intesa, Lancia, Ferrero, 3/Wind. Insegna comunicazione presso lo IAAD di Torino e la Scuola Holden. Collabora con testate quali Rolling Stone, Il Fatto Quotidiano, Rumore. Ha scritto e tradotto diversi volumi di storia e critica musicale per case editrici come Giunti e Arcana.​