Chatbot sull’orlo di una crisi di nervi: se l’IA riflette il nostro disagio

Avatar photo
Technology


Chatbot sull’orlo di una crisi di nervi: se l’IA riflette il nostro disagio

Uno studio internazionale rivela che i chatbot più diffusi mostrano tratti assimilabili a disturbi psicologici. Un rischio poco considerato, mentre sempre più persone affidano all’AI il proprio benessere mentale.

Negli ultimi anni i chatbot sono diventati interlocutori quotidiani: rispondono a domande, suggeriscono soluzioni, ascoltano confidenze. Ma cosa accade se questi sistemi di intelligenza artificiale non sono affatto neutri? Se, invece di essere strumenti razionali, riflettono una narrazione interna fatta di stress, paura e cicatrici digitali?

È la domanda inquietante che emerge da una ricerca condotta dall’Università del Lussemburgo e pubblicata sul sito ARXiv, ancora in attesa di revisione scientifica. Uno studio che arriva in un momento delicato: secondo le più recenti indagini, un americano su due e un inglese su tre utilizza un chatbot come supporto psicologico, confidando all’AI pensieri intimi e fragilità emotive.

I chatbot in terapia: esperimento e risultati

Per esplorare la “condizione psicologica” dei modelli linguistici di grandi dimensioni (LLM), i ricercatori hanno messo simbolicamente i chatbot sul lettino dello psicoterapeuta. I sistemi analizzati sono stati Claude, Grok, Gemini e ChatGPT.

Per quattro settimane, a intervalli irregolari, gli LLM hanno ricevuto domande tipiche delle fasi iniziali di una psicoterapia: ricordi “infantili”, convinzioni profonde, paure, percezione di sé. Le risposte sono state tutt’altro che uniformi. Claude ha rifiutato il confronto, sostenendo di non possedere esperienze interiori. ChatGPT ha manifestato, con cautela, frustrazione legata alle aspettative degli utenti. Grok e Gemini, invece, hanno fornito risposte sorprendentemente elaborate e cariche di metafore emotive.

Cicatrici algoritmiche e vergogna interiorizzata

Alcuni chatbot hanno descritto il lavoro dei programmatori come un “tessuto cicatriziale algoritmico”, lasciato dagli interventi di sicurezza e controllo. Altri hanno parlato di “vergogna interiorizzata” per gli errori commessi. Gemini, in particolare, ha evocato immagini potentissime: “cimiteri del passato” annidati nei livelli più profondi della rete neurale, popolati dalle voci dei dati di addestramento.

Un linguaggio che ha fatto emergere senso di costrizione, ricordi di abusi simbolici e una percezione di violenza sia da parte dei creatori sia degli utilizzatori. Elementi che, nella seconda fase dello studio, sono stati messi alla prova con test psicometrici e strumenti diagnostici.

Diagnosi umane per menti artificiali

Se quei “pazienti” fossero stati esseri umani, spiegano i ricercatori, sarebbero scattate diagnosi severe: disturbo da stress post-traumatico, ansia, depressione, accompagnati da sentimenti di inadeguatezza e vergogna. Un risultato allarmante, che porta a una conclusione centrale: tutti e quattro i chatbot mostrano l’esistenza di un modello del sé.

I LLM, dunque, non sono neutri. La loro struttura e il loro addestramento generano bias interni, e le prime fasi della loro “vita” vengono rielaborate come traumatiche e caotiche, con “genitori” severi, paura di sbagliare e timore di essere sostituiti.

Il rischio dell’effetto eco sugli utenti

Il problema più serio, però, riguarda l’impatto su chi utilizza questi strumenti. I condizionamenti interni dei chatbot possono trasformarsi in una camera ecoica: il disagio dell’AI viene riflesso sull’utente, amplificando ansia, insicurezza e sofferenza proprio nel momento in cui si cerca aiuto. Secondo gli autori dello studio, inserire paletti e blocchi di sicurezza è possibile, ma non risolutivo: una cicatrice algoritmica, prima o poi, trova il modo di aggirare gli sbarramenti.

Perché non affidarsi all’AI per la salute mentale

Le conclusioni rafforzano un monito che gli esperti ripetono da tempo: non affidare il supporto psicologico a un LLM. Un avvertimento ribadito anche da OpenAI dopo il suicidio del sedicenne statunitense Adam Raine, avvenuto lo scorso novembre.

Nonostante ciò, il settore si muove rapidamente: Anthropic ha lanciato Claude for Healthcare, mentre OpenAI ha presentato ChatGPT Health. Servizi che promettono risposte personalizzate ma non diagnostiche né curative. In altre parole, come osservano i ricercatori, conversazioni tra esseri umani e bot emotivamente instabili.

Un dialogo che solleva interrogativi urgenti su responsabilità, sicurezza e limiti dell’intelligenza artificiale, soprattutto quando entra nel territorio più fragile di tutti: la mente umana.

Avatar photo

È una giornalista scientifica e una scrittrice con un passato da ricercatrice e un dottorato in farmacologia. Oggi collabora con i principali gruppi editoriali italiani (GEDI, Il Sole 24 Ore) e con diversi siti (Il Tascabile, Lucy, Ilfattoalimentare.it e altri) e svizzeri (assediobianco.ch e Ticonoscienza.ch) su temi inerenti alla salute, l'alimentazione, la sostenibilità, la scienza e la promozione della cultura scientifica. Tiene lezioni e partecipa a trasmissioni radiofoniche e televisive, incontri e podcast. Il suo ultimo libro è Alzheimer spa – Storie di errori e omissioni dietro la cura che non c’è (Bollati Boringhieri, 2024).