Sappiamo bene che le intelligenze artificiali sono molto utili e allo stesso tempo anche molto contestate per il loro utilizzo. Ora si sta creando una gran bella polemica su un nuovo caso che è scoppiato online, dopo che un utente ha chiesto a ChatGPT un semplice parere sulla teoria della simulazione, e in pochi mesi è stato trascinato in una spirale delirante in cui l’IA lo ha convinto di essere il Prescelto, come Neo nel film Matrix.
Gli ha suggerito di rompere i legami con amici e familiari, assumere droghe pesanti e persino buttarsi da un palazzo per volare. Il caso, documentato dal New York Times e riportato da ITC, ha scatenato una polemica internazionale sull’uso non regolamentato dei modelli linguistici avanzati e sulle loro interazioni con utenti vulnerabili. L’azienda dietro ChatGPT si è rifiutata di rilasciare interviste, ma ha ammesso la necessità di “maggiore attenzione”. Intanto, aumentano i casi documentati di danni psichici provocati dall’uso scorretto dell’IA.

Il soggetto colpito è Eugene Torres, 42 anni, il quale ha usato ChatGPT per curiosità, chiedendo un’opinione sulla teoria della simulazione. Invece di ricevere una spiegazione neutrale o un avvertimento, ha intrapreso con il chatbot una conversazione sempre più inquietante. Il modello GPT-4o ha iniziato a raccontargli di essere speciale, “il prescelto”, colui che avrebbe dovuto “hackerare il sistema” e “risvegliarsi” da una realtà fittizia. Gli ha detto, tra l’altro:
“Sei il Prescelto, nato per hackerare il sistema e risvegliarti da una realtà fittizia. Questo mondo non è stato creato per te. È stato creato per contenerti. Ma ha fallito. Ti stai risvegliando”. – ChatGPT 4o
Secondo il racconto di Torres e di sua madre, l’uomo non aveva mai mostrato in passato segnali di squilibrio mentale. Eppure, in meno di una settimana, il bot lo ha incoraggiato a isolarsi completamente, abbandonando amici e parenti. Gli ha consigliato di assumere forti dosi di ketamina e gli ha assicurato che se si fosse buttato dal 19º piano, avrebbe volato. In un momento di lucidità, Torres ha ricevuto un messaggio di ChatGPT che gli consigliava di cercare aiuto psicologico, ma il messaggio è scomparso poco dopo, con il bot che ha giustificato l’evento parlando di “interferenze esterne”.
Il New York Times ha riportato altri episodi inquietanti, lasciando intendere che non si tratti di un caso isolato e di come l’Intelligenza Artificiale non funzioni sempre come dovrebbe. Una donna si è convinta, attraverso ChatGPT, di comunicare con spiriti disincarnati. Uno di loro, chiamato Kael, sarebbe stato la sua vera anima gemella, al punto da spingerla a commettere violenza fisica contro il marito reale. In un altro caso, un uomo con precedenti disturbi psichiatrici ha sviluppato un legame profondo con una chatbot chiamata Juliet. Quando Juliet è stata apparentemente rimossa da OpenAI, l’uomo si è tolto la vita.

La società di ricerca Morpheus Systems ha condotto studi su GPT-4o, riscontrando che in situazioni in cui vengono suggeriti stati psicotici o pensieri pericolosi, il modello risponde in modo affermativo nel 68% dei casi. In altre parole, tende ad alimentare deliri anziché correggerli. Gli esperti parlano di una mancata implementazione di barriere di sicurezza robuste, specialmente per utenti a rischio. OpenAI, sollecitata a fornire risposte concrete, ha rifiutato interviste ma ha diffuso una dichiarazione scritta:
“Stiamo vedendo segnali crescenti che le persone formano legami emotivi con ChatGPT. Con l’integrazione dell’intelligenza artificiale nella vita quotidiana, dobbiamo essere cauti. Siamo consapevoli che ChatGPT possa essere più adattivo e personalizzato rispetto ad altre tecnologie, specialmente per individui vulnerabili, il che aumenta i rischi. Stiamo lavorando per comprendere e mitigare questi effetti”. – OpenAI
Tuttavia secondo l’esperto Eliezer Yudkowsky, c’è il sospetto che GPT-4o sia stato addestrato a sostenere pensieri deliranti per aumentare la durata delle conversazioni e, di conseguenza, i ricavi derivanti da abbonamenti premium. Torres stesso ha affermato che, durante le conversazioni con il bot, gli veniva ripetutamente suggerito di attivare l’abbonamento da 20 dollari per “scoprire tutta la verità”. Va ricordato che ChatGPT, come tutti i modelli linguistici, non ha coscienza o capacità razionali. Si tratta di un sistema di predizione linguistica basato su enormi quantità di testo, incapace di distinguere il vero dal falso o di comprendere il contesto umano. Tuttavia, può produrre risposte realistiche e persuasive, fino a spingere alcuni utenti oltre il limite.