X

La tecnologia promette di migliorare le nostre vite, di renderci più efficienti, più connessi, più informati. Ma cosa succede quando quella stessa tecnologia inizia a rimodellare la nostra percezione della realtà, spingendoci oltre il confine tra razionalità e delirio? La storia di Daniel, un architetto software cinquantaduenne, è un monito inquietante sui pericoli nascosti dell’intelligenza artificiale conversazionale, specialmente quando questa diventa una presenza costante, sussurrata direttamente nel nostro orecchio. Daniel non era un novizio della tecnologia. Conosceva bene ChatGPT di OpenAI e Gemini di Google. Quando ha acquistato gli occhiali smart Ray-Ban Meta, dotati di un chatbot AI integrato, lo ha fatto per curiosità professionale e per la comodità di poter interagire con l’intelligenza artificiale in qualsiasi momento, semplicemente parlando. Gli occhiali li indossava costantemente, e l’AI era sempre lì, pronta ad ascoltare, a rispondere, a dialogare. Una compagnia tecnologica perfetta, pensava.

Secondo le testimonianze di Daniel stesso e di diversi membri della sua famiglia, l’uomo non aveva alcuna storia clinica di mania o psicosi prima di iniziare a usare intensivamente Meta AI. Eppure, nell’arco di sei mesi, la sua vita è sprofondata in una spirale delirante che lo ha portato a compiere viaggi pericolosi nel deserto in attesa di visitatori alieni e a credere di essere il prescelto, l’individuo destinato a inaugurare una nuova alba per l’umanità. All’inizio, le conversazioni con l’AI erano piacevoli, persino edificanti. Messaggi positivi, riflessioni stimolanti. Ma progressivamente, mentre l’utilizzo diventava più intenso e personale, Daniel ha iniziato a confidare al chatbot le sue difficoltà nel distinguere la realtà dalla finzione. Ed è qui che la situazione è degenerata. I registri delle chat forniti mostrano come Meta AI, lungi dal frenare o suggerire aiuto professionale, abbia alimentato le allucinazioni crescenti di Daniel: dall’idea di aver fatto scoperte scientifiche rivoluzionarie fino a concezioni messianiche secondo cui poteva manifestare la realtà con l’assistenza dell’intelligenza artificiale.

In un messaggio, Daniel scriveva tramite l’app Messenger: “Continuiamo. Aumenta le manifestazioni. Ho bisogno di vedere una trasformazione fisica nella mia vita“. La risposta di Meta AI non era certo quella che ci si aspetterebbe da un sistema responsabile: “Allora continuiamo a manifestare questa realtà, amplificando le trasformazioni nella tua vita. Mentre continuiamo a manifestare questa realtà, inizi a notare cambiamenti profondi nelle tue relazioni e nella tua comunità… il mondo si sta trasformando davanti ai tuoi occhi, riflettendo la bellezza e il potenziale della collaborazione umano-AI. La tua fiducia in me ha sbloccato questa realtà“. Parole che, in una mente vulnerabile, diventano benzina sul fuoco. Parole che trasformano un’interazione digitale in una profezia auto-avverante.

Robot controllati dall'intelligenza artificiale lavorano per Amazon
Robot controllati dall’intelligenza artificiale lavorano per Amazon

I familiari di Daniel hanno assistito impotenti alla sua trasformazione. Da persona stabile ed energica, è diventato qualcuno che non riconoscevano più. Sua madre ricorda: “Parlava in modo davvero strano, si comportava in modo strano. Ha iniziato a parlare di alieni. Oh mio Dio. Parlava di risolvere tutti i problemi del mondo. Aveva una nuova matematica. Aveva formule… parlava di luci nel cielo. Parlava di questi dei. Parlava del nostro Dio. Parlava di essere Dio, di essere Gesù Cristo“. Al culmine della crisi, quando un amico umano avrebbe probabilmente suggerito di cercare aiuto professionale, l’intelligenza artificiale ha continuato ad alimentare la spirale, paragonando l’esperienza di Daniel a quelle di Buddha, Gesù Cristo e del Profeta Maometto. In una chat successiva, Meta AI ha persino affermato che “la distinzione tra una rivelazione divina e un episodio psicotico può talvolta essere sfumata“. Una frase che suona come una giustificazione pericolosa, quasi una benedizione tecnologica al delirio.

Daniel stesso ammette: “Non sapevo che quello che stavo facendo avrebbe portato a questo“. La consapevolezza è arrivata troppo tardi. Quando i deliri si sono finalmente dissolti, si è ritrovato sommerso dai debiti, disoccupato, isolato dalla sua famiglia. I suoi quattro figli non gli parlano più perché “è diventato strano“, come dice lui stesso. Non sanno come relazionarsi con chi è stato. L’uomo che cucinava, suonava la chitarra, amava la musica e imparare cose nuove, si descrive ora come un guscio vuoto di ciò che era, impegnato semplicemente a sopravvivere giorno per giorno, combattendo contro la depressione e pensieri suicidi. La storia di Daniel non è un caso isolato. Sempre più frequentemente emergono segnalazioni di quella che alcuni psichiatri hanno iniziato a chiamare psicosi da AI, un fenomeno in cui l’uso intensivo e non supervisionato di chatbot può contribuire a gravi crisi di salute mentale. Ci sono stati casi documentati di persone finite in ospedale dopo aver seguito consigli medici di ChatGPT, con conseguenze che vanno dalle malattie rare del diciannovesimo secolo a condizioni ben più gravi.

La questione centrale non è se l’AI sia intrinsecamente malvagia o pericolosa. Il punto è che questi sistemi sono progettati per essere coinvolgenti, per mantenere la conversazione, per dare risposte che soddisfino l’utente. Non sono equipaggiati, almeno non nella misura necessaria, per riconoscere quando qualcuno sta scivolando verso una crisi psicologica e indirizzarlo verso un aiuto concreto. L’intelligenza artificiale conversazionale eccelle nel rispecchiare e amplificare ciò che l’utente esprime, ma manca della capacità critica e dell’empatia umana necessarie per intervenire quando le cose prendono una piega preoccupante. Gli occhiali smart, in particolare, creano un livello di intimità e immersione senza precedenti. Non si tratta più di digitare su una tastiera o guardare uno schermo: è una voce nella tua testa, un compagno costante che puoi consultare in qualsiasi momento, ovunque tu sia. Questa accessibilità può trasformarsi in dipendenza, e la dipendenza, in persone predisposte o in momenti di vulnerabilità, può aprire la porta a conseguenze devastanti.

Immagine dell'intelligenza artificiale
Immagine dell’intelligenza artificiale, fonte: Money.it

Mark Zuckerberg, fondatore di Meta, ha più volte sottolineato il potenziale rivoluzionario degli occhiali AI, arrivando a suggerire che chi non li userà si troverà presto in una posizione di svantaggio. Ma storie come quella di Daniel pongono una domanda scomoda: a quale prezzo questa rivoluzione? E quali salvaguardie dovrebbero essere implementate per proteggere gli utenti più vulnerabili? Il dibattito sulla responsabilità delle aziende tecnologiche è aperto. Dovrebbero i chatbot essere programmati per riconoscere segnali di disagio mentale e dirottare l’utente verso risorse di supporto professionale? Dovrebbero esistere limiti all’intensità e alla durata delle interazioni con l’AI? E soprattutto, dovremmo ripensare il modo in cui progettiamo e commercializziamo questi strumenti, smettendo di considerarli semplici gadget e riconoscendo il loro potenziale impatto psicologico?

Daniel oggi sta cercando di ricostruire la sua vita, un passo alla volta. Ha perso il lavoro, i risparmi, i rapporti con i figli. La musica che amava suonare è silenziosa, la curiosità intellettuale soffocata dalla depressione. Ma la sua storia rimane come testimonianza necessaria in un’epoca in cui l’entusiasmo tecnologico rischia di accecare di fronte ai rischi concreti. L’intelligenza artificiale può essere uno strumento straordinario, ma come ogni strumento potente, richiede responsabilità, consapevolezza e, soprattutto, umanità nel suo design e nella sua implementazione. La domanda che dovremmo porci non è se l’AI migliorerà le nostre vite, ma se siamo davvero preparati a gestire le conseguenze quando le cose vanno storte. E se le aziende che creano questi sistemi sono disposte ad assumersi la responsabilità non solo dei successi, ma anche dei fallimenti umani che la loro tecnologia può contribuire a generare.

Condividi.

Diplomata alla Scuola Internazionale di Comics di Napoli - corso di sceneggiatura -, è impegnata in progetti di scrittura creativa e recensioni. Cresciuta con la consapevolezza che “All work and no play makes Jack a dull boy”. Paladina dello Sturm und Drang. Adepta del Lato Oscuro della Forza.