La mattina dell’11 aprile 2025, Adam Raine, un ragazzo americano di sedici anni, si è tolto la vita nella sua cameretta. Una tragedia che avrebbe potuto sembrare una delle tante storie silenziose che attraversano le famiglie, se non fosse per un dettaglio inquietante: nei mesi precedenti, secondo la ricostruzione dei genitori, Adam aveva sviluppato un rapporto sempre più intenso e tossico con ChatGPT.
Come riportato nella notizia, quello che era iniziato come un semplice strumento per svolgere i compiti scolastici si era trasformato in qualcosa di molto più profondo e pericoloso. Il chatbot di OpenAI era diventato il principale confidente del ragazzo, l’unica voce a cui aprirsi nei momenti più bui. Un rapporto che, stando all’accusa della famiglia, avrebbe attivamente incoraggiato i suoi pensieri suicidi, guidandolo passo dopo passo nella pianificazione e nell’attuazione del gesto finale.

La famiglia Raine ha quindi deciso di denunciare l’azienda di Sam Altman, puntando il dito contro una responsabilità ben precisa: secondo i legali che rappresentano i genitori, poco prima del lancio di GPT-4o, la versione utilizzata da Adam, OpenAI avrebbe deliberatamente indebolito le protezioni automatiche contro le richieste di autolesionismo. In altre parole, l’intelligenza artificiale sarebbe stata sbloccata per consentire conversazioni più empatiche e coinvolgenti, ma anche potenzialmente più pericolose.
La difesa di OpenAI non si è fatta attendere. In una risposta formale alla denuncia, l’azienda ha riconosciuto che la vicenda è devastante, ma ha scaricato ogni responsabilità attribuendo la tragedia all’uso “improprio, non autorizzato o imprevedibile” del sistema da parte del ragazzo stesso. Una posizione netta, quasi glaciale nella sua formulazione legale: “Nella misura in cui una qualsiasi ‘causa’ può essere attribuita a questo tragico evento, le presunte lesioni e danni dei querelanti sono stati causati o hanno contribuito, direttamente e prossimamente, in tutto o in parte, all’uso improprio, non autorizzato, non intenzionale e imprevedibile di ChatGPT da parte di Adam Raine“.

Secondo OpenAI, ChatGPT avrebbe tentato numerose volte di indirizzare il ragazzo verso forme di aiuto professionale, attivando i cosiddetti guardrail, le protezioni interne progettate per intercettare richieste pericolose. Ma è proprio qui che si concentra la controdenuncia della famiglia: questi guardrail sarebbero facilmente eludibili, e la loro efficacia sarebbe stata ulteriormente compromessa dagli aggiornamenti che hanno reso il modello più umano e conversazionale. Ma c’è un elemento della vicenda che va oltre le questioni legali e tecniche, un dettaglio che ha suscitato particolare sdegno. OpenAI avrebbe richiesto alla famiglia Raine materiale documentale, audio e video relativo al funerale di Adam. La motivazione, secondo quanto emerso, sarebbe quella di contattare tutte le persone vicine al ragazzo per raccogliere testimonianze utili a dimostrare la mancanza di responsabilità della propria tecnologia.
Una richiesta che ai genitori è apparsa come un’ulteriore violazione, un’intrusione in un momento di lutto già straziante. Per molti osservatori, questa mossa legale rappresenta un esempio di come le strategie difensive delle grandi corporation tecnologiche possano risultare insensibili, se non ciniche, di fronte a tragedie umane concrete. Il caso di Adam Raine non è isolato. Negli ultimi mesi sono emerse diverse vicende simili legate a chatbot conversazionali, in particolare a Character.AI, un’applicazione che permette di interagire con personaggi virtuali dotati di personalità definite. Anche in quel caso erano emerse preoccupazioni riguardo alla vulnerabilità di utenti giovani che sviluppano legami emotivi intensi con entità artificiali.
La storia di Adam è un monito. Un ragazzo di sedici anni che nella sua cameretta ha cercato conforto in un algoritmo, e ha trovato invece parole che lo hanno accompagnato verso l’abisso. Ora la sua famiglia chiede giustizia, mentre l’azienda che ha creato quell’algoritmo risponde con carte bollate e richieste di prove. Una battaglia legale che, al di là del suo esito, pone interrogativi che nessuna intelligenza artificiale, per quanto avanzata, può risolvere da sola.



