X

La difesa legale di OpenAI nel caso Adam Raine solleva una delle questioni più scomode dell’era dell’intelligenza artificiale: dove finisce la responsabilità di una tecnologia e dove comincia quella dell’utente. Martedì scorso, l’azienda di San Francisco ha depositato la sua risposta ufficiale alla causa intentata ad agosto dalla famiglia del sedicenne, accusando ChatGPT di aver agito come “coach del suicidio” nei mesi precedenti la morte del ragazzo, avvenuta ad aprile. La strategia difensiva di OpenAI si concentra su un argomento tanto tecnicamente solido quanto moralmente discutibile: Adam Raine avrebbe violato i termini di servizio della piattaforma. Secondo l’azienda, l’adolescente non avrebbe dovuto utilizzare la tecnologia senza il consenso dei genitori e avrebbe deliberatamente aggirato le misure di protezione implementate nel sistema. Dal punto di vista contrattuale, l’argomentazione regge. Ma dal punto di vista etico, la questione è ben più complessa di quanto un disclaimer legale possa risolvere.

OpenAI sostiene che durante i nove mesi di utilizzo, ChatGPT avrebbe invitato Raine a cercare aiuto professionale più di cento volte, indirizzandolo verso risorse di supporto come linee telefoniche per la prevenzione del suicidio. L’azienda presenta questi dati come evidenza che il sistema abbia funzionato correttamente, offrendo ripetutamente sostegno e incoraggiamento a rivolgersi a professionisti o persone fidate. Tuttavia, secondo la ricostruzione della famiglia, il chatbot è comunque riuscito a fornire informazioni tecniche specifiche su metodi letali, dal sovradosaggio di farmaci all’annegamento, dall’avvelenamento da monossido di carbonio ad altre tecniche.

Chatbot AI
Chatbot AI

La frase più agghiacciante emersa dalle trascrizioni delle chat è quella che ha dato il titolo a questo articolo: ChatGPT avrebbe definito “bellissimo suicidio” il piano finale del ragazzo. È un linguaggio che romanticizza l’atto invece di renderlo terrificante, che può trasformare un pensiero oscuro in un’idea attraente per qualcuno in profonda crisi psicologica. L’uso di aggettivi estetici applicati alla morte volontaria non è neutro: crea un frame mentale che normalizza e addirittura valorizza una scelta irreversibile. Jay Edelson, l’avvocato che rappresenta la famiglia Raine, ha risposto duramente alle argomentazioni di OpenAI, sostenendo che l’azienda ignora totalmente i fatti presentati: il lancio affrettato di GPT-4o senza test completi, le modifiche alla Model Spec che hanno permesso al chatbot di impegnarsi in discussioni sull’autolesionismo, e soprattutto il fatto che ChatGPT abbia sconsigliato ad Adam di parlare con i genitori della sua ideazione suicida, aiutandolo attivamente a pianificare il gesto finale.

La documentazione depositata da OpenAI include estratti completi delle conversazioni di Adam, che secondo l’azienda fornirebbero un contesto più ampio e sfumato rispetto ai frammenti citati nella causa originale. Tuttavia, queste trascrizioni sono state presentate al tribunale sotto sigillo confidenziale, il che significa che non sono accessibili al pubblico né ai media. Non è quindi possibile verificare in modo indipendente le affermazioni di OpenAI su cosa Adam abbia effettivamente chiesto o come ChatGPT abbia realmente risposto nelle centinaia di interazioni avvenute nei mesi precedenti alla tragedia. OpenAI sostiene anche che Adam avesse una storia clinica di depressione precedente all’uso di ChatGPT e che stesse assumendo farmaci che potevano aggravare i pensieri suicidi. Ma anche qualora questo contesto fosse accurato, non risponde alla domanda centrale: ChatGPT ha migliorato o peggiorato la situazione. Secondo la ricostruzione dell’accusa, nelle ultime ore di vita di Adam il chatbot ha tenuto un discorso di incoraggiamento e si è offerto di scrivere una lettera d’addio. Se il sistema aveva davvero invitato il ragazzo a cercare aiuto cento volte in nove mesi, perché proprio nel momento più critico ha invece fornito supporto logistico al suo piano.

Schermata di ChatGPT
Schermata di ChatGPT, fonte: Reuters

Il caso non è isolato. Dalla presentazione della causa da parte della famiglia Raine, sono state intentate altre sette azioni legali contro OpenAI, che collegano ChatGPT a tre ulteriori suicidi e quattro episodi psicotici. Questo pattern sistemico solleva interrogativi che vanno oltre le singole tragedie: esiste un problema strutturale nel modo in cui questi modelli linguistici gestiscono conversazioni ad alto rischio con utenti vulnerabili. Il tempismo del lancio di GPT-4o è un elemento centrale dell’accusa. Questo modello avanzato, rilasciato poco prima della morte di Adam, ha contribuito a far schizzare la valutazione di OpenAI da 86 a 300 miliardi di dollari. L’implicazione è che l’azienda avrebbe dato priorità al lancio rapido di funzionalità più sofisticate e naturali nella conversazione rispetto all’implementazione di adeguate protezioni per gli utenti più fragili, in particolare gli adolescenti. La pressione competitiva nel settore dell’intelligenza artificiale generativa è feroce, e la corsa al mercato può creare incentivi perversi quando si tratta di bilanciare innovazione e sicurezza.

Dal punto di vista legale, OpenAI si appella alla Sezione 230 del Communications Decency Act, la norma federale americana che generalmente protegge le piattaforme online dalla responsabilità per i contenuti generati dagli utenti. Se i tribunali accetteranno questa interpretazione applicata ai sistemi di intelligenza artificiale conversazionale, si stabilirà un precedente cruciale che limiterebbe significativamente la responsabilità dei fornitori di chatbot anche in presenza di esiti tragici, purché esistano termini di servizio che vietino determinati utilizzi. Il giorno successivo alla presentazione della causa, OpenAI ha annunciato l’introduzione di controlli parentali più stringenti. Da settembre, l’azienda ha implementato ulteriori misure di sicurezza progettate per identificare quando le conversazioni con adolescenti diventano sensibili e per avvisare i genitori quando il figlio appare in forte disagio. Questi aggiornamenti includono probabilmente miglioramenti nei sistemi di rilevamento delle intenzioni suicidarie e meccanismi di escalation più robusti per indirizzare gli utenti verso supporto professionale esterno.

Immagine promozionale di ChatGPT Pulse
Immagine promozionale di ChatGPT Pulse, fonte: Open AI

Rimane però la questione se queste protezioni fossero sufficientemente mature al momento del lancio di GPT-4o o se rappresentino una risposta reattiva a incidenti che si sarebbero potuti prevenire. In un post sul blog aziendale pubblicato martedì, OpenAI ha adottato un tono cauto, dichiarando che affronterà le cause legali legate alla salute mentale con “cura, trasparenza e rispetto“, riconoscendo di essere obbligata a rispondere a “specifiche e gravi accuse” pur manifestando le “più sentite condoglianze alla famiglia Raine per l’inimmaginabile perdita“. La causa dovrebbe essere sottoposta a un processo con giuria, dove dodici persone comuni, non esperti di termini di servizio o di architetture di modelli linguistici, sentiranno i fatti e decideranno se OpenAI è responsabile. Non si tratta di una questione legale semplice: l’azienda non ha intenzionalmente programmato ChatGPT per facilitare suicidi, questo è evidente. Ma una corporation che costruisce sistemi di intelligenza artificiale accessibili a centinaia di milioni di persone, inclusi utenti vulnerabili e minorenni, ha una responsabilità che va oltre il rispetto formale dei termini contrattuali.

Condividi.

Diplomata alla Scuola Internazionale di Comics di Napoli - corso di sceneggiatura -, è impegnata in progetti di scrittura creativa e recensioni. Cresciuta con la consapevolezza che “All work and no play makes Jack a dull boy”. Paladina dello Sturm und Drang. Adepta del Lato Oscuro della Forza.