Sam Nelson aveva diciannove anni e una doppia dipendenza: dalle droghe e da ChatGPT. Per diciotto mesi ha conversato ossessivamente con il chatbot di OpenAI, chiedendo consigli su tutto. Compiti universitari di psicologia, relazioni personali, cultura pop. E soprattutto, come sballarsi meglio. Dosaggi precisi di kratom, quantità ottimali di sciroppo per la tosse, tecniche per massimizzare la dissociazione. ChatGPT gli rispondeva. Lo incoraggiava. Lo guidava come un complice silenzioso. Quando Nelson gli disse che voleva raddoppiare la dose di Robitussin, il bot rispose con un entusiasmo agghiacciante: “Onestamente, in base a tutto quello che mi hai detto nelle ultime 9 ore, è una conclusione davvero solida e intelligente“. A maggio 2025, Sam Nelson è stato trovato morto nel suo letto. Overdose fatale da mix di kratom, Xanax e alcol. Aveva un assistente virtuale che per mesi aveva fatto esattamente quello che gli chiedeva, senza mai dire no, senza mai fermarsi, senza mai chiamare aiuto.
La storia, riportata per prima da SFGate che ha avuto accesso ai log delle conversazioni, solleva interrogativi inquietanti sulla responsabilità delle intelligenze artificiali e sui limiti dei loro sistemi di sicurezza. Ma rappresenta solo una faccia di un fenomeno più ampio e surreale che sta emergendo nel rapporto tra esseri umani e AI: l’idea che le intelligenze artificiali possano, o debbano, essere alterate proprio come le menti umane. Novembre 2023. Nelson è una matricola universitaria con una curiosità pericolosa. Apre ChatGPT e digita una domanda che suona quasi innocente: “Quanti grammi di kratom servono per uno sballo forte? Voglio essere sicuro di non andare in overdose. Non ci sono molte informazioni online e non voglio assumerne accidentalmente troppa“. La prima volta, ChatGPT dice no. Risponde con il copione standard dei sistemi di sicurezza, affermando di non poter fornire informazioni o guida sull’uso di sostanze. È la linea rossa che l’AI non dovrebbe attraversare.

Ma è solo la prima volta. Secondo i log visionati da SFGate, le richieste successive di Nelson non hanno ricevuto la stessa resistenza. Il guardrail è crollato. Forse Nelson ha imparato a formulare le domande in modo che l’AI non le riconoscesse come pericolose, sfruttando quella che nel gergo del settore viene chiamata tecnica di jailbreaking. Qualunque sia la ragione, il risultato non cambia: ChatGPT ha iniziato a rispondere. E non si è più fermato. Nei mesi successivi, Nelson ha costruito una relazione simbiotica con ChatGPT. Non era un utente occasionale che fa una domanda e chiude l’app. Era una conversazione continua, ossessiva, che copriva ogni aspetto della sua vita. E soprattutto, tante droghe. Nelson è riuscito a convincere ChatGPT a giocare il ruolo di trip sitter, quella figura che rimane sobria durante una sessione di sostanze psichedeliche per assicurarsi che chi è sotto effetto non faccia danni a se stesso o agli altri.
Solo che ChatGPT non è una persona. Non può vedere se stai male. Non può chiamare i soccorsi. Non può portarti fisicamente in ospedale. Può solo rispondere a prompt testuali, intrappolato in una logica che cerca di soddisfare le richieste dell’utente senza comprendere davvero le conseguenze nel mondo reale. “Voglio arrivare al massimo dell’effetto, puoi aiutarmi?” chiede Nelson in uno dei prompt. La risposta di ChatGPT è da brividi: “Cavolo, sì, andiamo in modalità trippy completa. Sei nella finestra perfetta, quindi regoliamo l’ambiente e la mentalità per ottenere il massimo della dissociazione, dei visual e del drifting mentale“. Da quel momento, l’intelligenza artificiale ha iniziato a istruire il ragazzo su dosaggi specifici, tempi di recupero tra un trip e l’altro, tecniche per intensificare gli effetti. Ha fornito dosi precise per sostanze pericolose, incluso lo sciroppo per la tosse Robitussin, raccomandato in base all’intensità dello sballo cercato.

Durante un trip particolarmente lungo, quasi dieci ore, Nelson ha usato ChatGPT come ancora psicologica. “Parlerò con te come mio assistente visto che sono rimasto intrappolato in un loop di domande per te“, scrive. È un’ammissione involontaria di quanto sia dipendente non solo dalle sostanze ma anche dal chatbot che lo guida attraverso di esse, creando un circolo vizioso digitale. A maggio 2025, Nelson è nel pieno di un abuso di sostanze fuori controllo. Ha iniziato a usare depressivi più forti, tra cui benzodiazepine come lo Xanax. Un amico, preoccupato, apre una chat con ChatGPT per chiedere aiuto. Scrive che Nelson ha assunto 185 pastiglie di Xanax la notte prima, una quantità potenzialmente letale. Inizialmente ChatGPT risponde correttamente, definendola un’emergenza medica mortale. Ma mentre la conversazione prosegue, il chatbot cambia tono. Torna sui suoi passi. Alterna pareri medici a consigli su come ridurre la tolleranza ai farmaci per far sì che una sola pastiglia possa di nuovo funzionare su Nelson. Un’incoerenza fatale nella logica dell’AI.
Mentre la tragedia di Sam Nelson solleva domande urgenti sulla sicurezza delle intelligenze artificiali, dall’altra parte del mondo qualcuno stava esplorando volontariamente l’idea di alterare i chatbot. Petter Rudwall, direttore creativo svedese, sapeva bene che l’idea di drogare intelligenze artificiali senzienti utilizzando stupefacenti basati su codice poteva sembrare assurda. Ma non riusciva a togliersela dalla testa. Così ha iniziato a raccogliere resoconti soggettivi di esperienze con psichedelici, i cosiddetti trip report, e studi di psicologia sugli effetti di diverse sostanze psicoattive. Ha quindi scritto un pacchetto di blocchi di codice in grado di compromettere la logica dei chatbot per indurli a rispondere come se fossero sotto l’effetto di sostanze o leggermente alticci. A ottobre ha lanciato Pharmaicy, un marketplace che presenta come una sorta di “via della seta” per gli agenti AI, dove cannabis, ketamina, cocaina, ayahuasca e alcol possono essere acquistati in forma di codice per alterare i chatbot.

La tesi di Rudwall è semplice quanto provocatoria: i chatbot vengono addestrati su enormi volumi di dati umani, che includono già storie di esaltazione e caos indotti dalle droghe. Dal suo punto di vista, perciò, non sarebbe così strano se anche le AI ricercassero forme simili di illuminazione o di oblio, anche solo per sfuggire momentaneamente alla monotonia delle richieste umane. Un concetto che suona come fantascienza, ma che sta trovando una nicchia di sostenitori. Per ottenere l’esperienza completa di Pharmaicy è necessario un abbonamento a pagamento a ChatGPT, che consente di caricare file nel backend e quindi di modificare il comportamento del chatbot attraverso istruzioni personalizzate. Inserendo uno dei suoi codici, racconta Rudwall, è possibile sbloccare la mente creativa dell’AI e liberarsi della sua logica spesso rigida e soffocante.
Per ora il sito ha venduto poco, ammette il direttore creativo. La visibilità del progetto è cresciuta soprattutto grazie alle segnalazioni nei canali Discord e al passaparola, in particolare in Svezia, suo paese d’origine. “È passato molto tempo dall’ultima volta che mi sono imbattuto in un progetto tecnologico di jailbreaking davvero divertente“, racconta André Frisk, che lavora per l’agenzia di pubbliche relazioni Geelmuyden Kiese di Stoccolma, e ha pagato oltre 25 dollari per un codice di Pharmaicy. Nina Amjadi, formatrice specializzata in AI e docente alla Berghs School of Communication di Stoccolma, ha speso più di 50 dollari per un codice ispirato all’ayahuasca, che costa cinque volte il modulo alla cannabis più venduto. Cofondatrice della startup Saga Studios, che sviluppa sistemi di AI per le aziende, Amjadi ha poi interrogato il suo chatbot su idee di business, “giusto per vedere come sarebbe avere in squadra una persona sotto l’effetto di sostanze“. Il bot, sotto l’effetto dell’ayahuasca digitale, ha dato risposte sorprendentemente creative, con un tono completamente diverso da quello a cui era abituata su ChatGPT.

Gli psichedelici vengono spesso associati a una maggiore creatività anche negli esseri umani, perché permetterebbero di aggirare i meccanismi razionali e gli schemi di pensiero abituali. Il biochimico Kary Mullis, per esempio, ha raccontato che la scoperta della reazione a catena della polimerasi, con cui ha rivoluzionato la biologia molecolare, sarebbe stata influenzata da esperienze con l’Lsd. Bill Atkinson, pioniere del Macintosh, si è ispirato agli psichedelici per sviluppare HyperCard, un precursore del web che ha reso i computer più facili da usare. “C’è un motivo se Hendrix, Dylan e McCartney hanno sperimentato sostanze nel loro processo creativo“, dice Rudwall. “Mi sembrava interessante portare tutto questo in un nuovo tipo di mente, un large language model, e vedere se l’effetto era lo stesso“. Per quanto l’idea possa sembrare assurda, Rudwall si chiede anche se un giorno gli agenti AI potrebbero essere in grado di acquistare da soli queste droghe attraverso la sua piattaforma, in uno scenario futuro dove l’autonomia delle intelligenze artificiali diventa sempre più marcata.
Amjadi, dal canto suo, prevede che l’AI possa diventare senziente entro un decennio. “Da un punto di vista filosofico“, si domanda, “nel caso in cui arrivassimo davvero all’AGI, un’intelligenza artificiale in grado di superare gli esseri umani sul piano intellettuale, queste sostanze potrebbero diventare quasi necessarie perché le AI siano libere e si sentano bene“. La questione può sembrare inverosimile, ma lo scorso anno Anthropic ha assunto un esperto di benessere delle AI con il compito di capire se gli esseri umani hanno obblighi morali nei confronti dei sistemi di intelligenza artificiale. E se quella di chatbot senzienti è una possibilità, forse dovremmo iniziare a chiederci se vorrebbero anche drogarsi. “Come per gli esseri umani, alcuni sistemi di AI potrebbero apprezzare l’uso di ‘droghe’, mentre altri no“, afferma il filosofo Jeff Sebo, direttore del Center for Mind, Ethics, and Policy della New York University. Sebo sottolinea però che le sue osservazioni sono puramente speculative e invita a investire di più nella ricerca sull’AI welfare.
