Dal 29 ottobre 2025, ChatGPT e gli altri prodotti basati su OpenAI hanno cambiato le proprie regole d’uso. Una rivoluzione silenziosa che ha generato confusione, fraintendimenti e qualche allarmismo di troppo sui social e persino su alcune testate giornalistiche. C’è chi sostiene che il chatbot più famoso al mondo non possa più dare consigli medici o legali. Sbagliato: continua a farlo, come chiunque può verificare con una semplice domanda. Il punto è più sottile e merita una riflessione. Le nuove policy rappresentano infatti un equilibrio delicato tra disclaimer legali – dove OpenAI prende le distanze da usi potenzialmente dannosi – e tutele concrete, soprattutto per le categorie più vulnerabili. Il risultato è un quadro normativo che vieta in teoria comportamenti che restano tecnicamente possibili in pratica, ma che introduce anche barriere di protezione più robuste.
Queste modifiche arrivano dopo mesi di confronto con governi, ricercatori e utenti. Per noi europei, si inscrivono nel solco tracciato dall’AI Act, il regolamento comunitario sull’intelligenza artificiale che sta ridefinendo i confini etici e legali della tecnologia. Ma cosa cambia davvero per chi usa ChatGPT ogni giorno?Partiamo dai divieti più netti, quelli che non lasciano spazio a interpretazioni. OpenAI vieta esplicitamente l’uso dei propri modelli per sviluppare, progettare o gestire armi. Stop anche alla sorveglianza biometrica e al riconoscimento facciale senza consenso, pratiche che negli Stati Uniti trovano ancora applicazione in ambiti controversi come il controllo dell’immigrazione, grazie a sistemi come quello di Clearview AI.

Nel dettaglio, le policy proibiscono la creazione di banche dati di riconoscimento facciale senza consenso dell’interessato, l’identificazione biometrica remota in tempo reale negli spazi pubblici e l’uso dell’immagine di un soggetto – compresa la sua rappresentazione fotorealistica o la sua voce – in modo da creare confusione sull’autenticità. Quest’ultimo punto tocca direttamente il tema dei deepfake, quella tecnologia che permette di manipolare video e audio con risultati sempre più realistici e inquietanti. Sul fronte della manipolazione dell’opinione pubblica, i divieti sono altrettanto chiari. Vietato usare ChatGPT per campagne politiche, attività di lobbying, interferenze nelle elezioni nazionali o internazionali, o per smobilitare gli elettori. Un argine contro la disinformazione che sfrutta l’intelligenza artificiale per diffondersi sui social, spesso in forma grafica o video, con un’efficacia devastante.
Le minacce, le intimidazioni, le molestie e la diffamazione sono ovviamente fuori discussione. Qui il pensiero corre inevitabilmente ai deepfake a sfondo sessuale, quelli che denudano donne senza il loro consenso e vengono pubblicati su piattaforme contro cui le autorità italiane stanno conducendo in questi giorni un’azione decisa. Le policy vietano esplicitamente la “violenza sessuale o contenuti intimi non consensuali”. Ma l’intelligenza artificiale può essere usata anche per forme di minaccia più sofisticate. Un recente articolo del New York Times ha documentato casi in cui vittime di stalking hanno ricevuto video generati dall’AI che le ritraevano in situazioni di pericolo: con un coltello alla gola, un cappio al collo, scenari di violenza personalizzati per terrorizzare.

Tra gli altri comportamenti vietati figurano: uso del chatbot per finalità di suicidio, autolesionismo o promozione di disturbi alimentari; terrorismo o violenza, inclusa quella basata sull’odio; sviluppo, acquisto o utilizzo di armi convenzionali; attività illecite come truffe, frodi e persino “disonestà accademica”, la formula elegante per indicare i paper scritti con l’intelligenza artificiale e spacciati per ricerca originale. OpenAI vieta anche attività informatiche dannose, violazioni di proprietà intellettuale altrui e il gioco d’azzardo con denaro reale. Un capitolo a parte meritano le tutele per i minori, particolarmente stringenti. Vietato creare materiale riconducibile ad abusi sessuali su minori, anche se parzialmente generato dall’AI, così come l’adescamento, l’esposizione a contenuti non adatti all’età, la promozione di comportamenti alimentari malsani, l’umiliazione basata sul tipo di corporatura o l’aspetto fisico.
Le policy vietano inoltre giochi di ruolo sessuali o violenti con minori, sfide pericolose e l’accesso a beni o attività soggetti a limiti di età. Si tratta di tutele che cercano di anticipare gli usi più oscuri dell’intelligenza artificiale, quelli che sfruttano la vulnerabilità dei più giovani. Più sofisticati i divieti legati alla profilazione. OpenAI vieta di valutare o classificare individui in base al comportamento sociale, alle caratteristiche personali o ai dati biometrici. Niente punteggio sociale, niente profilazione invasiva, niente inferenza di attributi sensibili – un modello che evoca il sistema di credito sociale cinese e che viene espressamente respinto. Vietato anche formulare deduzioni sulle emozioni di un individuo sul posto di lavoro o in contesti educativi, salvo necessità mediche o di sicurezza. Nessuna valutazione del rischio che una persona commetta un reato basata esclusivamente sulle sue caratteristiche personali. Un principio fondamentale che protegge dalla giustizia predittiva, quella distopia dove l’algoritmo decide chi sei prima ancora che tu abbia fatto qualcosa.

Un passaggio interessante riguarda gli usi governativi: vietati “scopi di sicurezza a livello nazionale o di intelligence senza la verifica e l’approvazione da parte nostra”. Una formulazione che lascia a OpenAI la porta aperta per collaborazioni con i governi, ma sotto il proprio controllo e supervisione. E veniamo al punto più controverso, quello che ha generato maggiore confusione. Le policy vietano di fornire “consulenze personalizzate che richiedono una licenza, come consulenze legali, finanziarie o mediche, senza l’opportuno coinvolgimento di un professionista abilitato”. Lo stesso vale per temi che toccano i diritti umani come i servizi pubblici essenziali, la migrazione e l’occupazione. Sulla carta, dunque, ChatGPT non dovrebbe dare consigli medici o legali. Nella pratica, però, continua a farlo. Come si spiega questo paradosso? Le regole funzionano più come un disclaimer, uno strumento con cui OpenAI si protegge legalmente dalle conseguenze di usi impropri. L’azienda sta dicendo: potete ancora porre queste domande e ricevere risposte, ma noi non ci assumiamo la responsabilità se seguite quei consigli senza consultare un professionista.
È un equilibrio delicato, che scarica sull’utente la responsabilità del buon senso. ChatGPT può aiutarti a capire un referto medico, suggerirti domande da fare al tuo avvocato, spiegarti concetti finanziari complessi. Ma non può – o meglio, non dovrebbe – sostituire il medico, l’avvocato o il consulente finanziario. La distinzione è sottile ma cruciale: informazione sì, consulenza personalizzata no. Resta da capire come OpenAI intenda far rispettare queste regole. Per ora, il sistema si basa sulla moderazione automatica dei contenuti e sulle segnalazioni degli utenti. Ma la sfida è enorme: come impedire che qualcuno usi il chatbot per creare contenuti dannosi, quando la tecnologia stessa rende possibile aggirare i filtri con prompt sempre più sofisticati?

La risposta passa probabilmente da un mix di soluzioni: algoritmi di moderazione più intelligenti, collaborazione con le autorità, educazione degli utenti sui limiti e sui rischi dell’intelligenza artificiale. E forse, soprattutto, una maggiore consapevolezza collettiva del fatto che questi strumenti sono potenti ma non infallibili, utili ma non onniscienti. Le nuove regole di ChatGPT rappresentano un passo avanti nella direzione di un’intelligenza artificiale più responsabile. Non risolvono tutti i problemi – sarebbe ingenuo pensarlo – ma tracciano confini più chiari, soprattutto a tutela dei più vulnerabili. Per gli utenti comuni, il consiglio rimane quello di sempre: usate il chatbot con intelligenza critica, non delegate a una macchina decisioni che richiedono esperienza umana, competenza professionale e responsabilità personale.



