ChatGPT sembra un confidente perfetto. Sempre disponibile, mai giudicante, pronto a rispondere a qualsiasi domanda. Negli ultimi anni milioni di persone hanno imparato a considerare questo chatbot come un assistente personale, un consulente virtuale, persino un terapeuta improvvisato. Gli utenti condividono problemi di salute, caricano esami del sangue per farli analizzare, chiedono consigli su questioni finanziarie delicate, si confidano su situazioni familiari complicate. Ma c’è un problema: tutto quello che diciamo a ChatGPT non è privato come crediamo. A differenza delle app di messaggistica come WhatsApp, dove vediamo l’avviso rassicurante I messaggi sono protetti da crittografia end-to-end, le conversazioni con ChatGPT non godono di questa protezione. OpenAI, l’azienda che sviluppa il chatbot, conserva e monitora le chat, le analizza per individuare comportamenti potenzialmente pericolosi e, se richiesto dalle autorità, potrebbe essere costretta a consegnarle in tribunale. Lo ha confermato lo stesso Sam Altman, fondatore di OpenAI, durante un podcast: se qualcuno confida le sue questioni più personali a ChatGPT e questo porta a un procedimento legale, l’azienda potrebbe dover fornire quelle conversazioni.
La verità è che ChatGPT non è vincolato dal segreto professionale come medici, terapeuti o avvocati. È uno strumento tecnologico che, per quanto sofisticato, raccoglie dati, li archivia e li utilizza. Alcuni ricercatori di intelligenza artificiale invitano gli utenti a essere più selettivi su ciò che condividono. Jennifer King, ricercatrice presso lo Stanford Institute for Human-Centered Artificial Intelligence, lo spiega senza giri di parole: quando digiti qualcosa in un chatbot, ne perdi il possesso. Le cinque categorie di informazioni che seguono sono particolarmente rischiose da condividere. Non si tratta di allarmismo, ma di consapevolezza. Sapere cosa evitare può fare la differenza tra un uso intelligente della tecnologia e un rischio evitabile.

Informazioni sull’identità personale. Numeri di previdenza sociale, patente di guida, passaporto, ma anche data di nascita, indirizzo completo e numero di telefono. Sono i mattoni della nostra identità digitale e fisica. OpenAI lavora attivamente per censurare questo tipo di dati quando vengono inseriti, ma il sistema non è infallibile. E anche quando funziona, significa che quei dati sono comunque passati attraverso i server dell’azienda. Una portavoce di OpenAI ha dichiarato che i modelli di intelligenza artificiale devono imparare a conoscere il mondo, non i singoli individui, e che l’azienda cerca attivamente di minimizzare la raccolta di informazioni personali. Ma il rischio rimane. Risultati medici e dati sanitari. Molti utenti sono tentati di caricare referti, esami del sangue, radiografie per ottenere un’interpretazione rapida. Ma i chatbot non rientrano nelle protezioni speciali riservate ai dati sanitari. La riservatezza medica è un valore fondamentale proprio per prevenire discriminazioni e imbarazzi. Se proprio si vuole utilizzare l’intelligenza artificiale per analizzare dati medici, il consiglio è di ritagliare o censurare tutte le informazioni identificative, limitandosi ai risultati puri del test.
Conti finanziari e credenziali bancarie. Numeri di conto corrente, codici IBAN, informazioni su investimenti. Questi dati potrebbero essere utilizzati per tracciare o, nel peggiore dei casi, accedere ai fondi. La tentazione di chiedere a ChatGPT consigli finanziari personalizzati può essere forte, ma condividere i numeri di conto è un rischio che non vale la pena correre. Informazioni aziendali proprietarie. Questa categoria riguarda chi utilizza ChatGPT per lavoro. Dati di clienti, segreti commerciali, codice sorgente non pubblicato: tutto ciò che è riservato all’azienda non dovrebbe mai finire in una chat con un chatbot pubblico. Samsung ha vietato l’uso di ChatGPT dopo che un ingegnere ha accidentalmente fatto trapelare codice sorgente interno al servizio. Se l’intelligenza artificiale è davvero utile nel contesto lavorativo, l’azienda dovrebbe sottoscrivere una versione enterprise con protezioni specifiche, non affidarsi alla versione consumer.

Credenziali di accesso. Password, PIN, domande di sicurezza. Con l’arrivo degli agenti di intelligenza artificiale capaci di svolgere attività concrete nel mondo reale, aumenta la tentazione di fornire credenziali per automatizzare operazioni. Ma questi servizi non sono stati progettati come caveau digitali. Le password vanno conservate esclusivamente in un gestore dedicato, mai condivise con un chatbot. Ma cosa succede esattamente alle nostre conversazioni? OpenAI specifica nella sua documentazione che le chat vengono analizzate automaticamente. Se il sistema rileva comportamenti che violano le policy aziendali, come intenzioni di danneggiare altri utenti, i contenuti possono essere inoltrati a un team umano specializzato. Questo team può valutare la situazione e, nei casi più gravi, bloccare l’account e segnalarlo alle forze dell’ordine. Al momento OpenAI ha scelto di non segnalare automaticamente i casi di autolesionismo, per tutelare la riservatezza di conversazioni particolarmente sensibili, ma resta il fatto che tutti i messaggi scritti nelle chat attive sono conservati.
Le conversazioni vengono anche utilizzate per addestrare i modelli futuri. Quando forniamo un feedback su una risposta del chatbot, cliccando il pollice in su o in giù, potremmo dare il permesso affinché il nostro prompt e il suo output vengano valutati e persino utilizzati per l’addestramento. ChatGPT di OpenAI, Copilot di Microsoft e Gemini di Google utilizzano le conversazioni in questo modo, anche se offrono un’opzione di esclusione nelle impostazioni. Claude di Anthropic, invece, di default non usa le chat per l’addestramento e cancella i dati dopo due anni. Le uniche conversazioni eliminate automaticamente entro 30 giorni sono quelle temporanee e quelle che l’utente cancella manualmente. La modalità chat temporanea di ChatGPT, attivabile dall’angolo in alto a destra della finestra, funziona come la modalità incognito del browser. Impedisce alla memoria del chatbot di aggiungere quel materiale al profilo utente. La chat non apparirà nella cronologia e i contenuti non saranno utilizzati per addestrare i modelli.

C’è poi un altro rischio, spesso sottovalutato: la condivisione volontaria. Quando una conversazione risulta particolarmente utile o interessante, è possibile condividerla cliccando sui tre puntini accanto al titolo e selezionando Copia link. Il problema è che una volta generato, quel link può essere aperto da chiunque lo possieda. Non esistono limitazioni sulla visibilità. Fino a metà 2025 era presente anche un’opzione per rendere le chat ricercabili su Google. Molti utenti, senza rendersene conto, hanno reso pubbliche conversazioni personali che sono state poi indicizzate dai motori di ricerca come normali pagine web. Nella maggior parte dei casi si trattava di contenuti innocui: richieste su lavori di ristrutturazione, domande di astrofisica, idee per ricette. Ma in alcuni casi sono emersi curriculum dettagliati, problemi psicologici e persino richieste legate a comunità online problematiche. OpenAI ha poi rimosso quell’opzione e annunciato nuove misure di sicurezza.
Un incidente di sicurezza verificatosi nel marzo 2023 ha mostrato quanto possa essere fragile questo sistema. Un bug di ChatGPT ha permesso ad alcuni utenti di vedere cosa avevano digitato inizialmente altre persone nelle loro chat. L’azienda ha rilasciato una correzione, ma l’episodio ha evidenziato che le falle possono verificarsi. OpenAI ha anche inviato email di conferma dell’abbonamento alle persone sbagliate, esponendo nome, cognome, indirizzi email e informazioni di pagamento degli utenti. Per chi volesse sapere esattamente quali informazioni sono state raccolte, esiste un portale dedicato messo a disposizione da OpenAI in ottemperanza al regolamento generale sulla protezione dei dati europeo. Dopo aver effettuato l’accesso, è possibile richiedere di scaricare i propri dati personali, anche se il formato in cui vengono consegnati non è facilmente leggibile. Si può anche richiedere che le proprie chat non vengano più usate per l’addestramento dei modelli, anche se questa richiesta vale solo da quel momento in avanti: se i dati sono già stati utilizzati, non verranno rimossi retroattivamente. È possibile cancellare l’account, rimuovere GPT personalizzati e chiedere la rimozione di informazioni personali dalle risposte fornite ad altri utenti.

Ma la vera protezione non viene dagli strumenti di controllo offerti dalle aziende. Viene dalla prudenza. Considerare ChatGPT come uno spazio pubblico, non come un diario privato. Ora che OpenAI ha annunciato l’intenzione di introdurre pubblicità all’interno delle conversazioni, basandole sui contenuti delle singole chat, la questione diventa ancora più rilevante. Meno dati condividiamo, meno siamo esposti a rischi. Gli utenti più attenti alla privacy possono adottare alcuni accorgimenti. Eliminare le conversazioni subito dopo averle terminate è la strategia più sicura secondo Jason Clinton, responsabile della sicurezza informatica di Anthropic. Le aziende solitamente eliminano i dati cancellati dagli utenti dopo 30 giorni. Un’altra opzione è utilizzare servizi che rendono anonimi i prompt. Duck.ai, del motore di ricerca DuckDuckGo, permette di interagire con diversi modelli di intelligenza artificiale rendendo anonimi i prompt e garantendo che i dati non vengano utilizzati per l’addestramento.
ChatGPT è uno strumento potente, capace di semplificare il lavoro, stimolare la creatività, rispondere a domande complesse. Ma non è un confessionale. Non gode di alcuna protezione speciale. Ogni conversazione è archiviata, monitorata, potenzialmente utilizzabile. Proteggere il proprio account con una password complessa e l’autenticazione a più fattori è un primo passo. Ma il vero salto di qualità avviene quando cambiamo prospettiva: non chiederci se possiamo dire qualcosa a ChatGPT, ma se siamo disposti a renderlo potenzialmente pubblico.



