Perde il lavoro per un click sbagliato. Non è un’esagerazione, ma quanto accaduto a Marcel Bucher, biologo e professore di scienze vegetali all’Università di Colonia. In pochi istanti, due anni di attività accademica sono scomparsi: appunti, bozze di articoli, materiali didattici, analisi e schemi di ricerca. Tutto cancellato senza possibilità di recupero. Il caso, raccontato dallo stesso Bucher sulle pagine della rivista Nature, ha acceso un dibattito internazionale sull’affidabilità dell’intelligenza artificiale negli ambienti professionali e scientifici. Non si tratta solo di un errore individuale, ma di una fragilità strutturale che riguarda molti utenti.
Per circa due anni Bucher aveva utilizzato ChatGPT Plus, la versione in abbonamento del chatbot di OpenAI, come un vero e proprio assistente personale. Lo impiegava per scrivere email, preparare lezioni universitarie, strutturare domande di finanziamento, rivedere articoli scientifici e analizzare esami. Le conversazioni con il chatbot erano diventate un archivio operativo centrale, capace di semplificare e velocizzare il lavoro quotidiano. Lo stesso Bucher ha però chiarito di non considerare l’IA infallibile: era consapevole delle cosiddette “allucinazioni” dei modelli linguistici, ovvero risposte formulate con sicurezza ma potenzialmente errate.
Il punto di rottura è arrivato nell’agosto scorso, quando il professore ha deciso di revocare il consenso alla condivisione dei dati con OpenAI. La sua era una semplice prova: voleva capire se, disattivando l’opzione sulla privacy, avrebbe comunque potuto continuare a usare il servizio. Il risultato è stato immediato e definitivo. Tutte le chat sono state eliminate, le cartelle di progetto svuotate, senza avvisi chiari né possibilità di annullare l’operazione. Davanti allo schermo è rimasta solo una pagina bianca. Due anni di lavoro evaporati in pochi secondi. Convinto inizialmente di trovarsi di fronte a un problema tecnico, Bucher ha tentato ogni strada possibile: ha cambiato browser e dispositivo, cancellato la cache, reinstallato l’applicazione, ripristinato le impostazioni. Nulla ha funzionato.

Anche il contatto con l’assistenza clienti si è rivelato inutile. Le prime risposte sono arrivate da un agente automatico; solo in seguito un operatore umano ha confermato che i dati erano stati cancellati in modo permanente e non potevano essere recuperati. La spiegazione è legata alle regole di tutela della privacy di OpenAI. Nell’informativa pubblicata dall’azienda si specifica che ChatGPT raccoglie dati legati all’account, ai contenuti delle chat e all’utilizzo tecnico del servizio. Queste informazioni servono al funzionamento del sistema, al miglioramento dei modelli e al rispetto degli obblighi di legge. L’utente ha però il diritto di revocare il consenso.
Quando questo accade, entra in funzione il principio della “privacy by design”: i dati vengono cancellati e non sono più accessibili. OpenAI ha quindi sostenuto di aver rispettato la richiesta dell’utente, proteggendo la sua privacy.Il problema, per Bucher, non è tanto la cancellazione in sé, quanto l’assenza di sistemi di sicurezza minimi. Nessun avviso esplicito, nessun periodo di recupero, nessun backup automatico. Secondo il professore, se un solo clic può distruggere anni di lavoro, ChatGPT non può essere considerato uno strumento sicuro per un uso professionale strutturato. La vicenda ha scatenato anche reazioni critiche: molti osservatori hanno sottolineato come affidarsi a un chatbot come archivio principale, senza copie di sicurezza, sia una scelta rischiosa.



