Sui social network è esplosa una nuova mania che sta conquistando migliaia di utenti in tutto il mondo: creare caricature personalizzate attraverso ChatGPT. Il meccanismo è semplice quanto accattivante. Basta inserire nel chatbot di OpenAI un prompt apparentemente innocuo: “Crea una caricatura di me e del mio lavoro basandoti su tutto quello che sai di me“. In pochi secondi, l’intelligenza artificiale genera un’immagine stilizzata che rappresenta l’utente nelle sue attività quotidiane, lavorative o nei suoi hobby preferiti. Il risultato è spesso sorprendente per accuratezza e creatività, motivo per cui migliaia di persone stanno condividendo con entusiasmo le proprie caricature su Facebook, Instagram e altre piattaforme. Ma dietro questa tendenza virale si nasconde una questione che merita attenzione: per creare queste immagini personalizzate, ChatGPT ha bisogno di una quantità significativa di dati personali. E quando si tratta di intelligenza artificiale e privacy, il confine tra intrattenimento innocuo e cessione inconsapevole di informazioni sensibili diventa sottile.
La dinamica è sempre la stessa quando emerge un nuovo trend digitale. Gli utenti si lanciano entusiasti, attratti dalla novità e dal desiderio di partecipare a qualcosa che sembra coinvolgere tutti. Ma quanti si fermano a riflettere su cosa accade realmente ai propri dati una volta caricati su queste piattaforme. Come sottolinea Jake Moore, consulente globale per la sicurezza informatica presso ESET, “ogni volta che emergono queste tendenze, le persone sono spesso più veloci a saltare sul carro dei vincitori che a chiedersi cosa potrebbe realmente nascondersi dietro“. Quando un utente carica foto e dettagli personali su un chatbot come ChatGPT, la piattaforma raccoglie tutte queste informazioni e le analizza. Questi dati vengono archiviati e utilizzati per addestrare i modelli di intelligenza artificiale, con utilizzi a lungo termine che rimangono poco chiari. Il problema non è solo legato alla singola interazione con ChatGPT, ma al fatto che gli utenti tendono poi a condividere ulteriormente queste caricature sui social media, amplificando la diffusione dei propri dati personali attraverso molteplici piattaforme.

Matt Conlon, amministratore delegato e co-fondatore della società di sicurezza Cytidel, evidenzia un aspetto ancora più preoccupante. Con l’attuale mania delle caricature AI, gli utenti stanno “alimentando attivamente i modelli generativi con informazioni personali sempre più dettagliate per migliorare il risultato“. Se l’immagine prodotta non è abbastanza accurata, le persone semplicemente aggiungono più contesto, addestrando di fatto un sistema di intelligenza artificiale con dati altamente personali. Quello che sembra un gioco innocente e divertente solleva in realtà serie preoccupazioni sulla privacy dei dati e potrebbe aumentare il rischio di furto d’identità in futuro. Una volta caricate, queste informazioni potrebbero rimanere archiviate indefinitamente, senza garanzie concrete sulla possibilità di rimuoverle completamente o di controllarne l’uso futuro. Chris Linnell, direttore associato per la privacy dei dati presso la società di consulenza Bridewell, avverte che esiste il rischio di normalizzare la condivisione di foto e informazioni personali o professionali dettagliate con strumenti di intelligenza artificiale, senza considerare pienamente come quei dati potrebbero essere utilizzati o conservati.
Per generare una caricatura, ChatGPT si basa sui contenuti forniti attivamente dall’utente: immagini caricate, prompt descrittivi e informazioni personali. Non cerca autonomamente dettagli personali su internet, ma la qualità dell’output può dare l’impressione di una conoscenza profonda proprio per la ricchezza dei dati forniti dalle persone stesse. Secondo la privacy policy di OpenAI, i contenuti inviati possono essere utilizzati per fornire e mantenere i servizi, migliorare e sviluppare prodotti e condurre ricerche. La politica consente un’ampia condivisione con affiliati e fornitori di servizi, senza sempre specificare in dettaglio i casi d’uso a valle. C’è poi un rischio più ampio legato alla natura stessa dei contenuti condivisi online. Una volta che immagini o dati personali vengono pubblicati, possono essere copiati, ricondivisi o estratti ben oltre il loro contesto originale, sfuggendo completamente al controllo dell’utente. OpenAI ha risposto alle preoccupazioni indicando una sezione FAQ dedicata alla memoria del sistema, che aiuta a controllare la raccolta dati su ChatGPT. Gli utenti possono scegliere di attivare o disattivare le opzioni “riferimento a memorie salvate” e “riferimento alla cronologia chat“, modificandole in qualsiasi momento e gestendo memorie specifiche salvate.

Per gli utenti nel Regno Unito e nell’Unione Europea, queste impostazioni sono disattivate per impostazione predefinita. Se si sceglie di non aderire o se queste impostazioni sono disattivate, ChatGPT non attingerà alle conversazioni passate. È anche possibile chiedere cosa il sistema ricorda o passare alla modalità Chat Temporanea per sessioni senza memoria. Nonostante questi strumenti di controllo esistano, molti utenti non ne sono consapevoli o non si prendono il tempo di configurarli prima di lanciarsi nel trend del momento. Per chi proprio non riesce a resistere alla tentazione di provare questa moda digitale, esistono comunque strategie per ridurre al minimo i rischi per la privacy. Io stesso ho creato la mia caricatura senza fornire a ChatGPT accesso a foto reali, limitando i dati condivisi a una semplice descrizione testuale.
Oliver Simonnet, ricercatore principale sulla sicurezza informatica presso CultureAI, consiglia agli utenti di evitare il caricamento di foto reali di se stessi. Meglio mantenere i prompt generici e rivedere attentamente le politiche e le impostazioni sulla conservazione dei dati. Una regola pratica semplice ma efficace: se non condivideresti pubblicamente una certa informazione, probabilmente dovresti evitare di includerla in un prompt per l’intelligenza artificiale. Gli utenti possono ridurre significativamente i rischi evitando di caricare foto o informazioni personali sensibili, esaminando le impostazioni sulla privacy e sull’uso dei dati e, dove disponibile, rinunciando all’utilizzo dei propri dati per il miglioramento dei modelli di intelligenza artificiale. Come conclude Linnell, se qualcuno si sente a disagio riguardo a come i propri dati o la propria immagine potrebbero essere elaborati, l’opzione più sicura rimane semplicemente non utilizzare affatto queste funzionalità.

Il trend delle caricature ChatGPT non è il primo del suo genere, né sarà l’ultimo. La storia recente è costellata di mode virali legate all’intelligenza artificiale che hanno sollevato questioni analoghe sulla privacy. Ricordate l’applicazione FaceApp che invecchiava i volti, o i filtri che trasformavano le persone in personaggi dei cartoni animati. Ogni volta si ripresenta lo stesso schema: entusiasmo iniziale, partecipazione di massa, e solo successivamente interrogativi su dove finiscano realmente tutti quei dati. La lezione da trarre non è necessariamente quella di rinunciare a ogni forma di intrattenimento digitale, ma di sviluppare una maggiore consapevolezza. Prima di caricare foto o informazioni personali su qualsiasi piattaforma, è fondamentale chiedersi: ne vale davvero la pena. Quanto durerà questo trend. Cosa potrebbe accadere ai miei dati tra cinque o dieci anni. Sono domande che dovrebbero precedere il click, non seguirlo.
Le caricature generate dall’intelligenza artificiale possono essere divertenti, creative e offrire un momento di leggerezza nella routine quotidiana. Ma quella leggerezza ha un prezzo, anche se non sempre immediatamente visibile. La privacy digitale è come un vaso: una volta rotto, è difficile ricomporlo. E mentre la caricatura virale di oggi sarà dimenticata tra qualche settimana, i dati che hai condiviso per crearla potrebbero continuare a esistere in qualche server, contribuendo ad addestrare sistemi sempre più sofisticati. La tecnologia avanza rapidamente, e con essa anche le capacità delle intelligenze artificiali di comprendere, analizzare e utilizzare le informazioni che gli forniamo. In questo scenario in continua evoluzione, l’arma più efficace a nostra disposizione rimane la consapevolezza. Conoscere i rischi, leggere le politiche sulla privacy anche quando sembrano noiose, configurare correttamente le impostazioni di sicurezza e, soprattutto, fermarsi a riflettere prima di saltare sul prossimo trend virale.



