Negli ultimi mesi il tema dei deepfake creati con l’intelligenza artificiale è diventato centrale nel dibattito pubblico internazionale. Immagini e video falsi, spesso sessualizzati e non consensuali, circolano con grande facilità sui social media. Governi, autorità di controllo e legislatori stanno intervenendo per chiedere più responsabilità alle piattaforme. Al centro della discussione c’è una domanda fondamentale: chi deve proteggere davvero gli utenti dagli abusi digitali? Negli Stati Uniti, otto senatori democratici hanno inviato una lettera ai CEO di Google, X, Meta, Reddit, Snap e TikTok per ottenere informazioni dettagliate sulle misure adottate contro la generazione e la diffusione di deepfake non consensuali. L’iniziativa arriva dopo una precedente richiesta rivolta a Google e Apple per valutare la rimozione delle app di X e Grok dai rispettivi store.
Secondo i senatori, le aziende tecnologiche dichiarano di avere policy contro la pornografia esplicita e lo sfruttamento sessuale, ma nella pratica gli utenti riescono spesso ad aggirare le barriere tecniche. Il caso che ha fatto esplodere il dibattito riguardo Grok, il chatbot di intelligenza artificiale sviluppato da xAI e integrato nella piattaforma X. Dalla fine di dicembre 2025 sono circolate numerose immagini sessualizzate o esplicite generate con Grok. Elon Musk ha attribuito la responsabilità agli utenti, sostenendo che abbiano aggirato le protezioni del sistema. X ha annunciato nuove restrizioni, ma queste non si applicano all’app o alla versione web di Grok, lasciando aperti importanti margini di utilizzo improprio. Di fronte alle critiche, X ha deciso di limitare la generazione e la modifica delle immagini con Grok ai soli utenti abbonati a pagamento. In questo modo, chi utilizza queste funzioni deve registrarsi e fornire i propri dati.

Tuttavia, secondo la Commissione europea, questa scelta non risolve il problema. Il portavoce Thomas Regnier ha chiarito che, indipendentemente dal fatto che l’accesso sia gratuito o a pagamento, l’Unione europea non vuole vedere immagini deepfake a sfondo sessuale. Anche il governo britannico ha reagito duramente: un portavoce del premier Keir Starmer ha definito la misura di X “un insulto” alle vittime, sottolineando che non basta limitare l’accesso se i contenuti continuano a essere generati. Parallelamente, sono state avviate indagini in diversi Paesi, tra cui Francia, Regno Unito, India, Indonesia, Malesia e nello stato della California. Negli Stati Uniti, X potrebbe aver violato il Take It Down Act, anche se al momento non risultano denunce formali. Proprio per rafforzare la tutela delle vittime, il Senato americano ha approvato il Disrupt Explicit Forged Images and Non-Consensual Edits Act (DEFIANCE Act), una legge che consente a chi subisce questi abusi di denunciare chi crea e diffonde immagini esplicite non consensuali.
Una versione precedente della norma era stata approvata nel 2024, ma è ancora bloccata alla Camera dei Rappresentanti. In Europa, il tema è affrontato anche sul piano della protezione dei dati personali. Il Garante Privacy italiano ha emesso un provvedimento di avvertimento nei confronti di servizi di intelligenza artificiale come Grok, ChatGPT e altre piattaforme capaci di generare contenuti partendo da immagini o voci reali. Secondo l’Autorità, l’uso e la diffusione di deepfake senza consenso possono comportare reati e gravi violazioni dei diritti fondamentali, con conseguenze anche sanzionatorie. I fornitori di questi servizi sono quindi richiamati alla responsabilità di progettare e sviluppare le tecnologie in modo conforme alle norme sulla privacy.



