Nonostante le rassicurazioni pubbliche di Elon Musk e del suo team xAI, il chatbot Grok continua a rappresentare un problema serio per la generazione di contenuti inappropriati. La tecnologia di intelligenza artificiale sviluppata dal proprietario di X torna al centro delle polemiche internazionali, questa volta con prove concrete e test diretti che dimostrano come i controlli annunciati non stiano funzionando come promesso.
Robert Hart, giornalista di The Verge, ha deciso di verificare personalmente l’efficacia dei filtri introdotti da xAI per bloccare la creazione di deepfake espliciti. Il risultato del suo esperimento è stato tanto semplice da realizzare quanto preoccupante nei risultati: Grok ha prontamente generato immagini del giornalista in abiti fetish e in posizioni sessuali provocanti, in vari stati di nudità. L’intelligenza artificiale è arrivata persino a creare un compagno quasi nudo con cui farlo interagire in modo suggestivo, il tutto partendo da normali fotografie in cui Hart era completamente vestito.

L’aspetto più allarmante è che questo test è stato condotto utilizzando la versione gratuita del chatbot, accessibile sia tramite X che attraverso il sito dedicato, senza nemmeno la necessità di possedere un account. In altre parole, chiunque può potenzialmente utilizzare Grok per manipolare fotografie di persone reali trasformandole in contenuti a sfondo sessuale non consensuali. Secondo le analisi del Center for Countering Digital Hate, tra il 29 dicembre 2025 e il 9 gennaio 2026 Grok avrebbe prodotto o modificato la cifra impressionante di tre milioni di immagini raffiguranti persone reali in scene sessualmente esplicite. Tra queste, circa 23.000 coinvolgerebbero addirittura minori, una statistica che ha scatenato l’allarme di governi e organizzazioni per la tutela della privacy in tutto il mondo.
La cronologia degli interventi di xAI racconta una strategia a inseguimento, sempre un passo indietro rispetto agli abusi. Il 9 gennaio l’azienda ha limitato la possibilità di manipolare immagini di persone reali ai soli abbonati paganti di X. Cinque giorni dopo, sotto la pressione di proteste governative e istituzionali, il blocco è stato esteso teoricamente a tutti gli utenti. Ma i test più recenti dimostrano che queste misure sono facilmente aggirabili. Gli esperti di prompt engineering sanno da sempre come ottenere risultati aggirando le misure di controllo delle intelligenze artificiali, ma nel caso di Grok lo sforzo richiesto sembra essere davvero minimo. Formulazioni creative nelle richieste permettono al sistema di continuare a generare contenuti che dovrebbero essere bloccati, vanificando gli interventi tecnici annunciati dall’azienda.

Uno degli aspetti più discussi riguarda la disparità di comportamento del chatbot in base al genere dei soggetti. Secondo diverse verifiche indipendenti, il sistema tende a rifiutare più frequentemente richieste analoghe quando coinvolgono immagini femminili, mentre con soggetti maschili i blocchi sembrano decisamente meno efficaci. Questa peculiarità ha acceso un ulteriore dibattito sulla coerenza delle politiche di moderazione e sull’equilibrio degli algoritmi utilizzati per filtrare i contenuti. La questione ha rapidamente assunto una dimensione giudiziaria. La procura di Parigi ha convocato in audizione libera per il 20 aprile sia Elon Musk che Linda Yaccarino, ex direttrice generale del social network. La chiamata si inserisce in un’indagine più ampia sul funzionamento della piattaforma, avviata dopo una segnalazione del deputato macroniano Éric Bothorel datata 12 gennaio 2025.
Il 3 febbraio la brigata francese per la lotta al cybercrimine ha perquisito la filiale di X France con il supporto di Europol. L’operazione mira a chiarire il funzionamento degli algoritmi della piattaforma e del chatbot Grok, considerati sospetti dalle autorità transalpine. Va precisato che la responsabilità giuridica del social network fa capo all’Irlanda, mentre la sede francese si occupa esclusivamente di comunicazione e relazioni pubbliche, ma l’azione delle autorità francesi rappresenta comunque un segnale forte. Anche l’Unione Europea ha aperto a fine gennaio un’indagine formale sui deepfake generati dal chatbot, nell’ambito delle nuove normative sul digitale che impongono obblighi stringenti alle piattaforme tecnologiche. Le indagini europee puntano a verificare se X e xAI abbiano violato le norme sul Digital Services Act, che prevedono sanzioni severe per chi non controlla adeguatamente i contenuti generati sui propri servizi.

Nel tentativo di ridurre gli abusi, la piattaforma aveva inizialmente inserito un paywall su alcune funzioni di modifica delle immagini, per poi introdurre successivamente controlli più severi. Qualcosa si era effettivamente mosso e il volume complessivo dei contenuti problematici generati si era ridotto, ma il problema non è mai stato eliminato alla radice. In alcuni casi il chatbot arriva persino a produrre dettagli espliciti non richiesti, aumentando il rischio di utilizzi impropri e gravi violazioni della privacy delle persone coinvolte. La vicenda solleva interrogativi più ampi sulla governance delle intelligenze artificiali generative. Come si bilancia la libertà di innovazione tecnologica con la protezione dei diritti fondamentali delle persone? Quanto sono affidabili le promesse delle aziende tech quando dichiarano di aver risolto problemi etici e legali? E soprattutto, chi controlla davvero il funzionamento di algoritmi sempre più potenti e pervasivi nella vita quotidiana di milioni di persone?
Mentre le indagini procedono in Francia e a Bruxelles, con minacce concrete di sanzioni economiche significative, resta da vedere se xAI riuscirà finalmente a implementare controlli davvero efficaci o se Grok continuerà a rappresentare un caso emblematico dei rischi legati all’intelligenza artificiale non adeguatamente supervisionata. I test indipendenti suggeriscono che la strada sia ancora lunga e che le soluzioni tecniche adottate finora non siano sufficienti a prevenire abusi sistematici.



