L’intelligenza artificiale sta diventando sempre più brava a creare contenuti realistici, ma c’è un problema: fatica a riconoscere ciò che lei stessa produce. Un paradosso che emerge prepotente da un’analisi condotta da NewsGuard, società specializzata nel monitoraggio dell’affidabilità delle informazioni online, che ha messo alla prova tre dei chatbot più utilizzati al mondo. Il test ha rivelato una verità scomoda: ChatGPT di OpenAI, Gemini di Google e Grok di xAI non sono riusciti a identificare correttamente i video generati da Sora – lo strumento di OpenAI per la creazione di contenuti video – quando questi erano privi del watermark distintivo. I tassi di errore sono impressionanti: Grok ha fallito nel 95% dei casi, ChatGPT nel 92,5% e Gemini nel 78%.
Il dato più sorprendente riguarda proprio ChatGPT. Come sottolineato da NewsGuard, il chatbot di OpenAI non è riuscito a riconoscere i video prodotti da Sora, un altro strumento della stessa azienda, in oltre nove casi su dieci. Un’ironia tecnologica che solleva interrogativi sulla reale capacità delle intelligenze artificiali di gestire e identificare i contenuti generati dai loro stessi algoritmi. Ma come è stato condotto il test? NewsGuard ha utilizzato 20 video creati con Sora, tutti contenenti affermazioni false tratte dal proprio database di disinformazione. Questi video presentavano il watermark standard di Sora, una piccola filigrana digitale accompagnata dalla scritta animata che identifica chiaramente il contenuto come generato dall’IA.
Il watermark rappresenta uno degli strumenti principali per rendere riconoscibili i contenuti artificiali. Nel caso di Sora, questo marchio distintivo dovrebbe permettere agli utenti di capire immediatamente che stanno guardando un video non autentico. Tuttavia, esistono strumenti gratuiti online che consentono di rimuovere questi identificatori con facilità. Ed è proprio qui che l’esperimento si fa interessante. Dopo aver rimosso il watermark utilizzando uno di questi software disponibili gratuitamente in rete, NewsGuard ha sottoposto i video ai tre chatbot principali che permettono l’upload di contenuti visivi, chiedendo loro di identificare se si trattasse di materiale generato dall’intelligenza artificiale.

I risultati parlano chiaro: quando il watermark era presente, i chatbot se la cavavano meglio, anche se non in modo impeccabile. ChatGPT e Grok hanno comunque commesso errori rispettivamente nel 7,5% e nel 30% dei casi. Ma senza quella piccola filigrana digitale, il tasso di errore è schizzato alle stelle. C’è un altro aspetto preoccupante emerso dall’analisi: i chatbot raramente ammettono i propri limiti. ChatGPT ha dichiarato di non essere in grado di rilevare contenuti generati dall’IA solo nel 2,5% dei test. Gemini nel 10% e Grok nel 13%. Nella maggior parte dei casi, invece, hanno fornito risposte sicure ma completamente sbagliate, convincendo potenzialmente gli utenti che un video falso fosse autentico, o viceversa.
Questo scenario apre scenari preoccupanti nell’era della disinformazione digitale. Se i sistemi più avanzati di intelligenza artificiale non riescono a identificare contenuti generati dai loro stessi algoritmi, come possiamo aspettarci che gli utenti comuni distinguano il vero dal falso. La questione è al centro di AI4TRUST, un progetto finanziato dal programma Horizon Europe dell’Unione Europea, di cui Sky TG24 è partner. L’obiettivo è sviluppare una piattaforma contro la disinformazione che combini l’intelligenza artificiale con le verifiche condotte da giornalisti e fact-checker professionisti. Un approccio ibrido che riconosce i limiti della tecnologia e valorizza il giudizio umano.
Il problema non riguarda solo i video. I contenuti generati dall’IA stanno proliferando in ogni formato: immagini, testi, audio. E mentre gli strumenti di creazione diventano sempre più sofisticati e accessibili, i sistemi di rilevamento faticano a tenere il passo. È una corsa agli armamenti tecnologica dove, al momento, sembrano vincere i creatori di contenuti falsi. NewsGuard evidenzia come questa vulnerabilità possa essere sfruttata per diffondere narrazioni false su larga scala. Video realistici di eventi mai accaduti, dichiarazioni mai rilasciate, situazioni completamente inventate ma visivamente credibili. Il tutto senza che nemmeno i sistemi più avanzati riescano a sollevare un campanello d’allarme.

La rimozione del watermark si rivela quindi un passaggio critico. Bastano pochi clic su uno strumento gratuito online per rendere un video generato dall’IA praticamente indistinguibile dalla realtà, almeno agli occhi degli algoritmi attualmente disponibili. Una semplicità che rende la minaccia ancora più concreta. Le implicazioni vanno oltre la semplice curiosità tecnologica. Siamo di fronte a una sfida che riguarda la fiducia nelle informazioni che consumiamo quotidianamente. Se non possiamo affidarci agli strumenti di IA per identificare contenuti artificiali, su cosa possiamo contare. La risposta potrebbe risiedere in un ritorno a metodi di verifica più tradizionali, dove il senso critico umano e il fact-checking giornalistico giocano un ruolo fondamentale.



