Nuovi documenti sul caso Jeffrey Epstein sono stati resi pubblici nelle ultime settimane, scatenando un’ondata di attenzione mediatica e social senza precedenti. Ma insieme ai file autentici, sui social network è esplosa una vera e propria epidemia di immagini false, generate interamente dall’intelligenza artificiale, che mostrano politici e personalità pubbliche in situazioni mai verificate e del tutto inventate. Il fenomeno non è marginale. Stiamo parlando di fotografie che diventano virali in poche ore, condivise da migliaia di utenti convinti della loro autenticità, alimentando teorie del complotto e danneggiando reputazioni. La tecnologia ha reso la creazione di contenuti falsi così accessibile e convincente che distinguere il vero dal falso richiede ormai competenze specifiche che la maggior parte degli utenti non possiede.
Un caso emblematico riguarda Zohran Mamdani, sindaco di New York, e sua madre Mira Nair, regista di fama internazionale. Diverse immagini generate con l’IA circolate massicciamente su X e altri social mostrano Mamdani da bambino insieme alla madre, in compagnia di Epstein, Ghislaine Maxwell, Bill Clinton, Jeff Bezos e Bill Gates. Le foto sembrano risalire a una festa del 2009 e appaiono incredibilmente realistiche. Il problema è che Mamdani nel 2009 aveva 18 anni, non era affatto un bambino. Le immagini sono completamente fabbricate. Ma la manipolazione non si ferma qui. Insieme alle foto false sono circolate affermazioni altrettanto infondate: c’è chi ha sostenuto che Epstein fosse il vero padre di Mamdani, una dichiarazione priva di qualsiasi fondamento considerando che suo padre è Mahmood Mamdani, stimato professore di antropologia alla Columbia University.
Un’altra falsa narrazione riguarda Mira Nair. Si è diffusa la voce che la regista fosse stata sposata con un parente di Jeffrey Epstein. In realtà Nair è stata sposata con Mitch Epstein, fotografo affermato, che non ha alcun legame familiare con il finanziere condannato. Epstein è un cognome diffuso tra le famiglie ebree, e la coincidenza è stata sfruttata per costruire connessioni inesistenti. Ricerche approfondite nei registri pubblici e negli articoli giornalistici già pubblicati non hanno rivelato alcuna prova di legami familiari tra Mitch Epstein e Jeffrey Epstein. Eppure, nel caos informativo dei social media, la semplice somiglianza del cognome è bastata per generare migliaia di condivisioni e commenti indignati.
Come possiamo riconoscere queste immagini false. Le foto di Mamdani da bambino sono apparse per la prima volta su un account parodia di X che si autodefinisce un motore di meme basato sull’IA. Elemento cruciale: le immagini riportano un watermark digitale chiamato SynthID, una tecnologia di marcatura sviluppata per identificare contenuti generati artificialmente. Questo watermark conferma inequivocabilmente la natura artificiale delle fotografie. SynthID funziona inserendo un pattern invisibile all’occhio umano ma rilevabile attraverso strumenti di analisi. È una delle risposte tecnologiche al problema della disinformazione visiva, anche se la sua efficacia dipende dalla volontà dei creatori di contenuti di utilizzarlo e dalla capacità degli utenti di verificare la sua presenza.
Le immagini manipolate o completamente false non riguardano solo Mamdani e Nair. Diverse personalità del panorama politico internazionale sono finite nel mirino di questa nuova forma di disinformazione visiva. È fondamentale chiarire un punto: la presenza di queste foto false non implica automaticamente che le persone ritratte non abbiano alcuna connessione con il caso Epstein. Alcuni dei nomi coinvolti nelle immagini artificiali hanno effettivamente avuto rapporti documentati con il finanziere, ma questo non giustifica la creazione e diffusione di materiale falso. La distinzione è cruciale: una cosa è documentare relazioni reali con prove verificabili, altra cosa è fabbricare prove inesistenti che alimentano narrazioni distorte.
Il pericolo di questa nuova forma di manipolazione è duplice. Da un lato, danneggia persone innocenti associandole falsamente a crimini o comportamenti riprovevoli. Dall’altro, inquina il dibattito pubblico su questioni serie, rendendo più difficile per giornalisti e investigatori separare i fatti verificati dalle invenzioni. La facilità con cui queste immagini vengono generate e condivise rappresenta una sfida senza precedenti per l’ecosistema informativo. Gli algoritmi di IA generativa sono ormai talmente sofisticati da produrre fotografie quasi indistinguibili da quelle autentiche. L’illuminazione, le proporzioni, persino i dettagli dello sfondo appaiono convincenti.
La viralità del falso supera spesso quella della verifica. Mentre un’immagine falsa può raggiungere milioni di visualizzazioni in poche ore, le smentite e i fact-check faticano a penetrare le stesse audience. Il meccanismo psicologico è noto: le persone tendono a condividere contenuti che confermano le loro convinzioni preesistenti, senza verificarne l’autenticità. Cosa possono fare gli utenti per difendersi’ Prima di tutto, sviluppare un sano scetticismo verso contenuti sensazionalistici. Immagini straordinarie o rivelazioni scioccanti richiedono verifiche straordinarie. Controllare la fonte è essenziale: da dove proviene l’immagine, chi l’ha pubblicata per primo, esistono riscontri su testate giornalistiche affidabili.
Cercare elementi anomali nelle immagini può aiutare. L’IA generativa, per quanto sofisticata, produce ancora imperfezioni riconoscibili: mani con dita extra o malformate, riflessi impossibili negli specchi, asimmetrie nei volti, testi illeggibili o senza senso sugli sfondi. Anche l’illuminazione può tradire l’artificialità, con ombre che cadono in direzioni incoerenti. Strumenti online permettono di verificare se un’immagine è stata manipolata o è apparsa precedentemente in altri contesti. La ricerca inversa delle immagini su Google o TinEye può rivelare l’origine di una foto e le sue varianti. Esistono anche piattaforme specializzate in fact-checking visivo che analizzano i metadati e le caratteristiche tecniche delle immagini.
Il caso Epstein, per la sua carica emotiva e il coinvolgimento di personaggi potenti, rappresenta un terreno fertile per la disinformazione. Ma questa dinamica si replica su innumerevoli altri temi: dalla politica alla cronaca, dalle celebrità agli eventi di attualità. L’IA generativa ha democratizzato la capacità di creare contenuti falsi convincenti, un’arma che può essere utilizzata per manipolare l’opinione pubblica su scala industriale. Le piattaforme social hanno una responsabilità enorme in questo contesto. Algoritmi che premiano l’engagement a tutti i costi finiscono per amplificare proprio i contenuti più sensazionalistici e divisivi, indipendentemente dalla loro veridicità. Servono sistemi di moderazione più efficaci, etichette chiare sui contenuti generati artificialmente, e penalizzazioni per chi diffonde deliberatamente disinformazione.
Ma la responsabilità è anche individuale. In un’epoca in cui chiunque può diventare editore con un click, le competenze di alfabetizzazione mediatica non sono più opzionali. Capire come funzionano gli algoritmi, riconoscere i bias cognitivi che ci rendono vulnerabili alla manipolazione, verificare le fonti prima di condividere: sono abilità indispensabili per navigare l’ecosistema informativo contemporaneo. Il caso delle foto false di Mamdani è solo la punta dell’iceberg. Mentre la tecnologia continua a evolversi a ritmo accelerato, il divario tra la capacità di creare contenuti falsi e quella di identificarli si allarga. La partita si gioca su molteplici fronti: sviluppo di strumenti di detection sempre più sofisticati, normative che responsabilizzino i creatori e i distributori di contenuti, educazione diffusa sui rischi della disinformazione visiva.



