Negli ultimi mesi, con l’escalation del conflitto in Medio Oriente, i social media si sono riempiti di video virali che pretendono di mostrare attacchi militari e bombardamenti in Israele o Iran. Tuttavia, molti di questi filmati sono falsi, fuorvianti o estrapolati dal contesto. Alcuni provengono da altri Paesi: un video ampiamente condiviso su X sostiene di mostrare missili iraniani su Tel Aviv, ma in realtà riprende festeggiamenti di tifosi di calcio ad Algeri. Altri clip mostrano presunti bombardamenti statunitensi o iraniani, ma derivano da videogiochi come Arma 3 o War Thunder, o sono interamente creati con intelligenza artificiale.
This viral video, viewed 4.5 million times, claims to show a location on fire in Saudi Arabia during the exchange of fire between Iran, Israel and the US.
But the video is from July 2024, and shows Israeli strikes on Yemen's Hudaydah port. pic.twitter.com/YjdEsHeb8Y
— Shayan Sardarizadeh (@Shayan86) March 1, 2026
Un esempio emblematico riguarda un video di Tel Aviv con oltre 4 milioni di visualizzazioni: gli edifici danneggiati e il fumo arancione non corrispondono alla realtà e non si sentono sirene in sottofondo. Nonostante le analisi di fact-checker come BBC Verify, Euronews The Cube e AAP FactCheck, milioni di persone continuano a condividerli, spesso senza accorgersi che si tratta di manipolazioni. Il problema è amplificato dai chatbot AI come Grok, che su X sono stati consultati dagli utenti per verificare i video.
How it started How it’s going https://t.co/L9UKP0laCV pic.twitter.com/XjAvcwXzpL
— 𝑐ℎ𝑖𝑙𝑙𝑖𝑛𝑜𝑖𝑠 (@chiIIum) February 28, 2026
In molti casi Grok ha confermato come reali clip generate dall’IA, citando erroneamente fonti affidabili come Reuters o CNN. Anche gli account con la spunta blu contribuiscono alla diffusione, perché la piattaforma incentiva la circolazione dei contenuti in base all’interazione, non alla veridicità. Le autorità della piattaforma stanno cercando di correre ai ripari: Nikita Bier, responsabile dei prodotti di X, ha annunciato controlli più rigidi sui contenuti generati dall’intelligenza artificiale e l’uso delle note della comunità per segnalare post ingannevoli.
Tel Aviv, stripped of illusion, as you have never witnessed it. pic.twitter.com/HE3ckjBMti
— Abdulruhman Ismail (@a_abdulruhman) March 3, 2026
Gli utenti che non etichetteranno correttamente i video IA rischiano la sospensione dalla monetizzazione, ma l’efficacia di queste misure è limitata a causa del volume enorme di contenuti pubblicati ogni giorno. Il fenomeno non è solo ingannevole, ma anche incentivato economicamente: utenti e reti di account diffondono video falsi per guadagnare visibilità e denaro, creando un flusso di informazioni che può suggerire vantaggi strategici inesistenti a una delle parti in conflitto. Secondo Newsguard, video e immagini con oltre 21,9 milioni di visualizzazioni enfatizzano i presunti successi militari dell’Iran, spesso distorcendo la realtà.
Looks AI but it isn’t.
This is the real deal.pic.twitter.com/BT6qVY8Y64— Tanausu Unchained (@TanausuX) March 3, 2026
Per riconoscere video falsi o manipolati, esistono strumenti come la verifica SynthID di Google tramite Gemini o Hive Moderation, ma i gradi di certezza non sono sempre sufficienti. È importante quindi sviluppare senso critico: controllare fonti multiple, diffidare di video sensazionali e confrontare immagini e date. Solo così si può navigare con consapevolezza in un panorama digitale sempre più complesso e manipolato, evitando di diffondere disinformazione che può alterare la percezione di eventi reali.
