Un’autostrada squarciata su più livelli, una collina intera inghiottita dal fango, un treno Frecciarossa sospeso nel vuoto sopra una voragine che sembra aprirsi fino al centro della terra. Elicotteri che sorvolano la scena, ambulanze e camionette dei Vigili del Fuoco ovunque, persone ferme a osservare l’abisso. L’immagine scuote, fa paura, sembra documentare la fine di un mondo. E infatti sta facendo il giro dei social da ore, condivisa migliaia di volte su Facebook e WhatsApp, accompagnata da commenti terrorizzati e richieste disperate di notizie su vittime e dispersi. C’è solo un problema: quella foto non esiste. Non nel senso che qualcuno l’ha rimossa o nascosta. Proprio non esiste. Non è mai stata scattata da nessun fotografo, non ritrae nessun evento reale. È stata creata di sana pianta dall’intelligenza artificiale, generata pixel per pixel da un algoritmo a partire da un comando testuale digitato da qualcuno in cerca di visibilità, o peggio, di caos deliberato.
A meno di un giorno dalla riattivazione della storica frana di Petacciato, in Molise, considerata una delle più vaste del continente europeo, sui social media hanno iniziato a circolare immagini apocalittiche che non corrispondono minimamente alla situazione effettiva sul territorio. Si tratta di contenuti costruiti con strumenti di intelligenza artificiale generativa, capaci di produrre scenari iper-realistici ma completamente inventati. E la velocità con cui si sono diffusi dimostra quanto sia sottile il confine tra informazione e disinformazione nell’era digitale. L’immagine fake più virale ritrae una scena che, a prima vista, sembra uno scatto aereo della zona costiera molisana. A sinistra, la collina appare visibilmente erosa da una frana massiccia. L’autostrada A14 risulta interrotta e collassata su più livelli.
A destra, la ferrovia Adriatica è sospesa nel nulla, con un convoglio ad alta velocità fermo sui binari e la massicciata crollata sotto. Al centro dell’inquadratura, perfettamente nitido, un cartello stradale blu indica Bari-Lecce. Tutto intorno, mezzi di soccorso e figure umane microscopiche che osservano la devastazione. Per l’occhio meno esperto, la foto ha una parvenza di autenticità. Ma bastano pochi secondi di analisi per riconoscere gli artefatti tipici della generazione artificiale: proporzioni innaturali degli elicotteri, sfocature selettive incompatibili con una vera fotografia aerea, dettagli che sembrano allucinati dal software piuttosto che catturati dalla realtà. Eppure, nel flusso velocissimo dei feed social, queste incongruenze sfuggono. E così il contenuto diventa virale.

Nei commenti sotto i post che condividono l’immagine, si è scatenato un vero e proprio corto circuito. Da una parte ci sono utenti terrorizzati che chiedono conferme su vittime, che si lamentano della mancanza di copertura mediatica nazionale, che parlano di scenario apocalittico e si domandano perché i telegiornali non ne parlino. Dall’altra, ci sono persone più attente che tentano di arginare la marea di disinformazione, segnalando che si tratta di materiale palesemente falso e invitando a non alimentare il panico inutile. Il rischio concreto di queste fake news è quello che gli esperti di comunicazione d’emergenza chiamano effetto boomerang: la bufala corre più velocemente delle notizie reali, creando un’idea distorta della scala del problema e interferendo potenzialmente con la gestione dell’emergenza vera. Quando le autorità devono smentire foto false invece di concentrarsi sulla comunicazione effettiva dei rischi, le risorse cognitive e operative vengono distolte da ciò che conta davvero.
L’emergenza a Petacciato esiste ed è concreta. La frana si è riattivata, i binari della ferrovia adriatica sono stati deformati di diversi centimetri, i treni non possono transitare in sicurezza. Ma la circolazione incontrollata di contenuti generati artificialmente complica ulteriormente una situazione già delicata. Crea tensione dove servirebbe invece lucidità, alimenta paure irrazionali quando bisognerebbe concentrarsi sui rischi reali e misurabili. Nel pomeriggio dell’8 aprile, il capo del Dipartimento della Protezione Civile, Fabio Ciciliano, ha effettuato un sopralluogo sul posto per incontrare le autorità locali e valutare la situazione. Si attendono aggiornamenti ufficiali basati su dati oggettivi, non su immagini costruite al computer. La vicenda solleva interrogativi più ampi sul rapporto tra intelligenza artificiale e informazione. Gli strumenti di generazione di immagini sono ormai accessibili a chiunque, capaci di produrre contenuti fotorealistici in pochi secondi.
La tecnologia in sé non è né buona né cattiva, ma il suo utilizzo per creare deliberatamente panico durante un’emergenza rappresenta una deriva pericolosa. E la velocità di diffusione sui social network amplifica il danno in modo esponenziale. Come riconoscere queste immagini false? Alcuni elementi possono aiutare: dettagli anatomici sbagliati nelle persone raffigurate, oggetti con proporzioni innaturali, texture uniformi dove dovrebbe esserci variabilità, illuminazione incoerente, testi distorti o innaturalmente nitidi. Ma soprattutto, prima di condividere un’immagine scioccante, vale la pena fermarsi un attimo. Chiedersi se esistono fonti attendibili che confermano quella scena. Verificare sui siti di informazione ufficiali. Non contribuire alla diffusione di contenuti che potrebbero essere falsi. Perché in un’emergenza reale, l’unica cosa più pericolosa della mancanza di informazioni è la sovrabbondanza di informazioni false.



