La nuova frontiera delle truffe non passa più solo da email sgrammaticate o sms sospetti. Oggi basta un nostro video pubblicato sui social per finire nel mirino dei criminali. Tre secondi di audio sono sufficienti per clonare una voce con l’intelligenza artificiale e usarla contro di noi. Il risultato è una telefonata che sembra arrivare da un figlio, da un parente, da una persona fidata. E nel panico, anche chi si considera prudente può cadere nella trappola.
Fino a poco tempo fa le truffe digitali colpivano soprattutto via posta elettronica o sms, con messaggi facilmente riconoscibili per errori grammaticali e richieste sospette. Oggi lo scenario è cambiato radicalmente. Grazie ai modelli di intelligenza artificiale generativa, clonare una voce non richiede più ore di registrazioni né software costosi e complessi. È sufficiente scaricare un reel, salvare una storia o estrarre pochi secondi di audio pulito da un video pubblicato su TikTok o Instagram per ottenere un campione perfetto.
Il meccanismo della truffa resta simile a quello del “finto carabiniere”, ma con un’arma in più: la voce identica a quella della persona cara. La vittima riceve una telefonata in cui sente il figlio dire: “Mamma, ho investito una persona, mi hanno arrestato. Servono soldi per la cauzione”. Oppure un vocale su WhatsApp che riproduce esattamente inflessioni, pause e cadenze dialettali. In una situazione di forte stress emotivo, la richiesta urgente di denaro può sembrare credibile. A quel punto interviene un presunto emissario del tribunale o delle forze dell’ordine per ritirare il contante.

Secondo un report dell’Associazione europea consumatori indipendenti (Aeci), nel 2026 questo “salto di piattaforma” sarà sempre più sfruttato: prima il furto della voce dai social, poi il recupero del numero di telefono dei familiari attraverso banche dati compromesse, infine l’attacco diretto via telefono o app di messaggistica. Le stime parlano di un possibile tasso di successo superiore dell’80% rispetto alle truffe tradizionali, proprio perché la voce genera un livello di fiducia immediato.
Il fenomeno rientra nel più ampio problema dei deepfake, cioè contenuti audio o video manipolati con l’intelligenza artificiale. Sul tema è intervenuto il Garante per la protezione dei dati personali, che ha adottato un provvedimento di avvertimento nei confronti degli utilizzatori di servizi basati sull’AI, come Grok, ChatGPT e Clothoff, quest’ultima già oggetto di un precedente blocco. L’Autorità ha ricordato che generare e diffondere contenuti a partire da immagini o voci reali senza consenso può comportare gravi violazioni dei diritti e delle libertà fondamentali, oltre a possibili reati e sanzioni previste dalla normativa europea sulla protezione dei dati.
Dal punto di vista penale, il deepfake è oggi regolato dalla legge 132 dell’ottobre 2025: chi utilizza la voce o l’immagine di un’altra persona senza consenso per trarne profitto o arrecare un danno rischia fino a cinque anni di reclusione. Cosa possiamo fare, concretamente? Primo: limitare la quantità di contenuti audio pubblici, soprattutto se facilmente scaricabili. Secondo: impostare correttamente la privacy dei profili social. Terzo: concordare in famiglia una parola chiave segreta da usare in caso di reale emergenza, così da verificare l’autenticità di una richiesta di aiuto. Quarto: non inviare mai denaro o consegnarlo a sconosciuti senza aver prima richiamato direttamente il familiare interessato su un numero già noto.



