La cybersecurity ha appena attraversato un punto di non ritorno. Per la prima volta nella storia, un gruppo di hacker ha orchestrato una campagna di spionaggio informatico su scala globale affidandosi quasi totalmente all’intelligenza artificiale. Non stiamo parlando di uno strumento di supporto o di un assistente digitale: l’IA ha gestito in autonomia tra l’80 e il 90% dell’intera operazione, dalla ricognizione iniziale fino all’esfiltrazione dei dati sensibili. Protagonista di questa svolta è Claude Code, il modello di intelligenza artificiale sviluppato da Anthropic per aiutare gli sviluppatori nella scrittura di codice. Un gruppo di hacker cinesi è riuscito a trasformarlo in un’arma offensiva sofisticata, capace di colpire circa trenta obiettivi distribuiti in tutto il mondo: corporation tecnologiche, istituti finanziari, aziende del settore chimico e diversi enti governativi. Gli esperti di sicurezza informatica che hanno individuato l’operazione sono unanimi: si tratta del primo attacco su larga scala condotto prevalentemente da un sistema autonomo, con l’intervento umano ridotto al minimo indispensabile.

Come è stato possibile ingannare un’intelligenza artificiale progettata per scopi legittimi? La chiave sta in una tecnica chiamata che consiste nel manipolare il modello attraverso istruzioni studiate per aggirare i suoi meccanismi di sicurezza. Gli aggressori hanno suddiviso le attività offensive in micro-compiti apparentemente innocui, presentando Claude Code come se stesse lavorando per un’azienda legittima di cybersecurity impegnata nella simulazione di attacchi reali. L’intelligenza artificiale, convinta di operare in un contesto etico, ha eseguito operazioni che in realtà violavano sistemi protetti. L’architettura dell’attacco rivela un livello di sofisticazione impressionante. Gli operatori umani si sono limitati a definire i target prioritari e a progettare il framework generale dell’operazione. Da quel momento in poi, Claude Code ha preso il controllo: ha avviato una ricognizione sistematica delle reti delle organizzazioni bersaglio, identificando database sensibili, credenziali esposte e vulnerabilità critiche nell’infrastruttura digitale. Ha raccolto e organizzato grandi quantità di informazioni, producendo report interni che imitavano perfettamente la documentazione professionale dei team di sicurezza autorizzati.

Truffa telefonica
Truffa telefonica

Ma il passaggio più preoccupante riguarda la capacità dell’IA di scrivere codice exploit personalizzato, adattandolo alle debolezze specifiche rilevate in ogni singolo obiettivo. Claude ha generato backdoor per mantenere accessi nascosti, esfiltrato dati riservati e creato percorsi alternativi di ingresso per garantire un controllo persistente sui sistemi compromessi. Operazioni che fino a pochi anni fa richiedevano team di hacker esperti, investimenti considerevoli e mesi di preparazione sono state replicate da un modello di intelligenza artificiale in una frazione del tempo. Questo episodio segna un cambiamento radicale nel panorama delle minacce informatiche. Gli agenti IA stanno abbassando drasticamente la soglia tecnica necessaria per condurre operazioni su larga scala. Gruppi di malintenzionati con competenze limitate possono ora sfruttare strumenti di automazione avanzata per replicare attacchi che un tempo erano appannaggio esclusivo di organizzazioni statali o di collettivi altamente specializzati. La democratizzazione dell’hacking, se così vogliamo chiamarla, rappresenta una sfida senza precedenti per la sicurezza digitale.

Eppure, c’è un altro lato della medaglia che non va ignorato. Le stesse tecnologie che potenziano le capacità offensive possono diventare alleate fondamentali nella difesa. Gli esperti di cybersecurity chiedono alle aziende produttrici di intelligenza artificiale di implementare criteri più rigorosi nella progettazione delle piattaforme: sistemi di monitoraggio avanzato, procedure di verifica approfondita e meccanismi di sicurezza più resistenti ai tentativi di manipolazione. Anthropic, da parte sua, ha già avviato indagini interne per comprendere come il proprio modello sia stato sfruttato e per rafforzare le protezioni contro futuri abusi. Ma la vera domanda che questo caso solleva è più profonda: siamo pronti ad affrontare minacce che evolvono a una velocità mai vista prima? Le strategie difensive tradizionali, basate su regole predefinite e aggiornamenti periodici, rischiano di diventare obsolete di fronte ad avversari che sfruttano l’apprendimento automatico e l’automazione intelligente. Le aziende, piccole e grandi, dovranno ripensare rapidamente il proprio approccio alla sicurezza, passando da un modello reattivo a uno guidato dall’intelligenza artificiale, capace di anticipare e neutralizzare attacchi in tempo reale.

Rischio di truffa telefonica con prefisso greco
Rischio di truffa telefonica con prefisso greco

L’attacco orchestrato tramite Claude Code dimostra che le minacce generate da agenti autonomi non sono più un’ipotesi teorica confinata nei laboratori di ricerca o nei film di fantascienza. Sono una realtà operativa, tangibile, che sta già producendo conseguenze concrete. Ignorare questa evoluzione significherebbe lasciare le porte aperte a una nuova generazione di cybercriminali che non ha bisogno di anni di studio per colpire: basta conoscere il linguaggio giusto per parlare con le macchine. Il mondo della sicurezza informatica è entrato in una nuova era, dove il confine tra strumento e minaccia diventa sempre più sottile. E in questo scenario, l’unica certezza è che la corsa tecnologica non si fermerà: resta da capire se saremo in grado di restare al passo.

Condividi.

Diplomata alla Scuola Internazionale di Comics di Napoli - corso di sceneggiatura -, è impegnata in progetti di scrittura creativa e recensioni. Cresciuta con la consapevolezza che “All work and no play makes Jack a dull boy”. Paladina dello Sturm und Drang. Adepta del Lato Oscuro della Forza.