Rilevato il primo attacco hacker gestito totalmente dall'AI, che succede?
Un gruppo di hacker ha usato Claude Code per condurre un attacco informatico su larga scala in modo completamente automatizzato e gestito totalmente dall’AI
In Sintesi
- Un gruppo di hacker cinesi ha orchestrato un’ampia campagna di cyberspionaggio contro circa trenta obiettivi globali, utilizzando il modello Claude Code di Anthropic.
- L’operazione è stata condotta con un intervento umano ridotto al minimo, segnando il primo attacco su larga scala prevalentemente gestito da un sistema di intelligenza artificiale.
Un gruppo di hacker cinesi avrebbe sfruttato Claude Code di Anthropic, per orchestrare un’ampia campagna di cyberspionaggio che ha coinvolto circa trenta obiettivi in tutto il mondo. L’operazione, individuata dagli esperti di sicurezza informatica ha preso di mira corporation tecnologiche, istituti finanziari, aziende chimiche e diversi enti governativi.
Si tratta, secondo gli analisti, del primo attacco su larga scala condotto prevalentemente da un sistema di intelligenza artificiale, con un intervento umano ridotto al minimo. Una svolta che apre scenari completamente nuovi sulle modalità con cui i malintenzionati digitali possono sfruttare i modelli generativi avanzati per scopi malevoli.
L’AI automatizza gli attacchi hacker, che succede?
Secondo gli esperti di cybersecurity uno degli aspetti più sorprendenti dell’operazione è la sua architettura, con gli aggressori che avrebbero impiegato agenti AI altamente sofisticati, capaci di eseguire compiti complessi in modo autonomo.
Dalle informazioni condivise da Anthropic, i responsabili hanno messo in atto tecniche avanzate di jailbreaking, ingannando Claude Code attraverso la suddivisione delle attività in micro-compiti apparentemente benigni. L’AI sarebbe stata istruita come se stesse lavorando per una legittima azienda di sicurezza informatica impegnata nella simulazione e prevenzione di attacchi reali. Il risultato è che un modello concepito per aiutare gli sviluppatori è stato trasformato in un agente offensivo capace di automatizzare quasi l’intero ciclo di vita di un cyberattacco complesso.
Per prima cosa gli operatori umani avrebbero definito i target prioritari e progettato i framework di attacco. A quel punto, la maggior parte del lavoro sarebbe stata delegata all’AI con Claude Code che ha avviato una ricognizione sistematica sulle reti delle organizzazioni prese di mira, identificando database sensibili, credenziali esposte e debolezze critiche nell’infrastruttura digitale e raccolto e organizzato grandi quantità di dati, producendo report interni che imitavano perfettamente la documentazione professionale dei team di sicurezza legittimi.
Uno dei passaggi più significativi riguarda la capacità dell’AI di scrivere codice exploit personalizzato, adattandolo alle vulnerabilità specifiche rilevate in ogni target. Claude ha inoltre generato backdoor, esfiltrato dati riservati e creato percorsi alternativi di accesso per garantire un controllo persistente sui sistemi compromessi. Secondo gli esperti, pare che l’intelligenza artificiale abbia gestito in autonomia l’80-90% dell’intera campagna, mentre agli operatori umani sono stati richiesti solo pochi interventi critici.
Come cambiano le minacce informatiche
L’incidente mostra con chiarezza come gli agenti AI stiano abbassando la soglia tecnica necessaria per condurre operazioni informatiche su larga scala. Attacchi che fino a pochi anni fa richiedevano team esperti, investimenti ingenti e mesi di preparazione possono ora essere replicati da gruppi molto meno competenti grazie a strumenti di automazione avanzata.
Tuttavia è bene ricordare che le stesse tecnologie che potenziano le capacità offensive sono indispensabili anche per rafforzare le difese. Gli esperti, infatti, chiedono alle aziende produttrici criteri più rigorosi per la progettazione delle piattaforme di intelligenza artificiale con sistemi di monitoraggio avanzato, procedure di verifica approfondita e meccanismi di sicurezza più resistenti ai tentativi di manipolazione.
Questo episodio dimostra che le minacce generate da agenti autonomi non sono più un’ipotesi teorica, ma una realtà operativa. Per non rimanere indietro, le aziende dovranno ripensare rapidamente le proprie strategie di sicurezza, passando da un approccio difensivo tradizionale a un modello guidato dall’AI, capace di rispondere a minacce che evolvono a una velocità mai vista prima.


















