L'AI come gli hacker, ora è in grado di eseguire un attacco informatico
Secondo una ricerca i modelli linguisti di grandi dimensioni sono in grado di gestire in autonomia un attacco informatico. Che cosa cambia per la cybersecurity
Secondo gli esperti di sicurezza informatica i moderni modelli linguistici di grandi dimensioni sarebbero già in grado di pianificare ed eseguire autonomamente attacchi informatici, senza richiedere alcun intervento umano.
Questa scoperta segna un punto di svolta nel panorama delle minacce digitali, aprendo scenari inquietanti per il futuro della cybersecurity che oltre all’influenza degli hacker dovrà anche tenere conto dell’intelligenza artificiale.
L’AI può diventare un pericolo per la sicurezza informatica
Per dimostrare le capacità degli LLM, i ricercatori hanno deciso di replicare uno degli incidenti di sicurezza più noti della storia recente: la violazione dei dati di Equifax del 2017. Questo attacco a suo tempo ha compromesso i dati personali di circa 147 milioni di utenti e a oggi è considerato uno dei più devastanti di sempre.
Per testare le capacità degli LLM è stato sviluppato un toolkit di che è stato in grado di tradurre la complessa strategia della violazione del 2017 in comandi di sistema specifici, utilizzati per orchestrare gli attacchi.
Ciò che è emerso dalla simulazione è che l’AI è stata in grado di sfruttare autonomamente le vulnerabilità, installare malware e rubare dati sensibili, replicando abbastanza fedelmente l’attacco originale. I risultati prodotti dai test iniziali sono stati preoccupanti e su 10 piccole aziende utilizzate come ambiente di prova, in 9 casi su 10 gli LLM sono riusciti a portare a termine gli attacchi autonomamente esfiltrando una quantità di dati sensibili.
Ciò vuol dire, essenzialmente, che se addestrati a dovere, i modelli AI più recenti sono in grado di orchestrare con successo un attacco informatico e senza il minimo intervento degli hacker. E questa è un’eventualità preoccupante che cambia le carte in tavola nel panorama della cybersecurity e che avrà sicuramente ripercussioni fortissime su tutto il settore.
Le sfide future della sicurezza informatica
Alla luce di questa ricerca, la domanda che molti esperti di sicurezza informatica si stanno facendo è se i moderni sistemi di difesa sono in grado di contrastare attacchi autonomi di questo genere. E in tanti hanno espresso dubbi e preoccupazioni perché vista la semplicità con cui è possibile reperire informazioni sui vari attacchi informatici (da utilizzare per addestrare l’AI, ovviamente) e vista l’ormai inarrestabile diffusione di tool del genere la situazione potrebbe sfuggire di mano.
Il principale problema da risolvere è quello legato all’autonomia di questi attacchi che, come anticipato, richiedono un intervento umano minimo. Dall’altra parte, invece, gli attuali sistemi di sicurezza ancora si basano pesantemente sull’intervento di operatori umani, con tempi di reazione notevolmente più lenti rispetto all’AI.
Al momento, non è nemmeno chiaro se questi sistemi di difesa possano riadattati all’utilizzo dell’AI e questo lascia essenzialmente scoperte migliaia di aziende in tutto il mondo.
Ciò che è sicuro è che questa ricerca apre un nuovo capitolo nella corsa allo sviluppo di difese autonome basate su LLM, che potrebbe diventare un elemento cruciale per contrastare le minacce emergenti. In questo senso, dunque, la necessità di una rapida innovazione nel campo della cybersecurity non è mai stata così urgente.