Libero
SICUREZZA INFORMATICA

ChatGPT Atlas e Comet non sono ancora sicuri: cosa si rischia coi browser AI

Secondo gli esperti di cyber security, i browser AI sono a rischio attacchi di prompt injection. Come difendere i propri dati personali e la privacy sul web

Pubblicato:

In Sintesi

  • I browser AI, come ChatGPT Atlas e Comet, sono suscettibili ad attacchi di prompt injection, che sfruttano la loro tendenza a eseguire istruzioni dannose nascoste nei contenuti web per rubare dati ed eseguire operazioni non autorizzate.
  • Si consiglia di usare password uniche, l’autenticazione a più fattori e di limitare l’accesso di questi browser AI ad account particolarmente sensibili, come quelli bancari ad esempio.

I nuovi browser web basati sull’intelligenza artificiale, come ChatGPT Atlas di OpenAI e Comet di Perplexity, vogliono ridefinire il modo in cui gli utenti interagiscono con Internet. L’obiettivo è ambizioso: sottrarre a Google Chrome il ruolo di principale porta d’accesso al web promettono un’esperienza di navigazione “agente-centrica”, in cui l’AI agisce per conto dell’utente, cliccando sui link, esplorando i siti e persino compilando moduli online.

Si tratta, insomma, di assistenti digitali in grado di navigare autonomamente e di semplificare le attività quotidiane, trasformando il browser in un vero e proprio intermediario intelligente tra l’utente e la rete. Tuttavia, dietro questa innovazione si nasconde un rischio crescente: la navigazione agentica introduce nuove vulnerabilità nella privacy e nella sicurezza dei dati personali.

Che cosa si rischia usando i nuovi browser AI

Per funzionare a dovere, i browser basati sull’intelligenza artificiale devono poter accedere a un’ampia gamma di informazioni sensibili: email, calendari, contatti e addirittura dati bancari o professionali. Solo in questo modo possono interagire in modo efficace con il web e completare compiti complessi.

Secondo alcuni test condotti da esperti del settore, strumenti come ChatGPT Atlas e Comet si sono dimostrati abbastanza utili per attività semplici, come trovare informazioni o compilare form. Tuttavia, con compiti più articolati, come ad esempio la gestione di prenotazioni o la compilazione automatica di documenti online, gli agenti mostrano ancora limiti evidenti con tempi prolungati e difficoltà di esecuzione.

Ma la vera criticità non riguarda le prestazioni, bensì la sicurezza. La principale minaccia per i browser con AI è rappresentata dagli attacchi di prompt injection, una tecnica che sfrutta una vulnerabilità tipica degli agenti AI: la loro tendenza a eseguire istruzioni nascoste nei contenuti web.

Gli effetti possono essere devastanti e vanno dal furto di dati sensibili fino a azioni non autorizzate, come acquisti, iscrizioni o pubblicazioni automatiche sui social network.

Cosa stanno facendo OpenAI e Perplexity per risolvere il problema

Il Chief Information Security Officer di OpenAI, Dane Stuckey, ha riconosciuto pubblicamente che questo è “un problema di sicurezza irrisolto”, aggiungendo che gli hacker stanno investendo risorse per sfruttarlo. Per questo motivo l’azienda ha introdotto una “modalità di disconnessione”, sviluppata per limitare le capacità del browser-agente e impedirgli di accedere agli account personali durante la navigazione.

Perplexity, invece, ha sviluppato un sistema di rilevamento in tempo reale degli attacchi di prompt injection con l’obiettivo di bloccare le minacce prima che possano compromettere la sicurezza dell’utente.

Secondo gli esperti di sicurezza informatica, però, nessuna delle due soluzioni è efficace al 100% e la radice del problema sta proprio nella struttura stessa degli LLM, che non sono in grado di distinguere chiaramente tra il testo che devono elaborare e le istruzioni operative che li guidano, interpretando tutto ciò che leggono come un comando.

Come proteggersi da queste nuove criticità

In attesa di soluzioni più efficaci, l’unica cosa da fare è adottare un approccio prudente, considerando le credenziali dei browser AI come nuovi obiettivi ad alto rischio per i cybercriminali, optando quindi per password uniche, affiancate dall’autenticazione a più fattori per proteggere i propri account.

Utile anche, per il momento, limitare l’accesso di questi browser AI agli account sensibili, come quelli bancari o sanitari, almeno fino a quando la tecnologia non sarà più matura.