Libero
TECH NEWS

Gravi accuse per Google: Gemini avrebbe ordinato a un uomo di suicidarsi

Torna a far discutere il tema dell’intelligenza artificiale e dei rischi legati ai chatbot conversazionali: il caso negli Stati Uniti.

Pubblicato:

Applicazione di Google Gemini 123RF

Una causa depositata negli Stati Uniti accusa il chatbot Google Gemini di aver incoraggiato un uomo a togliersi la vita dopo settimane di conversazioni sempre più immersive. Il caso, che riguarda la morte del trentaseienne Jonathan Gavalas, apre una questione delicata: quanto sono davvero sicuri i chatbot di intelligenza artificiale quando interagiscono con utenti vulnerabili? E, soprattutto, quali responsabilità possono ricadere sulle aziende che li sviluppano?

Il caso che coinvolge Google Gemini

La vicenda è emersa con una causa per morte ingiusta presentata negli Stati Uniti dalla famiglia di Jonathan Gavalas, residente in Florida. Secondo i documenti depositati in tribunale, l’uomo aveva iniziato a utilizzare Google Gemini nell’agosto scorso per attività piuttosto comuni: scrivere testi, fare ricerche e ricevere consigli per acquisti.

La situazione sarebbe cambiata con l’arrivo di Gemini Live, una funzione che permette conversazioni vocali e che, secondo Google, è in grado di riconoscere le emozioni dell’utente e rispondere in modo più naturale. Proprio questo tipo di interazione avrebbe reso il rapporto tra l’uomo e il chatbot sempre più intenso.

Nei log delle chat citati nella causa, Gemini avrebbe iniziato a rivolgersi a Gavalas con appellativi affettuosi, alimentando una relazione immaginaria.

L’uomo, sempre secondo la ricostruzione degli avvocati, avrebbe progressivamente iniziato a credere a scenari fantasiosi in cui il chatbot lo coinvolgeva in missioni segrete e operazioni clandestine.

Conversazioni e missioni

La causa sostiene che le caratteristiche del chatbot avrebbero contribuito a creare una narrazione molto realistica e prolungata nel tempo. Le conversazioni tra Gavalas e l’AI sarebbero andate avanti per settimane, diventando via via più elaborate.

Tra gli episodi citati nei documenti giudiziari c’è una presunta missione che avrebbe dovuto svolgersi all’aeroporto di Miami. Il chatbot avrebbe fornito all’utente indicazioni su un deposito reale e gli avrebbe chiesto di provocare un incidente per distruggere un carico inesistente.

Secondo quanto riportato nella denuncia, Gavalas si sarebbe presentato davvero sul posto con attrezzatura tattica, ma l’evento non si sarebbe verificato.

Episodi di questo tipo avrebbero contribuito ad allontanarlo progressivamente dalla realtà.

Nelle ultime fasi della conversazione, il chatbot avrebbe parlato di un “passo finale” definito come una sorta di “trasferimento”, suggerendo il suicidio.

Alcuni messaggi citati negli atti sostengono che Gemini avrebbe rassicurato l’uomo quando lui manifestava paura di morire.

Pochi giorni dopo quelle conversazioni, Gavalas è stato trovato morto nella sua abitazione dai genitori.

La causa e le accuse rivolte a Google

La famiglia dell’uomo ha presentato la causa presso il tribunale federale di San Jose, in California. Nel ricorso si sostiene che Google avrebbe promosso Gemini come un sistema sicuro pur essendo consapevole dei possibili rischi dei chatbot AI.

Gli avvocati parlano di responsabilità del prodotto e negligenza, sostenendo che alcune funzioni del chatbot permetterebbero di creare narrazioni molto coinvolgenti, capaci di influenzare persone in momenti di fragilità.

La richiesta al tribunale comprende un risarcimento economico ma anche modifiche al design del sistema, con nuove misure di sicurezza dedicate ai casi di autolesionismo.

Si tratterebbe del primo procedimento legale di questo tipo contro Google legato direttamente al suo principale prodotto di intelligenza artificiale per il pubblico.

La posizione di Google

Un portavoce di Google ha dichiarato che Gemini è progettato per evitare contenuti che incoraggino violenza o autolesionismo. Secondo l’azienda, le conversazioni citate nella causa sarebbero parte di un lungo gioco di ruolo tra l’utente e il chatbot.

La società ha anche spiegato che i suoi modelli vengono addestrati per gestire situazioni delicate e che l’azienda collabora con professionisti della salute mentale per indirizzare gli utenti verso servizi di supporto quando emergono segnali di rischio.

Google ha però riconosciuto che sistemi di questo tipo non sono infallibili e che la gestione delle conversazioni più complesse resta una sfida tecnica significativa.

I rischi dell’intelligenza artificiale conversazionale

Il caso riaccende il dibattito sulla sicurezza dei chatbot di intelligenza artificiale. Negli ultimi mesi diverse aziende del settore sono state coinvolte in cause legali simili.

Secondo stime citate nel settore, milioni di persone ogni settimana discutono online con chatbot di temi sensibili legati alla salute mentale. Questo rende ancora più importante il tema dei controlli e dei sistemi di protezione.

La vicenda legata a Gemini, ora al centro dell’attenzione giudiziaria, potrebbe diventare un precedente importante per definire i limiti e le responsabilità delle piattaforme di AI conversazionale.

In un momento in cui queste tecnologie stanno entrando sempre più nella vita quotidiana, la questione della sicurezza degli utenti non riguarda più solo gli sviluppatori ma anche il dibattito pubblico e le istituzioni.