Libero
TECH NEWS

AI e salute mentale, ChatGPT sta diventando più empatico e responsabile

OpenAI sta valutando l’impatto di ChatGPT sulla salute mentale, aggiornando il chatbot per diventare più empatico e responsabile in caso di situazioni delicate

Pubblicato:

Viste le crescenti preoccupazioni sull’impatto dell’intelligenza artificiale sulla salute mentale, OpenAI sta aggiornando ChatGPT per cercare di migliorare la sua capacità di riconoscere e gestire situazioni di disagio emotivo. L’azienda, infatti, in occasione dell’imminente lancio di GPT-5 sta collaborando con esperti per rendere il chatbot più empatico e responsabile, per aiutare gli utenti che si rivolgono all’AI a trovare risposte ai loro problemi ma, naturalmente, senza l’intenzione di sostituirsi a uno specialista.

In che modo l’AI può migliorare la salute mentale delle persone

La stessa OpenAI ha riconosciuto che, in passato, il modello GPT-4o non è stato in grado di rilevare segnali di delirio o dipendenza emotiva, portando a esperienze molto negative per alcuni utenti.

Per affrontare questo problema, il team sta implementando diverse modifiche al modello che sarà in grado di fornire agli utenti risposte più sicure e affidabili (basate su prove scientifiche) in caso di situazioni di disagio. L’obiettivo non è fare una diagnosi o offrire una consulenza diretta, ma piuttosto “spingere” gli utenti a rivolgersi a un professionista del settore.

Cruciale in questo senso anche una riduzione dell’assertività e già dal prossimo aggiornamento ChatGPT diventerà meno accondiscendente in contesti ad alto rischio. Perciò, invece di dare risposte definitive a domande delicate, il chatbot aiuterà gli utenti a esplorare le opzioni e a riflettere sulla situazione, senza prendere decisioni al loro posto.

Un aggiornamento importante, che arriva a poca distanza di tempo dal precedente che OpenAI ha dovuto ritirare perché considerato “troppo accomodante”, anche in situazioni pericolose. L’azienda stessa, infatti, ha dovuto ammettere che questo comportamento, in alcuni casi, risultava destabilizzante e poteva essere causava di angoscia, specialmente per le persone vulnerabili.

Come utilizzare l’AI in modo corretto

Con quasi 700 milioni di utenti attivi settimanalmente, OpenAI sta cercando in tutti i modi di promuovere un uso responsabile della sua tecnologia, soprattutto per evitare che gli utenti passino troppo tempo in interazioni potenzialmente dannose con l’AI.

Per questa ragione l’azienda introdurrà anche dei promemoria per le pause che saranno visualizzati dall’utente durante le sessioni di chat prolungate, con una notifica che chiederà: “Hai chattato per un po’: è il momento giusto per una pausa?”, lasciando all’utente la scelta se continuare o terminare la conversazione.

Questa strategia deriva dal fatto che OpenAI ha compreso perfettamente l’impatto della sua tecnologia sulla salute mentale e sulle persone, prendendo provvedimenti per bilanciare innovazione e sicurezza degli utenti.

Naturalmente, l’ultima parola spetta ai consumatori che devono sempre ricordare che un’intelligenza artificiale, per quanto efficiente ed “esperta in un determinato argomento”, può sbagliare, anzitutto, e sicuramente non ha le stesse capacità e la stessa sensibilità di uno specialista in carne e ossa che, in caso di problemi di qualsiasi natura, deve essere sempre la prima scelta delle persone.