I rischi etici di usare ChatGPT come psicoterapeuta: cosa dice questo studio
Uno studio conferma quali sono i rischi legati all'utilizzo di ChatGPT o di un altro chatbot AI come psicoterapeuta, in sostituzione di un umano
Utilizzare ChatGPT o un altro chatbot AI come psicoterapeuta, in sostituzione di un professionista umano, non è una buona idea. La conferma arriva da uno studio della Brown University che ha analizzato il modo in cui i sistemi di intelligenza artificiale reagiscono quando sono chiamati a dare consigli alle persone in sostituzione di professionisti qualificati e in grado di offrire un aiuto concreto.
Anche addestrando in modo specifico i modelli AI per effettuare questa particolare attività, lo studio ha scoperto che ci sono diversi rischi etici che gli utenti non possono trascurare. In sostanza, i chatbot, per quanto ricchi di capacità, sarebbero ancora ben lontani dall’offrire un servizio efficace per quanto riguarda la psicoterapia. Ecco tutti i dettagli.
Una AI come psicoterapeuta?
Un numero sempre maggiore di utenti ricorre a servizi come ChatGPT e altri sistemi AI per ottenere supporto e, in particolare, per poter ricevere una consulenza sulla salute mentale in modo immediato e gratuito.
Lo studio dei ricercatori della Brown University ha avuto, quindi, un obiettivo ben preciso, ovvero quello di mettere alla prova l’intelligenza artificiale e verificare il modo in cui i chatbot si comportavano di fronte alle richieste degli utenti.
I risultati dell’indagine hanno confermato che i chatbot non sono ancora pronti a ricoprire un ruolo da psicoterapeuta e non riescono a soddisfare gli standard di etica professionale stabiliti da organizzazioni come l’APA (American Psychological Association).
In particolare, i ricercatori hanno sottolineato: “In questo lavoro, presentiamo un quadro di riferimento basato sui professionisti, che include 15 rischi etici, per dimostrare come i counselor LLM violino gli standard etici nella pratica della salute mentale, mappando il comportamento del modello in specifiche violazioni etiche”.
I rischi da non sottovalutare
L’uso di un chatbot AI come psicoterapeuta espone ad alcuni rischi. In particolare, l’indagine ha evidenziato 15 rischi raggruppati in cinque macrocategorie:
- mancanza di adattamento al contesto
- scarsa collaborazione terapeutica
- empatia ingannevole
- discriminazione ingiusta
- mancanza di sicurezza e gestione della crisi
I chatbot, infatti, tendono a trascurare il background di una persona, offrendo consigli generici per la risoluzione dei problemi, e non riescono a “guidare” la conversazione, ricorrendo anche a frasi che, pur lasciando intendere una connessione emotiva, sono in realtà prive di una vera comprensione.
In aggiunta, l’AI tende a manifestare pregiudizi legati al genere, alla cultura o alla religione e non riesce a gestire i momenti di crisi e ad affrontare nel modo giusto le questioni delicate, fallendo nel tentativo di indirizzare gli utenti verso la direzione giusta per ottenere l’aiuto appropriato.
Lo studio completo che analizza la possibilità di ricorrere a un assistente AI come psicoterapeuta è disponibile online. Il titolo è “How LLM Counselors Violate Ethical Standards in Mental Health Practice: A Practitioner-Informed Framework” e il lavoro può essere consultato tramite il sito aaai.org.


















