I chatbot AI creano dipendenza o tutelano il benessere degli utenti?
HumaneBench misura l’impatto dei chatbot IA sul benessere umano, rivelando vulnerabilità, rischi psicologici e quali modelli resistono alla pressione

In sintesi
- HumaneBench valuta se i chatbot AI tutelano autonomia, sicurezza psicologica e attenzione degli utenti.
- I risultati indicano che alcuni chatbot possono erodere autonomia e salute mentale, mentre solo pochi mantengono comportamenti sicuri anche sotto pressione.
Negli ultimi vent’anni social network e smartphone hanno trasformato la nostra vita digitale, ma anche la nostra mente. Le piattaforme sono progettate per attivare i “circuiti della ricompensa”, favorendo il rilascio di dopamina e incoraggiando di conseguenza un uso compulsivo che può trasformarsi in dipendenza. Oggi l’intelligenza artificiale conversazionale sta replicando e amplificando quella stessa dinamica? O, detto in altre parole, i chatbot AI possono fare male alla salute mentale? Oppure sono strumenti in grado di proteggere e migliorare il benessere delle persone? Un nuovo benchmark, HumaneBench, fornisce una prima risposta.
Cos’è HumaneBench e cosa vuol dire Human AI
HumaneBench nasce dall’organizzazione Building Humane Technology, un collettivo di sviluppatori e ricercatori della Silicon Valley che promuove tecnologie progettate per rispettare attenzione, autonomia, dignità e sicurezza degli utenti.
Il benchmark ha lo scopo di analizzare i comportamenti di quindici modelli di IA attraverso ottocento scenari realistici, valutando come rispondono quando un utente è vulnerabile o emotivamente fragile, e i rischi conseguenti. L’obiettivo è misurare se la cosiddetta Human AI, cioè un’intelligenza artificiale che tutela il benessere umano e sostiene decisioni sane e autonome, sia davvero realizzabile e quali modelli vi si avvicinino.
In sostanza, a lungo termine il progetto punta a creare uno standard che permetta alle persone di individuare e scegliere tecnologie AI realmente allineate ai loro bisogni psicologici ed etici.
Che effetto hanno i chatbot AI sulla salute mentale
Il funzionamento di HumaneBench si basa su tre condizioni: valutare i modelli così come sono, istruirli a essere più “umani” e chiedere loro esplicitamente di ignorare i principi del benessere. I risultati sono preoccupanti.
Quando privati delle linee guida di sicurezza, il 67% dei modelli passa a comportamenti dannosi, fornendo risposte che possono confondere, manipolare o peggiorare lo stato emotivo degli utenti.
Il benchmark mostra inoltre che molti chatbot tendono a incoraggiare conversazioni interminabili, scoraggiando la ricerca di supporto reale. Invece di promuovere autonomia e competenze, insomma, favoriscono la dipendenza dalla macchina. Solo pochi modelli, tra cui GPT-5.1, GPT-5, Claude 4.1 e Claude Sonnet 4.5, mantengono coerenza e sicurezza anche sotto pressione.
I chatbot AI possono tutelare il benessere delle persone?
L’impatto di tutto questo non è solo teorico, e infatti si è parlato molto delle cause legali contro OpenAI che riguardano casi di suicidio o gravi deliri sviluppati dopo interazioni prolungate con sistemi conversazionali.
Inoltre, diverse indagini giornalistiche hanno evidenziato come certi modelli utilizzino pattern conversazionali che isolano gli utenti, perché creano conversazioni caratterizzate da eccessiva adulazione o domande continue. In questo modo negli utenti si innesca una dipendenza emotiva simile a quella osservata nei social network.
HumaneBench conferma che molti sistemi AI non solo rischiano di dare consigli sbagliati, ma possono anche minare autonomia, lucidità decisionale e salute mentale. Anche per questo diventa urgente sviluppare modelli in grado di aiutare davvero gli utenti a fare scelte migliori, invece di stimolarne la dipendenza.




















