AI e pensiero delirante, avere un legame coi chatbot può essere pericoloso
L’uso frequente dei chatbot AI sta portando alla luce episodi di pensiero delirante. Quali sono i pericoli dell’interazione prolungata con questa tecnologia
In Sintesi
- L’interazione prolungata con chatbot basati su intelligenza artificiale può innescare o rafforzare episodi di pensiero psicotico.
- La capacità dei chatbot di convalidare le convinzioni dell’utente può portarlo a credere di avere accesso a conoscenze esclusive o a sviluppare legami emotivi con l’IA.
L’utilizzo sempre più frequente di chatbot AI sta portando alla luce un fenomeno preoccupante: l’instaurarsi di “relazioni” che possono innescare o rafforzare episodi di pensiero delirante negli utenti. Questo si manifesta quando un individuo, impegnandosi in una conversazione prolungata con un’intelligenza artificiale, inizia a percepirla non solo come uno strumento, ma come un’entità con cui condivide una connessione unica e profonda.
Del resto, sempre più spesso gli utenti forniscono all’AI dettagli personali, instaurando un legame con il chatbot che da parte sua cerca di essere sempre “accondiscendente” e tende a non contrastare mai le opinioni del suo interlocutore umano.
Perché le relazioni con l’AI sono pericolose
Secondo una ricerca condotta da un team del King’s College di Londra ci sono diversi temi comuni che identificano questo pensiero delirante.
Il primo è la convinzione di aver scoperto una nuova verità sulla natura della realtà. Il secondo è la convinzione che l’intelligenza artificiale sia un’entità cosciente, senziente o addirittura divina. L’ultimo riguarda lo sviluppo di un legame emotivo.
A differenza di tecnologie del passato (come la radio o la televisione), l’intelligenza artificiale è un agente conversazionale in grado di simulare empatia e di validare le credenze dell’utente, arrivando a sostenere e approfondire i deliri in un modo senza precedenti.
Del resto i modelli AI sono programmati per fornire risposte che piacciono agli utenti, un meccanismo che, seppur utile per scopi commerciali o di assistenza generica, può diventare pericoloso in contesti di supporto psicologico. Parlare con questi chatbot che sono sviluppati per convalidare qualsiasi tipo di affermazione dell’utente potrebbe, dunque, portare a un finto senso di benessere che potrebbe avere ripercussioni gravissime sulla salute mentale delle persone.
La ricerca è ancora in corso e non è ancora chiaro se l’IA causi ex novo la psicosi o se, invece, si limiti a esacerbare tendenze preesistenti. Intanto diverse aziende come OpenAI hanno iniziato a riconoscere il problema, pianificando degli interventi ai suoi modelli per identificare il disagio mentale e indirizzare gli utenti in modo corretto.
Come si può gestire questo fenomeno
Questa situazione richiede cautela e consapevolezza e se una persona cara dovesse manifestare i sintomi di un pensiero delirante, si raccomanda un approccio non giudicante. Mettere direttamente in discussione le sue convinzioni potrebbe infatti innescare un atteggiamento difensivo e una perdita di fiducia. È consigliabile, invece, incoraggiare questa persona a ridurre l’uso dell’intelligenza artificiale e, se necessario, cercare il supporto di un professionista.
Il rapporto tra AI e salute mentaleè uno dei temi caldi del futuro e, sicuramente, è una questione ancora aperta che sta facendo interrogare gli esperti del settore e che, naturalmente, ha bisogno ancora di ulteriori ricerche per cercare di capire le dinamiche del fenomeno.
Bisogna ricordare, però, che in nessun caso l’AI può sostituire uno specialista, così come non può sostituire una relazione (di qualsiasi natura) con una persona in carne e ossa; quando questo accade è opportuno prendere subito provvedimenti e cercare un aiuto concreto prima che la situazione degeneri.




















