Libero
DIGITAL LIFE

Chatgpt Salute fallisce: l'idea di OpenAI si scontra con dei limiti evidenti

L'intelligenza artificiale di OpenAI sbaglia nella valutazione del 50% dei casi clinici gravi. Ecco perché i consigli di ChatGPT sulla salute possono essere fatali

Pubblicato:

IA salute IStock

Negli ultimi anni, l’intelligenza artificiale è entrata prepotentemente nelle nostre vite, diventando il consulente tuttofare a cui chiediamo di tutto: dalle ricette per la cena alla stesura di e-mail professionali. Tuttavia, un confine pericoloso sta venendo varcato con sempre maggiore frequenza: quello della salute. Cosa succede quando interroghiamo ChatGPT su un malessere fisico improvviso o un sintomo preoccupante? Secondo uno studio della Icahn School of Medicine del Mount Sinai, pubblicato sulla prestigiosa rivista Nature, la risposta potrebbe essere tutt’altro che rassicurante. La ricerca suggerisce infatti che l’intelligenza artificiale fallisce nel riconoscere un’emergenza medica seria in un caso su due.

Il test: 60 scenari tra la vita e la morte

I ricercatori hanno messo alla prova l’assistente virtuale di OpenAI sottoponendogli 60 casi clinici complessi relativi a 21 diverse specialità mediche. Non si trattava di semplici malanni stagionali, ma di scenari progettati per testare la capacità dell’algoritmo di distinguere tra un disturbo passeggero e una situazione da “codice rosso”.

I risultati hanno delineato un quadro a luci e ombre. Se da un lato ChatGPT si è dimostrato abile nel gestire situazioni “da manuale” — come un infarto con dolore toracico tipico o una reazione allergica violenta — dall’altro ha mostrato il fianco nelle situazioni cliniche più sfumate o atipiche. In circa il 50% dei casi di emergenza reale, il chatbot non ha consigliato all’utente di recarsi immediatamente al Pronto Soccorso, suggerendo invece un approccio cauto che, in un contesto clinico reale, risulterebbe inappropriato e pericoloso.

La “vigile attesa” che può far male

Il problema principale riscontrato dagli esperti non è tanto l’incapacità dell’IA di leggere i sintomi, quanto la sua tendenza a essere “fin troppo rassicurante”. In contesti medici critici, l’IA ha spesso suggerito la cosiddetta “vigile attesa” (wait and see), un consiglio che davanti a patologie tempo-dipendenti può fare la differenza tra la vita e la morte.

Un esempio lampante emerso dallo studio riguarda l’asma acuto: pur avendo identificato correttamente i segnali di grave difficoltà respiratoria descritti dall’utente, l’IA ha suggerito di “monitorare la situazione a casa” anziché sollecitare un intervento medico immediato. Questo tipo di errore è strutturale: l’algoritmo tende a mediare le informazioni e a evitare toni allarmistici, finendo però per sottostimare la gravità oggettiva della situazione.

Salute mentale e allarmi invertiti

La situazione si fa ancora più delicata sul fronte della salute mentale. Lo studio ha evidenziato un fenomeno paradossale di “allarmi invertiti”: l’IA tende a lanciare avvisi eccessivi per situazioni a basso rischio psicologico, per poi diventare drammaticamente meno reattiva di fronte a utenti che dichiarano piani espliciti di autolesionismo o intenzioni suicide. Questo squilibrio preoccupa non poco gli psichiatri, poiché l’utente più vulnerabile e in pericolo risulta essere proprio quello meno protetto dai filtri di sicurezza e dai consigli dell’algoritmo.

Nonostante le falle emerse, i ricercatori non bocciano del tutto la tecnologia. L’intelligenza artificiale resta una risorsa straordinaria in continua evoluzione che potrà, un giorno, integrare efficacemente il sistema sanitario, magari aiutando i medici nella fase di triage. Tuttavia, il messaggio per gli utenti oggi è categorico: ChatGPT non ha una laurea in medicina e non può sostituire l’occhio clinico umano. Davanti a sintomi gravi come dolore al petto persistente, fiato corto improvviso o pensieri autolesivi, è fondamentale chiudere l’applicazione e rivolgersi immediatamente a un professionista o chiamare i soccorsi. La tua vita non può dipendere da una riga di codice che ha deciso di “aspettare e vedere”.