AI e medicina: un chatbot è davvero in grado di sostituire un medico?
Uno studio ha evidenziato seri dubbi sull’affidabilità dell’intelligenza artificiale in medicina, mostrando un tasso di errore elevato nelle diagnosi effettuate
In Sintesi
- Un recente studio ha evidenziato seri dubbi sull’affidabilità dei chatbot AI in ambito clinico. Su 200 domande diagnostiche sottoposte, l’IA ha fornito risposte contenenti errori nel 70% dei casi.
- Tali risultati dimostrano che l’IA, al momento, è inadatta a sostituire il parere di un esperto, sollevando il rischio di diagnosi inappropriate.
AI e medicina, i risultati della ricerca
Il progetto aveva il compito di stimare i rischi legati all’uso dell’AI (ChatGPT, nello specifico) come supporto diagnostico e strumento di apprendimento. I ricercatori hanno simulato cinque scenari clinici, allineati alle attuali linee guida diagnostiche e validati da patologi esperti, ponendo al chatbot 200 quesiti clinici su diversi argomenti, dividendole in domande aperte e a risposta multipla.
Dati alla mano, possiamo vedere che i test hanno evidenziato errori in circa il 70% degli output, sebbene ChatGPT abbia fornito risposte “utili” nel 62,2% dei casi. Solo il 32,1% delle risposte è risultato completamente privo di inesattezze.
Queste performance, dunque, sollevano forti dubbi sulla sicurezza di utilizzare l’IA per la diagnosi clinica di routine, evidenziando il rischio di indurre decisioni diagnostiche inappropriate che potrebbero avere gravi conseguenze terapeutiche.
Un aspetto critico della ricerca riguarda l’attendibilità delle fonti citate. Su 214 riferimenti bibliografici forniti da ChatGPT il 12,1% era inaccurato mentre il l 17,8% era addirittura inesistente. Questo dato fa riflettere e ha sorpreso anche i ricercatori, perché dimostra chiaramente che l’intelligenza artificiale, quando non riesce a trovare la risposta a una domanda, è in grado di costruire da zero una realtà inesistente, arrivando anche a generare fonti fittizie elaborate in modo così verosimile da risultare credibili.
Questa imprecisione e la tendenza alla falsificazione delle fonti suggeriscono, inoltre, che bisogna essere estremamente cauti nell’uso dei chatbot anche come semplice strumento di autoapprendimento per i medici e gli studenti.
L’AI potrà mai sostituire il parere medico di un esperto?
La conclusione dello studio è un chiaro monito per l’intera categoria medica e per i pazienti che ricorrono all’autodiagnosi: nonostante l’intelligenza artificiale possa offrire un supporto iniziale, per il momento, non può in alcun modo sostituire la competenza umana.
Quando si parla di medicina e salute, reste insostituibile “l’occhio clinico del patologo“, mentre l’AI può essere utilizzata come un utile supporto che non può e non deve diventare non un sostituto della competenza umana.
Comunque, lo studio è ancora in fase iniziale e gli autori della ricerca hanno confermato che continueranno i loro test utilizzando le versioni più aggiornate dei chatbot per monitorarne l’evoluzione e l’affidabilità nel tempo. Nel frattempo, si suggerisce a tutti (medici e pazienti) di utilizzare questi strumenti con estrema cautela.





















