ChatGPT e salute, il chatbot di OpenAI può davvero sostituire un medico?
ChatGPT non fornirà più consigli sulla salute ma si limiterà a spiegare sintomi, trattamenti e termini clinici, aiutando gli utenti senza sostituire un esperto

In Sintesi
- Con le nuove linee guida ChatGPT non può simulare il ruolo di un medico, fare diagnosi, prescrivere farmaci o offrire consulenze mediche personalizzate che richiedono una licenza professionale.
- Questa novità spinge sull’alfabetizzazione sanitaria, aiutando gli utenti a capire di più, ma senza esporli a rischi inutili, tutelando anche OpenAI da eventuali problemi legali.
Nei giorni passati si è diffusa la voce che ChatGPT non avrebbe più potuto fornire consigli sulla salute. Un’eventualità che ha subito scatenato un certo nervosismo in rete, prova tangibile che, anche se sconsigliato, il chatbot di OpenAI viene utilizzato (quasi) come un dottore. La realtà dei fatti, però, è ben diversa e l’azienda di Sam Altman non ha vietato l’uso di ChatGPT ma l’ha riorientato alle sole domande mediche generiche: il tool, dunque, potrà ancora fornire informazioni sanitarie e spiegazioni sui temi legati alla salute, ma non sarà più in grado di simulare il ruolo di un medico o offrire consulenze personalizzate che richiedano una licenza professionale.
Come cambia l’uso di ChatGPT in campo medico
Le linee guida aggiornate di OpenAI, in sostanza, introducono una distinzione più netta tra “informazioni mediche” e “consulenze mediche”. Gli utenti, dunque, non potranno usare ChatGPT o altri servizi di OpenAI per “consulenze personalizzate che richiedono una licenza, come consulenze legali o mediche, senza l’appropriato coinvolgimento di un professionista abilitato”.
In pratica, l’intelligenza artificiale potrà spiegare sintomi, trattamenti e termini clinici, ma non potrà diagnosticare o prescrivere farmaci. Si tratta essenzialmente della definizione di un confine legale pensato per ridurre la responsabilità dell’azienda e per evitare che gli utenti interpretino le risposte del chatbot come istruzioni mediche.
In questo senso, è fondamentale distinguere tra informazione e consulenza. Ad esempio, se un utente riferisce di avere il raffreddore, ChatGPT può consigliare di bere liquidi caldi, usare un umidificatore o assumere paracetamolo in caso di febbre. Tuttavia, non può stabilire se si tratti di influenza o altro e tantomeno suggerire farmaci specifici che richiedono la prescrizione medica.
Fornire informazioni generali sulla salute non richiede una licenza medica. È lo stesso principio che consente a giornalisti, divulgatori e influencer di discutere pubblicamente di benessere e salute, ma senza fornire diagnosi o piani terapeutici personalizzati.
Una “decisione di responsabilità”, quindi, ma anche un modo per tutelarsi da eventuali incidenti che nell’ultimo periodo hanno acceso i riflettori su OpenAI, come il caso di quell’uomo che ha sviluppato una patologia dopo aver assunto una sostanza tossica sotto suggerimento del chatbot.
Per questo motivo, l’azienda ha introdotto misure di sicurezza più rigide, soprattutto in ambito medico e nel campo della salute mentale, due argomenti sensibili che, se non trattati adeguatamente, possono avere conseguenze gravissime per gli utenti.
Come si evolverà l’intelligenza artificiale
Se da un lato queste limitazioni possono salvare la vita delle persone, dall’altro potrebbero influenzare i piani di OpenAI nel settore sanitario, un ambito che interessa l’azienda e su cui sta investendo con progetti rivolti a consumatori e imprese.
È innegabile che, al momento, l’intelligenza artificiale non può sostituire il parare di un esperto e fornire consulenze personalizzate, ma è altrettanto vero che strumenti come ChatGPT possono diventare alleati per l’alfabetizzazione sanitaria e rendere comprensibili concetti complessi che possono spingere le persone a rivolgersi a un professionista.
In poche parole, ChatGPT non è un medico, ma un interprete del linguaggio della medicina, uno strumento utile per orientarsi tra sintomi, diagnosi e trattamenti, purché resti chiaro che la decisione finale spetta sempre a un professionista in carne e ossa.


















