Notizie distorte ed errori, gli assistenti AI sono un rischio per l'informazione
Secondo un report gli assistenti basati su intelligenza artificiale stravolgono i contenuti delle notizie, mettendo in pericolo l’affidabilità dell’informazione
In Sintesi
- Una nuova ricerca coordinata dall’EBU e guidata dalla BBC ha rilevato che gli assistenti basati su intelligenza artificiale stravolgono regolarmente i contenuti delle notizie.
- Secondo lo studio, gli assistenti AI non sono affidabili principalmente a causa di gravi e frequenti problemi di accuratezza e di gestione delle fonti.
Secondo una nuova ricerca coordinata dall’Unione europea di radiodiffusione (EBU) e guidata dalla BBC, gli assistenti basati su intelligenza artificiale stravolgono regolarmente i contenuti delle notizie e questo avviene a prescindere dalla lingua, dal Paese o dalla piattaforma utilizzata.
Questo studio e i risultati ottenuti segnano un passo importante nella riflessione sull’affidabilità degli strumenti AI che, soprattutto nel settore dell’informazione, rimane un parametro cruciale che non può essere assolutamente sottovalutato.
Perché gli assistenti AI non sono affidabili?
Lo studio in questione ha coinvolto 22 organizzazioni del settore dei media di servizio pubblico in 18 Paesi europei e nordamericani, con test condotti in 14 lingue diverse. L’indagine ha preso in considerazione quattro dei principali assistenti AI sul mercato: ChatGPT, Copilot, Gemini e Perplexity.
Le oltre 3.000 risposte prodotte sono state analizzate da vari giornalisti professionisti seguendo criteri che includevano accuratezza, provenienza delle fonti, distinzione tra fatti e opinioni e completezza del contesto.
I risultati emersi dalla ricerca sono decisamente allarmanti:
- Il 45% delle risposte conteneva almeno un problema significativo
- Il 31% mostrava errori gravi nel reperimento delle fonti, come attribuzioni mancanti, fuorvianti o totalmente errate
- Il 20% presentava problemi di accuratezza, tra cui informazioni obsolete o dettagli completamente inventati
Tra i sistemi analizzati, Gemini ha ottenuto le performance peggiori, con errori significativi nel 76% delle risposte, con le difficoltà principali riguardano la gestione delle fonti e la corretta attribuzione delle informazioni.
Tuttavia, bisogna sottolineare che secondo la BBC, rispetto alle analisi condotte a inizio anno, si notano alcuni miglioramenti marginali, ma i livelli di errore restano comunque molto elevati e confermano che la distorsione informativa è sistematica e non episodica.
Questo, naturalmente, è un grave problema per l’informazione, visto che la diffusione degli assistenti AI come fonte primaria di notizie è in costante crescita, soprattutto tra gli under 25.
È possibile rendere gli assistenti AI più affidabili?
Oltre alla pubblicazione del report, il team di ricerca ha diffuso anche un toolkit dedicato all’integrità delle notizie nei sistemi di intelligenza artificiale. L’obiettivo è, da un lato, aiutare gli sviluppatori a correggere le distorsioni sistemiche e, dall’altro, rafforzare l’alfabetizzazione mediatica degli utenti.
Questo toolkit si concentra su due domande chiave:
- Cosa rende “buona” una risposta di un assistente AI a una domanda di notizie?
- Quali problemi devono essere risolti per garantire trasparenza e affidabilità?
Oltre a questo, però, l’EBU e i suoi membri stanno anche sollecitando le autorità di regolamentazione europee e nazionali a far rispettare le normative esistenti in materia di integrità dell’informazione, servizi digitali e pluralismo dei media, chiedendo inoltre l’istituzione di un sistema di monitoraggio indipendente e permanente per valutare in modo continuativo l’affidabilità degli assistenti AI.
Il futuro dell’informazione passerà sempre maggiormente dall’intelligenza artificiale, per questo motivo è cruciale già da oggi che queste tecnologie vengano regolamentate a dovere e vengano riorientate nell’ottica di una maggiore veridicità dei fatti, per evitare che distorsioni e inaccuratezze del genere possano avere conseguenze sull’opinione pubblica e influenzare le decisioni dei lettori.




















