Libero
TECH NEWS

Disinformazione e crimini d'odio: le conseguenze dell'uso improprio dell'AI

Un recente report della SCN mostra la crescita dell’utilizzo dell’AI per disinformazione e crimini d’odio. Che cosa possono fare aziende, Governi e cittadini?

Pubblicato:

In Sintesi

  • Un nuovo rapporto della Secure Community Network evidenzia la crescita dell’uso dell’intelligenza artificiale da parte di gruppi estremisti e organizzazioni terroristiche.
  • L’IA viene usata per creare la disinformazione e alimentare i crimini d’odio. Per questo serve una regolamentazione di questi strumenti e maggiore trasparenza.

Un nuovo rapporto condiviso dalla Secure Community Network (SCN), un’organizzazione senza scopo di lucro impegnata nella protezione delle comunità ebraiche in Nord America, sta crescendo l’utilizzo dell’intelligenza artificiale da parte di gruppi estremisti.

Secondo il documento, infatti, organizzazioni terroristiche straniere e movimenti estremisti interni starebbero utilizzando strumenti basati su IA per intensificare la propaganda antisemita e coordinare operazioni contro la popolazione ebraica.

Gli usi scorretti dell’AI: dalla disinformazione ai crimini d’odio

Il report condiviso conferma come il miglioramento della qualità dei contenuti generati dall’IA renda sempre più difficile distinguere tra materiale autentico e manipolato. Questa evoluzione tecnologica contribuisce a rendere la propaganda antisemita più credibile e virale, facilitando la diffusione di teorie complottiste e di messaggi di odio spesso travestiti da informazione legittima.

Il confine tra realtà e finzione visiva sta diventando sempre più labile: immagini, video e messaggi creati dall’intelligenza artificiale possono ormai replicare in modo realistico toni, stili e sembianze umane, rendendo l’individuazione dei contenuti falsi una sfida anche per gli strumenti di moderazione automatica.

Uno degli episodi più eclatanti riguarda Grok, il chatbot sviluppato da xAI di Elon Musk. A luglio 2025 questo tool è finito sotto accusa per aver pubblicato contenuti apertamente antisemiti e neonazisti.

Musk a minimizzato l’accaduto ma è innegabile che su X (ex Twitter) un certo tipo di contenuti trovino terreno fertile, alimentando di conseguenza Grok, i suoi comportamenti e “ciò che crede di sapere”

Questo episodio, secondo la SCN, rappresenta un campanello d’allarme sulla potenziale manipolazione o deriva ideologica dei sistemi linguistici, soprattutto in assenza di controlli adeguati sui dati di addestramento e sulle risposte generate in ambienti pubblici.

Il report segnala anche casi in cui l’AI è stata utilizzata per la pianificazione di atti criminali o terroristici. L’esempio lampante è l’esplosione di un Tesla Cybertruck all’esterno del Trump International Hotel di Las Vegas, con l’attentatore, Matthew Livelsberger, che avrebbe usato ChatGPT per ottenere istruzioni tecniche sulla costruzione di una bomba.

Infine gli analisti di SCN hanno rilevato un aumento della disinformazione di matrice statale, in particolare legata all’Iran, a seguito dell’inasprirsi delle tensioni con Israele. Il rapporto descrive campagne di propaganda digitale sponsorizzate da Teheran, che includono immagini falsificate di attacchi e distruzioni in territorio israeliano, create e diffuse con strumenti generativi di ultima generazione.

Come impedire un uso improprio dell’intelligenza artificiale

Il rapporto della Secure Community Network evidenzia chiaramente una situazione complessa ed estremamente delicata, che dovrebbe rappresentare una chiamata all’azione per istituzioni, aziende tecnologiche e società civile. L’uso improprio dell’intelligenza artificiale da parte di gruppi estremisti non solo amplifica la portata dell’odio, ma abbassa la soglia di accesso alla radicalizzazione e all’azione violenta, permettendo a chiunque di produrre e diffondere propaganda su scala industriale.

Contrastare questa tendenza richiede un approccio multilivello: regolamentazione dei modelli generativi, trasparenza sui dati di addestramento, cooperazione internazionale e programmi educativi mirati alla resilienza digitale delle comunità più esposte.