Guerra in Iran, una cascata di foto e video fake invade i social: come riconoscerli?
Sui social circolano video AI della guerra in Iran sempre più realistici. Capire cosa è vero non è scontato: ecco gli indizi per riconoscere i contenuti falsi.

Nelle prime settimane del conflitto in Iran, accanto alle immagini reali provenienti dal fronte, si è affermato un secondo livello di narrazione, interamente digitale. Sui social network circolano centinaia di video e fotografie generati con l’intelligenza artificiale, che mostrano attacchi mai avvenuti e scenari militari inventati. Ne deriva un flusso continuo di contenuti che rende sempre più difficile distinguere tra documentazione e simulazione.
- Guerra in Iran: il problema dei video generati dall’AI
- Riconoscere i video AI: quando la guerra diventa “cinematografica”
- I segnali che possono aiutare a capire se un video è falso
- Il rischio più grande è la perdita di fiducia
Guerra in Iran: il problema dei video generati dall’AI
Secondo diverse analisi indipendenti, tra cui quelle del New York Times, nelle prime settimane di guerra sono stati individuati oltre cento contenuti falsi tra immagini e video, visualizzati milioni di volte su piattaforme come X, TikTok, Instagram e Facebook. In molti casi si tratta di clip costruite a partire da semplici descrizioni testuali: basta inserire una richiesta come “attacco missilistico su una città” perché un sistema di generazione video produca, in pochi secondi, una scena plausibile.
I nuovi strumenti consentono di creare simulazioni sempre più realistiche, al punto da mettere in difficoltà anche i sistemi automatici di verifica. In alcuni casi documentati, chatbot utilizzati per il fact-checking hanno classificato contenuti artificiali come autentici, contribuendo ad alimentare la confusione.
Riconoscere i video AI: quando la guerra diventa “cinematografica”
Una delle differenze più evidenti tra contenuti reali e generati riguarda il modo in cui viene rappresentata la violenza. I video autentici del conflitto mostrano spesso immagini distanti, riprese notturne, con missili visibili come scie luminose e colonne di fumo dopo l’impatto. Le sequenze create con l’intelligenza artificiale tendono invece a esasperare l’evento, trasformandolo in qualcosa di simile a una scena hollywoodiana, con esplosioni sproporzionate e skyline in fiamme.
Questa estetica non è casuale. I contenuti di questo tipo hanno maggiori probabilità di essere condivisi e, di conseguenza, di ottenere visibilità. Anche per questo alcuni dei video più virali mostrano eventi mai accaduti, come portaerei distrutte o grattacieli in fiamme, nonostante le smentite ufficiali.
I segnali che possono aiutare a capire se un video è falso
Individuare un contenuto generato con l’intelligenza artificiale non è più semplice come in passato, ma alcuni elementi continuano a offrire indizi utili.
Incongruenze visive
Le incongruenze visive restano tra i segnali più immediati. Edifici che non corrispondono a luoghi reali, testi distorti sulle insegne, dettagli architettonici implausibili o animazioni poco credibili rappresentano spesso un primo campanello d’allarme.
Movimenti di persone e oggetti
Anche i movimenti possono tradire la natura artificiale di un video. Le persone appaiono talvolta eccessivamente “perfette”, con gesti rigidi o innaturali, mentre gli oggetti possono comportarsi in modo incoerente rispetto alle leggi fisiche. In altri casi sono le interazioni a risultare poco credibili, con mani deformate o oggetti che sembrano fondersi con il corpo.
La fonte e il contesto
Un ulteriore elemento riguarda il contesto. Alcuni contenuti mostrano scene estremamente dettagliate e spettacolari provenienti da fonti anonime o poco affidabili. In situazioni di guerra, dove la documentazione è spesso frammentaria e imperfetta, immagini troppo “pulite” o cinematografiche dovrebbero sollevare dubbi.
Il rischio più grande è la perdita di fiducia
Secondo diversi esperti, il rischio più profondo è la progressiva erosione della fiducia nelle immagini autentiche. Quando i video artificiali diventano difficili da distinguere da quelli reali, si produce un effetto paradossale: anche le prove documentate finiscono per essere messe in discussione.


















