Libero
DIGITAL LIFE

Cosa sono i Deepfake, come riconoscerli e cosa rischiano gli utenti

Cosa sono i deepfake e come riconoscerli? Dai rischi ai possibili impieghi positivi, tutte le cose da sapere sulla diffusione di video, immagini e audio falsi generati con la IA

Pubblicato:

Deepfake Smile Studio AP/Shutterstock

In sintesi

  • I deepfake sono contenuti falsi generati dall’intelligenza artificiale che imitano in modo realistico voci, volti e movimenti in immagini statiche, video e audio.
  • Possono essere usati per scopi positivi, ma oggi rappresentano soprattutto una minaccia per la privacy, la sicurezza e la fiducia nelle informazioni online.
  • Riconoscerli e sviluppare un pensiero critico è la chiave per difendersi da truffe e fake news, vivendo in modo più consapevole nell’era digitale.

Negli ultimi anni la parola deepfake è entrata con forza nel linguaggio comune, diventando fonte tanto di fascino quanto di inquietudine. Con l’avanzare dell’intelligenza artificiale, infatti, la capacità di creare immagini, video e audio estremamente realistici ma completamente falsi è cresciuta esponenzialmente. Oggi distinguere ciò che è autentico da ciò che è generato da un algoritmo (un deepfake, appunto) non è più così scontato, e ciò ha effetti importanti sulla sfera personale, politica, economica e culturale. Ma cosa sono davvero i deepfake, come funzionano e quali rischi comportano?

Cosa sono i deepfake e come vengono creati

Il termine deepfake nasce alla fine del 2017 dal nickname di un utente Reddit che, in una apposita sezione della piattaforma, condivideva con altri utenti i deepfake da lui creati. Si trattava per lo più contenuti pornografici, ad esempio video porno in cui attori e attrici avevano il volto di altre celebrità.

Oggi questo termine indica qualsiasi contenuto multimediale — video, immagine o audio — generato o manipolato da sistemi di intelligenza artificiale in modo da apparire autentico. In pratica, i deepfake sono ricostruzioni digitali estremamente realistiche che possono sostituire il volto o la voce di una persona con quelli di un’altra, mantenendo intatte espressioni, movimenti e intonazioni.

Come vengono creati i deepfake? Esistono diversi software specifici per farlo, che usano generalmente algoritmi di deep learning. Ad esempio, nel 2018 è stata lanciata FakeApp, applicazione che consentiva di creare facilmente video con volti scambiati. Oggi la diffusione e l’avanzamento della IA ha reso molto più facile e accessibile la manipolazione di immagini e video. Sora, ad esempio, permette di generare video in altissima risoluzione in pochi secondi partendo da un semplice comando testuale.

Perché i deepfake fanno notizia

I deepfake hanno iniziato a far parlare di sé per varie ragioni, tra cui la loro capacità di ingannare gli utenti, anche quelli molto esperti. In effetti, per molto tempo siamo stati abituati a pensare che “le immagini non mentono”: questa tecnologia ci costringe invece a rivedere profondamente questa convinzione e a tenere sempre la guardia alta.

Un altro motivo per cui i deepfake fanno notizia è che talvolta toccano la sfera pubblica e politica, rendendo evidente in che modo potrebbero influenzare le opinioni delle persone. Alcuni video diventati virali sui social mostravano ad esempio leader politici, attori o celebrità in contesti inventati, spesso con intenti satirici o di denuncia, ma altre volte con finalità malevole.

La potenza di queste ricostruzioni è tale da generare disinformazione e confusione in pochi minuti, specialmente in un ecosistema digitale dove la velocità di condivisione supera quella della verifica dei fatti. Anche per questo motivo le grandi piattaforme social hanno provato a introdurre sistemi di rilevamento e policy specifiche per contrastare la diffusione di deepfake ingannevoli.

I rischi di questa tecnologia

I rischi associati ai deepfake sono numerosi. Uno dei più gravi riguarda le truffe. È già successo in passato che video e audio falsificati venissero usati per impersonare dirigenti aziendali, personaggi famosi o persone fidate, allo scopo di convincere le vittime a trasferire denaro, fornire dati sensibili o, insomma, a cadere nella trappola dei truffatori.

Un altro ambito estremamente preoccupante è quello del revenge porn. Immagini condivise in un contesto che si riteneva fidato, come una relazione sentimentale, possono venire successivamente manipolate per creare video falsi e diffamatori, che vengono diffusi per creare un danno a donne e minorenni. L’impatto psicologico e reputazionale di questi contenuti può essere devastante.

Non meno grave è l’uso dell’immagine di una persona che non si conosce personalmente (perché è una celebrità, ad esempio) per creare deepfake porno o in altri contesti inappropriati. Non mancano poi i casi di cyberbullismo e diffamazione online, in cui i deepfake vengono usati per ridicolizzare o screditare una persona.

Non c’è dubbio, insomma, che la facilità con cui oggi si possono generare contenuti falsi rappresenta una minaccia concreta alla privacy e all’identità digitale di ciascuno.

L’impatto dei deepfake sulla politica e le elezioni

Nel contesto politico, i deepfake rappresentano una nuova forma di manipolazione dell’opinione pubblica. Un video alterato in cui un candidato pronuncia frasi compromettenti può diffondersi in rete prima che venga smentito, influenzando percezioni e voti. Nei periodi elettorali “caldi”, la velocità con cui queste falsificazioni possono circolare costituisce un rischio reale.

Alcuni governi stanno già intervenendo con leggi specifiche per vietare la diffusione di deepfake politici non dichiarati, ma la sfida è soprattutto tecnologica: serve potenziare gli strumenti di verifica, l’alfabetizzazione mediatica e la consapevolezza degli utenti, che dovrebbero essere in grado di mettere automaticamente in dubbio un contenuto potenzialmente falso in cui incappano navigando in rete.

Deepfake audio: clonazione vocale e truffe telefoniche

Rispetto ai video, i deepfake audio rappresentano una minaccia più sottile ma altrettanto pericolosa. La clonazione vocale permette infatti di replicare la voce di una persona reale con precisione: bastano pochi secondi di registrazione per ottenere un risultato molto credibile.

Queste tecniche vengono impiegate tipicamente in truffe telefoniche e campagne di phishing evolute, in cui l’interlocutore (cioè la vittima della truffa) crede di parlare con un familiare, un collega o magari un superiore.

Anche in questo campo, l’intelligenza artificiale ha reso tutto più accessibile: esistono piattaforme in grado di generare voci sintetiche personalizzate in pochi minuti, con un realismo tale da mettere in crisi anche i sistemi di sicurezza basati sul riconoscimento vocale.

Applicazioni positive di questa tecnologia

Nonostante i rischi, la tecnologia deepfake non è solo sinonimo di inganno: esistono anche delle applicazioni potenzialmente positive. In ambiti come il cinema e la televisione, questa tecnologia viene usata per ricreare attori scomparsi o per generare effetti speciali realistici senza ricorrere a costose produzioni fisiche.

Nella ricerca medica, invece, la generazione di immagini sintetiche aiuta a simulare casi clinici rari e ad addestrare sistemi diagnostici più precisi. Anche nel settore dell’istruzione e della comunicazione museale, i deepfake possono dare nuova vita alla storia, permettendo di “incontrare” figure del passato o di ascoltare testimonianze ricostruite a fini didattici.

L’importante è che in ogni caso l’uso di questa tecnologia sia dichiarato e trasparente, così da non confondere l’utente finale.

Come riconoscere un deepfake

Riconoscere un deepfake non è semplice, ma esistono alcuni indizi utili.

I dettagli visivi rappresentano spesso il punto debole. Per quanto la tecnologia sia ormai molto evoluta, alcuni piccoli elementi possono far dubitare: movimenti oculari innaturali, espressioni rigide, ombre incoerenti con i movimenti, labbra che non si muovono in sincronia con la voce… Tutto questo può suggerire che il contenuto è manipolato. Nei video, un’attenzione particolare va posta alla luce e ai riflessi, che gli algoritmi faticano ancora a riprodurre con precisione.

Nel caso dei deepfake audio, invece, la voce può suonare leggermente piatta, priva di variazioni emotive o con pause innaturali. Strumenti digitali di analisi del suono e verificatori online possono aiutare a individuare alcune falsificazioni.

Va detto che le tecnologie IA sicuramente evolveranno ancora, rendendo probabilmente i contenuti manipolati così realistici da essere quasi impossibili da distinguere “a occhio e a orecchio”. Per questo è utile sottolineare che già da oggi la prima linea di difesa resta sempre il pensiero critico.

È sempre consigliabile diffidare dei contenuti troppo sensazionali o privi di fonti affidabili. Prima di condividere un contenuto che potrebbe essere manipolato, è meglio essere pazienti e attendere che venga confermato o ripreso da più fonti di informazione autorevoli e affidabili.

Applicazioni ed evoluzioni future di questa tecnologia

Il futuro dei deepfake è ancora tutto da scrivere, anche perché bisogna capire quanto si riuscirà ad arginare in modo efficace l’uso malevolo di questa tecnologia.

Da un lato, l’evoluzione dell’intelligenza artificiale renderà sempre più semplice produrre contenuti realistici e personalizzati. Dall’altro, probabilmente nasceranno strumenti di rilevamento più efficaci basati su watermark digitali e algoritmi di autenticazione, capaci di certificare l’origine dei file multimediali in modo preciso.

È probabile che nei prossimi anni i deepfake diventino parte integrante dell’ecosistema mediatico, venendo magari utilizzati sempre più spesso e in modo legittimo in film, serie tv, pubblicità, formazione o storytelling interattivo. La vera sfida sarà etica: imparare a convivere con una tecnologia che può ampliare le possibilità creative, ma anche minacciare la fiducia collettiva nel concetto stesso di verità.