Libero
TECH NEWS

Sora può riportare in vita le persone con l'AI, ma è davvero una cosa positiva?

Sora ha riaperto il dibattito sull’uso etico delle immagini generare grazie all’AI, col rischio che possa favorire la diffusione di disinformazione e deepfake

Pubblicato:

In Sintesi

  • L’introduzione di Sora di OpenAI ha riaperto il dibattito etico sull’uso delle immagini e dei video generati dall’AI, che potrebbe portare all’aumento di deepfake e disinformazione.
  • Il rischio principale è l’uso non autorizzato delle sembianze di persone defunte (come celebrità), sollevando l’urgente questione di chi debba controllare le immagini dei trapassati nell’era dell’AI.

L’arrivo di Sora di OpenAI ha riaperto il dibattito sul consenso e sull’uso etico delle immagini generate dall’intelligenza artificiale. Oltretutto, grazie a una “struttura social”, che consente agli utenti di regolare la disponibilità della propria immagine nei video creati da altri, il modello è stato accolto come un incentivo alla “responsabilità tecnologica”.

In pochi giorni, però, le cose sono cambiate drasticamente e dopo milioni di download è emersa l’altra faccia della medaglia di quest’app che rapidamente si è trasformata in un vero e proprio laboratorio di disinformazione e deepfake. Il rischio secondo gli esperti? Che l’app possa inondare Internet di video falsi con personaggi storici e celebrità defunte, incapaci di esprimere consenso o opposizione all’uso della propria immagine.

I deepfake stanno diventando un problema per Sora

Come ben noto, Sora può generare in meno di un minuto brevi video di personaggi famosi in contesti assurdi o mai accaduti. Ma se in molti hanno usato “ironicamente” questa funzione e senza l’intenzione di nuocere a nessuno, altri si sono posti una domanda più che legittima: chi controlla l’immagine dei defunti nell’era dell’intelligenza artificiale? Un quesito che, al momento, non trova ancora una risposta ma che sicuramente riaccende il dibattito sull’urgenza di una regolamentazione dell’AI.

In pochi giorni, infatti, si sono moltiplicate in rete le lamentale dei famigliari di persone famose scomparse che, di punto in bianco, si sono ritrovati davanti agli occhi i propri cari “in carne e ossa”. Una fra tutte, Zelda Williams, figlia del compianto Robin Williams, che su Instagram ha chiesto ai fan dell’attore scomparso di smetterla con questi video, definendoli “stupidi” e “offensivi per la sua memoria”.

Cosa si rischia con questa tecnologia

OpenAI, in alcune recenti dichiarazioni rilasciare a NBC, ha sottolineato che, pur riconoscendo l’interesse per la libertà di espressione, dovrebbero essere le famiglie e gli eredi ad avere l’ultima parola sull’uso dell’immagine dei propri cari. Per questo motivo Sam Altman, in un post sul blog aziendale ha promesso l’arrivo di nuovi strumenti per consentire ai titolari dei diritti di controllare come i loro personaggi vengano utilizzati, includendo anche l’opzione di escluderli completamente.

Secondo gli esperti, la questione è ben più complessa e le conseguenze dell’arrivo di questa tecnologia potrebbero essere diverse: da un lato potrebbe aumentare il rischio di truffe e manipolazioni che potrebbero, addirittura, portare a un crollo della fiducia nei media tradizionali. Dall’altro strumenti così potrebbero anche assumere anche un “valore positivo” e aiutare a mantenere viva la memoria di figure storiche, ammesso che ne venga tutelata l’immagine.

Non bisogna, tuttavia, trascurare l’urgenza di un equilibrio tra innovazione e tutela della dignità postuma, anche perché queste applicazioni hanno raggiunto livelli di realismo davvero elevatissimi con il confine tra realtà e finzione digitale che sta diventando sempre più sottile e molto più complicato da riconoscere.