Libero
DIGITAL LIFE

YouTube è pieno di video per bambini creati con l'AI, quali sono i rischi?

I contenuti per bambini su YouTube sono sempre più spesso prodotti con l’AI, proponendo video fuorvianti e di scarsa qualità che potrebbero essere inappropriati

Pubblicato:

youtube photosince / Shutterstock.com

In Sintesi

  • YouTube sta assistendo a una crescita di creator che utilizzano l’AI generativa per produrre rapidamente video semplici, ripetitivi e privi di valore creativo.
  • Questi contenuti mirano a un pubblico infantile, alimentati da youtuber che cercano il guadagno passivo e la monetizzazione facile, pur risultando spesso inappropriati per i minori.

YouTube sta diventando terreno fertile per una nuova categoria di creator, quelli che sfruttano modelli di AI generativa e strumenti automatizzati e stanno popolando la piattaforma con video prodotti con il minimo sforzo e destinati a un pubblico più “vulnerabile”, i bambini più piccoli.

Secondo un’inchiesta di Bloomberg, i contenuti “usa e getta” realizzati con l’AI stanno iniziando a saturare i feed, alimentati da youtuber orientati al business rapido e al “guadagno passivo”, attratti dalla possibilità di monetizzare facilmente su un’audience che non distingue ancora chiaramente qualità e autenticità.

Il fenomeno appare già sufficientemente diffuso da destare attenzione con migliaia di ore di video semplici, ripetitivi e privi di un reale valore creativo, che puntano dritto verso i bambini piccoli e hanno il solo scopo di fare visualizzazioni (e di conseguenza guadagni).

Come sta cambiando YouTube

Il successo di questa strategia si basa su un duplice fatto: produrre materiale generato dall’intelligenza artificiale è estremamente semplice e la sezione di YouTube orientata ai bambini ha dimostrato più volte di essere vulnerabile a contenuti ingannevoli o inappropriati.

Non è un problema nuovo e già negli anni passati la piattaforma è stata invasa da video che imitavano personaggi celebri dei cartoni animati, spesso con trame disturbanti o inadatte ai minori, diffusi grazie alla riproduzione automatica o alla mancanza di controlli da parte degli adulti.

La crescita del pubblico infantile rende oggi il tema ancora più delicato. Secondo il Pew Research Center, il 60% dei genitori con figli sotto i due anni dichiara che il proprio bambino guarda video su YouTube, e circa un terzo lo fa quotidianamente. Di fronte a un’audience così giovane, i contenuti generati dall’AI, spesso privi di logica, coerenza narrativa o attenzione pedagogica, rischiano di confondere ulteriormente la percezione dei bambini, compromettendo la loro capacità di distinguere tra ciò che è reale e ciò che è artificiale.

Non a caso le linee guida dell’American Academy of Pediatrics raccomandano un uso estremamente limitato dei media digitali per i bambini nei primi due anni di vita, un periodo cruciale per lo sviluppo cognitivo.

L’esplosione di questi contenuti evidenzia, inoltre, un paradosso: se l’AI permette a chiunque di produrre video in modo rapido e senza investimento creativo, aumenta anche la possibilità che questi materiali vengano utilizzati in modo opportunistico, mirando a un pubblico incapace di esercitare spirito critico, diventando solo strumenti per monetizzare, più che mezzi per intrattenere o educare.

Oltretutto, l’esposizione continuativa a materiale artificiale e potenzialmente fuorviante potrebbe avere effetti sul lungo periodo, alterando la capacità dei bambini di interpretare correttamente ciò che vedono e introducendo distorsioni nella loro comprensione del mondo.

La posizione di YouTube

Di fronte alle preoccupazioni sollevate, YouTube ha risposto rivendicando la sicurezza della propria piattaforma dedicata ai minori. In una dichiarazione ufficiale, un portavoce dell’azienda ha affermato: “YouTube è diventato uno dei più grandi servizi di streaming del Paese proprio perché le famiglie si fidano delle nostre esperienze adatte alle diverse fasce d’età, come YouTube Kids. La produzione in serie di contenuti di bassa qualità non è una strategia sostenibile su YouTube, poiché i nostri sistemi e le nostre politiche di monetizzazione sono progettati per penalizzare questo tipo di spam”.

Bisogna solo vedere se tali sistemi saranno sufficienti per arginare l’avanzata dei contenuti AI privi di qualità, soprattutto in un contesto in cui gli strumenti di produzione automatica continuano a diventare più accessibili e veloci.

Quel che è certo è che, con un pubblico infantile sempre più numeroso e un ecosistema di creator attratti dal profitto immediato, YouTube dovrà affrontare la sfida complessa di proteggere gli utenti più vulnerabili senza ostacolare l’innovazione tecnologica che sta trasformando la produzione dei contenuti online.