Libero
TECH NEWS

Wikipedia rimprovera gli sviluppatori AI: i dati di addestramento vanno pagati

Wikipedia ha invitato gli sviluppatori AI a un uso responsabile dei suoi contenuti, così da proteggere il lavoro dei volontari e dare valore al contenuto stesso

Pubblicato:

In Sintesi

  • Wikipedia ha invitato gli sviluppatori di IA a utilizzare l’archivio dell’enciclopedia libera in modo responsabile, riconoscendo e attribuendo correttamente i contenuti.
  • La Fondazione non è contraria all’uso dell’intelligenza artificiale ma vuole proteggere i contenuti generati dai volontari, sviluppando anche strumenti IA interni per supportare gli editori.

Nei giorni passati la Wikimedia Foundation, l’organizzazione no-profit che gestisce Wikipedia, ha presentato una nuova strategia per garantire la sostenibilità del sito nell’era dell’intelligenza artificiale. L’obiettivo è duplice: proteggere i contenuti generati dai volontari e assicurare che l’uso massiccio delle informazioni da parte dei modelli AI avvenga in modo corretto e trasparente.

In un post ufficiale sul blog dell’organizzazione, la Fondazione ha invitato gli sviluppatori di IA a utilizzare il vasto archivio di Wikipediain modo responsabile”, rispettando i principi di attribuzione dei contenuti e di accesso regolato attraverso la piattaforma a pagamento Wikimedia Enterprise.

Come cambia Wikipedia nell’era dell’AI

Nel corso del 2024, Wikipedia ha registrato un calo dell’8% delle visualizzazioni umane rispetto all’anno precedente, un dato in parte legato alla proliferazione di bot di IA che effettuano scraping del sito, cioè estraggono testi e informazioni per addestrare modelli linguistici.

La Fondazione anche ha spiegato di aver rilevato diversi bot che tentavano di “mascherarsi da utenti reali” per eludere i sistemi di controllo. Dopo un aggiornamento degli strumenti di rilevamento, si è scoperto che buona parte dell’impennata di traffico registrata nei mesi di maggio e giugno proveniva da tali bot.

A fronte di questo, Wikimedia ha voluto chiarire la propria posizione, ribadendo che l’uso dei contenuti è consentito, ma deve avvenire in modo trasparente, sostenibile e rispettoso del lavoro dei volontari.

Per questo motivo nel suo messaggio, la Wikimedia Foundation ha invitato gli sviluppatori di intelligenza artificiale a riconoscere e attribuire correttamente i contenuti utilizzati, perché l’enciclopedia libera, rischia di perdere linfa vitale se l’uso dei suoi contenuti diventa invisibile e non riconosciuto.

Per questo motivo si invitano gli sviluppatori a utilizzare le API ufficiali fornite da Wikimedia Enterprise che consentono di accedere ai contenuti di Wikipedia su larga scala, riducendo l’impatto sulle infrastrutture del sito e contribuendo al sostegno economico del progetto.

Wikipedia e l’AI, cosa sta facendo l’enciclopedia libera

Come ribadito più volte la Wikimedia Foundation non si oppone all’uso dell’intelligenza artificiale, ma punta a un equilibrio tra automazione e contributo umano. All’inizio del 2024 l’organizzazione aveva pubblicato la propria strategia di intelligenza artificiale per gli editor, in cui delineava l’uso di strumenti di IA per supportare gli editori e non per sostituirli.

Gli strumenti interni potranno, ad esempio, facilitare la traduzione automatica, la revisione dei testi o la gestione delle attività ripetitive, lasciando alle persone in carne e ossa i compiti editoriali e di verifica, che restano il cuore della filosofia di Wikipedia.

Del resto, l’avanzata delle IA generative rischia di far crollare il traffico verso le fonti originarie, mentre i modelli si nutrono proprio di quei contenuti. Con questa iniziativa, Wikipedia prova a ridefinire il proprio ruolo nel nuovo ecosistema digitale, chiedendo un patto di responsabilità e reciprocità: se l’IA trae valore dall’enciclopedia libera, deve contribuire a mantenerla viva.

NH Collection Paris Ponthieu Champs-Élysées