Wikipedia rimprovera gli sviluppatori AI: i dati di addestramento vanno pagati
Wikipedia ha invitato gli sviluppatori AI a un uso responsabile dei suoi contenuti, così da proteggere il lavoro dei volontari e dare valore al contenuto stesso
In Sintesi
- Wikipedia ha invitato gli sviluppatori di IA a utilizzare l’archivio dell’enciclopedia libera in modo responsabile, riconoscendo e attribuendo correttamente i contenuti.
- La Fondazione non è contraria all’uso dell’intelligenza artificiale ma vuole proteggere i contenuti generati dai volontari, sviluppando anche strumenti IA interni per supportare gli editori.
Nei giorni passati la Wikimedia Foundation, l’organizzazione no-profit che gestisce Wikipedia, ha presentato una nuova strategia per garantire la sostenibilità del sito nell’era dell’intelligenza artificiale. L’obiettivo è duplice: proteggere i contenuti generati dai volontari e assicurare che l’uso massiccio delle informazioni da parte dei modelli AI avvenga in modo corretto e trasparente.
In un post ufficiale sul blog dell’organizzazione, la Fondazione ha invitato gli sviluppatori di IA a utilizzare il vasto archivio di Wikipedia “in modo responsabile”, rispettando i principi di attribuzione dei contenuti e di accesso regolato attraverso la piattaforma a pagamento Wikimedia Enterprise.
Come cambia Wikipedia nell’era dell’AI
Nel corso del 2024, Wikipedia ha registrato un calo dell’8% delle visualizzazioni umane rispetto all’anno precedente, un dato in parte legato alla proliferazione di bot di IA che effettuano scraping del sito, cioè estraggono testi e informazioni per addestrare modelli linguistici.
La Fondazione anche ha spiegato di aver rilevato diversi bot che tentavano di “mascherarsi da utenti reali” per eludere i sistemi di controllo. Dopo un aggiornamento degli strumenti di rilevamento, si è scoperto che buona parte dell’impennata di traffico registrata nei mesi di maggio e giugno proveniva da tali bot.
A fronte di questo, Wikimedia ha voluto chiarire la propria posizione, ribadendo che l’uso dei contenuti è consentito, ma deve avvenire in modo trasparente, sostenibile e rispettoso del lavoro dei volontari.
Per questo motivo nel suo messaggio, la Wikimedia Foundation ha invitato gli sviluppatori di intelligenza artificiale a riconoscere e attribuire correttamente i contenuti utilizzati, perché l’enciclopedia libera, rischia di perdere linfa vitale se l’uso dei suoi contenuti diventa invisibile e non riconosciuto.
Per questo motivo si invitano gli sviluppatori a utilizzare le API ufficiali fornite da Wikimedia Enterprise che consentono di accedere ai contenuti di Wikipedia su larga scala, riducendo l’impatto sulle infrastrutture del sito e contribuendo al sostegno economico del progetto.
Wikipedia e l’AI, cosa sta facendo l’enciclopedia libera
Come ribadito più volte la Wikimedia Foundation non si oppone all’uso dell’intelligenza artificiale, ma punta a un equilibrio tra automazione e contributo umano. All’inizio del 2024 l’organizzazione aveva pubblicato la propria strategia di intelligenza artificiale per gli editor, in cui delineava l’uso di strumenti di IA per supportare gli editori e non per sostituirli.
Gli strumenti interni potranno, ad esempio, facilitare la traduzione automatica, la revisione dei testi o la gestione delle attività ripetitive, lasciando alle persone in carne e ossa i compiti editoriali e di verifica, che restano il cuore della filosofia di Wikipedia.
Del resto, l’avanzata delle IA generative rischia di far crollare il traffico verso le fonti originarie, mentre i modelli si nutrono proprio di quei contenuti. Con questa iniziativa, Wikipedia prova a ridefinire il proprio ruolo nel nuovo ecosistema digitale, chiedendo un patto di responsabilità e reciprocità: se l’IA trae valore dall’enciclopedia libera, deve contribuire a mantenerla viva.





















