Mentre milioni di utenti ogni giorno si collegano a Wikipedia per approfondire la storia di un personaggio Marvel o per scoprire la poetica dietro l’ultimo capolavoro di Hayao Miyazaki, dietro le quinte si sta consumando una realtà ben più complessa. La Wikimedia Foundation, l’organizzazione che gestisce Wikipedia e Wikimedia Commons, sta affrontando una pressione crescente: non solo da parte degli utenti umani, ma soprattutto da un esercito di bot automatizzati guidati da intelligenze artificiali.
Questi strumenti, progettati per raccogliere dati e alimentare modelli di machine learning, si aggirano incessantemente tra milioni di pagine dell’enciclopedia libera e tra gli oltre 140 milioni di file disponibili su Wikimedia Commons. Il loro obiettivo è semplice quanto impattante: estrarre quante più informazioni possibili, spesso in modo sistematico e senza tregua. L’effetto? Un’infrastruttura sempre più sotto stress, costi in continuo aumento e risorse tecniche impegnate a contenere un fenomeno che, ad oggi, appare inarrestabile.
Secondo i dati forniti dalla stessa Wikimedia Foundation, il traffico generato da questi bot rappresenta circa il 35% delle visualizzazioni totali. Ma il dato più allarmante è un altro: questi accessi costituiscono il 65% delle richieste più onerose da gestire. Questo perché, mentre gli utenti umani tendono a consultare pagine frequentemente visitate — le cui versioni vengono temporaneamente salvate per velocizzarne il caricamento — i bot spesso si spingono su pagine marginali, poco consultate e quindi non presenti nella cache. Ogni loro richiesta richiede un accesso diretto al database, con un impatto notevole sul consumo di risorse tecniche e infrastrutturali.
A questo si aggiunge il massiccio download di file multimediali da Wikimedia Commons, un altro tassello che contribuisce a sovraccaricare i server. Come spiegano i tecnici del team di Site Reliability, l’attività dei bot sta raggiungendo volumi mai visti prima, rendendo necessarie continue misure di contenimento per preservare l’esperienza utente e la stabilità della piattaforma. Misure che, inevitabilmente, sottraggono tempo e risorse a progetti di sviluppo, al supporto agli utenti e alla manutenzione dei contenuti stessi.
Il punto cruciale è chiaro: le richieste provenienti dalle intelligenze artificiali non solo sono più numerose, ma sono anche molto più costose da gestire rispetto a quelle degli utenti umani. E il trend è in costante crescita. Tutto questo avviene mentre Wikipedia continua ad operare secondo un modello non commerciale, basato sul lavoro di volontari e finanziato quasi esclusivamente dalle donazioni degli utenti.
A fronte di una situazione così delicata, ci si interroga sulla responsabilità delle aziende che sviluppano e alimentano i propri modelli di AI con contenuti provenienti da Wikipedia. È lecito domandarsi se sia giusto che queste realtà, spesso con ingenti capitali alle spalle, sfruttino un patrimonio di conoscenza collettiva senza contribuire alla sua sostenibilità. In un contesto dove la conoscenza è sempre più il carburante per le tecnologie emergenti, il valore dell’accesso libero e gratuito al sapere dovrebbe essere tutelato anche economicamente.
La Wikimedia Foundation lancia un messaggio chiaro: l’infrastruttura necessaria per mantenere Wikipedia accessibile a tutti ha un costo reale, crescente e insostenibile se a farsene carico sono soltanto gli utenti comuni. È giunto forse il momento che anche le grandi aziende tech riconoscano il loro debito verso una delle fonti più preziose e democratiche della rete.
Il dibattito è aperto: è giusto che le AI saccheggino Wikipedia senza contribuire? Oppure dovremmo pretendere un nuovo patto di responsabilità tra innovazione e bene comune?
L’articolo Wikipedia sotto attacco: l’esercito di bot AI la sta prosciugando! proviene da CorriereNerd.it.