Wikipedia manipolata: un’agenzia britannica di Pr modificava a pagamento le informazioni sui propri clienti
- Postato il 23 gennaio 2026
- Mondo
- Di Il Fatto Quotidiano
- 2 Visualizzazioni
Venticinque anni dopo la sua fondazione, Wikipedia rappresenta un traguardo senza pari: la più grande raccolta di informazioni della storia umana, con una reputazione di affidabilità solida in un web invaso da menzogne, fake news e disinformazione organizzata.
Proprio per questo suo status di fonte neutrale e verificabile, i nuovi strumenti di intelligenza artificiale, dai chatbot come ChatGPT ai riassunti generati da AI nei motori di ricerca, la usano come riferimento primario, diffondendone i contenuti ovunque e trasformando radicalmente il modo in cui miliardi di persone accedono alle informazioni quotidiane.
Oggi però emerge un’ombra inquietante, rivelata da un’inchiesta inattaccabile del londinese Bureau of Investigative Journalism (TBIJ): Wikipedia è stata manipolata sistematicamente con modifiche a pagamento, ordinate da soci di una prestigiosa agenzia di PR londinese con legami diretti a Downing Street. Si tratta di Portland Communications, fondata nel 2010 da Tim Allan, oggi direttore della comunicazione del premier Keir Starmer. Allan ha abbandonato ogni ruolo operativo in Portland nel 2019. Del team però fa tuttora parte, come senior adviser, l’ex spin doctor di Tony Blair, Alastair Campbell.
L’indagine si basa su testimonianze di 14 insider, anonimi e vincolati da accordi di non concorrenza, e sull’analisi delle cronologie pubbliche di modifica, che hanno permesso di collegare la rete a Portland.
L’agenzia è già stata sorpresa in passato per questa pratica – ribattezzata “wikilaundering” – esplicitamente vietata dal codice deontologico britannico dei professionisti delle pubbliche relazioni. Dopo l’esposizione del 2011, invece di interrompere, ha optato per un approccio più discreto: servirsi di intermediari esterni per mantenere la distanza e poter negare ogni responsabilità.
Lo ha confermato un ex dipendente anonimo: “Nessuno ha detto di fermarsi. La domanda era solo come continuare senza farsi beccare”.
Tra i clienti che hanno beneficiato di questi interventi: il Qatar, che prima dei Mondiali 2022 ha visto seppellire o attenuare riferimenti a gravi critiche sui diritti umani, sulle condizioni disumane dei lavoratori migranti e sulle migliaia di morti nei cantieri. Account collegati a subappaltatori hanno inoltre oscurato un delicato caso giudiziario britannico in cui due miliardari qatarioti erano accusati di aver canalizzato fondi a Jabhat al-Nusra, gruppo terroristico siriano (il caso è poi parzialmente collassato nel 2024 tra accuse di minacce e intimidazioni).
Altri interventi mirati hanno riguardato il fallimento di AGRA, il progetto da un miliardo di dollari finanziato dalla Fondazione Gates per raddoppiare i redditi di 30 milioni di agricoltori africani: la rete ha modificato la data degli obiettivi irrealizzati, eliminato la sezione “Valutazione” e rimosso riferimenti a uno studio critico della Tufts University che ne documentava il mancato raggiungimento.
In Libia, nel caos seguito alla caduta del regime di Gheddafi, durante una fase di violenti scontri in cui tutte le parti sono state accusate di atrocità, sono state promosse narrazioni favorevoli alla fazione governativa di Tripoli rispetto all’opposizione basata a Malta.
Spesso le modifiche erano subdole, quasi invisibili e per questo più efficaci, e adottavano tecniche consolidate nel linguaggio della pubblicità o delle pubbliche relazioni: seppellire cattive notizie sotto descrizioni estese di attività filantropiche, sostituire fonti critiche con link più morbidi o neutri, o riorganizzare il testo per diluire l’impatto negativo.
Wikipedia permette a chiunque di modificare le pagine, ma impone regole ferree: neutralità, fonti affidabili e verificabili, divieto assoluto di contributi pagati non dichiarati. Bot automatici scandagliano il sito in cerca di anomalie, mentre una comunità di volontari appassionati aggiunge, corregge e raffina i contenuti, rendendo estremamente difficile introdurre falsità macroscopiche.
Eppure, come spiega Alberto Fittarelli, senior researcher al Citizen Lab dell’Università di Toronto, “piccole modifiche incrementali pesano moltissimo: sembrano innocue, ma una volta entrate nel flusso informativo diventano durature e quasi impossibili da rimuovere del tutto”.
Al centro dell’operazione, secondo l’inchiesta del TBIJ, c’è Radek Kotlarek, consulente web gallese e fondatore di Web3 Consulting, una società di servizi internet che è stata dissolta di recente. Specializzato in questo tipo di editing, ha gestito per circa un decennio una rete di 26 sockpuppet, account multipli controllati dalla stessa persona, banditi da Wikipedia nel 2024 proprio per sospetto editing a pagamento.
Secondo l’inchiesta sarebbe stato assoldato da Portland nel 2012. Fino al 2010 l’agenzia faceva editing in-house, inviando neoassunti a modificare le entries di Wikipedia da caffè e locali sempre diversi per variare gli indirizzi IP e mascherare le tracce. Dopo uno scandalo nel 2011 è passata all’outsourcing sistematico.
Kotlarek non ha risposto alle richieste di commento di TBIJ e Portland ha declinato ogni commento. Ma il blocco della sua rete non ha fermato la pratica, che si è diffusa su scala più ampia: sono emersi nuovi account che continuano a intervenire sule pagine di clienti Portland.
Ex dipendenti dell’agenzia hanno riferito ai giornalisti del Bureau che la domanda di “wikilaundering” è destinata solo ad aumentare. Stephen Harrison, giornalista che segue da vicino Wikipedia, ha dichiarato: “È incredibilmente importante che i fatti siano rappresentati accuratamente perché Wikipedia raggiunge l’AI e distribuisce informazioni in tutto internet”.
I riassunti generati da AI stanno sottraendo traffico al sito, e gli editor temono che questo possa ridurre la massa critica di volontari che ne garantisce la sicurezza. Investigare e bloccare queste reti è un lavoro supplementare che richiede tempo ed energie. “Gli investigatori di sockpuppet sono veri eroi” secondo Harrison. “Ma le loro indagini non fermeranno questo tipo di sabotaggio. Penso che servano più azioni legali”.
Un portavoce della Wikimedia Foundation ha assicurato che l’organizzazione dispone di risorse per indagare e agire contro le aziende che violano le sue policy: “Siamo impegnati a proteggere l’integrità e la reputazione di Wikipedia, costruita grazie ai contributi di milioni di volontari in quasi 25 anni”.
L'articolo Wikipedia manipolata: un’agenzia britannica di Pr modificava a pagamento le informazioni sui propri clienti proviene da Il Fatto Quotidiano.