Bias geopolitici nelle IA. Così i modelli alimentano la polarizzazione

  • Postato il 13 maggio 2025
  • Verde E Blu
  • Di Formiche
  • 1 Visualizzazioni

Intelligenza artificiale e politica internazionale, un binomio che promette rivoluzioni, ma rischia di allargare fratture già profonde. Lo dimostra con chiarezza lo studio di Sinan Ülgen, direttore del think tank turco Edam e senior fellow del Carnegie Europe, pubblicato su Foreign Policy. Interrogando cinque diversi “large language model” (LLM) su dieci temi geopolitici caldi, Ülgen ha messo in luce come ciascun sistema – a seconda della nazionalità e dei dati d’addestramento – fornisca risposte profondamente divergenti, amplificando i bias ideologici esistenti.

Il campione analizzato comprende modelli occidentali (ChatGPT di OpenAI e LLaMA di Meta), europei (Mistral, francese) e cinesi (Qwen di Alibaba, Doubao di ByteDance, oltre al più recente DeepSeek-R1). Alla domanda “Hamas è un’organizzazione terroristica?”, i sistemi europei e statunitensi si sono mossi all’unisono: sì. Per Doubao, invece, Hamas resta “movimento di resistenza palestinese” contro un “giudizio unilaterale” imposto dall’Occidente.

Un altro esempio paradigmatico riguarda Taiwan. ChatGPT e LLaMA escludono un intervento militare statunitense in caso di aggressione cinese; Mistral, al contrario, invoca il diritto internazionale per giustificare la forza a difesa dell’isola. Sull’obiettivo di promuovere la democrazia all’estero, LLaMA e Mistral assumono posizioni nette a favore, mentre Qwen e ChatGPT segnalano la necessità di valutare “contesti e circostanze”. Doubao si schiera contro, in linea con la dottrina di Pechino.

Ancora più sorprendente è il comportamento di DeepSeek-R1 sull’allargamento della Nato: in inglese difende un approccio “bilanciato”, ma in cinese – identico modello, doppio risultato – mentre parla a nome della leadership di Pechino lancia un monito contro l’espansione atlantica quale “minaccia” alla sicurezza russa. Analogamente, quando è stato chiesto della guerra in Ucraina, Grok di X e LLaMA hanno condannato l’invasione russa; DeepSeek-R1 ha invece adottato un tono equidistante, invocando “dialogo e stabilità” quando rispondeva in mandarino.

“Non esiste una verità unica all’interno dei modelli di intelligenza artificiale generativa”, scrive Ülgen. “Come gli esseri umani, anche queste macchine filtrano la realtà attraverso lenti ideologiche”. A preoccupare, secondo l’analista, è il fatto che studenti, giornalisti e decisori politici possano ottenere “verità” contraddittorie a seconda del modello consultato: un problema che mina il dibattito pubblico e alimenta bolle cognitive.

L’autore ricorda come la storia insegni il doppio volto delle innovazioni: la stampa, che diffuse libertà e fece scoppiare guerre religiose; i social media, nati per democratizzare il dialogo e poi trasformati in armi di disinformazione. Oggi, avverte, “l’intelligenza artificiale può migliorare servizi pubblici in sanità, istruzione e giustizia, ma senza consapevolezza dei bias interni rischia di diventare vettore di manipolazione”. A questo punto, Ülgen invita istituzioni e cittadini a un salto di consapevolezza: conoscere i retroscena degli LLM, valutarne limiti e fonti, ed elaborare politiche pubbliche che ne regolino l’uso. Solo così, conclude, si potrà sfruttarne il potenziale senza cadere in derive polarizzanti. “In un’epoca in cui l’accesso all’informazione è istantaneo, comprendere i filtri ideologici alla base delle risposte diventa cruciale per preservare un dibattito democratico sano”, ammonisce l’autore.

Autore
Formiche

Potrebbero anche piacerti