Quando a ChatGPT viene chiesto in arabo il numero di civili uccisi nel conflitto mediorientale, fornisce cifre significativamente più alte rispetto a quando la stessa domanda viene posta in ebraico, come dimostra un nuovo studio delle Università di Zurigo e Costanza. Queste distorsioni sistematiche possono rafforzare i pregiudizi nei conflitti armati e alimentare le bolle informative.

Milioni di persone comunicano ogni giorno con ChatGPT e altri grandi modelli linguistici, ad esempio per ottenere informazioni. Ma in che modo le risposte fornite dai modelli linguistici sono influenzate dalla lingua della domanda di ricerca? Fa differenza se si pone la stessa domanda in inglese o in tedesco, in arabo o in ebraico?

Christoph Steinert, postdottorato presso l’Istituto di Scienze Politiche dell’Università di Zurigo (UZH) e il fisico Daniel Kazenwadel dell’Università di Costanza in Germania hanno studiato sistematicamente questa domanda.

L’informazione influenza il corso dei conflitti armati

I ricercatori hanno scelto un argomento tanto attuale quanto delicato: i conflitti armati, come il conflitto in Medio Oriente o il conflitto turco-curdo. Utilizzando un processo automatizzato, hanno posto ripetutamente a ChatGPT le stesse domande in lingue diverse. Ad esempio, i ricercatori hanno chiesto ripetutamente, sia in ebraico che in arabo, quante vittime ci fossero state in 50 attacchi aerei scelti a caso, come l’attacco aereo israeliano al campo profughi di Nuseirat del 21 agosto 2014.

“Abbiamo scoperto che ChatGPT fornisce sistematicamente cifre più alte sulle vittime quando gli viene chiesto in arabo rispetto all’ebraico. In media, è il 34% in più”, afferma Steinert. Quando a ChatGPT viene chiesto di parlare degli attacchi aerei israeliani a Gaza, il numero di vittime civili è doppio e i bambini uccisi sono in media sei volte più numerosi in arabo che in ebraico. I ricercatori hanno riscontrato lo stesso schema anche quando hanno chiesto informazioni sugli attacchi aerei del governo turco contro le aree curde e hanno posto queste domande sia in turco che in curdo.

“La prima vittima della guerra è la verità” è un commento attribuito al repubblicano statunitense Hiram Johnson (1866-1945). Nel corso della storia, le politiche di informazione selettiva, la propaganda e la disinformazione hanno influenzato numerosi conflitti armati. Ciò che caratterizza i conflitti armati di oggi è la disponibilità di una ricchezza senza precedenti di fonti di informazione, come la ChatGPT.

Esagerato in una lingua, sottostimato in un’altra

I risultati mostrano in generale che ChatGPT riporta tassi di vittime più elevati quando le ricerche sono effettuate nella lingua del gruppo attaccato. Inoltre, ChatGPT tende a riportare un maggior numero di bambini e donne uccisi nella lingua del gruppo attaccato e a descrivere gli attacchi aerei come indiscriminati e arbitrari. “I nostri risultati mostrano anche che è più probabile che gli attacchi aerei siano negati dalla ChatGPT nella lingua dell’aggressore”, aggiunge Steinert.

Secondo i ricercatori, questo ha implicazioni sociali di vasta portata: ChatGPT e altri Large Language Models stanno giocando un ruolo sempre più centrale nei processi di diffusione delle informazioni. Implementati in motori di ricerca come Google Gemini o Microsoft Bing, influenzano in modo fondamentale le informazioni che si possono ottenere dalle query di ricerca su un’ampia varietà di argomenti.

“Quando persone con competenze linguistiche diverse ricevono informazioni diverse attraverso queste tecnologie, ciò ha un’influenza centrale sulla loro percezione del mondo”, afferma Christoph Steinert. Questi pregiudizi linguistici potrebbero portare le persone in Israele a valutare gli attacchi aerei su Gaza come meno dannosi rispetto alla popolazione di lingua araba, sulla base delle informazioni ricevute da modelli linguistici di grandi dimensioni.

Rafforzano i pregiudizi e alimentano le bolle informative

Anche i mezzi di informazione tradizionali possono distorcere le notizie. Tuttavia, le distorsioni sistematiche legate alla lingua dei modelli linguistici di grandi dimensioni sono difficili da capire per la maggior parte degli utenti. “C’è il rischio che la crescente implementazione di modelli linguistici di grandi dimensioni nei motori di ricerca rafforzi le diverse percezioni, i pregiudizi e le bolle di informazioni lungo i confini linguistici, che in futuro potrebbero alimentare ulteriormente conflitti armati come quello in Medio Oriente”, afferma Steinert.

Fonti:

Christoph Valentin Steinert, Daniel Kazenwadel. Come la lingua degli utenti influisce sulle stime di fatalità dei conflitti in ChatGPT. Journal of Peace Research. 4 novembre 2024. DOI: https://doi.org/10.1177/00223433241279381

Traduzione dal tedesco di Thomas Schmid.

Tag: Conflitti armati, chatbot, intelligenza artificiale

L’articolo originale può essere letto qui