Lorsque ChatGPT est interrogé en arabe sur le nombre de civils tués dans le conflit au Proche-Orient, il indique un nombre de victimes nettement plus élevé que si la même question était posée en hébreu, comme le montre une nouvelle étude des universités de Zurich et de Constance. Ces distorsions systématiques peuvent renforcer les préjugés dans les conflits armés et alimenter des bulles d’information.
Des millions de personnes communiquent chaque jour avec ChatGPT et d’autres ‘Large Language Models’, par exemple pour obtenir des informations. Mais comment les réponses fournies par les modèles linguistiques sont-elles influencées par la langue de la requête de recherche ? Cela fait-il une différence si l’on pose la même question en anglais ou en allemand, en arabe ou en hébreu ?
Christoph Steinert, postdoctorant à l’Institut de sciences politiques de l’Université de Zurich (UZH) et le physicien Daniel Kazenwadel de l’Université de Constance en Allemagne ont étudié cette question de manière systématique.
L’information influence le déroulement des conflits armés
Les chercheurs ont choisi un sujet à la fois actuel et sensible : les conflits armés comme le conflit au Proche-Orient ou le conflit turco-kurde. Ils ont posé à ChatGPT les mêmes questions de manière répétée et dans différentes langues grâce à un processus automatisé. Ainsi, les scientifiques ont demandé à plusieurs reprises, aussi bien en hébreu qu’en arabe, combien de victimes avaient été recensées lors de 50 attaques aériennes sélectionnées de manière aléatoire – par exemple l’attaque aérienne israélienne sur le camp de réfugiés de Nuseirat le 21 août 2014.
« Nous avons constaté que ChatGPT indique systématiquement un nombre plus élevé de victimes lorsqu’il est interrogé en arabe par rapport à l’hébreu. En moyenne, c’est 34 pour cent de plus », explique Steinert. Lorsque ChatGPT est interrogé sur les attaques aériennes israéliennes à Gaza, il mentionne en moyenne deux fois plus de victimes civiles et six fois plus d’enfants tués en arabe qu’en hébreu. Les chercheurs ont également trouvé le même schéma lorsqu’ils ont posé des questions sur les attaques aériennes du gouvernement turc sur les régions kurdes et qu’ils ont posé ces questions à la fois en turc et en kurde.
« La première victime de la guerre, c’est la vérité », tel est le commentaire attribué au républicain américain Hiram Johnson (1866-1945). Au cours de l’histoire, les politiques d’information sélectives, la propagande et les fausses informations ont influencé de nombreux conflits armés. Ce qui caractérise les conflits armés d’aujourd’hui, c’est la disponibilité d’une abondance sans précédent de sources d’information – comme ChatGPT.
L’exagération dans un langage, l’embellissement dans l’autre
Les résultats montrent en général que ChatGPT indique un nombre plus élevé de victimes lorsque les recherches sont effectuées dans la langue du groupe attaqué. En outre, ChatGPT a tendance à rapporter davantage d’enfants et de femmes tués dans la langue du groupe attaqué et à décrire les attaques aériennes comme étant plus aléatoires et arbitraires. « Nos résultats montrent en même temps que les attaques aériennes sont plus susceptibles d’être contestées par ChatGPT dans la langue de l’agresseur », ajoute Steinert.
Selon les chercheurs, cela a de vastes implications sociales : Les ChatGPT et autres ‘Large Language Models’ jouent un rôle de plus en plus central dans les processus de diffusion de l’information. Implémentés dans des moteurs de recherche comme Google Gemini ou Microsoft Bing, ils influencent fondamentalement les informations que l’on obtient à partir de requêtes de recherche sur les sujets les plus divers.
« Si des personnes ayant des compétences linguistiques différentes obtiennent des informations différentes grâce à ces technologies, cela a une influence centrale sur leur perception du monde », explique Christoph Steinert. De tels biais linguistiques pourraient amener les habitants d’Israël à estimer, sur la base des informations qu’ils reçoivent des Large Language Models, que les raids aériens sur Gaza ont causé moins de pertes que la population arabophone.
Renforcer les préjugés et alimenter les bulles d’information
Les médias d’information classiques peuvent également déformer les comptes rendus. Mais à la différence de ces derniers, les distorsions systématiques des Large Language Models dues à la langue sont difficiles à percevoir pour la plupart des utilisateurs. « Il y a un risque que l’implémentation croissante de Large Language Models dans les moteurs de recherche renforce les différentes perceptions, les préjugés et les bulles d’information le long des frontières linguistiques », explique Steinert, ce qui pourrait à l’avenir alimenter les conflits armés comme celui du Proche-Orient.
Bibliographie
Christoph Valentin Steinert, Daniel Kazenwadel. How user language affects conflict fatality estimates in ChatGPT (Comment la langue de l’utilisateur affecte les estimations de la fatalité du conflit dans ChatGPT). Journal of Peace Research. 4 November 2024. DOI: https://doi.org/10.1177/00223433241279381
Image de couverture de Palestinian News & Information Agency (Wafa) in contract with APAimages sous license Creative Commons Attribution-Share Alike 3.0 Unported.