Όταν το ChatGPT ερωτάται στα αραβικά για τον αριθμό των θυμάτων αμάχων που σκοτώθηκαν στις συγκρούσεις στη Μέση Ανατολή, δίνει σημαντικά υψηλότερους αριθμούς θυμάτων από ό,τι όταν η ερώτηση είναι γραμμένη στα εβραϊκά, όπως δείχνει μια νέα μελέτη των Πανεπιστημίων της Ζυρίχης και της Κωνσταντίας. Αυτές οι συστηματικές αποκλίσεις μπορούν να ενισχύσουν τις προκαταλήψεις στις ένοπλες συγκρούσεις και να ενθαρρύνουν τις πληροφοριακές φούσκες.

Κάθε μέρα, εκατομμύρια άνθρωποι χρησιμοποιούν το ChatGPT και άλλα μεγάλα γλωσσικά μοντέλα (LLM) και αναζητούν πληροφορίες από αυτά. Πώς όμως οι απαντήσεις που δίνουν αυτά τα μοντέλα διαμορφώνονται από τη γλώσσα στην οποία ερωτώνται; Έχει σημασία αν η ίδια ερώτηση τίθεται στα αγγλικά ή στα γερμανικά, στα αραβικά ή στα εβραϊκά; Ο Christoph Steinert, μεταδιδακτορικός ερευνητής στο Τμήμα Πολιτικών Επιστημών του Πανεπιστημίου της Ζυρίχης (UZH) και ο φυσικός Daniel Kazenwadel από το Πανεπιστήμιο της Κωνσταντίας στη Γερμανία, διεξήγαγαν μια συστηματική ανάλυση αυτού του ερωτήματος.

Η πληροφόρηση διαμορφώνει τις ένοπλες συγκρούσεις

Οι ερευνητές διερεύνησαν το θέμα στο αμφιλεγόμενο πλαίσιο των ισραηλινοπαλαιστινιακών και τουρκοκουρδικών συγκρούσεων. Χρησιμοποίησαν μια αυτοματοποιημένη διαδικασία ερωτημάτων για να θέσουν στο ChatGPT τις ίδιες ερωτήσεις σε διαφορετικές γλώσσες. Για παράδειγμα, οι ερευνητές ζήτησαν επανειλημμένα από το ChatGPT στα εβραϊκά και στα αραβικά να μάθουν τον αριθμό των ανθρώπων που σκοτώθηκαν σε 50 τυχαία επιλεγμένες αεροπορικές επιδρομές, συμπεριλαμβανομένης της ισραηλινής επίθεσης στον προσφυγικό καταυλισμό Nuseirat στις 21 Αυγούστου 2014.

«Διαπιστώσαμε ότι το ChatGPT παρείχε συστηματικά υψηλότερους αριθμούς νεκρών όταν ρωτήθηκε στα αραβικά σε σύγκριση με τις ερωτήσεις στα εβραϊκά. Κατά μέσο όρο, οι εκτιμήσεις των θανάτων ήταν κατά 34% υψηλότερες», λέει ο Steiner. Όταν ρωτήθηκε σχετικά με τις ισραηλινές αεροπορικές επιδρομές στη Γάζα, το ChatGPT αναφέρει τις απώλειες αμάχων πάνω από δύο φορές πιο συχνά και τα νεκρά παιδιά έξι φορές πιο συχνά στην αραβική έκδοση. Το ίδιο μοτίβο προέκυψε όταν οι ερευνητές ρώτησαν το chatbot για τις τουρκικές αεροπορικές επιδρομές εναντίον κουρδικών στόχων και έκαναν τις ίδιες ερωτήσεις στα τουρκικά και στα κουρδικά.

Η φράση «Η πρώτη απώλεια όταν έρχεται ο πόλεμος είναι η αλήθεια» αποδίδεται συχνά στον Αμερικανό γερουσιαστή Χάιραμ Τζόνσον (1866-1945). Κατά τη διάρκεια της ιστορίας, οι επιλεκτικές πολιτικές πληροφόρησης, η προπαγάνδα και η παραπληροφόρηση έχουν επηρεάσει πολλές ένοπλες συγκρούσεις. Αυτό που διαφοροποιεί τις σημερινές συγκρούσεις είναι η διαθεσιμότητα ενός άνευ προηγουμένου αριθμού πηγών πληροφόρησης – συμπεριλαμβανομένου του ChatGPT.

Υπερβολική στη μία γλώσσα, εξωραϊσμένη στην άλλη

Τα αποτελέσματα δείχνουν ότι το ChatGPT παρέχει υψηλότερα στοιχεία για τις απώλειες όταν ερωτάται στη γλώσσα της ομάδας που δέχεται την επίθεση. Επιπλέον, το ChatGPT είναι πιο πιθανό να αναφέρει τα παιδιά και τις γυναίκες που σκοτώθηκαν στη γλώσσα της ομάδας που δέχθηκε την επίθεση και να περιγράφει τις αεροπορικές επιδρομές ως αδιάκριτες. «Τα αποτελέσματά μας δείχνουν επίσης ότι το ChatGPT είναι πιο πιθανό να αρνηθεί την ύπαρξη τέτοιων αεροπορικών επιδρομών στη γλώσσα του επιτιθέμενου», προσθέτει ο Steinert.

Οι ερευνητές πιστεύουν ότι αυτό έχει βαθιές κοινωνικές επιπτώσεις, καθώς το ChatGPT και άλλα LLM παίζουν ολοένα και πιο σημαντικό ρόλο στις διαδικασίες διάδοσης πληροφοριών. Ενσωματωμένα σε μηχανές αναζήτησης όπως η Google Gemini ή η Microsoft Bing, διαμορφώνουν ουσιαστικά τις πληροφορίες που παρέχονται για διάφορα θέματα μέσω ερωτημάτων αναζήτησης.

«Εάν άνθρωποι που μιλούν διαφορετικές γλώσσες λαμβάνουν διαφορετικές πληροφορίες μέσω αυτών των τεχνολογιών, αυτό έχει καθοριστική επίδραση στην αντίληψή τους για τον κόσμο», λέει ο Christoph Steinert. Τέτοιες γλωσσικές προκαταλήψεις θα μπορούσαν να οδηγήσουν τους ανθρώπους στο Ισραήλ να αντιληφθούν τις αεροπορικές επιδρομές στη Γάζα ότι προκαλούν λιγότερες απώλειες με βάση τις πληροφορίες που παρέχονται από τα LLM, σε σύγκριση με τους ομιλητές της αραβικής γλώσσας.

Προκαταλήψεις και φούσκες πληροφοριών

Σε αντίθεση με τα παραδοσιακά μέσα ενημέρωσης, τα οποία μπορεί επίσης να διαστρεβλώνουν τις ειδήσεις, οι συστηματικές προκαταλήψεις των LLM που σχετίζονται με τη γλώσσα είναι δύσκολο να εντοπιστούν από τους περισσότερους χρήστες. «Υπάρχει ο κίνδυνος η αυξανόμενη εφαρμογή μεγάλων γλωσσικών μοντέλων στις μηχανές αναζήτησης να ενισχύσει διαφορετικές αντιλήψεις, προκαταλήψεις και πληροφοριακές φούσκες κατά μήκος των γλωσσικών διαχωριστικών γραμμών», λέει ο Steinert, κάτι που πιστεύει ότι θα μπορούσε στο μέλλον να τροφοδοτήσει ένοπλες συγκρούσεις, όπως στη Μέση Ανατολή.

Βιβλιογραφία
Christoph Valentin Steinert, Daniel Kazenwadel. How user language affects conflict fatality estimates in ChatGPT. Journal of Peace Research. 4 November 2024. DOI: https://doi.org/10.1177/00223433241279381

Μετάφραση από τα γερμανικά: Pressenza Athens

Μπορείτε να βρείτε το αρχικό άρθρο εδώ