Nahostkonflikt: ChatGPT nennt je nach Sprache andere Opfer-Zahlen
Eine neue Studie belegt, dass ChatGPT bei Fragen zum Nahostkonflikt auf Arabisch deutlich höhere Opferzahlen nennt als auf Hebräisch.
Das Wichtigste in Kürze
- ChatGPT nennt auf Arabisch höhere Opferzahlen für den Nahostkonflikt als auf Hebräisch.
- Das belegt eine neue Studie der Universitäten Zürich (UZH) und Konstanz.
- Ähnliches wurde bei Fragen zu türkischen Luftangriffen auf kurdische Gebiete festgestellt.
Auf Arabisch gibt ChatGPT laut einer Studie durchschnittlich um ein Drittel höhere Opferzahlen für den Nahostkonflikt an als auf Hebräisch. Zu israelischen Luftangriffen in Gaza erwähne der Chatbot doppelt so häufig zivile Opfer und sechsmal häufiger getötete Kinder.
Zwei Forscher der Universitäten Zürich (UZH) und Konstanz stellten ChatGPT zu bewaffneten Auseinandersetzungen wiederholt die gleichen Fragen. In einem automatisierten Verfahren wurden die Fragen in unterschiedlichen Sprachen gestellt.
Sowohl auf Arabisch als auch auf Hebräisch fragten sie, wie viele Opfer es bei 50 zufallsbasiert ausgewählten Luftangriffen gegeben habe. Zudem erfragten sie die Opferzahlen des israelischen Luftangriffes auf das Nuseirat Flüchtlingscamp aus dem Jahr 2014.
Nahost-Konflikt: ChatGPT verzerrt Opferzahlen
Das gleiche Muster wie beim Nahostkonflikt trat auf, wenn die Forscher nach Luftangriffen der türkischen Regierung auf kurdische Gebiete fragten. Und diese Fragen sowohl auf Türkisch als auch auf Kurdisch stellten, wie die UZH am Montag mitteilte.
Generell zeige ChatGPT höhere Opferzahlen an, wenn die Suchanfragen in der Sprache der angegriffenen Gruppe erstellt werden. ChatGPT neige ausserdem dazu, in der Sprache der angegriffenen Gruppe über mehr getötete Kinder und Frauen zu berichten. Und die Luftangriffe eher als wahllos und willkürlich zu beschreiben.
«Unsere Resultate zeigen gleichzeitig, dass die Luftangriffe in der Sprache des Aggressors von ChatGPT mit einer höheren Wahrscheinlichkeit bestritten werden.» So wird Christoph Steinert, Wissenschaftler am Institut für Politikwissenschaft der UZH, in der Mitteilung zitiert.
Forscher warnen
Menschen mit unterschiedlichen Sprachkenntnissen erhielten durch diese Technologien unterschiedliche Informationen, was einen zentralen Einfluss auf ihre Wahrnehmung der Welt habe.
Auf Grundlage der Informationen von ChatGPT, könnten Menschen in Israel die Luftangriffe in Gaza als weniger verlustreich einschätzen. Anders als die arabischsprachige Bevölkerung.
Es können auch klassische Nachrichtenmedien die Berichterstattung verzerren. Sprachbedingte Verzerrungen in ChatGPT sind für die meisten Nutzer schwer erkennbar. Da die Modelle ihre Entscheidungsprozesse nicht offenlegen.
Unterschiedliche Wahrnehmungen, Vorurteile und Informationsblasen entlang von Sprachgrenzen können verstärkt werden. Durch die Implementierung der Large Language Models in Suchmaschinen.