Nahostkonflikt: ChatGPT nennt je nach Sprache andere Opfer-Zahlen

Keystone-SDA
Keystone-SDA

Israel,

Eine neue Studie belegt, dass ChatGPT bei Fragen zum Nahostkonflikt auf Arabisch deutlich höhere Opferzahlen nennt als auf Hebräisch.

Nahostkonflikt
Sprachspezifische Verzerrungen können Konflikte wie den Nahostkonflikt anheizen. (Archivbild) - keystone

Das Wichtigste in Kürze

  • ChatGPT nennt auf Arabisch höhere Opferzahlen für den Nahostkonflikt als auf Hebräisch.
  • Das belegt eine neue Studie der Universitäten Zürich (UZH) und Konstanz.
  • Ähnliches wurde bei Fragen zu türkischen Luftangriffen auf kurdische Gebiete festgestellt.

Auf Arabisch gibt ChatGPT laut einer Studie durchschnittlich um ein Drittel höhere Opferzahlen für den Nahostkonflikt an als auf Hebräisch. Zu israelischen Luftangriffen in Gaza erwähne der Chatbot doppelt so häufig zivile Opfer und sechsmal häufiger getötete Kinder.

Zwei Forscher der Universitäten Zürich (UZH) und Konstanz stellten ChatGPT zu bewaffneten Auseinandersetzungen wiederholt die gleichen Fragen. In einem automatisierten Verfahren wurden die Fragen in unterschiedlichen Sprachen gestellt.

Sowohl auf Arabisch als auch auf Hebräisch fragten sie, wie viele Opfer es bei 50 zufallsbasiert ausgewählten Luftangriffen gegeben habe. Zudem erfragten sie die Opferzahlen des israelischen Luftangriffes auf das Nuseirat Flüchtlingscamp aus dem Jahr 2014.

Nahost-Konflikt: ChatGPT verzerrt Opferzahlen

Das gleiche Muster wie beim Nahostkonflikt trat auf, wenn die Forscher nach Luftangriffen der türkischen Regierung auf kurdische Gebiete fragten. Und diese Fragen sowohl auf Türkisch als auch auf Kurdisch stellten, wie die UZH am Montag mitteilte.

ChatGPT
ChatGPT ist der bekannteste Chatbot, der vor über einem Jahr den Hype um Künstliche Intelligenz mit auslöste. (Symbolbild) - dpa

Generell zeige ChatGPT höhere Opferzahlen an, wenn die Suchanfragen in der Sprache der angegriffenen Gruppe erstellt werden. ChatGPT neige ausserdem dazu, in der Sprache der angegriffenen Gruppe über mehr getötete Kinder und Frauen zu berichten. Und die Luftangriffe eher als wahllos und willkürlich zu beschreiben.

«Unsere Resultate zeigen gleichzeitig, dass die Luftangriffe in der Sprache des Aggressors von ChatGPT mit einer höheren Wahrscheinlichkeit bestritten werden.» So wird Christoph Steinert, Wissenschaftler am Institut für Politikwissenschaft der UZH, in der Mitteilung zitiert.

Forscher warnen

Menschen mit unterschiedlichen Sprachkenntnissen erhielten durch diese Technologien unterschiedliche Informationen, was einen zentralen Einfluss auf ihre Wahrnehmung der Welt habe.

Auf Grundlage der Informationen von ChatGPT, könnten Menschen in Israel die Luftangriffe in Gaza als weniger verlustreich einschätzen. Anders als die arabischsprachige Bevölkerung.

Gazastreifen Israel
Explosion nach israelischem Luftangriff im Gazastreifen. (Archivbild) - afp

Es können auch klassische Nachrichtenmedien die Berichterstattung verzerren. Sprachbedingte Verzerrungen in ChatGPT sind für die meisten Nutzer schwer erkennbar. Da die Modelle ihre Entscheidungsprozesse nicht offenlegen.

Macht dir ChatGPT Angst?

Unterschiedliche Wahrnehmungen, Vorurteile und Informationsblasen entlang von Sprachgrenzen können verstärkt werden. Durch die Implementierung der Large Language Models in Suchmaschinen.

Weiterlesen

sprachmodus
12 Interaktionen
ChatGPT
2 Interaktionen

Mehr in News

Zürich Demonstration
1 Interaktionen
Bitcoin
16 Interaktionen
14 Interaktionen

Mehr Nahost-Konflikt

Prinz William
11 Interaktionen
Iran Atomwaffen
3 Interaktionen
Libanon
1 Interaktionen

Mehr aus Israel