Fake-Palästina-Foto: Deshalb werden KI-Bilder millionenfach geteilt

Shannon Hughes
Shannon Hughes

Palestina,

Letzte Woche ging ein KI-Bild viral, das auf die Krise in Rafah aufmerksam machen sollte. Ein Experte erklärt, warum KI-Fotos erfolgreicher sind als echte.

Israel Hamas Gazastreifen Rafah
In Rafah befinden sich Hunderttausende Flüchtlinge. (Archivbild) - keystone

Das Wichtigste in Kürze

  • Ein KI-Bild zum Angriff in Rafah wurde millionenfach auf Social Media geteilt.
  • Eine Gegenbewegung forderte, echte Bilder von der Kriegszone zu teilen.
  • Sowohl KI-Bilder als auch echte Bilder vermitteln bestimmte Positionen.

Letzte Woche ging auf Social Media ein Bild viral. Infolge der erneuten Eskalation in Rafah teilten mehrere Millionen Menschen auf sozialen Medien ein Bild, das gar nicht echt ist.

Das KI-generierte Bild mit der Nachricht «All Eyes On Rafah» («Alle Augen auf Rafah») wurde von vielen genutzt, um sich mit Palästina zu solidarisieren. Doch: Wenn man es sich anschaut, stutzt man gleich.

Denn das Bild ist bei genauem Betrachten als künstlich erkennbar. Sowohl die weissen Zelte, welche die Parole bilden, als auch die weissen Berge im Hintergrund können nicht echt sein.

Rafah
Ein KI-generiertes Bild ist millionenfach auf Social Media geteilt worden. - X/@InsiderWorld_1

Der Krieg läuft seit Monaten, zudem haben Aktivisten und Journalisten bereits viel Bild- und Videomaterial aus Gaza geteilt. Woher kommt also der Rummel um ein Bild, das von künstlicher Intelligenz generiert wurde?

Unklarer Ursprung, blindes Teilen

Daniel Süss, Professor für Medienpsychologie an der ZHAW und Kommunikation an der Uni Zürich, erläutert den Erfolg des KI-Bilds. Mithilfe von KI könnten Symbolbilder generiert werden, die Menschen stark emotional machen.

Solche Bilder vermitteln eine klare Stellung, wie Süss gegenüber Nau.ch sagt. «Sie sind kein Abbild einer Realität, sondern sie transportieren einen Appell oder legen den Betrachtenden eine Perspektive nahe, wie sie ein Ereignis einordnen sollen.»

So sei es auch schwierig, sich kritisch damit auseinanderzusetzen. Dazu komme der Hype, wenn viele Kontakte ein Bild teilten, so Süss. Sprich: wenn jemand aus dem Umfeld etwas teilt, dann teilen Menschen das ebenso.

«Zudem wird durch das vielfache Weiterverbreiten des Bildes die ursprüngliche Quelle immer mehr verwischt, sodass ein kritisches Nachdenken über mögliche manipulative Absichten hinter dem KI-Bild erschwert wird.»

Forderung nach echten Bildern

Aktivisten und Aktivistinnen sind nach dem Erfolg des KI-Bilds laut geworden. Obwohl ihnen die Aufmerksamkeit für die Krise in Rafah wichtig ist, geht es um die Verwendung eines KI-Bilds.

Daniel Süss sagt: «Die Kritik von Aktivisten an KI-Bildern kann auch so verstanden werden, dass das Risiko, dass ein Bild als künstlich generiert entlarvt wird, die ganze Message und Glaubwürdigkeit der Absender diskreditiert.»

Macht es für dich einen Unterschied, ob ein KI-Bild oder ein echtes Bild geteilt wird?

Diverse Aktivisten bemängelten, dass Menschen das Bild nur teilten, um online gut dazustehen, statt sich mit dem Krieg zu beschäftigen. Dieser sogenannte «performative Aktivismus» bezeichnet Menschen, die zwar öffentlich ihre Anteilnahme zeigen, aber nichts Handfestes unternehmen.

Als Reaktion auf den ersten Post machte ein zweites Bild online die Runde. Diesmal war ein echtes Bild zu sehen – eine Ansammlung von Menschen, die um Leichen stehen.

rafah
Die Gegenbewegung fordert, dass echte Bilder von der Kriegszone in Rafah gepostet werden. - instagram

Laut Daniel Süss sind sich immer mehr Menschen bewusst, dass Bilder in Kriegssituationen manipuliert und für Propaganda verwendet werden. Durch KI nehme dieser Fakt aber neue Dimensionen an.

Hinter der Forderung nach «echten Bildern» steckt der Gedanke, dass sich Menschen ein eigenes Bild der Situation machen. «Das bleibt allerdings eine Illusion, denn auch ein dokumentarisches Bild ist durch die Perspektive, den gewählten Bildausschnitt und die Verbindung von Bild und Textkommentar nie einfach ein neutrales Zeugnis eines Ereignisses.»

Mehr zum Thema:

Kommentare

User #6236 (nicht angemeldet)

In Zukunft wird real von nicht real in vielen Belangen kaum mehr unterscheidbar sein, dank der supertollen :(( Erfindung der Menschheit die sich KI/künstliche Intelligenz nennt - künstlicher Irrtum wäre wohl angebrachter. Gut gemachte KI Fotos, Videos sind für die meisten Leute schon heute nicht mehr zw. echt und unecht zu unterscheiden. Da blüht und noch was! Selbst heute weiss man im Prinzip schon nicht mehr, ob ein Foto oder Video echt ist oder von KI generiert. Man kann z.B. einen Biden o.ä. in einem Video alles sagen lassen und es sieht zu 100% echt aus.

User #4454 (nicht angemeldet)

Ach ne, echt jetzt? Hätte ich niemals für möglich gehalten dass KI genutzt wird um Fake-Bilder zu generieren und dirse dann noch in den SozialenMedien die Runde machen..... das kann doch nicht sein bei all den guten und intelligenten Menschen auf der Welt.....

Weiterlesen

13 Interaktionen
Flüchtlingsunterkünfte Zelte Rafah Gaza
3 Interaktionen
38 Interaktionen

Mehr aus Palestina

Gazastreifen
2 Interaktionen