Wie eine neue Studie zeigt, sind Nachrichtenleser misstrauisch gegenüber Inhalten, die mithilfe von Künstlicher Intelligenz erzeugt wurden.
News-App
KI-Hinweise bei Schlagzeilen führen laut einer Studie zu grösserem Misstrauen. (Symbolbild) - Depositphotos

Das Wichtigste in Kürze

  • Leser zeigen ein Misstrauen gegenüber Inhalten, die durch KI generiert wurden.
  • Laut einer Studie zeigen sich Menschen weniger bereit, solchen Schlagzeilen zu vertrauen.
  • Sie gehen davon aus, dass so gekennzeichnete News vollständig von AI erzeugt werden.
Ad

Menschen misstrauen von Künstlicher Intelligenz (KI) generierten Inhalten. Leserinnen und Leser sind weniger bereit, Schlagzeilen zu vertrauen, wenn sie mit dem Hinweis «KI-generiert» versehen sind. Das zeigt eine neue Studie.

Dem Studienleiter Fabrizio Gilardi von der Universität Zürich (UZH) zufolge sollten solche Hinweise deshalb nur mit Vorsicht angewandt werden. Gilardi sagte am Freitag zur Nachrichtenagentur Keystone-SDA: «Es wäre sinnvoller, zwischen problematischen und unproblematischen Inhalten zu unterscheiden, als zwischen KI-generierten und nicht KI-generierten.»

Auswirkungen von KI-Hinweisen

KI-Hinweise stossen laut Gilardi auf viel Zustimmung. Es wurde bisher aber kaum untersucht, welche Auswirkungen solche Labels auf die Wahrnehmung von Leserinnen und Lesern haben.

KI
Generative KI ist eine Variante der Künstlichen Intelligenz, mit der man neue, originelle Inhalte schaffen («generieren») kann. Leser sind weniger bereit, Schlagzeilen zu vertrauen, wenn sie
Doomscrolling Smartphone negative Nachrichten
Eine Kennzeichnung von Schlagzeilen als «KI-generiert» reduziert laut Studie die wahrgenommene Genauigkeit der Schlagzeilen. (Symbolbild)
top-medien
Ein Journalist bei der Arbeit. (Symbolbild)
KI
Viele Leser würden beim KI-Hinweis davon ausgehen, dass so gekennzeichnete Schlagzeilen vollständig von KI geschrieben wurden, ohne menschliche Aufsicht. (im Bild ein Dall-E text-to-image m

Gilardi und sein UZH-Kollege Sacha Altay haben ein Experiment mit fast 5000 Menschen aus den USA und Grossbritannien durchgeführt. Dies für die Studie, die in der Fachzeitschrift «Pnas Nexus» veröffentlicht wurde.

Ergebnisse der Untersuchung

Dabei zeigte sich, dass eine Kennzeichnung von Schlagzeilen als «KI-generiert» die wahrgenommene Genauigkeit der Schlagzeilen reduzierte. Genauso auch die Absicht der Teilnehmerinnen und Teilnehmer, sie zu teilen.

Vertraust du Aussagen von einer KI?

Dies unabhängig vom tatsächlichen Wahrheitsgehalt der Schlagzeile und auch unabhängig davon, ob sie wirklich von einer KI erstellt worden waren. Der Effekt war der Studie zufolge aber dreimal kleiner als bei Schlagzeilen mit dem Hinweis «Falsch».

Leser glauben wohl, Inhalt sei vollständig KI-generiert

Laut Gilardi ist dieser Skeptizismus wahrscheinlich darauf zurückzuführen: Viele Leser würden beim KI-Hinweis davon ausgehen, dass so gekennzeichnete Schlagzeilen vollständig von KI geschrieben wurden, ohne menschliche Aufsicht.

Dies sei im Journalismus aber unüblich, sagte Gilardi. Solche Hinweise führten damit auch zu einer Verringerung des Glaubens an korrekte Inhalte.

Ad
Ad

Mehr zum Thema:

Universität ZürichStudie