Menschen misstrauen laut Studie KI-generierten Schlagzeilen

Wie eine neue Studie zeigt, sind Nachrichtenleser misstrauisch gegenüber Inhalten, die mithilfe von Künstlicher Intelligenz erzeugt wurden.

KI-Hinweise bei Schlagzeilen führen laut einer Studie zu grösserem Misstrauen. (Symbolbild) - Depositphotos

Das Wichtigste in Kürze

  • Leser zeigen ein Misstrauen gegenüber Inhalten, die durch KI generiert wurden.
  • Laut einer Studie zeigen sich Menschen weniger bereit, solchen Schlagzeilen zu vertrauen.
  • Sie gehen davon aus, dass so gekennzeichnete News vollständig von AI erzeugt werden.

Menschen misstrauen von Künstlicher Intelligenz (KI) generierten Inhalten. Leserinnen und Leser sind weniger bereit, Schlagzeilen zu vertrauen, wenn sie mit dem Hinweis «KI-generiert» versehen sind. Das zeigt eine neue Studie.

Dem Studienleiter Fabrizio Gilardi von der Universität Zürich (UZH) zufolge sollten solche Hinweise deshalb nur mit Vorsicht angewandt werden. Gilardi sagte am Freitag zur Nachrichtenagentur Keystone-SDA: «Es wäre sinnvoller, zwischen problematischen und unproblematischen Inhalten zu unterscheiden, als zwischen KI-generierten und nicht KI-generierten.»

Auswirkungen von KI-Hinweisen

KI-Hinweise stossen laut Gilardi auf viel Zustimmung. Es wurde bisher aber kaum untersucht, welche Auswirkungen solche Labels auf die Wahrnehmung von Leserinnen und Lesern haben.

Gilardi und sein UZH-Kollege Sacha Altay haben ein Experiment mit fast 5000 Menschen aus den USA und Grossbritannien durchgeführt. Dies für die Studie, die in der Fachzeitschrift «Pnas Nexus» veröffentlicht wurde.

Ergebnisse der Untersuchung

Dabei zeigte sich, dass eine Kennzeichnung von Schlagzeilen als «KI-generiert» die wahrgenommene Genauigkeit der Schlagzeilen reduzierte. Genauso auch die Absicht der Teilnehmerinnen und Teilnehmer, sie zu teilen.

Umfrage

Vertraust du Aussagen von einer KI?

Ja.
40%
Nein, da bin ich misstrauisch.
60%

Dies unabhängig vom tatsächlichen Wahrheitsgehalt der Schlagzeile und auch unabhängig davon, ob sie wirklich von einer KI erstellt worden waren. Der Effekt war der Studie zufolge aber dreimal kleiner als bei Schlagzeilen mit dem Hinweis «Falsch».

Leser glauben wohl, Inhalt sei vollständig KI-generiert

Laut Gilardi ist dieser Skeptizismus wahrscheinlich darauf zurückzuführen: Viele Leser würden beim KI-Hinweis davon ausgehen, dass so gekennzeichnete Schlagzeilen vollständig von KI geschrieben wurden, ohne menschliche Aufsicht.

Dies sei im Journalismus aber unüblich, sagte Gilardi. Solche Hinweise führten damit auch zu einer Verringerung des Glaubens an korrekte Inhalte.