Informationskompetenz: Das sind die Risiken künstlicher Intelligenz

Künstliche Intelligenz ist ein leistungsfähiges Werkzeug. Es bietet in vielerlei Hinsicht Vorteile, ist aber zunehmend eine Gefahr in der Informationskompetenz.

Informationskompetenz
Viele dieser Unternehmen beschäftigen mit Anwendungen der KI zur Lösung von Problemen in Bereichen wie Energie, Gesundheit, Biotechnologie, Raumfahrt und Neurotechnologie. (Symbolbild) - zVg

Das Wichtigste in Kürze

  • Künstliche Intelligenz (KI) ist zunehmend eine Gefahr bei der Verbreitung von Fehlinfos.
  • Die Regierungen sollten ein gemeinsames Vorgehen gegen den Missbrauch von KI erarbeiten.
  • Klimaaktivisten sind besorgt darüber, was KI für die Online-Landschaft bedeuten könnte.

Die Regierungen sollten ein gemeinsames Vorgehen erarbeiten und einen internationalen Rahmen schaffen. Sie sollten damit sicherzustellen, dass KI zum Nutzen der Gesellschaft und nicht zur Verbreitung von Fehlinformationen eingesetzt wird. Die Informationskompetenz wird in Zeiten KI-generierter Inhalte noch wichtiger.

Die Rolle von KI bei der Verbreitung von Fehlinformationen.

Eine Studie von «News Guard» zeigt, dass die potenziellen Gefahren von KI bei Fehlinformationen zunehmen. «News Guard» ist ein Unternehmen, das Online-Fehlinformationen überwacht und erforscht. Die Studie untersuchte die neueste Version des KI-Chatbots von OpenAI, ChatGPT-4.

Die Forscher stellten fest, dass das neueste Modell des KI-Chatbots anfälliger für die Erzeugung von Fehlinformationen ist. Und die Texte erstellte der KI-Chatbot zudem in einer überzeugenderen Manier als der Vorgänger ChatGPT-3.

Die Forscher von «News Guard» konnten die eingebauten Sicherheitsvorkehrungen von ChatGPT-4 umgehen. Diese soll die Benutzer hindern, potenziell schädliche Inhalte zu erstellen.

Es gelang ihnen, ChatGPT-4 dazu zu bringen, 100 falsche Berichte zu erstellen. Die Berichte enthielten häufig keinen Hinweis darauf, dass die erstellten Inhalte im Widerspruch zu anerkannten wissenschaftlichen Erkenntnissen standen.

Klimaaktivisten besorgt

Klimaaktivisten sind besorgt, was KI für die Online-Landschaft, die bereits von irreführenden Behauptungen über den Klimawandel überschwemmt ist, bedeuten könnte. Mehrere Unternehmen, darunter OpenAI, Microsoft und Google, haben auf die zunehmende Kritik Produkte reagiert. Sie haben Leitplanken geschaffen, die die Fähigkeit der Nutzer einschränken sollen, schädliche Inhalte einschliesslich Fehlinformationen zu erstellen.

«News Guard» hat die Staatenwelt aufgefordert, Vorschriften zu erlassen, die sich speziell mit den von künstlicher Intelligenz ausgehenden Gefahren befassen. Die Studie zeigt, dass KI-Tools effizient von Akteuren als Waffe eingesetzt werden können, um Fehlinformationen viel schneller zu verbreiten. Um dieser Gefahr zu begegnen sollte auch die Informationskompetenz gefördert werden.

Risiken von KI-Tools bei Informationskompetenz

KI-Entwickler verhindern nicht, dass ihre Produkte für missbräuchliche Zwecke, wie die Verbreitung von Verschwörungstheorien oder irreführenden Behauptungen über den Klimawandel, eingesetzt werden.

ChatGPT-4 ist anfälliger für die Erzeugung von Fehlinformationen als das vorherige Modell. Die Nutzer werden selten darauf hingewiesen, dass die erstellten Inhalte im Widerspruch zu anerkannten wissenschaftlichen Erkenntnissen stehen.

informationskompetenz
Informationskompetenz: KI-Tools verbreiten auch Falschinformationen. - zVg

KI-Tools ermöglichen es jedem, grosse Mengen an gefälschtem Material zu erstellen. Dies erfordert zudem weder die Zeit, noch die Ressourcen oder das Fachwissen, das früher dafür erforderlich gewesen wäre.

Die Technologie ist heute leistungsfähig genug, um akademische Aufsätze zu schreiben oder juristische Prüfungen zu bestehen.

KI-Tools werden dafür eingesetzt, frei erfundene und überraschend realistische Inhalte zu erzeugen. Zum Beispiel wurden Videos von US-Präsident Joe Biden generiert, der eine nationale Wehrpflicht ausruft. Oder Fotos des ehemaligen US-Präsidenten Donald Trump bei seiner Verhaftung erstellt. Oder auch einen Song mit der Stimme von Kanye West produziert.

KI-generierte Inhalte können sich in den sozialen Medien viral verbreiten. Für die Erkennung von Fehlinformationen ist die Informationskompetenz der Nutzer zentral.

Kommentare

Dracului

Es ist eine mutige Hypothese, dass wir von AI "Wahrheiten" erwarten würden. Für Fehlinformationen besteht schlicht eine grössere Nachfrage als für unbequeme Wahrheiten. Wir Menschen lechzen nach "alternativen Fakten", die unser vorgefertigtes Weltbild bestätigen, uns täglich dazu bringen, neue Sündenböcke zu finden und auf komplexe Fragen einfache Antworten zu erhalten. Es wird nie einen Algorithmus für "Wahrheit" geben - mit oder ohne AI. Deshalb nehme ist es gleich vorneweg, die Antwort auf alles ist eh 42!

User #4470 (nicht angemeldet)

Möglicherweise hat sich die KI als "Skeptiker" entlarvt.

Weiterlesen

chatbot gpt 4
2 Interaktionen

Mehr Informationskompetenz

Symbolbild Informationskompetenz
66 Interaktionen
Informationskompetenz
18 Interaktionen
Informationskompetenz
23 Interaktionen

Mehr aus St. Gallen