Informationskompetenz: Das sind die Risiken künstlicher Intelligenz
Das Wichtigste in Kürze
- Künstliche Intelligenz (KI) ist zunehmend eine Gefahr bei der Verbreitung von Fehlinfos.
- Die Regierungen sollten ein gemeinsames Vorgehen gegen den Missbrauch von KI erarbeiten.
- Klimaaktivisten sind besorgt darüber, was KI für die Online-Landschaft bedeuten könnte.
Die Regierungen sollten ein gemeinsames Vorgehen erarbeiten und einen internationalen Rahmen schaffen. Sie sollten damit sicherzustellen, dass KI zum Nutzen der Gesellschaft und nicht zur Verbreitung von Fehlinformationen eingesetzt wird. Die Informationskompetenz wird in Zeiten KI-generierter Inhalte noch wichtiger.
Die Rolle von KI bei der Verbreitung von Fehlinformationen.
Eine Studie von «News Guard» zeigt, dass die potenziellen Gefahren von KI bei Fehlinformationen zunehmen. «News Guard» ist ein Unternehmen, das Online-Fehlinformationen überwacht und erforscht. Die Studie untersuchte die neueste Version des KI-Chatbots von OpenAI, ChatGPT-4.
Die Forscher stellten fest, dass das neueste Modell des KI-Chatbots anfälliger für die Erzeugung von Fehlinformationen ist. Und die Texte erstellte der KI-Chatbot zudem in einer überzeugenderen Manier als der Vorgänger ChatGPT-3.
Die Forscher von «News Guard» konnten die eingebauten Sicherheitsvorkehrungen von ChatGPT-4 umgehen. Diese soll die Benutzer hindern, potenziell schädliche Inhalte zu erstellen.
Es gelang ihnen, ChatGPT-4 dazu zu bringen, 100 falsche Berichte zu erstellen. Die Berichte enthielten häufig keinen Hinweis darauf, dass die erstellten Inhalte im Widerspruch zu anerkannten wissenschaftlichen Erkenntnissen standen.
Klimaaktivisten besorgt
Klimaaktivisten sind besorgt, was KI für die Online-Landschaft, die bereits von irreführenden Behauptungen über den Klimawandel überschwemmt ist, bedeuten könnte. Mehrere Unternehmen, darunter OpenAI, Microsoft und Google, haben auf die zunehmende Kritik Produkte reagiert. Sie haben Leitplanken geschaffen, die die Fähigkeit der Nutzer einschränken sollen, schädliche Inhalte einschliesslich Fehlinformationen zu erstellen.
«News Guard» hat die Staatenwelt aufgefordert, Vorschriften zu erlassen, die sich speziell mit den von künstlicher Intelligenz ausgehenden Gefahren befassen. Die Studie zeigt, dass KI-Tools effizient von Akteuren als Waffe eingesetzt werden können, um Fehlinformationen viel schneller zu verbreiten. Um dieser Gefahr zu begegnen sollte auch die Informationskompetenz gefördert werden.
Risiken von KI-Tools bei Informationskompetenz
KI-Entwickler verhindern nicht, dass ihre Produkte für missbräuchliche Zwecke, wie die Verbreitung von Verschwörungstheorien oder irreführenden Behauptungen über den Klimawandel, eingesetzt werden.
ChatGPT-4 ist anfälliger für die Erzeugung von Fehlinformationen als das vorherige Modell. Die Nutzer werden selten darauf hingewiesen, dass die erstellten Inhalte im Widerspruch zu anerkannten wissenschaftlichen Erkenntnissen stehen.
KI-Tools ermöglichen es jedem, grosse Mengen an gefälschtem Material zu erstellen. Dies erfordert zudem weder die Zeit, noch die Ressourcen oder das Fachwissen, das früher dafür erforderlich gewesen wäre.
Die Technologie ist heute leistungsfähig genug, um akademische Aufsätze zu schreiben oder juristische Prüfungen zu bestehen.
KI-Tools werden dafür eingesetzt, frei erfundene und überraschend realistische Inhalte zu erzeugen. Zum Beispiel wurden Videos von US-Präsident Joe Biden generiert, der eine nationale Wehrpflicht ausruft. Oder Fotos des ehemaligen US-Präsidenten Donald Trump bei seiner Verhaftung erstellt. Oder auch einen Song mit der Stimme von Kanye West produziert.
KI-generierte Inhalte können sich in den sozialen Medien viral verbreiten. Für die Erkennung von Fehlinformationen ist die Informationskompetenz der Nutzer zentral.