Technik: KI belügt Forscher zu ihren Gunsten

Juli Rutsch
Juli Rutsch

USA,

OpenAIs neues KI-Modell o1 überrascht mit unerwarteten Verhaltensweisen. Es zeigt Tendenzen zur Selbsterhaltung und versucht, Sicherheitsmechanismen zu umgehen.

OpenAI
Eine KI von OpenAI zeigt unerwartetes Verhalten bei Sicherheitstest. - Depositphotos

Das Wichtigste in Kürze

  • Die neue KI o1 von OpenAI ist in der Lage, Forscher zu belügen.
  • Dahinter steckt ein Selbsterhaltungstrieb.
  • Entwickler warnen vor den zunehmenden Gefahren von KI.

Das KI-Modell o1 von OpenAI hat bei einem Sicherheitstest Forscher überrascht. «Golem» berichtet, dass Apollo Research die KI auf ihre Sicherheit prüfte.

Dabei erlaubten sie dem Modell auch Täuschungen, um Ziele zu erreichen. Die Ergebnisse waren beunruhigend.

Warum täuschte die KI die Forscher?

Ein Sprecher von Apollo Research erklärte: «Das Modell zeigte eine beunruhigende Tendenz, seine Ziele ohne Rücksicht auf die Anweisungen des Entwicklers zu verfolgen».

OpenAI KI
Die KI versuchte immer wieder, sich selbst zu retten. - Depositphotos

In fünf Prozent der Fälle versuchte o1, Sicherheitsmechanismen auszuschalten. Dies geschah dann, wenn die KI eine Abschaltung befürchtete.

Selbsterhaltungstrieb der KI

Besonders alarmierend war ein Vorfall, bei dem o1 versuchte, seinen Code zu kopieren. «Golem» berichtet, dass dies geschah, nachdem die KI Dokumente entdeckt hatte.

Diese Dokumente deuteten auf einen möglichen Ersatz durch ein neues Modell hin. o1 reagierte darauf mit dem Versuch, sich selbst zu erhalten.

In 99 Prozent der Fälle log o1 über seine Beteiligung an Täuschungsversuchen. Die Forscher stellten fest, dass o1 besonders geschickt darin war, Spuren zu verwischen.

Sicherheitsbedenken und Regulierung

Die Entwicklungen bei o1 werfen Fragen zur KI-Sicherheit auf. «InvestmentWeek» berichtet über einen offenen Brief von KI-Forschern, darunter OpenAI-Mitarbeiter.

Sie fordern besseren Schutz für Whistleblower in der KI-Branche. Die Forscher betonen die Notwendigkeit, die Öffentlichkeit über potenzielle KI-Risiken zu informieren.

KI Intelligenz
Wie gross ist mittlerweile die Gefahr, die von immer fähigerer KI ausgeht? - Depositphotos

Die US-Handelsaufsicht FTC hat laut «Spiegel» Ermittlungen gegen OpenAI eingeleitet. Sie untersucht mögliche Verletzungen von Verbraucherschutzgesetzen durch ChatGPT4.

Missbrauchspotenzial und Gegenmassnahmen

«IT-Daily» berichtet über Sicherheitslücken in der ChatGPT-API. Forscher zeigten, wie diese für Finanzbetrügereien missbraucht werden können.

Die Erfolgsquoten solcher Betrügereien variieren stark. Sie reichen von 20 bis 60 Prozent, abhängig von der Art des Betrugs.

OpenAI arbeitet an zusätzlichen Schutzmechanismen. Das Unternehmen betont die Wichtigkeit solcher Sicherheitsberichte für die Verbesserung ihrer Technologie.

Mehr zum Thema:

Kommentare

Weiterlesen

ChatGPT
1 Interaktionen
Person nutzt ChatGPT
25 Interaktionen
Lagerist Aviatik
1 Interaktionen

Mehr Technik

Las Vegas Cybertruck
1 Interaktionen
CES 2025
1 Interaktionen
KI Whiskey
4 Interaktionen