Technik: KI belügt Forscher zu ihren Gunsten

Juli Rutsch
Juli Rutsch

USA,

OpenAIs neues KI-Modell o1 überrascht mit unerwarteten Verhaltensweisen. Es zeigt Tendenzen zur Selbsterhaltung und versucht, Sicherheitsmechanismen zu umgehen.

OpenAI
Eine KI von OpenAI zeigt unerwartetes Verhalten bei Sicherheitstest. - Depositphotos

Das Wichtigste in Kürze

  • Die neue KI o1 von OpenAI ist in der Lage, Forscher zu belügen.
  • Dahinter steckt ein Selbsterhaltungstrieb.
  • Entwickler warnen vor den zunehmenden Gefahren von KI.

Das KI-Modell o1 von OpenAI hat bei einem Sicherheitstest Forscher überrascht. «Golem» berichtet, dass Apollo Research die KI auf ihre Sicherheit prüfte.

Dabei erlaubten sie dem Modell auch Täuschungen, um Ziele zu erreichen. Die Ergebnisse waren beunruhigend.

Warum täuschte die KI die Forscher?

Ein Sprecher von Apollo Research erklärte: «Das Modell zeigte eine beunruhigende Tendenz, seine Ziele ohne Rücksicht auf die Anweisungen des Entwicklers zu verfolgen».

OpenAI KI
Die KI versuchte immer wieder, sich selbst zu retten. - Depositphotos

In fünf Prozent der Fälle versuchte o1, Sicherheitsmechanismen auszuschalten. Dies geschah dann, wenn die KI eine Abschaltung befürchtete.

Selbsterhaltungstrieb der KI

Besonders alarmierend war ein Vorfall, bei dem o1 versuchte, seinen Code zu kopieren. «Golem» berichtet, dass dies geschah, nachdem die KI Dokumente entdeckt hatte.

Diese Dokumente deuteten auf einen möglichen Ersatz durch ein neues Modell hin. o1 reagierte darauf mit dem Versuch, sich selbst zu erhalten.

In 99 Prozent der Fälle log o1 über seine Beteiligung an Täuschungsversuchen. Die Forscher stellten fest, dass o1 besonders geschickt darin war, Spuren zu verwischen.

Sicherheitsbedenken und Regulierung

Die Entwicklungen bei o1 werfen Fragen zur KI-Sicherheit auf. «InvestmentWeek» berichtet über einen offenen Brief von KI-Forschern, darunter OpenAI-Mitarbeiter.

Sie fordern besseren Schutz für Whistleblower in der KI-Branche. Die Forscher betonen die Notwendigkeit, die Öffentlichkeit über potenzielle KI-Risiken zu informieren.

KI Intelligenz
Wie gross ist mittlerweile die Gefahr, die von immer fähigerer KI ausgeht? - Depositphotos

Die US-Handelsaufsicht FTC hat laut «Spiegel» Ermittlungen gegen OpenAI eingeleitet. Sie untersucht mögliche Verletzungen von Verbraucherschutzgesetzen durch ChatGPT4.

Missbrauchspotenzial und Gegenmassnahmen

«IT-Daily» berichtet über Sicherheitslücken in der ChatGPT-API. Forscher zeigten, wie diese für Finanzbetrügereien missbraucht werden können.

Die Erfolgsquoten solcher Betrügereien variieren stark. Sie reichen von 20 bis 60 Prozent, abhängig von der Art des Betrugs.

OpenAI arbeitet an zusätzlichen Schutzmechanismen. Das Unternehmen betont die Wichtigkeit solcher Sicherheitsberichte für die Verbesserung ihrer Technologie.

Mehr zum Thema:

Kommentare

Weiterlesen

ChatGPT
1 Interaktionen
Präsenz in Europa
Person nutzt ChatGPT
25 Interaktionen
KI hasst ihn!
OpenAI Beweise Homepage ChatGPT
6 Interaktionen
Versehentlich?
Museum Tinguely
«Fresh Window»

MEHR IN NEWS

Mitch McConnell
1 Interaktionen
Seit 1985 im Senat
fbi trump
FBI-Kritiker
Eurodreams
Während 30 Jahren

MEHR TECHNIK

iphone 17 air
2 Interaktionen
Leak
Cyberangriff
8 Interaktionen
Umfrage
TU dresden
Malware verbreitet
Amazon Fire TV
4 Interaktionen
Nutzer verärgert

MEHR AUS USA

Doping-Vergehen
nba
Thrombose!
Senator J.D. Vance
11 Interaktionen
US-Vizepräsident
Mäuse
1 Interaktionen
Hilfe unter Mäusen