Hacker

ChatGPT von russischen Hackern ins Visier genommen

Alexander König
Alexander König

USA,

Die künstliche Intelligenz «ChatGPT» lässt sich nicht nur für Gutes nutzen. So versuchen russische Hacker, die KI für Hassreden und Propaganda zu missbrauchen.

Cyberkriminalität chatgpt
Hacker versuchen die künstliche Intelligenz ChatGPT zu missbrauchen. - Fachhochschule Nordwestschweiz

Das Wichtigste in Kürze

  • Die KI ChatGPT fertigt auf Anweisung beliebige Texte zu komplexen Themen an.
  • Das sorgt für Missbrauch: etwa für Hassreden und Propaganda seitens russischer Hacker.

Die künstliche Intelligenz ChatGPT ist derzeit in aller Munde. Sie bietet einerseits zahlreiche kreative Einsatzmöglichkeiten. Andererseits warnen Experten auch vor einem Risiko.

Dabei ist nicht nur von Plagiaten bei Schularbeiten die Rede. Auch Hassreden und sogar Propaganda können mithilfe von der Sprachsoftware generiert werden.

Die Entwickler hinter ChatGPT versuchen gerade, letzteres mit aller Macht zu verhindern. So wurden etwa regionale Schranken eingebaut, damit beispielsweise aus Russland nicht auf die KI zugegriffen werden kann.

Wie der Computer-Sicherheitsanbieter «Checkpoint» nun herausfand, arbeiten russische Hacker jedoch mit Hochdruck daran, diese Schranken zu durchbrechen.

Sie seien jedoch nicht die einzigen, welche sich durch «Auskundschaften des Codes» Zugang zu ChatGPT verschaffen. Pete Nicoletti, Sicherheitsverantwortlicher der Firma, erklärt: «Gute und schlechte Akteure sind am Zug.»

Umgehung von Sicherheitsvorkehrungen bei ChatGPT ist einfach

Auch auf Reddit – dem grössten Internet-Forum der Welt – finden sich Daten, mit denen sich ChatGPT austricksen lassen soll. So könnten Vorgaben von ChatGPT zu Hassreden umgangen werden. Auch Propaganda liesse sich damit generieren.

Ob es den russischen Angreifern bereits gelungen ist, die Sprach-KI für Propaganda-Zwecke oder Hassreden zu benutzten, ist unklar.

Wie Screenshots aus diversen Foren zeigen, interessieren sich russische Hacker aber auch aus ganz anderen Gründen für die Software: «Ich versuche, meinen eigenen Telegram-Bot-Shop mit ChatGPT zu machen», schreibt einer.

Das heisst, er plant im beliebten Messenger-Dienst einen vollautomatisierten Onlineshop zu eröffnen, der Kunden mittels KI betreut. Telegram-Shops werden oft mit kriminellen Motiven betrieben.

Nutzen Sie ChatGPT?

So warnt das Sicherheitsunternehmen «Checkpoint» auch vor Betrugsversuchen, in denen sensible Daten abgegriffen werden sollen. Die Rede ist vom sogenannten «Phishing».

Eine Nachricht fängt so an: «Sehr geehrter Kunde, wir haben einen unautorisierten Login-Versuch auf ihr Bankkonto festgestellt.» Im Anschluss muss die «Identität des Kunden» verifiziert werden.

Darum heisst es: «Bitte klicken Sie auf folgenden Link (...), um wieder Zugang zu ihrem Bankkonto zu erhalten.» Diese Betrugsmasche ist altbekannt. In diesem Fall wurde sie jedoch von ChatGPT verfasst.

Nicoletti warnt: «So können (diese Phishing-Attacken) gezielt auf Nutzer zugeschnitten werden (...) und eine viel spezifischere Sprache verwenden, um sie für jedes einzelne Opfer relevant erscheinen zu lassen.»

Kommentare

Weiterlesen

ChatGPT Innovation
«Alarmstufe Rot»
Pflegefachfrau Ausbildung Aufgaben ChatGPT
163 Interaktionen
Experten alarmiert
ChatGPT Innovation
72 Interaktionen
Gefahren
20250404_Paid Oben-Links (13)
Besserer Sex

MEHR IN NEWS

gaza
Warten an Grenze
orban
1 Interaktionen
Sicherheit
2 Interaktionen
Wohnhäuser getroffen

MEHR HACKER

t-mobile usa
2 Interaktionen
Erpressung
Cistec
23 Interaktionen
Fast-«Katastrophe»
Lazarus
2 Interaktionen
Kryptobörse
Rämibühl Zürich
1 Interaktionen
In der Stadt Zürich

MEHR AUS USA

Trump Netanjahu
19 Interaktionen
Weisses Haus
dirty dancing
15 Interaktionen
Sieht anders aus
1 Interaktionen
Washington
Jessica Simpson
15 Interaktionen
«Wie Honig»