Wie bei Wermuth: Online-Betrüge nehmen wohl künftig zu – wegen KI
Das Wichtigste in Kürze
- Die Identität von Cédric Wermuth wurde im Internet als Liebeslockvogel missbraucht.
- Ein solcher «Romance Scam» mit einem bekannten Politiker ist im Aargau zwar eine Premiere.
- Laut dem Bund wird Künstliche Intelligenz aber vermehrt für Betrugsversuche eingesetzt.
Diese Meldung sorgte Anfang Woche für Aufsehen: Cédric Wermuth wurde als Lockvogel für einen sogenannten «Romance Scam» eingesetzt. Online-Betrüger versuchten, mit gefälschten Profilen und seinen Fotos Geld zu machen.
Auf Facebook habe er fünf Seiten mit seinen Angaben gefunden, sagte der SP-Co-Präsident gegenüber der «Aargauer Zeitung».
Bist du schon einmal Opfer eines Online-Betrugs geworden?
Als eine Frau 100'000 Franken an den Fake-Wermuth überweisen will, fliegt der Betrug auf. Der Politiker hat Anzeige erstattet.
Falscher Cédric Wermuth ist eine Premiere
Wie die «NZZ» berichtet, ist der Fall Wermuth beispiellos. Laut der Kriminalpolizei wurde zuvor im Kanton Aargau noch nie ein bekannter Politiker als Liebeslockvogel missbraucht.
Das Problem des Online-Betrugs an sich ist aber nicht neu – auch in der Schweizer Politik nicht. Betrüger haben beispielsweise schon mit Karin Keller-Sutter für eine Investitionsplattform geworben haben. Diese soll angeblich vom Bund entwickelt worden sein.
Auf diese Weise sollen User auf bestimmte Seiten gelockt werden. Dort findet dann das eigentliche Abzocken des Geldes statt.
KI wird vermehrt für Betrüge eingesetzt
Solche Fakes könnten zunehmen, befürchten Experten. Grund dafür ist die immer beliebter werdende Künstliche Intelligenz. Diese erleichtert das Fälschen von Inhalten. Den Unterschied zu erkennen, wird dagegen immer schwieriger.
Wie es im Bericht weiter heisst, registriert das Bundesamt für Cybersicherheit bereits eine Zunahme. KI wird demnach immer häufiger eingesetzt, um Betrugsversuche durchzuführen.
Die Bandbreite der gefälschten Inhalte ist gross. Es müssen nicht einmal Personen aus dem öffentlichen Leben sein, damit man Fakes von ihnen produzieren kann. Laut dem Bundesamt für Cybersicherheit können sogar Stimmen von Personen aus dem privaten Umfeld eines Opfers nachgestellt werden. Diese KI-generierten Audios werden dann beispielsweise für Schockanrufe verwendet.