Sogenannte Deepfakes sind für Menschen in der Schweiz kaum als Fälschungen zu erkennen. Für die manipulierten Videos fehlen notwendige Schutzvorkehrungen.
künstliche intelligenz
Mit Deepfakes können täuschend echte Videos – etwa von Politikern – erzeugt werden. - Keystone

Das Wichtigste in Kürze

  • Mit Künstlicher Intelligenz generierte Inhalte sind schwer als solche zu erkennen.
  • Dies beweist ein Experiment der Stiftung für Technologiefolgen-Abschätzung einmal mehr.
  • Teilnehmer waren unzureichend gewappnet – wie so viele in der Schweiz.
  • Deswegen schlagen die Forschenden eine Reihe von Massnahmen vor.
Ad

Die Schweiz ist unzureichend gegen mit Künstlicher Intelligenz (KI) manipulierte Videos gewappnet. Um die schädliche Auswirkung der sogenannten Deepfake-Technologie zu begrenzen, ist eine Kombination verschiedener Massnahmen notwendig. Dies teilt die Stiftung für Technologiefolgen-Abschätzung (TA-Swiss) am Dienstag in einem Bericht mit.

«Es ist über die Jahre zunehmend einfacher geworden, Deepfakes zu erstellen», sagt der an der Studie beteiligte Murat Karaboga.

Es gebe zahlreiche Programme, um mit KI Tonaufnahmen, Bilder und Videos zu erstellen oder zu manipulieren. Damit können Inhalte erschaffen werden, in denen eine Person etwas tut oder sagt, was sie nie getan oder gesagt hat.

Bereitet dir Künstliche Intelligenz (KI) Sorge?

Genutzt werden solche Inhalte unter anderem von Kriminellen, die für Schock- und Erpressungsanrufe Stimmen von Privatpersonen kopieren. Identitätsdiebstahl, Rufschädigung und die Verbreitung von Falschinformationen sind Risiken von Deepfakes. Sowie pornografische Inszenierungen ohne Einwilligung der betroffenen Person.

Gut gefälschte Videos nicht als Deepfakes erkennbar

Wie die Studie zeigt, sind Menschen kaum in der Lage, Deepfakes als Fälschungen zu entlarven. Teilnehmern gelang es in einem Experiment nicht, gut gefälschte Videos zu erkennen. Auch nicht, nachdem ihnen eine Anleitung dazu gegeben wurde.

Erkennen kann man Deepfakes unter anderem so: An Haaren, die nicht natürlich aussehen oder an Bewegungen, die etwas hölzern wirken.

Einzig Menschen mit einer Affinität zu neuen Medien schnitten im Experiment etwas besser ab. Allerdings schnitten auch Detektor-Programme, auf die laut den Forschenden viel Hoffnung gelegt wird, nicht viel besser ab. «Wir kamen zum Schluss, dass diese weder zuverlässig noch zugänglich sind», sagt Karaboga.

Mann vor Computer
Die Technik lässt Deepfakes immer besser werden.
Deepfake-Video Zuckerberg
Menschen sind kaum in der Lage, sie als Fälschungen zu entlarven. (Symbolbild: Screenshot aus dem Deepfake-Video mit Mark Zuckerberg.)
Technologie
Gefragt ist unteranderem Medien- und Informationskompetenz, sagen Forschende. (Symbolbild)

Um gegen schädliche Auswirkungen anzukämpfen, schlagen die Forschenden daher eine Reihe von Massnahmen vor. Einige Rechtsgrundlagen existieren zwar, sind aber teilweise nur schwer durchsetzbar. Die grossen Onlineplattformen, auf denen Deepfakes kursieren, befinden sich im Ausland. Weswegen die Verantwortlichen für Vergehen nicht immer identifizierbar sind, sagt Nula Frei von der Fernuni Schweiz.

Laut TA-Swiss sollte der Staat gegenüber Online-Plattformen durchsetzen, dass für Personen schädliche Deepfakes gelöscht werden. Auch fordern sie die Einrichtung von Opferberatungsstellen. Weiter seien Bildungen zur Medien- und Informationskompetenz oder die Nutzung fortschrittlicher Authentifizierungsverfahren Möglichkeiten.

Ausserdem wird eine Selbstregulierung der PR- und Werbebrache empfohlen. Und Journalisten sind gefordert. So empfehlen die Forschenden die Nutzung forensischer Verifikationsmethoden in den Redaktionen.

Verbot von Deepfakes kommt nicht infrage

Ein Verbot dieser Technologie kommt für die Forschenden jedoch nicht in Frage. Deepfakes bieten laut TA-Swiss auch zahlreiche Chancen. Gerade im Bereich der Unterhaltungsindustrie würden Deepfakes vielfältige positive Möglichkeiten bieten, hiess es im Bericht. Beispielsweise für Synchronfassungen von Filmen. Mit Unterstützung von KI lassen sich die Lippenbewegungen der Schauspieler an die jeweilige Sprache anpassen.

Denkst du, dass du in der Lage bist, Deepfakes zu erkennen?

Sogar die Polizei und Strafverfolgungsbehörden erhoffen sich von Deepfakes neue Möglichkeiten bei der Verbrechensbekämpfung. Zum Beispiel: Zur Rekonstruktion von Tatorten oder Tathergängen.

Ad
Ad

Mehr zum Thema:

InformationskompetenzSchauspielerStaatStudie