Schweizer können Deepfakes nicht von Realem unterscheiden
Sogenannte Deepfakes sind für Menschen in der Schweiz kaum als Fälschungen zu erkennen. Für die manipulierten Videos fehlen notwendige Schutzvorkehrungen.
Das Wichtigste in Kürze
- Mit Künstlicher Intelligenz generierte Inhalte sind schwer als solche zu erkennen.
- Dies beweist ein Experiment der Stiftung für Technologiefolgen-Abschätzung einmal mehr.
- Teilnehmer waren unzureichend gewappnet – wie so viele in der Schweiz.
- Deswegen schlagen die Forschenden eine Reihe von Massnahmen vor.
Die Schweiz ist unzureichend gegen mit Künstlicher Intelligenz (KI) manipulierte Videos gewappnet. Um die schädliche Auswirkung der sogenannten Deepfake-Technologie zu begrenzen, ist eine Kombination verschiedener Massnahmen notwendig. Dies teilt die Stiftung für Technologiefolgen-Abschätzung (TA-Swiss) am Dienstag in einem Bericht mit.
«Es ist über die Jahre zunehmend einfacher geworden, Deepfakes zu erstellen», sagt der an der Studie beteiligte Murat Karaboga.
Es gebe zahlreiche Programme, um mit KI Tonaufnahmen, Bilder und Videos zu erstellen oder zu manipulieren. Damit können Inhalte erschaffen werden, in denen eine Person etwas tut oder sagt, was sie nie getan oder gesagt hat.
Genutzt werden solche Inhalte unter anderem von Kriminellen, die für Schock- und Erpressungsanrufe Stimmen von Privatpersonen kopieren. Identitätsdiebstahl, Rufschädigung und die Verbreitung von Falschinformationen sind Risiken von Deepfakes. Sowie pornografische Inszenierungen ohne Einwilligung der betroffenen Person.
Gut gefälschte Videos nicht als Deepfakes erkennbar
Wie die Studie zeigt, sind Menschen kaum in der Lage, Deepfakes als Fälschungen zu entlarven. Teilnehmern gelang es in einem Experiment nicht, gut gefälschte Videos zu erkennen. Auch nicht, nachdem ihnen eine Anleitung dazu gegeben wurde.
Erkennen kann man Deepfakes unter anderem so: An Haaren, die nicht natürlich aussehen oder an Bewegungen, die etwas hölzern wirken.
Einzig Menschen mit einer Affinität zu neuen Medien schnitten im Experiment etwas besser ab. Allerdings schnitten auch Detektor-Programme, auf die laut den Forschenden viel Hoffnung gelegt wird, nicht viel besser ab. «Wir kamen zum Schluss, dass diese weder zuverlässig noch zugänglich sind», sagt Karaboga.
Um gegen schädliche Auswirkungen anzukämpfen, schlagen die Forschenden daher eine Reihe von Massnahmen vor. Einige Rechtsgrundlagen existieren zwar, sind aber teilweise nur schwer durchsetzbar. Die grossen Onlineplattformen, auf denen Deepfakes kursieren, befinden sich im Ausland. Weswegen die Verantwortlichen für Vergehen nicht immer identifizierbar sind, sagt Nula Frei von der Fernuni Schweiz.
Laut TA-Swiss sollte der Staat gegenüber Online-Plattformen durchsetzen, dass für Personen schädliche Deepfakes gelöscht werden. Auch fordern sie die Einrichtung von Opferberatungsstellen. Weiter seien Bildungen zur Medien- und Informationskompetenz oder die Nutzung fortschrittlicher Authentifizierungsverfahren Möglichkeiten.
Ausserdem wird eine Selbstregulierung der PR- und Werbebrache empfohlen. Und Journalisten sind gefordert. So empfehlen die Forschenden die Nutzung forensischer Verifikationsmethoden in den Redaktionen.
Verbot von Deepfakes kommt nicht infrage
Ein Verbot dieser Technologie kommt für die Forschenden jedoch nicht in Frage. Deepfakes bieten laut TA-Swiss auch zahlreiche Chancen. Gerade im Bereich der Unterhaltungsindustrie würden Deepfakes vielfältige positive Möglichkeiten bieten, hiess es im Bericht. Beispielsweise für Synchronfassungen von Filmen. Mit Unterstützung von KI lassen sich die Lippenbewegungen der Schauspieler an die jeweilige Sprache anpassen.
Sogar die Polizei und Strafverfolgungsbehörden erhoffen sich von Deepfakes neue Möglichkeiten bei der Verbrechensbekämpfung. Zum Beispiel: Zur Rekonstruktion von Tatorten oder Tathergängen.