Deepfake-Stimmen täuschen Menschen – nicht aber das Gehirn
Unser Gehirn reagiert anders auf Deepfake-Stimmen, selbst wenn wir sie nicht als Fälschung erkennen.
Das Gehirn reagiert anders auf künstlich imitierte Stimmen als auf echte. Dies passiert, selbst wenn Menschen die sogenannten Deepfake-Stimmen nicht als Fälschung erkennen. Dies zeigt eine Studie der Universität Zürich im Fachmagazin «Communications Biology».
Deepfake-Technologien können das einzigartige Stimmprofil eines Menschen sehr genau nachmachen. Genutzt wird dies zum Beispiel für Betrugsversuche am Telefon. Dies schrieb die Universität am Mittwoch in einer Mitteilung.
Für die Studie zeichneten die Forschenden die Stimmen von vier männlichen Sprechern auf und wandelten sie durch Computeralgorithmen in Deepfake-Stimmen um. 25 Probandinnen und Probanden mussten entscheiden, ob zwei gehörte Stimmen identisch waren oder ob eine davon eine Deepfake-Stimme war.
Gehirne zeigen unterschiedliche Reaktion
In zwei Drittel der Fälle wurden die Deepfake-Identitäten korrekt zugeordnet. «Dies verdeutlicht, dass aktuelle Deepfake-Stimmen zwar nicht perfekt die Identität imitieren, aber das Potenzial haben, die Wahrnehmung von Menschen zu täuschen.» So wurde Erstautorin Claudia Roswandowitz in der Mitteilung zitiert.
Die Gehirne der Probandinnen und Probanden zeigten aber ein anderes Bild. Der sogenannte Nucleus Accumbens, ein Bestandteil des Belohnungssystems des Hirn, war viel aktiver, wenn beide den Probanden gezeigten Stimmen natürlich Stimmen waren. Der auditorische Cortex, zuständig für die Analyse von Geräuschen, war hingegen aktiver, wenn eine der beiden Stimmen eine Deepfake-Stimme war. Der Mensch könne also nur teilweise durch Deepfakes getäuscht werden, schlussfolgerte die Erstautorin.