Snapchat: Heftige Kritik am neuen KI-Chatbot
Auf Snapchat kann seit Kurzem mit einem KI-Chatbot kommuniziert werden. Das neue Feature kommt nicht nur gut an – und sorgt für Fragen.
Das Wichtigste in Kürze
- Seit Kurzem ist der Snapchat-Chatbot «My AI» für alle Nutzer verfügbar.
- In den sozialen Medien gibt es Kritik – einige berichten von unangenehmen Konversationen.
- Ein Datenschutz-Experte und ein Datenwissenschaftler nehmen gegenüber Nau.ch Stellung.
«Sag ‹Hi› zu ‹My AI›» – diese Meldung ploppte kürzlich bei Nutzerinnen und Nutzern der App Snapchat auf. Der Instant-Messaging-Dienst springt damit auf den ChatGPT-Trend auf. Neu kann mit einer künstlichen Intelligenz (KI) gechattet werden.
Bei Nutzerinnen und Nutzern sorgt der experimentelle Chatbot allerdings nicht gerade für Begeisterung – im Gegenteil. Wie das Portal «Techcrunch» berichtet, stören sich viele daran, dass der Bot nicht aus der Chat-Übersicht entfernt werden kann. Es hagelt Negativ-Bewertungen im App Store und bei Google Play.
Nutzerschaft empfindet Chatbot als übergriffig
Auch auf Tiktok finden sich zahlreiche Videos von Nutzern, die den Chatbot als übergriffig empfinden. Die KI sehe Sachen, die gar nicht auf verschickten Bildern zu sehen sei. Oder sie wisse vom Standort des Benutzers, behaupte aber das Gegenteil.
Wie problematisch ist also dieser neue Chatbot? «Künstliche Intelligenz kann eine Gefahr darstellen», sagt Datenschutz-Experte Martin Steiger zu Nau.ch. Vor allem für junge Menschen, die sich den Grenzen und Möglichkeiten nicht bewusst seien.
Die Nutzerinnen und Nutzer würden in Tiktok-Videos offensichtlich ihre ersten und verstörenden Erfahrungen mit KI-Chatbots verarbeiten. «Es ist geradezu klassisch, dass ein KI-Chatbot fabuliert oder gar lügt», so Steiger. «Im besten Fall fördern diese Erfahrungen die Kompetenz im Umgang mit KI.»
KI empfindet nicht
Auch Datenwissenschaftler Elliott Ash von der ETH Zürich versteht die negativen Reaktionen. Die noch unbekannte neue Technologie habe «menschenähnliche Eigenschaften». Das könne dazu führen, dass Chatbots «als empfindungsfähig wahrgenommen werden. Aber das sind sie nicht.»
Es seien einige nicht perfekte Sicherheitsmassnahmen in Kraft, die verhindern, dass die KI sagt, dass sie den Standort kennt. «Dies liegt zum Teil auch daran, dass diese ungewöhnlichen Arten von Gesprächen nicht im Datensatz auftauchten, aus dem die KI gelernt hat, und daher unvorhersehbare Ergebnisse liefert.»
Des Weiteren sei das, was die KI sage, in gewisser Weise auch zufällig. «Wenn sie also etwas Unsinniges sagt, wird der Mensch dies so interpretieren, dass sie etwas weiss, was sie nicht tut.» Beispielsweise, dass die KI sehe, was ausserhalb eines gesendeten Bilds geschehe.
«Kontrolle von KI-Funktionen ist ein Problem»
Hat Snapchat seinen Chatbot nun überhaupt unter Kontrolle? «Ja», sagt Elliott Ash. Snapchat, OpenAI oder Microsoft hätten fortgeschrittene, aber noch unvollkommene Sicherheitsmassnahmen integriert. Damit solle beeinflusst werden, was der Chatbot sagt.
Doch die KI funktioniere gut, weil sie kreativ sei. «Kreativität erfordert, dass sie oft Antworten liefert, die unerwartet sind – genau wie kreative Menschen.» Einigen Usern könne das Angst machen.
Dass im aktuellen Hype jetzt aber jede App und jede Plattform glaube, ihrer Nutzerschaft entsprechende Funktionen anbieten zu müssen, findet Datenschutz-Experte Steiger durchaus problematisch. «Die Funktionen werden übereilt und unreif ausgerollt, was zu Qualitätsproblemen führt.»
Das sei auch bei Snapchat ersichtlich: «Die Kontrolle von KI-Funktionen ist tatsächlich ein Problem, denn unerwünschte Ergebnisse müssen aufwendig gefiltert werden.» In Kürze werde es deshalb – mindestens in der Europäischen Union – eine entsprechende Regulierung geben.
KI sei bereits seit längerem im Einsatz – allerdings nur im Hintergrund. Mit «My AI» dürfte Snapchat nicht die einzige Social-Media-Plattform bleiben, die KI-Funktionen für seine Nutzerinnen und Nutzer ausrolle.
«Probleme, wenn Menschen die KI als Menschen wahrnehmen»
Gleich sieht es Elliott Ash. KI-Assistenten würden bald «allgegenwärtig» sein. Es würden sich neue Möglichkeiten bieten, gleichzeitig aber auch viele der Probleme und Ängste rund um diese Technologien zunehmen.
«Insbesondere entstehen viele Probleme, wenn Menschen die KI-Assistenten vermenschlichen und sie als Menschen wahrnehmen, die Vorlieben und Ziele haben.» Geschehe dies, könne die KI sehr überzeugend sein und Menschen in Schwierigkeiten bringen, «beispielsweise indem sie manipuliert wird».
Doch die KI habe solche Ziele nicht. «Daher hoffe ich, dass wir über diese Systeme besser aufgeklärt werden und strenge Regeln einführen, um zu verhindern, dass Menschen die KIs fälschlicherweise als Menschen darstellen.»