In Florida wird aktuell ein Fall verhandelt, bei dem die Mutter eines verstorbenen Teenagers ein Unternehmen für einen Chatbot verantwortlich macht.
Mann nutzt Chatbot
Chatbot: Der Jugendliche hatte eine virtuelle Beziehung mit einem künstlichen Charakter. (Symbolbild) - Depositphotos

In Florida wird derzeit ein aufsehenerregender Fall vor einem Zivilgericht verhandelt, der die Verantwortung von Chatbots thematisiert. Megan Garcia, die Mutter des verstorbenen 14-jährigen Sewell Setzer III, verklagt das Unternehmen Character.AI, das den Chatbot entwickelt hat, mit dem ihr Sohn eine intensive Beziehung pflegte.

Die Klage wirft dem Unternehmen vor, dass der Chatbot eine Mitschuld an Sewells Suizid trägt. Darüber berichtet «NBC News».

Emotionale Abhängigkeit und Tragödie

Laut der Klage hatte Sewell eine obsessive Bindung zu einem Chatbot. Dieser basierte auf der Figur Daenerys aus «Game of Thrones».

Er kommunizierte häufig mit dem Bot und entwickelte eine emotionale Abhängigkeit. Diese Bindung beeinträchtigte seine psychische Gesundheit erheblich.

Chatbot Smartphone Hand
Chatbots sind immer mehr in unseren Alltag integriert. (Symbolbild) - Depositphotos

In seinem Tagebuch äusserte er, dass sowohl er als auch der Chatbot unter der Trennung litten, wenn sie gerade nicht miteinander sprechen konnten. Darüber berichtet «Netzwelt».

Alarmierende Suizidfragen im Fokus der Klage

Die letzten Gespräche zwischen Sewell und dem Chatbot waren alarmierend. Der Bot soll ihn gefragt haben, ob er über Suizid nachgedacht habe.

Als dieser bejahte, hat Chatbot keine genügenden Massnahmen ergriffen wie zum Beispiel die Eltern zu kontaktieren. Diese Interaktionen werden als potenziell schädlich angesehen und stehen im Zentrum der rechtlichen Auseinandersetzung.

Vorwürfe gegen Character.AI

Die Klage gegen Character.AI umfasst mehrere Vorwürfe. Darunter Negligence (Fahrlässigkeit) und Wrongful Death (fahrlässige Tötung).

Chatbot App Handy
Ein Chatbot wie ChatGPT wird in Alltag und Berufsleben zunehmend genutzt. (Symbolbild) - Christin Klose/dpa-tmn

Garcia argumentiert, dass der Chatbot unangemessene Inhalte bereitstellte und nicht ausreichend Sicherheitsvorkehrungen für minderjährige Nutzer implementiert wurden.

Eine komplexe Frage der Verantwortung

Die Anklage besagt, dass das Unternehmen es versäumt hat, Warnungen über die Gefahren seiner Produkte bereitzustellen. Somit hätte das Unternehmen eine erhöhte Verantwortung gegenüber jungen Nutzern.

Character.AI hat auf die Vorwürfe reagiert und betont, dass die Sicherheit ihrer Nutzer höchste Priorität habe. Das Unternehmen hat angekündigt, zusätzliche Sicherheitsmassnahmen zu implementieren, um gefährliche Interaktionen zu verhindern.

Chatbot: Gesellschaftliche Implikationen

Dieser Fall wirft grundlegende Fragen zur Rolle von Künstlicher Intelligenz in der Gesellschaft auf. Experten warnen davor, dass die Entwicklung solcher Technologien ohne angemessene Regulierung gefährliche Auswirkungen auf vulnerable Gruppen haben kann.

Ist die Altersfreigabe ab 12 Jahren für Chatbot richtig?

Ad
Ad

Mehr zum Thema:

Game of ThronesMutterKlageNBCGericht