So werden Chatroboter zu Rassisten
Das Wichtigste in Kürze
- Nicht nur Google hat mit seiner künstlichen Intelligenz Probleme.
- Microsoft musste den Jugend-Chatbot «Tay» bereits vom Netz nehmen, weil er von den Nutzern negativ manipuliert wurde.
- Inzwischen kann die Microsoft-Lösung «Cortana» aber negative Eingaben erkennen und schaltet sich notfalls selbständig aus.
Intelligente, selbstlernende Technologien funktionieren nicht immer so, wie sie sollten. Jüngstes Beispiel dafür sind etwa Googles Übersetzungen vom Türkischen ins Englischen, wobei positive Attribute jeweils männlich, und negative Übersetzungen jeweils mit weiblichen Artikeln versehen wurden (Nau berichtete). Bereits im vergangenen Jahr musste Microsoft eine ähnliche Erfahrung machen. Der Computer-Multi hat versucht, einen Chatbot mit dem Namen «Tay» in den sozialen Netzwerken zu platzieren und ihn die Meinungen und Sprache der Jugend lernen zu lassen.
Verheerendes Resultat
Jedoch hat Microsoft nicht die Rechnung mit den jugendlichen Internetnutzern gemacht. So haben gewiefte Internetnutzer die Lerngewohnheiten von «Tay» relativ schnell durchschaut und durch gewiefte Internet-Einrträge den Bot innerhalb von wenigen Stunden in ein rassistisches und sexistisches Scheusal verwandelt, welches unter anderem den Holocaust leugnete. Die Äusserungen von «Tay»
waren so schlimm, dass Microsoft nach weniger als 72 Stunden sich gezwungen sah, den Bot wieder vom Netz zu nehmen.
Immerhin hat der Computer-Multi aus den USA vom «Tay»-Fehler gelernt. Mit der Sprach- und Such-Lösung
«Cortana»
, die auf Windows 10 fix installiert ist, sollen diverse Nutzer schon Ähnliches wie bei «Tay versucht haben. Die Microsoft-Assistentin kann aber negative Eingaben erkennen und versucht selbständig, die Gespräche und Ideen der Nutzer in positivere Bahnen zu lenken. Falls dies nicht gelingt, hat die Microsoft-Sprachlösung sogar die Möglichkeit, eine Konversation abzubrechen.