So werden Chatroboter zu Rassisten

Andrea Späth
Andrea Späth

Bern,

Nicht nur Google hat mit seinem Übersetzungsprogram «Translate» Sexismus-Probleme. Microsofts Chatbot «Tay», welche mit Jugendlichen kommunizieren sollte, entwickelte sich innerhalb von kürzester Zeit zu einem rassistischen Scheusal.

Das Wichtigste in Kürze

  • Nicht nur Google hat mit seiner künstlichen Intelligenz Probleme.
  • Microsoft musste den Jugend-Chatbot «Tay» bereits vom Netz nehmen, weil er von den Nutzern negativ manipuliert wurde.
  • Inzwischen kann die Microsoft-Lösung «Cortana» aber negative Eingaben erkennen und schaltet sich notfalls selbständig aus.
Microsofts «Cortana» hat aus den Fehlern von «Tay» gelernt.
Microsofts «Cortana» hat aus den Fehlern von «Tay» gelernt. - Keystone

Intelligente, selbstlernende Technologien funktionieren nicht immer so, wie sie sollten. Jüngstes Beispiel dafür sind etwa Googles Übersetzungen vom Türkischen ins Englischen, wobei positive Attribute jeweils männlich, und negative Übersetzungen jeweils mit weiblichen Artikeln versehen wurden (Nau berichtete). Bereits im vergangenen Jahr musste Microsoft eine ähnliche Erfahrung machen. Der Computer-Multi hat versucht, einen Chatbot mit dem Namen «Tay» in den sozialen Netzwerken zu platzieren und ihn die Meinungen und Sprache der Jugend lernen zu lassen.

Verheerendes Resultat

Jedoch hat Microsoft nicht die Rechnung mit den jugendlichen Internetnutzern gemacht. So haben gewiefte Internetnutzer die Lerngewohnheiten von «Tay» relativ schnell durchschaut und durch gewiefte Internet-Einrträge den Bot innerhalb von wenigen Stunden in ein rassistisches und sexistisches Scheusal verwandelt, welches unter anderem den Holocaust leugnete. Die Äusserungen von «Tay» waren so schlimm, dass Microsoft nach weniger als 72 Stunden sich gezwungen sah, den Bot wieder vom Netz zu nehmen.

Immerhin hat der Computer-Multi aus den USA vom «Tay»-Fehler gelernt. Mit der Sprach- und Such-Lösung «Cortana» , die auf Windows 10 fix installiert ist, sollen diverse Nutzer schon Ähnliches wie bei «Tay versucht haben. Die Microsoft-Assistentin kann aber negative Eingaben erkennen und versucht selbständig, die Gespräche und Ideen der Nutzer in positivere Bahnen zu lenken. Falls dies nicht gelingt, hat die Microsoft-Sprachlösung sogar die Möglichkeit, eine Konversation abzubrechen.

Mehr zum Thema:

Kommentare

Weiterlesen

DeepL Google Translate

Mehr aus Stadt Bern

Amherd
160 Interaktionen
Frau auf Parkbank am See
4 Interaktionen
Geschenke
3 Interaktionen