Oxford: «Künstliche Intelligenz ohne Ethik ist unverantwortlich»
Die Oxford-Professorin Sandra Wachter hält KI ohne Ethik für unverantwortlich. Angesichts der drohenden Gefahren sei es verantwortungslos, nicht zu handeln.
Das Wichtigste in Kürze
- Die Technologien hinter künstlicher Intelligenz bringen spezifische Gefahren mit sich.
- Ethische Risiken liegen aktuell in den Bereichen Datenschutz und Diskriminierung.
- Fälle falscher Einschätzungen durch KI gab es im Strafvollzug oder bei Versicherungen.
Unternehmen oder globale Organisationen haben sie bereits: Standards oder Leitlinien zum richtigen Umgang mit KI und Ethik. Ob IBM, Microsoft, die Unesco oder die OECD – alle Initiativen zeugen von grundlegenden Bedenken gegenüber den neuen Technologien. Sind Regulierungsversuche wie der AI Act der EU nun reiner Skeptizismus oder begründete Furcht?
Die promovierte Juristin Sandra Wachter forscht an der Universität Oxford zu den Themen Big Data, künstliche Intelligenz und Ethik. Im Interview mit dem «manager magazin» erklärt sie, an welchen Stellen ethische Belange berührt werden.
Risiken bei Datenschutz, Diskriminierung und Erklärbarkeit
Wachter zufolge gibt es drei grosse Risiken, die bei KI berücksichtigt werden müssen: Zuerst gebe es immer ein Datenschutzproblem, «weil der Algorithmus der KI nur funktioniert, wenn er mit Daten gefüttert wird». Meist würden sensible Informationen verarbeitet oder in den Lernprozess eingebunden.
Damit verbunden entstünde wiederum «ein Diskriminierungsproblem». Denn Algorithmen lernen oft von historischen Daten – und diese wären oft vorbelastet durch bestehende Ungerechtigkeiten der Gesellschaft. «Diese Daten spiegeln Unfairness, Sexismus, Rassismus, Heterosexismus wider», so Wachter. Durch historische Daten bekomme die KI also ein Problem mit der Voreingenommenheit, ein sogenanntes Bias-Problem.
Das dritte Problem hängt mit der Erklärbarkeit zusammen. Die KI-Architektur funktioniere wie eine Blackbox. Die genauen Vorgänge der Lernprozesse sind undurchsichtig, von aussen nicht einsehbar – und dementsprechend auch nicht erklärbar. Man setzt also eine Technologie ein, von der man nicht weiss, wie sie funktioniert.
Konkrete Schadensfälle von KI in der Strafrechtspflege
Konkrete Fälle, wo KI-Anwendungen bereits Schaden verursachen, gibt es beispielsweise in den USA oder in England in der Strafrechtspflege. Dort wurden KIs eingesetzt, um besser entscheiden zu können, wer im Gefängnis bleibt oder auf Bewährung entlassen wird. «Man weiss inzwischen, dass diese Systeme rassistisch sind», erklärt Wachter. «Dennoch werden sie nach wie vor eingesetzt.»
Ein weiterer Fall ist aus Dänemark bekannt, wo ein Algorithmus eingesetzt wurde, um Sozialleistungsbetrug zu erkennen. «Im Gesundheitsbereich werden durch Algorithmen oft Frauen und nicht weisse Menschen benachteiligt. Die Daten, die wir dort zur Verfügung haben, stammen meistens von weissen Männern mittleren Alters», erläutert die Expertin. Ein Algorithmus, der darauf trainiert ist, Betrug zu erkennen, schlägt also bei Informationen, die von den Trainingsdaten abweichen, Alarm.
Auch die biometrische Identifizierung im öffentlichen Raum, beispielsweise bei Gefahr eines Terroranschlags oder von Menschenhandel, birgt grössere Risiken. Zuerst sei die Technik nicht verlässlich: «Das trifft besonders oft bei Frauen und nicht weissen Menschen zu.» Das zweite Problem sei eine Generalüberwachung des öffentlichen Raumes, woraus laut Wachter eine «Beweislastumkehr» folge: Man sei nicht mehr unschuldig, bis das Gegenteil bewiesen wurde, sondern man wäre schuldig, bis der Gesichtsabgleich das Gegenteil beweise. Eine fehlerhafte Technik in einem Hochrisikobereich einzusetzen, wäre aus beiden Gründen unverantwortlich.
Die Verantwortung liegt im ethischen Handeln
Regulierungsansätze wie den AI Act der Europäischen Kommission, der nun auf den Weg gebracht wurde, sieht die Expertin dementsprechend kritisch. Die Verordnung lege «überhaupt keine Parameter für eine ethische, normative Bewertung fest. Was ist ein akzeptables Risiko, oder was ist ethisch tragbar? Bei den entscheidenden Fragen wird es überraschend still».
Auf die Frage, ob KI eine Gefahr für unsere Gesellschaft darstellt, bezieht Wachter klar Stellung: «Ja, KI ohne Ethik ist unverantwortlich. Nicht zu handeln, ist verantwortungslos.»