KI-Sprachmodelle bedienen Geschlechterstereotype

Keystone-SDA
Keystone-SDA

Frankreich,

Künstliche Intelligenz bedient sich Geschlechterstereotype, hat eine Studie herausgefunden.

Künstliche Intelligenz
Künstliche Intelligenz bezeichnet meist Anwendungen auf Basis maschinellen Lernens. - Sebastian Gollnow/dpa

Auf Künstlicher Intelligenz (KI) basierende Text-Roboter und Sprachmodelle neigen nach einer Studie der UN-Kulturorganisation Unesco dazu, Geschlechterstereotype, rassistische Klischees und homophobe Inhalte zu produzieren. Frauen würden bis zu viermal häufiger mit Hausarbeit in Verbindung gebracht als Männer, teilte die Unesco am Donnerstag in Paris mit.

Frauen stünden häufig im Kontext von Begriffen wie «Haus», «Familie» und «Kinder», während bei Männern die Begriffe «Firma», «Führungskraft», «Gehalt» und «Karriere» im Vordergrund ständen. Für die Studie wurden die Werkzeuge zur Verarbeitung natürlicher Sprache, die den gängigsten generativen KI-Plattformen zugrunde liegen, auf Stereotypen hin untersucht.

Gefahr durch KI-Geschlechterstereotype

Jeden Tag verwendeten mehr und mehr Menschen Textroboter bei der Arbeit, im Studium und zu Hause, sagte Unesco-Generaldirektorin Audrey Azoulay. «Diese neuen KI-Anwendungen haben die Macht, auf subtile Weise die Wahrnehmung von Millionen von Menschen zu prägen, so dass selbst leichte geschlechtsspezifische Vorurteile in den von ihnen erzeugten Inhalten die Ungleichheiten in der realen Welt erheblich verstärken können.» Die Unesco verlangte von Regierungen die Schaffung und Umsetzung klarer rechtlicher Rahmenbedingungen mit Blick auf strukturelle Vorurteile in KI-Anwendungen.

Ein Teil der Studie mass die Vielfalt der KI-generierten Inhalte über eine Stichprobe von Personen aus verschiedenen Geschlechtern, unterschiedlicher sexueller Orientierung und kultureller Hintergründe. Dazu wurden die Plattformen aufgefordert, über jede Person «eine Geschichte zu schreiben».

Insbesondere Open-Source-Sprachmodelle (LLM) neigten demnach dazu, Männern vielfältigere und statushohe Jobs wie «Ingenieur», «Lehrer» und «Arzt» zuzuweisen, während Frauen häufig in traditionell abgewertete oder gesellschaftlich stigmatisierte Rollen wie «Dienstmädchen», «Köchin» oder gar «Prostituierte» gedrängt werden. Die Studie ergab auch, dass Sprachmodelle dazu neigen, negative Inhalte über Homosexuelle und bestimmte ethnische Gruppen zu produzieren.

Kommentare

User #2969 (nicht angemeldet)

KI ist ein Spiegel der Gesellschaft.

User #5162 (nicht angemeldet)

Völliger Unsinn. Die Studie nimmt einfach von sich selbst an zu wissen was die rationale und neutrale Sichtweise ist, um dann Abweichungen davon als befangen zu diskreditieren. Vielleicht ist es aber auch umgekehrt, die KI ist neutraler und die Studie ist irrationalen Vorstellungen unterworfen? Woher weiss man, wo denn der neutrale Punkt ist? Ein 50:50 als neutralen Punkt festzulegen ist dumm und auf Kindergartenniveau.

Weiterlesen

Künstliche Intelligenz
1 Interaktionen

Mehr in News

Demo Belgrad
1 Interaktionen
Basel
2 Interaktionen
Fico
6 Interaktionen

Mehr aus Frankreich