Künstliche Intelligenz (KI) zieht in die Personalabteilungen ein. Sie soll aus hunderten Bewerbungen die besten Kandidatinnen und Kandidaten herausfiltern. Menschliche Vorurteile bei der Jobvergabe würden damit umgangen. Das zumindest ist die Hoffnung. Doch so einfach ist es nicht: Ein Ansatz des Techkonzerns Amazon scheiterte etwa spektakulär. Das System wurde anhand von Bewerbungen trainiert, die zum überwiegenden Teil von Männern kamen. Das führte letztlich dazu, dass Männer in der Bewertung grundsätzlich bevorzugt wurden. Auch wenn in den zu beurteilenden Daten die Geschlechtsangabe fehlte, wurden Bewerberinnen, die etwa Absolventinnen der in den USA gängigen Frauen-Colleges sind, nicht empfohlen.

Das Beispiel wurde zum Symbol für einen sogenannten Gender-Bias in Artificial-Intelligence-Systemen. Neben der Bilderkennung oder der Sprachverarbeitung ist auch der Human-Resources-Bereich zu einem Diskussionsfeld über strukturelle Schieflagen zuungunsten von Frauen in technischen Systemen geworden. In Österreich sorgt ein umstrittener "AMS-Algorithmus", der schlechtere Arbeitsmarktchancen für Frauen festschreibt, für Debattenbeiträge. Das AMS bestreitet diesen Effekt übrigens vehement. Zuletzt war der Gender-Bias in der KI auch Thema beim Female-Founders-Festival "Lead Today, Shape Tomorrow", das vergangene Woche zum Weltfrauentag stattfand.

Kein automatischer Ausgleich

"Die vielen Fallbeispiele, die es für Gender-Bias von Algorithmen im Personalbereich gibt, bedeuten nicht automatisch, dass dieser Bereich anfälliger ist, sondern dass hier einfach Menschen unmittelbarer und direkter betroffen sind", betont Mary Carol Madigan, die sich mit Ethik in KI beim Softwarekonzern SAP beschäftigt, im STANDARD-Gespräch.

Das System spiegelt menschliche Vorurteile, es gleicht sie nicht automatisch aus: weil, wie im Amazon-Beispiel, Trainingsdaten nicht die nötige Diversität aufweisen oder weil der Algorithmus selbst auf falsche Weise eingesetzt wird.

Bild nicht mehr verfügbar.

"Bisher wurden mehr Männer aufgenommen, darum werden auch keine Frauen empfohlen" – unvorsichtig entwickelte KI kann zu verquerer Logik führen.
Foto: getty

In den vergangenen Jahren ist freilich viel passiert. Richtlinien zu einer "Responsible AI", die ethische Aspekte berücksichtigt, wurden erarbeitet. Die Reflexion über einen möglichen Bias wird Entwickler aber dennoch nachhaltig beschäftigen.

"Wir werden in Zukunft öfter sehen, dass Systeme, die mit viel Vorsicht kreiert wurden, dennoch einen unbeabsichtigten Bias beinhalten", sagt Madigan. Einzelne Menschen könnten benachteiligt werden, weil das System die insgesamt effizienteste Lösung für möglichst viele Menschen sucht. Oder weil selbst ausgewogene Datensets einen Bias, der in einer Gesellschaft inhärent vorhanden ist, nicht tilgen können.

Weniger Gehalt

Madigan nennt als Beispiel den aktuell unter Experten diskutierten Fall einer Job-Suchmaschine eines Techkonzerns: "Man entdeckte, dass Frauen bei der Jobsuche im Durchschnitt geringere Gehaltsvorstellungen eingaben – das kam nicht von der KI, sondern von den Frauen selbst", schildert die Expertin. "Die KI lernte mit der Zeit, dass die Erwartungen niedriger sind – und schlug den Frauen nun auch schlechter bezahlte Jobs vor." Was wäre hier eine ethische Vorgangsweise? Akzeptiert man die geringeren Geldforderungen, oder passt man sie automatisch an?

Nur individuelle Lösungsansätze können helfen. Nicht nur über eine ausgewogene Datenbasis müsse dabei reflektiert werden, sagt die Forscherin, sondern auch über einen Kontext außerhalb von Datenset und Algorithmus. KI kann Menschen nicht vollständig ersetzen. Madigan: "Die Systeme sollen Empfehlungen generieren, aber niemals endgültige Entscheidungen. Menschen sollten immer die Möglichkeit haben einzuschreiten." (Alois Pumhösel, 15.3.2020)