Damit KI nicht sexistisch arbeitet oder diskriminiert, müssen Entwicklerinnen und Entwicklern Vorurteile bewusst sein.

Foto: imago images

Ein Tool, das Entscheidungen treffen oder gar einen Menschen im Job ablösen soll, muss auch Normen und Werte einhalten können. Wird eine künstliche Intelligenz mit einseitigen Informationen gefüttert und lernt nur diese, kann das schwerwiegende Konsequenzen haben, zeigten Beispiele vor einigen Jahren.

Amazon etwa entwarf ein digitales Bewerbungstool, gestützt durch maschinelles Lernen. Weil aber als Vorlage für das Training der KI überwiegend Bewerbungen älterer Männer verwendet wurden, entpuppte sich das Tool im Einsatz als diskriminierend. Es kam sogar so weit, dass die Technologie das Wort "Frau" in einer Bewerbung negativ wertete. Ein jüngeres Beispiel: die App mit dem Namen Lensa, die mittels KI künstlerische Bilder von Nutzerinnen und Nutzern fertigt. Kritik erntete sie letztlich wegen der Darstellung der Frauenbilder, denn sie bediente sich alter Stereotype.

Auf den Textbot ChatGPT folgt nun auch Google mit seinem konkurrierenden Tool namens Bard. Langsam, aber sicher findet KI ihren Weg in zahlreiche Büros, Agenturen, Kanzleien und Schulklassen. Wie stellen Entwicklerinnen und Entwickler sicher, dass mit KI keine sexistischen Klischees mehr bedient werden? Ein Blogbeitrag der Organisation "Women in AI" zeigt einige Beispiele auf, die helfen können, so inklusiv und divers wie möglich zu entwickeln.

Verzerrte Trainingsdaten

Die Daten, mit denen eine künstliche Intelligenz gefüttert wird, sollten so umfangreich und abwechslungsreich wie möglich sein. Wenn – wie damals bei Amazon – hauptsächlich ähnliche Informationen im Set der Daten enthalten sind, wird die Anwendung diskriminierend vorgehen. Am besten sollten die Erstellerinnen und Ersteller also bei den Stichproben für das KI-Training darauf achten, keine statistischen Ausreißer zu verwenden. Auch zeitlich sollte die Erhebung der Daten ausgewogen erfolgen.

Außerdem, schreibt "Women in AI", können Algorithmen auch die Ergebnisse, die sie bereits geliefert haben, beeinflussen. In dem Fall eines KI-Modells namens Compas-Algorithmus in einem US-Gericht war es so: Das Tool sagt voraus, wie wahrscheinlich eine Person nochmals straffällig wird. Die Trainingsdaten gaben der KI bereits das Vorurteil mit, dass schwarze Menschen mit größerer Wahrscheinlichkeit wieder straffällig werden als weiße Menschen.

Forderungskatalog erschaffen

Dieses voreingenommene Ergebnis kann dann zu voreingenommenen Entscheidungen führen. So kann es dazu kommen, dass die KI immer weiter bestärkt wird in ihren Annahmen. Die US-Organisation "Women Leading in AI" hat Forderungen für ethische KI definiert. Es brauche Regulierung, ähnlich der Pharmabranche, KI-Regulierungsfunktionen in jeder Firma und die Einführung eines neuen "Fairness-Zertifikats" für KI-Systeme.

Um massenhaft vielfältige Daten zu bekommen, braucht es natürlich immer noch Menschen, die diese sammeln und zusammenstellen. Auch hier können die Missstände bereits anfangen, wie Recherchen des Time-Magazins zeigen. Das hinter ChatGPT stehende Unternehmen OpenAI arbeitete mit dem Datenunternehmen Sama in Kenia zusammen, um seine KI zu trainieren. Zeitarbeiterinnen und Zeitarbeiter wurden angestellt, um Textausschnitte zu ordnen. Sie sollen dafür nicht nur weniger als zwei Dollar pro Stunde erhalten haben, sondern auch traumatisierenden Inhalten ausgesetzt gewesen sein. Denn sie mussten auch brutale oder schreckliche Inhalte als solche klassifizieren. (Melanie Raidl, 21.2.2023)