Du bist, was du isst. Der Spruch gilt für uns Menschen ein Stück weit, und natürlich auch in gewisser Weise für Tiere und andere Lebewesen. Vor allem aber gilt er für Algorithmen und künstliche Intelligenzen (KI). Noch sind deren Prozesse hauptsächlich die Summe der Informationen, die wir ihnen füttern. Wenn eine neue Software oder ein Algorithmus etwa Schwarzen oder Frauen gegenüber diskriminierend ist, dann liegt das nicht an der Maschine selbst, sondern an den rassistisch und sexistisch geprägten Daten, mit der sie gespeist wird – und damit an einer eventuell unfair gestalteten Realität. So verwundern dann auch neue Studienergebnisse der UC San Diego über das Demokratieverständnis einer KI nur bedingt.

Margaret Roberts und Eddie Yang wollten herausfinden, inwiefern die Zensur in China einen Einfluss auf die Prozesse des Machine-Learning hat, da die meisten Algorithmen ja aus solchen Open-Source-Datenbanken gespeist werden. Für die Analyse trainierten sie zwei Systeme, die später Wörter, die scheinbar zusammenpassen, miteinander gruppieren sollten. Ein Tool ackerte sich durch die in China verbotene, chinesischsprachige Wikipedia-Website. Das zweite System lernte anhand eines chinesischen Pendants namens Baidu Baike, das der staatlichen Kontrolle der Zentralregierung unterliegt und mitunter zensuriert wird.

Stabilität versus Chaos

Tool eins verband das Wort Demokratie der Studie zufolge eher mit positiv konnotierten Wörtern wie Stabilität, zweiteres eher mit negativ besetzten Begriffen wie Chaos. Später nutzten die Forschenden den Algorithmus, um Zeitungsüberschriften einen positiven oder negativen Wert zuzuschreiben.

Jenes Programm, das mit jenem Algorithmus trainiert wurde, der auf der nichtzensurierten Wikipedia basierte, bewertete vor allem jene Titel positiv, in denen Begriffe wie Wahlen, Freiheit oder Demokratie vorkamen. Das andere Programm fand hingegen die Headlines mit Begriffen wie Überwachung, soziale Kontrolle und Kommunistische Parteibesser. Freilich sei dies alles aber nicht allein auf die staatliche Zensur zurückzuführen, betonen die Forschenden. Auch Selbstzensur oder die tatsächlichen Überzeugungen der Menschen innerhalb des Systems können sich schließlich gravierend von westlichen Wertvorstellungen unterscheiden.

Ist all dies überraschend? Nicht wirklich. "Sobald ich zensiere, beeinflusse ich ja, was die KI lernt", sagt Sepp Hochreiter, KI-Experte an der JKU Linz, der selbst auch schon die chinesische Regierung in KI-Fragen beriet. Es sei so: Bei uns lerne eine Bilderkennungs-KI, dass schwarze Kleidung mit einer Beerdigung assoziiert werde, wohingegen in anderen Kulturkreisen vielleicht Weiß oder ganz was anderes getragen werde. Natürlich könne man stets eingreifen, bestimmte Informationen gewichten und versuchen, so einen gewissen Bias rauszunehmen, aber das seien dann alles menschliche Entscheidungen, sagt Hochreiter.

KI mit Herkunftsnachweis

Eines sei klar: "Die KI lernt nicht, unsere Fehler zu korrigieren." Auch deshalb sollten Maschinen nicht über Menschen entscheiden, findet der KI-Experte im STANDARD-Gespräch. "Menschen sollten über Menschen entscheiden." Viel zu oft spiele bei Gerichtsentscheidungen viel mehr rein als das, was in Gesetzen steht. Es wird ein menschliches Gespür verlangt und die Abschätzung bestimmter Handlungen.

Hochzeitsfeier oder Beerdigung? Das europäische Auge braucht schon den zweiten Blick, um zu erkennen, worum es sich auf dem Foto handelt. Bei Bilderkennungssoftware kommt es auf deren Lernmaterial an.
Foto: Reuters / Elijah Nouvelage

Selbiges gelte in der Medizin, KIs können hier lediglich unterstützten. Etwas anders schätzt der Experte die Lage beim autonomen Fahren ein. Die Summe aus den Millionen von Fahrtkilometern, die die Autonomen sammeln, übertrumpfe sehr bald die wenigen Fahrtstunden, die junge Menschen nachweisen können. Auch wenn es noch Probleme gebe, etwa "zu erkennen, dass ein auf die Straße gewehtes Sackerl kein Grund für eine Vollbremsung ist", sagt Hochreiter.

Wie umgehen mit dem Bias?

Was aber bedeutet die Studie über die zensurierte KI nun für unseren Umgang mit künstlicher Intelligenz in den kommenden Jahren? Braucht es etwa ähnlich der Lebensmittelkennzeichnung Informationen über den "Geburtsort" und die "Trainingscamps" der KI, damit wir auf eventuelle Biases vorbereitet sind? Können wir sie alle ausgleichen? Und wollen wir das überhaupt?

Letzten Endes bringt es uns zu den ähnlichen ethischen Debatten zurück, die wir auch heute schon führen – auch eurozentristische Sichtweisen müssen diesbezüglich laufend hinterfragt werden und sich der permanenten Diskussion stellen. Die Maschinen werden und sollten uns diese Fragen nicht abnehmen.

Hochreiter sieht in der Empathie sowieso das größte Manko der Algorithmen und KIs. Eine Software erkenne zwar, dass jemand traurig ist, kapiert aber nicht wirklich, warum. – Genau so wenig, wie wir Maschinen verstehen, wie es sich wirklich anfühlt, wenn etwa der Algorithmus zu wenig Strom bekommt. Leer? Ausgelaugt? Hungrig? (Fabian Sommavilla, 8.3.2021)