Wenn es einen Hype um eine Technologie gibt, lohnt es sich zu fragen: Was begeistert die Menschen daran? Welche Fragen stellen sie, wenn es darum geht, wie diese Technologie die Welt verändern wird? Und vor allem: Welche Fragen werde nicht gestellt? So jedenfalls lautet die Empfehlung von Jack Stilgoe, Wissenschafts- und Technologieforscher am University College London. Wie er bei den Technologiegesprächen im Rahmen des Europäischen Forums Alpbach demonstrierte, können diese Fragen beim omnipräsenten Thema künstliche Intelligenz (KI) äußerst aufschlussreich sein.

Wenn Roboter Fußball spielen, sind die Spielregeln klar. Kommen Robotik und künstliche Intelligenz im Alltag zum Einsatz, fehlt es mitunter an Reglementierungen.
Foto: APA / AFP / Peter Parks

KI hat laut Stilgoe viele Charakteristiken anderer gehypter Technologien: Viele Menschen sind äußerst begeistert davon, doch nur wenige sind in die Entwicklung involviert. Zwar sind KI und Ethik ein vieldebattiertes Thema, "aber es gibt sehr wenig Diskussion darüber, wer von dieser Technologie profitieren wird", sagt Stilgoe. "Meine Sorge ist daher, dass KI dazu beitragen könnte, bestehende Ungleichheiten noch weiter zu vergrößern."

Gerade in jüngster Vergangenheit sind zahlreiche KI-Anwendungen rassistischer Taten überführt worden. Da wäre zum Beispiel der selektive Seifenspender: Hält eine weiße Person die Hand darunter, wird Seife ausgegeben. Bei einer dunkelhäutigen Hand passiert hingegen nichts. Ein weißes Handtuch wiederum klassifiziert der Seifenspender als Hand.

Ein noch drastischeres Beispiel ist Compas – eine Software, die US-Richtern als Risikobewertungssystem dient. Gibt Compas einen hohen Risikowert für eine Person aus, lautet die Empfehlung, den Beschuldigten ins Gefängnis zu schicken. Bei niedrigen Risikowerten wird hingegen Freigang auf Kaution angezeigt. Das Problem dabei ist: Wie das investigative US-Medium Pro Publica 2016 aufdeckte, diskriminiert Compas dunkelhäutige Verdächtige gegenüber weißen. Das System schreibt Dunkelhäutigen höhere Risikowerte zu als Weißen, selbst wenn sie tatsächlich weniger gewalttätig sind.

Reproduzierte Vorurteile

Das Problem bei rassistischen Anwendungen von KI liegt nicht an rassistischen Algorithmen, wie oft behauptet wird. "Das Problem liegt in den Daten", sagte Tim O'Brien bei einer vom Wissenschaftsministerium und dem Wissenschaftsfonds FWF organisierten Diskussion beim Forum Alpbach. O'Brien managt den Bereich KI für den Softwareentwickler Microsoft. "Bei Compas zeigte sich, dass das System mit Daten von richterlichen Entscheidungen trainiert wurde und deren Vorurteile reproduzierte."

Da jeder Mensch und jeder Programmierer Vorurteile hat, die oftmals unbewusst sind, ist es essenziell, dass möglichst viele Menschen an der Technologieentwicklung beteiligt werden, so Stilgoe: "Wir sollen und müssen Technologien in eine Richtung bringen, die wir für richtig halten, das ist eine große Herausforderung für die Demokratie."

Oft ist im öffentlichen Diskurs davon die Rede, dass KI Jobs übernimmt. "Wir sollten uns im Klaren sein, wer aller darin involviert ist, Menschen durch Maschinen zu ersetzen. Die Technologie ersetzt von sich aus niemanden, letztlich wird das von Menschen entschieden", sagt Stilgoe. Umso wichtiger sei eine breite öffentliche Debatte darüber, wo KI eingesetzt wird und wer davon profitiert, sowie Reglementierungen.

Nicht alle Experten halten Reglementierung von KI für die beste Lösung zum momentanen Zeitpunkt. Nikolaus Forgó, Rechtswissenschafter an der Uni Wien, warnte am Rande der Technologiegespräche davor, KI durch politischen Aktionismus einen Rechtsrahmen zu geben, ehe klar sei, "wohin die Reise mit dieser neuen Technologie geht".

Kein Universaltool

Das Recht sei kein Universaltool, mit dem man technische Trends direkt steuern könne. Dafür gebe es hinreichend Beispiele aus der jüngsten Vergangenheit: Alle Versuche, Raubkopien im Netz zu verhindern, hätten nicht gefruchtet. Änderungen im Umgang damit habe es erst gegeben, als sich der Markt mit Plattformen wie Netflix oder Spotify geändert habe. Den Versuch, Klarnamenpflicht in Foren einzuführen, hält Forgó sogar für kontraproduktiv. Niemand wolle Hetze im Netz, mit dieser Verpflichtung würde man aber die Informations- und Meinungsfreiheit einschränken.

Nikolaus Forgó sieht das Recht nicht als Universaltool zur direkten Steuerung von Trends.
Foto: Rainer Schoditsch

Hierzulande brauche es keine zusätzliche gesetzliche Regelung im Fall von autonomen Fahrzeugen. Die Datenschutzgrundverordnung regle nämlich, dass es Computersysteme, die autonom Entscheidungen treffen und dem Menschen Schaden zufügen können, gar nicht geben darf.

Ganz anders sieht das ausgerechnet der Softwarekonzern Microsoft. "2018 haben wir uns gesagt, wir haben genug gesehen, wo die Entwicklungen mit KI hingehen, und wir forderten die Regierung auf, Regulierungen zu machen – ein sehr ungewöhnlicher Schritt für ein Techunternehmen", berichtet O'Brien.

Dokumentieren, was die Technologie genau tut

Er hält es für essenziell, dass Technologiekonzerne durch die Gesetzgebung gezwungen werden zu dokumentieren, was ihre Technologie genau tut, damit diese auch von unabhängigen Testern überprüft werden kann. Nur so könne verhindert werden, dass KI-Anwendungen wie Gesichtserkennung auf den Markt kommen, die bestimmte Gruppen von Menschen diskriminieren.

Wenn man derartige Diskussionen anstößt, sei oft die Antwort zu hören: "Aber wir wissen ja noch gar nicht, wohin sich diese Technologie entwickeln wird", berichtet Stilgoe. "Ich bin aber der Meinung, dass wir schon sehr früh darüber nachdenken sollten, wie wir bestimmte Technologien regeln, bevor wir den Punkt erreichen, wo einzelne Gruppen große technologische Macht erreichen und wenige Menschen von KI profitieren – auf Kosten aller anderen."

Wie rassistische Seifenspender oder das Risikobewertungssystem Compas zeigen, kann der Hype um aufkommende Technologien zu neuen Formen der Unterdrückung führen, betont Stilgoe – und zwar gerade jener Menschen, die in unserer Gesellschaft ohnehin schon benachteiligt werden. (Tanja Traxler, Peter Illetschko, 30.8.2019)