Aus dem netten Spielzeug soll künftig ein hilfreicher Geselle werden. Den wertfreien Umgang müssen Mensch und Maschine erst lernen.

Imago

Stellen Sie sich vor, bei Ihrem Auto versagen die Bremsen. Würden Sie eher eine alte Frau oder einen jungen Obdachlosen überfahren, wenn es nur ein Entweder-oder gibt? Eher eine dunkelhäutige Mutter mit zwei Kindern oder fünf weiße Pensionisten? Selbst wenn derartige Entscheidungen nur theoretischer Natur sind, Leben gegeneinander aufzurechnen bringt Menschen in eine Zwickmühle. Unweigerlich stellt sich die Frage, wofür sich ein autonom fahrendes Auto "entscheidet". Wenn ein Mensch eine Situation nicht eindeutig einschätzen kann, darf man es dann von einer künstlichen Intelligenz (KI) erwarten?

Eines steht fest: Entscheidungen treffende Algorithmen sind immer nur so gut, wie der Mensch, der sie programmiert hat, und die Datensätze, mit denen sie gefüttert wurden. Hier fängt eine komplexe Diskussion an. Unter Umständen fließen Vorurteile oder alte Stereotype in die "Wissensbasis" einer KI ein. Verwendet beispielsweise ein Algorithmus einen Datensatz, der auf diskriminierenden Mustern der Vergangenheit basiert, werden seine Entscheidungen in eine gewisse Richtung mitbestimmt. Es entsteht ein sogenanntes Bias. Vermutlich wird die Maschine aus den verzerrten Mustern sogar lernen und die Diskriminierung verstärken.

Ein bekanntes Beispiel kommt aus den USA. Eine KI wurde trainiert, Gerichtsurteile zu sprechen. Die Maschine ließe sich nicht von äußerlichen Umständen beeinflussen und entscheide neutral – so die Idee. In der Praxis stellte sich diese als Irrtum heraus: Wurde beim Angeklagten nur die Hautfarbe von weiß auf schwarz geändert, fiel das Strafmaß deutlich höher aus. Die Urteile der KI, die als Entscheidungshilfe dienen sollten, sind nachvollziehbar, analysiert die KI doch die ihr zur Verfügung gestellten Datensätze.

Verzerrte Wirklichkeit

"Das Daten-Bias ist eines der Grundprobleme von künstlicher Intelligenz. Voreingenommene Entscheidungen sind eine logische Konsequenz", sagt Laura Crompton, Philosophin und Forscherin an der Universität Wien im Gespräch mit dem STANDARD. Es werde zwar an Methoden gearbeitet, um das Bias aus den Daten zu bekommen, ein konkreter Ansatz fehle aber noch. Gründe dafür sind die Auswahl der Daten und deren Gewichtung. "Was sind gute Daten, was sind schlechte Daten? KI resultiert plötzlich in der tausend Jahre alten Frage der Philosophie nach Gut und Böse oder Richtig und Falsch", erklärt Crompton. Wirklich neutrale Daten müsste man künstlich generieren, ob eine KI mit solchen Daten umgehen könnte, ist allerdings unklar.

Denkt man den Ansatz künstlich generierter Daten durch, beißt sich spätestens beim Punkt Datenauswahl die virtuelle Katze in den Schwanz. Derartige Daten würden wieder von Menschen erstellt und ausgewählt, ein Bias lässt sich abermals nicht ausschließen. Man müsse den Schaden, der sich durch derartige Tools anrichten lässt, gegenüber den Erfolgen abwägen, meint Crompton. Aktuell würden die Gefahren überwiegen, obwohl die Einschätzung der Ergebnisse wieder im Auge des Betrachters liegt. Rassisten begrüßen höhere Strafrahmen für Schwarze wohl eher als Menschenrechtler. Als ebenfalls problematisch gilt die Nachvollziehbarkeit. Manche Systeme agieren so komplex, dass Entscheidungen für Menschen nicht mehr verständlich sind.

Mit maschinellem Lernen kam so gut wie jeder schon in Berührung. Wer im Internet nach einem Produkt sucht, bekommt praktisch unumgänglich Werbeanzeigen für dieses oder ähnliche Fabrikate zugespielt. So weit, so bekannt. Genau in diesem digitalen Marketing ortet Crompton ein großes Gefahrenpotenzial für Manipulationen. Als Beispiele nennt sie den Brexit sowie den Datenskandal rund um Facebook und Cambridge Analytica. Bei Cambridge Analytica wurden Menschen in den USA vor der Präsidentenwahl 2016 gezielt beeinflusst, um Donald Trump zu wählen. Beim Brexit lief es ähnlich ab.

Eine vielversprechende Technologie läuft also Gefahr, durch wenige zum Nachteil vieler eingesetzt werden zu können. "Daten und deren Handhabe werden zur Machtfrage. Wer auf größere Datensätze zugreifen kann, kann sein System besser trainieren, wodurch die Hemmschwelle bei der Erhebung sinkt", sagt Crompton.

Politische Zwickmühle

Ethik, Empathie oder Zwischenmenschlichkeit stellen selbstlernende Maschinen bzw. ihre Erschaffer also vor moralische Dilemmata – einfacher wird es beispielsweise in der Medizin. KIs erzielen in der Krebsdiagnostik – als Entscheidungshilfe wohlgemerkt – oder der Medikamentenentwicklung herausragende Ergebnisse. Hier stehen aber berechenbare Fakten im Vordergrund.

Dementsprechend stellt die Frage nach guten oder bösen Daten auch die Politik vor eine Herausforderung. Zwar hat die EU-Kommission im Frühjahr Ethikleitlinien für "vertrauenswürdige und sichere KI" veröffentlicht, doch näher definiert wurden die Begriffe in dem Papier nicht. Außerdem müssen sich Gesetzgeber fragen, wo man die Grenze zieht, denn einerseits soll dem Innovationsfeld nicht die Dynamik genommen werden, andererseits braucht es im Umgang mit personenbezogenen Daten eindeutige Regeln. (Andreas Danzer, 23.9.2019)