Bild nicht mehr verfügbar.

Nutzt viel KI: der Google Assistant.

Foto: STEVE MARCUS / REUTERS

Bei einem sind sich alle sicher: Künstliche Intelligenz wird in Zukunft eine immer wichtigere Rolle im Alltag der Menschen einnehmen. Dies allerdings nicht in jener Form, die man so aus mehr oder weniger gelungenen Hollywoodstreifen kennt, sondern vermittels des sogenannten Maschinenlernens. Dabei werden neuronale Netzwerk auf gewisse Spezialaufgaben trainiert, was zum Teil zu verblüffenden Ergebnissen führt. Vor allem bei der Spracherkennung hat Maschinenlernen massive Fortschritte ausgelöst, aber auch aus anderen Bereichen wie der Bilderkennung oder Prognosen aller Art ist es kaum mehr wegzudenken.

Gefahren

So verlockend die damit einhergehenden Möglichkeiten auch sein mögen, bei den Schattenseiten dieser Technologie gibt es ebenfalls weitgehende Einigkeit: Neuronale Netzwerke neigen dazu, Stereotype zu reproduzieren – und zwar aus jenem Material, mit dem sie trainiert werden. So wurden denn auch in den vergangenen Jahren immer wieder Vorfälle offenbar, in denen solche Systeme mit Vorurteilen durchzogene Klassifizierungen vorgenommen haben – etwa wenn sie bei Bildern von Frauen vor allem Attribute zum Aussehen vergeben, während bei Männern Begriffe wie "seriös" auftauchen.

Was all dies für die breite Masse oft besonders unverständlich macht: Solche Maschinenlernsystem sind eine Art Black Box. Auch die daran arbeitenden Forscher und Forscherinnen wissen nicht, wie es von einem gewissen Ausgangsmaterial zum betreffenden Ergebnis kommt.

Regelwerk

All das macht es umso wichtiger, klare Strukturen und eine passende Kultur für die Entwicklung von künstlicher Intelligenz zu schaffen, betonte denn auch Google-Forscherin Anna Ukhanova im Rahmen eines Pressegesprächs, an dem auch der STANDARD teilnahm. Vertrauen der Nutzer sei die oberste Prämisse, ohne dieses könne es keine erfolgreiche KI geben, da sie sonst abgelehnt würde, unterstreicht Ukhanova.

Google gehört zu den aktivsten Firmen im Bereich der künstlichen Intelligenz, Maschinenlernen wird in zahlreichen Bereichen von der Verbesserung der Suchmaschine bis zu zahlreichen Hilfsdiensten auf Smartphones eingesetzt. Das Unternehmen unterstützt dabei Bestrebungen nach gesetzlicher Regulierung von künstlicher Intelligenz. Bis es so weit ist, hat man sich selbst ein Regelwerk verpasst. So will Google etwa nicht an der Entwicklung von Waffensystemen mitarbeiten, auch Gesichtserkennung sieht man als besonders problematisch an – und bietet sie nur in einem stark begrenzten Ausmaß an.

Dass man hier noch lange nicht der Weisheit letzten Schluss gefunden hat, betont Ukhanova selbst. Google hat ein Regelwerk zur KI-Entwicklung veröffentlicht, an das sich auch alle internen Entwickler halten müssen, wenn sie in ihren Apps Maschinenlernen einsetzen wollen. Dessen erste Regel ist übrigens: feststellen, ob KI für die jeweilige Aufgabe überhaupt Sinn ergebe. Der aktuelle Hype rund um das Thema Maschinenlernen führe nämlich dazu, dass es oft auch dort eingesetzt wird, wo es gar nicht gebraucht wird.

Transparenz

Zum Vertrauen der Nutzer gehört aber auch Transparenz, betont ihre Kollegin Fernanda Viegas, die sich darauf spezialisiert hat, solche Systeme erklärbar zu machen. Wie das aussehen kann, erläutert sie am Beispiel von Google Flights. Dessen Entwickler hätten ein äußerst exaktes KI-System zur Prognose von Flugpreisen entwickelt, das aber zunächst von den Nutzern nicht angenommen wurde, da sie dem Ganzen schlicht nicht vertraut hätten. Also habe man ein Redesign vorgenommen, in dessen Rahmen einige Grafiken mit Statistiken eingefügt wurden, um die Einschätzung nachvollziehbarer zu machen. Viegas betont, dass dies eine äußerst schwierige Balance sei. Die Nutzer mit Daten zu überfordern wäre nämlich erst recht wieder kontraproduktiv. Auch die grafische Aufbereitung spiele eine wichtige Rolle.

Eine weitere entscheidende Herausforderung für den Erfolg von KI-Systemen bleibt: den erwähnten Bias im Trainingsmaterial zu minimieren. Ein immer wichtigerer Teil dieser Arbeit sei, im Nachhinein die Ergebnisse kritisch zu überprüfen. Viegas nennt dafür auch ein Beispiel: Im Fall einer von einem KI-System abgelehnten Kreditvergabe gelte es, sich zum Vergleich einfach sehr ähnliche Ergebnisse anzusehen und diese zu vergleichen. Wenn dann herauskommt, dass das Einkommen der entscheidende Unterschied, sei das okay, wenn sich hingegen herausstellt, dass das Geschlecht zum negativen Bescheid geführt habe, habe man ein Problem und müsse das Modell anpassen.

Ein ewiger Kampf

Ukhanova erinnert zusätzlich daran, dass Vorurteile in der Technik bei weitem keine Erfindung von Maschinenlernsystemen sind. So habe noch im Jahr 2011 eine Studie ergeben, dass Frauen am Fahrersitz eines Autos eine um 47 Prozent höhere Wahrscheinlichkeit haben, schwer verletzt zu werden, da lange nur mit auf den männlichen Körper ausgerichteten Dummies Crashtests durchgeführt wurden. Ein weiteres prominentes Beispiel sei die Entwicklung der Farbfotografie, die über viele Jahre ausschließlich auf helle Hauttypen optimiert war und dunkelhäutige Personen nur sehr schlecht abbildete. Um so etwas zu verhindern, brauche es ein stetes Hinterfragen der eigenen Ergebnisse – und "fairness by design". Genau deswegen sei es eben so wichtig, all diese Fragen von Anfang an mitzudenken. (apo, 27.11.2020)