Systeme mit künstlicher Intelligenz laufen Gefahr, bestehende Ungleichheiten und Klischees in der Gesellschaft zu reproduzieren.
Foto: Midjourney

Der Hype um das Sprachsystem Chat GPT ist grenzenlos. An Schulen wird diskutiert, ob die künstliche Intelligenz verboten oder kreativ in den Unterricht eingebunden werden soll. Aber auch die Wissenschaft tut sich schwer mit einem System, das selbst Fachleute in ihrem Gebiet hinters Licht führen kann. Für viele KI-Expertinnen und -Experten greift die aktuelle Diskussion um Chat GPT allerdings zu kurz. Denn künstliche Intelligenz wird künftig in vielen Bereichen bestehende Abläufe durcheinanderwirbeln.

"Chat GPT zeigt, welch enorme Fortschritte in den vergangenen 15 Jahren bei künstlicher Intelligenz erzielt wurden", erklärt der Informatiker Robert Legenstein, der an der TU Graz das dortige Graz Center for Machine Learning leitet. Gleichzeitig müsse man sich aber bewusst sein, dass der Chatbot in seiner jetzigen Version nicht per se dafür gebaut worden sei, die Wahrheit zu sagen.

Wie verlässlich ist künstliche Intelligenz?

"Die Verlässlichkeit derartiger Systeme ist eine der großen Fragen im Umgang mit künstlicher Intelligenz", sagt Legenstein. Warum entscheidet es sich für eine bestimmte Antwort? Welche Trainingsdaten liegen ihm zugrunde? Gerade bei selbstlernenden komplexen Systemen sei es selbst für involvierte Fachleute oft nicht nachvollziehbar, wie künstliche Intelligenz zu ihrer Schlussfolgerung komme.

Wie zuverlässig KI-Systeme Entscheidungen treffen, spielt besonders dann eine Rolle, wenn es um Leben und Tod geht. So macht es naturgemäß einen Unterschied, ob ein Chat-Programm abstruse Antworten liefert oder ob ein selbstfahrendes Auto in einer gefährlichen Situation die falsche Entscheidung trifft. Ähnlich folgenschwer sind Fehldiagnosen in der Medizin oder wenn ein Industrieroboter sich in einer Umgebung mit Menschen fälschlicherweise so verhält, dass er diese verletzen oder gar töten kann. Ähnliches gilt für den Einsatz zu militärischen Zwecken, den manche Unternehmen und Forschungsinstitute von vornherein kategorisch ablehnen.

So stellt sich die Bildplattform Midjourney eine künstliche Intelligenz vor, die mit der Erde in Kontakt kommt.
Foto: Midjourney

Dass künstliche Intelligenz unser Leben schon heute zum Positiven verändert, ist unbestritten. Selbstlernende Modelle helfen uns, bessere Wetter- und Klimavorhersagen zu treffen oder bahnbrechende Medikamente zu entwickeln. Sie können medizinisches Personal bei der Diagnose von Krankheiten unterstützen oder beitragen, die Energie- und Wasserversorgung zu sichern. Mit ihren Fähigkeiten zur Sprach-, Bild- und Objekterkennung sind sie auf Handys seit Jahren treue Begleiter, ohne dass wir die künstliche Intelligenz dahinter bewusst wahrnehmen. Und das Autofahren betreffend, rechnen Fachleute damit, dass funktionierende autonome Systeme die Zahl schwerer Verkehrsunfälle künftig deutlich verringern können.

Schlecht im Abstrahieren

So beeindruckend künstliche Intelligenz in abgegrenzten Bereichen funktioniert – man denke an das komplexe Strategiespiel Go –, so schwer tut sie sich, wenn sie Gelerntes abstrahieren muss. "Im Gegensatz zu künstlichen neuronalen Netzen kann das menschliche Gehirn auf Basis einiger weniger Erfahrungen viel besser generalisieren und das erworbene Wissen in neuartigen Situationen anwenden", sagt Legenstein.

"Wir verstehen, was ein Fußgänger ist, egal ob es draußen regnet, neblig ist oder dieser in einer Umgebung auftaucht, wo man ihn nicht erwarten würde. Ein mit Schönwetterbilder trainiertes System hingegen tut sich in der realen Welt schwer, den Fußgänger zu erkennen, wenn die Situation von den Trainingsdaten abweicht."

Menschen könnten zudem auf einer abstrakten Ebene schlussfolgern. "Wenn ich erfahre, dass mein normaler Verkehrsweg in die Arbeit gesperrt ist, denke ich mir, dass das wohl auf Ausweichrouten zu viel Verkehr führt, ich mit dem Auto zudem einen großen Umweg fahren muss und daher lieber die U-Bahn nehme", gibt Legenstein ein Beispiel. Zu solchen Gedankenassoziationen, die schließlich zu einer Entscheidung führen, seien KI-Systeme allerdings kaum in der Lage.

Die Themenvorgabe für diese Illustration lautete: "ein hochentwickelter Chatbot, der auf dem Planeten Erde kommuniziert."
Foto: Midjourney

Selbst aus der Tierwelt gibt es Beispiele, bei denen künstliche Intelligenz nicht mithalten kann. Versuche mit Mäusen in einem Labyrinth haben gezeigt, dass diese sich nicht nur den schnellsten Weg von A nach B einprägen können, sondern nach einer Zeit das abstrakte Konzept verstehen, dass eine Tür in der Wand eine Abkürzung bedeuten kann. Dazu komme, dass gesammelte Erfahrungen teilweise zeitverzögert – etwa über Nacht im Schlaf – weiterverarbeitet und in ein abstrakteres, generalisiertes Wissensmodell eingearbeitet werden können. Auch diese spezielle Art der kontinuierlichen Wissenserweiterung sei bestehenden KI-Systemen noch fremd.

Diskriminierende Algorithmen

Eine weitere große Baustelle liegt darin, dass künstliche Intelligenz in vielen Fällen diskriminierende Entscheidungen trifft, problematische Vorurteile reproduziert oder schlichtweg nicht funktioniert. Lange Zeit taten sich Bildsysteme etwa mit Personen schwarzer Hautfarbe schwer. Abgesehen davon, dass die Gesichtserkennung zum Entsperren von Handys schlechter funktionierte, führte der Einsatz durch Polizeibehörden wiederholt zu fälschlicherweise Beschuldigten. Der Hintergrund: Die Systeme wurden lange Zeit überproportional mit Fotos weißer Personen trainiert und funktionierten deshalb bei Schwarzen weniger präzise.

Neben Trainingsdaten, die einseitig sein können, fließen unbewusst oder bewusst aber auch die Annahmen von Entwicklerinnen und Entwicklern in die Algorithmen ein. Dies sorgt erst recht wieder dafür, dass die als objektiv erscheinenden Maschinen vom Start weg eine programmierte Schieflage aufweisen. "Die Welt und unsere Gesellschaft sind von Ungleichheit geprägt, wie sollen da die Daten für eine künstliche Intelligenz völlig objektiv sein. Das ist utopisch", erklärt Miriam Fahimi, die am Digital Age Research Center der Universität Klagenfurt zum Thema "faire Algorithmen" forscht.

Männer in Bewerbung vorziehen

Wenn ein System auf Basis vergangener Einstellungspolitik lerne, dass Männer in technischen Positionen in Bewerbungsgesprächen vorgezogen werden, werde es die Ungleichheit fortschreiben. Ähnliches gelte für Wohngegenden, die eine hohe Kriminalität aufweisen. Orte seien eine nur scheinbar neutrale Variable. Sie würden indirekt aber auch den sozioökonomischen Status und andere Faktoren abbilden.

Diese Neuinterpretation von Klimts "Der Kuss" durch Midjourney ist ein Ausdruck von Diversität. Es gibt allerdings viele Beispiele, in denen gerade Frauen, aber auch Schwarze diskriminierend und klischeehaft dargestellt werden.
Foto: Midjourney

Durch KI-Systeme könne es zudem zu einer verstärkenden Feedback-Schleife kommen. "Künstliche Intelligenz schickt die Streifenpolizei in eine Gegend, in der schon viele Vorfälle dokumentiert sind. Diese Datenhäufung kann aber zustande gekommen sein, weil die Polizei in ärmeren Wohngegenden sowieso schon verstärkt anwesend ist", erklärt Fahimi. Dazu kommt die gerade auch in den USA dokumentierte rassistisch motivierte Ungleichbehandlung durch Polizei und Behörden. Auch sie kann dazu beitragen, dass Gegenden mit überwiegend schwarzer Bevölkerung überproportional viele Vorfälle aufweisen.

Nicht immer sind es die irreführenden Trainingsdaten, durch die selbstlernende Systeme in die eine oder andere Richtung beeinflusst werden. Vielmehr haben Verantwortliche hinter solchen Algorithmen genaue Vorstellungen, wie eine künstliche Intelligenz entscheiden soll. "Beim umstrittenen AMS-Algorithmus, der Menschen mit geringeren Jobchancen – darunter vor allem Frauen – weniger Ausbildungsförderung zuteilt, ist das ja auch keine Frage der technischen Implementierung oder eines fehlerhaften Algorithmus, sondern weil das AMS das bewusst so möchte", nennt Fahimi ein Beispiel.

Ruf nach mehr Transparenz

Bei Kreditvergaben wiederum werden im Hintergrund ebenfalls Parameter festgelegt, die für eine Zuteilung oder Ablehnung berücksichtigt werden. Problematischer als der Umstand, dass gewisse Faktoren in Algorithmen einen Niederschlag finden, ist der Forscherin zufolge die damit einhergehende Intransparenz. Ein faireres System müsste Betroffenen auch erklären können, wie es zu seiner Entscheidung gekommen sei. "Welche Voraussetzungen muss ich mitbringen, damit ich doch noch einen Kredit bekomme? Was muss ich wissen, um der Entscheidung widersprechen zu können? Eine solche Möglichkeit wäre wünschenswert und würde beitragen, sozial bedingte Ungerechtigkeiten oder unfaire Annahmen adressieren zu können", sagt Fahimi.

Viele der aufgezeigten Herausforderungen machen deutlich, dass der Weg zu einer menschenähnlichen künstlichen Intelligenz lang und steinig bleibt. Eine feindliche Übernahme der Welt durch Terminatoren, Zylonen oder andere hochintelligente Killerroboter erscheint zum jetzigen Zeitpunkt daher alles andere als wahrscheinlich. Davon geht auch der Künstliche-Intelligenz-Experte Legenstein von der TU Graz aus: "Früher war die Angst groß, dass intelligente System Menschen und ihre Jobs vielerorts komplett ersetzen werden. In den vergangenen Jahren hat sich jedoch gezeigt, dass sich das Ganze viel mehr zu einer kooperativen, symbiotischen Beziehung entwickeln könnte, als wir das eigentlich angenommen hatten." (Martin Stepanek, 23.1.2023)