Künstliche Intelligenz (KI) soll die menschliche Autonomie und Entscheidungsfindung unterstützen und durch Menschen beaufsichtigt werden. Nutzerdaten müssen geschützt, hohe Datenqualität sichergestellt werden. Ergebnisse müssen nachprüfbar und erklärbar sein. Alle Interessenträger müssen während des Lebenszyklus eines KI-Systems eingebunden und gleich behandelt werden. Verzerrungen in den Daten, die Menschen rassistisch, nach Alter oder Geschlecht diskriminieren – man spricht von Bias –, sind zu vermeiden.

Bild nicht mehr verfügbar.

Die Debatte um vertrauenswürdige KI ist längst in Österreich angekommen: Wissenschafter fordern, dass Informatiker, Ethiker und Juristen zusammenarbeiten.
Foto: Getty Images

Das sind nur einige der Ethik-Leitlinien für eine vertrauenswürdige KI, die von einer Expertengruppe der EU 2019 veröffentlicht wurden. Es ist eines von mehreren Regelwerken verschiedener Organisationen, die sich dieses Themas annehmen. Eine Reihe von bekanntgeworden Negativbeispielen illustriert das Problemfeld – vom Jobportal, das Frauen diskriminiert, bis zu Bankensoftware, die die Kreditwürdigkeit vom Wohnort abhängig macht.

Kein Patentrezept

Die Gefahr, dass die potenziell machtvollen Instrumente der KI mit ihren vielfältigen Anwendungen – von der medizinischen Diagnostik bis zu autonomen Fahrzeugen – nicht verlässliche oder in einigen Kontexten sogar schädliche Ergebnisse hervorbringen, muss also durch einen umsichtigen Entwicklungsprozess minimiert werden. Allerdings gibt es kein Patentrezept, das von den abstrakten Richtlinien wie jenen der EU zu konkreten Handlungsanweisungen im Entwicklungsprozess führt.

"Algorithmen und Anwendungsgebiete sind von Projekt zu Projekt sehr verschieden", erklärt Christina Hess, die sich als Data-Scientist beim Forschungsunternehmen Risc Software mit dem Thema vertrauenswürdige KI beschäftigt, dazu. Sie erwartet, dass sich in den kommenden Jahren entsprechend reproduzierbare Strategien herauskristallisieren: "Vielleicht werden sich verschiedene Prozessmodelle für unterschiedliche Anwendungsgruppen ergeben, die sich in der Praxis bewährt haben." Eine der wichtigsten Grundlagen der Entwicklung guter KI liegt jedenfalls in der Interdisziplinarität. Informatiker, Ethiker und Rechtsexperten müssten in jedem Projekt individuelle Lösungen finden, so Hess – ein Zugang, der sich in der Praxis noch auf breiter Basis etablieren müsse.

Auf technischer Ebene begleitet das sogenannte Blackbox-Problem die Debatte um vertrauenswürdige KI seit Anbeginn. Es weist darauf hin, dass es für Menschen nur schwer nachvollziehbar ist, wie etwa ein Deep-Learning-System in seiner Anwendung zu den Ergebnissen kommt. Mittlerweile bestehen aber verschiedene Werkzeuge, um Licht ins Dunkel des Entscheidungsvorganges zu bringen. Beispielsweise könne bei der Klassifizierung von Bildern mittels KI nachvollzogen werden, auf welche Bildbereiche die KI bei ihren Urteilen "schaut". Hess erklärt das Prinzip anhand des Projekts Safe Sign, das Risc unterstützt von der Förderagentur FFG gemeinsam mit Asfinag und Johannes-Kepler-Universität Linz (JKU) umsetzt.

Verkehrszeichen erkennen

Dabei geht es um eine sichere und robuste Erkennung von Verkehrszeichen durch Fahrzeugassistenzsysteme. "Wenn das KI-System eine Stopptafel anhand eines Baumes hinter dem Verkehrszeichen erkennen will, ist das offensichtlich wenig vertrauenswürdig. Wenn die Klassifizierung hingegen aus der Form der Tafel abgeleitet wird, kann man dem Ergebnis schon eher vertrauen", veranschaulicht die Forscherin das Prinzip.

Eine der wichtigsten Grundlagen der Etablierung von KI-Lösungen ist das Arrangement von Trainingsdaten, die unfaire Schieflagen möglichst vermeiden soll. Mittlerweile entstehen aber auch Methoden, die die KI-Modelle dazu "zwingen", einen in den Daten vorhandenen Bias – über den sich die Entwickler bewusst sind – nicht mitzulernen, erklärt Hess.

Ein einfaches Beispiel dafür wäre etwa, dass Aspekte, aufgrund derer eine Diskriminierung stattfinden könnte, aus den Daten herausgenommen oder bei der Auswertung ausgeklammert werden – beispielsweise das Geschlecht aus Personendaten. Dabei sei aber auch zu beachten, dass das Geschlecht etwa auch in der Körpergröße implizit "drinsteckt". "Man muss dem Modell also sehr konkret sagen, dass es in seinen Entscheidungen auf den in den Daten versteckten Bias nicht zugreifen darf", resümiert Hess. (Alois Pumhösel, 8.1.2021)