"Je komplexer der Datensatz, aus dem der Algorithmus lernen muss, desto schwieriger wird es zu verstehen, wie er eigentlich zu seiner Vorhersage kommt", sagt Informatikerin Manuela Geiß.

Foto: privat

Es ist nicht immer nachvollziehbar, was hinter Bildschirmen und im Inneren verschiedenster Maschinen vorgeht. Deswegen ist es besonders wichtig, dass künstliche Intelligenz nachvollziehbar und interpretierbar ist. Ansonsten könnten Menschen kein Vertrauen in deren Entscheidungen haben – man denke etwa an selbstfahrende Fahrzeuge. Das ist die Basis der Arbeit von Manuela Geiß.

Sie arbeitet am Software Competence Center Hagenberg (SCCH) im Bereich Data Science und entwickelt dort Methoden, die Lernalgorithmen erklärbar machen sollen. Im Gegensatz zu sogenannten deterministischen Algorithmen, bei denen man klare Anweisungen gibt, bauen sich Lernalgorithmen aus Trainingsdatensätzen innerhalb eines vorgegebenen Modells auf.

Das Problem? "Je komplexer das Modell, das gelernt werden soll, desto schwieriger wird es, zu verstehen, wie es eigentlich zu seiner Vorhersage kommt", sagt Geiß. Dazu komme, dass die Datensätze oft Vorurteile beinhalten und so manche Personengruppen anders behandeln.

Die Industrie muss Einblicke in die Arbeitsweise der Algorithmen haben, um Produktionsanforderungen, aber auch ethische Richtlinien und Gesetze zu erfüllen. Und auch im täglichen Leben kommen Methoden der künstlichen Intelligenz vermehrt zum Einsatz. Umso wichtiger, dass man die Grundlagen dahinter interpretieren kann.

Objektdetektion

In einem zweiten Projekt beschäftigt sich Geiß mit der sogenannten Objektdetektion. Algorithmen bekommen dafür Bilder als Trainingsdatensatz und sollen Objekte darauf erkennen und klassifizieren. Das braucht man zum Beispiel beim autonomen Fahren, wenn ein Auto Fußgänger oder Verkehrszeichen erkennen soll.

Geiß fokussiert sich auf sogenannte Falsch-Positive: "Wenn ein Algorithmus ein Bild bekommt, das er noch nie gesehen hat – zum Beispiel einen Kinderwagen –, sagt er nicht automatisch: ‚Das kenne ich nicht‘." Stattdessen könnte er den Kinderwagen als Fahrrad klassifizieren. Und das kann ein Problem sein. "Wir beschäftigen uns deshalb mit der Frage, wie der Algorithmus stattdessen mit unbekannten Objekten umgehen soll. Zum Beispiel, indem man das Trainingsdatenset diverser macht und gewisse Lernkriterien anpasst", sagt die Informatikerin.

Geiß ist nicht nur in der digitalen Welt firm. Neben ihrem Masterstudium in Mathematik absolvierte sie auch einen Bachelor in Biologie – beste Voraussetzungen für ihren Doktor in Bioinformatik an der Universität Leipzig. In ihrem Doktorat ging es um die sogenannte Graphentheorie. Dabei versuchten sie, Algorithmen zu entwickeln, um relevante Informationen aus Graphen zu ziehen. Diese basierten auf genetischen Daten.

Die Bioinformatik hat sie seither nicht losgelassen. Gerade hat sie einen Antrag eingereicht, um an einem entsprechenden Wunschprojekt zu arbeiten. Ihre Beziehung zur Biologie bringt sie übrigens auch regelmäßig weg vom Bildschirm: "Ich interessiere mich stark für alles Digitale und schaue mir auch in meiner Freizeit Vorträge über Data-Science und Deep Learning an. Aber als Ausgleich gartle ich auf meinem Balkon oder gehe raus wandern." (Katharina Kropshofer, 10.5.2021)