Nachdenken über die optimale Lösung einer Aufgabe. Während neuronale Netzwerke antrainierte, oft nicht genau nachvollziehbare Fähigkeiten ausspielen, setzt die symbolische künstliche Intelligenz auf eine klar nachvollziehbare Logik.

Foto: Getty Images / iStock / Phoniamai Photo

Der Hype um Artificial Intelligence reißt nicht ab. Sie hilft selbstfahrenden Autos weitere Verkehrsteilnehmer, Ärzten Tumoren auf Röntgenbildern und Smartphones lachende Gesichter auf Fotos zu erkennen. Künstliche Intelligenz (KI) bezeichnet hier neuronale Netzwerke, die mit vorhandenem Datenmaterial trainiert werden und die erlernten Fähigkeiten an neuem Material reproduzieren können.

Hat das System einmal gelernt, Zebras zu erkennen, erkennt es also auch unbekannte Zebras auf unbekannten Fotos. Die Mustererkennung hilft der Maschine, Erkenntnisse aus einer empirischen Realität abzuleiten und mit ihnen zu kalkulieren – was sich in vielen Bereichen der Industrie, Wissenschaft und Internetwirtschaft als recht praktisch erwiesen hat.

Die andere künstliche Intelligenz

Die mediale Präsenz von Machine-Learning, Deep Learning und Co sollte aber nicht darüber hinwegtäuschen, dass die neuronalen Netzwerke, auf denen diese Methoden basieren, nicht die einzige Form von Artificial Intelligence sind.

Ihnen gegenüber steht die symbolische oder klassische künstliche Intelligenz. Anders als bei neuronalen Netzwerken, in denen durch das Verbinden und Gewichten von Daten bottom-up ein Ergebnis produziert wird, arbeitet die symbolische KI top-down mit Begriffen und Regeln, um eine Aufgabe zu lösen.

Diese Welt der Entscheidungsbäume, der symbolischen Logik und der Expertensysteme ist, obwohl "klassisch", keineswegs passé und wird auch nicht von der neuronalen KI abgelöst werden können.

Im Gegenteil: Die beiden Welten haben unterschiedliche Stärken und ergänzen einander wechselseitig. In Wahrheit sind die künstlichen neuronalen Netzwerke mit ihrer bis zur Mitte des 20. Jahrhunderts zurückreichenden Geschichte ähnlich alt wie die symbolische KI, ihre aktuelle Konjunktur verdankt sie zu großen Teilen der Verfügbarkeit großer Rechenkapazitäten durch Fortschritte bei der Hardware.

Logisch und rational

Die symbolische KI setzt, grob gesagt, durch Symbole repräsentierte Bedeutungen durch Regeln in Zusammenhang, um einen Sachverhalt logisch und rational abzubilden. Die Evolution dieses Ansatzes ist längst nicht abgeschlossen. Im Zuge eines "Semantic Web" arbeiten Entwickler mit derartigen Methoden etwa an einem Internet, das Inhalte mit Bedeutungen, Relationen und Kontext versieht.

Suchmaschinen im Netz bieten längst keine einfache Stichwortsuche mehr, sondern analysieren, wie einander Suchbegriffe in einer Eingabe gegenseitig Bedeutung zuweisen. Gemeinsam mit dem Begriff "Feuerwehr" hat eine "Leiter" vielleicht Sprossen und ist weit weg vom Leiter, der einer Institution vorsteht.

Mit der Weiterentwicklung von semantischer KI beschäftigt sich auch Wolfgang Faber. Als Professor für Semantische Systeme am Institut für Angewandte Informatik der Alpen Adria Universität Klagenfurt arbeitet er an der Frage, wie man Wissen so aufbereiten kann, dass es der Computer versteht, sprich: verarbeiten kann.

"Wir erfinden Sprachen und Symbole, die Bedeutung tragen, und erfassen deren Eigenschaften, Laufzeitverhalten, Ressourcenverbrauch", sagt Faber. Ein Ziel könnten dabei beispielsweise Assistenten sein, die Rechtslagen oder andere Regelsysteme genau kennen oder die einfach nur den Kalender einer Person fehlerfrei managen.

Ressourcensparende Lösung

Derartige Programme sollen nicht einfach nur einer Befehlskette folgen, sondern zu rational, logisch und effizient handelnden Experten für bestimmte Aufgabenstellungen werden – was aber nicht bedeutet, dass sich diese Agenten in irgendeiner Weise menschenähnlich verhalten sollen. Die Maschine soll bei ihren Stärken bleiben.

Faber und Kollegen haben beispielsweise in diesem Geiste einen "Assistenten" für die Abwicklung einer Hafenlogistik entwickelt. "Es gibt unzählige Regelungen, die die Entladung der Schiffe betreffen. Dazu kommen Arbeitszeitbestimmungen für verschiedene Beschäftigungsgruppen. Verschiedene Tätigkeiten können zudem nur an bestimmten Orten mit bestimmten Betriebsmitteln durchgeführt werden", erklärt der Informatiker. "Aus der Sicht des Planers sind das eine Menge Einschränkungen. Der Assistent soll hier eine optimale, möglichst ressourcensparende Lösung finden."

Unvollständige Information

Besonders schwierig wird es, wenn derartige Regelsysteme nicht unwiderruflich festgeschrieben sind, sondern wenn sie dazulernen, sich automatisch anpassen sollen. "Wenn Menschen über einen Sachverhalt nicht genau Bescheid wissen, füllen sie die Lücke mit Common Sense – mit ,Hausverstand'.

Man geht etwa davon aus, dass die Dinge so bleiben, wie sie sind, und das Auto beispielsweise noch dort steht, wo man es abgestellt hat. Wenn es aber jemand anderer verwendet hat und es nun woanders steht, muss man das Wissen aktualisieren", veranschaulicht Faber.

"Dass die vorhandene Information aber unvollständig sein könnte, ist einer klassischen Logik nur schwer beizubringen. Die darauf basierenden Sprachen gehen davon aus, dass alles bekannt ist, dass nichts revidiert werden muss." Der Lernvorgang könne unterschiedliche Auswirkungen haben.

Wird Wissen ersetzt, erweitert? Müssen Schlüsse daraus gezogen werden? Auf Basis welcher Regelung? Muss vielleicht eine Regel revidiert werden? Gleichzeitig soll die Komplexität bewältigbar bleiben. Das beste Expertensystem hilft nichts, wenn die Entscheidungen Stunden, Tage oder Wochen auf sich warten lassen.

Verbindung zweier Welten

Die rationale Systematik und die logische Eindeutigkeit der symbolischen Methoden stehen im Gegensatz zu den Blackbox-Systemen der neuronalen Netzwerke, bei denen oft nicht klar nachvollziehbar ist, wie sie zu ihrem Ergebnis kommen. Dennoch ist es naheliegend, ein Zusammenspiel zwischen den beiden Welten zu forcieren.

"Ein Mensch lernt gewisse Dinge aus Erfahrungen, andere werden weitergegeben", vergleicht Faber die beiden Methoden. Die Bilderkennung in selbstfahrenden Autos wird ein neuronales Netzwerk erledigen. Die rechtlichen Vorgaben, nach denen ein autonomes System "beweisbar korrekt reagiert", werden eher mit symbolischen Methoden festgeschrieben.

Die Zukunft soll eine immer nähere Verbindung beider Methoden, einen engen Dialog beider Welten bringen. "Wie diese Interaktionen genau aussehen sollen, ist Gegenstand aktueller Forschung", sagt Faber. (Alois Pumhösel, 24.8.2019)