Wirkliche Gefahr von KI-Tools kann laut KI-Forscher Sallinger nur aus einem doppelten Missverständnis heraus entstehen.

Foto: Midjourney/Benjamin Brandtner

Künstliche Intelligenz und ihre Algorithmen haben schon vor Jahren begonnen, unseren Alltag zu begleiten. Was anfangs noch wie Zukunftsmusik klang, ist mit Sprachassistenten, Navigationssystemen und personalisierten Nachrichtenfeeds längst zur Selbstverständlichkeit geworden. Erst neue KI-Tools wie Chatbots oder Bildgeneratoren haben in den letzten Monaten wieder für Aufsehen gesorgt. Aber warum eigentlich? Wie unterscheiden sich diese künstlichen Intelligenzen voneinander? Und sind sie überhaupt intelligent in dem, was sie machen?

Man muss die KI nicht zwangsläufig zu einer Kannibalin machen oder in einem Kunstwerk auf Kommando die Finger zählen, um die Grenzen der neuen Tools zu erkennen – und sie dementsprechend zu hinterfragen. Oft reicht schon das Grundverständnis, dass hinter künstlicher Intelligenz kein digitaler Zauber steckt. DER STANDARD hat bei KI-Forscher Emanuel Sallinger nachgefragt, was künstliche Intelligenz überhaupt ausmacht, wie sie sich klassifizieren lässt und worauf wir uns in Zukunft gefasst machen sollten.

STANDARD: Befasst man sich mit öffentlich zugänglichen Chatbots wie ChatGPT, gewinnt man schnell den Eindruck, dass Intelligenz nach menschlichem Vorbild vorgetäuscht wird und dass das künstliche Gegenüber oft nur sagt, was man hören will. Wie entsteht eigentlich künstliche Intelligenz?

Sallinger: Die Haupteigenschaften, die KI-Systeme auszeichnen, sind "Learning" und "Reasoning", also das "Lernen" und "Schlussfolgern". Es geht darum, wie gut das System aus den Daten bestimmte Repräsentationen lernen kann. Da kann man sich bei vielen Tools fragen, wie viel lernen sie wirklich daraus, und wie viel helfen sie nur dabei, vorhandene Dinge leicht verändert nachzuplappern. Alle KI-Ansätze sind sehr interessant – man muss die Grenzen der KI aber natürlich kritisch hinterfragen und sie verstehen. ChatGPT und große Sprachmodelle sind sehr gut dabei, aus großen Korpora zu lernen. Sie sind aber noch einige Schritte davon entfernt, aus dem Gelernten einwandfreie Schlussfolgerungen ziehen zu können.

STANDARD: Wäre es zu einfach, wenn man sagt, dass ChatGPT nur eine Wahrscheinlichkeitsabfolge von Zeichen berechnet?

Sallinger: Sehr vereinfacht gesagt ist diese Annahme schon richtig. Es kann natürlich auch sein, dass das Modell im Hintergrund ein gewisses Level an Verständnis besitzt. Wahrscheinlicher ist es allerdings, dass es auf statistisch Gesehenem basiert und nicht auf extreme Mengen an tiefen Zusammenhängen zurückgreift.

STANDARD: Wie könnte man künstliche Intelligenz klassifizieren?

Sallinger: Möglichkeiten dazu gibt es viele, aber eine der besten ist inspiriert von Daniel Kahneman, der das Konzept von "Fast Thinking" und "Slow Thinking" popularisiert hat. Damit teilt man KI nicht in zehntausende komplizierte Kategorien ein, sondern in zwei einfache, leicht zu verstehende Klassen. Unter "Fast Thinking" versteht man das schnelle, intuitive Schließen zu bestimmten Themen, unter "Slow Thinking" versteht man den langsameren, mit tiefem Wissen hinterlegten Output.

Am Beispiel Mensch wäre "Fast Thinking" das Verhalten eines Kindes, das lernt, Äpfel zu zählen, also die Äpfel zu erkennen und sie zu zählen. Das können auch bestehende KI-Systeme schon relativ gut. Deutlich schwieriger ist das "Slow Thinking", das wäre das Lösen komplexer Probleme mithilfe von Differenzialgleichungen, um bei einem mathematischen Beispiel zu bleiben. Das baut auf bestehendem Wissen auf und ist unmöglich, oder zumindest extrem aufwendig, von null weg zu lernen. Das ist auch für viele KI-Systeme noch eine Herausforderung.

STANDARD: Wie lassen sich da die KI-Tools einordnen, die in den letzten Monaten für Aufsehen gesorgt haben?

Sallinger: Auf der "Fast Thinking"-Seite hat man neuronale Netze, diverse Embedding-Methoden, Machine-Learning und Deep Learning. Auf der "Slow Thinking"-Seite hat man logisches Schlussfolgern, wissens- und planungsbasierte Methoden. Die meisten KI-Tools, die in der Öffentlichkeit zuletzt für Aufsehen gesorgt haben sind "Fast Thinking" zuzuordnen. Man sollte aber nicht beide Seiten gegeneinander aufwiegen, weil man beide braucht. Die Unterteilung soll eher als Weg dienen, KI besser zu verstehen.

STANDARD: Wenn man heutzutage von KI spricht – wie viel davon bezieht sich Ihrer Einschätzung nach auf "alte KI", also auf rein regelbasierte Systeme?

Sallinger: Das kommt ganz auf den Bereich an, und der richtige Einsatz wird auch eine der größten Herausforderungen bleiben. Im medizinischen Bereich etwa machen regelbasierte Systeme oft Sinn, wenn klar ist, was zu tun ist. Da braucht es KI-Systeme, die das zu 100 Prozent sicher und verlässlich auch so ausführen. Je symbolischer die Anwendung ist, umso kritischer ist auch der Einsatz regelbasierter Systeme. Für Konversations-KI wie ChatGPT oder auch für schnelle Bilderkennung sind andere Methoden gefragt.

STANDARD: Wie lernen und wie schlussfolgern Maschinen?

Sallinger: Gemeinhin lernen solche Modelle meistens eine bestimmte Repräsentation, das kann ein Sprachmodell oder ein mathematisches Modell sein. Diese Repräsentation gibt in gewissem Rahmen vor, was für ein Verständnis dieses System hat. Dann kommt ein "Reasoning"-Teil, der Schlussfolgerungen ziehen kann. Man weiß aber zum Beispiel, dass diese Fähigkeit des Schlussfolgerns für viele große Sprachmodelle, wie sie auch hinter ChatGPT stecken, noch sehr eingeschränkt ist.

Derzeit versucht man noch genau zu verstehen – und das ist eine offene Forschungsfrage – welches Verständnis wirklich hinter diesen Systemen steckt. Das ist bei solchen Modellen nämlich nicht transparent ersichtlich. Man kann nur auf Basis der Schlussfolgerungen ein wenig herausfinden, was da drinnen vor sich geht.

STANDARD: Das heißt aber auch, aus dem gespeisten Material ergeben sich nur neue Zusammenhänge, aber neues Wissen lässt sich mit KI noch gar nicht generieren?

Sallinger: Eine gewisse Menge an neuen Sachen lässt sich schon herausfinden, wenn man statistische Zusammenhänge als neues Wissen betrachtet. Noch sind wir aber nicht dort, ein komplett neues Feld damit aufbauen zu können. In einem sehr eng gesteckten Bereich können KIs aber sehr wohl lernen, wie das ganze System funktioniert. Ob diese Grenzen in zehn bis zwanzig Jahren auch noch vorhanden sein werden, lässt sich zum jetzigen Zeitpunkt freilich noch nicht sagen. Tiefes, neues Wissen lässt sich bislang schwierig damit generieren, darum geht man auch vermehrt den Weg kombinierter Systeme. Sie sollen künftig in der Lage sein, das vorhin erwähnte "Fast Thinking" mit dem "Slow Thinking" verbinden zu können.

STANDARD: Ist die Kombination aus beidem also als Evolutionsstufe zu verstehen?

Sallinger: Kommt immer drauf an, mit wem man darüber spricht. Es gibt genügend Forschungsbereiche, die sich auf eine der beiden Methoden beschränken. Die Realität hat aber gezeigt, und das sieht man bei den verschiedensten Unternehmen und Forschungseinrichtungen, dass die Kombination der Methoden in den meisten Fällen die voraussehbare Zukunft sein wird.

STANDARD: Kommen solche kombinierten System bereits zum Einsatz?

Sallinger: Es gibt durchaus Systeme, die die Herausforderung dieser Kombination teilweise schon gelöst haben. Praktisch alle größeren Universitäten und auch Forschungseinrichtungen von Firmen im KI-Bereich haben solche neurosymbolischen Systeme, wie sie auch genannt werden. Auch an der TU Wien wird an so einem System gearbeitet.

Ein konkretes Beispiel gibt es im Finanzbereich unter der Bezeichnung "Knowledge Graph Embeddings", das aus einer intensiven Kooperation der TU Wien mit der italienischen Zentralbank entstanden ist. Wir beschäftigen uns mit ökonomischen Beziehungen zwischen Unternehmen und möglichen kritischen Aktivitäten, die in diesem Zusammenhang untersucht werden müssen. Hier helfen Methoden des maschinellen Lernens in Kombination mit logischem Schlussfolgern, um komplexe Finanznetzwerke verstehen und unbekannte Verbindungen aufdecken zu können.

Konkrete Umsetzung finden solche Systeme auch schon in der Luftfahrtindustrie und deren Lieferketten. Dort werden KI-Systeme verwendet, um alternative Ersatzteile für Flugzeuge zu finden, falls die vorgesehenen gerade nicht verfügbar sind. Es sind ja nicht immer alle von den zigtausenden Komponenten eines Flugzeugs vorhanden. Da gibt es bestimmte Schlussfolgerungen, die dieses KI-System zu 100 Prozent erklärbar ableiten kann und dann als Alternative vorschlägt.

STANDARD: Vor der Veröffentlichung des neuen großen Sprachmodells von OpenAI gab es Spekulationen, dass es über ein Vielfaches der Parameter seines Vorgängers verfügen sollte. Lässt sich die Intelligenz wirklich durch das bloße "Aufblasen" bestehender Charakteristika verbessern?

Sallinger: Wenn man solche Systeme in die Zukunft projiziert, werden sie bestimmt immer ausgereifter sein. Und je mehr Parameter das Sprachmodell enthält, desto weniger Fehler wird das Modell möglicherweise machen. In gewissen Fragen werden aber auch solche verbesserten Versionen rasch an ihre Grenzen stoßen.

Eine fundamentale Verbesserung, damit KI-Systeme extrem komplizierte mathematische, biologische oder chemische Aufgabenstellungen eigenständig lösen können, erscheint ausschließlich über die Erhöhung von Parametern nicht realistisch. Ich will die Möglichkeit nicht ausschließen, aber wahrscheinlicher sind neue Modelle, denen man zum Beispiel punktuell Wissen injizieren kann und ihnen so ein rasches Verständnis zu einem bestimmten Thema vermitteln kann.

STANDARD: Was halten Sie von dem beliebten Narrativ, dass sich Maschinen gegen ihre Schöpfer wenden, wenn sie einmal schlau genug sind?

Sallinger: Es kommt immer darauf an, wie wir als Menschen solche KI-Tools verwenden wollen. Eine wirkliche Gefahr kann nur aus dem doppelten Missverständnis heraus entstehen, dass man zu wenig Verständnis davon hat, wo man so ein System einsetzt und was es wirklich kann. Im Endeffekt ist es noch immer eine menschliche Entscheidung, wie viel man künstlicher Intelligenz zutraut. (Benjamin Brandtner, 16.3.2023)