Bild nicht mehr verfügbar.

Was hat er gesagt? Wie frustrierend es sein kann, nicht verstanden zu werden oder andere nicht zu verstehen, kennen wir von unserer täglichen Interaktion mit Menschen.

Foto: REUTERS/Mike Blake

Systeme der künstliche Intelligenz (KI) sind genau das, was ihr Name behauptet: Sie sind intelligent, also fähig, Probleme zu lösen, die unserer Meinung nach kompliziert sind, und sie sind durch Menschen erzeugt, also künstlich. Und tatsächlich sind KI-Systeme alles andere als natürlich. Denn der Anspruch, mittels Computer menschliches Denken nachzubilden, ist längst nicht mehr Teil der KI-Forschung, wenn er denn überhaupt jemals ernst genommen worden ist. In KI-Systemen geht es vielmehr darum, komplizierte Probleme in der Welt möglichst automatisiert zu lösen.

Hauptsache, es funktioniert?

Das ist kein Forschungshindernis – Hauptsache, es funktioniert –, wäre eine typische Antwort unter Technikern. In den meisten Fällen stimmt das auch. Solange wir KI-Systeme als Werkzeuge verwenden, oder genauer gesagt als Erweiterung der Infrastruktur unserer Informationsverarbeitung, reicht eine solch oberflächliche Sichtweise. Ich muss ja auch nicht nachvollziehen, wie meine Waschmaschine oder Bohrmaschine funktioniert, Hauptsache, der Servicetechniker versteht ihre Funktionsweise, falls sie defekt ist.

Leider ist in aktuellen KI-Systemen, die maschinelles Lernen verwenden – und das tun die meisten –, häufig nicht einmal das gewährleistet. Denn nicht der Mensch programmiert die Regeln des Funktionierens von KI-Systemen, sondern das System gibt sich die Regeln selbst vor – basierend auf Daten, die ihm zur Verfügung gestellt werden. Für Menschen stellen sich solche Systeme als Blackbox dar. Wir wissen nur, was hinein- und was wieder herauskommt. Wenn etwas schiefgeht, können wir die Blackbox jedoch nicht öffnen und nicht nachvollziehen, warum bei einem bestimmten Eingang problematische Ausgangswerte aufgetreten sind.

Vom Werkzeug zum Assistenten

Wenn unsere Interaktion mit Maschinen der Interaktion mit Menschen gleicht, ist das Problem noch dramatischer. Solche Maschinen unterstützen uns nicht als Werkzeuge, sondern als Assistenten. Das können physische Roboter oder virtuelle Assistenten sein. Wie frustrierend es sein kann, nicht verstanden zu werden oder andere nicht zu verstehen, kennen wir von unserer täglichen Interaktion mit Menschen.

Um daraus für die Entwicklung von künstlichen Assistenten zu lernen, sollten in diesen Systemen die psychischen Prozesse menschlicher Zusammenarbeit berücksichtigt werden. Die wichtigste Fähigkeit dafür ist Empathie, also die Fähigkeit, sich in andere Menschen hineinzuversetzen. Das kann durch Erkennen und Nachvollziehen der Motive und Ziele anderer Personen passieren. Noch häufiger geschieht dies jedoch durch das Erkennen ihrer Emotionen und Bedürfnisse. Psychologen sprechen davon, dass Menschen dafür die psychologischen Prozesse des Gegenübers simulieren. Die Notwendigkeit der Nachbildung psychischer Prozesse in künstlichen Assistenten mittels Computersimulation ist also naheliegend. Im Umkehrschluss würde das Menschen auch dabei helfen, künstliche Assistenten zu verstehen – eine gute Voraussetzung für die Zusammenarbeit. (Samer Schaat, 25.9.2018)