Bild nicht mehr verfügbar.

Der humanoide Roboter C-3PO aus Star Wars ist ein Kommunikations-Genie. Intelligente Chatbots sind noch weit davon entfernt.

Foto: imago/Future Image

Um 12 Uhr ist nichts mehr frei, um 13.15 ist es zu spät. Also wurde der Friseurtermin für Lisa auf 10 Uhr fixiert. – Vor ein paar Monaten sorgte Googles Präsentation seines Sprachassistenten Duplex, der bei einem reibungslosen Anruf einen Friseurtermin vereinbarte, für Aufsehen.

Das Gespräch verlief frei von Irrwegen und Missverständnissen, die man bisher von Sprachassistenten kennt, dafür mit nichtlexikalischen "Mm-hmm"- und "Umm"-Zwischenlauten der Sprachausgabe. "Der Assistent kann tatsächlich den Nuancen eines Gesprächs folgen", verkündete Google-Chef Sunar Pichai stolz die aktuelle Spitze der Evolution von sozial orientierter künstlicher Intelligenz.

In ein paar Jahren könnten wohl ein Teil der Gesprächspartner für Terminvereinbarungen und andere rein funktional ausgerichtete Alltagsgespräche derartige Service-Bots sein. Vielleicht interagiert man auch bei der Bestellung im Fastfood-Restaurant oder bei der Nachfrage, wo man im Geschäft welches Produkt findet, mit Computerstimmen. Diese Gespräche haben aber eines gemeinsam: Ihr Ziel ist klar definiert. Und das macht die Aufgabe für die Entwickler überschaubarer.

Ziellose Kommunikation

"Das Ziel wird in Subziele heruntergebrochen. Man baut eine Agenda und setzt sie sprachbasiert um", beschreibt Stephan Schlögl, Forscher am MCI Management Center Innsbruck, den Weg, den die Entwickler dabei gehen. "Viel schwieriger ist es allerdings, einen Gesprächspartner für ziellose Kommunikation zu schaffen."

Wenn es also wie bei simplem Smalltalk um ein soziales Bedürfnis des Menschen geht, nicht um ein funktionales, versagt der Computer noch weitgehend. Für Schlögl, der sich am MCI mit dem Design von Mensch-Maschine-Interaktionen beschäftigt, ist klar, dass die sozialen Begleiter kommen werden. "Wo ihre Grenzen liegen, ist aber noch nicht definiert." Sollen die Systeme etwa möglichst menschenähnlich oder klar als Maschine identifizierbar sein?

Als Alan Turing 1950 den nach ihm benannten Test kreierte, ging es ihm darum zu prüfen, ob man Computern Denkvermögen zuschreiben könne. Die Frage, ob im schriftlichen Chat Mensch und Maschine unterscheidbar sind, wurde zum wichtigen Kriterium. Heute, wo die Nachahmung menschlicher Eigenschaften durch Computer zu einem zentralen Forschungsziel wurde, schaffen die KI-Algorithmen diese Täuschung immer öfter – zumindest eine Zeitlang.

Akzeptanz und Vertrauen

"Ich bin mir aber nicht sicher, ob der Turing-Test heute noch das richtige Instrument für die KI-Entwicklung ist", bezweifelt Schlögl. Fragen der Akzeptanz oder der Vertrauenswürdigkeit der Technik treten in den Vordergrund.

"Social Companions", die etwa in die Form eines Roboters oder eines Bildschirm-Avatars schlüpfen, werden in Zukunft durchaus ihren Platz finden – etwa als Hilfestellung für ältere Menschen. "Sie können immer nur eine zusätzliche Möglichkeit der Interaktion bieten. Es geht nicht darum, den Kontakt mit den Enkeln zu ersetzen", betont Schlögl. Steigende Akzeptanz für die Technologien sei schon jetzt zu beobachten: "Ich bin immer wieder überrascht, wenn Amazons Alexa von älteren Menschen verwendet wird. Die Angst verschwindet immer mehr", so der Forscher.

Übers Leben reden

Möglich wären etwa Systeme, die als eine Art Ghostwriter dienen: ein künstliches System, das den Erzählungen eines älteren Menschen zuhört, alles über ihn lernt, aktiv mit ihm darüber spricht und so eine Art Lebensgeschichte zusammenstellt. Die regelmäßige Herausforderung, die die vom "Companion" hervorgerufene Auseinandersetzung mit Erinnerungen bietet, könnte auch einer Demenz vorbeugen, umreißt Schlögl eine Projektidee.

Aktuell trägt der Forscher im EU-Projekt "Empathic" zur Entwicklung eines virtuellen Coaches für ältere Menschen bei. Die Interaktion ist auch hier durchaus zielgerichtet. Sie soll dazu führen, dass sich die Nutzer mehr bewegen oder besser ernähren. Verbunden mit Fitnessarmband und Ernährungstagebuch, vielleicht sogar angeregt durch eine Erkennung der Mimik, könnte der Coach daran erinnern, einen Spaziergang zu machen oder einen Apfel zu essen, so Schlögl.

Ein Feldtest werde zeigen, ob das System zu Verhaltensänderungen führt und sich die Menschen damit wohlfühlen. Natürlich gebe es auch Ablehnung. Schlögl: "Eine ältere Frau meinte etwa, sie habe Alexa wieder rausgeschmissen, weil sie sich bevormundet fühlte." (Alois Pumhösel, 17.11.2018)