Man sollte es wirklich nicht für möglich halten: Ein Roboter wie dieser kann beim Menschen Emotionen wecken. Manche fühlen sich sogar genötigt staubzusaugen, ehe die Maschine randarf.

Foto: Dyson

Roboter im Alltag der Menschen im Jahr 2018 sehen nicht aus wie Androiden, die man aus Sci-Fi-Produktionen wie Star Trek oder I, Robot kennt. Sie sehen eher aus wie Roomba: eines dieser runden Geräte, die die Wohnung abfahren, um sie von Staub zu befreien. Man könnte glauben, sie sind für ihre Besitzer ein einfaches Werkzeug, das deren Alltag erleichtert. Doch Untersuchungen haben gezeigt, dass die Menschen ihrem Staubsaugerroboter gegenüber starke Emotionen entwickeln.

"Die Staubsaugerroboter bekommen Namen und werden in den Urlaub mitgenommen. Wird er kaputt, wollen viele Besitzer keinen neuen, sondern unbedingt den alten repariert haben", nennt Matthias Scheutz Beispiele für das Verhalten, das Menschen gegenüber diesen Geräten an den Tag legen. "Manche saugen die Wohnung vor, damit die Roboter nicht so viel Arbeit haben."

Scheutz beschäftigt sich als Professor der Tufts University in Boston und als Direktor des dort angesiedelten Human Robot Interaction Laboratory mit vielen Aspekten rund um die Entwicklung und das zukünftige Zusammenleben mit Robotern. In einer seiner Studien, die auf ethnografischen Untersuchungen aufbaut, ortet er "unidirektionale emotionale Bindungen zwischen Menschen und Robotern", die durchaus Gefahrenpotenzial in sich tragen.

Verliebte Kreise, ängstliche Dreiecke

Die Psychologen Fritz Heider und Mary-Ann Simmel zeigten bereits in ihren Versuchen in den 1940er-Jahren, wie Betrachter simplen geometrischen Figuren auf einem Bildschirm unwillkürlich Absichten und Gefühle unterstellten. Die Kreise und Dreiecke, die sich wie zufällig bewegten, verliebten sich, jagten einander oder ängstigten sich laut der Beschreibungen der Studienteilnehmer. "Die Annahme dahinter ist, dass das ein evolutionär eingebauter Mechanismus ist, der aus dem Erschließen von möglichen Ursachen Vorteile bezieht", erklärt Scheutz.

Auch bei den Roombas scheint allein das autonome und zielgerichtete Verhalten und die einhergehende Unterstellung eines Willens die emotionalen Projektionen ihrer Eigner hervorzurufen, sagt der Wissenschafter. "Dafür müssen sie keine menschlichen Merkmale aufweisen und nicht einmal wie Lebewesen aussehen."

Wenn das bereits bei Staubsaugern funktioniert, wie stark muss dieses Potenzial, emotionale Bindungen aufzubauen, erst bei hochentwickelten, anthropomorphen Robotern sein, die gezielt auf Menschen reagieren? Scheutz' Forschungen deuten darauf hin, dass allein schon Sprache ausreicht, um Emotionen oder Empathie durch ein künstliches System zu vermitteln – ein menschenähnliches Antlitz ist dafür nicht notwendig. Bei der Berührung, einer weiteren Form der emotionalen Kommunikation, steht die Interaktionsforschung erst am Anfang.

Risiken und Chancen

Für Forscher im Bereich der Mensch-Roboter-Interaktion birgt das Phänomen sowohl Chancen für das Wohlergehen der Menschen als auch Risiken für emotionale Enttäuschungen oder gar Missbrauch von emotionalen Bindungen. Ein weithin als positiv anerkanntes Beispiel ist die Roboter-Robbe Paro, die für Menschen mit Demenz entwickelt wurde. Sie reagiert mit Geräuschen und Bewegungen auf die Patienten und vermittelt ähnliche Gefühle wie ein Haustier. Positive Stimmungsveränderungen und soziale Auswirkungen durch Paro konnten belegt werden. Andere Beispiele zeigen, dass Roboter mit menschlichen Zügen positive Auswirkungen auf Kinder mit Autismus haben können – gerade weil sie berechenbarer und weniger komplex sind als Menschen.

Möchte man in einer Weise mit einem Roboter interagieren, für die er nicht gemacht ist, kann das bei Menschen aber auch zu Enttäuschung führen. Altenpflege wird seit langem als Anwendungsfall für die Robotik gehandelt. Durch die Zuwendungen entstehen im Menschen vielleicht Erwartungshaltungen, die ein System aber nicht erfüllen kann, weil sie außerhalb der Programmierung liegen. "Der Roboter kann vielleicht keine Dankbarkeit annehmen oder einfach nur übers Wetter reden. Vielleicht reagiert er dann einfach nicht. Die Abwesenheit einer Reaktion ist für das menschliche Gegenüber aber ebenfalls ein emotionales Signal", erläutert Scheutz. Um dieser Enttäuschung vorzubeugen, müsse die künstliche Intelligenz schon ein tieferes Verständnis von Emotionalität mitbringen. Oberflächliches Kalkül wie einfaches Spiegeln von Gefühlsausdrücken reicht nicht.

Natürlich können die "unidirektionalen emotionalen Bindungen" der Menschen missbraucht werden, warnt der Robotikexperte: "Was, wenn der Pflegeroboter älteren Menschen den Kauf von Produkten einredet? Was, wenn emotionale Erpressung eingesetzt wird? – Nach dem Motto: Kauf den neuen Fernseher, sonst schaue ich mit dir deine Lieblingsserie nicht mehr an?"

Soziale Normen verstehen

Scheutz und Kollegen stellen sich in ihrer Grundlagenforschung die Frage, wie man soziale Normen in künstliche Intelligenzen integrieren könnte. Die Anforderungen sind groß: "Man benötigt Wahrnehmung, man muss erkennen können, dass eine soziale Norm zutrifft, und man muss die richtige Reaktion auswählen", zählt Scheutz auf. "Allein zu erkennen, dass man jemandem, der Einkaufstaschen trägt, die Tür aufhalten sollte, wird zu einer sehr komplexen Aufgabe." Noch sei keine gute Lösung absehbar, wie Roboter diese Dinge lernen könnten.

Sollten die künstlichen Systeme dereinst einmal sowohl Emotionen wahrnehmen als auch verstehen können, was sie bedeuten – wo liegt dann eigentlich noch der Unterschied dazu, einen eigenen emotionalen Zustand zu haben? Anders gefragt: Wenn Roboter Emotionen sehr genau modellieren können, gibt es einen Punkt, an dem dieses Modell selbst zur Emotion wird? Die Frage sei mit heutigem Wissen nicht zu beantworten, erklärt der Wissenschafter. In der Philosophie werde diskutiert, ob Gefühle rein kognitive Prozesse seien oder ob sie auch eine weitere, körperliche Dimension aufweisen. "Sind sie rein kognitiv, gibt es im Prinzip keinen Grund, warum Maschinen nicht auch Emotionen empfinden könnten", sagt Scheutz. "Wir sind aber nicht einmal annähernd in der Lage, menschliche Emotionen zu verstehen. Für das Jetzt können wir diese Frage nur ausklammern." (Alois Pumhösel, 23.3.2018)