Der Care-O-bot 4 soll künftig erkennen, worauf sich die Aufmerksamkeit seines Gegenübers richtet.

Foto: Unity Robotics/Deniz Saylan

Karlsruhe – Wenn eine Person einer anderen einen Gegenstand reicht oder ihn entgegen nimmt, wirkt das zunächst wie eine einfache Handlung. Bei genauerer Betrachtung aber laufen dabei zahlreiche Mechanismen gleichzeitig ab: Wohin schaut der andere, ist er ansprechbar? Menschen nehmen all die Signale, die die Aufmerksamkeit ihres Gegenübers reflektieren, unterbewusst wahr und verhalten sich entsprechend. Dieselbe Sensibilität auch Robotern beizubringen, daran arbeitet ein Team um Sebastian Robert vom Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung (IOSB).

Roboter brauchen grundlegende Fähigkeiten der Interaktion, wenn sie Menschen etwa im Haushalt oder in Pflegeeinrichtungen hilfreich zur Seite stehen sollen. Beispielsweise müssen sie Dinge sicher entgegennehmen und weiterreichen können. "Dafür reicht es nicht, dass der Roboter, zum Beispiel per Kamera, den Gegenstand selbst wahrnimmt", sagt Robert. "Um sich erwartungskonform, also zwischenmenschlich kompatibel verhalten zu können, muss der Roboter auch erkennen, worauf sein menschliches Gegenüber gerade die Aufmerksamkeit richtet, und verstehen, welche Absichten er verfolgt."

Alltagshelfer Care-O-bot 4

Mit diesem Thema beschäftigt sich das Projekt ASARob. Konkretes Ziel ist, die Steuerungssoftware mobiler Roboter so zu erweitern, dass diese den Aufmerksamkeitszustand des Gegenübers erfassen und bei Bedarf durch entsprechende Aktionen auch beeinflussen können. Als Testsystem für die exemplarische Umsetzung dieser Fähigkeiten dient der vom Stuttgarter Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA und der Unity Robotics GmbH entwickelte Care-O-bot 4. Der mobile Roboter ist speziell für die Interaktion mit und Unterstützung von Menschen in Alltagsumgebungen geeignet und kann aufgrund seiner Modularität (z. B. Ausstattung mit oder ohne Roboterarme) einfach an unterschiedliche Aufgaben angepasst werden.

"Unter Aufmerksamkeit verstehen wir eine Zuweisung von Bewusstseinsressourcen auf bestimmte Umweltwahrnehmungen, also einen mentalen Zustand", erklärt Robert. "Aufschluss darüber geben uns visuelle Informationen wie Blickrichtung, Kopfdrehung und Körperhaltung einer Person." Sprachliche Äußerungen könnten zusätzliche Kontexthinweise geben. Basierend auf diesen Informationen soll ASARob künftig den Aufmerksamkeitszustand einschätzen können.

Nach der Aufmerksamkeitsschätzung folgt die Umsetzung in passendes Verhalten. Auch das ist Teil des Projekts: Der Roboter soll am Ende in der Lage sein, intuitiv mit Menschen zu interagieren, und insbesondere auch auf ältere Menschen zugehen und diese im Alltag unterstützen können. Dazu gehört neben Gesten auch die sprachliche Kommunikation in Form von Dialogen. (red, 1.12.2017)