Umfassende Sensorik und Algorithmen sind bei kollaborativen Arbeitsplätzen, wo Mensch und Roboter zusammenarbeiten, essenziell.

Foto: Getty Images / iStock / Ndoeljindoel

Die industrielle Fertigung bewegt sich auf eine stärkere Verzahnung der menschlichen und maschinellen Arbeitskräfte zu. Jenen Bereichen, in denen Roboterarme in Käfigen oder hinter Plexiglasscheiben Produkte montieren, folgen geteilte Abteilungen.

Roboter helfen hier den menschlichen Arbeitskräften beispielsweise, indem sie im richtigen Moment das passende Werkzeug oder Bauteil reichen oder indem sie etwa schwere Getriebeteile für die Montage millimetergenau positionieren.

Damit das klappen kann, müssen dem Roboter verlässliche Informationen über seine unmittelbare Umgebung zur Verfügung stehen. Die richtige Sensorik ist Voraussetzung für intelligente Algorithmen, die das System in Abstimmung mit dem Umfeld steuern können.

In diesem Bereich ist das Projekt CapSize angesiedelt. Gefördert vom Europäischen Fonds für regionale Entwicklung (Efre) und vom Kärntner Wirtschaftsförderungsfonds (KWF) arbeiten Wissenschafter des Forschungsinstituts Joanneum Research, der Universität Klagenfurt und der FH Kärnten gemeinsam an einer modularen Interaktionszelle für Mensch und Maschine. In der sogenannten Contactless and Safe Interaction Cell (CSIC) als abgeschlossene Einheit weichen die Käfige vordefinierten Räumen, die von umfassender Sensorik durchdrungen sind.

Sensor-Fusion

"Ein wichtiger Aspekt der kollaborativen Arbeitsplätze ist, dass die verschiedenen Sensorsysteme nahtlos miteinander kombiniert werden", sagt Projektmitarbeiter Johannes Sturm, der mit Projektleiter Dongning Zhao an der FH Kärnten an CapSize arbeitet, über die Bedeutung sogenannter Sensor-Fusion-Technologien für diesen Bereich.

Verschiedene Sensortypen werden dabei zu einem Gesamtmodell "zusammengerechnet" – etwa Kamera- oder Radarsensoren, die einen Überblick geben, und Berührungssensoren, die Informationen von der direkten Roboterumgebung liefern.

In dem Projekt konzentriert man sich auf sogenannte kapazitive Sensoren – ein verbreitetes Prinzip, das etwa hinter vielen Touchscreens steht: Ein elektromagnetisches Feld wird dabei von einer Annäherung oder Berührung verändert, die veränderten Eigenschaften werden gemessen. Sensoren dieser Art sollen hier aber mitsamt eigenen integrierten Schaltungen, die eine lokale Verarbeitung der Sensorinformationen übernehmen, großflächig in Form von Folien arrangiert werden, mit denen dann Arbeitsoberflächen und Roboterarme überzogen werden.

Autonome Sensorbereiche

Die so entstandenen Sensor-Arrays sollen Bewegungen in einem Umfeld von bis zu 20 Zentimetern von Roboter und Arbeitsbereich – im Rahmen des Projekts soll neben dem Roboterarm die Oberfläche eines Werktisches mit der Sensorik ausgestattet werden – erkennen. Darunter können auch Gesten fallen, mit denen die Menschen intuitiv ihre Roboterkollegen steuern können, verdeutlicht Sturm.

Die autonom arbeitenden Sensorbereiche sollen über eigene Rechenkapazität, Stromversorgung und Übertragungstechnologie verfügen. Lokale Auswertungsergebnisse werden an eine übergeordnete Systemeinheit übermittelt, wo auch Daten anderer Sensorsysteme und -typen einlangen und zu einem Gesamtbild vereint werden. Eine relevante Frage dabei lautet, wie eine sinnvolle Aufteilung der Berechnungen zwischen lokaler und zentraler Instanz aussehen könnte. Für Sturm hängt die Gestaltung der Datenprozessierung letztlich von der konkreten Anwendung des Systems ab.

Höhere Arbeitsgeschwindigkeit

Die voll integrierte Sensorik im Arbeitsplatz soll etwa davor bewahren, dass tote Winkel entstehen – Situationen, die von keinem der Sensorsysteme schnell genug registriert werden können.

Eine nahtlos alle Bereiche abdeckende Sensorik, die sicher arbeitet, würde auch eine höhere Arbeitsgeschwindigkeit der Roboterarme erlauben. "Das System soll sehr adaptiv sein und beispielsweise trotz einer Ausweichbewegung aufgrund der Nähe eines Menschen dennoch einen Handgriff oder eine Tätigkeit gezielt zu Ende führen können", erläutert Sturm.

Während sich die FH Kärnten im Projekt um das Design der eingebetteten Elektronik kümmert, fokussiert die Uni Klagenfurt auf die Entwicklung des Sensorprinzips und Joanneum Research auf die Roboterintegration. Am Ende des Projekts soll ein Prototyp stehen, der die Funktionsweise der neuartigen Sensorik an einem Roboterarbeitsplatz demonstriert – und auf dem zukünftige Forschungen aufbauen können. (Alois Pumhösel, 19.6.2020)