»Darf ich stören?« Roboter brauchen mehr zwischenmenschliche Fähigkeiten

Einen Gegenstand entgegennehmen oder ihn einer anderen Person reichen: Was für Menschen zu den natürlichsten, einfachsten Handlungen gehört, ist für Roboter eine schwierige Angelegenheit. Denn dazu ist eine gewisse Feinfühligkeit nötig.

Für ein funktionierendes Miteinander ist es wichtig, wohin der andere schaut oder ob er ansprechbar ist. Menschen nehmen Signale, die die Aufmerksamkeit ihres Gegenübers reflektieren, unterbewusst wahr und verhalten sich entsprechend.

Forscher des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB arbeiten gemeinsam mit Partnern im Projekt »Aufmerksamkeits-Sensitiver AssistenzRoboter« (ASARob) daran, diese Sensibilität auch Robotern beizubringen.

Ein Beispiel: Roboter in Pflegeeinrichtungen müssen Gegenstände sicher entgegennehmen und weiterreichen können. Dafür reicht es allerdings nicht, wenn der Roboter den Gegenstand selbst wahrnimmt. Um sich zwischenmenschlich kompatibel verhalten zu können, muss der Roboter auch erkennen, worauf sein menschliches Gegenüber gerade seine Aufmerksamkeit richtet und verstehen, welche Absichten er verfolgt.

Den Aufmerksamkeitszustand des Gegenübers erfassen

Im Projekt ASARob soll deshalb die Steuerungssoftware mobiler Roboter so erweitert werden, dass diese den Aufmerksamkeitszustand des Gegenübers erfassen und bei Bedarf durch entsprechende Aktionen beeinflussen können.

Als Testsystem für die Umsetzung dieser Fähigkeiten dient der vom Stuttgarter Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA und der Firma Unity Robotics entwickelte Care-O-bot 4. Der mobile Roboter ist speziell für die Interaktion mit und Unterstützung von Menschen in Alltagsumgebungen geeignet und kann aufgrund seiner Modularität (z. B. Ausstattung mit oder ohne Roboterarme) einfach an unterschiedliche Aufgaben angepasst werden.

»Unter Aufmerksamkeit verstehen wir eine Zuweisung von Bewusstseinsressourcen auf bestimmte Umweltwahrnehmungen, also einen mentalen Zustand«, erklärt IOSB-Forscher Sebastian Robert. »Aufschluss darüber geben uns visuelle Informationen wie Blickrichtung, Kopfdrehung und Körperhaltung einer Person.« Sprachliche Äußerungen könnten zusätzliche Kontexthinweise geben. Basierend auf diesen Informationen soll ASARob künftig den Aufmerksamkeitszustand einschätzen können.

Die Bedürfnisse potenzieller Anwender und durch das Projektvorhaben aufgeworfene ethische, rechtliche und soziale Aspekte werden vom Leipziger Fraunhofer-Zentrum für Internationales Management und Wissensökonomie IMW erforscht. Die Fraunhofer-Ökonomen wollen damit frühzeitig eine Marktorientierung sicherstellen und nehmen wirtschaftliche Aspekte wie die Werttreiber und die Zahlungsbereitschaft zukünftiger Anwender unter die Lupe.

Um herauszufinden, ob die Einschätzung des Aufmerksamkeitszustands durch den Roboter den Tatsachen entspricht, werden in Nutzerstudien Biosignale aufgezeichnet und ausgewertet. So können die Forscher den realen Aufmerksamkeitszustand mit der berechneten Einschätzung abgleichen. Für diesen Part des Projekts ist das Cognitive Systems Lab CSL der Universität Bremen verantwortlich.

Sprachliche Dialogfähigkeit

Nach der Aufmerksamkeitsschätzung folgt die Umsetzung in passendes Verhalten. Auch das ist Teil des Projekts: Der Roboter soll in der Lage sein, intuitiv mit Menschen zu interagieren, und insbesondere auf ältere Menschen zugehen, um diese im Alltag unterstützen zu können. Dazu gehört neben Gesten auch die sprachliche Kommunikation in Form von Dialogen. Daran wird das Unternehmen Semvox arbeiten.

Das geriatrische Zentrum in Karlsruhe-Rüppurr und das geriatrische Netzwerk in Leipzig sind als potenzielle Nutzer des Roboters am Projekt beteiligt. In deren Einrichtungen sollen relevante Anforderungen an die Technik identifiziert, der Roboter praxisnah bei der Personenführung sowie beim Anreichen von Interaktionsmedien an die Bewohner erprobt und seine Fähigkeit zum Umgang mit Senioren evaluiert werden.

Das auf drei Jahre angelegte Projekt ASARob wird vom Bundesministerium für Bildung und Forschung mit rund 2 Mio. Euro gefördert