Aus Forschung & Entwicklung Sensorik lässt Roboter »fühlen«

Philipp Mittendorfer (TU München) mit dem Roboter Bioloid, der 31 sechseckige Sensormodule verteilt über den ganzen Körper besitzt. Die Sensormodule messen Temperatur, Berührung und Beschleunigung, ähnlich wie die menschliche Haut.
Philipp Mittendorfer (TU München) mit dem Roboter Bioloid, der 31 sechseckige Sensormodule verteilt über den ganzen Körper besitzt. Die Sensormodule messen Temperatur, Berührung und Beschleunigung, ähnlich wie die menschliche Haut.

Forscher des Exzellenzclusters CoTeSys an der TU München haben eine Kunsthaut für Roboter entwickelt, über die diese wichtige taktile Informationen erhalten und die die Wahrnehmung über ihre Kameraaugen, Infrarotscanner und Greifhände hinaus ergänzen sollen.

Der Einsatz eines Roboters in sich ständig verändernden Umgebungen ist nach wie vor eine Herausforderung. Aber gerade, wenn er als »Helfer« für Menschen eingesetzt werden soll, ist es wichtig, dass er über die visuellen, kamera-basierten Informationen hinaus seine Umgebungsbedingungen wahrnehmen kann. Wichtige taktile Informationen erhält er etwa durch Berührungen. Dadurch kann er z.B. zurückweichen, wenn er in die Nähe eines Hindernisses gerät.

Wissenschaftler der TU München haben dazu nun eine Kunsthaut entwickelt, die dem Roboter unter anderem dies ermöglichen soll. Herzstück der neuen Roboterhülle ist ein gut fünf Quadratzentimeter großes, sechseckiges Plättchen. Auf der kleinen Platine stecken vier Infrarot-Sensoren, die alles registrieren, was einen Abstand von einem Zentimeter unterschreitet. »Wir simulieren damit leichte Berührungen«, erklärt Philip Mittendorfer, der als Wissenschaftler am Institut für Kognitive Systeme der TUM die Kunsthaut entwickelt. »Das entspricht unserer Wahrnehmung, wenn wir mit der Hand vorsichtig über die feinen Härchen unserer Haut streichen.« Hinzu kommen sechs Temperatursensoren sowie ein Beschleunigungssensor. Der erlaubt der Maschine, die Bewegungen der einzelnen Glieder, beispielsweise ihres Armes, genau zu registrieren und damit auch zu lernen, welche Körperteile sie gerade selber bewegt. »Wir versuchen hier, besonders viele verschiedene Sinnesmodalitäten auf kleinsten Raum zu packen«, erklärt der Ingenieur. »Außerdem sind die Platinen später leicht um weitere Sensoren zum Beispiel für Druck zu erweitern.«

Plättchen für Plättchen aneinander gesteckt gibt das Ganze ein bienenwabenartiges, flächiges Gebilde, das den Roboter vollständig überziehen wird. Damit die Maschine etwas merkt, müssen die Signale der Sensoren in einem Zentralrechner verarbeitet werden. Dazu leitet jedes Sensormodul nicht nur eigene, sondern als Knotenpunkt auch Daten anderer Sensorelemente durch. Dies geschieht automatisch und sorgt dafür, dass Signale alternative Wege gehen können, wenn einmal eine Verbindung defekt sein sollte.
Noch ist erst ein kleines Hautstückchen fertig: 15 Sensoren, mindestens einer auf jedem Segment eines langen Roboterarms, zeigen jedoch, dass das Prinzip schon funktioniert. »Wir werden die Haut schließen und einen Prototypen generieren, der völlig mit diesen Sensoren umschlossen ist und ganz neu mit seiner Umwelt interagieren kann«, gibt sich Mittendorfers Doktorvater Prof. Gordon Cheng überzeugt. »Eine Maschine, die selbst im Dunkeln merkt, wenn man ihr auf den Rücken tippt.«

Zukunftsweisend am Konzept sind jedoch nicht allein die Sinnesleistungen, sondern dass solche Maschinen es einmal mit einer unserer ureigensten neurobiologischen Fähigkeiten aufnehmen könnten: selber eine Vorstellung von sich zu gewinnen. Der Roboter ist ein Stück an den Menschen heran gerückt.