DFKI entwickelt lernfähige Software Flinke Roboterfinger – auch im Weltraum

Die Roboterdame AILA führt eine autonome Manipulationsaufgabe in einem Nachbau der ISS durch.
Die Roboterdame AILA führt eine autonome Manipulationsaufgabe in einem Nachbau der ISS durch.

Roboter sollen selbstständig Aufgaben lösen – egal wo. Damit sie im Weltall schrauben, heben und greifen können, hat das DFKI und die Universität Bremen Methoden zur ein- und zweiarmigen Manipulation entwickelt sowie eine Lernplattform, mit der Maschinen das Verhalten von Menschen nachahmen.

Roboter sollen komplexe Aufgaben übernehmen – besonders an menschenfeindlichen Umgebungen. Auch im Weltraum und auf fremden Planten sollen sie für den Menschen arbeiten können, um zum Beispiel eine Infrastruktur aufbauen. Das erfordert zunehmend intelligentere Systeme, die an die Fähigkeiten des Menschen heranreichen.  

In dem am 31. Juli erfolgreich abgeschlossen Projekt »BesMan« (Behaviours for Mobile Manipulation) erarbeitete das Team des Robotics Innovation Center des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) und die Arbeitsgruppe Robotik der Universität Bremen generische Steuerverfahren für die ein- und zweiarmige Manipulation. Das Besondere: Sie funktionieren unabhängig von der Gestalt des Roboters, in menschenähnlichen Systemen genauso wie in mehrbeinigen Kletterrobotern.

Mit Hilfe der neuen Verfahren können Roboter nicht nur unterschiedliche Objekte manipulieren, sondern auch selbstständig auf unvorhergesehene Situationen reagieren. Darüber hinaus entwickelte die Universität Bremen eine maschinelle Lernplattform. Sie ermöglicht es dem System situationsspezifische Verhaltensweisen zu erlernen, die es über eine Schnittstelle zum Menschen einstudiert.

Die Steuerverfahren in BesMan sind nach dem Prinzip eines Baukastens entwickelt. Eine Reihe von Verhaltensstrategien – etwa solche, die dem Roboter das Greifen oder Heben von Objekten ermöglichen – hat er bei seiner Reise ins All bereits im Gepäck. Je nach Situation oder Aufgabe schmiedet er einen gesonderten Plan und wählt passende Verhaltensweisen aus.

Auf diese Weise kann er sich selbst aus schwierigen Situationen befreien und eigenständig neue Aufgaben meistern. Schafft er das nicht, kommt die Lernplattform zum Einsatz: Auf der Erde macht der Mensch Bewegungen im Labor vor, die dem Roboter aus der Klemme helfen können. Motion-Tracking-Kameras zeichnen die Bewegungen auf, woraufhin die Lernplattform den Bewegungsablauf automatisch in einzelne Segmente zerlegt. In einer Simulation wird die Abfolge schließlich reproduziert, erlernt und an die Anforderungen des Systems angepasst, bevor sie ins All auf den Roboter übertragen wird. Der führt die Handlung aus und übernimmt die neue Bewegung in sein Verhaltensrepertoire.

Die lernfähige Software wurde an unterschiedlichen DFKI-Robotersystemen, etwa an dem nachgiebigen Roboterarm COMPI, der humanoiden Roboterdame AILA und dem sechsbeinigen Laufroboter Mantis getestet.

Das Projekt BesMan wurde mit rund 3,8 Mio. Euro von der Raumfahrt-Agentur des Deutschen Zentrums für Luft- und Raumfahrt mit Mitteln des Bundesministeriums für Wirtschaft und Technologie über eine Laufzeit von vier Jahren gefördert.