DFKI-Projekt abgeschlossen Intelligente Robotersteuerung durch Embedded Brain Reading

Robotersteuerung mittels der im DFKI-Projekt IMMI entwickelten Techniken
Robotersteuerung mittels der im DFKI-Projekt IMMI entwickelten Techniken

Für die Steuerung von Robotern haben zwei Forschungsinstitute im Projekt IMMI (Intelligentes Mensch-Maschine-Interface) Schlüsseltechniken entwickelt, die echtzeitfähiges und adaptives Embedded Brain Reading in vielen Anwendungen ermöglichen.

An dem Projekt beteiligt waren das Robotics Innovation Center des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) GmbH und die Arbeitsgruppe Robotik der Universität Bremen – beide unter der Leitung von Prof. Frank Kirchner. Anwendungen für die Ergebnisse sind im Weltall ebenso denkbar wie in Produktionshallen oder bei der Rehabilitation von Schlaganfallpatienten. Die Raumfahrt-Agentur des Deutschen Zentrums für Luft- und Raumfahrt (DLR) förderte das Projekt mit Mitteln des Bundesministeriums für Wirtschaft und Energie (BMWi) über fünf Jahre mit rund 3,7 Mio. Euro. Neurowissenschaftler, Informatiker, Mathematiker, Physiker und Ingenieure arbeiteten in IMMI gemeinsam an einer intelligenten Mensch-Maschine-Schnittstelle, die nicht nur die intuitive und effektive Steuerung eines oder mehrerer Roboter ermöglicht, sondern auch sich selbstständig an Änderungen des mentalen Zustands des Nutzers und an wechselnde Benutzer anpassen kann.

Im Gegensatz zu klassischen Brain-Computer-Interfaces beruht das entwickelte System auf der passiven Beobachtung des Bedieners durch Embedded Brain Reading. Dafür trägt der Bediener eine mit Elektroden bestückte Kappe, die es dem System mittels Elektroenzephalografie (EEG) ermöglicht, die Gehirnaktivität zu messen und spezifische Änderungen von Gehirnströmen zu interpretieren. Diese Änderungen erlauben zum Beispiel Aussagen über den Stand der Verarbeitung von präsentierter Information, über die Absichten des Bedieners oder über dessen kognitive Auslastung. Die Schnittstelle erhält dadurch wichtige Informationen, um den Menschen proaktiv in kritischen Situationen zu unterstützen oder die Effektivität der Steuerung anwenderspezifisch zu steigern. Hat der Bediener beispielsweise eine vom Roboter gesendete Warnmeldung übersehen, so weist ihn das System erneut darauf hin; ist der Anwender kognitiv überfordert, so wird seine Belastung reduziert.

Um die Handlungsabsicht und Aufgabenauslastung des Bedieners präzise einschätzen zu können, setzen die Forscherinnen und Forscher zusätzlich zum EEG auf Elektromyografie (EMG) zur Messung der Muskelaktivität und auf Eye-Tracking, das die Blickrichtung registriert. Auf diese Weise entsteht ein umfassendes Bild des kognitiven Zustands des Anwenders. Die Schnittstelle lernt aus diesen Daten und darauffolgenden Handlungen, welche Sequenzen in den Hirnströmen eine Wahrnehmung oder Aktion bedeuten. Auf diese Weise kann sich das System in Echtzeit an wechselnde Zustände des Benutzers und sogar automatisch an neue Benutzer anpassen.