Selbständiges Lösen von Aufgaben Roboter mit Hausverstand

Es braucht noch viel Grundlagenforschung, bis Roboter auf die Anforderungen der realen Welt reagieren können.
Es braucht noch viel Grundlagenforschung, bis Roboter auf die Anforderungen der realen Welt reagieren können.

Der sinnvolle Einsatz von Robotern stößt noch an seine Grenzen, wenn etwas Unvorhergesehenes passiert. Denn Roboter können bislang kaum auf unerwartete Situationen reagieren. Wissenschaftler in Graz bringen den Robotern nun so etwas wie Verstand bei.

Für Menschen ist es ganz normal, auf unerwartete Situationen zu reagieren. In der Robotik dagegen stellt dies eine riesige Herausforderung dar. »In unserer Umwelt passieren immer wieder Überraschungen oder kleine Irrtümer, wie etwa, dass ich im fünften Stock eines Gebäudes lande statt im dritten. Wenn ein Roboter nicht merkt, dass er im falschen Stockwerk ist, kann er seine Aufgabe nicht erfüllen, erklärt Gerald Steinbauer von der Technischen Universität Graz.

Auf der ganzen Welt beschäftigen sich Wissenschaftler damit, wie Roboter auch in neuen oder ungewöhnlichen Situationen die gestellten Ziele erreichen können. Gerald Steinbauer und sein Team haben sich nun in einem kürzlich abgeschlossenen Projekt damit beschäftigt, Robotern so etwas wie Verstand beizubringen – sie nennen es Hausverstand. Die Grazer Forscher entwickelten einen Schlussfolgerungsmechanismus, der es dem Roboter erlaubt, Irrtümer zu erkennen und daraus Reparaturaktionen für sein Wissen abzuleiten.

»Wir haben Schlussfolgerungen mit dem sogenannten Situationskalkül in Logik abgebildet«, erläutert Steinbauer. Dazu beobachteten die Wissenschaftler, wo das Wissen des Roboters mit der aktuellen Situation nicht mehr zusammenpasste. Dabei fanden sie heraus, dass das Situationskalkül sowohl für die Überwachung und Diagnose genutzt werden kann als auch für die autonomen Entscheidungen der Maschine. Aus dem Wissen, was eine Aktion bewirkt, lernt der Roboter abzuleiten, was er als nächstes tun muss. Wenn also das Wissen des Roboters mit den Anforderungen der realen Welt nicht mehr übereinstimmt (weil sich eine Situation verändert hat), wird das Weltbild des Roboters sozusagen zurechtgerückt.

Dazu Steinbauer: »Wir versuchen in Einklang zu bringen, was der Roboter geplant hat und was wirklich passiert ist, indem wir es formal niederschreiben.« Im Test konnten die Forscher zeigen, dass das Modell grundsätzlich funktioniert. Sie gaben einem Roboter mehrere Tage lang durchgehend einfache Lieferaufgaben und dieser ließ sich auch durch Tricks nicht durcheinander bringen.

Eine Schwierigkeit bei der Grundlagenforschung im Bereich der Robotik ist, dass man eine enorme Rechenleistung benötigt, um autonome Systeme auszutesten. Deshalb ist das Grazer Team momentan nicht in der Lage, aufwändige Beispiele durchzutesten. Denn wenn ein Roboter auf ein umfangreicheres Problem stößt, kann es Stunden oder Tage dauern, bis er sie lösen kann.

Um das Wissen von Robotern mit den Anforderungen der realen Welt zusammenzubringen, ist noch viel Forschung nötig. Gerade in den Bereichen Wahrnehmung und Kognition seien noch viele grundlegende Fragen zu lösen, wie Steinbauer betont.