Kuka: Safety in der kooperativen Robotik Not-Aus- und Zustimmtaster sind bei kooperativen Robotern obsolet

Der kooperative Leichtbauroboter »LBR iiwa« von Kuka bei der Montage von Geschirrspülern.

Immer mehr Roboter sind nicht in Sicherheitskäfigen untergebracht, sondern arbeiten direkt neben oder sogar mit dem Menschen. Für die gültigen Safety-Normen hat dies Folgen: Sie müssen an die neuen Verhältnisse angepasst werden – schon um der Rechtssicherheit willen.

Das stählerne Roboter-Ungetüm, das unverrückbar in seinem Sicherheitskäfig steht und scheinbar stupide immer dieselbe Tätigkeit verrichtet, hat noch nicht ausgedient, aber Konkurrenz bekommen. Immer mehr Hersteller bringen ein- oder zweiarmige Leichtbau-Roboter auf den Markt, deren Arme wenig Druck ausüben und dank moderner Sensorik auch auf Hindernisse wie etwa menschliche Körperteile direkt reagieren, indem sie ihre Bewegungen verlangsamen oder ganz stoppen. Solche Roboter kommen ohne Einhausungen aus: "40 Jahre lang waren die Roboter in Käfigen, und jetzt haben wir sie dort herausgeholt", sagt Dominik Bösl, Dozent an der School of Education der TU München und Corporate Innovation Manager beim Roboterhersteller Kuka. "Erstmals können Roboter mit Menschen interagieren, ohne sie zu verletzen."

 

Für die Regulierung der Robotersicherheit in der Industrie bleibt dies nicht ohne Folgen: Die Safety-Normen EN ISO 13849 und EN/IEC 62061, auf die die EU-Maschinenrichtlinie verweist, gelten auch für Roboter. Sie sind aber auf die Ungetüme in den Käfigen ausgelegt und schreiben daher Not-Aus- und Zustimmtaster vor, was für kooperative Roboter objektiv unnötig ist. "Anwender können den Roboterarm bewegen, um eine bestimmte Bahn einzulernen, die der Arm nachfahren soll", erläutert Bösl. "Den Safety-Normen zufolge müsste aber jeder dieser Teach-Vorgänge mit einem Zustimmtaster bestätigt werden. Bei einarmigen Robotern wäre das noch möglich, aber wenn ich die Bahnen zweier Arme zugleich einlerne, müsste ich zwei Zustimmtaster zugleich betätigen. Und dann ist das Ganze nicht mehr praktikabel."

Außerdem gibt es noch keine Grenzwerte, wie viel Kraft der Arm eines kooperativen Roboters auf den Menschen und seine Körperteile höchstens ausüben sollte. "Die Maschinenrichtlinie besagt, dass keine Maschine einen Menschen verletzen darf", führt Bösl aus. "Aber was ist eine Verletzung? Zählt ein blauer Fleck schon dazu? Dies hängt sicherlich auch von der individuellen Wahrnehmung ab." Das Fraunhofer IFF (Fraunhofer-Institut für Fabrikbetrieb und -automatisierung) in Magdeburg habe eine Aufstellung erarbeitet, wie sich welche Kraft auf welches Körperteil auswirkt. Aber der Gesetzgeber hinke verständlicherweise den technischen Entwicklungen hinterher.

Der Worst Case wäre wohl, wenn der Kopf eines Menschen und ein Roboterarm auf Kollisionskurs wären und tatsächlich kollidieren würden. "In solchen Fällen stellt sich die Frage, wann die Maschine schuld ist und wann der Mensch, wenn er nicht aufpasst", gibt Bösl zu bedenken. "In Betrieben haben Gabelstapler grundsätzlich Vorfahrt; wer das nicht beachtet, hat - flapsig ausgedrückt - Pech gehabt. Wir brauchen also möglichst bald Regularien zur Verantwortung bei unachtsamem oder fahrlässigem Verhalten von Menschen gegenüber kooperativen Robotern - das ist ja auch eine Haftungsfrage." Überhaupt die Haftung: "Wer haftet bei Verletzungen, die ein kooperativer Roboter als teilweise autonomes System einem Menschen zufügt - der Roboterhersteller, der Anwender, der Software- und Applikations-Programmierer oder wer? Dieses Problem haben wir unter anderem auch bei selbst fahrenden Autos", legt Bösl dar.

Um die kooperative Robotik auf eine rechtlich einwandfreie Basis zu stellen, sind also Ergänzungen nötig, die die Industrie so bald wie möglich gemeinsam mit den Normungs- und Standardisierungsgremien ausarbeiten sollte. "Wir müssen uns überlegen, was wir überhaupt unter 'sicher' verstehen wollen, was noch akzeptabel ist, wann eine Gefährdung vorliegt und welcher Autonomiegrad welche Folgen für die Haftung haben soll. Wann findet ein Haftungsübergang statt, und wer haftet wofür? Das sind die entscheidenden Fragen."