Hürden fürs hochautomatisierte Fahren Selbstfahrende Autos – mit vielen Sinnen

Thomas Scherübl, ESG: »Der Übergang zum hochautomatisierten Fahren wird ein gradueller sein.«
Thomas Scherübl, ESG: »Der Übergang zum hochautomatisierten Fahren wird ein gradueller sein.«

Hochautomatisiertes Fahren ist ein komplexes Thema, zumal künftig die Software auf Basis von 3D-Bildverarbeitungs-, Lidar- oder Radar-Daten entscheiden muss, in welcher Situation das Fahrzeug wie reagieren soll. Mit Software für das hochautomatisierte Fahren befasst sich das Systemhaus ESG.

Thomas Scherübl, Senior Software Engineer in der Abteilung Development Advanced Driver Assistance / Embedded Software bei der ESG, erläutert die Hintergründe.


Markt&Technik: Welche Bedeutung hat die Sensorik für das hochautomatisierte Fahren?

Thomas Scherübl: Sensoren sind die Sinnesorgane technischer Systeme. Erst im Zusammenspiel mehrerer Sensoren unterschiedlicher Messprinzipien – im Falle des selbstfahrenden Autos von unter anderem Lidar, Radar, Kamera, GPS und inertialer Messeinheit als „Sinne“ - entsteht ein vollständiges und verlässliches Abbild der Realität. Der Steuerungsrechner eines selbstfahrenden Autos benötigt dieses Abbild, um in jeder Situation eine angemessene Manöverentscheidung durchführen zu können.


Autonom fahrende Automobile oder Lastwagen scheinen im Gegensatz zu autonom fahrenden Robotern noch weit in der Zukunft zu liegen. Worin liegen die technischen Unterschiede zwischen den beiden?

Die technischen Konzepte ähneln sich durchaus, aber der autonom fahrende Roboter ist meist in relativ gut definierbaren Umgebungen, also Fertigungsanlagen, unterwegs. Dort lassen sich auftretende Situationen – etwa sich bewegende Fußgänger oder Arbeiter – besser einschätzen bzw. im Voraus regeln. Ohnehin sollte man den Begriff „autonom“ vorsichtig einsetzen, weil er ein System beschreibt, das ein Ziel durch eigenständiges Treffen komplexer Entscheidungen erreicht. So weit ist man weder in der Robotik noch bei Fahrzeugen. Ich spreche lieber von „hochautomatisiertem Fahren“ oder „selbstfahrenden Automobilen“.


OK, das hat Sinn. Welche Rolle spielt die Bildverarbeitungstechnik beim hochautomatisierten Fahren?

Beim hochautomatisierten Fahren ist die Bildverarbeitung einer von mehreren Funktionsblöcken, die dazu dienen, die Umgebung zu erkennen und zu verstehen, um anhand dessen Entscheidungen treffen zu können. Auch Radar, Lidar und Ultraschall leisten ihren Beitrag, zumal sie sich für manche Aufgaben besser eignen als die Bildverarbeitung.


Und zwar?

Ultraschall ist eine kostengünstige Sensortechnologie zur Ermittlung kurzer Distanzen, etwa für Parkassistenzsysteme. Mit Radar und Lidar lassen sich dagegen Abstände zu weiter entfernten Fahrzeugen besser abschätzen. Außerdem können Radar und Lidar auch den Abstand eines Fahrzeugs bestimmen, das zwei oder drei Fahrzeuge vor dem eigenen fährt. Mit Kameras ist es schwierig, ab einer Entfernung von etwa 20 m den Abstand genau zu messen – hier ergänzen Radar und Lidar die Daten der Kameras durch eine höhere Genauigkeit. Diese Eigenschaft haben sie mit Menschen gemein, weil Menschen sich bei der Einschätzung größerer Abstände schwertun.


Im Gegensatz zu Radar - jeder kennt die „Radarfallen“ an den Straßen - ist Lidar der breiten Öffentlichkeit recht wenig bekannt. Wie funktioniert Lidar?

Lidar misst die Zeit, die ein ausgesandter und reflektierter Laserstrahl braucht, um wieder zurückzukommen. Die resultierenden 3D-Punkte weisen eine hohe Genauigkeit und Dichte auf und erlauben es, Objekte anhand ihrer Form zu erkennen. Bei Regen und Schnee erschweren jedoch Licht-Ablenkungseffekte die Anwendung von Lidar – hier profitiert ein System mit verschiedenen Sensortypen von den Vorteilen eines Radars: Es erreicht zwar weniger Auflösung, lässt sich aber von Regen und Schnee weniger ablenken und hat eine höhere Reichweite. Radar misst ebenfalls diese Zeit und zusätzlich über den Dopplereffekt die relative Geschwindigkeit eines Objekts gegenüber einem anderen: Wie schnell bewegt sich das Auto vor meinem relativ zu meinem, sprich: Wann fahre ich voraussichtlich auf meinen Vordermann auf?


Nochmal zurück zur Bildverarbeitung: Wodurch unterscheiden sich die Bildverarbeitungs-Verfahren für die autonome Robotik und fürs hochautomatisierte Fahren?

In autonom fahrenden Robotern nehmen häufig zwei Kameras permanent eine Entfernungsbestimmung mittels 3D-Bildverarbeitung vor. Aus den Kamerabildern entsteht also laufend ein 3D-Umfeldmodell, sprich: ein Modell der Umgebung. Dies nennt man auch 3D-Rekonstruktion: Die Kameras veranschaulichen die in ihrem Sichtfeld erfassten Objekte als Entfernungsbilder, sogenannte 3D-Punktewolken, die sich sammeln und übereinanderlegen lassen, was zu einer 3D-Karte führt. Der Fachbegriff dafür lautet Simultaneous Localization and Mapping (SLAM): Der autonome Roboter erstellt, wenn er einen Gang entlangfährt, mehrere Punktewolken, die sich übereinanderlegen lassen, was ein 3D-Bild des Gangs ergibt. Und wenn der Roboter immer wieder bestimmte Gänge entlangfährt, kann er die 3D-Bilder seiner Umgebung speichern und sich daran wieder erinnern.

Wenn der Weg eines selbstfahrenden Roboters in der Intralogistik oder die Straße vor einem hochautomatisch fahrenden Auto mittels Bildverarbeitungstechnik analysiert wird, sind die Bildverarbeitungs-Algorithmen fast gleich. Bei beiden Fahrzeugen geht es ja letztlich darum, permanent zu ermitteln, wo sie sich relativ zu ihrer Umgebung befinden.