Vollständig autonomes und gleichzeitig sicheres Fahren ist noch Zukunftsmusik. Doch fortschrittliche Sensorsysteme wie 360-Grad- und 4D-Radarlösungen haben das Potenzial, autonomes Fahren zu Realität zu machen.
Vor kurzem kündigte die National Highway Traffic Safety Administration (NHTSA) an, neue Vorschriften für autonome Fahrzeuge auszuarbeiten und forderte die Öffentlichkeit dazu auf, etwaige Sicherheitsbedenken zu äußern. Die zivile US-amerikanische Bundesbehörde für Straßen- und Fahrzeugsicherheit mit Einfluss auf sämtliche Märkte der Welt ist die wichtigste staatliche Instanz im automobilen Bereich. Sie untersucht und prüft insbesondere auch neue Technologien auf ihre Sicherheit und arbeitet entsprechende Richtlinien aus, an die sich Hersteller zu halten haben.
Gerade im Hinblick auf autonome Fahrzeuge sind die Untersuchungen der NHTSA überaus intensiv und detailliert. Dass entsprechende Vorschriften notwendig sind, um das Vertrauen der Fahrer zu gewinnen beziehungsweise aufrecht zu erhalten, zeigt auch eine aktuelle Statista-Umfrage: Demnach zeigen 30 Prozent der Bevölkerung in Deutschland Skepsis gegenüber dieser Art der Fortbewegung und 61 Prozent würden grundsätzlich kein autonomes Fahrzeug kaufen.
Daher soll das neue Regelwerk der NHTSA soll dazu beitragen, neue Normen für Assistenzsysteme und autonome Fahrzeuge aufzustellen – bevor diese am Straßenverkehr teilnehmen dürfen. Die NHTSA konzentriert sich hierbei auf die vier Bereiche Sensorik, Wahrnehmung, Planung und Steuerung. Die Behörde untersucht detailliert, wie Sensoren in Fahrzeugen eingesetzt werden und was beim Fahren genau um sie herum geschieht. Wie werden Verkehrszeichen und sich bewegende Objekte auf der Straße – etwa Fußgänger oder Radfahrer – wahrgenommen? Wie trifft das autonome Fahrzeug Entscheidungen auf Grundlage der erfassten und analysierten Informationen und welche Umsetzungsschritte folgert es daraus?
Wie der bisherige Stand der Technik zeigt, sind das Vorgehen und die Vorsicht der NHTSA nicht ganz unbegründet. Denn obwohl sich in der öffentlichen Wahrnehmung die Vorstellung von komplett eigenständig und ohne menschliches Zutun nutzbaren Fahrzeugen bereits manifestiert hat, ist die Realität von einem wirklichen autonomen Fahren noch weit entfernt. Es handelt sich bislang vielmehr um ausgereifte Fahrerassistenzsysteme, die das Risiko von Unfällen minimieren sollen. Nicht zuletzt ist der Faktor »Menschliches Versagen« bei 90 Prozent aller Unfälle die Hauptursache. Sensoren kommt deshalb eine entscheidende Bedeutung zu – sowohl beim Thema Sicherheit als auch dabei, vollständig autonomes Faahren in Zukunft überhaupt zu ermöglichen.
Um den Scanprozess der Fahrzeugumgebung so effizient und aussagekräftig wie möglich zu gestalten, kombinieren Hersteller heute die Daten mehrerer Sensoren wie Kameras, Lidar, Radar und GPS. Auf diese Weise soll die Navigation in unterschiedlichsten Umgebungen auf Basis umfassender Datenanalyse und -verarbeitung optimiert werden.
Doch neben ihren unbestreitbaren Vorteilen haben diese Technologien auch Schwachpunkte, die adressiert werden müssen. Kameras können Objekte in hoher Auflösung zwar klar erkennen – aber nur bei guten Licht- und Wetterbedingungen. Das herkömmliche Radar hingegen funktioniert bei schlechtem Wetter gut, hat aber eine geringe Auflösung. Dagegen kann Lidar Objekte detailliert identifizieren, zeigt jedoch einige Schwächen bei nicht so guter Witterung. Auch wenn sich die Sensoren gegenseitig ergänzen, erreichen sie deshalb nicht den erforderlichen Standard, um den Sicherheitsanforderungen des Straßenverkehrs gerecht zu werden. Es mangelt noch immer an Sicherheit und Präzision.
Um Sicherheit für alle Verkehrsteilnehmer zu gewährleisten, benötigen die Fahrzeuge einen vollständigen Rundumblick – ohne Lücken und Vermutungen. Menschen sind hierzu, egal wie versiert und aufmerksam sie auch sein mögen und wie viele Spiegel im und am Fahrzeug verbaut wurden, jedoch nicht in der Lage, da kein 360-Grad-Blick möglich ist und Menschen leicht ablenkbar sind. Aber ebenso wenig kann das die Technik, die bisher zum Einsatz kommt.
Hier setzen hochauflösende 4D-Imaging-Radare an, die rund um das Fahrzeug angebracht sind sowie ihre ergänzenden Wahrnehmungsalgorithmen an. Durch sie ist ein vollständiges, kontinuierliches und einheitliches Verständnis der Fahrumgebung möglich – in Echtzeit und ohne Lücken. Die Herausforderung besteht darin, die Fahrzeugumgebung mittels der Daten aller installierten Sensoren zuverlässig zu erfassen und zu einer kontinuierlichen, einheitlichen Darstellung des Fahrszenarios zusammenzuführen. Auf diese Weise werden die Wahrnehmungsalgorithmen bestmöglich unterstützt. Bislang war hierfür jedoch der Einbau mehrerer, in verschiedene Richtungen ausgerichteter Radare nötig.
Die dafür eingesetzte Radartechnik benötigt allerdings eine entsprechend hohe Auflösung. Denn nur so kann sie bewegliche und unbewegliche Objekte jeder Größe in der Umgebung des Fahrzeugs identifizieren, so dass potenziell gefährdete Verkehrsteilnehmer, etwa Fußgänger, Roller- oder Radfahrer, sofort erkannt werden.
Dies reduziert das Risiko von Fahrzeugkollisionen oder gar Todesfällen beträchtlich. Der Einsatz von 4D-Radaren mit ultrahoher Auflösung gewährleistet, dass ein Fahrzeug auch bei sehr ungünstigen Wetterbedingungen oder Lichtverhältnissen sofort gut erkannt werden kann – ein entscheidender Faktor, um die Sicherheit für alle beteiligten Verkehrsteilnehmer umfassend zu gewährleisten. Nicht ohne Grund stellen zahlreiche Fahrzeughersteller ihre Radarsysteme weltweit auf diese Technologie um.
Rundum-Wahrnehmungsradare, etwa die 360-Grad-Lösung Lynx Surround Imaging Radar und der Phoenix Perception Radar von Arbe, stellen sowohl für deren Rolle bei der Gewährleistung von Sicherheit als auch als Teil der gesamten Sensorik einen Paradigmenwechsel dar. Diese Form flächendeckender Wahrnehmung wird zukünftig auch bislang eher futuristisch anmutende – aber durchaus realisierbare – Funktionen in assistierten, autonomen und vernetzten Fahrzeugen möglich machen. Solche Radare heben die Sicherheit der Fahrzeuge auf eine neue Stufe und decken einige – von der NHTSA explizit als besonders relevant eingestufte – Schlüsselbereiche in punkto Funktionalität und Sicherheit umfassend ab.
Diese Radare lösen auch ein zweites, von der NHTSA als besonders wichtig eingestuftes Problem – das der Wahrnehmung. Die Lösung besitzt überlegene Wahrnehmungsfähigkeiten, die Fahrzeuge in ihrer Fahrspur lokalisieren und eine präzise Freiraumkartierung liefern können. Dabei handelt es sich um eine detaillierte Übersicht des Raums, auf deren Basis das Steuerungssystem des Fahrzeugs entscheiden kann, welche ermittelten Bereiche befahrbar sind oder nicht.
Kobi Marenko
ist Geschäftsführer von Arbe Robotics. Der Multiunternehmer verfügt über mehr als 20 Jahre Erfahrung in der Führung von Technologie- und Medien-Start-ups von der Gründung bis zur Übernahme. So war Marenko Gründer und Präsident von Taptica, einem an der Londoner Börse notierten und von Marimedia übernommenen mobilen DSP. Darüber hinaus ist er auch Gründer und CEO von Logia, einer Plattform für mobile Inhalte, die von Mandalay Digital übernommen wurde. Bei Arbe führen Kobi und sein Team eine Innovation auf dem Gebiet der Radartechnik an, die mit ihrer hochauflösenden 4D-Radartechnologie einzigartig ist.