CarMaker und Drive PX 2 verknüpfen Deep-Learning-Algorithmen im virtuellen Fahrtest trainieren

Algorithmen, die auf neuronalen Netzen basieren, lernen, relevante Informationen wie andere Fahrzeuge und Fahrbahnmarkierungen in Echtzeit zu erkennen.
Algorithmen, die auf neuronalen Netzen basieren, lernen, relevante Informationen wie andere Fahrzeuge und Fahrbahnmarkierungen in Echtzeit zu erkennen.

Die Simulations-Software CarMaker von IPG Automotive kann ab sofort mit der Nvidia-Hardware-Plattform Drive PX 2 verknüpft und zum Training von neuronalen Netzen im virtuellen Fahrversuch verwendet werden. Zudem lassen sich auch Deep Learning-Sensorfusionsalgorithmen virtuell entwickeln und testen.

Wie bringt man ein Fahrzeug dazu, selbstständig und autonom zu fahren? Man lässt es bei echten Fahrern zuschauen und lernen. Möglich macht das die offene Computing-Plattform Drive PX 2 von Nvidia. Das Besondere dieser Hardware-Plattform ist die Verwendung von GPUs, die das Training und die Berechnung neuronaler Netze und Deep-Learning-Anwendungen schneller macht als bei reiner Verwendung von CPUs. Die auf neuronalen Netzen basierenden Algorithmen erkennen schon nach Kurzem in Echtzeit, wie andere Verkehrsteilnehmer oder Verkehrsschilder aussehen und ermöglichen selbst in komplexen Verkehrssituationen eine Orientierung im Straßenverkehr. Die Simulations-Software CarMaker von IPG Automotive kann nun auch mit der Nvidia-Hardware-Plattform verknüpft und zum Training von neuronalen Netzen im virtuellen Fahrversuch zum Einsatz kommen. Darüber hinaus ermöglicht es die Verknüpfung, auch Deep Learning-Sensorfusionsalgorithmen zur Steuerung von Fahrerassistenzsystemen und automatisierten Fahrfunktionen virtuell zu entwickeln und testen.

Drive PX 2 lässt sich zur Interpretation von Sensordaten einsetzen: Die Daten von bis zu zwölf Kameras sowie von Lidar-, Radar- und Ultraschallsensoren können ausgewertet werden und so eine vollständige 360-Grad-Umgebung in Echtzeit abbilden. Deep-Neural-Networks (DNN) ermöglichen bei der Erkennung und Klassifizierung von Objekten eine hohe Genauigkeit der Ergebnisse aus den zusammengelaufenen Sensordaten und lassen das autonome Auto präzise und auf einer sicheren Route, angepasst an die jeweiligen Umstände, fahren.

Die Simulationslösungen der CarMaker-Produktfamilie und der Nvidia-Hardware-Plattform miteinander zu verknüpfen, eröffnet den Entwicklungsabteilungen der Fahrzeughersteller und Zuliefererindustrie auch die Möglichkeit, frühzeitige Tests von Fahrerassistenzsystemen und automatisierten Fahrfunktionen im virtuellen Fahrversuch durchzuführen. Bislang wurde dem neuronalen Netz ein reales Fahrvideo mit entsprechenden Daten zu Fahrbahnmarkierungen, Verkehrsteilnehmern, Gebäuden oder geparkten Autos in verschiedenen Sicht- und Wetterverhältnissen wie etwa Wolken, Nebel, Schnee und Regen, Tag oder Nacht vorgespielt. Ab jetzt können mithilfe von CarMaker reproduzierbare Daten unterschiedlichster Szenarien virtuell erzeugt und zum Training der neuronalen Netze verwendet werden.

Verknüpft mit der Video Interface Box von IPG Automotive sind zudem auch Closed-Loop-Testverfahren von Kamerasteuergeräten durch direkte Bildeinspeisung möglich. Beim Testen von Fahrerassistenzsystemen auf Hardware-in-the-Loop-Prüfständen (HiL) kann es aufgrund der fehlenden Synchronisation zwischen Bildaufbau im Monitor und der Bilderfassung in der Kamera zu »zerrissenen« Bildern kommen. Gleichzeitig sind digitale Flachbildschirme zu licht- und kontrastschwach, um Eingangsdaten für Lichtassistenzfunktionen liefern zu können. Durch die direkte Bildeinspeisung mithilfe der Video Interface Box in ein Serienkamerasteuergerät können diese Probleme umgangen werden. Ebenfalls ist es möglich über GMSL Bilder der Simulationsumgebung direkt in das Drive PX 2 einzuspeisen. Im Closed-Loop-HiL-Verfahren kann die Video Interface Box kamerabasierte Funktionen mit weiteren Steuergeräten inklusive der simulierten Umfeldsensorik überprüfen und somit die Vorteile des virtuellen Fahrversuchs auch im Kontext einer Sensordatenfusion nutzen.