LeddarTech kauft VayaVision »Das genaueste 3D-Umfeldmodell«

LeddarTech hat vor Kurzem VayaVision übernommen. Markt&Technik sprach mit Frantz Saintellemy, President and COO von LeddarTech, was sich das Unternehmen von dieser Übernahme verspricht und was die nächsten Schritte sind.

Markt&Technik: Warum hat LeddarTech VayaVision gekauft?

Frantz Saintellemy: LeddarTech wollte schon immer eine komplette End-to-End-Sensorlösung für den Automobilmarkt entwickeln und anbieten, die Hardware-agnostische Ansätze nutzt, die offen und skalierbar ist. VayaVisions Ansatz und Lösung passt sehr gut zu unserer Vision, da das Unternehmen Software für die Fusion von Sensorrohdaten und zur Wahrnehmung des Umfelds, sprich: Perception, anbietet. Dabei verfügt das Unternehmen über eine einzigartige Expertise in diesem Bereich. Dank ihres Ansatzes einer Abtastratenerhöhung (Upsampling) lässt sich die Auflösung von Radar und Kamera erhöhen. Das heißt zum Beispiel für Radar, dass ich mithilfe der Software die Leistungsfähigkeit von Radar auf die eines Lidar-Systems erhöhe, und das Ganze immer noch zu einem Radarpreis.

Es wird viel darüber diskutiert, ob Roh- oder vorverarbeitete Daten fusioniert werden sollen. Aber mehr als Rohdaten gibt es nicht, was bringt dann noch ein Upsampling?

Um eine möglichst genaue Rekonstruktion der Szene zu ermöglichen, sind Rohdaten einfach sehr wichtig. Denn nur dann habe ich die Möglichkeit, eine hohe Wiedergabetreue zu erreichen, ohne dass wichtige Informationen verloren gehen. Beim Upsampling wird die Auflösung digital verbessert, eine Technik, die beispielsweise in der Signalverarbeitung im Audiobereich üblich ist, wo mithilfe von mathematischen Filtern die Abtastrate und damit die Klangqualität erhöht wird. Und das gilt auch für die Umfelderfassung. Mit Upsampling und der Fusion von Rohdaten kann ich das genaueste 3D-Umgebungsmodell erreichen, sodass das Auto genau weiß, was drum herum passiert. Dieses Upsampling und diese Rohdatenfusion passen hervorragend zu unserer digitalen Full-Waveform-Lidar-Signalverarbeitung, bei der wir auch das Rohsignal verarbeiten und eine Lösung anbieten, die mit 90 Prozent der Lidar-Sensoren auf dem Markt kompatibel ist.

Es heißt, dass die Software von VayaVision skalierbar ist.

Ja, ein wichtiger Vorteil der VayaVision-Technologie besteht darin, dass man die verschiedenen Sensortypen in jeder möglichen Variation kombinieren kann. Egal ob einer oder 20 Sensoren verwendet werden, jedwede Kombination ist möglich. Sprich: vier Kameras, ein GPS, zwei Radar, oder acht Kameras, zwei GPS und zwei Radar, oder Lidar, Kamera und Radar. Der Entwickler kann also die Kombination wählen, die genau die Leistung liefert, die seine Anwendung benötigt, und gleichzeitig das kosteneffektivste ADAS- oder AD-Design realisieren.

Lidar ist die Sensortechnologie, die bislang aufgrund des hohen Preises in Fahrzeugen noch kaum zu finden ist. Es gibt zwar viele OEMs, die überzeugt sind, dass Lidar langfristig notwendig sein wird. Wenn LeddarTech jetzt aber eine Software anbietet, mit der sich die Möglichkeiten von Kameras und Radar deutlich verbessern lassen, besteht dann nicht die Gefahr, dass die OEMs doch auf Lidar verzichten und lieber bestehende Systeme mithilfe ihrer Software verbessern?

Nein, das glaube ich nicht. Denn selbst wenn die bestehenden Systeme verbessert werden können, fehlt danach immer noch die Leistungsfähigkeit, die nur Lidar bieten kann. Geht es um Safety und Zuverlässigkeit, dann sind alle drei Sensortechnologien erforderlich, um eine vollständige Systemredundanz zu erreichen. Wir verbessern die Robustheit der Systeme, indem wir die Radar- und Kameradaten mithilfe der Lidar-Erfassung, -Klassifizierung und -Segmentierung validieren. Es gibt immer Situationen, in denen es entscheidend ist, ob eine dritte Sensortechnologie eingesetzt wird oder nicht. Ein Beispiel: In Kanada gibt es aufgrund der rauen Umgebungsbedingungen viele Schlaglöcher, die von Kameras und Radar allein nicht erfasst werden können. Diese Schlaglöcher führen oft zu schweren Unfällen. Und dieses Problem kann nur durch die Kombination der Vorteile von Kamera, Radar und Lidar in Kombination mit den Vorzügen der Rohdatenfusion und der Upsampling-Technik von LeddarTech und VayaVision gelöst werden.

Upsampling klingt ein bisschen wie Mystik, als ob man Informationen erhalten könnte, die es gar nicht gibt. Wo liegen die Grenzen der Software?

Natürlich liegt auch bei der Kombination von Software und Sensor die Grenze bei den physikalischen Möglichkeiten des Sensors. Vereinfacht gesprochen könnte man sagen, dass sich mit vier Kameras ein autonomes Fahrzeug realisieren lässt, denn mit vier Kameras kann ich eine 360-Grad-Abdeckung des Umfelds erreichen. Und trotzdem reichen die vier Kameras in der Praxis nicht aus, denn zum einen fehlt die Redundanz, zum anderen käme nur eine einzige Sensortechnologie zum Einsatz, wodurch das Fahrzeug leicht in Situationen geraten könnte, in der es blind ist, weil es beispielsweise zu sonnig ist oder weil es regnet. Man muss also mindestens eine zweite Sensortechnologie einsetzen, um das System etwas sicherer zu gestalten. Will man allerdings ein wirklich sicheres System realisieren, dann sind Kamera, Radar und Lidar notwendig, denn auch in Zukunft hat jede Technologie ihre Einschränkungen.

Den idealen Sensor gibt es einfach nicht. Alle Sensortypen haben ihre Stärken und Schwächen. Unser Ansatz der digitalen Full-Waveform-Verarbeitung in Kombination mit Rohdatenfusion und Upsampling ermöglicht es LeddarTech, die Leistung der Sensoreinheit in einem ADAS- oder AD-System deutlich zu verbessern und gleichzeitig die Komplexität und Kosten des Systemdesigns zu reduzieren.