Für Fahrfunktionen mit höherem Automatisierungsgrad ist eine sichere Bahnplanung nötig, die dynamische Objekte berücksichtigt. Bei der expliziten Erkennung von Objekten kann es zur Fehlerfortpflanzung in der Verarbeitungskette kommen. Integrierte Sensorfusionsalgorithmen vermeiden solche Fehler.
Die Aufgabe jeder übergeordneten automatisierten Fahrfunktion ist es, zu bestimmen, wohin das Fahrzeug in Zukunft fahren soll. Aus globaler Sicht ist dies eine Navigationsaufgabe, die eine verlässliche Positionierung und eine Karte erfordert. Um jedoch nicht mit anderen Verkehrsteilnehmern oder Hindernissen zu kollidieren, ist zusätzlich zur globalen Planung eine kurzfristige Bewegungsplanung nötig. Die Bestimmung einer solchen kurzfristigen Planung wird oft als »Bahnplanung« bezeichnet.
Aus reiner Sicherheitsperspektive kann ein Fahrzeug an jede Stelle fahren, die nicht von einem Hindernis besetzt ist oder die freien Raum darstellt. In statischen Umgebungen lässt sich freier Raum mit einem Sensor wie einem LiDAR-Sensor bestimmen. Dann würde es ausreichen, die Bahn so zu planen, dass sich das Fahrzeug während der Fahrt immer innerhalb des ermittelten Freiraums befindet. Dies wäre sicher, da in statischen Umgebungen alle Objekte an ihrer aktuellen Position bleiben, während sich das Fahrzeug bewegt.
Sobald die Umgebung aber dynamische Objekte enthält, ist eine statische Bahnplanung nicht mehr sicher, da sich der freie Raum ändern könnte, während das Fahrzeug den geplanten Weg fährt. Um diese Einschränkung zu überwinden, muss die Bahn unter Berücksichtigung der Bewegung anderer Verkehrsteilnehmer geplant werden. Sobald die Dynamik der Objekte und somit ihre Geschwindigkeit und Fahrtrichtung bekannt ist, lässt sich vorhersagen, wo diese Objekte zu einem zukünftigen Zeitpunkt Raum einnehmen werden, und die geplante Bahn wird entsprechend angepasst.
Im Allgemeinen liefern Sensoren keine (Kamera, LiDAR) oder nur begrenzte (Radar) Informationen über die Dynamik eines Objekts. Stattdessen liefern sie 2D- oder 3D-Positionen von Reflexionen (LiDAR, Radar) und Daten auf Pixelebene (Kamera). Radarsensoren bilden eine Ausnahme, da sie zusätzlich die Radialgeschwindigkeit (Doppler) der Objekte liefern. Sie können jedoch nicht die Geschwindigkeit kreuzenden Verkehrs bestimmen und enthalten oft weitere Geschwindigkeits-Mehrdeutigkeiten. Der klassische Ansatz zur Bestimmung der Objektdynamik beruht auf
Typischerweise haben Erkennungsfehler wie Falsch-Negative eine viel größere negative Auswirkung auf die Qualität des resultierenden Umfeldmodells als zusätzliche Sensorfehler, wie etwa die Genauigkeit der Entfernungsmessung eines Radars. Deshalb bergen Ansätze, die auf einer reinen Objekterkennung basieren, inhärente Risiken für sicherheitsrelevante Faktoren wie die Bahnplanung.
Für diese auf Objekterkennung basierenden Ansätze gibt es mehrere Architekturvorschläge. Bei der einzelsensorbasierten Objekterkennung und Dynamikbestimmung (Bild 1) werden die Objekte von jedem Sensor unabhängig erkannt/geclustert und verfolgt; anschließend erfolgt die Objektdatenfusion. Der freie Raum wird durch ein statisches Belegungsraster bestimmt. Dieses wird um die per Objektdatenfusion bereitgestellten dynamischen Objekte ergänzt.
Jedoch werden bei dieser Vorgehensweise Fehler bei der Objekterkennung auf die Bahnplanung übertragen, wodurch diese Architektur eine Reihe von potenziellen Nachteilen hat:
Verbesserte Architekturen kombinieren die Sensordaten auf einem niedrigen Level und erkennen und verfolgen Objekte auf Grundlage dieser fusionierten Informationen. Beim verbesserten detektionsbasierten Ansatz (Bild 2) werden Objekte mit künstlicher Intelligenz (KI) aus kombinierten Rohdaten extrahiert und erkannt. Anschließend wird die Objektdynamik über die Zeit mithilfe einer Objektdatenfusion abgeleitet und der freie Raum bestimmt.
Dennoch häufen sich die Fehler bei der Objekterkennung und landen in der Bahnplanung, da detektionsbasierte Architekturen weiter auf einer Objekterkennung und einer separaten Bestimmung von dynamischen Objekten und freiem Raum beruhen und können daher von denselben Fehlerquellen betroffen sein. Darüber hinaus hat dieser Ansatz weitere Nachteile:
Während der klassische Ansatz die Erkennung von Objekten erfordert, um ihre Dynamik abzuleiten, und damit potenziell Fehler mit sich bringt, bestimmt die dynamische Grid-Datenfusion Größen wie Geschwindigkeit und Fahrtrichtung auf einer niedrigeren Ebene: der Zellenebene. Als Track-before-detect-Ansatz müssen mit Dynamic Grid Objekte nicht explizit erkannt werden. Stattdessen werden die dynamischen Größen für jede Zelle einzeln bestimmt (Bild 3).
Diese zellenbasierte Bestimmung dynamischer Größen erfordert weniger a-priori-Wissen über relevante Objekte für die Bahnplanung. Dies ermöglicht die Ableitung der Dynamik von Objekten, selbst wenn ihre Form zum Entwicklungszeitpunkt unbekannt ist.
Wenn Objekte nicht explizit erkannt und klassifiziert werden müssen, können typische Erkennungsfehler die Bahnplanung von vornherein nicht beeinträchtigen. Für andere Funktionen können jedoch explizit erkannte Objekte erforderlich sein, zum Beispiel für die Anwendung von Verkehrsregeln wie die Vorfahrt für andere Verkehrsteilnehmer. Eine Architektur, die auf einer dynamischen Grid-Datenfusion basiert (Bild 4), ermöglicht die freie Wahl der besten Datenebene für jede Funktion: Auf Zellebene für die Bahnplanung; auf Objektebene für andere Funktionen.
In einer Architektur basierend auf einer Dynamic-Grid-Datenfusion bestimmt der Low-Level-Sensor-Fusion-Ansatz dynamische und statische Objekte sowie den freien Raum auf integrierte Weise. Die Extraktion potenziell fehlerhafter Objekte erfolgt erst nach der Bahnplanung und hat somit keinen Einfluss auf deren Sicherheit. Dieser Ansatz hat zahlreiche Vorteile:
Dr. Eric Richter
ist Director Technology Innovation und Mitgründer von Baselabs.