Continental

AR-HUD: Augmented Reality Head-up-Display

22. Juli 2014, 10:58 Uhr | Iris Stroh
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 2

Datenfusion und Grafikerzeugung im AR-Creator

Zahlreiche Simulationen und Continental Probandenversuche zeigten, dass es Fahrer als angenehm empfinden, wenn die Augmentierung etwa 18 bis 20 m vor dem Fahrzeug beginnt und sich je nach Streckenverlauf bis in etwa 100 m Entfernung fortsetzt. Peter Giegerich, zuständig für die Entwicklung des AR-Creators, erklärt, wie diese grafischen Hinweise erzeugt und richtig platziert werden: „Der AR-Creator ist eine ausgesprochen anspruchsvolle Neuentwicklung. Das Steuergerät muss zahlreiche Sensordatenströme auswerten, um die grafischen Elemente exakt dort auf der Mattscheibe zu platzieren, von wo sie passgenau in das AR-HUD Sichtfeld des Fahrers eingespiegelt werden können. Da ist einiges an Rechenkunst erforderlich.“

Der AR-Creator übernimmt eine Datenfusion aus drei Quellen: Die Geometrie des Straßenverlaufs stellt die Monokamera zur Verfügung. Dazu gehören die sogenannten Klothoiden, mathematische Beschreibungen für den Krümmungsverlauf der Fahrspur vor dem Fahrzeug. Größe, Lage und Entfernung von erkennbaren Objekten vor dem Fahrzeug stammen aus einer Kombination von Radarsensordaten und Interpretation der Kameradaten. Der eHorizon von Continental liefert schließlich den Kartenrahmen, in dem die vor Ort sensierten Daten hineininterpretiert werden. Im Demonstratorfahrzeug ist dieser eHorizon noch statisch und verwendet ausschließlich Datenmaterial der Navigation. Continental arbeitet bereits an der Serienreife von vernetzten und damit hochdynamischen eHorizon-Angeboten. So können dann auch Daten von unterschiedlichsten Quellen (Vehicle-2-Vehicle, V2V-Kommunikation, Verkehrsleitzentralen etc.) für die Darstellung im AR-HUD aufbereitet werden. Die Positionierung des Fahrzeugs auf einer digitalen Karte erfolgt mit Hilfe der Fusion von Fahrdynamik-, Kamera- und GPS-Daten.

Aus den fusionierten Daten errechnet der AR-Creator, wie der geometrische Straßenverlauf vor dem Fahrzeug aus der Position des Fahrers aussieht. Das ist möglich, weil die Augenposition des Fahrers bekannt ist: Im Demonstratorfahrzeug stellt der Fahrer vor Fahrtantritt einmalig die Lage der sogenannte Eye Box für sich richtig ein. Für die Serie lässt sich dieser Vorgang mit einer Innenraumkamera automatisieren. Sie erkennt die Augenlage des Fahrers und kann die Positionierung der Eye Box nachführen. Der Begriff Eye Box bezeichnet einen quaderförmigen Bereich, dessen Höhe und Breite einem theoretischen „Sichtfenster“ entspricht. Nur solange der Fahrer durch dieses Fenster auf die Straße blickt, erfasst er das komplette AR-HUD-Bild. Die Fahrzeugpassagiere sehen den dargestellten Inhalt von HUD und AR-HUD nicht.

„Basierend auf der einstellbaren Lage der Eye Box weiß der AR-Creator, wo sich die Augen des Fahrers befinden und aus welcher Perspektive sie das Verkehrsgeschehen und die Umwelt sehen“, erläutert Giegerich. Meldet ein Assistenzsystem eine relevante Beobachtung, so kann ein entsprechender virtueller Hinweis an der richtigen Stelle auf der Mattscheibe des AR-HUD erzeugt werden.


  1. AR-HUD: Augmented Reality Head-up-Display
  2. Augmentierung mit Kinotechnik im Auto
  3. Datenfusion und Grafikerzeugung im AR-Creator
  4. Weniger ist mehr

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Continental AG

Weitere Artikel zu Fahrzeugkomponenten

Weitere Artikel zu Safety und Security