Die automobile Navigation von morgen ist hochgradig vernetzt und in der Lage, hochaufgelöste Karteninformationen, Fahrzeug- sowie Umgebungsdaten aus der Cloud dynamisch zu nutzen. Sie ist ein Enabler für leistungsfähige Fahrerassistenz und smarte E-Mobilität. Das sind die Trends in diesem Bereich.
Die Beschaffung von Karten- und Navigationsdaten ist dank Dashcams, Drohnen und Satelliten heute einfacher als noch vor zehn Jahren, allerdings ist die Erfassung dieser Daten noch immer arbeitsintensiv. Denn auch wenn die meisten Ecken der Welt heute bereits in öffentlichen und firmeneigenen geografischen Informationssystemen (GIS) erfasst sind, müssen die Karten dennoch regelmäßig gewartet werden.
Datengenauigkeit und Datenaktualität sind die beiden größten Herausforderungen in der Mobilitätsbranche, gefolgt von der Abdeckung, denn auch die physische Welt entwickelt sich ständig weiter. Um diesen Anforderungen gerecht zu werden, nimmt die Weiterentwicklung von Navigationslösungen und digitaler Kartierung immer mehr Fahrt auf. Die folgenden sechs Technologie- und Einsatztrends treiben die automobile Kartierung und Navigation.
Satellitenbilder waren ein Durchbruch für die Erstellung von Karten. Jedoch können die meisten Kartierungsprogramme nicht direkt mit Satellitenfotos arbeiten. Visuelle Daten müssen zunächst in umfassenden Navigationsdatensätzen in einem geeigneten Format wie dem Navigation Data Standard (NDS) codifiziert werden. Im Anschluss müssen die Kartenbesitzer sie auf dem neuesten Stand halten. Beide Prozesse sind kosten- und arbeitsintensiv, weshalb sie für den Einsatz von KI in der Kartografie prädestiniert sind.
KI-Algorithmen verbessern die Geschwindigkeit und Präzision der digitalen Kartenerstellung, sodass sich Karten regelmäßiger aktualisieren und neue Gebiete schneller erfassen lassen. Sie können Objekte wie Gebäude, Straßen oder Vegetation in Satellitenbildern klassifizieren, um angereicherte digitale 2D-Karten sowie mehrschichtige 3D-Kartenmodelle zu erstellen. Solche präzisen Karten erlauben beispielsweise bessere Voraussagen zur Ankunftszeit oder detaillierte Schätzungen des Kraftstoff- oder Energiebedarfs.
Künstliche Intelligenz kann nicht nur die Erfassung von Kartierungsdaten erleichtern, sondern auch bei der Generierung solcher Daten helfen. Forscher des MIT und des Qatar Computing Research Institute (QCRI) haben mit RoadTagger ein neuronales Netz veröffentlicht, das automatisch den Straßentyp – Wohngebiet oder Autobahn – und die Anzahl der Fahrspuren vorhersagen kann, selbst wenn Sichtbehinderungen wie Bäume oder Gebäude vorhanden sind. Das Modell wurde an verdeckten Straßen aus digitalen Karten von 20 US-Städten getestet und konnte die Anzahl der Fahrspuren dabei mit 77 Prozent Genauigkeit und die Straßentypen mit 93 Prozent Genauigkeit vorhersagen.
Doch auch das Sammeln von Sensordaten aus vernetzten Fahrzeugen geht weiter. OEMs verlassen sich zunehmend auf ihre Flotten, um neue Erkenntnisse für die Erstellung digitaler Karten zu sammeln, und dieser Prozess wird durch Fortschritte beim maschinellen Lernen immer einfacher. So hat Here Technologies UniMap vorgestellt: eine KI-gesteuerte Technologie zur schnelleren Verarbeitung von Sensordaten und zur Erstellung von Karten. Die Lösung kann effektiv Kartenmerkmale in 2D- und 3D-Formaten extrahieren und diese dann mit früheren Kartenversionen kombinieren. Dank des einheitlichen Datenmodells für Karteninhalte können neue digitale Karten innerhalb von 24 Stunden zur Verfügung stehen.
Herkömmliche Onboard-Navigationssysteme werden mit proprietären Datenbanken entworfen, entwickelt und integriert. Sie veralten aber oft mit jeder neuen Produktgeneration. NDS.Live ist ein globaler Standard für Kartendaten im automobilen Ökosystem und fördert den Übergang von der Offline- zur Hybrid- bzw. Online-Navigation. Er verringert die Komplexität der Unterstützung unterschiedlicher Datenmodelle, Speicherformate, Schnittstellen und Protokolle durch eine einzige flexible Spezifikation.
Das verteilte Kartensystem NDS.Live wurde von globalen OEMs und Technologieführern, darunter auch Intellias, entwickelt. Daimler, Here, Denso, Renault und TomTom gehören zu den Unternehmen, die das System bereits eingeführt haben. Die zweite Generation der Mercedes-Benz-User-Experience(MBUX-)Systeme wird beispielsweise von NDS.Live unterstützt.
NDS.Live liefert aktuelle Informationen für das Fahrerassistenzsystem, die als Augmented-Reality(AR-)Anweisungen auf dem Head-up-Display (HUD) visualisiert werden, und kann dazu beitragen, das Navigationserlebnis für Elektroautos und herkömmliche vernetzte Fahrzeuge erheblich zu verbessern. Außerdem hilft das Kartensystem OEMs, Mehrwertabonnements für unterstütztes Fahren und Navigation anzubieten.
3D-Karten erlauben die genaue Darstellung von physischen Objekten in dreidimensionaler Form. Hochauflösende (HD-)Karten enthalten detaillierte Informationen über Straßenmerkmale wie die Anordnung der Fahrspuren oder Straßenbegrenzungen sowie Geländebeschaffenheit wie Enge von Kurven oder Neigung der Straßenoberfläche. Beide Arten von Karten sind für fortschrittliche ADAS-Funktionen und autonomes Fahren unerlässlich. Denn 3D-Karten legen fest, wie sich das Fahrzeug bewegt, und helfen ihm bei der Interpretation der Informationen, die es von den eingebauten Sensoren erhält. Da die meisten Sensoren eine begrenzte Reichweite haben, helfen HD-Karten, indem sie dem Navigationssystem zusätzliche Informationen über Straßenmerkmale, Gelände und andere verkehrsrelevante Objekte liefern.
Die Herausforderung bei HD- sowie 3D-Karten ist das Sammeln und Rendern von Daten. Für 3D-Karten gilt es, Videos in Echtzeit von mehreren Kameras zu erfassen sowie Störungen aufgrund von Vibrationen, Temperatur und Hardwareproblemen einzuplanen und dann den Prozess über Milliarden von Straßenkilometern auf der ganzen Welt zu wiederholen. Anstatt diese riesige Aufgabe allein zu bewältigen, arbeiten Mobilitätsanbieter und OEMs zusammen:
➔ Here und Mobileye haben sich beispielsweise zusammengetan, um gemeinsam HD-Kartendaten zu sammeln; später kam noch VW dazu. Mobileye entwickelte ein kompaktes, leistungsstarkes Computer-Vision-System auf einem Chip namens EyeQ. Das System wird von über 50 OEMs in 300 Fahrzeugmodellen installiert und liefert Mobileye umfangreiche visuelle Daten, die dann mithilfe von Partnern in Karten gerendert werden können.
➔ TomTom wiederum arbeitet mit Qualcomm zusammen, um HD-Kartendaten von seinen Nutzern zu sammeln. Qualcomm stellt dabei die zugrundeliegende cloudbasierte Plattform für die Erstellung und Pflege von HD-Karten aus verschiedenen Quellen wie Schwärmen von vernetzten Fahrzeugen bereit.
Autonome Fahrzeuge benötigen umfangreiche Straßen- und Streckentests, um die Sicherheitsprüfungen zu bestehen. Die Hersteller müssen auch Beinahe-Crashs simulieren, ohne jemanden in Gefahr zu bringen. Hyperrealistische virtuelle Welten können dabei als Prüfstände für autonome Fahrzeuge dienen.
Eine Gruppe von Forschern hat vor Kurzem eine datengesteuerte Open-Source-Simulations-Engine veröffentlicht, mit der fotorealistische Umgebungen für ein solches AV-Training erstellt werden können. Die Engine ermöglicht die Simulation komplexer Sensortypen wie 2D-RGB-Kameras und 3D-Lidar und kann dynamische Szenarien mit mehreren anwesenden Fahrzeugen erstellen. Dank der neuen Engine lassen sich komplexe Fahraufgaben wie Überholen und Folgen simulieren.
Waymo verfolgt einen ähnlichen Ansatz: Das Unternehmen nutzt reale, von Fahrzeugkameras und -sensoren gesammelte Daten, um sehr detaillierte virtuelle Testumgebungen zu erstellen. Das Waymo-Team hat virtuelle Nachbildungen mehrerer Kreuzungen mit identischen Abmessungen, Fahrspuren, Bordsteinen und Ampeln gebaut. Während der Simulationen können die Algorithmen von Waymo so trainiert werden, dass sie die anspruchsvollsten Interaktionen tausende Male unter gleichen oder unterschiedlichen Fahrbedingungen und mit verschiedenen Fahrzeugen der Flotte durchführen können.
Die neue Generation von realitätsnahen 3D-Umgebungen kann mit Daten von verschiedenen Sensortypen erstellt werden, um dem Algorithmus alle Details der materiellen Welt effektiv zu vermitteln. Bestehende visuelle 3D-Datenbanken enthalten bereits realistische Details für Verkehrszeichen, Fahrbahnmarkierungen und Straßentexturen. Mit maschinellem Lernen und Deep-Learning-Algorithmen können komplexe ADAS/AD-Szenarien (Ad- vanced Driver Assistance Systems/Automated Driving) realitätsnahe Bedingungen simulieren.
Während OEMs die Datenerfassung durch Dashcams für die Entwicklung besserer Navigationssysteme nutzen, verwenden Verkehrsmanager dieselbe Intelligenz für die Digitalisierung ihrer Straßeninfrastruktur. Ein digitaler Zwilling ist ein interaktives, virtuelles Abbild physischer Anlagen oder Systeme wie beispielsweise eines intelligenten Ampelnetzes oder smarter Parkeinrichtungen. Mithilfe von Echtzeitdaten ermöglichen digitale Zwillinge der Straßeninfrastruktur fortschrittliche Stadtplanungsszenarien. Dazu zählt die dynamische Optimierung von Ampelsignalen zur Verringerung von Verkehrsstaus ebenso wie das priorisierte Management von öffent- lichem und Dienstleistungsverkehr oder präzise Verkehrsvorhersagen zur Optimierung von Planung und Beschilderung.
Niedrige Latenzzeiten sind für das autonome Fahren entscheidend. Die Erstellung von 3D-Karten innerhalb des Fahrzeugs erfordert jedoch eine erhebliche Rechenleistung. Außerdem können die Fahrzeuge nicht alle Kartendaten auf ihrer Route speichern und müssen ständig Aktualisierungen empfangen. Ein Lösungsansatz könnte es sein, kompakte Kartenverteilungsgeräte an Straßenrändern zu platzieren, um die Bereitstellung von Punktwolkendaten (Point Cloud Data, PCD) für eine Fahrt zu erleichtern. Denn autonome Fahrzeuge können beim Herunterladen von PCD-Karten eine Selbstlokalisierung durchführen. Dank eines solchen Systems könnten autonome Fahrzeuge dynamisch neue Karten für jedes neue Ziel erhalten, anstatt riesige Datensätze an Bord zu speichern.
Aktuelle Fahrzeuge verfügen über ein optimiertes HMI-Design (Human Machine Interface) mit neuen Hardware- und Softwareelementen, die eine Augmented-Reality-Navigation ermöglichen. AR in Head-up-Displays (HUD) kann dabei alle Standardinformationen von statischen Anzeigen (Fahrgeschwindigkeit, Status des ADAS-Systems, Kraftstoff- oder Ladestand) sowie dynamische Routing-Anweisungen einschließlich Informationen über Verkehrszeichen, Geschwindigkeitsbegrenzungen, Baustellenwarnungen und voraussichtliche Ankunftszeiten bereitstellen.
Insgesamt können AR-Navigationssysteme dem Fahrer helfen, bessere Entscheidungen im Straßenverkehr zu treffen. Eine kürzlich durchgeführte Vergleichsstudie ergab, dass Fahrer, die AR-HUDs verwendeten, weniger Fehler machen und im Durchschnitt schneller fahren als Fahrer, die herkömmliche HUDs benutzen. Die Teilnehmer bewerteten die Anweisungen der AR-HUDs auch als nützlicher und leichter verständlich.
Die nächste große Innovation in der Navigation werden holografische Displays sein, die AR-Anweisungen in 3D bieten. Fortschritte in der Lidar-Technik gestatten bereits die Projektion holografischer Ultra-HD-Darstellungen von Straßenobjekten in Echtzeit in das Sichtfeld des Fahrers. Solche Systeme könnten künftig kürzere Zeiten für die Visualisierung von Hindernissen ermöglichen und den Stress beim Fahren reduzieren.
Oleksandr Odukha ist Senior Vice President Delivery Mobility bei Intellias.