Der Einsatz von KI-Modellen in Fahrzeugen bringt einzigartige Komplexitäten mit sich, die von herkömmlichen Toolchains für maschinelles Lernen meist nicht berücksichtigt werden. Um das Potenzial von Edge-KI ausschöpfen zu können, ist ein perfekt aufeinander abgestimmtes Ökosystem erforderlich.
Herkömmliche Cloud-Anwendungen haben häufig Probleme mit der Netzwerklatenz sowie Konnektivität und verursachen einen hohen Aufwand bei der Datenverarbeitung. Edge-KI integriert intelligente Verarbeitungsprozesse direkt in die Fahrzeugarchitektur. So überwindet sie diese Einschränkungen und definiert die Möglichkeiten der Datenverarbeitung und Nutzung von KI in Fahrzeugen neu. Kritische Workloads werden lokal verarbeitet, so dass selbst in abgelegenen Gebieten oder Umgebungen mit schlechter Empfangsqualität sofortige Reaktionen gewährleistet sind. Die lokale Ausführung reduziert außerdem die Kosten für die Datenerfassung und -übertragung im Gegensatz zu cloudbasierten Modellen erheblich. Darüber hinaus verbessert die Speicherung sensibler Daten vor Ort den Datenschutz.
Mit Edge KI nutzen moderne Fahrzeuge, anstatt sich ausschließlich auf externe Server zu verlassen, lokale Rechenkapazitäten, um die Daten von Kameras, Sensoren und Steuerungssystemen in Echtzeit zu analysieren sowie Anwendungsfälle wie adaptive Energieoptimierung, Innenraumüberwachung und vorausschauende Wartung zu ermöglichen.
Herkömmliche ML-Workflows stützen sich in hohem Maße auf umfangreiche, in der Cloud gehostete Daten und flexible, leistungsstarke Hardware. Der Automobilsektor muss beim Einsatz von KI in Fahrzeugen strenge Sicherheitsstandards erfüllen, mit begrenzten Hardware-Ressourcen auskommen sowie hohe Erwartungen an die Echtzeitleistung befriedigen. Um KI im Fahrzeug effektiv zu unterstützen, sind daher spezielle Toolchains erforderlich, die Datenerfassung, ressourcenbewusste Modellentwicklung, adaptive Bereitstellung, effizientes Ressourcenmanagement sowie kontinuierliche Überwachung umfassen.
Das Training herkömmlicher ML-Modelle basiert in der Regel auf cloudbasierten Datenquellen. In den entsprechenden Anwendungsbereichen der Automobilindustrie stammen die Trainingsdatensätze jedoch in erster Linie aus dem Fahrzeug selbst. Daher benötigt die Automobilindustrie kosteneffiziente, zielgerichtete und konfigurierbare, speziell für sie entwickelte Datenerfassungstools. Diese verarbeiten selektiv nur Daten, die für die jeweilige Modellentwicklung relevant sind, und lösen deren Erfassung auf der Grundlage spezifischer Betriebsbedingungen aus. Dies minimiert den Rechen- und Verarbeitungsaufwand und senkt die Kosten. Da die aus Fahrzeugen gewonnen Datensignale oft komplex oder doppelt vorhanden sind, müssen die Tools diese darüber hinaus in klare, interpretierbare Informationsinhalte übersetzen, um eine effektive Analyse durch Datenwissenschaftler und Ingenieure zu ermöglichen.
Die Entwicklung von Standard-ML-Modellen basiert in der Regel auf der Annahme, dass reichlich Rechenressourcen vorhanden sind. Im Gegensatz dazu bestehen in Fahrzeugumgebungen hinsichtlich Rechenkapazität, Stromverbrauch, Wärmemanagement und physischem Platzangebot erhebliche Limitierungen. Die hohe Kostensensibilität im Automobilbereich bedeutet darüber hinaus, dass ECUs ausgewählt werden müssen, die möglichst wenig zusätzliche Rechenressourcen benötigen, um unnötige Zusatzkosten zu vermeiden oder zu minimieren.
Automobil-spezifische Modell-Toolchains müssen Ingenieuren daher Einblick in die ECU-Spezifikationen sowie verfügbaren Ressourcen bieten und sie bei der Anwendung geeigneter Optimierungstechniken unterstützen. Hierzu können Entwickler beispielsweise die Modellgenauigkeit durch Quantisierung reduzieren, redundante Komponenten mittels Pruning entfernen und von den Herstellern bereitgestellte Tools für effizientes Speichermanagement sowie hardwarespezifische Beschleunigung verwenden. Mit derartigen Optimierungstechniken können KI-Modelle sogar nachträglich auf bestehenden Legacy-ECUs ausgeführt werden.
In herkömmlichen ML-Workflows werden Modelle nahtlos in cloudbasierte Produktionspipelines übertragen, die in der Regel durch cloudbasierte Funktionen zur Merkmalsextraktion sowie Vor- und Nachbearbeitung unterstützt werden. Bei Edge-Anwendungen im Automobilbereich müssen jedoch alle Datenaufbereitungen und -verarbeitungen innerhalb des Fahrzeugs selbst erfolgen. Automobil-spezifische Bereitstellungs-Toolchains müssen daher alle erforderlichen Vorverarbeitungs- und Ausgabeverarbeitungslogiken innerhalb des jeweiligen Modells definieren und bündeln. Im Idealfall identifizieren diese Tools automatisch die erforderlichen Fahrzeugsignale und übersetzen sie in geeignete Modelleingaben und -ausgaben. Für Edge-Geräte optimierte Frameworks wie TensorFlow Lite und ONNX Runtime unterstützen schnelle Inferenz und geringen Ressourcenbedarf. Allerdings erfordert die Auswahl der jeweils optimalen Laufzeitumgebung flexible Lösungen, die sich an unterschiedliche ECU-Architekturen anpassen lassen.
Darüber hinaus müssen MLOps (Machine Learning Operations)-Lösungen für den Automobilbereich den jeweiligen Anwendern ermöglichen, klar zu definieren, wie mit dem Modelloutput umgegangen werden soll. Dazu gehört die Festlegung der Triggerlogik und der entsprechenden Aktionen, etwa das Senden von Daten oder Befehlen an andere Dienste im Fahrzeug oder die Rückübertragung relevanter Informationen an die Cloud, wenn der Modelloutput bestimmte Kriterien erfüllt. Wenn diese Anweisungen als separate Richtlinien für die Ausgabeverarbeitung behandelt werden, können sie modellübergreifend wiederverwendet werden und so die Integration und Bereitstellung vereinfachen.
Durch die optimale Auswahl und Konfiguration der Rahmenbedingungen der Modelle und ihrer Laufzeiten lässt sich der Ressourcenbedarf erheblich reduzieren. Eine umfassende Ressourcenoptimierung hängt jedoch auch von einer effektiven Verwaltung der peripheren Prozesse innerhalb der Software-Infrastruktur des Fahrzeugs ab. Eine effiziente Datenaggregation, Batch-Verarbeitung und zeitnahe Modellausführung sind entscheidend für die Minimierung des Bandbreiten-, Speicher- und Rechenleistungsbedarfs. Darüber hinaus bleibt die Sicherheit von größter Bedeutung. Die Modelle sollten in isolierten Containerumgebungen ausgeführt werden, damit Ingenieure jeder KI-Anwendung Ressourcen getrennt zuweisen können. Dies schützt sicherheitskritische Fahrzeugfunktionen vor unbeabsichtigter Ressourcenkonkurrenz oder -beeinträchtigung.
Die kontinuierliche Modellüberwachung ist eine Standardpraxis bei cloudbasierten ML-Operationen und auch für Automobilanwendungen von entscheidender Bedeutung. Fahrzeugbasierte Implementierungen erfordern jedoch zusätzliche Funktionen, um die relevanten Leistungsmetriken erfassen zu können und an zentralisierte Überwachungssysteme zurückzusenden. Effektive MLOps-Lösungen für den Automobilbereich sollten daher grundsätzlich die fahrzeugseitige Extraktion kritischer Betriebsmetriken wie CPU-Auslastung, Speichernutzung, Inferenzlatenz und Modell-Eingabe-/Ausgabedaten unterstützen. Diese kontinuierliche Überwachung gewährleistet eine zuverlässige KI-Leistung, unterstützt die proaktive Erkennung von Anomalien und liefert Informationen für die fortlaufende Modelloptimierung während des gesamten Lebenszyklus eines Fahrzeugs.
Um das volle Potenzial von Edge-KI im Fahrzeug auszuschöpfen, bedarf es mehr als nur Innovationen auf der Fahrzeugseite. Es erfordert ein eng koordiniertes Ökosystem, das Cloud-Dienstleister, Anbieter von KI-Modellen, Halbleiterhersteller und SDV-Plattform-Enabler einschließt.
Cloud-Plattformen bieten eine skalierbare Infrastruktur für Modelltraining, Simulation und Orchestrierung. Modellanbieter liefern optimierte KI-Algorithmen, die auf eingeschränkte Echtzeitumgebungen zugeschnitten sind. Halbleiterhersteller entwickeln heterogene Rechenplattformen, die Energieeffizienz und Leistung in Einklang bringen, während SDV-Lösungsanbieter die Software-Grundlagen, also Netzwerke, Laufzeitumgebungen und Orchestrierungsebenen bereitstellen, die den Einsatz von KI im Fahrzeug ermöglichen.
Ein fragmentierter Ansatz in diesen Bereichen führt zu aufwändiger und kostspieliger Integration sowie suboptimaler Leistung und verhindert schnelle Innovationen. Stattdessen ist eine End-to-End-Strategie unerlässlich, die auf standardisierten Schnittstellen, gemeinsam optimierten Hardware-/Software-Stacks und einheitlichen Datenframeworks basiert. Nur durch die Abstimmung dieser Ökosystem-Akteure auf eine ganzheitliche Architektur können Automobilhersteller KI-Anwendungen effizient skalieren, Sicherheit und Zuverlässigkeit gewährleisten und kontinuierlich weiterentwickelte Fahrzeugerlebnisse bieten, die das Versprechen von Edge-KI wirklich widerspiegeln.