Forum Künstliche Intelligenz 2020 Künstliche Intelligenz ist kein Selbstzweck

Künstliche Intelligenz im Fahrzeug

Im Track »Künstliche Intelligenz im Fahrzeug« eröffnete Frank Thurner,  Geschäftsführer von mts Consulting & Engineering mit seiner Präsentation zum Thema »KI für Sicherheit und Effizienz im autonomen Fahren«. Denn es ist unabdingbar – nicht nur für die Akzeptanz und das Vertrauen der Öffentlichkeit: Autonomes Fahren muss sicher und zuverlässig sein. Für eine sichere Fahrt ist die Zuverlässigkeit von elektronischen Systemen unerlässlich und gleichzeitig eine Herausforderung, denn für das automatisierte Fahren wird die Anzahl der elektronischen Systeme im Fahrzeug weiter steigen. Thurner stellte das Projekt KI-LiDAR vor, in dessen Rahmen auf Basis künstlicher Intelligenz ein Sensormodul entwickelt wurde. Dieses kann  auf Basis von Produktions- und Echtzeit-Daten sein bevorstehendes Lebensdauerende selbst erkennen und sogar voraussagen. Ziel des Projektes ist es, einen 3D-Flash-LiDAR-Sensor zu entwickeln, der zum einen seinen Zustand im Fahrzeug überwacht und zum anderen Funktions- und Lebensdauervorhersagen zur prädiktiven Wartung des Sensors ausführt. Was ist nun das Besondere daran? »Das Forschungsprojekt ermöglicht durch das Training einer KI, durch simulierte und reale Daten und in Kombination mit echtzeitfähigen physikalischen Modellen eine in-situ-Evaluierung der Güte der Sensordaten, die als Status-Qualitäts-Vektor jederzeit abrufbar ist«, erklärte Frank Thurner.

Der nächste Vortrag von Dr. Heinrich Gotzig, Valeo, befasste sich mit »KI für autonomes Fahren mit Fokus auf Umfelderfassung / Perzeption«. Ausgangspunkt ist, dass in der Automobilindustrie die Notwendigkeit besteht, dem Fahrer ein Bewusstsein für die Fahrzeugumgebung zu vermitteln. Beispielsweise, dass es ein Hindernis in der Nähe des Fahrzeugs gibt. Diese Information kann dem Fahrer direkt zur Verfügung gestellt oder aber als Input für weitere Funktionen dienen, wie der Unfallvermeidung durch Bremsen oder mögliches Ausweichen oder aber auch für automatisches Einparken. Die für diese Informationen notwendigen Daten liefern verschiedene Sensoren wie Kameras, Radar, Laserscanner und aktive Ultraschallsensoren. »Aktive Ultraschallsensoren sind eine sehr lukrative Lösung für Automobilhersteller, um dieses Ziel zu erreichen, da sie preisgünstig sind, eine stabile Leistung bieten und ihre Messungen von geeigneter Präzision sind«, betonte Gotzig. Die Anwendung des maschinellen Lernens für verschiedene Sensorprinzipien wird sensorspezifische Informationen liefern, die zwingend erforderlich sind, um die notwendigen Kosten-, Leistungs- und Zuverlässigkeitsanforderungen für die Schlüsselaufgabe des autonomen Fahrens, nämlich die Umweltwahrnehmung, zu erreichen.

Adrian Schwaiger vom Fraunhofer IKS referierte zum Thema »Absicherung von Machine-Learning-Verfahren in sicherheitskritischen Systemen«. Denn bei der Entwicklung zukünftiger hochkomplexer autonomer Fahrsysteme werden herkömmliche Algorithmen an ihre Grenzen stoßen und KI-basierte Systeme notwendig sein. Mithilfe von maschinellem Lernen (ML) lässt sich beispielsweise bereits der Sprachassistent überzeugend abbilden. Allerdings handelt es sich dabei nicht um eine sicherheitskritische Funktion, d.h. Fehler führen hier nicht zu einer gefährlichen Situation. Agiert ein System hingegen komplett autonom und übersieht eine Person auf der Fahrbahn kann das zu gravierenden Folgen führen, wie leider ein Fall von Uber schon bewiesen hat. Die Schwierigkeit bei komplexeren ML-Verfahren ist jedoch, dass es nicht einfach ist, Fehler vor der Inbetriebnahme und zuverlässig Fehler zur Laufzeit zu erkennen. Das schränkt gegenwärtig den Einsatz von ML in sicherheitskritischen Systemen deutlich ein und erfordert neue Ansätze. »Wir fokussieren uns deshalb darauf, mehr Informationen von den tiefen neuronalen Netzen (DNNs) selbst hinsichtlich ihrer Entscheidung zu erhalten und sie im Allgemeinen transparenter zu gestalten«, erklärte Schwaiger. Konkret reicht das beim Fraunhofer IKS von der Unsicherheitsbestimmung neuronaler Netze, über die Erkennung unbekannter oder gar schadhafter Eingaben hin zur besseren Erklärbarkeit des Verhaltens von DNNs. Diese Informationen werden anschließend genutzt, um sichere adaptive Systeme zu gestalten und das Gesamtsystem schon beim Entwurf abzusichern. Derzeitiges Anwendungsgebiet ist vor allem die Absicherung der Perzeption automatisierter Fahrzeuge.

Im Anschluss sprach Dr. Manuel Götz vom ZF AI & Cybersecurity Center über die »Auswirkungen von künstlicher Intelligenz auf den Weg zum autonomen Fahren« und erklärte welche Bedeutung das Thema beim Automobilzulieferer einnimmt. Er betonte vor allem, dass es nicht Ziel sein kann »KI zum Selbstzweck zu nutzen, um KI genutzt zu haben«. Götz beschrieb in seiner Präsentation unter anderem den Einsatz von KI-Algorithmen in den Bereichen Umfeld-Sensorik, Routenplanung, Vehicle Motion Control, integrierter Sicherheit und virtueller Validierung. Dabei stellte er aktuelle Ansätze und Entwicklungen von ZF vor und verdeutlichte ihre Möglichkeiten anhand von Beispielen.

Von der Straße in die Luft

Der Vortrag »KI-Studie für selbstfliegende Vehikel – Herausforderungen für Deep Learning im autonomen Fliegen« beleuchtete, welchen Einfluss autonome unbemannte Luftfahrzeuge (UAV), wie automatisierte Lufttaxis mit vertikaler Start- und Landefähigkeit (VTOL), auf das persönliche Verständnis von urbaner Mobilität haben. Denn VTOLs werden diese neu gestalten. Auf der anderen Seite werden automatisierte UAVs beispielsweise Liefer- und Transportdienstleistungen erheblich verändern. Bei der Untersuchung von Computer Vision und maschinellem Lernen für UAVs oder VTOLs wird es jedoch immer schwieriger mit Neuentwicklungen Schritt zu halten. Dr. Stefan Milz von Spleenlab.ai bot in seinem Vortrag eine Übersicht zum Thema automatisierte Flüge mit Fokus auf anspruchsvolle Deep-Learning-Probleme. Darüber hinaus diskutierte er Ideen für verschiedene Sensoranordnungen und KI-basierte Pipelines mit Ergebnissen auf Basis etablierter Datensätzer. Zu guter Letzt wies er auf derzeit noch fehlende Untersuchungen hin – insbesondere in Bezug auf funktionale Sicherheit und Deep Learning.