Interview mit Ralf Herrtwich, Nvidia Autonomes Fahren – Keine Chance ohne Künstliche Intelligenz

Prof. Dr.-Ing. Ralf Herrtwich ist Senior Director Automotive Software bei Nvidia.
Prof. Dr.-Ing. Ralf Herrtwich ist Senior Director Automotive Software bei Nvidia.

Prof. Dr.-Ing. Ralf Herrtwich ist Senior Director Automotive Software bei Nvidia und beschäftigt sich damit, wie man mit Künstlicher Intelligenz autonome Fahrzeuge realisieren kann. Wir wollten von ihm wissen, wo die Industrie derzeit steht und welche Herausforderungen noch zu meistern sind.

Herr Prof. Herrtwich, Künstliche Intelligenz gilt als zentraler Baustein auf dem Weg zum autonomen Fahren. Warum ist das so und was bedeutet das für den Entwicklungsprozess?
Prof. Dr. Ralf Herrtwich: Damit ein autonomes Fahrzeug sein Ziel erreichen kann, muss es in einem dynamischen Verkehrsumfeld die richtigen Entscheidungen treffen. Es muss nicht nur wissen, wie die Straße aussieht und wo es hinfahren darf, es muss auch wissen, mit wem es sich die Straße teilt und was diese anderen Verkehrsteilnehmer voraussichtlich gleich machen werden. Kurzum: es muss die statische wie auch die dynamische Welt um sich herum verstehen. Und das macht es mit künstlicher Intelligenz. Wenn wir also autonome Fahrzeuge entwickeln, besteht ein Großteil unserer Arbeit darin, Systeme zu entwickeln, die aus den von den verschiedenen Sensoren des Fahrzeugs – seien es Kameras, Radar oder Lidar – gelieferten Informationen die richtigen Schlüsse ziehen.
Welche Rolle spielen Trainingsdaten in der Implementierung von autonomen Fahrfunktionen und wo stehen wir derzeit?
Herrtwich:
Künstliche Intelligenz entsteht heute überwiegend durch die Programmierung sogenannter neuronaler Netze. Wie im menschlichen Gehirn analysieren dieser Netze Eingabemuster Schritt für Schritt, bis sie aus einer Reihe von Bildpunkten schließen können, dass es sich bei diesen Pixeln um beispielsweise einen Fußgänger handelt. Nun ist das Schöne an diesen Netzen, dass man sie nicht explizit programmieren muss, sondern man trainiert sie. Man zeigt einem neuralen Netz zum Beispiel mehrere tausend Bilder von Fußgängern und daraus leitet es selbst ab, welche Elemente das Bild eines Fußgängers ausmachen. Auf diese Weise kann es dann später Fußgänger auch in Bildern identifizieren, die es im Zuge des Trainings nie gesehen hat. Je mehr Objekte trainiert werden, umso größer die Zahl der Elemente, die ein autonomes Fahrzeug zu klassifizieren weiß. Diese Netzwerke können dann in der Simulation ausführlich getestet werden, um ihre Genauigkeit sicherzustellen. Unsere Cloud-basierte Simulationslösung »DRIVE Constellation« ermöglicht es, Millionen von Kilometern in virtuellen Umgebungen in einem breiten Spektrum von Szenarien – von Routinefahrten bis hin zu seltenen oder sogar gefährlichen Situationen – mit größerer Effizienz, Kosteneffizienz und Sicherheit zu fahren, als dies in der realen Welt möglich ist.
Tiefe neuronale Netze (DNNs) gelten vielen im Gegensatz zu expliziter Programmierung als intransparent. Wie lassen sich solche Systeme ausreichend validieren? Gerade wenn man wie im Auto viele sicherheitskritische Systeme hat.
Herrtwich:
Um ein autonomes Fahrzeug auf die Straße zu bringen, sind strenge Tests erforderlich, um die Sicherheit zu gewährleisten. Die Entwickler müssen ihre selbstfahrende Technologie auf Millionen oder Milliarden von Kilometern testen und dabei auf eine fast unendliche Anzahl von Szenarien treffen, um statistisch zu beweisen, dass sie sicherer als der Mensch fährt. Die Simulation ermöglicht es den Entwicklern, seltene und gefährliche Szenarien zu testen, die sich in der realen Welt nur schwer oder gar nicht nachbilden lassen. Hier bietet beispielsweise Nvidia DRIVE Constellation eine Möglichkeit, selbstfahrende Technologie bei jedem möglichen Wetter, jeder Verkehrssituation oder an jedem Ort sowie in seltenen und gefährlichen Szenarien zu testen. Diese Tests sind wiederholbar und skalierbar und ermöglichen eine umfassende Validierung, bevor die Fahrzeuge die Straße erreichen. Das, was nicht richtig funktioniert hat, kann als neues Trainingsmaterial verwendet werden. So wird das System mit der Zeit immer besser. Und wenn die Fehlerrate unter den dafür vorgesehenen Zielwert gesunken ist, kann die Software auf die Straße.
Derzeit finden wir meines Wissens nur trainierte KI-Systeme im Auto. Wann, wenn überhaupt, werden wir selbstlernende Systeme sehen?
Herrtwich:
KI wird tatsächlich in praktisch jeder Branche eingesetzt, vom Gesundheits- über das Energie- bis hin zum Finanzwesen. All diese Systeme werden so trainiert, dass sie besser funktionieren als ein Mensch. Sie sind jedoch weit davon entfernt, sich ihrer selbst bewusst zu sein. Aber ein erster Schritt ist ja schon einmal, wenn das Auto feststellt, dass er ein unbekanntes Objekt erkennt, und quasi beim Entwicklungsteam »fragt«, worum es sich dabei handelt. Wir sehen das als den nächsten Entwicklungsschritt bei unseren Fahrzeugen. Aktives Lernen sagen wir dazu – wie bei einem Schüler, der in der Schule den Lehrer fragt, wenn er etwas nicht verstanden hat. Und so wie der Schüler irgendwann den Lehrer nicht mehr braucht, weil er gelernt hat, sich selbst in der Bibliothek oder im Internet schlau zu machen, kann man das eines Tages wohl auch von einer Maschine erwarten. Aber noch ist es nicht soweit.
Nvidia kommt ja aus der Grafikverarbeitung und hat im Prinzip GPU-Architekturen auf KI-Anwendungen adaptiert. Mittlerweile gibt es viele Startups, die sich an sehr fokussierten DNN- und CNN-Architekturen versuchen. Wie geht es für Nvidia bei der KI-Hardware weiter?
Herrtwich:
Die Grundlagen, die wir mit unserer parallelen Verarbeitungsarchitektur und offenen Software-Plattformen wie CUDA und TensorRT gelegt haben, sind immer noch der Maßstab, wenn es um KI-Plattformen geht. Stabilität auf Seiten der Software-Architektur ermöglicht unseren Kunden und uns, nahtlos von der Leistungssteigerung durch neue Hardware zu profitieren. Wir haben gerade Nvidia »DRIVE AGX Orin« vorgestellt, eine hochentwickelte, softwaredefinierte Plattform für autonome Fahrzeuge und Roboter, die von unserem neuen SoC namens Orin angetrieben wird. Orin liefert 200 Billionen Operationen pro Sekunde – fast 7 Mal mehr als die Leistung der vorherigen Generation des SoC Xavier. Für autonome Fahrzeuge heißt dies, dass die Umgebung des Fahrzeugs anhand zunehmender Sensordaten immer effektiver analysiert werden kann und dann gleichzeitig Dutzende von redundanten und unterschiedlichen DNNs zur Erhöhung der Sicherheit betrieben werden können.
Danke für das Gespräch.

 

Prof. Dr.-Ing. Ralf Herrtwich hält am 25.02.2020 auf der Embedded World Conference um 14:30 den Vortrag »Implementing AI for Automated Driving« (Session 8.2). (Voraussichtlich wird es sich um einen Live-Vortrag per Videokonferenz handeln.) 

Nvidia auf der Embedded World 2020: Halle 2, Stand 239 (kurzfristig abgesagt)

Prof. Dr. Ralf G. Herrtwich

leitet die Entwicklung von Fahrzeugsoftware bei Nvidia in Deutschland, wofür er auf seine lange F&E-Erfahrung in den Bereichen Fahrzeugautomatisierung sowie Infotainment- und Telematik-Technologie zurückgreifen kann. Momentan gilt sein Augenmerk neuen Methoden der künstlichen Intelligenz für die Umgebungserkennung und Manöverplanung autonomer Fahrzeuge. Herrtwichs frühere Stationen umfassen die Leitung des Geschäftsbereichs Automotive bei HERE Technologies sowie die Entwicklung selbstfahrender Fahrzeuge für Mercedes-Benz. 2013 schuf sein Team eine S-Klasse, welche die historische 100 km lange Bertha-Benz-Route, Schauplatz der ersten automobilen Fernfahrt der Welt, autonom im fließenden Verkehr bewältigte. Als Informatiker begann er seine Karriere im akademischen Bereich an der TU Berlin und der UC Berkeley. Er hatte danach mehrere leitende Positionen bei IBM und einigen Telekommunikations-Startups inne, bevor er 1998 zu Daimler stieß, um dort die Forschung und Vorentwicklung in den Bereichen Telematik, Infotainment und später Fahrerassistenz- und Fahrwerksysteme zu leiten. Seit 2009 ist er zusätzlich Honorarprofessor für Fahrzeuginformationstechnik an der TU Berlin. 2019 wurde er zum Fellow der deutschen Gesellschaft für Informatik ernannt.