Forum Künstliche Intelligenz Ein Fehler – und jetzt?

Ein großer Kritikpunkt von KI besteht darin, dass die Modelle zu Ergebnissen kommen und überhaupt nicht klar ist, warum das so ist. Passt das zur Automobilindustrie, die typischerweise sehr empfindlich gegenüber Fehlern ist?

Die Teilnehmer des Forums:
Dr.-Ing. Ron Melz, Leiter Entwicklungsmethodik/künstliche Intelligenz automatisiertes Fahren bei Audi
Dr. Dusan Graovac, Director and Global Head of Automotive System Engineering bei Infineon Technologies
Heinrich Munz, Lead Architect Industrie 4.0 bei Kuka
Dr. Christoph Angerer, Manager AI Developer Technologies EMEA, Russia and India bei Nvidia
Dr. Ulrich Giese, Senior Director Automotive Solution Business Unit bei Renesas Electronics Europe
Tanja Krüger, Geschäftsführerin bei Resolto Informatik
Pascal Goymann, Master Student und Wissenschaftlicher Mitarbeiter an der TU Clausthal

Die Erklärung, warum ein Ergebnis erzielt wurde, ist bei ML-Algorithmen nicht immer ganz einfach.«

Mit diesen Worten umschreibt Pascal Goymann, Master Student und Wissenschaftlicher Mitarbeiter an der TU Clausthal, eine häufig geäußerte Kritik an KI. Das mag in Konsumgüter-Anwendungen lediglich ärgerlich sein, bei der Kreditvergabe kann dieser Kritikpunkt für den Antragsteller schon deutlich mehr Probleme bereiten. Im Automotive-Markt dürfte diese Tatsache jedoch starke Kopfschmerzen bereiten. Denn jeder, der schon länger mit der Halbleiterindustrie zu tun hat, weiß, wie viel Aufwand dort zum Teil betrieben wurde, um nachzuweisen, dass nicht der gelieferte IC für den Ausfall einer ECU verantwortlich war. Aber wie soll die Fehlersuche noch funktionieren, wenn ML-Techniken zum Einsatz kommen?

Dr. Christoph Angerer, Manager AI Developer Technologies EMEA, Russia and India bei Nvidia, glaubt nicht, dass sich die Fehlersuche durch den Einsatz von ML-Technologien groß verändert. Denn zum einen gebe es im Glücksfall einen Recorder im Fahrzeug, den man auswerten kann. »Und dann sieht man zum Beispiel, dass es zu einem Lenkausschlag nach links kam, wobei noch nicht klar ist, warum. Im zweiten Schritt schaut man sich alle Komponenten an und schließt nacheinander aus, dass es auf eine dieser Komponenten zurückzuführen ist; das würde man auch ohne ML so machen. Und wenn man dann soweit gekommen ist, dass man weiß, es ist das neuronale Netz, das die Linksbewegung verursacht hat, dann kann man nachschauen, woran das lag, vorausgesetzt, ich kenne den Input für das neuronale Netz«, so Angerer. Neuronale Netze würden zwar gerne als Black-Box angesehen, aber auch hier gebe es bereits Ansätze, die Netzwerke zu visualisieren.

Dabei wird aufgezeigt, welche Daten reinkommen, was das Netz macht und warum es zu einem Ergebnis kommt. »Dementsprechend kann man also auch in diesem Fall forensisch überprüfen, warum welche Entscheidung getroffen wurde«, so Angerer. Allerdings schließt auch Angerer aus, dass die forensische Suche ein so klares Ergebnis liefern kann, dass man sagen könnte, dass es beispielsweise an einer speziellen Gewichtung liegt, und wenn diese etwas verändert wird, der Fehler nicht mehr auftritt. »Das wird nicht passieren, aber dann wird das neuronale Netz eben nachtrainiert«, so Angerer.

Außerdem gebe es ML-Technologien, die durchaus nachvollziehbar sind – Beispiel: Random Forest. Zum Teil würde sogar ein mit der Technologie verbundener abgeschätzter Fehler angegeben. Angerer weiter: »Beim Menschen ist es auch nicht immer möglich, nachzuvollziehen, warum er welche Entscheidungen getroffen hat.« Das ist zwar richtig, allerdings treten beim Menschen selten Haftungsfragen auf, bei einem Fahrzeug, das einen Unfall verursacht, liegt die Sache anders.