KI (künstliche Intelligenz) ist mittlerweile ein regelrechtes Hype-Thema, und das in vielen Märkten, sei es die Medizintechnik, die Industrie oder der Automobilbereich.
Dementsprechend hat der VDI Ende letzten Jahres mit dem Titel „Future of AI in Automotive“ das erste Mal eine Konferenz eigens zum Thema KI in der Automobilindustrie veranstaltet. Patrick van der Smagt, Director of AI bei Volkswagen, befürchtet aber, dass der jetzige Hype in einer Enttäuschung enden könnte, was es zu verhindern gilt. Nur weil die Hardware deutlich leistungsfähiger geworden sind, verbesserte Algorithmen zur Verfügung stehen und viele Daten verfügbar sind, braucht die Realisierung des autonomen Fahrens durchaus noch Zeit. Und dass einer Phase der Euphorie typischerweise immer eine Ernüchterung folgt, ist kein spezielles KI-Problem, das geht allen neuen Technologien (wobei KI nicht neu ist) so.
Bemerkenswert ist, dass selbst bei dieser Expertenkonferenz der Begriff KI erst einmal definiert wird. So erklärt Dr. Matthias Klusch, Research Fellow beim DFKI und Leiter des Intelligent-Information-Systems- (I2S) Forschungsteams im DFKI-Bereich ASR (Agents and Simulated Reality): »KI auf Deep Learning zu reduzieren ist der falsche Ansatz: Deep Learning ist ein Untergebiet vom Maschinenlernen und Maschinenlernen ist ein Untergebiet von KI.« Geht es um die Automobilindustrie und autonomes Fahren, steht aber nun mal Deep Learning im Mittelpunkt, weil es den Fahrzeugen hilft, Stoppschilder zu erkennen oder Objekte im Verkehr zu unterscheiden. Deshalb werden die Begriffe oft synonym verwendet.
Dass die Erwartungen nicht zu hoch gesteckt werden sollen, ist auch dem Vortrag von Prof. Dr. Philipp Slusallek, Scientific Director Research Lab Agents and Simulated Reality vom DFKI, zu entnehmen. Es gebe zwar dank besserer Hardware, mehr Daten und verbesserter Algorithmen viele Erfolgsgeschichten über KI, wie bei Spielen, Spracherkennung, Übersetzung, aber man müsse genau verstehen und erklären, was mit KI gelernt werden kann, um einen Hype zu vermeiden und: »Es ist notwendig, Validierungs- und Verifikationsmethoden zu entwickeln, um Vertrauen in die Technik aufzubauen«, so Slussalek weiter.
Er erklärt, dass KI nur ein Tool ist, das so behandelt und wahrgenommen werden sollte. Das heißt für ihn auch, dass der Mensch darüber entscheidet, wie er dieses Tool nutzen will und dafür auch verantwortlich ist. Er fordert: KI sollte verstärkt für kognitive Wissenschaften genutzt werden, und im Gegensatz dazu: auf keinen Fall, um „künstliche Menschen“ zu erzeugen, denn »hier liegt der Hauptgrund für die Ängste gegen KI«, so Slusallek.
Dass beispielsweise AlphaGo Zero als selbstlernendes Programm all seine Vorgänger schlagen konnte, ohne dass er vorher mit unendlich vielen Partien trainiert wurde, erklärt Slusallek damit, dass AlphaGo Zero die Regeln kannte und so das Spielen lernen konnte. Nur: das funktioniert nicht für das autonome Fahrzeug, denn die Welt ist nun einmal sehr komplex (Geometrie, Erscheinung, Bewegung, Wetter, Umgebung etc.) und damit seien die Regeln ebenfalls komplex oder unbekannt. Und obwohl das so ist, müssten KI-Systeme trotzdem zuverlässige Entscheidungen treffen; das gelte besonders für kritische Situationen.
Dazu kommt noch ein zweites Problem: Kritische Situationen sind nicht erlernbar. Slusallek: »Es gibt schon oft nur wenig gute Daten für ‚normale‘ Situationen. Kritische Situationen passieren per Definition sehr selten in der Realität.« Also gibt es dafür noch weniger Daten, weshalb Slusallek die Nutzung synthetischer Daten fordert. Wobei er überzeugt ist, dass synthetische Daten auch für normale Situationen notwendig sind, denn Millionen Meilen zu fahren, um Daten zu sammeln, ist schwierig, teuer und nicht skalierbar. Die Schlussfolgerung: Das Training und die Validierung müssen in einer digitalen Realität auf Basis synthetischer Daten und Methoden des Maschinenlernens ablaufen, wobei die digitale Welt einer ständigen Lernschleife unterworfen sein muss, um sie kontinuierlich zu validieren und gegebenenfalls anzupassen.