Künstliche Intelligenz gilt im Automotive-Segment als wichtige Technologie, um das autonome Fahren voranzutreiben. Damit stellt sich aber die Frage, ob KI-basierte Systeme den Anforderungen an die funktionale Sicherheit genügen.
Dass KI in der Automobilindustrie eine wichtige Rolle spielt, stellt niemand in Frage. So erklärt beispielsweise Thomas Schneid, Sr. Director Software, Partner & Eco-System Management von Infineon Technologies, dass KI Fahrassistenzsysteme auf unterschiedliche Weise unterstützen kann. Infineon setzt seinen Schwerpunkt im Bereich Automotive-Mikrocontroller auf »embedded AI @Edge« und bedient diesen mit seiner Aurix-Produktfamilie. Schneid: »Ziel ist es hierbei, klassische Algorithmen, die aktuell auf linearen mathematischen Strukturen beruhen, durch KI zu optimieren.« Damit lasse sich das Problem lösen, dass lineare Strukturen und die wirkliche, dynamische Umgebung in Konflikt stehen können, d. h. dass einfache lineare Abhängigkeiten nicht die komplexe Wirklichkeit abbilden können. Schneid: »Genau an diesem Punkt setzen neuronale Netze an. Mit ihren nichtlinearen mathematischen Strukturen können sie die Umgebung und das System genauer und effizienter beschreiben als klassische Methoden. Es kann dadurch ein verbessertes Verhalten ohne unnötige Sicherheitszuschläge erzielt werden. Ein optimal angepasstes und realitätsnahes System entsteht – ein System mit gesteigerter Sicherheit.«
Er betont aber auch, dass für die sichere Verwendung von eingebetteter KI eine sichere Hardware nach ASIL-D notwendig ist. Schneid weiter: »Die Funktionalität und die Richtigkeit von neuronalen Netzen ist implizit durch die Trainingsdaten gegeben.« Problematisch ist es allerdings, wenn die Daten unzureichend sind. Und weiter: »Unabhängig vom neuronalen Netz kann es immer auch zu Hardware Random Faults kommen. Damit die Laufzeitvalidierung eindeutig auf eine falsche Ausgabe vom Netz schließen kann, müssen zuvor Hardware Random Faults ausgeschlossen werden. Dies kann nur durch ASIL-D-sichere Hardware erreicht werden.«
Nvidia
Mark Overby, Chief Platform and Security Architect von Nvidia, ist überzeugt, dass sichere KI-Systeme einen ganzheitlichen Ansatz brauchen, der viele Normen umfasst, nicht nur ISO 26262. Auch ISO 21448 (SOTIF: Safety of the Intended Functionality) sei von entscheidender Bedeutung, da trainierte KI-Algorithmen typischerweise einige Leistungseinschränkungen in Form von falsch-positiven und falsch-negativen Ergebnissen aufweisen. Overby: »Wie in den laufenden KI-Normungsaktivitäten wie ISO/IEC CD TR 5469 und ISO/AWI PAS 8800 beschrieben, ist KI eine mehrschichtige Technologie. Einige Schichten, z. B. die Hardware, kann mit bestehenden Normen für funktionale Sicherheit wie ISO 26262 behandelt werden, andere wie z. B. maschinelles Lernen machen zusätzliche Techniken erforderlich.«
KI könne durchaus mit Lockstep-Ansätzen verbunden werden, allerdings »können Lockstep-Sicherheitsmechanismen kein funktional sicheres Produkt garantieren; alle Faktoren, die zur funktionalen Sicherheit beitragen, müssen berücksichtigt werden«, so Overby. Darüber hinaus ist er der Überzeugung, dass dieser Ansatz für Hardware, die häufig zur Implementierung von KI verwendet wird (z. B. GPUs), nicht praktikabel ist. Aber eine ähnliche Abdeckung könne durch redundante Berechnungsmethoden erreicht werden – allerdings mit Auswirkungen auf den Rechendurchsatz.
Das beurteilt Prof. Hans Dermot Doran, Head of High Integrity Systems Research Group an der Zurich University of Applied Sciences im InES (Institute of Embedded Systems), genauso. Wenn es beispielsweise um rechenintensive Verfahren wie Klassifizierer geht, passt der Ansatz nicht. Denn Lockstep-Techniken sind in ihrer einfachsten Form einfach nur eine Verdoppelung der Rechenressourcen – typischerweise ein einzelnes PE (Verarbeitungselement) oder eine ALU. »Lockstep skaliert nicht gut, das gilt insbesondere für Hochleistungsrechner oder Multicore-Architekturen, und da KI-Beschleuniger im Allgemeinen aus einer massiv parallelen Anordnung von PEs bestehen, funktioniert dieser Ansatz nicht. Was wir in einigen KI-Architekturen sehen, ist eine integrierte Fehlererkennung und/oder lose gekoppelte Architekturen, bei denen die Ergebnisse der Berechnungen und nicht der Prozess der Berechnung überprüft werden.«
ISO-26262-konformer KI-Beschleuniger? Gar kein Problem!
»Nvidia hat schon für viele Generationen seiner SoC-Familien ISO-26262-konforme KI-Beschleuniger entwickelt. Wir entwickeln auch unseren Software Stack gemäß ISO 26262. Dazu gehören Treiber, Libraries und Tools, sowohl für das Inferenzieren als auch das KI-Training.« Darüber hinaus halte sich Nvidia auch an die Vorgaben von ISO/IEC TR 5469.
Dementsprechend steht es für ihn auch außer Frage, dass KI in einem ASIL-D-konformen System genutzt werden kann – allerdings mit KI-spezifischen Ansätzen. In diesem Zusammenhang verweist er beispielsweise auf die Dekomposition. Dabei wird die KI durch ein anderes System auf ein sicheres Niveau beschränkt und die KI auf ASIL QM(D) eingestuft, das die KI begrenzende System wiederum auf ASIL D (D).