„Connecting Embedded Intelligence“ Safety und Security – nicht nur eine technische Herausforderung

Embedded Systeme übernehmen zunehmend komplexe Steuerungsaufgaben, die bislang dem Menschen vorbehalten waren.

Das Thema künstliche Intelligenz in Embedded-Systemen – ob Mikrocontroller, FPGA oder dedizierte Hardware – nimmt im Automobilbereich beeindruckend schnell an Fahrt auf, während gleichzeitig die Themen Connectivity und Cloud Services wesentliche Technologien für den Austausch und die Verarbeitung der dabei anfallenden Daten bilden.

Das aktuelle Motto der embedded world Conference 2020 „Connecting Embedded Intelligence“ unterstreicht diesen Trend auf beeindruckende Weise. Was bedeutet das für die Entwicklung und das technische Management?
Während für die klassischen Safety-Applikationen aus dem Bereich der Regelungs- und Steuerungstechnik etablierte Prozessmodelle und Normen wie IEC61508 oder ISO26262 vorhanden sind, an denen sich Entwickler und Projektleiter orientieren können, bringen die zukünftigen komplexen Algorithmen neue Herausforderungen mit sich. Die Schere zwischen technischen Möglichem und normativ Erlaubtem öffnet sich aktuell rasant.

Wie weist man beispielsweise die ausreichende Qualifikation eines selbstlernenden Systems nach, das sich je nach „Lernkurve“ anders verhalten wird? Aufgrund der deutlich höheren Komplexität und Dynamik von intelligenten Embedded-Systemen wird man sich über neue Methoden und Strategien in der Entwicklung und Qualifikation Gedanken machen müssen, die insbesondere in den ersten Projekten sicher mit einem deutlich erhöhten Aufwand zu Buche schlagen werden.

Das folgende Beispiel soll diese Herausforderung verdeutlichen: Während sich die Überwachung der Raddrehzahl in einem ABS/ESP-System noch vergleichsweise einfach realisieren lässt, ist die Plausibilität eines Kamerabildes zur Hinderniserkennung deutlich aufwändiger zu bewerten. Der schwere Unfall eines Tesla aufgrund einer nicht erkannten LKW-Plane vor nicht allzu langer Zeit zeigt, welche dramatischen Auswirkungen solche Fehlinterpretationen von Daten haben können. Wie wirken dynamische Größen wie Wetter, Verkehrslage und insbesondere der Fahrstil der nicht-autonom navigierenden Fahrzeuge auf die Algorithmen? Kann ein Algorithmus, der seine Fahrpraxis in der etwas entspannteren Umgebung von Columbus, Ohio erlernt hat, diese auf New York übertragen? Oder brauchen wir einen Führerschein für Algorithmen? Wie werden länderspezifische Gepflogenheiten abgebildet?

Am Beispiel des autonomen Fahrens zeigen sich auch die spannenden Herausforderungen an zukünftige Softwaretests. Die gängigen Normen fordern den Nachweis einer ausreichenden Testabdeckung. Aber wann wurde ein System ausreichend getestet? Insbesondere, wenn die Funktionalität eines Systems weniger von der implementierten Logik und stärker von den „erlernten“ Realdaten abhängt?