Systemdesign / Fachinterview embedded-KI Von der Anwendung, über Algorithmen auf die Hardware

Im IT-Bereich suchen kanonische KI-Szenarien nach Anwendungen für eine handvoll bekannter Methoden. Im funktionsgetriebenen embedded-Segment scheint hingegen die Anwendungsebene prägend für Algorithmen- und Hardwarewahl.

Mit Dr. Felix Sawo, CEO und Mitgründer bei Knowtion und Dr. Dzianis Lukashevich, Business Solutions Director bei Analog Devices, beleuchtet DESIGN&ELEKTRONIK spezifisches Design und Skalierbarkeit, über alle Abstraktionsebenen von Soft- und Hardware hinweg.

 

DESIGN&ELEKTRONIK: KI-Methoden arbeiten nicht exakt, sind unbewiesen und stark vom Anwendungsfall abhängig. Kann auf der Anwendungsebene entschieden werden, welche KI-Methoden eine hohe Erfolgswahrscheinlichkeit haben?

Dr. Felix Sawo: Aufgrund der Erfahrung die wir bei Knowtion in knapp zwei Jahrzehnten bei verschiedenen Projekten mit KI-Methoden gesammelt haben, kann ich die Frage eindeutig mit »Ja« beantworten.

Wir sind der festen Überzeugung, dass abhängig von verschiedenen Randbedingungen wie Datenlage, Art der Anwendung oder Hintergrundwissen zu den unterlagerten physikalischen Prozessen schon sehr gut eingeschätzt werden kann, welche grundsätzlichen Algorithmen die besten Erfolgswahrscheinlichkeiten haben.

Ich möchte Ihnen im Folgenden etwas ausführlicher ein paar Aspekte genauer schildern, die bei der Auswahl der Algorithmen schon auf Anwendungsebene eine Rolle spielen können.

Ist physikalisches Hintergrundwissen vorhanden, bietet es sich an, dieses Wissen durch modellbasierte Ansätze auszunutzen. Allgemein kombinieren diese Algorithmen die Sensordaten mit einer mathematischen Beschreibung der überwachten Zustandsgrößen, um dadurch ein genaueres Ergebnis der gewünschten Größe zu erlangen.

Nun kann noch weiter unterschieden werden: ist die mathematische Beschreibung ein linearer Zusammenhang und das unterlagerte Rauschverhalten normalverteilt, so bietet ein einfacher Kalman-Filter die wohl beste Erfolgswahrscheinlichkeit. Handelt es sich eher um einen nicht-linearen Zusammenhang und ein nicht-normalverteiltes Rauschverhalten, müssen Algorithmen eingesetzt werden, welche die zu lösende Fusionsgleichung möglichst genau approximieren.

Der Extended Kalman Filter (kurz EKF) approximiert dabei die mathematische Beschreibung des zu überwachenden Systems und der Unscented Kalman Filter (kurz UKF) approximiert die Wahrscheinlichkeitsfunktionen, die das Rauschverhalten beschreiben. Besonders in diesem Bereich der modellbasierten Schätzverfahren, gibt es noch sehr viele weitere Ansätze, die jeweils ihr Stärken und Schwächen haben. Erwähnenswert ist hierbei noch das Partikel-Filter (kurz PF) und Interacting Multiple Model (kurz IMM).

Sind lediglich Daten vorhanden und kein physikalisches Hintergrundwissen, so müssen sogenannte datengetriebene Ansätze gewählt werden. Diese Algorithmen extrahieren die gewünschte Information direkt aus den Sensordaten. Hierzu zählen das gesamte Spektrum an Methoden aus dem Machine Learning (kurz ML), wie beispielsweise Lineare Regression, Neuronale Netze, Random Forest oder Hidden Markov Modelle.

Auch hier kann weiter unterschieden werden: sind wenige Daten vorhanden, können einfache ML-Methoden greifen oder es muss mit simulierten Daten trainiert werden. Je mehr Daten vorhanden sind, umso komplexere Algorithmen können gewählt werden.   Das reicht bis hin zu Deep Learning oder Ensemble Methoden, die unterschiedliche Algorithmen miteinander kombinieren und bewerten; und selbständig entscheiden können, in welchen Situationen welcher Algorithmus zu besseren Ergebnissen führt und diesen entsprechend gewichten. Voraussetzung hierfür ist die notwendige Menge an Daten.

Je nach Anwendung ist die Gruppe der möglichen Algorithmen eindeutig, z.B. überwachtes Lernen (supervised learning), unüberwachtes Lernen (unsupervised learning) oder bestärkendes Lernen (reinforcement learning).

Ein weiterer Aspekt auf der Anwendungsebene sind die verfügbaren Rechnerressourcen. Das kann von Mikrocontroller über Edge-Computer bis hin zu Cloud-Platformen reichen. Stehen GPUs zur Verfügung, so können ressourcen-intensive Aufgaben schneller verarbeitet werden. 

Dies hat sehr großen Einfluss darauf, mit welchem Algorithmus die höchste Erfolgswahrscheinlichkeit erzielt wird.

Dr. Dzianis Lukashevich: Die Wahl einer KI-Methode ist aber immer noch von dem vorhandenen Expertenwissen abhängig. Ist das umfangreiche Expertenwissen oder so gennanntes Domain Knowledge vorhanden, spielt die KI eher eine unterstützende Rolle und die eingesetzten Methoden sind eher elementar. Ist kein Expertenwissen vorhanden, sind die eigesetzten ML-Methoden wesentlich komplexer. Ich denke jenes Expertenwissen, das durch die KI unterstützt wird, bietet immer noch die beste Lösung an.