Embedded World Conference 2019 Im Gespräch mit Prof. Axel Sikora

Prof. Dr. Axel Sikora, Hochschule Offenburg, ist Mitglied des Steering Boards der embedded world Conference.
Prof. Dr. Axel Sikora, Hochschule Offenburg, ist Chairman des Steering Boards der embedded world Conference.

Die embedded world Conference ist der weltweit führende Treffpunkt für die Embedded-Community. Im Gespräch mit Frank Riemenschneider, Chefredakteur des Veranstalters DESIGN&ELEKTRONIK, erklärt Prof. Axel Sikora, Chairman des Steering-Boards, was es mit "Embedded Intelligence" auf sich hat.

DESIGN&ELEKTRONIK: Axel, die embedded world Conference 2019 steht unter dem Motto „Embedded Intelligence“, ein Schwerpunkt wird also KI, maschinelles Lernen, DeepLearning u.s.w. betreffen. Warum sind diese Themen gerade jetzt für die embedded Community so wichtig?

Prof. Axel Sikora: Ja, Du hast es gerade schon angesprochen, die Wurzeln der Embedded World liegen ja in einer Veranstaltung, die damals in den 90er Jahren Embedded Intelligence hieß, und wir haben uns entscheiden, einen Rückgriff zu machen, weil wir in den 90er Jahren von etwas geträumt haben, was sich mit der heutigen Hard- und Software auch tatsächlich umsetzen lässt.

Was konkret sind die entscheidenden Fortschritte?

Zum einen die Rechenleistung selbst, zum anderen die Möglichkeiten, Rechenleistung auch zu verschieben von der Edge über Gateways hin zur Cloud, also das, was man Fog-Computing nennt. Erst damit kann man intelligente, adaptive und selbstlernende Systeme aufzusetzen.

Die Implementierung von maschinellem Lernen ist ja alles andere als trivial. Die Programmierung für Embedded-Umgebungen, in denen Verarbeitungszyklen, Speicher und Energie knapp sind, ist wirklich schwierig.  Welche Ansätze siehst Du hard- und softwareseitig, um Komplexität und  Ressourcenknappheit managen zu können?

Neben der eben erwähnten Verschiebung von Rechenleistung in die Cloud gibt es verschiedene dedizierte Hardware-Plattformen wie z.B. GPUs, FPGAs oder spezielle Prozessor-Plattformen für die Verarbeitung von neuronalen Netzwerken, wie immer wird die Welt vermutlich nicht schwarz oder weiß sein, sondern eine Mischung unterschiedlicher Ansätze zeigen.

Beim DeepLearning wird die Situation ja noch verschärft durch die Tatsache, dass Lernalgorithmen für eine einzelne Inferenz zur Testzeit Rechenleistung im Bereich von Teraops  erfordern, was für komplexe Netzwerke einige Sekunden pro Inferenz bedeuten kann. Solche hohen Latenzen sind für Edge-Geräte, die typischerweise eine Echtzeit-Antwort mit null Latenz benötigen, nicht praktikabel. Darüber hinaus sind Deep-Learning-Lösungen extrem rechenintensiv, was dazu führt, dass Edge-Geräte nicht in der Lage sind,  tiefe Lerninferenzen abzubilden. Sind Spezial-ASICs wie Googles TPU oder Deep Vision‘s embedded-Prozessor die einzige Lösung, diese Anforderungen zu erfüllen?

Sie sind sicherlich ein Vehikel, um da Schritte weiterzugehen, auf der anderen Seite ist gerade die Thematik embedded Intelligence eine algorithmische Herausforderung, weil man das vorab trainieren nicht auf der embedded Seite machen muss, sondern eine Art Cross-Learning macht, das initiale Lernen auf einer Server-Plattform laufen lässt und nur noch die Adaptivität im Feld in der Edge rechnen lässt.

Als weitere Anwendung von ML wird die Sprachsteuerung genannt, in welchen embedded Anwendungen siehst Du neben der HMI im Auto noch Potential, statt mit Touch-Displays oder Knöpfen mit natürlicher Sprache zu interagieren?

Das sind alle Anwendungen, wo man Mensch-Maschine-Schnittstellen hat, das kann die interaktive Duschsteuerung sein, das kann aber genauso im industriellen Bereich sein, wo ich Bedienungsanleitungen, Hinweise gebe und Expertensysteme auf Anfrage zum Einsatz kommen lasse.

Die gleiche Frage für die automatische Ausreißererkennung. Algorithmen können Ausnahmen und ungewöhnliche Ereignisse automatisch erkennen, wo in unser Branche können aus Deiner Sicht derartige Algorithmen den größten Nutzen stiften?

Ich bin immer vorsichtig mit Superlativen, aber wo wir schon viele Anwendungen sehen ist im Bereich predictive Maintainance, Condition-Monitoring, wo Anlagen überwacht werden, Zustände analysisiert werden um dann rechtzeitig, bevor ein Schadensfall auftritt, eine Wartung durchzuführen, Betriebszyklen oder die Betriebsführung zu verändern oder ähnliches. Da sehe ich viele Anwendungen, die gegenwärtig schon auf den Markt kommen.

ML-Techniken werden ja u.a. nach Simulation, Hybrid (Simulation 90 %, 10 % Lernen auf realer HW) und Hardware-in-the-loop klassifiziert. Welche Ansätze siehst Du im embedded Umfeld als am meisten zielführend an?

Viele der embedded-Anwendungen werden sicherlich mit sehr kleinen Datenmengen agieren müssen, daher spielt Simulation eine große Rolle, aber auch der Mensch in der Lernkette, also assistent-Learning, so dass da sicherlich andere Herangehensweisen erforderlich sind als bei klassischen Social-Media-Analysen.

Kommen wir zu zwei Herausforderungen: Ein Uber-Fahrzeug hat eine Frau totgefahren, weil auf Nvidias ADAS-Plattform ein Software-Bug war. Wie kann man generell bei KI/ML SW-Fehler ausschließen, kann man es überhaupt? Wie lässt sich so ein System verifizieren?

Generell ist das Handling von Komplexität eine Herausforderung in der heutigen Zeit, das gilt nicht mal spezifisch für maschinelles Lernen, sondern das gilt für alle Systeme.  Es gibt durchaus interessante Ansätze, wo Systeme sich selbst überwachen und auch selbstständig feststellen können, ob die Situation, in die sie gerade geraten, schon gelernt ist und ob sie dafür vorbereitet sind oder nicht. Das ist für mich ein Ansatz, um eine höhere Zuverlässigkeit zu erreichen, um dann zu agen, nun gut, ich komme in eine unbekannte Situation, also gehe ich in einen Fail-Safe-State.

Nvidia verwendet ja einen Ansatz, wo massiv GPUs parallel geschaltet werden. Die Folge sind Leistungsaufnahmen im Bereich von hunderten von W, und eine GPU ist ja vom Instruktion--Set genau wie eine CPU nicht für neuronale Netzwerke nicht optimiert, z.B. für eine Matrix-Multiplikation. Müsste man nicht spezielle ML-Prozessoren mit ganz neuen Instruktion-Sets entwickeln, um hier effizienter zu werden?

Ja und Nein, auch hier ist die Welt nicht schwarz oder weiß. Zum einen gibt es ja schon spezifische ML-Chips, auf der anderen Seite haben Standardprodukte den Vorteile, dass man die Entwicklungskosten über mehrere Anwendungen abschreiben kann, und somit ggf. auf eine höhere Rechenleistung pro Euro kommt.

Letzte Frage an den Wireless-Guru Axel Sikora: Viele Anwendungen sind ohne flächendeckende 5G-Infrastruktur mit geringen Latenzzeiten nicht denkbar. Während in Asien mit Hochdruck an 5G gearbeitet wird, haben wir heute nicht einmal LTE in der Fläche. Was müssen Politik und Industrie tun, um Deutschlands Infrastruktur auf das Niveau von Korea, Japan oder Singapur zu heben?

Nicht nur Schönwetterreden halten, sondern Aktivitäten entwickeln! Was wir leider im Bereich der Digitalisierung in der Politik sehen, sind viel zu viele Absichtserklärungen und viel zu wenig harte Umsetzung, die Industrie von der Politik einfordert, aber auch die Politik von der Industrie fordert.

Vielen Dank Axel, dann danke ich Dir für die ehrlichen und offenen Worte!