embedded world 2020 Wo sich menschliche und künstliche Intelligenz treffen

Bei der Künstlichen Intelligenz gilt es für Embedded-Entwickler, ein Paradoxon zu bewältigen: Intelligenz braucht viel Rechenleistung – Embedded-Systeme haben aber nur wenig davon. Wie wird dieses Problem auf der embedded world Conference diskutiert? Welche Lösungsmöglichkeiten zeichnen sich ab?

Die Künstliche Intelligenz (KI, englisch Artificial Intelligence, AI) befasst sich mit der Automatisierung intelligenten Verhaltens und dem Maschinellen Lernen (ML). Hinsichtlich der bereits existierenden und der sich als Potenziale abzeichnenden Anwendungsbereiche gehört Künstliche Intelligenz zu den wegweisenden Antriebskräften der digitalen Revolution.

Dies gilt aber nicht nur für »große« an Big-Data orientierte Anwendungen, bei denen versucht wird, zum Beispiel aus immens großen Datenmengen in sozialen Netzwerken Muster zu erkennen und vorherzusagen, um Kundenverhalten klassifizieren oder antizipieren zu können, sondern immer mehr auch für industrielle Anwendungen. Besonders relevant sind dann all die Anwendungen, bei denen ebenfalls Verhalten, Eigenschaften, Zustände, Wartungsintervalle oder Restlaufzeiten analysiert oder vorhergesagt werden müssen.

Architekturen im Wandel

Solche Edge-Anwendungen basieren oft auf eingebetteten Systemen, die über viel weniger Rechenleistung verfügen als die herkömmlichen Cloud-Server, auf denen normalerweise die KI- und ML-Probleme gerechnet werden. Trotz der beschränkten Speicher- und Rechenressourcen von eingebetteten Mikrocontrollern boomt dieser Bereich ganz massiv. Hintergrund ist die faszinierende Möglichkeit, kleine, kostengünstige, autonome und adaptive Systeme zu bauen, die deutlich über den Funktionsumfang herkömmlicher statischer modellbasierter Steuer- und Regelalgorithmen hinausgehen. Autonome Fahrzeuge, selbständige Roboter oder interaktive Assistenten sind nur einige bekannte Beispiele. Dabei stehen die eingebetteten Systeme meist nicht im Sinne von Edge-Computing allein, sondern agieren oft im Zusammenspiel mit weiteren Ressourcen in der Cloud (Cloud Computing) oder auf Zwischensystemen und Gateways, sodass gerade in diesem Zusammenhang das sogenannte »Fog Computing« immer wichtiger wird.

In klassischen eingebetteten KI-Systemen wird in der Cloud gelernt und im Edge entschieden. Immer mehr finden sich aber auch Architekturen, in denen Lösungen für Probleme begrenzter Komplexität auf dem eingebetteten Endknoten (Edge System) gelernt werden. Darüber hinaus sind immer mehr Anwendungen zu beobachten, bei denen mehrstufig gelernt wird. Dies verspricht nicht nur Vorteile in Bezug auf die Lastverteilung, sondern ebenfalls für die Vertraulichkeit von Informationen, da nur vorgelernte, das heißt, abstrahierte Modell auf die nächste Ebene weitergegeben werden.

Intelligente und Autonome Systeme

Im Zuge dieser immer mehrstufigeren und immer stärker gekoppelten Lösungen spielen die Lastverteilung und der Informationsaustausch zwischen den beteiligten Fog-Computing-Knoten eine zunehmend wichtigere Rolle. Aus diesem Grund steht die weltgrößte Fachkonferenz zu Embedded-Systemen, die embedded world Conference (ewC) in ihrem achtzehnten Jahr unter dem Motto »Connecting Embedded Intelligence«.

Damit greift die ewC den Titel einer ihrer Vorgängerveranstaltungen aus den 90er Jahren wieder auf. Damals war »Embedded Intelligence« eher eine Zukunftsvision, während heute im Zeitalter von immer günstigerer Rechen- und Kommunikationsleistung, neuen Architekturen zwischen Edge-, Cloud- und Fog-Computing und weiter entwickelter Algorithmik reale Produkte und Lösungen mit immensen Möglichkeiten und Konnektivitätslösungen bereits verfügbar sind, gerade in den Markt eingeführt werden oder auch in den F&E-Abteilungen für neue Anwendungen weiterentwickelt werden.

Anwendungen im und jenseits des Rampenlichts

Dabei stehen die folgenden Anwendungen gegenwärtig im Rampenlicht:

Die automatisierte Mustererkennung in Bildern verleiht dem ohnehin schon boomenden Anwendungsbereich der »Embedded-Vision« (der die ewC übrigens auch einen ganzen Track widmet) noch weitere Dynamik. Nicht nur, dass Kamerasysteme immer günstiger, energieeffizienter und kleiner werden. So werden nun auch Anwendungen wie zum Beispiel die Fußgängererkennung bei autonomen Fahrzeugen, Identifikation von Personen durch Gesichtserkennung (mit der – teilweise bedenklichen – Möglichkeit, Menschen zu überwachen und ihre Bewegungsmuster und Handlungen nachzuvollziehen), Abgleich von Fingerabdrücken oder die industrielle optische Qualitätskontrolle (Automated Optical Inspection, AOI) von diesen Systemen unterstützt.

Mit der Zustandsüberwachung und der darauf aufbauenden vorhersagenden Instandhaltung (Predictive Maintenance) von Maschinen, Anlagen oder Anlagenteilen profitiert ein Kernbereich der vierten industriellen Revolution (Industrie 4.0).

Und schließlich profitieren autonome Systeme im Allgemeinen ganz wesentlich von den Entwicklungen, um die komplexen Entscheidungen mit »zusätzlicher Erfahrung« immer weiter zu optimieren. Hierin eingeschlossen sind die gesamten zukunftsgerichteten Bereiche des autonomen Fahrens, der autonomen, unter Umständen auch kollaborativen Robotik oder der intelligenten Assistenzsysteme.

Darüber hinaus gibt es natürlich zahlreiche weitere Anwendungen, die vom Einsatz von KI und ML profitieren können. Generell gilt, dass KI-basierte Systeme immer dort vorteilhaft eingesetzt werden können, wo die Probleme so komplex oder so unstrukturiert werden, dass die Methoden der klassischen Modellbildung zu entwicklungsaufwändig, zu teuer oder zu unflexibel wären.

Ein Paradigmenwechsel und seine Herausforderungen

Mit dieser Vorgehensweise wird das klassische Entwicklungsmodell von Software auf den Kopf gestellt. Das Modell der Wirklichkeit wird nicht mehr manuell erstellt, wobei oft zuerst analysiert und dann synthetisiert wird. In der Regel wird das komplexe Problem in kleinere Teilprobleme zerlegt, die dann in ihren Teilen gelöst und validiert werden. Stattdessen werden nun die Modelle in ihrer Gesamtheit automatisiert erzeugt. Dies bedeutet aber auch, dass ein quasi »unbekanntes« und oft auch sehr komplexes Modell vorliegt und nun validiert werden muss. Fragen der Komplexitätsbewältigung, der Systemstabilität, des Tests und der Testabdeckung müssen komplett neu angegangen werden, gerade auch, wenn diese Algorithmen sicherheitskritische Funktionen umsetzen.

Embedded Intelligence

Auch auf der weltgrößten Leitmesse sowie der parallel vom 25. bis 27. Februar 2020 in Nürnberg stattfindenden embedded world Conference stehen diese Themen rund um intelligente und autonome Systeme im Fokus. In insgesamt 26 Vorträgen in vier spezialisierten Sessions geben Fachleute an zwei ganzen Tagen Antworten auf die oben aufgeführten Fragen.

 

embedded world 2020

embedded world – internationale Leitmesse für Embedded-Systeme
25.–27. Februar 2020, Messezentrum Nürnberg
Messe-Website: www.embedded-world.de

embedded world Conference
Die embedded world Conference ist die weltweit größte Konferenz zum Thema Embedded-Systeme. Sie findet an allen drei Messetagen statt und besteht im Jahr 2020 aus einer Keynote, 281 Vorträgen und 14 Classes. Konferenz-Website: www.embedded-world.eu

electronic displays Conference
Auf der electronic displays Conference treffen sich am 26. und 27. Februar 2020 Anwender, Entwickler und Wissenschaftler. Sie präsentieren Ideen, Projekte und Technologien heutiger und zukünftiger Displays.Konferenz-Website: www.electronic-displays.de