Markt&Technik Round Table - Teil 2 KI bettet sich langsam ein

Die wichtigsten Trends rund um Industriecomputer und Embedded Systeme werden auf dem M&T-Forum diskutiert.
Die wichtigsten Trends rund um Industriecomputer und Embedded Systeme werden auf dem M&T-Forum diskutiert.

Das Thema künstliche Intelligenz im Bereich des Embedded-Computing wird seit geraumer Zeit propagiert. Die Expertenrunde erörtert die bisherigen Erfolge und die Perspektiven.

Die „Diskussion“ über KI in der Allgemeinheit ist mehr emotional angelegt und schwankt zwischen Hoffnung und Bedrohung. Im technischen Bereich ist KI eigentlich schon lange im Einsatz, zumeist in Form der Sprach- und Bilderkennung. »Es ist definitv ein Hype. Die embedded world hat gezeigt, dass es sehr viele Demos gibt – sehr viele gleiche Demos«, berichtet Wolfgang Eisenbarth, Managing Director von Portwell. »Im Kiosk- und Self-Service-Bereich ist künstliche Intelligenz ein ganz großes Thema, das aber noch sehr in den Anfängen steckt. Es gibt viele Demonstratoren, aber Kiosk-Systeme, die es auch einsetzen, sind in der Minderzahl.«

Im Gespräch mit den Embedded-Computing-Anbietern zeigen sich die Kunden technisch aufgeschlossen, aber »es wird nicht über die künstliche Intelligenz gesprochen, sondern über den Use-Case: Was will man eigentlich tun, was gibt es für Tools dafür«, erklärt Klaus Rottmayr, Geschäftsführer von Spectra. »Das Neue ist, dass man zu den Tools jetzt KI sagt – der Kunde nimmt den Begriff aber nicht in den Mund! Typischerweise sind die ersten Applikationen die, bei denen riesige Datenmengen vorhanden sind und nicht erst anfallen müssen, sondern historisch gesammelt sind.«

Beispiele dafür gibt es im Medizintechnikbereich, wo in der Cloud hunderttausende MRT-Scans und Röntgenaufnahmen ausgewertet werden, um Algorithmen zu entwickeln, die bei der Diagnostik helfen sollen. Im Industriebereich ist Embedded Vision beliebt, allerdings will man hier lieber vor Ort, also im Edge die Daten auswerten. »Das lokal auszuführen ist mittlerweile gar nicht mehr so schlimm. Es gibt viele kleine KI-Beschleuniger-Chips, und auch über die GPUs kann einiges laufen – die Performance ist da, um den Algorithmus zu bearbeiten«, erklärt Christian Eder, Director Marketing von congatec. »Aber was nützt die schönste Hardware am Edge, wenn ich keine Algorithmen dafür habe. Der Aufwand steckt in der Erstellung der Algorithmen. Mit den ganzen Tool-Kits ist es aber mittlerweile relativ leicht, eine Lösung zu machen.«

Dieser Ansatz trifft aber nicht bei jedem sofort auf Begeisterung. »Als Ingenieur will ich verstehen, warum, weshalb, wieso irgendetwas eine Entscheidung trifft«, betont Stefan Daxenberger, CEO von DH electronics. »Daher erfolgt die klassische Programmierung streng logisch, entspricht also unserem Neocortex. 80 Prozent seiner Entscheidung trifft der Mensch aber nicht im Logikzentrum des Neocortex, sondern im Bauchhirn. KI mit Deep Learning ist das Bauchgefühl.«

Was das Unbehagen gegenüber der Black-Box-Lösung verstärken kann, ist der Ort ihrer Entstehung. »Der Lernprozess findet in der Cloud statt, da es noch lange nicht die Performance im Edge gibt«, erklärt Volkmar Kaufmann, Sales Director Central & East Europe von Aaeon Technology. »Im Edge kann man die Inferenz durchführen, auf kleinen Systemen mit Unterstützung durch Intels Movideus, Nividias Jetson oder ähnliche Lösungen.«

Dieser zweistufige Ansatz hat sich aus den Big-Data-Anwendungen entwickelt und ist allgemein akzeptiert. Für Small-Data- und Medium-Data-Anwendungen zeichnet sich aber ein anderes Bild ab. »KI ist auch im Sensor- und Aktor-Bereich ein extrem spannendes Thema«, betont Daxenberger und nennt ein Beispiel: »Eine Smart-Home-Dusche mit einem perfekt funktionierenden Touch unter allen Wasserbedingungen funktioniert wegen KI. Es gibt keine deterministische Möglichkeit, um bestimmte Vorgänge präzise mathematisch zu beschreiben, wie das in der klassischen Steuerungstechnik der Fall ist. Hier setzt die künstliche Intelligenz an, um über einen längeren Zeitraum zu beobachten, stochastisch auszuwerten und dann klug Dinge mit zu beeinflussen.«

»Gerade Regelsysteme, die selber lernen, durch Sensor-Input, sind schnell lernende Systeme im Vergleich zu denen, wo jemand gut/schlecht bestätigen muss«, ergänzt Rottmayr. »Unsere klassische Kundschaft aus dem Maschinen-, Anlage-, Gerätebau werden dies für Use-Cases wie Predictive Maintance lokal nutzen. Die Maschine muss selber wissen, wann sie ein Ersatzteil braucht, und nicht erst die Daten zu einem großen Cloud-Anbieter hochladen, der dann mitteilt, wann die Maschine ausfällt. Hier tut sich was bei unserer Kundschaft und sie fragt nach entsprechenden Plattformen – mit ganz unterschiedlichen Bandbreiten an Performance.«

Aber auch in anderen Einsatzbereichen ist lokale KI ein Thema. »Ein Beispiel ist der Retail-Bereich, denn es gibt das Problem hinsichtlich der Privatsphäre und des Datenschutzes – Daten, die mit Gesichtern, also von Menschen erhoben werden, dürfen nicht weiterverbreitet werden. Das heißt, die Daten müssen vor Ort im Edge gehalten werden«, berichtet Kaufmann. »Was man machen darf, sind statistische Auswertungen, die dann anonymisiert in die Cloud hochgeladen werden können. Im POS-Bereich ist das Interesse hoch, weil dort ein Gegenwert entsteht, also der Umsatz erhöht oder die Kosten reduziert werden können – so lässt sich die technische Investition darstellen. Es wird aber noch etwas dauern, denn die Lernphase braucht Zeit und die Datenspezialisten müssen die Algorithmen entwickeln.«