D&E: Nach der geeigneten Wahl von Hard- und Software schreiten wir zur Erstimplementierung. Wie plattform-abhängig und aufwendig gestaltet sich diese in der Praxis tatsächlich?
FS: Die direkte Implementierung der KI-Methoden inklusive der einzelnen Algorithmen ist aus unserer Sicht in der Praxis sehr aufwendig. Aus diesem Grund betrachten wir bei Knowtion noch einen weiteren Entwicklungsschritt, den wir allgemein als Algorithmenentwicklung bezeichnen. Hier werden für die gesamte Verarbeitungskette - von den einzelnen Sensor-Rohdaten bis hin zur gewünschten extrahierten Information - alle notwendigen Algorithmen in dieser Pipeline ausgewählt, optimiert, weiterentwickelt oder wenn notwendig auch komplett neu-entwickelt. Natürlich erfolgt auch eine Evaluierung und Validierung der einzelnen Algorithmen. Bei diesem lösungsorientierten Ansatz steht also erst einmal die mathematische Lösung der konkreten Aufgabe durch bestimmte Algorithmen im Fokus.
Wurde eine Algorithmen-Pipeline gefunden, welche die gewünschte Genauigkeit und die Qualitätskriterien erfüllt, wird diese in einem weiteren Zwischenschritt auf die einzelnen Hardware-Module, die für die konkrete Anwendung zur Verfügung steht, verteilt. An dieser Stelle können entweder die einzelnen Hardware-Module genauer spezifiziert, oder falls diese bereits vorhanden sind, können die einzelnen Algorithmen entsprechend angepasst und hinsichtlich der Performanz des Gesamtsystems optimiert werden. Speicherbedarf, Rechenleistung, Zeitverzögerung durch Kommunikation, Übertragungsmenge und -rate sind dann typische Kriterien, die hier eine entscheidende Rolle spielen.
Erst danach erfolgt bei Knowtion der Schritt, den Sie als Erstimplementierung bezeichnen. Die für die einzelnen Hardware-Module hin optimierten Algorithmen werden implementiert, das reicht von der Implementierung auf Sensorebene in den einzelnen Mikrocontrollern, über Edge-Gateways bis hin zur Cloud-Plattform.
Wie Sie sich vorstellen können, kann die Gesamtkomplexität und damit der hohe Gesamtaufwand, mit jedem Entwicklungsschritt dadurch stark reduziert werden. Am Ende bleibt lediglich der Aufwand der eigentlichen Implementierung, der je nach Wahl der Plattform natürlich sehr unterschiedlich ausfallen kann. Insbesondere in einigen Entwicklungsprojekten im Umfeld Predictive Maintenance von Maschinen und ganzen Anlagen, konnten wir über die Jahre hinweg sehr gute Erfahrungen mit diesem schrittweise Vorgehen sammeln.
D&E: Im IT-Segment existiert sicherlich ein großer Schatz an Middleware, um alle Zustandsgrößen simultan über die jeweiligen Softwaremodule verarbeiten zu können. Steigt der Implementierungsaufwand zur embedded-Seite hin?
FS: Wird das gesamte Spektrum an zur Verfügung stehender Middleware betrachtet, so können wir schon feststellen, dass der Entwicklungs- und Implementierungsaufwand hin zur embedded-Seite steigt. Um diesen Aufwand zumindest ein wenig zu reduzieren, wird natürlich auch die Trennung zwischen dem Entwurf und der Entwicklung der Algorithmen - zur Verarbeitung der Daten und der Implementierung – an dieser Stelle sehr viel stärker ausgeprägt sein.
Ein auf üblichen Systemen entwickeltes bzw. entworfenes Modell soll schließlich entsprechend auf einem Mikrocontroller speicher-effizient und ressourcen-optimiert umgesetzt werden. Aber auch der Implementierungsaufwand der Algorithmen auf der Cloud-Seite sollte trotz der in den letzten Jahren immer besser werdenden Plattformen nicht unterschätzt sein. Dies liegt aber eher an der sich sehr schnell und dynamisch ändernden Funktionalität, die von den einzelnen Herstellern von Cloud-Plattformen angeboten wird. Hier gibt es fast monatlich Neuigkeiten und weitere Funktionalitäten, die natürlich auch immer eine Änderung oder Erweiterung der Schnittstellen und auch die Art und Weise der Algorithmen-Implementierung mit sich bringt.
DL: Ich stimme meinem Kollegen zu. Es ist immer noch um einiges einfacher, die rohen Sensordaten auszulesen und diese in der Cloud zu bearbeiten. Es ist heutzutage auch nicht schwer, so ein auf der Cloud-KI basierendes System umzusetzen. Der Aufwand kann enorm steigen, je näher man sich in die embedded-Richtung bewegt. Im Idealfall soll die eingesetzte KI-Methode auch auf die verfügbare Hardware angepasst werden.
Z.B. die embedded-KI soll auch eine Entscheidung über die Qualität der Daten treffen, und falls diese unzureichend ist, die optimalen Einstellungen für die Sensoren sowie die gesamte Signalaufbereitung finden und setzen. Werden mehrere verschiedene Sensoren für die Fusion verwendet, können Nachteile bestimmter Sensoren und Verfahren, durch die KI ausgeglichen werden. Dadurch erhöht sich Qualität der Daten und die Zuverlässigkeit des Systems. Zusätzlich zur Datenwissenschaft, erfordert das ein fundiertes Wissen über die Hardware und vor allem über die Signalverarbeitung.