Je mehr sich Embedded-KI in der Industrie durchsetzt, umso klarer wird, dass sie nicht nur neue Möglichkeiten bietet, sondern auch neue Herangehensweisen und Strategien erfordert. Deutlich wird dies an der Machine-Learning-Technik Federated Learning, die bei Embedded-KI-Lösungen oft angewandt wird.
Ob Zustandsüberwachung und Anomalieerkennung, Qualitätskontrolle, Prozesssteuerung, Energieoptimierung oder Robotik: In der Industrie muss Embedded-KI im Zweifelsfall schlank und schnell sein. Um das zu erreichen, werden die zugrunde liegenden Sensordaten auf der Edge-Ebene lokal in kleinen KI-Modellen verarbeitet – vorzugsweise in ARM-basierten Controllern. Das spart Datenverkehr, erhöht die Datensicherheit, sichert prozesstauglich kurze Antwortzeiten und ermöglicht es, Edge-Funktionalitäten mit der SPS auf demselben Gerät zu verbinden. Weil KI-Modelle unabhängig von ihrer Größe und Lokalisierung im Lauf der Zeit jedoch zum »Drift« neigen, also zum Qualitätsverlust, müssen sie regelmäßig und über ihre gesamte Einsatzdauer hinweg trainiert werden. Hier kommt Federated Learning ins Spiel.
Der Grundgedanke des Federated Learning ist ebenso einfach wie wirkungsvoll: Mehrere Maschinen oder Anlagen lernen parallel und lokal, ohne dass ihre Rohdaten das Werk verlassen müssen. Stattdessen tauschen sie nur ihre lokal komprimierten Lernfortschritte aus und bieten damit die Grundlage für eine zentrale Aggregation aller Modellverbesserungen: Das überaus erfreuliche Ergebnis ist gemeinsames Lernen – sozusagen in der »Crowd« statt in der Cloud.
Der Ablauf beginnt mit einem Initialmodell, das von einem zentralen Server an alle beteiligten Maschinen – die sogenannten Clients – verteilt wird. Jede Maschine trainiert dieses Modell anschließend lokal mit ihren eigenen Prozess- oder Sensordaten. Das geschieht in kurzen, kontrollierten Lernzyklen, sogenannten Epochen, typischerweise mit ein bis drei Durchläufen. Nach jedem Zyklus werden die neu gelernten Modellparameter – also Gewichtungen oder Gradienten – zurück an den Server gesendet. Auf dem Aggregationsserver werden alle Updates gesammelt und zu einem verbesserten Globalmodell zusammengeführt. Das neue, aggregierte Modell wird anschließend Over-the-Air (OTA) wieder an alle Maschinen verteilt – signiert, versioniert und kryptografisch abgesichert. Jede Maschine profitiert damit vom globalen Wissenszuwachs, ohne dass vertrauliche Rohdaten ausgetauscht wurden.
Ein Monitoring-System überwacht den gesamten Prozess: Es erkennt Datenabweichungen (Drift), Ausreißer oder Leistungsveränderungen und steuert, wann der Rollout eines Modells stattfindet oder wann es bei Bedarf zurückgesetzt (Rollback) werden muss. So bleibt das System auch über lange Lebenszyklen hinweg stabil und nachverfolgbar. Damit Federated Learning über Jahre hinweg funktioniert und damit industrietauglich wird, müssen neben den technischen auch organisatorische Bausteine zusammenspielen. So werden etwa Compliance und Nachverfolgbarkeit zu integralen Bestandteilen industrieller KI-Projekte: Alle Modelländerungen werden revisionssicher dokumentiert (Audit-Trail), Freigaben erfolgen über definierte Policy-Gates, und die Update-Prozesse entsprechen den Sicherheitsnormen der IEC 62443 sowie den Anforderungen des Cyber Resilience Act (CRA).
Für die Leistungsbewertung kommen neben klassischen Machine-Learning-Metriken wie Weighted F1-Score oder Regressionsfehler zunehmend praxisnahe OEE-bezogene Indikatoren zum Einsatz – etwa Energieverbrauch, Ausschussrate oder Mean Time Between Failures (MTBF). Diese Kennzahlen entscheiden, wann der Rollout eines neuen Modells in die Fläche tatsächlich stattfindet. Damit wird Federated Learning zu einem geschlossenen, sicheren und nachverfolgbaren Lernsystem für die Industrie – mit hoher technischer Effizienz und unmittelbarem Nutzen für Qualität, Energieverbrauch und Anlagenverfügbarkeit.
Federated Learning als auf Dauer angelegtes Lernsystem macht die Modellpflege von Embedded-KI-Lösungen zum wiederkehrenden Nutzenversprechen und zur schieren Notwendigkeit. Dieses kontinuierliche Lernsystem umfasst:
• Serviceverträge für Modell-Parameterupdates, die SaaS-Modellen ähneln, aber auf die spezifischen Anforderungen der KI zugeschnitten sein müssen.
• Die Pflege und parallele Weiterentwicklung verschiedener Modellversionen, etwa stabiler Varianten für Serienanlagen und »innovationsfreudigerer« Versionen für Pilotlinien oder neue Standorte.
• Eine cybersichere, CRA- und IEC-62443-konforme OTA-Lieferkette, die gewährleistet, dass Updates, Telemetrie und Nachweise der Modellhistorie zuverlässig orchestriert, signiert und versioniert werden.
Aus Prozesssicht betrachtet folgt der Weg zum Lernkreislauf einem strukturierten Projektfahrplan:
• Phase 1 fokussiert sich auf einen klar definierten Use Case, etwa die Energieeffizienz einer Maschine oder deren Taktstabilität.
• Phase 2 widmet sich der technischen Architektur: einer skalierbaren Hardwarebasis mit System-on-Module- oder MCU-Plattformen, einem geeigneten Yocto- oder Echtzeitbetriebssystem-Stack sowie Containerisierung, sicherer Updatekette und Telemetrie-Anbindung.
• Phase 3 steht im Zeichen der Modellentwicklung mit Datenerfassung, Feature-Pipeline, Modellwahl und Embedded-tauglicher Optimierung etwa durch folgende Verfahren, ergänzt durch präzise Validierung: Pruning (Modell-Verschlankung), Quantisierung (Vereinfachung der Zahlenwerte) und Knowledge Distillation (Wissenstransfer vom großen, komplexen »Teacher«-Modell an den kleineren und effizienteren »Student«).
• Phase 4 dient als Vorprojekt und A/B-Feldtest an ausgewählten Linien, mit klar definierten KPIs zu Qualität, Energieverbrauch oder Overall Equipment Effectiveness (OEE).
• Phase 5 sichert abschließend den Rollout und die kontinuierliche Pflege: Mit der Inbetriebnahme des Federated-Learning-Systems werden Überwachung und gezielte Wiederholungsläufe fest in den Prozess integriert. Die dokumentierte Nachweisführung zu Qualität und Compliance wird zum Standard im laufenden Betrieb.
Damit sind der Weg und das Ziel von Federated Learning klar definiert: lokal lernen, global aggregieren, sicherer Rollout, und das über die gesamte Einsatzdauer der KI-basierten Lösung. So entsteht aus einzelnen Maschinen eine lernende Flotte – zum Vorteil von Endkunden und OEMs. OEMs, die jetzt die Weichen richtig stellen, bauen nicht nur KI-Kompetenz auf, sondern etablieren mit ihren Kunden eine dauerhafte und nutzenbasierte Beziehung rund um KI-Modellpflege und Performance.
Damit das gelingt, sollten OEMs vorher eine andere, ebenso dauerhafte und nutzenbasierte Beziehung aufbauen – und zwar zu KI-Entwicklungspartnern, die wie die Grossenbacher Systeme AG in der Lage sind, eine »Abkürzung vom Pilot zum Produkt« zu schaffen. Diese Abkürzung besteht aus einer geeigneten Kombination aus Hardware, Software und Services, die gemeinsam einen Baukasten für Embedded-KI in der Industrie bilden, bestehend aus skalierbaren Controller- und SoM-Plattformen, OS/Apps »out of the box«, sicheren Updatepfaden und Telemetrie, sowie in Begleitung von Modellentwicklung und Pflege.
Dabei kommt es darauf an, Pflege nicht als nachgeordnete Leistung, sondern von Anfang an als integralen Bestandteil eines Federated-Learning-Konzepts zu betrachten und zu behandeln, inklusive ihrer Umsetzung gemäß des CRA und der IEC-62443-Normenreihe über »Industrielle Kommunikationsnetze – IT-Sicherheit für Netze und Systeme«.
Was man tun sollte …
• Use-Case sauber definieren: Ein klar messbares Ziel schlägt die »Feature-Liste«.
• Skalierbare Hardware wählen: z.B. ein SoM/Carrierboard-Design mit nachrüstbarer KI-Engine (NPU/TPU).
• Modellpflege integrieren: Servicevertrag, Telemetrie, OTA – ab Tag 1.
• Federated Learning früh mitdenken: Datenhoheit sichern, Lernprozess beschleunigen.
• Sicherheits- und Update-Kette fest verankern (Signaturen, Versionen, Audit).
• Vorab Kennzahlen (KPIs) definieren: Qualität, Energie, Taktstabilität u.a.
… und was man besser vermeidet:
• Use-Cases ohne erkennbaren und messbaren (End-)Kundennutzen
• »Big Bang«: Ohne Vorprojekt/A-B-Vergleich droht Frust.
• Cloud-Abhängigkeit: Was an der Edge entschieden werden kann, sollte dort entschieden werden.
• Nur Genauigkeit messen: Auch Robustheit, Latenz, Drift und Lifecycle zählen.
• Pflege vergessen: Ohne Pflegekonzept wird KI zur Altlast.
• Security und Compliance vernachlässigen: Beides muss Teil der Architektur sein.