Fast jedes Unternehmen meint, etwas mit KI machen zu müssen. Wenige wissen, was das sein könnte. Aitad-Geschäftsführer Viacheslav Gromov gibt Einblick, in welchen Bereichen sich der Einsatz von Embedded-KI anbietet.
Markt&Technik: Herr Gromov, wie definieren Sie Embedded-KI?
Viacheslav Gromov: Wir bei Aitad unterscheiden zwischen Cloud-KI – die abstrakt ist und kontinuierliche Kosten erzeugt, aber anders skalierbar ist – und Edge-KI, die eine Teilvorverarbeitung der Daten vor Ort sowie eine Weiterverarbeitung zum Beispiel durch Algorithmik auf der Cloud erlaubt. Wir selbst gehen sogar noch einen Schritt weiter: Auch wenn zentrale KI (hier: Cloud-KI) der Ursprung der Gesamttechnologie war und Edge-KI schon rund ein Dutzend Jahre in der Praxis im Einsatz ist, ziehen wir noch eine weitere scharfe Trennlinie zur Embedded-KI. Im Gegensatz zu Edge-KI, die mehr als Hybridsystem mit Teilverarbeitung vor Ort zu verstehen ist, sehen wir Embedded-KI als ein nahezu gänzlich abgekoppeltes System, welches kein Back-End oder Abhängigkeiten nach außen benötigt – die gesamte Datenverarbeitung findet also vor Ort, meist innerhalb der Sensorkomponente, statt.
Wichtig ist es zu erwähnen, dass wir das Zusammenspiel der KI-Technologien nicht opponierend, sondern als Symbiose betrachten. Ähnlich wie in der Natur: Zum Beispiel passiert auch beim Menschen nicht alles zentral im Kopf, sondern auch dezentral. Es gibt folglich Aufgabenstellungen, die unter enormen Datenmengen echtzeitfähig und abgekoppelt sein müssen, während es auch abstrahierte Systeme für breitere Analysen und Entscheidungen braucht.
Wie schätzen Sie den aktuellen Markt für Embedded-KI ein?
Embedded-KI ist seit gut drei Jahren in der Praxis nutzbar und befindet sich aktuell in der Early-Adopter-Phase – man kann also vom neuesten Trend im Bereich der KI-Lösungen sprechen. Immer mehr – aber bisher nur ein Bruchteil – der produzierenden Unternehmen beginnen aktuell, sich mit einer Nutzung zu beschäftigen. Dies hängt unter anderem mit den zuletzt veränderten Rahmenbedingungen durch den globalen Wettbewerb und der zwingenden Transformation zusammen. Auch die mediale Präsenz, angefangen bei ChatGPT vor knapp zwei Jahren, sorgt dafür, dass künstliche Intelligenz und ihre Nutzung immer mehr ins Blickfeld geraten.
Und wie viel Wachstumspotenzial sehen Sie für Embedded-KI in den kommenden Jahren?
Wir sind überzeugt davon, dass der Anteil von Embedded-KI-Lösungen am Gesamtmarkt in den kommenden fünf bis zehn Jahren bei mehr als 50 Prozent liegen wird. Dies hängt unter anderem mit der Bandbreite der Einsatzmöglichkeiten und der Stückzahl zusammen: Die Lösungen können beispielsweise in Haushaltsgeräten, Autos oder großen Maschinen genutzt werden – in Summe viel häufiger als bei Cloud-Lösungen auf den vergleichsweise wenigen, riesigen Server-Farmen. Ergänzend kommt der Nachhaltigkeits-Aspekt hinzu, da die bisher genutzten Cloud-Server primär auf Leistung und nicht Energieverbrauch getrimmt werden. Durch den enormen Strombedarf wird bald die Grenze des Leistbaren erreicht, und Embedded-KI ist schon aufgrund der Chipgröße und der Übertragungswege eine lohnende Alternative.
Viele Unternehmen agieren aktuell mit der Auffassung, sie müssen auf jeden Fall etwas mit KI beziehungsweise Embedded-KI machen, wissen aber nicht konkret, was.
Spätestens seit dem erwähnten Hype um generative KI ist die Wirtschaft zu der Erkenntnis gelangt, dass kein Weg mehr an der Nutzung von künstlicher Intelligenz vorbeiführt. KI ist im Budget von fast allen Firmen ein wichtiger Posten und wird es auch bleiben. Man hat verstanden, dass KI Geld kostet, aber auch erkannt, welchen Nutzen es als Gegenwert bringt. Technologie-Aufklärung und -Akzeptanz ist allerdings auch weiterhin wichtig – speziell durch den globalen Wettbewerb mit Asien und den USA führt an dieser kein Weg vorbei.
Was ist Ihrer Meinung nach der größte Nutzen, den Hersteller haben, wenn sie Embedded-KI einsetzen?
Predictive beziehungsweise Preventive Maintenance – um ein altes Grundkonzept aufzugreifen – kann durch die Möglichkeit, vor Ort viel größere Datenmengen in Echtzeit zu verarbeiten und dadurch viel tiefere Analysen zu fahren beziehungsweise Muster zu finden, neu gedacht werden. Der Nutzen der frühzeitigen Verschleißerkennung zwecks Serviceeinsatzplanung oder Verschleiß-Verhinderung eröffnet Möglichkeiten für kontinuierliche Geschäftsmodelle. Diese sind oft nachhaltiger und verhindern den reinen Stückpreis-Wettbewerb, den man oft nicht mehr gewinnen kann. Dabei spreche ich von der gesamten Einsatzbreite in der Industrie: von Motorenverschleiß bis hin zu verstopften Filtern oder abgenutztem Getriebe. Die Detektion kann je nach Anwendung auf Basis von Ultraschall, Stromverläufen, Temperaturkurven oder optisch, zum Beispiel durch mmWave-Radar, geschehen.
Auch User-Interaction und Objekterkennung sind durch den Datenschutz- und Akzeptanzvorteil der Embedded-KI für den Einsatz in vielen unterschiedlichen und datensensitiven Bereichen geeignet. Grund dafür ist, dass Bild- und Audio-Rohdaten nicht nach außen übertragen, sondern vor Ort abschnittweise verarbeitet und verworfen werden. Die Lösungen können somit deutlich einfacher einen Mehrwert erzeugen.
Wie muss man sich die Umsetzung genau vorstellen?
Am Anfang eines jeden Projektes steht eine Herausforderung, also ein Pain-Point. Dabei kann es sich um gänzlich neue Themen handeln oder auch um Probleme, die bekannt, aber bisher noch nicht behoben werden konnten.
Für die Umsetzung ist es vorteilhaft, wenn die Herausforderung mithilfe von menschlicher Expertise bewältigt werden kann. Als Beispiel verwende ich gerne den alten und erfahrenen Mechaniker, der schon anhand des Tones erkennt, was einem Auto fehlt beziehungsweise welches Teil defekt sein könnte. Diese Fähigkeiten kann man dann digitalisieren und kompensieren – beispielsweise um jüngere Kollegen zu unterstützen.
Steht die klare Zielsetzung, ist zu überlegen, welche Messwerte respektive Sensorik auf Halbleiterebene den Use-Case am ehesten abdecken. Weiterhin muss ein System mit einem Teststand und entsprechendem Design of Experiment zum Datensammeln aufgebaut werden. Hat man nach einer gewissen Zeit und einigen Versuchsgeräten genug Daten, müssen diese angereichert, strukturiert, evaluiert und schließlich KI-Modelle darauf trainiert werden. Dies kann mithilfe von klassischem Machine-Learning oder mit KNNs auf Servern erfolgen.
Das erfolgreichste Modell mit der kostengünstigsten Konstellation an Rechenleistung, Sensorart und Position wird dann vom Server genommen und durch spezielle Transformationsalgorithmik auf die dafür geeigneten Chips und die entwickelte Hardware portiert. Ziel ist es, dass die KI schrumpft, aber dennoch performant bleibt.
Worauf müssen Entwickler dabei achten bezüglich der Auswahl der Tools und der Vorgehensweise?
Die Abstimmung und das Zusammenspiel zwischen Sensorik, Interface zur Verarbeitungseinheit und die Verbindung nach draußen müssen einwandfrei funktionieren. Gerade die MCU/MPU-Wahl mit Befehlssätzen, DMAs, NPUs und Co. spielt hierbei eine entscheidende Rolle. Wir nutzen für den Transformationsprozess aus der Data-Science (oft Python) hin zu C(++) beziehungsweise Assembler eigene Transformationsalgorithmen und Frameworks. Es gibt aber auch Open Source beziehungsweise spielend leicht bedienbare Tools – mit entsprechenden Abstufungen bei Performance oder Flexibilität.
Und was müssen sie beachten, wenn sie Embedded-KI-Sensoren in die Serie überführen möchten?
Der Nachweis über die Robustheit gegenüber Varianz mit entsprechenden Trainings- und Testdaten ist für die Serialisierung wichtig. Spätestens in dieser Phase müssen zudem die einzelnen Features und Eigenschaften endgültig definiert und umgesetzt werden – Schlafmodi, Verschmutzungserkennung und so weiter. Letztendlich geht es nun auch um die geforderten Richtlinien und entsprechende Zertifizierungs-Iterationen. Nicht zu vergessen ist das Preisthema bei der Komponente samt dem Blick über die Lebensdauer: Soll das System ausgelernt sein, noch nachlernen können oder gar Update-fähig sein?
Können Sie ein paar konkrete Anwendungsszenarien von Embedded-KI-Sensoren nennen?
Mir kommen sehr spontan zwei besondere in den Sinn: Boden- oder Betonqualitätserkennung bei Baumaschinen bilden ein Themenfeld, das für eine stärker automatisierte Steuerung respektive Prozesssicherheit wichtig ist. Die Umsetzung kann beispielsweise mit Embedded-KI-Sensoren an Rohren, die im Ultraschall-Bereich zuhören, erfolgen.
In den Bereichen Einzelhandel und Retail sind Diebstahlsysteme, gerade bei Self-Check-out-Kassen, hoch im Kurs, da dort auch Echtzeitfähigkeit und personenbezogene Daten eine Rolle spielen. Das sind dann Lidar- und Kamera-basierte KI-Systeme, die beispielsweise verschiedene Getränkeflaschen unterscheiden können.
Sehen Sie dann auch den Einsatz im Automotive- oder Medical-Bereich?
Ja, natürlich. Im Automotive-Bereich ist das Thema Predictive Maintenance und Anomaliedetektion auf Basis von Vibration und Ultraschall wichtig. Das ist aktuell besonders beliebt bei Elektroantrieben, die naturgemäß höhere Drehmomente und entsprechenden Verschleiß haben. Oder das Thema Insassenerkennung im Fahrzeug mit Nahinfrarotkamera, die durch Embedded-KI Stress, Müdigkeit und künftig auch Krankheit beim Fahrer erkennt. Ziel ist es stets, bei den modernen E/E-Architekturen der Fahrzeuge die großen Hauptrechner für die Fahrassistenzsysteme von den restlichen Aufgaben zu entlasten. Die restlichen Systeme sollten für sich intelligent sein und sich nur bei Auffälligkeiten melden.
In der Medizintechnik machen Sprach- und Gestensteuerungen, gerade für die unkritischeren Bedienschritte, allein schon wegen Hygiene und Assistenz-Fachkräftemangel Sinn. Noch besser ist es, wenn die Geräte zukünftig gar Bedienschritte und Nutzerverhalten selbstständig erkennen und automatisiert darauf reagieren. Egal, ob sich je nach Operationsschritt die Beleuchtung anpasst oder je nach Handstück-Bewegung der Geräte-Modus des Chirurgie-Geräts.
Glauben Sie, dass Embedded-KI auch den Sprung aus der Industrie hin zu privaten Anwendungen wie Smart Homes schafft?
Das ist ein wichtiges Akzeptanz-Feld. Niemand will zuhause überwacht werden, im Sinne der Übertragung von Personendaten ins Netz. Da kommt Embedded-KI wie gerufen. Angefangen bei der intelligenten Dusche mit Sturzerkennung durch einen Infrarotsensor, den wir entwickelt haben, über diverse Personen- und Anwesenheitserkennungen für Zugangssteuerungen, Klimatisierung und Alarmsysteme bis hin zu Perception-Optimierung von Staubsauger- und Rasenmährobotern. Ein Speisen-riechender Herd oder das Ultraschall-Hören von Wasser-Leckagen einzelner Verbraucher nur durch einen Embedded-KI-Sensor an der Hauptleitung im Keller sind gerade sehr aktuelle Themen in dieser Branche.
Kann Embedded-KI auch bei Emerging Technologies helfen?
Ja, in diesen Bereichen sehen wir großes Potenzial für die Technologie. Ein Beispiel wäre die Wasserstoff-Brennstoffzelle, bei der man mithilfe von eingebetteter KI-Sensorik beim Start je nach Umgebung Zustände erkennen und gegensteuern könnte, zum Beispiel bei besonderen Temperaturbereichen oder gefrorenen Teilen – das Erkennen und Messen wäre akustisch oder durch hochabgetastete Druckkurven möglich.
Ein weiteres Beispiel wäre auch das Quantencomputing – ein langfristig zu betrachtendes Thema, bei dem es ebenfalls Skalierungs-Herausforderungen im Bereich der Regelung gibt, wobei sehr hohe Datenmengen in kurzer Zeit entstehen und zwecks Regelung und Reaktion verarbeitet werden müssen.
Deutlich früher auf den Markt kommt aber voraussichtlich das Quantum-Sensing. Egal, ob man dann Augen-Tracking nur durch Magnetfelder der Muskulatur erkennt oder Wasserrohre in der Wand blind detektiert – auch die Ausgaben solcher Systeme könnten durch lokale KI robuster ausgewertet werden. In diesem Bereich haben wir in Deutschland übrigens einiges richtig gemacht in der Grundlagenforschung und bei den Rahmenbedingungen – da haben wir echte Zukunftschancen.