Im Interview mit Markt & Technik erklärt Rich Simoncic, COO von Microchip Technology, dass Edge-KI weniger an der Hardware als an mangelnder Software-Integration scheitert. Entscheidend seien klare Use Cases, automatisierte Tool-Chains und einfache APIs – nicht hohe TOPS.
|
embedded world Conference 2026 »Von Oktopussen lernen: Verteilte Intelligenz am Edge« |
|---|
|
So lautet der Titel der diesjährigen Keynote auf der embedded world Conference 2026 von Rich Simoncic, COO von Microchip. Der Oktopus ist seiner Überzeugung nach ein hervorragendes Beispiel dafür, wie leistungsfähig verteilte Intelligenz sein kann. Denn beim Oktopus sitzt ein Großteil der Neuronen in Armen und Haut, die eigenständig wahrnehmen und handeln können. Dieses Prinzip gilt auch für die Embedded- und Edge-Welt, in der Milliarden vernetzter Geräte effizient, sicher und energiearm arbeiten müssen. Simoncic skizziert in seinem Vortrag den Wandel von zentralen Recheneinheiten hin zu intelligenten, verteilten Systemen. Gleichzeitig adressiert er technische Herausforderungen wie Softwarekomplexität, KI-Integration, Entwicklungswerkzeuge, Standards und Kosten. Seine Kernaussage: Die Zukunft der KI liegt nicht in immer größeren „Gehirnen“, sondern in adaptiven, sicheren und verteilten Systemen – nach dem Vorbild der Natur. Der Vortrag findet am 10.3.2026 um 10:15 Uhr im Nürnberger Messezentrum, NCC Ost Convention Centre, statt. Der Zugang zu dieser Keynote ist für alle Messebesucher und Konferenzteilnehmer kostenfrei. |
Markt & Technik: KI am Edge ist in aller Munde. In welchen Märkten wird KI am Edge derzeit am häufigsten genutzt und worin bestehen die größten Vorteile dieses Ansatzes am Edge?
Rich Simoncic: Stimmt, jeder spricht über KI am Edge, aber ich würde sagen, hier geht es in vielen Fällen einfach mal um das Ausprobieren. Ich denke, bei KI am Edge geht es nicht um irgendein ausgefallenes Gerät, sondern um die Möglichkeiten, die damit verbunden sind. Denn bei KI am Edge wird ein Modell auf einem großen leistungsfähigen System trainiert, dann auf ein kleines Gerät übertragen und dieses Gerät ist dank KI in der Lage, am Edge Entscheidungen zu fällen.
Ein Beispiel: Eine von vielleicht 1000 Diffusionspumpen in einer Halbleiter-Fab. Genau diese Diffusionspumpen sind die Hauptursache dafür, dass Anlagen in einer Halbleiterfabrik ausfallen. Würden diese Pumpen in Hinblick auf Vibrationen, Hitze und Geräusche überwacht, könnte man erkennen, wann eine Pumpe anfängt Probleme zu bereiten und sie austauschen, bevor es tatsächlich zum Ausfall kommt. Und das ist noch ein sehr einfaches Beispiel dafür, wo KI am Edge wirklich Vorteile bringt.
Ein weiteres Beispiel: große Ventilatoren in der Industrie. Auch diese gehen oft kaputt. Und wenn es eine Möglichkeit gäbe, zu erkennen, wann sie kurz vor dem Ausfall stehen, könnte man sie im Rahmen der regelmäßigen Wartung austauschen, bevor sie die gesamte Fabrik lahmlegen.
Das sind vermutlich die größten Anwendungsbereiche, die wir aktuell sehen: vorausschauende Wartung von Motoren, um zu erkennen, wann sie kurz vor dem Ausfall stehen. Das ist vor allem auch interessant, wenn man daran denkt, wie viele Motoren weltweit in kritischen Anwendungen im Einsatz sind.
Der zweitgrößte Bereich für KI am Edge ist die Verlängerung der Batterielaufzeit. Wir haben vor kurzem mit einem Hersteller von tragbaren Werkzeugen zusammengearbeitet. Wir haben Daten aus seinen Handheld-Werkzeugen gesammelt – konkret ging es dabei um eine Akkubohrmaschine – und auf Basis dieser Daten ein Modell entwickelt. Dieses KI-Modell haben wir anschließend auf einen Mikrocontroller übertragen, der sowieso schon in der Bohrmaschine verbaut war. Das heißt: Es war keine zusätzliche Hardware notwendig. Wichtig ist vielmehr, die Möglichkeit, Daten zu sammeln, ein Modell zu trainieren und dieses Modell auf das Gerät zu übertragen, um dort Inferenzierungen durchzuführen.
Nachdem wir das gemacht haben, konnte der Hersteller die Batterielaufzeit dieser Geräte um 15 Prozent verlängern.
Dabei ist uns aber auch folgendes klar geworden: Mehr als die Hälfte der Anwendungen, die wir sehen, benötigen eigentlich nur relativ einfache Modelle. Und diese werden dann einfach auf den Baustein am Edge übertragen.
Daher kommt die Analogie zum Oktopus. Er hat Tentakel mit Saugnäpfen, die eine gewisse Form einfacher Intelligenz darstellen, und selbst entscheiden, was zu tun ist. Überträgt man diesen Ansatz auf technische Systeme, sagen wir einen Roboter, dann gibt es die zentrale GPU, aber eben auch Finger, Greifer etc., die in der Lage sein müssen, schnell zu entscheiden, ob sie loslassen, weil etwas heiß oder kalt ist, oder ob sie etwas zu fest greifen, oder ob sich etwas im Weg befindet. Und genau diese Art von Intelligenz ist am Edge notwendig.
Und was heißt das?
Dass KI oft falsch eingeschätzt wird. Das gilt auch für uns, als wir anfingen über KI am Edge nachzudenken, dachten wir, dass wir Beschleuniger, NPUs und all die komplexen Dinge brauchen. Herausgestellt hat sich aber, dass die meisten unserer Kunden einfach nur Hilfe benötigen.
Wobei?
Daten zu sammeln, Modelle zu erstellen, und diese Modelle dann in ihre Anwendung zu portieren. Und natürlich gibt es Platz für beides: einfache und komplexe Lösungen. Klar, jeder möchte diese »sexy« Geräte, aber eigentlich geht es nicht darum. Viele Entwickler brauchen schlicht Hilfe dabei, ein Modell zu erzeugen, das ihnen hilft, ein bestimmtes Problem zu lösen. Und genau darum geht es am Edge und genau darauf konzentriert sich Microchip.
Wie unterstützt Microchip die Entwickler? Helfen Sie ihnen, die Modelle zu trainieren und sie dann auf einen Baustein zu portieren?
Ja wir helfen ihnen, die Daten zu sammeln, beim Training und dann geben wir das Modell zurück, damit sie es auf ihren Baustein laden können.
Sie haben gesagt, dass Predictive Maintenance derzeit das größte Anwendungsgebiet für KI am Edge ist. Wird sich das Bild in den kommenden Jahren verändern?
Ja bestimmt. Schauen Sie sich den Energieverbrauch an, ich bin überzeugt, dieses Anwendungsgebiet wird KI nutzen, um Energie zu sparen, wie beim bereits erwähnten Beispiel mit dem Akku-Bohrer. Aber geht es um Energiesparen sind die Möglichkeiten für KI am Edge extrem vielfältig. Dazu können beispielsweise auch Thermostate für zuhause gehören, oder die Warmwasseraufbereitung. Mit KI wird das Nutzerverhalten erkannt und entsprechend gesteuert, wann wie stark geheizt wird, um so nur die Energie zu verbrauchen, die wirklich notwendig ist.
Und noch einmal zurück zum Akku-Bohrer. Das ist ein sehr gutes Beispiel dafür, dass sich mithilfe von KI Energie einsparen lässt. Beim Akku-Bohrer konnte damit die Batterielaufzeit immerhin um 15 Prozent verlängert werden. Und es wirklich viele Anwendungen, bei denen 5, 10, 15 oder sogar 20 Prozent Energie eingespart werden können. Zusammengefasst würde ich sagen: Nachhaltigkeit und Energieverbrauch werden der nächste Bereich sein, der KI am Edge vorantreibt.
Bedarf an KI am Edge gibt es sicherlich genügend – aber wie sieht die Umsetzung aus, was sind Ihrer Meinung nach die größten Hürden für die Entwickler?
Ich würde sagen, das größte Problem für die Entwickler besteht darin, dass sie nicht wissen, wie sie KI am Edge umsetzen sollen. Es gibt einfach noch kein gutes API, kein richtiges Application-Frontend, auf das die Entwickler zugreifen können.
Die Idee ist ja: Man speist die Daten ein, macht das Inferenzieren in der Cloud, erstellt dort das Modell und überträgt dieses Modell anschließend auf den Baustein. Aber der durchschnittliche Embedded-Control-Ingenieur – also die Ingenieure, die wir in fast jedem Unternehmen treffen – hat dafür einfach nicht die Expertise.
Fehlt ihnen die Expertise im Umgang mit den Tools oder das KI-Know-how?
Die Tools sind einfach noch nicht so weit. Deshalb müssen die Ingenieure zu Experten gehen, die ihnen helfen, diese Modelle zu erstellen. Ein Team bei Microchip arbeitet daran, möglichst einfache Tools für die Embedded-Entwickler zu entwickeln.
Unser Ziel ist es, dass im Prinzip jeder diese Modelle erstellen kann – indem man das Ganze so weit vereinfacht, dass man nur noch eine einfache API braucht, um Daten zu laden und einen Cloud-Service zur Modellerstellung zu nutzen. Und danach das Modell wieder zurück auf das eigene Gerät zu portieren. Solange das nicht einfach ist, wird man keine breite Nutzung in der Industrie sehen. Im Moment ist das alles noch ziemlich kompliziert – und genau deshalb ist es noch nicht so verbreitet, wie es eigentlich sein könnte.
Also ist die zugrundeliegende Hardware nicht das eigentliche Problem? Viele Hardware-Hersteller weisen gerne auf die Anzahl der TOPS hin, aber darum geht es bei KI am Edge gar nicht?
Nein, um TOPS geht es nicht – auch wenn das viele nicht gerne hören. Klar, je mehr TOPS desto höher ist der ASP (Average Selling Price), aber für viele Anwendungen benötige ich noch nicht mal einen Beschleuniger.
Und ist ein Beschleuniger auf dem Chip, dann reichen in vielen Anwendungen Rechenleistungen von 50 GOPS, oder sogar nur 5 GOPS. Schon ein sehr einfacher, extrem kleiner Accelerator für verteilte Intelligenz kann heute vieles von dem leisten, was wir brauchen – eigentlich einen großen Teil davon.
Wenn ich dagegen einen 200-TOPS- oder gar 1000-TOPS-Accelerator auf einen Chip packe, dann reden wir über ein intelligentes Edge-Device für etwa 15 Dollar. Und niemand wird einen 15-Dollar-Controller in einen Wandthermostat einbauen – nur um ihn ein bisschen »smarter« zu machen.
Das dürfte zu teuer sein…
Genau, wenn die Aufgabe darin besteht, ein Gesicht zu erkennen, oder fünf bis zehn Schlüsselwörter, dann brauchen wir keinen 100-TOPS-Accelerator, dafür reichen 20 bis 50 GOPS. Wenn ein Lichtschalter per Sprache ein- und ausschaltet oder ein Fernseher umschaltet, dann soll das am Edge passieren, keiner möchte, dass diese Entscheidung in der Cloud getroffen wird.
Vielleicht wäre es an dieser Stelle gut, wenn Sie KI am Edge einmal genau definieren?
Für mich beginnt KI am Edge dort, wo ein analoges Signal wahrgenommen oder gemessen werden muss, sei es Temperatur, Geräusche, Vibrationen – irgendetwas aus der Umwelt. Das ist der Startpunkt. Auf Basis dieses Signals muss dann eine Entscheidung getroffen werden.
Danach kann man die Daten vielleicht an einen Hub weitergeben, der komplexere Entscheidungen trifft. Und dieser Hub kann wiederum mit der Cloud verbunden sein, wo deutlich mehr Rechenleistung zur Verfügung steht.
Das heißt, ich sehe im Grunde drei Ebenen: die Cloud mit großen GPUs, dann einen Hub mit NPUs – vielleicht 200 oder 1000 TOPS – und ganz außen am Edge ein sehr kleines System, das einfach nur misst und reagiert.
Viele Anbieter betonen, dass sie Python, ONNX und andere gängige Tools/Frameworks unterstützen, inklusive Model-Zoos, das wirkt von der Software-Seite eigentlich schon ziemlich ausgereift. Sie bemängeln, dass ein einfaches API fehlt. Was ist für den Entwickler also wirklich entscheidend?
Python ist wichtig, weil die meisten KI-Entwickler heute mit Hochsprachen arbeiten. Das eigentliche Problem ist aber, dass es viele einzelne Tools gibt – für Training, Edge-KI und Deployment –, die nicht gut zusammenspielen.
Und auch Model-Zoos helfen zwar ein bisschen, sie lösen aber nicht das Kernproblem: Jede Anwendung und jedes Datenset ist anders. Selbst wenn es ein passendes Modell gibt, muss es mit eigenen Daten neu angepasst werden.
Das klingt nach viel Aufwand.
Genau. Es fehlt heute eine automatisierte Umgebung, die zeigt, wie Daten gesammelt, ins Modell eingebracht und angepasst werden. Deshalb sieht man Edge-KI noch nicht flächendeckend.
Und daran arbeitet Microchip?
Ja. Unser Ziel ist eine Software-Plattform, die diesen Prozess stark vereinfacht und automatisiert. Wir hoffen, innerhalb des nächsten Jahres erste Lösungen bereitzustellen – bewusst mit Fokus auf Software, nicht nur auf Hardware.
Das ist eher ungewöhnlich für ein Hardware-Unternehmen, oder?
Gute Hardware nützt nichts ohne gute Software. Deshalb investieren wir stark in Software und integrieren Lösungen aus Partnerschaften und Akquisitionen, um Kunden schneller in den Markt zu bringen.
Letzte Frage: Wird Lernen direkt am Edge künftig möglich sein?
Grundsätzlich ja. Dafür braucht man aber mehr Rechenleistung. Wenn Modelle sich am Edge ständig weiter anpassen sollen, wird die TOPS-Diskussion wieder relevant. Wann genau das kommt, ist schwer zu sagen – aber die Technologie entwickelt sich schneller denn je.