Weil die Rechenkapazität von Edge-Geräten stetig steigt, können sie immer größere Datenmengen mithilfe von KI verarbeiten und analysieren, ohne dafür die Cloud einzubeziehen – und das in Echtzeit. Doch welche Möglichkeiten eröffnet Edge-KI, und welche Analyseaufgaben verbleiben in der Cloud?
Das strategische Potenzial des Internet of Things (IoT) fördert die Verbreitung von Edge-Geräten, die Daten erfassen, verarbeiten und für Vorhersagen nutzen, ohne durchgängig mit dem Internet verbunden zu sein. In der Vergangenheit haben Unternehmen an der Edge erfasste Daten zur Verarbeitung durch Machine-Learning-Modelle in die Cloud übertragen, weil den Geräten die zur Ausführung erforderliche Rechenkapazität fehlte. Doch durch die Entwicklung von leistungsstärkeren Prozessoren und Modellkomprimierungs-Software hat die Abhängigkeit von Verarbeitungsressourcen in der Cloud abgenommen. Stattdessen bieten Edge-Geräte heutzutage die Leistung, aufwändige KI-Berechnungen lokal auszuführen, was früher in der Cloud erfolgte. Weil erwartet wird, dass Connected IoT-Devices bis 2030 ein Volumen von 29 Mrd. erreichen werden, wächst auch der Bedarf an Edge-KI exponentiell; sie soll laut Prognosen bis 2027 in 65 Prozent der Edge-Geräte integriert sein.
Laut Prognosen wächst der Edge-KI-Markt von 15,6 Mrd. US-Dollar im Jahr 2022 auf 107,4 Mrd. US-Dollar im Jahr 2029. Zwar ist Edge-KI kein neues Konzept, doch wurde ihre Implementierung durch die neuesten technischen Fortschritte einfacher und wirtschaftlicher. Die vier wichtigsten Neuerungen, die Edge-KI heutzutage vorantreiben, sind:
• Mikrocontroller und digitale Signalprozessoren (DSPs): Vektorprozessoren sind leistungsstärker geworden und werden von Chipherstellern je nach Rechenanforderungen der KI individuell konfiguriert. Diese Prozessortypen dominieren derzeit bei der Edge-KI-Hardware.
• Grafikprozessoren (GPUs): Wurden ursprünglich für grafikintensive Anwendungen wie Computerspiele und Videobearbeitung eingesetzt und werden jetzt verwendet, um Training und Vorhersage von KI-Modellen auszuführen.
• ASICs als KI-Beschleuniger: Zwar ist die Leistung von Grafikprozessoren bei KI-Aufgaben besser als die von CPUs. Individuell für KI-Workloads maßgeschneiderte, anwendungsspezifische integrierte Schaltkreise (ASICs) bieten aber noch mehr Schnelligkeit und Effizienz. Neuronale Prozessoren (NPUs), eine Art ASIC, sind speziell auf die Verarbeitung von KI-Modellen ausgerichtet, wodurch sie sich dafür noch besser eignen als CPUs.
• Modellkomprimierungstechniken: Weil Edge-Geräte meist nur begrenzt über Arbeitsspeicher und Rechenleistung verfügen, müssen Modelle komprimiert werden, ohne Genauigkeit und Leistung einzubüßen.
Zu den heutzutage am weitesten verbreiteten KI-Komprimierungstechniken zählen:
• Pruning: Entfernt unnötige oder weniger entscheidende Parameter, um Effizienz, Geschwindigkeit und benötigten Arbeitsspeicher des KI-Modells zu verbessern, ohne dabei an Genauigkeit zu verlieren.
• Quantisierung: Verringert die Präzision numerischer Werte in einem Modell, um den Arbeitsspeicher zu entlasten sowie Vorhersagegeschwindigkeit und Energieeffizienz des Modells zu verbessern.
• Wissensdestillation: Die Übertragung des Wissens eines komplexen Modells auf ein kompakteres, das Verhalten und Leistung des Ausgangsmodells nachahmen kann.
• Niedrigrang-Faktorisierung: Komprimierung hochdimensionaler Daten durch die Faktorisierung in niedrigdimensionale Darstellungen, um komplexe neuronale Netzwerke unter Beibehaltung charakteristischer Merkmale zu vereinfachen.
Edge-KI wird die Datenverarbeitung in der Cloud nicht überflüssig machen, doch die zunehmende Notwendigkeit, mit immer größeren Datenmengen umzugehen, verdeutlicht eines: Die wegweisenden Vorteile der Edge-KI dürfen heutzutage nicht übersehen werden. Die größten Vorteile der Edge-KI liegen in der Verarbeitung und Entscheidungsfindung in Echtzeit, was die Latenz und den Kostenaufwand für Strom und Cloudverarbeitung verringert. Vorhersagen anhand von Daten lokal zu treffen, bedeutet, dass weniger Rohdaten zur Verarbeitung in eine öffentliche, private oder hybride Cloud übermittelt werden. Cloud-Services sind in bestimmten Anwendungen unabdingbar und lassen sich weiter verbessern, wenn Vorhersagen anhand von Daten in Edge-Geräten getroffen werden.
Ist keine durchgängige Internetverbindung nötig, lassen sich Edge-KI-Modelle in vielen Branchen effizienter implementieren. Es gibt über 400 Anwendungsfälle für Edge-Computing in 19 Branchen und sechs Technologiedomänen. In Edge-Geräte integrierte KI-Modelle können bei manchen Anwendungen, etwa in Automobilen oder der Medizin, lebensrettende Auswirkungen haben.
Ein Fahrzeug ist ein Beispiel für ein Edge-Gerät, das Daten lokal erfasst und verarbeitet, so dass weniger Daten in die Cloud übertragen werden müssen. Weil das elektronische Steuergerät eines Fahrzeugs (ECU) in sich abgeschlossen ist, muss die Datenverarbeitung lokal durchgeführt werden, und sicherheitskritische Entscheidungen müssen in Echtzeit erfolgen. Machine-Learning-Modelle in einem Edge-Gerät, etwa einem elektronischen Steuergerät in einem Pkw, sorgen für die Sicherheit der Insassen: Mithilfe von Echtzeitdaten passen sie sich an die Straßenverhältnisse an und können Zusammenstöße vermeiden.
Ein Kraftfahrzeughersteller trainierte ein Machine-Learning-Modell dahingehend, dass es ein Übersteuern erkannte, wenn die Hinterräder des Fahrzeugs in einer Kurve die Bodenhaftung verlieren. Der Hersteller erfasste Tausende von Datenpunkten zur Beschleunigung, Lenkung und Giergeschwindigkeit (Winkelgeschwindigkeit) des Fahrzeugs. Durch das Laden der Daten in Matlab konnte das Ingenieur-Team ein Machine-Learning-Modell so trainieren, dass es mithilfe der Statistics and Machine Learning Toolbox das Übersteuern erfasste. Das Machine-Learning-Modell wurde dann mit Matlab Coder im elektronischen Steuergerät implementiert und integriert.
Ein Vorteil der Edge-KI in Medizinprodukten ist ihre Fähigkeit, schneller Entscheidungen zu treffen. Datenanalyse und Anomalien-Erkennung in Echtzeit ermöglichen rasches Eingreifen und verringern somit Risiken durch lebensbedrohliche und langfristige gesundheitliche Einschränkungen. Außerdem können medizinische Edge-Geräte mit Anwendungen in der Cloud kommunizieren, um Daten zu protokollieren, was nicht zeitkritisch ist. So ergänzt die Datenverarbeitung in der Cloud Vorhersagen anhand der Daten an der Edge, statt sie zu eliminieren, wodurch ein noch leistungsstärkeres Netz aus Geräten entsteht.
Eine Forschungsgruppe eines Technologieinstituts beispielsweise hat für künstliche Bauchspeicheldrüsen prädiktive Algorithmen entwickelt, die eine drohende Über- oder Unterzuckerung erkannten. Die Gruppe erstellte virtuelle Patienten und simulierte physiologische Signale mit Matlab, etwa den Herzschlag und den Energieverbrauch. Der fertige Algorithmus wurde in einem Mobilgerät bereitgestellt, das mit einer Insulinpumpe, einem Blutzuckermessgerät und einem Wearable-Armband kommuniziert, um die Blutzuckerkonzentration wirksam zu steuern. Letztlich erstellte die Forschungsgruppe ein Netz aus Edge-Geräten, die abgestimmt als integriertes Gesundheitsüberwachungssystem arbeiten.
Täglich fallen mehr Daten an. Durch die Implementierung von Edge-KI lässt sich die operative und wirtschaftliche Effizienz erhalten und die Abhängigkeit von der Datenverarbeitung in der Cloud verringern. Mit der Zunahme cloudbasierter Datenverarbeitung und der Weiterentwicklung KI-fähiger Technologien wird die Integration von KI in Edge-Geräte schnell zur Notwendigkeit, damit Unternehmen sich mit ihren Produkten vom Wettbewerb abheben können. Am wichtigsten ist jedoch, Edge-KI als zusätzliche Möglichkeit neben cloudbasierter Datenverarbeitung und nicht als Ersatz oder Kompletterneuerung aktueller Systeme auf KI-Basis zu sehen. Wird KI an der Edge implementiert und die Cloud bei Anwendungen eingesetzt, wo es nicht auf Latenz ankommt, lässt sich das KI-Toolset unabhängig von der Branche erweitern.