Schwerpunkte

Edge Computing

Die richtigen Fragen stellen

18. Mai 2021, 08:30 Uhr   |  von Toby McClean

Die richtigen Fragen stellen
© ADLink Technology

Im Zuge des IoT sind immer mehr Daten zu verarbeiten. Cloud Computing kann das oft nicht mehr leisten. Dann kann Edge Computing die bessere Wahl sein. Aber was ist bei der Wahl des richtigen Geräts zu beachten?

Mittlerweile hat sich Edge Computing zu einem der meistdiskutierten Trends in der Branche entwickelt. Bei dem ganzen Trubel könnte man denken, dass es Zeit ist, in »intelligente« Edge-Geräte für ein IoT-Netzwerk zu investieren. Allerdings sollten Entwickler vor dem Einstieg zunächst klären, was Edge Computing eigentlich ist, wie es funktioniert und ob die Zielanwendung überhaupt von Edge-Technik profitieren kann. Edge Computing kann IoT-Netzwerken ein hohes Maß an Flexibilität, Geschwindigkeit und »Intelligenz« verleihen.

Allerdings muss man verstehen, dass Edge-KI-Geräte kein Allheilmittel für jede Herausforderung sind, denen sich Netzwerkanwendungen gegenübersehen.

Warum Edge Computing?

Edge Computing verhilft dem Internet of Things (IoT) zu neuen Möglichkeiten – und zwar dort, wo Rechner Rohdaten in Echtzeit in Werte umwandeln. Es hilft angeschlossenen Knoten, Endpunkten und »intelligenten« Geräten, Daten im gesamten Netzwerk schneller zu verarbeiten. Edge Computing ist fast das genaue Gegenteil von Cloud Computing. Beim Cloud Computing fließen Daten von verteilten Netzwerken ein, um anschließend in zentralen Rechenzentren verarbeitet zu werden. Hierbei werden die Ergebnisse oft zurück an das ursprünglich verteilte Netzwerk übermittelt, wo es einen Vorgang auslöst oder eine Änderung bewirkt. Ein Übertragen großer Datenmengen über große Strecken ist jedoch mit Kosten verbunden. Die Kosten können finanzieller Natur sein, jedoch ebenso andere Größen wie Energie oder Zeit binden.

Hier kommt Edge Computing ins Spiel. Müssen Anwender auf Energie, Bandbreite und Latenzzeit achten, kann Edge Computing die Antwort sein. Anders als beim zentralen Cloud Computing, bei dem Daten hunderte Kilometer zurücklegen können, ermöglicht Edge Computing ein Verarbeiten der Daten am selben Standort, an dem Rechner die Daten erfassen, erstellen oder speichern. Hiermit ist die Verarbeitungslatenz nahezu vernachlässigbar klein. Ebenso reduziert sich der Bedarf an Strom und Bandbreite in der Regel stark.

Eine der wichtigsten Prämissen für Edge Computing ist, wie Halbleiterhersteller die Verarbeitungskapazität ohne großen Anstieg der Leistungsaufnahme erhöhen. Demnach müssen die ausgewählten Edge-Prozessoren, mehr aus den erfassten Daten herausholen, ohne eine höhere Leistung zu benötigen. Hiermit können mehr Daten am Edge verbleiben. Ein Schritt, der nicht bloß die Gesamtleistung des Systems senkt, sondern ebenso die Reaktionszeiten erhöht und den Datenschutz verbessert.

»DLAP-3100-L45«
© ADLink Technology

Edge AI Deep Learning Acceleration Platform »DLAP-3100-L45« von ADLink Technology

Einige der Technologien, die hiervon profitieren, sind künstliche Intelligenz (KI) und maschinelles Lernen (ML) – beide sind allerdings von Kosten für das Erfassen der Daten und ausreichendem Datenschutz abhängig. Anwender können sowohl Kosten als auch Datenschutz mithilfe von Edge-Processing optimieren. Was Trends wie KI und ML betrifft, so erfordern beide Technologien sehr große Ressourcen. Weit mehr als normalerweise an einem End- oder einem smarten Gerät verfügbar sind. Dank des Fortschritts sowohl auf Hardware- als auch auf Softwareebene ist es möglich, KI und ML in kleine und effiziente Edge-Geräte einzubetten.

Die richtige Plattform für Edge-KI-Anwendungen

Die Auswahl einer Plattform, die in der Lage ist, Edge-Processing durchzuführen – zum Beispiel das Ausführen von KI-Algorithmen oder ML-Inferenzmaschinen – erfordert eine sorgfältige Einschätzung. Einfache Sensoren und Aktoren, einschließlich solcher, die Teil des IoT sind, sind mit relativ schlichten integrierten Geräten realisierbar. Ein Erhöhen der am Edge ausgeführten Verarbeitungsmenge erfordert eine leistungsfähige Plattform, vermutlich unter Verwenden paralleler Architekturen. Oft bedeutet das eine Graphics Processing Unit (GPU). Ist die Plattform jedoch zu leistungsfähig, belastet sie die begrenzten Ressourcen, die am Edge vorhanden sind.

Außerdem sollten sich Anwender daran erinnern, dass ein Edge-Gerät im Grunde eine Schnittstelle zur realen Welt ist. Deshalb muss es womöglich einige Schnittstellen unterstützen, wie Ethernet, GPIO, CAN, seriell und/oder USB. Das schließt ebenso Peripheriegeräte ein, wie Kameras, Tastaturen oder Displays. Edge-Computing kann zudem eine ganz andere Umgebung beschreiben als ein komfortables, klimatisiertes Rechenzentrum. Ein Edge-Gerät könnte bei extremen Temperaturen, Feuchtigkeit, Vibrationen oder sogar in Höhenlagen zum Einsatz kommen. Das hat Auswirkungen auf das gewählte Design sowie auf die Art der Verpackung oder das Gehäuse.

Self-Checkout
© ADLink Technology

Edge KI kann zum Beispiel im Bereich Self-Checkout in der Gastronomie zum Einsatz kommen.

Ein weiterer wichtiger zu berücksichtigender Aspekt sind die regulatorischen Anforderungen. Jedes Gerät, das Hochfrequenz (HF) zur Kommunikation verwendet, unterliegt Vorschriften und benötigt möglicherweise eine Lizenz für den Betrieb. Einige Plattformen erfüllen die Anforderungen und sind damit direkt gebrauchsfertig. Bei anderen müssen Entwickler mehr Aufwand betreiben. Befindet sich das Gerät einmal in Betrieb, ist ein nachträgliches Hardware-Upgrade umständlich. Also müssen Entwickler Rechenleistung, Arbeitsspeicher und Speicher während des Entwicklungszyklus sorgfältig bestimmen, um Spielraum für künftige Leistungssteigerungen zu schaffen. Das beinhaltet ebenfalls Software-Upgrades. Im Gegensatz zur Hardware ist es möglich, Software-Updates zu installieren, während sich ein Gerät in Betrieb befindet. Over-the-Air-Updates (OTA) sind inzwischen sehr verbreitet. Es ist möglich, jedes Edge-Gerät so zu konzipieren, dass es OTA-Updates unterstützt.

Das Auswählen der richtigen Lösung erfordert ein sorgfältiges Bewerten all dieser Punkte, genauso wie ein genaues Betrachten der anwendungsspezifischen Anforderungen. Muss das Gerät Video- oder Audiodaten verarbeiten können? Misst es lediglich die Temperatur oder überwacht es ebenfalls andere Umweltaspekte? Muss es dauerhaft eingeschaltet sein oder befindet es sich über größere Zeiträume im Stand-by-Modus? Wird es über externe Einflüsse aktiviert? Viele dieser Fragen gelten für alle Technologien, die am Edge zum Einsatz kommen. Je höher der Grad der Verarbeitung und je höher die Erwartungen an den Output allerdings sind, desto mehr ist die Liste der Anforderungen zu erweitern.

Vorteile von Edge Computing

Technisch ist es bereits möglich, KI und ML bei Edge-Geräten oder Smart Nodes einzusetzen, was große Chancen eröffnet. Das heißt einerseits, dass die Processing Engine näher an der Datenquelle sitzt, andererseits kann sie die gesammelten Daten vielseitiger verarbeiten.

Das bietet einige Vorteile: Erstens kann es die Produktivität, also die Effizienz, mit der Daten nutzbar sind, erhöhen, zweitens vereinfacht es die Netzwerkarchitektur, da weniger Daten bewegt werden und drittens macht es die Nähe zum Rechenzentrum weniger kritisch. Der letzte Punkt mag nicht allzu wichtig erscheinen, wenn sich das Rechenzentrum in einer Stadt beziehungsweise in der Nähe des Geschehens befindet. Es macht jedoch einen großen Unterschied, wenn sich der Edge-Knoten an einem abgelegenen Ort befindet, beispielsweise auf einem Bauernhof oder in einer Wasseraufbereitungsanlage.

Kamera
© ADLink Technology

Eine Kamera von ADLink für Machine-Vision- Anwendungen.

Es ist nicht abzustreiten, dass sich Daten im Internet schnell bewegen. Viele Leute mögen überrascht sein zu hören, dass ihre Suchanfragen theoretisch zweimal um die Erde reisen, bevor sie die Ergebnisse auf ihrem Bildschirm sehen. Die verstrichene Gesamtzeit kann ein Bruchteil einer Sekunde ausmachen, was für uns praktisch ein Augenblick ist.

Für Maschinen und andere »intelligente« Geräte, die das IoT bilden, kann jeder Teil einer Sekunde allerdings wie eine Stunde sein. Diese Round-Trip-Latenz (Umlaufzeit) ist eine echte Herausforderung für Hersteller und Entwickler von Echtzeitsystemen. So ist die Zeit, die die Daten für den Weg zu und von einem Rechenzentrum benötigen, nicht unerheblich und erscheint sicherlich nicht wie ein Augenblick. Ein Schlüssel von Edge Computing ist das Reduzieren der Latenz. Das steht in Verbindung mit schnelleren Netzwerken, bei denen 5G ins Spiel kommt. Ein Ausbau schneller Netze ist jedoch nicht in der Lage, die zu erwartende kumulierte Netzwerklatenz zu kompensieren, wenn mehr Geräte online gehen.

Analysten sagen voraus, dass bis zum Jahr 2030 bis zu 50 Mrd. vernetzte Geräte online sein könnten. Beansprucht jedes der Geräte große Bandbreiten zu einem Rechenzentrum, wären die Netzwerke permanent überlastet. Warten viele der Geräte in einer Pipeline darauf, dass Daten von der vorherigen Stufe ankommen, wird die Gesamtverzögerung schnell sehr deutlich. Edge Computing ist tatsächlich die einzige praktische Möglichkeit, um überlastete Netzwerke zu entlasten.

Während es jedoch einen eindeutigen Bedarf für Edge Computing im Allgemeinen gibt, hängen die spezifischen Vorteile von Edge Computing immer noch sehr stark von der jeweiligen Anwendung ab. Hier sind die Gesetze von Edge Computing anzuwenden. Sie helfen den Ingenieuren bei der Entscheidung, ob Edge Computing die richtige Option für die jeweilige Anwendung ist.

Seite 1 von 2

1. Die richtigen Fragen stellen
2. Die vier Gesetze des Edge Computings

Auf Facebook teilen Auf Twitter teilen Auf Linkedin teilen Via Mail teilen

Das könnte Sie auch interessieren

Verwandte Artikel

ADLINK TECHNOLOGY