Für die reaktionsschnellere Datenverarbeitung werden leistungsfähige Edge-Computing-Systeme benötigt. Die Prozessor-Boards werden aber auch immer kleiner und kostengünstiger.
Doch Edge Computing bringt laut Kevin Dallas, President & Chief Executive Officer von Wind River, seine eigenen Herausforderungen mit sich.
Markt&Technik: Vor welchen Herausforderungen stehen die Entwickler von intelligenten Edge-Computing-Systemen?
Kevin Dallas: Das nächste Gebiet der digitalen Transformation liegt im intelligenten Edge, am Netzwerkrand, da bis 2022 mehr als 50 Prozent aller rechnergestützten Datenverarbeitung und KI dort stattfinden werden und bis 2025 700 Milliarden US-Dollar für neue, Edge-basierte KI-Systeme ausgegeben werden. Dies kann eine schnellere und reaktionsschnellere Datenverarbeitung ermöglichen, und da Computer immer kleiner und kostengünstiger werden, wird diese Art von intelligenten Edge-Systemen allgegenwärtig werden. Allerdings bringt Edge Computing eine Reihe von Herausforderungen aus der alten und neuen Welt mit sich. Von unseren Kunden, die intelligente Edge-Computing-Systeme in unternehmenskritischen Branchen entwickeln, hören wir von den folgenden Herausforderungen:
Bei Wind River adressieren wir diese Herausforderungen mit unserem neuen Studio-Angebot, der branchenweit ersten und einzigen Cloud-nativen Plattform für die Entwicklung, den Einsatz, den Betrieb und die Wartung von unternehmenskritischen intelligenten Systemen am Edge, bei denen Sicherheit und Zuverlässigkeit gefragt sind.
Warum kann man der Verlagerung von Intelligenz an den Netzwerkrand nicht mit der Verlagerung von Cloud Servern ans Edge begegnen?
Bei der Verlagerung von Intelligenz ans Edge geht es darum, das Edge zu befähigen, Rechenleistung, Datenverarbeitung und KI/ML-Funktionen auszuführen. Dies kann nur durch den Einsatz einer Cloud-nativen Plattform vor Ort erreicht werden.
Technisch gesehen könnte die Verlagerung von Intelligenz ans Edge durch die Verlagerung von Cloud-Servern dorthin erreicht werden – das ist der Sinn der Verwendung von Containern auf einzelnen Geräten und Kubernetes zur Verwaltung von Edge Stamps. Allerdings ist die Größe dieser Server Images manchmal abschreckend und es ist möglicherweise nicht wirtschaftlich, sie auf einem Edge-Gerät auszuführen; außerdem können Anwendungen, die auf Cloud Servern laufen, Abhängigkeiten von Cloud-Diensten haben.
Edge-Geräte unterscheiden sich in Größe, Anforderungen an die Rechenleistung, Anwendungsvielfalt, Umgebung, Entwicklungskosten und vor allem Betriebskosten. Die leistungsstarken Embedded-Prozessoren sind aufgrund ihrer Multi-Core-Architektur, hardwaregestützter Virtualisierung und anwendungsspezifischer Recheneinheiten nach wie vor sehr gut in der Lage, verschiedene Arbeitslasten zu bewältigen. Einige der eingesetzten Edge-Geräte werden jahrzehntelang in Betrieb bleiben, was einen anderen Systemlebenszyklus erfordert, sodass rechenzentrumsähnliche Hardware genutzt wird.
Wichtige Fragen hierbei sind: Wie ermöglichen wir verteilte Intelligenz von der Cloud bis zum Edge, damit wir die richtige Arbeitslast auf der richtigen, kostengünstigsten Plattform ausführen? Wie setzen wir moderne Prozessoren und GPUs mit Software ein? Wie setzen wir die zustandslose, Microservices-orientierte Architektur/Applikation am Edge um? Wie bieten wir Entwicklern eine einheitliche Umgebung für Entwicklung und Bereitstellung, um Cloud-native Anwendungen zu erstellen, sowie für diejenigen, die spezielle Anwendungen entwickeln?
Wind River adressiert diese spezifischen Herausforderungen mit Wind River Studio, unterstützt durch vier Jahrzehnte Erfahrung, um sicherzustellen, dass diese eingeschränkten Geräte und ihre Entwickler trotzdem in der Lage sein werden, die Vorteile der containerisierten Anwendungsentwicklung und -bereitstellung am Netzwerkrand zu realisieren.