Insofern ein Edge-Computing-System als Brücke zwischen oder als Hybrid aus Embedded System und Cloud-Umgebung betrachtet werden kann, welcher Teil dominiert?
Das kommt darauf an, denn bei der Umstellung auf Edge Computing geht es um die richtige Dimensionierung von Arbeitslasten auf der Grundlage dessen, wo es am wirtschaftlichsten ist, sie einzusetzen, zu betreiben und zu unterstützen. Ein Edge-Computing-System kann in den meisten Situationen und insbesondere in einer Brownfield-Situation als Brücke oder sogar als Cloud-Compute-On-Ramp betrachtet werden. In einigen Fällen ist jedoch das Edge-Gerät selbst das eingebettete Gerät mit Cloud-Zugang – nehmen Sie zum Beispiel einen industriellen Cobot, der über 4G/5G mit der Cloud verbunden ist. Ein solches Gerät wäre in der Lage, Entscheidungen in Echtzeit in der Produktionsanlage zu treffen und zu liefern.
In einigen Fällen ist eine Edge-Lösung die richtige Größe, wenn sie 4K bei 30 Bildern pro Sekunde erfassen kann, um Objekte und deren Position auf einer Fertigungslinie zu identifizieren. Um einen Roboterarm anzusteuern, der Objekte in Echtzeit von einer Fertigungslinie aufnimmt, müssen Sie diese Arbeitslast auf dem lokalen Gerät ausführen. Semantische Daten über das aufzunehmende Objekt werden dann an das ERP-System in der Cloud übermittelt. Dieses ERP-System ist mit Hunderten von anderen Robotern verbunden, die genau die gleiche Arbeit verrichten, und das ergibt einen Makrostatus des gesamten Unternehmens. Die Arbeitslast der Erkennung ist auf das Edge abgestimmt. Das ERP-System hat die richtige Größe für eine lokale, öffentliche oder staatliche Cloud.
Der jeweilige Anwendungsfall oder die jeweilige Branche ist ein entscheidender Faktor, da jeder seine eigenen Beschränkungen in Bezug auf Kosten, Leistung und Gewicht hat. Wir wissen zum Beispiel, dass in einigen Fällen 4G oder 5G aus Kostengründen keine Option sein wird. Und letztlich, wenn es keine Anforderungen an Bandbreite, Kosten und/oder Latenz gibt, kann alles in die Cloud gelegt werden. In einigen Fällen müssen Sie die Cybersicherheit als primäre Anforderung berücksichtigen. In anderen Fällen wird die Vertraulichkeit der Daten entscheidend sein, und Sie werden eine private Cloud und damit Edge Computing benötigen, um diese Daten zu hosten.
Die Realität ist, dass wir nicht weniger Daten erzeugen, sondern mehr, und die einzige Möglichkeit, diese Daten zu verarbeiten, besteht darin, die horizontale Skala der Cloud zu nutzen, z.B. um KI/ML in die Lage zu versetzen, Entscheidungen zu treffen und Chancen zu erkennen, die vielleicht nicht sofort ersichtlich sind. Nicht alle Daten sind jedoch gute Daten, und hier kann Edge Computing einen erheblichen Mehrwert bieten, indem es die Daten, die in die Cloud gehen, vorab filtert und dann die Cloud-Einsichten und -Analysen orchestriert, wenn sie auf die lokale Ebene zurückkommen, ohne die Cloud mit der Verantwortung zu belasten, mit den lokalen Embedded-Systemen Schritt zu halten.
Welche Fähigkeiten werden in Zukunft von Entwicklern verlangt, die ein Edge-Computing-System oder ein Embedded-System für Edge Computing realisieren müssen?
Diese neue Welt der intelligenten Edge-Systeme erfordert ein neues Spektrum an Fähigkeiten, Denkweisen und Wissen. Zu wissen, woher die Daten in erster Linie kommen und ob Edge oder Cloud, wird die Art und Weise prägen, wie Teams organisiert werden sollten und welche Expertise am wichtigsten ist. Diese Fachkenntnisse müssen umfassen: ein tiefes Verständnis für die Eigenschaften von unternehmenskritischen intelligenten Systemen, einschließlich KI/ML, Echtzeit, Sicherheit und Zuverlässigkeit; funktionale Programmierung und andere robuste Programmiersprachen/Techniken; Anwendungsbereitstellung, Wartung und Sicherheit von der Cloud bis zum Edge; Linux- und Virtualisierungsexpertise; digitale Feedback-Schleifen für Geräte, digitale Zwillinge, Anwendungen und Infrastruktur-Know-how; Datenwissenschaft.
Anpassungsfähigkeit ist ebenfalls von zentraler Bedeutung, da nicht alle Anforderungen von Anfang an bekannt sein werden. Entwickler müssen daher mit Blick auf Mehrdeutigkeit so viele modulare Möglichkeiten wie möglich entwerfen, damit sie sich schnell anpassen können.
Worauf müssen Entwickler achten, wenn sie Edge-Computing-Systeme für industrielle Anwendungen entwerfen und einsetzen wollen, die langfristige Sicherheitsfunktionen erfordern?
Es gibt mehrere Überlegungen für Entwickler von Edge-Computing-Systemen für industrielle Anwendungen. Bei Sicherheitssystemen könnte ein Ausfall Menschenleben gefährden, daher ist es in erster Linie wichtig, die Anforderungen an die Sicherheitszertifizierung und/oder die einzuhaltenden Vorschriften zu kennen.
Basierend auf Untersuchungen, die wir kürzlich in Europa und den USA durchgeführt haben, haben wir erfahren, dass Industrieunternehmen nicht nur auf 5G umsteigen, sondern dass ihre Hauptsorge der Cybersicherheit gilt, die nun de facto zu den Einstiegskosten gehört und nicht mehr als „nice to have“ oder als nachträglicher Gedanke betrachtet werden kann. Darüber hinaus sind rechtzeitige, langfristige Sicherheits-Updates zu einem Hauptanliegen bei industriellen Anwendungen geworden. Daher ist die Zusammenarbeit mit einem Unternehmen, das über fundiertes Fachwissen und nachgewiesene Erfahrung sowohl im Bereich der Cyber-Sicherheit als auch der funktionalen Sicherheit verfügt, entscheidend.
Da industrielle Anwendungen und Systeme jahrzehntelang im Einsatz sein können, muss es auch einen Plan dafür geben, wie sie während der gesamten Lebensdauer des Produkts gebaut, eingesetzt und gewartet werden – vom Konzept bis zum Grab, also dem gesamten Produktlebenszyklus. Unternehmen müssen anfangen, darüber nachzudenken, wie sie „Stammeswissen“ und clevere Lösungen für komplexe Probleme erfassen können. Der gesamte Lebenszyklus muss nun dokumentiert werden, damit diese Systeme über diesen Lebenszyklus hinweg richtig gewartet werden können. Deshalb ist es wichtig, eine Plattform wie Wind River Studio zu haben, die den gesamten Produktlebenszyklus adressiert und sich auf Safety, Security und Zuverlässigkeit konzentriert.
Kevin Dallas
Mit mehr als 25 Jahren Erfahrung in der Förderung von digitaler Innovation und Wachstum bei Technologieunternehmen ist Kevin Dallas nun für alle Aspekte des Wind River-Geschäfts weltweit verantwortlich. Er kam von Microsoft zu Wind River, wo er zuletzt als Corporate Vice President für Cloud und AI Business Development tätig war. Bevor er 1996 zu Microsoft kam, war Dallas bei Nvidia und National Semiconductor – heute Texas Instruments – in den USA, Europa und im Nahen Osten in verschiedenen Positionen tätig, darunter Mikroprozessor-Design, Systemtechnik, Produktmanagement und End-to-End-Geschäftsführung. Er hat einen B.Sc.-Abschluss in Elektrotechnik und Elektronik von der Staffordshire University in England.