Den nächsten Schritt gehen

Entwickeln einer Edge-Computing-Anwendung

12. Juli 2022, 12:00 Uhr | Von David Bongermino
Schubert Prime Cube
© Schubert System Elektronik

Im Zuge von vernetzten Geräten und Anlagen ist Edge Computing immer bedeutender. Jedoch ist es für Unternehmen oft schwer, Konzepte zu erstellen und Applikationen umzusetzen. Unternehmen wie Schubert System Elektronik helfen beim Finden und Integrieren der richtigen Komponenten zu einem System.

Im Zuge der weiteren Vernetzung von Produktionsanlagen ist Edge Computing immer häufiger ein Thema – unabhängig davon, ob man das System während eines Retrofit nachrüstet oder bereits beim Neuentwickeln von Produkten einplant. Somit kann die Umsetzung einer Edge-Computing-Anwendung sowohl vonseiten der Hersteller von Anlagen und Maschinen als auch durch interne beziehungsweise externe Dienstleister und Automatisierungsunternehmen erfolgen. Die Herausforderung für beide Zielgruppen ist es, den Trend des Edge Computing richtig zu bewerten und abhängig vom Anwendungsfall das Systemkonzept optimal auszulegen. Als Systemberater unterstützt Schubert System Elektronik beide Anwendergruppen mit individueller Beratung beim Auslegen des Edge-Computing-Systems. Im Beitrag werden Möglichkeiten und Ideen zum Gestalten eines solchen Geräts aufgezeigt, erste Schritte zur Auswahl beschrieben und Themen wie Systementwurf und Software-Architektur angerissen.

Daten verarbeiten als zentrales Element

Edge Computing dient in erster Linie dazu, dezentral mit Daten zu arbeiten. Im Fall von Maschinen und Anlagen besteht häufig der Wunsch, aus Datensammlung, -vorverarbeitung und -analyse einen Mehrwert zu generieren. Für die Art der Datenaufbereitung ist ein hohes Domänenwissen nötig, welches bei Herstellern von Anlagen und Maschinen aufgrund der hohen Systemkomplexität nicht immer vorliegt. Aus diesem Grund besteht der erste Schritt immer darin, im Maschinen- und Anlagenkonzept auf einer passenden Systemkomponente Daten zu sammeln. Aus den Daten baut sich anschließend das Domänenwissen auf beziehungsweise wird es genutzt, um die Daten zu interpretieren. Hierbei kann die ausgewählte Systemkomponente entweder eine neue, eigenständige oder eine bestehende Hardware sein.

Gründe für die Integration eines Edge-Computing-Systems können unter anderem sein:

  • schnelles, dezentrales Verarbeiten von Daten (inklusive Sammeln, Speichern, Analyse etc.)
  • gute Zugriffsmöglichkeit auf die Operational Technology (OT)
  • kein Zugriff der Anlage oder Maschine auf zentrale Server, auf denen die Daten weiterverarbeitet werden können
  • hohe Kosten beim Verlagern der Datenverarbeitung in die Cloud beziehungsweise fehlendes Vertrauen in die Cloud

Anbieter zum Thema

zu Matchmaker+
Vernetzungsszenario
Bild 1: Vernetzungsszenario einer Edge-Computing-Anwendung.
© Schubert System Elektronik

Edge Computing mit oder ohne Gateway-Funktion

Die Auswahl eines geeigneten Edge-Computing-Systems beginnt mit dem Anwendungsfall und dem Vernetzungskonzept. So definiert der Anwendungsfall, welche Aufgabe am Edge zu erfüllen ist. Außerdem legt der Anwender an der Stelle fest, wo und wie er die Daten weiter nutzen möchte. Aus den Festlegungen ergibt sich das Vernetzungskonzept mit der Unterscheidung, ob die Edge-Computing-Anwendung in einem separierten Netz, in einem internen Firmennetzwerk oder in einem Netzwerk mit Internetzugriff zu betreiben ist. Abhängig von dem Vernetzungsszenario lassen sich weitere Anforderungen an das Edge definieren (Bild 1).

Solange Unternehmen das Edge Computing in einem separierten Netz betreiben, sind die Anforderungen gering und sie können sie mit einem Box-Industrie-PC (IPC) umsetzen. Das ist zudem der Fall, wenn Unternehmen keine Daten nach außen geben oder von außen empfangen wollen, das Edge also hauptsächlich mit der OT verbunden ist. Ein solcher IPC ist in der Regel in vielen Maschinen und Anlagen als bestehende Systemkomponente bereits vorhanden. Er lässt sich entsprechend um eine Edge-Computing-Funktion erweitern.

Vernetzung des Edge-Computing-Systems
Bild 2: Vernetzung des Edge-Computing-Systems mit externen Komponenten.
© Schubert System Elektronik

Betreibt man den Edge Computer hingegen in einem internen Netz, liegt der Fokus der Funktion des Systems meist in der Kommunikation mit weiteren vernetzten Geräten oder angeschlossener Peripherie. Dann kommt meist ein separater IPC fürs Edge Computing zum Einsatz. Neben den Aufgaben zur Datenverarbeitung des Gesamtsystems werden in dieser Konstellation häufig Daten von anderen Systemen benötigt beziehungsweise für andere Systeme bereitgestellt. Ein Beispiel für eine solche Anwendung ist ein Dashboard in einer Produktionshalle, welches die verarbeiteten Daten direkt vom Edge Computer erhält.

Ein weiteres Vernetzungsszenario ist die Kommunikation des Edge Computers mit dem Internet und weiteren externen Komponenten (Bild 2). Hier ist ein besonderes Augenmerk auf den Schutz der Firmen-IT und der Anlagen-OT zu legen; das Edge-Computing-System benötigt daher eine Gateway-Funktion. So steigen die Anforderungen an das Sicherheitsniveau mit der Reichweite der Vernetzung. Weitere Anforderungen mit steigender Netzwerk-Reichweite ergeben sich aus zusätzlichen Funktionen im Bereich der Datenverarbeitung und -weitergabe. Typische Anwendungsbeispiele sind Anwendungen der künstlichen Intelligenz (KI) oder des Machine Learning (ML), die in Interaktion mit einem Cloud-Dienst stehen.

Separierungsschritte
Bild 3: Separierungsschritte eines Edge-Computing-Ansatzes.
© Schubert System Elektronik

Systementwurf für das Edge Computing

Beim Systementwurf muss im ersten Schritt das gewünschte Ziel definiert werden. Hierbei ist darauf zu achten, in welchem Kontext die Anwendung zum Einsatz kommt und wie das Systemumfeld beim Kunden aussieht. Wie bei der agilen Produktentwicklung eignet sich hier das inkrementelle Vorgehen. Bezogen auf das Separieren der Edge-Computing-Anwendung sind sinnvolle und nutzbare Zwischenschritte, wie in Bild 3 dargestellt, zu verwenden. Im Idealfall ergeben sich hieraus sogar verschiedene Ausbaustufen, die dem Kunden angeboten werden können.

Ein Komplettsystem muss nicht in jedem Fall auf einer eigenständigen Hardware basieren; sie lässt sich ebenso als eigenständige Software-Komponente in eine Bestands-Hardware integrieren. Im einfachsten Fall vernetzt man diese direkt oder indirekt mit allen Komponenten, die von Interesse sind. Anschließend kann der Entwickler auf dem Betriebssystem die nötigen Funktionen für das Edge Computing mithilfe verschiedener Applikationen und Services umsetzen.

Weiterentwickelt werden kann die Edge-Funktion durch Containerisierung. Vereinfacht gesagt bedeutet Containerisierung die Isolation der Anwendung mit allen Abhängigkeiten in einen eigenständigen »Container«, zum Beispiel mithilfe von Zusatzsoftware wie Docker. Funktional bietet dieser Schritt im ersten Moment keinen Mehrwert, strategisch ist er jedoch sinnvoll, um die Plattformunabhängigkeit der einzelnen Anwendungen zu erreichen. Bei richtiger Handhabung dient die Containerisierung zusätzlich dazu, die Sicherheit der Anwendung zu erhöhen.

Anlagen- und Maschinenkonzepte
Bild 4: Separierte Anlagen- und Maschinenkonzepte.
© Schubert System Elektronik

In der weiteren Umsetzung kann ein Separieren über eine eigenständige Hardware oder mit Virtualisierung über einen Hypervisor erfolgen. Ein Hypervisor abstrahiert entgegen einer Containerisierung die vorhandene Hardware für ein gesamtes Betriebssystem und nicht nur die Applikationsschnittstelle auf dem Betriebssystem. Der Hypervisor kann direkt auf der Hardware aufsetzen (Typ 1) oder auf einem Host-Betriebssystem (Typ 2, Bild 4). Das Vorgehen eignet sich dazu, die Anwendung gesamtheitlich virtuell zu kapseln und eine klar strukturierte Systemarchitektur zu erreichen. Weitere Vorteile sind ein höheres Sicherheitspotenzial sowie eine bessere Skalierbarkeit des Systems.

Auch bei diesem Entwicklungsschritt kann man abhängig vom Vernetzungsszenario (Bild 1) zwischen einem System mit oder ohne Gateway-Funktion unterscheiden. Im Falle gekapselter Systeme ist ein nachträgliches Erweitern um die Gateway-Funktion deutlich einfacher umsetzbar.

Mit einer virtuellen Edge-Computing-Anwendung ist es ebenfalls möglich, Anlagen- und Maschinenkonzepte ganzheitlich neu auszulegen (Bild 4). So lassen sich weitere Teile der Software, wie die zentrale Bedienanwendung, schrittweise virtualisieren. Die virtualisierten Systeme können daraufhin parallel – aber separiert – zur virtualisierten Anwendung auf einer gemeinsamen Hardware laufen.

David Bongermino
David Bongermino ist Teamleiter der Systemsoftware bei Schubert System Elektronik.
© Schubert System Elektronik

Maschinen- und Anlagenkonzept entscheidend

Der Einstieg ins Edge Computing muss nicht mit dem Zukauf von Hardware oder Software erfolgen, sondern kann auf bestehender Hardware stattfinden. Abhängig vom Ursprung der Daten und dem Ziel der Datenverarbeitung wird der Vernetzungsgrad definiert. Häufig steht zu Beginn das Sammeln von Daten im Vordergrund, womit die Vernetzung überwiegend im OT-Bereich stattfindet. Entsprechend können Entwickler in vielen Fällen mit einem System ohne Gateway-Funktion starten.

Sobald die Vernetzung es erfordert oder die Anwendung eine gewisse Reife erlangt hat, macht es Sinn, ein separates System aufzusetzen. Dieses Separieren kann wiederum entweder über eine zusätzliche Hardware oder eine Virtualisierung erfolgen. In beiden Fällen lassen sich bei richtiger Handhabung neben der funktionalen Kapselung auch einige weitere Vorteile bezüglich der Sicherheit und Skalierung erreichen. So ist die richtige Auswahl immer abhängig vom zukünftigen Maschinen- beziehungsweise Anlagenkonzept.


Das könnte Sie auch interessieren

Verwandte Artikel

Schubert System Elektronik GmbH