Mit welchen Tools lassen sich aus den Daten nutzbare Informationen gewinnen? Wo können sie angesiedelt sein?
Dr. Oliver Kleineberg: Die Algorithmen können sowohl in Edge-Geräten im Feld als auch in (virtuellen) Servern in der „On-premise cloud“ (also einer Server-Infrastruktur in der Fabrik) als auch in der „remote cloud“ (also der klassischen Internet-Cloud) lokalisiert sein. Die Komplexität variiert – je näher man der Feldebene kommt, desto schwieriger wird es, Rechenzeit ohne Einschränkungen zur Verfügung zu stellen.
Michael Volz: Die Auswahl von Standard-Tools für die Datenanalyse ist noch sehr überschaubar. In vielen Fällen werden nach wie vor individuelle Lösungen programmiert. Die Einstiegshürde ist damit meist eine Investition im sechsstelligen Bereich, was eine wirtschaftliche Umsetzung nur in ausgewählten Projekten möglich macht. Mit der zukünftigen Verfügbarkeit von Standard-Lösungen werden Geschäftsmodelle auf Datenbasis und die vorausschauende Wartung für eine größere Zahl von Applikationen interessant und die Hürden für die Einführung deutlich geringer.
Wolfgang Wanner: In diesem Zusammenhang müssen die Stichworte KI und Big-Data-Analytics fallen. Unser Partner Synop Systems bietet beispielsweise Tools an, mit denen sich ein Data-Mining durchführen lässt, das logische Zusammenhänge in großen Datensätzen erkennt und sie als Muster abspeichert. Prädestiniert für die Speicherung so großer Datenmengen ist, wie gesagt, die Cloud oder aber eine Datenbank im PC. Nach Erkennen und Speichern der Muster lassen sich diese nach einer gewissen Zeit wieder in das Gerät, etwa den Router, vor Ort zurückspielen. Das so generierte Know-how führt bei der lokalen Datengewinnung und -verarbeitung dazu, dass sich anbahnende Störungen und Ausfälle der Maschinen früh erkennen lassen – Stichwort vorausschauende Wartung.
Uwe Naaris: Die Geräte selbst müssen die Informationen zur Verfügung stellen. Aus den Daten lassen sich keine Informationen gewinnen, jedoch kann aus den Informationen Wissen generiert werden.
Hierzu können im ersten Schritt einfache Logiken, etwa Geschäftsregeln, zum Einsatz kommen. Sie lassen sich dann im weiteren Verlauf durch komplexere Algorithmen und Methoden des Machine-Learning ergänzen.
Klaus-Dieter Walter: Geeignete Tools gibt es sehr viele. Deren Anwendung ist allerdings ein komplexes Vorhaben, siehe etwa die plattformunabhängige Open-Source-KI-Programmbibliothek TensorFlow. Insofern würde ich die Frage „Mit welchen Tools können wir in unserer Organisation umgehen?“ in den Mittelpunkt stellen. Vielfach wird man aus meiner Sicht feststellen, dass das erforderliche Fachwissen für die Informationsgewinnung aus Industrie-4.0-/IIoT-Retrofit-Daten nicht vorhanden ist und dass externe Experten nötig sind.
Sollen Edge-Gateways bzw. Edge-Controller auch zur Steuerung dienen? Welche (Steuerungs-)Aufgaben können sie im Zusammenspiel mit vorhandenen SPSen übernehmen?
Dr. Oliver Kleineberg: Vor allem im Zusammenspiel mit virtuellen SPSen in der „on-premise cloud“ nahe der Feldebene können Edge-Gateways als Distributed Controller eine enorme Schlagkraft entfalten. Jeder Controller selbst dient als kleine SPS, die einfache Aufgaben autonom übernimmt. Eine zentrale SPS, real oder virtuell ausgeführt, steuert sie aus. Die LION-P DCU von Belden ist eines der ersten Geräte, die diese dezentrale Steuerung auf der Feldebene ausführen.
Michael Volz: Natürlich können Edge-Gateways auch Steuerungsaufgaben übernehmen. Voraussetzung sollte jedoch sein, dass die Steuerungsaufgabe in einer der gängigen Standard-Programmiersprachen der Steuerungswelt realisieren werden kann. Individuelle Lösungen erschweren die langfristige Wartbarkeit.
Wolfgang Wanner: Wenn keine SPS in der Maschine vorhanden ist, hat es durchaus Sinn, dass Router als Edge-Gateways oder Edge-Controller Steuerungsaufgaben bis zu einem gewissen Grad übernehmen. So lässt sich Hardware, wie eine Steuerung, platz- und kostensparend virtualisieren. Die Runtime-Umgebung einer virtuellen SPS wird dazu einfach in die Linux-Umgebung des Routers integriert und übernimmt die Steuerungsaufgaben der angeschlossenen Peripherien. Verschiedene Anwendungen lassen sich damit bündeln, sprich: konsolidieren.
Besteht schon eine SPS, kann ein Router als Steuerungs-Vorstufe dienen. Das heißt, der Router fungiert als Ausgangspunkt für Befehle und löst diese dann in der SPS aus. Weil das Steuern aus der Ferne aber auch immer einen Zugriff auf die Anwendung bedeutet, muss die IT-Sicherheit höchste Priorität haben.
Uwe Naaris: Das kommt darauf an. Abhängig von ihrer Anwendung und den Anforderungen in puncto Echtzeit können Edge-Controller durchaus solche Aufgaben übernehmen; Beispiele sind Liniensteuerungen oder Rezepturverwaltungen. Das Aufgabenspektrum der Edge-Controller hat aber seine Grenzen, etwa wenn man an das Thema Maschinensicherheit denkt. Wenn Safety gefordert ist, brauche ich die Deterministik von „richtigen“ Fail-Safe-SPSen.
Klaus-Dieter Walter: Ja, in bestimmten Anwendungen auf jeden Fall. In einer Predictive-Efficiency-Anwendung lassen sich so automatisiert die Energiekosten optimieren. Beim Zugriff auf die Aktoren muss sich das Edge-Device aber mit der jeweils zuständigen SPS synchronisieren, um Konflikte zu vermeiden. In der Praxis wird daher ein Edge-System nicht direkt auf die Aktoren zur Leistungsmodulation eines Antriebs zugreifen, sondern ein entsprechendes Signal an die SPS liefern, etwa eine OPC-UA-Variable oder per 4–20-mA-Stromausgang. Mit dem gleichen Konzept könnte eine Predictive-Maintenance-Applikation beispielsweise ein Transportband stoppen, um Sachschäden durch den bevorstehenden Ausfall einer Baugruppe zu vermeiden.
Zoltan Berkessy, Sales Manager D-A-CH von Tosibox: In dieser Hinsicht beziehen wir bei Tosibox eine klare Stellung. Wir sind der Meinung, dass Edge-Devices sich ausschließlich der Übertragung, Bereitstellung und vor allem der Sicherung von Daten widmen sollten. Man sollte Steuerungs- und Routing-Aufgaben eines Edge-Gateways nicht miteinander mischen. Eine zusätzlich implementierte Steuerung würde die Komplexität der Systeme erhöhen und dadurch die Sicherheit der Datenübertragung beeinträchtigen. Wir folgen einem sehr einfachen Leitfaden, wenn wir die Sicherheit unserer Fernübertragung definieren und realisieren: Keep it simple! Komplexität erfordert mehr Pflege, die Anzahl der möglichen Angriffspunkte steigt. Änderungen an der System-Software, die bei Steuerungen öfters vorkommen, können auch unbemerkt Bereiche der Fernübertragung beeinflussen.
Was muss beim Industrie-4.0-/IIoT-Retrofit in puncto Unternehmens-Software geschehen?
Dr. Oliver Kleineberg: Hier müssen die Hersteller von ERP-Software die einfachere Integration großer Datenmengen aus den Fertigungssystemen ermöglichen.
Wolfgang Wanner: Was wir hier brauchen, ist vor allem ein standardisiertes Dateiaustauschformat. Denn nur wenn sich die verschiedenen Protokolle der Unternehmens-Software einheitlich verarbeiten lassen, also eine Multiprotokoll-Fähigkeit vorliegt, kann ein vernünftiger Datenaustausch im Zuge eines Industrie-4.0-/IIoT-Retrofits funktionieren. Auch wenn die Bestrebungen für ein einheitliches Kommunikationsprotokoll wie OPC UA vorhanden sind, werden die verschiedenen Protokolle künftig weitergenutzt und gebraucht. Darüber hinaus sind offene Schnittstellen der Unternehmens-Software gefragt. Voraussetzung ist, dass auf eine ausgeklügelte Rechtestruktur hinter dem System geachtet wird. Dann lassen sich auch komplexe Systeme managen.
Klaus-Dieter Walter: Wir brauchen eine neue Software-Generation, die eine Auswahl geeigneter KI-Bausteine und Methoden enthält und über Algorithmen gewonnene Informationen entsprechend präsentiert, um intelligentere Entscheidungen treffen zu können. Bis auf sehr wenige Ausnahmen sind die gegenwärtigen Software-Produkte meines Erachtens noch auf dem Industrie-3.0-Niveau. Nur durch eine OPC-UA-Integration wird ein Software-Paket nicht wirklich zukunftsfähig. Autonom agierende Produktionssysteme benötigen geeignete Algorithmen mit der nötigen künstlichen Intelligenz und der entsprechenden Benutzerunterstützung, um sie auch effektiv nutzen zu können.