Tendiert Ihr Unternehmen dabei eher zum Cloud- oder zum Edge-Computing?
Wir stellen fest, dass neun von zehn unserer Kunden in Maschinenbau und Produktion eine Industrial-Data-Intelligence-Lösung in der Anlage gegenüber einer Cloud-Lösung präferieren. Trotz vieler Bemühungen der Anbieter und Organisationen haben die Entscheidungsträger ein mulmiges Gefühl bei der Idee, ihre Produktionsdaten nach draußen zu geben. Wir nehmen ihnen gerne diese Angst ab, indem wir eine Lösung in der Anlage, an der Maschine, dort wo die Daten anfallen – auf Englisch: „at the edge“ – anbieten. Neben dem Thema Sicherheit kommt die Tatsache hinzu, dass das Internet nach dem jetzigen Entwicklungsstand unmöglich alle Produktionsdaten auf den Weg in eine Cloud verarbeiten könnte. Sollte aber ein Kunde eine Cloud-Lösung präferieren oder mehrere Anlagen und Standorte auf Basis der vorverarbeiteten Daten – von der Datenmenge her um ein Vielfaches kleiner – in einer Cloud-Umgebung vergleichen wollen, können wir auch eine solche Lösung bereitstellen.
Welche Rolle spielen Metadaten bei der Erfassung und Analyse der Daten?
Metadaten zeigen, was hinter den Daten steckt. Somit ist es auf jeden Fall sinnvoll, die Daten so gut es geht damit anzureichern. Mit Metadaten angereicherte Daten ermöglichen eher den Einsatz sogenannter „supervised-learning“-Algorithmen (z.B. Baumdiagramme oder Lineare Regression), also solche des beaufsichtigten Lernens, bei dem Daten ein Label mitbekommen, also mit Etiketten versehen werden. Zumindest sollten Daten einen Zeitstempel bekommen, damit man sie zeitlich einordnen und bei der Analyse als sogenannte Time-Series-Daten – zu festen Zeitpunkten gesammelte und angelegte Daten – behandeln kann. Nach dem Sammeln folgt der Industrial-“Extract-Transform-Learn“-Prozess (ETL), der bis zu 80 Prozent des gesamten Prozesses umfasst. Hierbei werden Ausreißer gelöscht, Fehleinträge eliminiert, Zeitstempel abgeglichen, Metadaten zugefügt und die bereinigten Daten formatiert.
Wenn zusätzlich zum Zeitstempel keine weitere Metadaten zur Verfügung stehen, kommen statt „supervised“ eher die Algorithmen des „unsupervised learning“, also des unbeaufsichtigten Lernens (z.B. Support Vector Machines oder Principal Component Analysis), zum Einsatz. Diese können auch aus Daten, die nicht vorher etikettiert worden sind, Kausalitäten finden. Bei diesem Ansatz kann es schwieriger sein, die Wurzel des Problems zu finden, also die Root-Cause-Analysis zu betreiben, weil ich beispielsweise nicht weiß, wofür einzelne Variablen stehen.
Mit welchen Tools wird Ihr Unternehmen die Industrial-Data-Intelligence-Lösungen seiner Kunden ausstatten?
Unser Industrial-Data-Intelligence-Angebot besteht aus einer Kombination von Produkten und Dienstleistungen. In der Vorbereitungsphase bieten wir unseren Kunden einen optionalen Workshop an, in dem wir gemeinsam für konkrete Anwendungsfälle, in denen Daten einen kommerziellen Wert darstellen, Ziele festlegen und individuelle Konzepte zur Erschließung der identifizierten Potentiale einschließlich technischer Architektur, Sicherheit, Datenverarbeitung, Analyse und Visualisierung entwerfen. In der Datensammlungs-Phase geht es um die Bereitstellung eines meist schon vorhandenen Akquise-Systems, die Anbindung der Datenbanken und Komponenten von Drittfirmen, die Datenlogistik, den Industrial-ETL-Prozess, den Support, die Wartung sowie die Integration von Softing-Standard-Produkten zur Datensammlung oder von Produkten Dritter. In der Analyse-Phase geht es um Datenaufbereitung, Modellierung, Datenanalyse, Edge- und Server-Analytics, maschinelles Lernen, Anomalie-Erkennung, Echtzeit-Bewertung sowie das Auffinden sporadischer Fehler.
Für die Datenanalyse, die wir unseren Kunden als Dienstleistung anbieten, greifen wir auf Open-Source-Lösungen wie KNIME (Konstanz Information Miner) oder Rapidminer zurück. Der Open-Source-Ansatz bietet unseren Kunden gegenüber großen, geschlossenen Lösungen den Vorteil der Offenheit und geringeren Abhängigkeit. In der Entscheidungsphase werden Anforderungen in Übereinstimmung mit den gesetzten Zielen festgelegt und Aufgaben abgeleitet.
In der Implementierungs-Phase stellen wir dem Kunden in seiner Anlage eine Analyse-Lösung auf Basis eines Standard-IPCs bereit, abhängig von den vereinbarten Zielen für die einmalige oder fest-installierte Produktionsoptimierung, eventuell mit integrierter weiterführender Analyse-Dienstleistung. Wir bieten unsere Produktionsoptimierungs-Lösung unseren Kunden anfangs für existierende Anlagen an, in denen wir Daten aus unterschiedlichsten Quellen wie Feldbussen (Profibus, Profinet), OPC-UA-Informationsmodellen, Datenbanken sowie Automatisierungskomponenten (SPSen, Sensoren, Aktoren) sammeln und analysieren.