Auf welcher Stufe der Industrial Data Intelligence erfolgt die Visualisierung der Daten?
Eine Visualisierung der Daten ist durchaus schon am Anfang des Prozesses möglich. Wenn die Daten gesammelt werden, kann ich sie gleich visualisieren, um eine erste grafische Darstellung und erste Vorstellungen von den möglichen Kausalitäten zu bekommen, die sich daraus ergeben. Wichtig ist dabei nur, dass nicht jede Korrelation fälschlicherweise als Kausalität erkannt wird, solange keine Modelle erstellt worden sind. Die initiale Visualisierung sollte also mit Vorsicht und am besten von Personen mit inhaltlichen Kenntnissen des Prozesses vorgenommen werden. Nachdem Modelle trainiert, getestet und implementiert wurden, sollte sich die Visualisierung auf festgelegte Ziele konzentrieren, etwa eine Anomalie-Erkennung.
Ist es mit Blick auf Industrie 4.0 empfehlenswert, nur bestimmte, ausgewählte Daten zu erfassen und zu analysieren (Smart Data), oder ist es notwendig, generell alle verfügbaren Daten zu erfassen und zu analysieren, um möglicherweise neue Erkenntnisse über den Produktions- und Logistikprozess zu gewinnen (Big Data)?
Nicht alle Daten tragen zu einer Verbesserung der Gesamtanlageneffektivität bei. Nur wird man anfangs nicht immer wissen, welche die relevanten und welche die nicht-relevanten sind. Im Zweifel sollte man eher mehr als weniger Daten akquirieren und zumindest vorhandene Produktionsdaten des relevanten Prozesses einbeziehen. Dabei geht es nicht nur um „Big Data“ im Sinne der drei „V“ für Volume, Velocity und Variety, also Volumen, Geschwindigkeit/Echtzeit und Vielfalt (strukturiert oder unstrukturiert?).
Auch „small and smart data“ – also kleine aber feine/intelligente Daten – können eine wichtige Rolle spielen. Im Endeffekt werden die Daten einem geeigneten Analyse-Algorithmus zugeführt, der sie anfangs zur Entwicklung eines repräsentativen Modells und anschließend in Echtzeit in der Anlage analysiert und bewertet – wir nennen das „Streaming Analytics“–, damit das System sich melden kann, sobald eine Anomalie aufgetreten ist oder die Wartung einer bestimmten Komponente ansteht.
Welche neuen Geschäftsmodelle ermöglicht Industrial Data Intelligence?
Neue datengetriebene Geschäftsmodelle sind zwar kein originäres Ziel von Industrie 4.0, führen aber mittlerweile als „Abfallprodukt“ der weiterführenden Digitalisierung ein eigenständiges Leben. Weil datengetriebene Geschäftsmodelle einen Zugang zu den Daten erfordern, sind sie wohl nur in Verbindung mit einer Cloud – also zumindest: Server oder Rechner(zentrum) – möglich. Dies muss keine Public Cloud sein, aber zumindest eine Datensammelstelle, die eine direkte Verbindung zur und von der Anlage hat. Prinzipiell kann ein produzierendes Unternehmen auf dem Weg zur Industrie 4.0 über neue Geschäftsmodelle nachdenken, ein Muss ist es nicht. Viele Firmen wird die Tatsache, dass externe Rechner oder auch Mitarbeiter von Drittfirmen Zugang zu den firmeneigenen Daten und Produktionsräumen bekommen, eher abschrecken. Die firmeninterne datenbasierte Verbesserung der GAE sollte dagegen immer überlegt werden.
Welche Rolle können Techniken wie Machine Learning und neuronale Netze für Industrial Data Intelligence spielen?
Ohne Algorithmen des maschinellen Lernens würden schon heute wichtige Teile unserer Geschäftswelt oder Konsumentenwelt nicht funktionieren. Es sind solche Algorithmen, die beispielsweise innerhalb von Millisekunden entscheiden, ob ein Kunde am Automaten Geld ausbezahlt bekommt, oder die in Social Media die Gesichter unserer Freunde erkennen oder uns dem Smartphone Aufgaben stellen lassen und in Zukunft etwa für das autonome Fahren zuständig sein werden. Es sind dieselben Algorithmen, die uns sagen können, wie und wo wir unsere Produktion optimieren können, solange wir sie mit den dafür relevanten Daten füttern.
Kann die klassische SPS einen Beitrag zur Industrial Data Intelligence leisten?
Ja, auch Steuerungsdaten dienen neben Daten aus anderen Automatisierungskomponenten – Feldgeräten, Sensoren, Aktoren – und Datenbanken sowie aus zusätzlichen Quellen wie etwa Produktionsfluss- oder Wetterdaten als Grundlage für Industrial-Data-Intelligence-Analysen. Wenn man davon ausgeht, dass die SPS in Zukunft ihre Rolle ändern wird – vom zentralen „Kopf“ der Anlage hin zur dezentralen Steuerungseinheit – wird der Anteil der Steuerungsdaten wahrscheinlich sinken und der Anteil sonstiger Automatisierungskomponenten wachsen. Das wird aber wohl keine strukturellen Auswirkungen auf die Datenanalyse haben.
Werden sich langfristig Automatisierungs- und IT-Software verbinden oder wird die IT- die Automatisierungs-Software verdrängen?
Seit 50 Jahren (Mooresches Gesetz) ist die IT dabei, die Welt zu übernehmen. Seit dem ersten Intel-4004-Prozessor aus dem Jahr 1971 verbreiten sich Geräte auf Prozessorbasis unaufhaltsam und bestimmen heute unsere Büroarbeit und unser privates Leben. Dabei ging es nie um ein Zusammengehen der IT und der vorhandenen Technik; IT war immer stärker und hat sich immer durchgesetzt. Das wird in der Automatisierung nicht anders sein. Die Automatisierung der Produktion, die heute teils auf einem technischen Stand ist wie die IT vor 30 Jahren, wird in 10 bis 20 Jahren den anderen von der IT beherrschten Märkten sehr viel ähnlicher sein. Alles wächst zusammen. Ansätze wie Datenanalyse, die schon seit vielen Jahren in anderen Märkten wie etwa der Medizin erfolgreich zur Optimierung dienen, werden heute mit ähnlichen Systemen auf IT-Basis eingesetzt, um die Produktion zu optimieren.