Produktionsdaten sind oft in Datensilos verteilt: An der Edge von Produktionsanlagen entstehen große Datenmengen; hinzu kommen Informationen aus MES-, ERP- und Logistik-Programmen. Wie lässt sich nun der Datenflut begegnen?
Jan Metzner, EMEA Specialist Solutions Architect Manufacturing bei AWS, nimmt Stellung.
Markt&Technik: Die Industrial Data Fabric von Amazon Web Services (AWS) ist in der Cloud angesiedelt. Inwieweit ermöglicht sie die Verteilung der Datenverarbeitungs- und -analyseaufgaben zwischen Cloud und Edge?
Jan Metzner: Die Industrial Data Fabric macht Daten aus den einzelnen Silos zentral über eine moderne Datenarchitektur in der Cloud zugänglich. Zudem zentralisiert sie Planungs-, Optimierungs- und Ablaufprozesse, um Kunden den Einsatz aktueller Monitoring-, Analytik- und Machine-Learning-Methoden zu ermöglichen. Darüber hinaus unterstützt die Lösung Prozesse, die lokal erfolgen müssen – beispielsweise Ablaufsteuerungen, Robotik und Computer-Vision-Systeme. Auf diese Weise bekommen Kunden unabhängig von Cloud oder Edge eine ganzheitliche Sicht auf ihre Produktion. Sie können Muster über verschiedene Standorte hinweg erkennen und daraus Optimierungsstrategien ableiten.
Inwieweit lassen sich IT- und OT-Daten über die Industrial Data Fabric verknüpfen und zusammenführen?
AWS bietet mehr als 200 Cloud-Services an – unter anderem für die hybride Cloud-Nutzung, den Datentransfer und IoT-Dienste. Dadurch lassen sich OT-Daten sicher und zuverlässig mit Cloud-Anwendungen verbinden. Der Dienst AWS IoT SiteWise sammelt etwa OT-Daten aus Industriegeräten und lokalen Servern über Industrieprotokolle, aggregiert sie in der Cloud zu operativen Modellen und visualisiert sie über webbasierte Dashboards. Falls die Internet-Verbindung am Standort beeinträchtigt ist, unterstützt AWS IoT SiteWise Edge lokal. Außerdem tragen AWS-Partner dazu bei, spezielle Integrations- und Verwaltungsaufgaben zu lösen.
Welche Verarbeitungs- und Analysefunktionen stehen auf der Industrial Data Fabric zur Verfügung?
Sobald die Daten in der Cloud verfügbar sind, lassen sich im Rahmen einer modernen Datenarchitektur alle Werkzeuge für Datenanalyse und Machine-Learning nutzen. Dafür werden die Daten in einem Data-Lake gesammelt und über sichere, Compliance-konforme Schnittstellen unterschiedlichen Anwendungen zur Verfügung gestellt. Dieses Vorgehen unterstützt auch Batch- und Streaming-Applikationen. Kunden können ihre Daten fast in Echtzeit über Amazon Kinesis oder Amazon Managed Streaming for Apache Kafka auswerten und schnell auf entscheidende Veränderungen wie etwa Anomalien reagieren.
Inwieweit lassen sich mithilfe der Industrial Data Fabric Nachhaltigkeitsstrategien verfolgen?
Dank der zentralisierten Planungs- und Betriebsprozesse lassen sich Überkapazitäten vor Ort durch elastische, effizientere IT-Kapazitäten in der Cloud ersetzen. Das reduziert die nötigen IT-Ressourcen und somit auch die Kosten sowie den CO2-Fußabdruck. Darüber hinaus ist die Nutzung von IT in der Cloud deutlich energieeffizienter als der Betrieb einer eigenen IT-Infrastruktur. Studien von 451 Research haben gezeigt, dass AWS die CO2-Bilanz seiner Kunden um knapp 80 Prozent im Vergleich zu den Rechenzentren anderer Unternehmen senken kann.
Welche Rolle spielt künstliche Intelligenz auf der Industrial Data Fabric?
Unsere Kunden nutzen für ihre ML-Modelle Amazon SageMaker und für die Industrie speziell zugeschnittene ML-Services wie Amazon Lookout for Equipment. Dadurch können sie Daten aus Industriegeräten analysieren und selbstständig Voraussagen zu Fehlerzuständen entwickeln. Auf diese Weise lassen sich beispielsweise Wartungsfenster optimieren und zugleich die Maintenance-Kosten sowie Fehlzeiten minimieren. Machine-Learning ist bei AWS aber nicht auf die Cloud beschränkt. Mit AWS IoT Greengrass lassen sich etwa ML-Modelle nach dem Training in der Cloud auch in Industriegeräten vor Ort nutzen.