Daten- und Prozessintegration »The Edge« überbrücken

"The Edge" – der Übergang von Unternehmens-IT zu Prüfstands-IT – spielt ­eine zentrale Rolle beim richtigen Umgang mit Big Data.
»The Edge« – der Übergang von Unternehmens-IT zu Prüfstands-IT – spielt ­eine zentrale Rolle beim richtigen Umgang mit Big Data.

Volumen, Geschwindigkeit, Vielfalt, Unschärfe und Komplexität der Daten charakterisieren Big Data. Ein Beispiel ist die Integration von Messdaten aus Forschung, Entwicklung, Produktion und Wartung in Unternehmensprozesse. »The Edge« spielt ­dabei eine zentrale Rolle.

In der Gesamtheit aller Daten aus Tests und Versuchen in Forschung, Entwicklung, Produktion und Wartung im Kontext überlagerter unternehmensweiter Geschäftsprozesse entsteht ein enormes Datenvolumen,

  • das mit unterschiedlichen und oft sehr hohen Geschwindigkeiten in einer Vielfalt von Formaten und Inhalten entsteht,
  • oft von Unschärfe und Unsicherheit geprägt ist,
  • dessen Sichtbarkeit oft erst ermöglicht und gleichzeitig häufig auf bestimmte Regionen und Personenkreise beschränkt werden muss,
  • das im Kontext von Anforderungsdokumenten, Aufträgen, Referenzmessungen, Prüflingsbeschreibungen zusammen mit überlagerten Geschäftsprozessen immensen Wert im Unternehmen darstellt
  • und von einer hohen Komplexität in den einzelnen Datenbeständen und erst recht in deren Zusammenhängen geprägt ist.

Die Verarbeitung und Bereitstellung dieser Daten zur effizienten Entwicklung und Produktion mit minimierten Aufwands- und Kostenrisiken sind ein omnipräsentes Big-Data-Beispiel. Unterschiedliche Prozesse, Abteilungen und Systeme erzeugen eine Vielfalt von Daten, Informationen und Dokumenten in unterschiedlichen Geschwindigkeiten und Formaten. Dies können ERP-Systeme zur Material- und Personalverwaltung, PLM- und PDM-Systeme für Product Lifecycle Management, EDA/CAD/CAE-Systeme für Schaltungsentwurf, Design und Simulation, ME-Systeme zur Produktionssteuerung oder SDM-Lösungen für Service- und Wartungsdatenmanagement sein. Testsysteme erzeugen in kurzer Zeit viele Daten in vielen Formaten, die nach Vorgaben von Ingenieuren ausgewertet werden, um individuelle Fragen beantworten und entsprechende Reports erstellen zu können. Wie behält man in einer Datenflut unterschiedlicher Formate und Quellen, die in hoher Geschwindigkeit erzeugt wird, den Überblick, welche Daten und Informationen zur Verfügung stehen und wie diese verknüpft sind? Wie nutzt man diese Datenflut effizient, um schnell Mehrwert und Ergebnisse zu generieren und gleichzeitig Konsistenz zu wahren? Wir skizzieren einen Ansatz, wie diesen Fragen mit IT-Systemen in verschiedenen Projekten in der Automobil-, Luft- und Raumfahrt- oder auch der Konsumgüterindustrie begegnet wird.

Messen und Testen als ­ganzheitlicher Geschäftsprozess

Wo gemessen wird, entstehen Daten – egal, ob bei der Überwachung von Anlagen, bei Tests neuer Komponenten oder bei Messungen physikalischer Phänomene. Je nach Aufgabe werden verschiedene Sensoren eingesetzt und große Datenmengen mit unterschiedlichen Raten und Formaten erfasst. Die Plattformen cRIO und PXI bilden zusammen mit LabVIEW, VeriStand oder TestStand leistungsfähige Werkzeuge für die Prüfstandssteuerung und Datenerfassung. Die Verarbeitung der Daten ist leicht mit DIAdem zu bewerkstelligen. Doch woher erfährt der Ingenieur, welche Testaufgabe er umsetzen soll? Woher kommt die Information, welche Daten erfasst, welche Regelgrößen genutzt oder welcher Prüfling wie untersucht werden soll? Im Detail betrachtet, finden sich viele beschreibende Informationen, die für die Entstehung von Mess- und Testdaten von Bedeutung sind, ohne jedoch direkt aus der Datenerfassung zu entstehen.

Wann diese Informationen erzeugt und mit der Aufgabe verbunden werden, zeigt das Prozessschema in Bild 1. Eine besondere Herausforderung ist die Rückverfolgbarkeit aller Informationen in ihrem Kontext. Es muss jederzeit nachvollziehbar sein, wie aus einer Anforderung ein Auftrag und eine bestimmte Testsequenz entstanden ist, ebenso wie die Datenbasis einer bestimmten Auswertung entstanden ist. Auch muss nachvollziehbar sein, warum gerade diese Auswertung auf diesen Daten angewendet wurde. Dies kann aufgrund von spezifischen Anforderungen oder auch von standardisierten Routinen erfolgt sein. Da die Testbeauftragung üblicherweise über Systeme außerhalb des Prüffelds erfolgt, die eigentlichen Tests aber am Prüfstand durchgeführt werden, wird die Rückverfolgbarkeit erschwert. Das heißt, die Planungs-Informationen müssen für den Prüfstand aufbereitet werden. Auch muss es möglich sein, Änderungen während des Testlaufs am Prüfstand vorzunehmen – zum Beispiel einen defekten Sensor zu tauschen – ohne die Rückverfolgbarkeit und Datenintegrität zu stören. Um dies zu gewährleisten, ist es notwendig, die Schnittstelle und die auszutauschenden Informationen zwischen Unternehmens-IT und Prüfstand klar zu definieren. Auch die Eigenschaften und Möglichkeiten des Prüfstands, zum Beispiel welche Tests und Testsequenzen vom Prüfingenieur ausgeführt werden können, müssen bereits in der Planung in den Systemen der Unternehmens-IT bekannt sein. Entsprechendes gilt auch für die Schnittstelle vom Prüfstand zu den Auswerte- und Reporting-Prozessen, wo ein weiterer Übergang von der Prüfstands-IT in die Unternehmens-IT stattfindet und Vollständigkeit, Rückverfolgbarkeit und Integrität gewährleistet werden müssen.