Das wäre ja fast eine eigene Revolution in der Revolution, ein grundlegender Paradigmenwechsel in der Zertifizierung.
Ja, bislang ist der Ansatz ein grundlegend anderer: Wenn Sie ein potenziell gefährliches System auf den Markt bringen wollen, wird es zur Entwicklungszeit sehr genau angeschaut und geprüft, ob es sicher genug ist. Nach der Zertifizierung soll sich das System dann natürlich möglichst nicht mehr verändern. Ein Beispiel: Wenn ein Prozessorkern eines Multi-Core-Prozessors ausfällt, kann man nicht einfach eine Re-Konfiguration durchführen. Dabei wäre es vielleicht durchaus sinnvoll, die wichtigsten Tasks auf die anderen Kerne zu verschieben. Verfügbare Ressourcen müssten also intelligent umgeplant und damit neu organisiert werden. Wenn man das gut anstellt, bleibt das System sicher und verfügbar. Aber genau dies ist die Herausforderung: Wie schafft man es, dass eine Veränderung garantiert zu einem guten Ergebnis führt? Wir brauchen zur Beantwortung dieser Frage mehr Intelligenz in den Systemen. Man würde dann nicht mehr das System selbst zertifizieren, sondern die Selbst-Zertifizierungsmechanismen des Systems. Natürlich wird es Beschränkungen geben müssen, was das System autark tun darf.
Damit das funktioniert, müssen auch hierbei natürlich viele Disziplinen zusammenfinden, und es müssen gute Kompromisse z.B. zwischen Safety und Verfügbarkeit ausgearbeitet werden. Hinzu kommt die Integration von Elektronik, Maschinenbau und Informatik. Keiner kann das Thema Industrie 4.0 in einer Disziplin solitär alleine lösen, dazu brauchen wir ein richtig gutes Systems Engineering!
Sie sagten, Deutschland und Europa seien gut aufgestellt für Industrie 4.0. Noch hapert es aber nach meinen Erfahrungen an der Umsetzung.
Ich glaube, dass es bestimmte Bereiche geben wird, in denen uns Industrie 4.0 früher ereilen wird als in anderen. Smart Grid ist hier ein Präzedenzfall und wird sicher relativ früh Industrie-4.0-Prinzipien haben. Fast jeder, der elektrische Energie erzeugt, ist auch gleichzeitig Verbraucher, je nach Lage der Dinge speist er ein oder entnimmt. Das Netz muss mit diesem Sachverhalt umgehen. Man benötigt Wetterprognosen, man kann einwirken, indem der Strompreis hoch- und heruntergesetzt wird. Aber das muss autonom und auf Basis von Daten passieren. Solche Systeme folgen den Prinzipien von Industrie 4.0. Die Systeme organisieren sich selbst. Sie dürfen nicht unsicher werden im Sinne von Safety, und sie nutzen schutzwürdige Daten im Sinne von Security. Es ist sicherzustellen, dass sich niemand ins System hackt und Daten verfälscht. Ich glaube, dass uns diese Themen beim Smart Grid früh ereilen werden, weil der Aufbau der Netzstrukturen schon relativ weit fortgeschritten ist. Ich gehe davon aus, dass wir spätestens in zwei bis drei Jahren Antworten brauchen auf die Frage: Wie erhalten ich die Netzverfügbarkeit, z.B. wenn eine Wetterprognose nicht so eintritt, wie erwartet. Dann muss das Netz intelligent einen alternativen Plan umsetzen.
Wenn es um Industrie 4.0 geht, drängt sich zwangsläufig die Frage nach »Big Data« auf. Die Datenmengen werden immer größer. Wie lässt sich das kanalisieren – und konsolidieren?
Ein Problem im Bereich Big Data ist es, echte Effekte von Zufallsprodukten zu unterscheiden. Das ist nicht so ganz einfach. Ich sehe Big Data und Industrie 4.0 als zwei Seiten derselben Medaille. Die eine ist die IT-Seite und die andere die technologische Seite. Aus Daten korrekte Schlüsse zu ziehen, ist ein wichtiger Aspekt für die Industrie 4.0: Wir gehen den Weg von Big Data nach Smart Data und von Smart Data nach Smart Information: Daten sind nur Behälter, in denen sich Informationen befinden können, aber nicht müssen. Wenn Datenvolumen explodieren, steigt nicht notwendig auch gleichzeitig die Informationsmenge im gleichen Maßstab an. Je mehr Daten verfügbar sind und je mehr Datenmüll darunter ist, umso schwieriger wird es, die richtigen Informationen daraus zu extrahieren.
Welchen Beitrag können hier Algorithmen bereits leisten?
Algorithmen sind nur ein Teil der Lösung. Ich glaube, dass man stärker modellierende Ansätze berücksichtigen muss, um von vornherein unsinnige Analysen auszuschließen. Daten sind eben sehr unterschiedlich: Es gibt Sensordaten, die sich alle 20 Millisekunden ändern. Wetterprognosen halten länger, sind aber oft unpräzise. Daneben gibt es aber auch Daten, die niemals verfallen, wie das Enddatum des zweiten Weltkrieges. Es gibt objektive Daten und subjektive Daten. Die Frage ist auch: Was dürfen Sie mit den Ihnen zur Verfügung stehenden Daten überhaupt machen? Es bringt nichts, alles »wild« miteinander in Verbindung zu bringen.
Der reine Zugriffsschutz auf Daten gehört der Vergangenheit an. In der aktuellen Diskussion über den Datenschutz hat man den Eindruck, dass es gewollt ist, Daten möglichst gut wegzuschließen, also eine Datenzugriffskontrolle zu betreiben. Doch von weggeschlossenen Daten kann ja niemand profitieren. Ich denke, dass die meisten Menschen bereit sind, zweckgebunden auch personenbezogene Daten herauszugeben. Wir nennen das Datennutzungskontrolle. Die Frage ist, ob man nicht den Datenzugriffsschutz durch Datennutzungskontrollen in bestimmten Bereichen ergänzen kann. Dann muss sichergestellt sein, dass die Verpflichtungen, die mit der Bereitstellung der Daten verbunden sind, auch eingehalten werden. Wir brauchen dafür eine technische Lösung – ein Thema, das wir aktuell mit unserem Konzept IND2UCE umsetzen. Wir haben dafür im Jahr 2014 den europäischen EARTO-Innovations-Preis erhalten und sind derzeit im Gespräch mit Industriepartnern, die sich für diese Lösung interessieren.
Das wäre ja fast eine eigene Revolution in der Revolution, ein grundlegender Paradigmenwechsel in der Zertifizierung.
Ja, bislang ist der Ansatz ein grundlegend anderer: Wenn Sie ein potenziell gefährliches System auf den Markt bringen wollen, wird es zur Entwicklungszeit sehr genau angeschaut und geprüft, ob es sicher genug ist. Nach der Zertifizierung soll sich das System dann natürlich möglichst nicht mehr verändern. Ein Beispiel: Wenn ein Prozessorkern eines Multi-Core-Prozessors ausfällt, kann man nicht einfach eine Re-Konfiguration durchführen. Dabei wäre es vielleicht durchaus sinnvoll, die wichtigsten Tasks auf die anderen Kerne zu verschieben. Verfügbare Ressourcen müssten also intelligent umgeplant und damit neu organisiert werden. Wenn man das gut anstellt, bleibt das System sicher und verfügbar. Aber genau dies ist die Herausforderung: Wie schafft man es, dass eine Veränderung garantiert zu einem guten Ergebnis führt? Wir brauchen zur Beantwortung dieser Frage mehr Intelligenz in den Systemen. Man würde dann nicht mehr das System selbst zertifizieren, sondern die Selbst-Zertifizierungsmechanismen des Systems. Natürlich wird es Beschränkungen geben müssen, was das System autark tun darf.
Damit das funktioniert, müssen auch hierbei natürlich viele Disziplinen zusammenfinden, und es müssen gute Kompromisse z.B. zwischen Safety und Verfügbarkeit ausgearbeitet werden. Hinzu kommt die Integration von Elektronik, Maschinenbau und Informatik. Keiner kann das Thema Industrie 4.0 in einer Disziplin solitär alleine lösen, dazu brauchen wir ein richtig gutes Systems Engineering!
Sie sagten, Deutschland und Europa seien gut aufgestellt für Industrie 4.0. Noch hapert es aber nach meinen Erfahrungen an der Umsetzung.
Ich glaube, dass es bestimmte Bereiche geben wird, in denen uns Industrie 4.0 früher ereilen wird als in anderen. Smart Grid ist hier ein Präzedenzfall und wird sicher relativ früh Industrie-4.0-Prinzipien haben. Fast jeder, der elektrische Energie erzeugt, ist auch gleichzeitig Verbraucher, je nach Lage der Dinge speist er ein oder entnimmt. Das Netz muss mit diesem Sachverhalt umgehen. Man benötigt Wetterprognosen, man kann einwirken, indem der Strompreis hoch- und heruntergesetzt wird. Aber das muss autonom und auf Basis von Daten passieren. Solche Systeme folgen den Prinzipien von Industrie 4.0. Die Systeme organisieren sich selbst. Sie dürfen nicht unsicher werden im Sinne von Safety, und sie nutzen schutzwürdige Daten im Sinne von Security. Es ist sicherzustellen, dass sich niemand ins System hackt und Daten verfälscht. Ich glaube, dass uns diese Themen beim Smart Grid früh ereilen werden, weil der Aufbau der Netzstrukturen schon relativ weit fortgeschritten ist. Ich gehe davon aus, dass wir spätestens in zwei bis drei Jahren Antworten brauchen auf die Frage: Wie erhalten ich die Netzverfügbarkeit, z.B. wenn eine Wetterprognose nicht so eintritt, wie erwartet. Dann muss das Netz intelligent einen alternativen Plan umsetzen.
Wenn es um Industrie 4.0 geht, drängt sich zwangsläufig die Frage nach »Big Data« auf. Die Datenmengen werden immer größer. Wie lässt sich das kanalisieren – und konsolidieren?
Ein Problem im Bereich Big Data ist es, echte Effekte von Zufallsprodukten zu unterscheiden. Das ist nicht so ganz einfach. Ich sehe Big Data und Industrie 4.0 als zwei Seiten derselben Medaille. Die eine ist die IT-Seite und die andere die technologische Seite. Aus Daten korrekte Schlüsse zu ziehen, ist ein wichtiger Aspekt für die Industrie 4.0: Wir gehen den Weg von Big Data nach Smart Data und von Smart Data nach Smart Information: Daten sind nur Behälter, in denen sich Informationen befinden können, aber nicht müssen. Wenn Datenvolumen explodieren, steigt nicht notwendig auch gleichzeitig die Informationsmenge im gleichen Maßstab an. Je mehr Daten verfügbar sind und je mehr Datenmüll darunter ist, umso schwieriger wird es, die richtigen Informationen daraus zu extrahieren.
Welchen Beitrag können hier Algorithmen bereits leisten?
Algorithmen sind nur ein Teil der Lösung. Ich glaube, dass man stärker modellierende Ansätze berücksichtigen muss, um von vornherein unsinnige Analysen auszuschließen. Daten sind eben sehr unterschiedlich: Es gibt Sensordaten, die sich alle 20 Millisekunden ändern. Wetterprognosen halten länger, sind aber oft unpräzise. Daneben gibt es aber auch Daten, die niemals verfallen, wie das Enddatum des zweiten Weltkrieges. Es gibt objektive Daten und subjektive Daten. Die Frage ist auch: Was dürfen Sie mit den Ihnen zur Verfügung stehenden Daten überhaupt machen? Es bringt nichts, alles »wild« miteinander in Verbindung zu bringen.
Der reine Zugriffsschutz auf Daten gehört der Vergangenheit an. In der aktuellen Diskussion über den Datenschutz hat man den Eindruck, dass es gewollt ist, Daten möglichst gut wegzuschließen, also eine Datenzugriffskontrolle zu betreiben. Doch von weggeschlossenen Daten kann ja niemand profitieren. Ich denke, dass die meisten Menschen bereit sind, zweckgebunden auch personenbezogene Daten herauszugeben. Wir nennen das Datennutzungskontrolle. Die Frage ist, ob man nicht den Datenzugriffsschutz durch Datennutzungskontrollen in bestimmten Bereichen ergänzen kann. Dann muss sichergestellt sein, dass die Verpflichtungen, die mit der Bereitstellung der Daten verbunden sind, auch eingehalten werden. Wir brauchen dafür eine technische Lösung – ein Thema, das wir aktuell mit unserem Konzept IND2UCE umsetzen. Wir haben dafür im Jahr 2014 den europäischen EARTO-Innovations-Preis erhalten und sind derzeit im Gespräch mit Industriepartnern, die sich für diese Lösung interessieren.
Das Interview führte Karin Zühlke