Ohne Glasfaser kein Edge-Computing Megatrends brauchen performante, echtzeitfähige Glasfasernetze

PreConnect Octo ist ein System für die strukturierte paralleloptische Datenübertragungsverkabelung von Rosenberger OSI.
PreConnect Octo ist ein System für die strukturierte paralleloptische Datenübertragungsverkabelung von Rosenberger OSI.

Im Fahrwasser von IoT und IIoT fallen immer häufiger Schlagworte wie Fog- oder Edge-Computing. Ist das tatsächlich ein neuer Ansatz oder doch mehr „alter Wein in neuen Schläuchen“? Und in welchen Anwendungsbereichen werden diese Technologien tatsächlich gebraucht?

Von Harald Jungbäck, Product Manager für Rechenzentrums-Verkabelungssysteme bei Rosenberger OSI 

Nach Einschätzung führender Analystenhäuser wird das Volumen der Neu-Daten bis zum Jahr 2025 auf mehr als 160 Zettabyte anwachsen. Hinzu kommen die bereits vorhandenen Daten, die sich durch neue Anwendungen und Prozesse permanent verändern. Dreh- und Angelpunkt für die Verarbeitung, Verwaltung und Speicherung dieser Daten sind und bleiben die Rechenzentren. Es sind aber nicht länger nur interne Daten, die hier zusammenlaufen. Vielmehr liefern auch externe und mobile Datenquellen weitere Informationen zu. Hier wirft das IoT bereits seine Schatten voraus. Das massive Datenvolumen führt im klassischen Rechenzentrum oft zu verzögerten Reaktionszeiten, denn von vielen verteilten oder mobilen Ressourcen sind die zentralen Knoten geografisch einfach zu weit entfernt, um noch vertretbare Latenzzeiten zu garantieren, wie sie für viele Abläufe erforderlich sind. Die Beeinträchtigung für Geschäfts- und Produktionsprozesse kann hoch sein.

Echtzeit spielt Schlüsselrolle

Aber gerade moderne Prozesse im geschäftlichen Umfeld und in der Fertigung erfordern nicht nur immer mehr und differenzierte Daten. Vielmehr spielt deren Echtzeit-Verfügbarkeit und -Verarbeitung im Umfeld von autonomem Fahren und Industrie 4.0 zunehmend eine entscheidende Rolle. Entwicklungen wie IoT und IIoT tragen maßgeblich dazu bei, die Belastung konventioneller Rechenzentren weiter zu steigern. Gleiches gilt auch für die digitalisierten Verkehrskonzepte der Zukunft. Abhilfe sollen Fog- bzw. Edge-Computing bieten. Die International Data Group (IDG) beispielsweise prognostiziert, dass bis 2019 etwa 43 Prozent der Daten, die das IoT generiert, in sogenannten Edge-Computing-Systemen, am Rande des herkömmlichen Netzwerks verarbeitet werden. Unternehmen wird geraten, die zunehmende Datenflut bereits am Rande ihrer herkömmlichen Netzwerke zu zähmen, um die konventionellen Datacenter zu entlasten. Das wird notwendig sein, weil die Zahl der IoT-Devices in den kommenden Jahren weiter rasant ansteigt. Die Analysten der Gartner Group erwarten, dass bis 2020 weltweit rund 20,4 Milliarden IoT-Geräte im Einsatz sind, die über eine IP-Adresse miteinander kommunizieren. Hinzu kommen weitere physische Objekte, die sich über integrierte aktive oder passive Sensoren via Bluetooth, Laser oder Infrarot auch ohne IP ablesen lassen.

Daten am Entstehungsort verarbeiten

Um zeitkritische Daten verzögerungsfrei zu verarbeiten, gilt Edge-Computing als adäquate Lösung. Autonome Fahrzeuge, Applikationen der Smart City, die auf Echtzeitdaten basieren, oder mobiles IoT sind ohne Edge-Computing und 5G-Mobilfunk nicht realisierbar. Im industriellen IoT gibt es bereits zahlreiche mögliche Szenarien. Manchmal reicht es, Sensordaten lediglich zusammenzuführen. Ein anderes Mal wiederum müssen sie anhand bestimmter Kriterien auch gefiltert werden. Und gelegentlich ist sogar die Kapazität eines Minirechenzentrums gefragt. Ein Beispiel dafür sind autonome Fahrzeuge. Beim selbstfahrenden Auto wird die gesamte Datenverarbeitung an Bord erledigt. Der Wagen muss innerhalb von Millisekunden reagieren können, etwa um Unfälle zu verhindern – ohne Datenverarbeitung in Echtzeit nicht denkbar. Und hier kommt Edge-Computing ins Spiel. Das minimiert Latenzzeiten und verhindert Flaschenhälse im Datenfluss. Edge-Computing sorgt für die Echtzeitverfügbarkeit von Daten und schafft die Voraussetzungen für die Digitalisierung verteilter, kritischer Infrastrukturen. Durch den Brückenschlag zu den klassischen operativen Rechenzentrums-Technologien sowie zu Anwendungen in der Public Cloud können Unternehmen lokale Computerlösungen einsetzen, die sich je nach Bedarf beliebig skalieren lassen. Dies optimiert die Virtualisierung von Ressourcen und unterstützt Echtzeit-Anwendungen.