Netzwerk- und Speichercontroller Die Datenflut in den Griff bekommen

Die Datenflutlücke zwischen Netzwerk-/Speicherwachstum und IT-Investitionen ist groß und nimmt weiter zu.
Die Datenflutlücke zwischen Netzwerk-/Speicherwachstum und IT-Investitionen ist groß und nimmt weiter zu.

Das Datenaufkommen steigt unaufhörlich: Nach dem Boom bei Videodiensten sorgt jetzt das Cloud Computing für einen weiteren Schub an Daten, die gespeichert und übertragen werden. In Zukunft werden intelligentere Halbleitertechnologie benötigt, um diese Flut in den Griff zu bekommen.

Die »Datenflutlücke« ist eine der grundlegendsten Herausforderungen der IT- und Telecom-Branche – die Kluft zwischen den 30 bis 50 Prozent jährlichen Wachstums bei den Netzwerk- und Speicherkapazitätsanforderungen und den 5 bis 7 Prozent jährlicher Steigerung von IT-Budgets. Der zunehmende Einsatz Cloud-basierter Dienste und die in die Höhe schnellende Generierung und Nutzung von Datenspeichern führen zu einem exponentiellen Wachstum der Datenmenge, die durch das Netzwerk von und zur Cloud befördert wird. Da die Zunahme beim Datenverkehr die Kapazität der Infrastruktur übersteigt, stehen Netzwerkmanager unter dem Druck, intelligentere Methoden zur Verbesserung der Performance zu finden.

Netzwerke für Cloud-Rechenzentren werden mit vorhandenen Technologien erschaffen und waren bisher in der Lage, die Performance durch reinen Materialeinsatz zu verbessern – durch Hinzufügen von Hardware, wie z. B. Server, Switches, Prozessorkerne und Arbeitsspeicher. Diese Vorgehensweise ist jedoch kostenaufwendig und wird so auf Dauer so nicht weiterführen lassen. Sie treibt die Hardwarekosten sowie die Anforderungen an Räumlichkeiten, Kühlung und Stromversorgung in die Höhe und kann zudem das Problem der Netzwerklatenz nicht lösen. Mehr Intelligenz, in Form von intelligenteren Halbleiterchips, rationalisiert die Verarbeitung von Datenpaketen, die durch Mobilfunk- und Rechenzentrumsnetzwerke befördert werden. So können insbesondere Netzwerke der nächsten Generation die Bedeutung von Daten verstehen, diese dann modifizieren, priorisieren und auf eine Weise weiterleiten, die den Gesamtdatenverkehr reduziert und die zeitnahe Zustellung wichtiger digitaler Informationen (z. B. Echtzeit-Sprach- und Videodaten) beschleunigt.

Universalprozessor vs. Kommunikationsprozessor

Überall in Netzwerkinfrastrukturen kommen Universalprozessoren zum Einsatz, die zunehmend über mehrere Kerne verfügen. Diese Prozessoren werden für Switches und Router, Firewalls und Lastverteiler (load-balancer), WAN-Beschleuniger und VPN-Gateways verwendet. Keines dieser Systeme ist jedoch schnell genug, um für sich genommen mit der Datenflut zurechtzukommen. Der Grund dafür ist einfach: Universalprozessoren sind auf rechenzentrische Arbeitslasten der Serverklasse ausgelegt und nicht für die Handhabung der netzwerkzentrischen Arbeitslasten der Infrastrukturen von heute und der nächsten Generation optimiert. Intelligente Halbleiter können jedoch den Durchsatz für Echtzeitarbeitslasten, wie z. B. Hochleistungspaketverarbeitung, beschleunigen und gleichzeitig die deterministische Performance bei sich ändernden Traffic-Anforderungen gewährleisten.

Ein Universalprozessor enthält die Hardware zur Bewältigung grundlegender mathematischer und logischer Funktionen. Er kann jede Rechenaufgabe ausführen, wenn genügend Zeit da ist, alle nötigen Grundoperationen durchzuführen. Ein Kommunikationsprozessor ist auf Paketverarbeitung spezialisiert. Er führt Verschlüsselung oder Klassifizierung von Datenpaketen mit nur wenigen Befehlen aus. Kommunikationsprozessoren besitzen besondere Beschleunigungseinheiten, mit denen sie Netzwerkaufgaben viel schneller und effizienter als ein Universalprozessor durchführen.

Intelligente Halbleiter verfügen normalerweise über mehrere Universalprozessorkerne, ergänzt um Beschleunigungseinheiten für häufige Netzwerkfunktionen. Einige dieser Beschleunigungs-Engines sind leistungsstark genug, um die speziellen Paketverarbeitungsaufgaben komplett vom Universalprozessor zu übernehmen. Dies ermöglicht die vollständige Durchführung von Switching, Routing und anderen Netzwerkfunktionen in Fast-Path-Beschleunigern, um die Netzwerkperformance drastisch zu verbessern. Die Auslagerung rechenintensiver Arbeitslasten auf Beschleunigunger, die für eine bestimmte Arbeitslast optimiert sind, kann zudem einen bedeutenden Performance-pro-Watt-Vorteil gegenüber reinen Universalprozessoren bringen.

Mittels intelligenter Halbleiterbausteine können sich Netzwerkgeräteanbieter Wettbewerbsvorteile durch Integration eigener Optimierungen verschaffen. So kann beispielsweise das geistige Eigentum eines Anbieters in Halbleitertechnologie integriert werden, um Vorteile gegenüber Universalprozessoren zu erreichen (z. B. für optimierte Basisbandverarbeitung, Deep-Packet-Inspection und Datenverkehrsmanagement). Dieser Grad der Integration erfordert eine enge Zusammenarbeit zwischen Netzwerkgeräte- und Halbleiterherstellern