Die nächste Generation der Datenübertragung mit 448 Gbit/s markiert einen Wendepunkt in der Entwicklung moderner Dateninfrastrukturen. Die Technologie eröffnet viele Chancen, erfordert jedoch weitreichende Optimierungen über das gesamte System hinweg.
Obwohl Datenübertragungsraten von 448 Gbit/s noch in der Zukunft liegen, arbeitet die Industrie intensiv an ihrer Umsetzung. Um 448G skalierbar und energieeffizient zu realisieren, können Entwickler auf Erfahrungen mit der Einführung von 224G aufbauen. Im Mittelpunkt steht dabei, Signalverluste zu minimieren und steigende Anforderungen an Stromverbrauch und Wärmeentwicklung zu beherrschen. Und je früher das gelingt, desto besser.
Da die Zahl an Modellen mit künstlicher Intelligenz und Systemen des maschinellen Lernens exponentiell steigt, wächst der Druck auf die Dateninfrastruktur, mehr Daten schneller und effizienter zu verwalten. Jetzt ist der richtige Zeitpunkt, sowohl Industriestandards als auch die infrastrukturellen Grundlagen für 448G zu entwickeln – bevor die Technologie in ersten Anwendungen unverzichtbar wird und sich anschließend in immer mehr Bereichen etabliert. Mit zunehmender Datenübertragungsgeschwindigkeit wachsen die technischen Herausforderungen, um die Signalintegrität aufrecht zu erhalten sowie das Wärmemanagement und die Skalierbarkeit zu bewältigen.
Signalintegrität
Bei höheren Geschwindigkeiten treten größere Einfügungsdämpfung, stärkeres Übersprechen und erhöhtes Rauschen in den Vordergrund, was die Leistungsfähigkeit beeinträchtigt und die Datenübertragung stört. Um dieses Problem zu lösen, setzt Molex an mehreren Stellen an. Die Entwicklungsaktivitäten zielen im Moment darauf ab, Abschirmtechniken weiter zu optimieren, Abschirmmaterialien zu erproben, die Signalaufbereitung zu verfeinern und Kanalarchitekturen zu verbessern.
Wärmemanagement
Konventionelle Luftkühlung stößt bei Datenübertragungsraten von 448G schnell an ihre Grenzen und kann die entstehende Verlustwärme nicht mehr effektiv abführen. Daher sind neue Konzepte für das Wärmemanagement erforderlich. Zwei Ansätze, die diese Anforderungen meistern können, sind Flüssigkeitskühlung und hybride Kühlsysteme. Sie haben sich als wirksam erwiesen, um Wärme effizient abzuleiten und die Gesamtleistung des Systems zu stabilisieren. Zugleich ermöglichen sie kompaktere, dichtere Konfigurationen und tragen damit zur optimalen Raumausnutzung in Hochgeschwindigkeitsrechenzentren bei.
Die Anpassungsfähigkeit ist ein Schlüsselfaktor für die Umsetzung von 448G. Rechenzentren werden künftig kompakte, platzsparende Hochleistungssteckverbinder benötigen, die sich nahtlos in bestehende Systeme integrieren und flexibel skalierbar sind. Ebenso entscheidend ist ein umfassendes Verständnis der gesamten Signalkette – von der Anwendung bis zum Übertragungskanal. Nur so lässt sich erkennen, wo Kanalunterbrechungen entstehen, wie sich die Einfügedämpfung auf die Signalintegrität auswirkt und welche thermischen Anforderungen Systemanpassungen erforderlich machen. Dazu gehört beispielsweise die Erforschung von Co-packaged Optics, um Energieverluste über Verbindungen und Substrate hinweg zu minimieren und den Datendurchsatz zu maximieren.
Um 448G umzusetzen, kommt es außer auf die Hardware auch auf die Auswahl der richtigen Modulationsschemata an. Der heutige Standard für die schnelle Datenübertragung, PAM-4 (vierstufige Pulsamplitudenmodulation), muss höheren Formaten wie PAM-6, PAM-8 oder PAM-16 weichen, die erforderlich sind, um den steigenden Bandbreitenanforderungen gerecht zu werden. Diese Formate können zwar höhere Datenraten bewältigen, bringen jedoch eine hohe Komplexität mit sich, zum Beispiel aufgrund von höherem Stromverbrauch, eines höheren Fehlerpotenzials und einer erhöhten Störempfindlichkeit. PAM-8 und PAM-16 reduzieren zwar konkret die Anforderungen an die Nyquist-Frequenz, was eine bessere Leistungsfähigkeit in bandbreitenbeschränkten Kanälen ermöglicht; diese Techniken erfordern jedoch fortschrittliche Systeme für Fehlerkorrektur und Störsignal-Management, um die Zuverlässigkeit in großem Maßstab aufrechtzuerhalten.
Um diese Herausforderungen zu meistern, werden Fehlerkorrekturprotokolle und Power-Management-Techniken weiterentwickelt. So experimentieren Entwickler mit differenzieller Signalübertragung und neuen Codierungsstrategien, um die Signalintegrität zu gewährleisten und die Energieeffizienz zu optimieren.
Zu bedenken ist, dass die Einführung von 448G direkten Einfluss auf die Entwicklung und Infrastruktur von Rechenzentren haben wird – und zu einer neuen Gestaltung dieser führen wird. Bestehende Architekturen und Infrastrukturen müssen weiterentwickelt werden, um höhere Dichten, mehr Wärmeabgabe und einen gestiegenen Energiebedarf zu bewältigen.
Flüssigkeitskühlung und platzsparende Layoutstrategien werden eine entscheidende Rolle dabei spielen, um die neuen Anforderungen zu erfüllen. Gleichzeitig könnten Hybridtechnologien wie Co-packaged Optics, die optische Module näher an die Verarbeitungseinheiten rücken, den Weg zu effizienteren Hochgeschwindigkeitsarchitekturen ebnen. Auch innovative Substratdesigns und neue dielektrische Materialien werden erforscht, um die Leistungsfähigkeit zu steigern und den steigenden Bandbreitenanforderungen von morgen gerecht zu werden.
Während KI und ML zunächst die treibenden Kräfte für eine schnellere Datenanbindung sind, werden sich die Vorteile von 448G auf viele Anwendungen in verschiedenen Branchen ausweiten.
Die Umstellung auf 448G wird mehr als nur eine Steigerung der Geschwindigkeit und Leistungsfähigkeit mit sich bringen: Sie wird die Art und Weise verändern, wie Daten branchenübergreifend übertragen, verarbeitet und genutzt werden. Auch wenn 448G derzeit nur ein Konzept ist und die Einführung noch in der Zukunft liegt, wird die Technik notwendig sein, um den Anforderungen der datengesteuerten Welt von morgen gerecht zu werden.
Von der Infrastruktur und Modulation bis hin zur Kühlung und Skalierbarkeit muss jedes Element optimiert werden. Molex spielte bereits bei der Entwicklung von 224G-Systemen eine zentrale Rolle. Das dabei erworbene Know-how bildet nun die Grundlage für den Sprung zu 448G. Angesichts des rasant wachsenden Bedarfs an leistungsfähiger Datenanbindung sind Kooperationen entscheidend, um die neuen Technologien zu gestalten. In diesem Zusammenhang ist die Zusammenarbeit mit Organisationen wie dem Open Compute Project (OCP), dem Institute of Electrical and Electronics Engineers (IEEE) und dem Optical Internetworking Forum (OIF) von zentraler Bedeutung für die erfolgreiche Umsetzung von 448G.