High-Speed-Steckverbinder

100-Gbit/s-Ethernet auf Backplane-Systemen

22. Oktober 2014, 11:25 Uhr | Alfred Goldbacher

Mithilfe der Channel Operation Margin nach IEEE 802.3bj lässt sich der Übertragungskanal und die eingesetzten High-Speed-Steckverbinder neutral bewerten. Letztere liefert z.B. die Firma ERNI mit ihren ERmet-ZDHD-Steckverbindern, welche die Vorgaben für 100-Gbit/s-Ethernet auf Backplanes erfüllen.

Diesen Artikel anhören

Von Stefan Molitor ist Entwickler von High-Speed-Steckverbindern bei ERNI Production und Dr. Thomas Gneiting ist Geschäftsführer von AdMOS.

Der Trend in der Kommunikationstechnik hin zu immer größeren Datenmengen und einer dadurch erforderlichen höheren Bandbreite in den Vermittlungsknoten ist ungebrochen. Daher gibt es für die Ethernet-Datenübertragung mit 100 Gbit/s (GbE) hinreichenden Bedarf von Netzwerkbetreibern und Rechenzentren. Dermaßen hohe Bandbreiten sind unter anderem vonnöten für die Aggregation im Internet-Backbone der nächsten Generation, den Einsatz in Rechenzentren in Host-Bussen bzw. für Inter-Switch-Verbindungen und Cloud Computing (Speicherung).

Vor diesem Hintergrund ist der Norm­entwurf der „IEEE 802.3 100Gb/s Backplane and Copper Cable Study Group“ für einen Standard für Datenübertragungen von 100 Gbit/s auf Backplane-Systemen zu sehen. Für die wichtige Schnittstelle zwischen Backplane und Tochterkarten gibt es verschiedene Produktlösungen; so auch die ERmet-ZDHD-High-Speed-Steckverbinder von ERNI Electronics. Als Antwort auf den steigenden Bandbreitenbedarf wurde von der IEEE P802.3ba Task Force der Standard für Ethernet mit 40 Gbit/s und 100 Gbit/s entwickelt und 2010 verabschiedet. Dieser Standard beinhaltet die Physical-Layer-Spezifikationen für den Betrieb mit 40 Gbit/s über Backplanes und Kupferleitungen wie auch 100 Gbit/s über Kupferkabel und parallele 10-Gbit/s-Links. Die Anforderungen für jede Lane der elektrischen Schnittstelle basieren auf 10GBASE-KR. Allerdings enthält der Standard keine Spezifikation für 100-Gbit/s-Ethernet über die Backplane. Daher wurde 2011 die IEEE P802.3bj Task Force gebildet, um Backplane-Ethernet auf 100 Gbit/s (vier Lanes mit je 25 Gbit/s) zu erweitern. Mit mittlerweile verfügbaren, hoch integrierten PHY-ICs können 100-Gbit/s- Produkte gemäß der IEEE-802.3bj-Norm entwickelt werden, die 100GBASE-CR4/SR4/LR4 auf dem Front Panel und 100GBASE-KR4 auf der Backplane unterstützen.

Die neue Norm IEEE 802.3bj

Der IEEE-802.3bj-Standard für 100-Gbit/s-Ethernet über vier differenzielle Kupferleitungen bringt verschiedene neue Konzepte mit sich – beispielsweise eine umfassende Margen-Abschätzung für die Kanal-Performance oder eine obligatorische Vorwärtsfehlerkorrektur (FEC). So erlaubt die FEC etwa 5 dB an zusätzlichen Einfügungsverlusten, was die Reichweite erhöht. Außerdem wird die Koexistenz von zwei Standards mit derselben aggregierten Bitrate über die Backplane unterstützt, um verschiedene Märkte abzudecken: 100GBASE-KP4 für Multi-Level-Signaling (PAM4) und 100GBASE-KR4 für das herkömmliche PAM2 (NRZ).

Die IEEE-Norm 802.3bj befindet sich zur Zeit im Entwurfsstadium und ist neben speziellen Standards, z.B. für optische Übertragungssysteme, ein Teilaspekt der 100-GbE-Normen. Sie beschreibt das Verhalten von Signalen in Informationssystemen, z.B. in Vermittlungsrechnern, bei denen die 100-GbE-Signale auf Leiterplatten mit Kupferleitungen übertragen werden, die als Backplane-Systeme ausgeführt werden können. Im Standard wird das Verhalten eines Systems beschrieben, bei dem der 100-Gbit/s-Datenstrom eines Kanals zur Weiterverarbeitung durch einen Multiplexer auf vier parallele Kanäle mit je 25 Gbit/s aufgeteilt wird (Bild 1).

Systemaufbau gemäß der IEEE-Norm 802.3bj für 100-Gbit/s-Ethernet über vier differenzielle Kupferleitungen mit je 25 Gbit/s
Bild 1. Systemaufbau gemäß der IEEE-Norm 802.3bj für 100-Gbit/s-Ethernet über vier differenzielle Kupferleitungen mit je 25 Gbit/s.
© ERNI

Entscheidend hierfür ist eine weitere Miniaturisierung des kritischen Interface zwischen Stecker und Leiterplatte, was wiederum eine technologische Herausforderung für die Hersteller von Steckverbindern und Leiterplatten darstellt. Ein neuer Aspekt ist, dass die Eignung eines Übertragungskanales nicht mehr durch bestimmte Grenzwerte, sondern durch ein komplexes Berechnungsverfahren – der „Channel Operation Margin“ (COM) – definiert wird.

Channel Operation Margin zur ­Beurteilung des Kanals

Eine wesentliches Kriterium für die Task Force bestand darin, dass sowohl Übertragungskanäle mit Verlusten bis 35 dB bei 12,9 GHz als auch PAM4-Signale mit Kanalvorgaben von 33 dB bei 7 GHz unterstützt werden müssen. Angesichts der vielfältigen adressierten Applikationen lag die Herausforderung darin, dass die Anforderungen aus den verschiedenen Marktsegmenten unter einem oder zwei PAM2- bzw. PAM4-Designs vereint werden mussten. Die Antwort auf diese Herausforderung ist eine Performance-Abschätzung, die eine Abwägung zwischen Verlusten, Reflexionen und Nebensprechen sowie zwischen Kanalumsetzung und den Fähigkeiten der Chips bzw. Komponenten ermöglicht. Mit anderen Worten: Es ist eine Budget-Beurteilung erforderlich, die diese Abwägungen unterstützt.

Das COM-Verfahren zur Abschätzung wird für die Kanalspezifikation und Empfängertests genutzt. Damit ist ein Abgleich zwischen Kanälen mit hohen Verlusten und geringem Rauschen sowie Kanälen mit geringeren Verlusten möglich, die aber rauschbehafteter sind. Außerdem können mit Hilfe von COM die Einflüsse von Gehäusen und Steckverbindungen bewertet werden. Die Berechnung der Channel Operation Margin (COM) erlaubt eine neutrale Bewertung einer Übertragungsstrecke mit Sender, Empfänger und passivem Übertragungspfad. Die IEEE-802.3bj-Norm bezieht sich auf diese COM-Berechnung. Einfache Kriterien wie Reflexionsverluste (Return Loss, RL), Einfügungsverluste (Insertion Loss,IL), Nahnebensprechen (NEXT) oder auch zusammengesetzte Werte wie Insertion Loss Deviation (ILD) beschreiben nur den passiven Teil des Kanals und reichen nicht aus.                    

Prinzipielles Funktionsprinzip für die COM-Evaluierung.
Bild 2. Prinzipielles Funktionsprinzip für die COM-Evaluierung.
© ERNI

Selbst die Auswertung von Simulationen der Datenübertragung im Zeitbereich ist nicht immer aussagekräftig oder dauert unter Umständen sehr lange, wenn die Modelle der Treiber/Empfänger nur als klassische SPICE-Modelle (Simulation Program with Integrated Circuit Emphasis) und nicht z.B. als IBIS-AMI-Modelle (Input/Output Buffer Information Specification Algorithmic Modeling Interface) vorliegen. COM wurde u.a. von Anwendern bzw. Chip-Lieferanten entwickelt und versucht den Worst Case des passiven Kanals abzubilden.

Daher kann das COM-Verfahren als sehr konservative Abschätzung angesehen werden. Für die COM-Berechnung (Bild 2) werden vielfältige Eingangsparameter für den Sender/Empfänger (Spannungspegel, Modulation, Signalrate, TX Equalisation, Rauschen usw.) sowie für das IC-Gehäuse (parasitäre Effekte, Nebensprechen) und den passiven Übertragungskanal (4-Port-S-Parameterdaten für die Durchgangsrate und alle NEXT/FEXT-Aggressoren) herangezogen. Letztendlich gibt COM den verfügbaren Signal-Rausch-Abstand wieder. Die Kanal-Performance wird mit der Frame Loss Ratio (FLR) ausgedrückt.

 


  1. 100-Gbit/s-Ethernet auf Backplane-Systemen
  2. Spezielles Design, kleine Vias

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu ERNI Electronics GmbH

Weitere Artikel zu ERNi cable systems AG

Weitere Artikel zu Industrial Ethernet

Weitere Artikel zu Stecker, Steckverbinder

Weitere Artikel zu Feldbusse