Hochgeschwindigkeits-Steckverbinder Wieviel Daten lassen sich durch Kupfer pressen?

Extrem hohe Datenübertragungsraten per Kupferleitung übertragen zu können, ist eine Forderung, die Hersteller der Datentechnik parallel zu den Lichtwellenleitern wegen der Kosten vorantreiben. Verbindungen mit 25 Gbit/s über Kupferleitungen sind bereits in greifbare Nähe rückt. Ob man darüber hinaus noch höhere Datenraten in Kupfer übertragen kann, ist fraglich.

Wer sich als Elektronik-Entwickler 15 Jahre zurückerinnert, weiß vielleicht noch, dass in der Telekommunikation 622 Mbit/s (STM-4 in Europa bzw. OC-12 in USA) der Standard für die Datenübertragung war. Hier konnten die Signale nicht mehr über verdrillte Leitungen gesendet werden; vielmehr mussten „Twinax-Leitungen“ verwendet werden. Damals gab es weltweit zwei Unternehmen, die solche Leitungen herstellten.

Seitdem hat sich die Welt verändert: Während in der Telekommunikation höhere Datenraten über längere Distanzen per Lichtwellenleiter übertragen wurden, überlegte die „Datenwelt“, wie sich auf Twinax-Leitungen immer höhere Datenraten über vergleichsweise kurze Distanzen übertragen ließen. Dies gelingt auf zwei Wegen:

1:) Durch höhere Bitraten in serieller Übertragungstechnik. Darüber hinaus kann die Bandbreite durch Anhebung der höheren Frequenzen beim Sender und durch die Verwendung von Equalizern beim Empfänger noch verbessert werden. Parallel dazu wurden die Twinax-Leitungen weiterentwickelt, indem man deren Resonanzpunkte in den Bereich von 15 bis 20 GHz verschob (Bild 1).

2:) Durch die Verwendung von parallel-seriellen Datenströmen, die die üblichen Datenübertragungsraten von 1,25 Gbit/s, 2,5 Gbit/s, 5 Gbit/s oder 10 Gbit/s nutzten, um durch Parallelschalten von vier, acht oder 16 derartigen Datenströmen Bandbreiten bis 160 Gbit/s zu erreichen. Um Bitversatz durch unterschiedliche Laufzeiten in den einzelnen Adern zu erkennen, sind durch Einschleusen von Kontrollbits in die Daten so genannte 8b/10b-, 64b/66b- oder 128b/130b-Codierungen entwickelt worden, die heute etwa bei PCI-Express-Chips bereits integriert sind. Der dafür erforderliche zusätzliche Overhead sorgt zugleich dafür, dass bei unterschiedlichen Laufzeiten auf den Leitungen eine Zuordnung der parallel gesendeten Daten beim Empfänger noch möglich ist.

Die praktische Umsetzung dieser Lösungswege führte in der Datenwelt  zu verschiedenen, teilweise konkurrierenden Entwicklungen:

  • Die von den Speichermedien-Herstellern entwickelten Standards SATA (Serial Advanced Technology Attachment) und SAS (Serial Attached SCSI) reduzieren die Anzahl der Leitungen (gegenüber den alten PATA- und SCSI-Standards) und den Schaltungsaufwand, weil die Seriell/Parallel-Wandlung im Controller und die Parallel/Seriell-Wandlung im peripheren Laufwerk entfallen. Die SATA-Geschwindigkeiten (nur jeweils eine Leitung TX und RX seriell) liegen bei 1,5 Gbit/s (SATA), 3 Gbit/s (SATA Rev. 2.0) bzw. 6 Gbit/s (SATA Rev. 3.0). Überdies ist SATA rückwärtskompatibel. Das heißt, es lassen sich auch langsamere Laufwerke an schnelle Controller anschließen. Ähnliches gilt für die Datenübertragungsraten bei SAS, wobei hier ausgehend von jeweils einer Leitung TX und RX die seriellen Durchsatzraten bei 3 Gbit/s (SAS 1.0) und 6 Gbit/s (SAS 2.0) liegen. Ein als SAS-3.0-Version definierter Standard mit 12 Gbit/s wird voraussichtlich 2013 verabschiedet werden, doch diese Datenübertragungsrate ist nur für SSDs (Solid State Drives) geeignet.
  • Hinter dem parallel-seriellen PCI-Express-Standard (PCIe) für Server wiederum steht der Halbleiterhersteller Intel. PCIe arbeitet mit Übertragungsraten von 2,5 (PCIe 1.0) und 5 Gbit/s (PCIe 2.0) auf vier, acht oder 16 parallelen Leitungen in 8b/10b-Codierung. Ein als „Rev. 3.0 V1.0“ definierter Standard wird derzeit (Stand: November 2010) mit der 128b/130b-Codierung auf 8 Gbit/s „aufgebohrt“. PCIe 1.0, 2.0 und 3.0 sind allerdings nicht rückwärtskompatibel.
  • Das OIF (Optical Internetworking Forum) hat den Infiniband-Standard entwickelt, der 2005 mit der Double Data Rate (DDR = 5 Gbit/s seriell/parallel) über vier, acht und zwölf Kanäle begann, zwischenzeitlich bei der Quadruple Data Rate (QDR = 10 Gbit/s) angelangt ist und vermutlich 2013 die Extended Data Rate (EDR mit 20 Gbit/s) anstrebt. Weil hierfür Chips noch nicht verfügbar sind, wurde eine FDR (Fourteen Gbit/s Data Rate) dazwischengeschoben und kürzlich verabschiedet. Mit  den 12 × 10 Gbit/s werden schließlich 100 Gbit/s erreicht: ein Meilenstein, den auch die Normungsmitglieder der IEEE 802.3 anstreben.
  • Die Entwicklung des Ethernet-Standards verlief von 10/100Base-T, Gigabit Ethernet und 10GbE in Zehnerpotenzen. Im nächsten Schritt sollen 100GbE erreicht werden. Hier mangelt es noch an Chips, daher wurde vor zwei Jahren ein Zwischenschritt mit 40 Gbit/s Bandbreite mit vier parallelen 10-Gbit/s-Kanälen eingeführt. Um 100 Gbit/s per Ethernet übertragen zu können, sollen dann Daten auf vier Kanälen mit je 25 Gbit/s seriell/parallel übertragen werden. Eine Standard-Datenübertragungsrate 25 Gbit/s steht also ebenfalls im Fokus.

Alle diese Datenübertragungsraten sind natürlich mit Lichtwellenleitern längst realisiert. Allerdings will man in den Datenzentren Energie einsparen und strebt deshalb für Entfernungen bis 10 m Kupferleitungen an, die zwar mehr Volumen auf den Kabelpritschen beanspruchen, aber, was Energiebedarf und Zuverlässigkeit (MTBF) betrifft, günstiger sind. Bis jetzt wurden über Kupferleitungen 10 Gbit/s bis 10 m Entfernung realisiert, doch mit Hilfe von Equalizern lassen sich durchaus auch 20 m überwinden.