Größere Datenmengen bedeutet für die großen Vermittlungsstellen, dass immer mehr Geräte und Einrichtungen betrieben werden müssen. Gibt es denn technische Möglichkeiten, den Platz- und Energiebedarf der optischen Übertragungsmodule so weit zu reduzieren, dass die Vermittlungsstellen, die »Central Offices« so wie bisher betrieben werden können?
Prinzipiell gilt für die Dimensionen »Platz« und »Energie« dasselbe wie für die Dimension »Preis«: Pro Informationsbit müssen all diese Parameter stets kleiner werden, um wirtschaftlich Sinn zu machen. Denn würden sie das nicht, wäre es stets besser, zehn Systeme mit 10-Gigabit-Ethernet parallel aufzubauen anstatt einem einzigen 100-Gigabit-Ethernet-System. Allerdings ist nicht damit zu rechnen dass die Gesamtkosten, der gesamte Energiebedarf oder der gesamte Platzbedarf der Boxen absolut gesehen immer kleiner wird, da es sich ja auch um wesentlich größere Datenmengen handelt. Wichtige Randbedingungen sind hier sicher Größe und Energieversorgung einschließlich der Kühlung der bestehenden »Central Offices«, die man natürlich, so lange es irgendwie möglich ist, ausnutzen wollen wird. Dies wird bei älteren Vermittlungsstellen aber vermutlich, über einen längeren Zeitraum gesehen, nicht möglich sein.
Einer der großen Kostenfaktoren bei der Ausrüstung eines optischen Übertragungsnetzes stellen die elektrooptischen Umsetzer dar. Bestehen hier Möglichkeiten, deren Funktionen - die Wiederaufbereitung des Signals oder auch das Routing von Datenpaketen - durch ausschließlich optisch arbeitende Module zu erreichen?
Es ist richtig, dass die opto-elektronische Wandlung ein grosser Kostenfaktor in den optischen Transportnetzen ist. Auf dem Gebiet der »all optical regeneration«, der rein optischen Aufbereitung von Digitalsignalen, wird deshalb vor allem in der akademischen Landschaft seit Jahrzehnten stark geforscht. Bislang hat sich hier jedoch keine rein optische Möglichkeit gefunden, die der Elektronik bei gleicher Funktion auch nur annähernd das Wasser reichen könnte. Immer dort, wo logische Manipulation von Bits nötig ist - also eine algorithmische Verarbeitung jedweder Art - ist die Konversion in die Elektronik und wieder zurück in die Optik zu bevorzugen. Signale können dann effizient optisch bleiben und den Umweg über die Elektronik vermeiden wenn es darum geht, ganze Kanäle zu schalten, etwa über mikrooptische Spiegelbausteine.
Als eine der wesentlichen Anforderungen an die Neuentwicklungen in der optischen Nachrichtenübertragung wird immer wieder die »Skalierbarkeit« genannt. Können Sie bitte kurz erläutern, was die Branche darunter genau versteht und welche technischen Konsequenzen daraus gezogen werden sollten?
Die Systeme der optischen Nachrichtenübertragung nutzen derzeit das Verfahren des Wavelength Division Multiplexing (WDM) mit dem Ziel, für eine Glasfaser möglichst viel Gesamtkapazität zu erhalten. Das Problem dabei ist, dass man mehr WDM-Kanäle ausbauen muss, um mehr Kapazität zu erhalten. Das geht natürlich nur innerhalb der Bandbreite der optischen Verstärker. Ist die maximale Bandbreite erreicht, und es sollen mehr Kanäle übertragen werden, dann müssen die Kanäle enger zusammenrücken. Das Fachausdruck hierfür lautet »spektrale Effizienz«.
Bis zum Jahr 2002 war die spektrale Effizienz begrenzt durch die zur Verfügung stehenden Bauelemente. Es ließen sich nicht so stabile Laser und Filter bauen, wie das erforderlich gewesen wäre. Insbesondere bei den Lasern sind die Emissionswellenlängen vergleichsweise stark hin und her gewandert, und das hat die spektrale Effizienz beschränkt. Heute stehen sehr stabile Laser und Filter zur Verfügung, es verhält sich wie bei »Wireless« oder »DSL« auch - heute beschränkt eigentlich die fundamentale Modulationsbandbreite die spektrale Effizienz des Übertragungssystems. Mit den stabilen Lasern lassen sich heute mehrstufige Modulationsverfahren wie QAM (Quadratur-Amplituden-Modulation) nutzen, zusätzlich kann mit Polarisations-Multiplex ein weiterer Faktor 2 herausgeholt werden. Dabei werden für jede Wellenlänge die beiden Polarisationen x und y für die Übertragung jeweils eines Kanals genutzt.
Unter Skalierbarkeit versteht man also, dass man mit den neuen technischen Möglichkeiten die bestehende Glasfaser-Infrastruktur einfach besser ausnutzen kann. Das aber ist ein recht gravierender Einschnitt. Bis vor zehn Jahren hat man damit gerechnet, dass man die Glasfaser praktisch bis ins Unendliche nutzen kann, aber heute ist das bei weitem nicht so.
Technisch gesehen gibt es nämlich auf der Glasfaser, wie auf jedem digitalen Kanal, eine obere Grenze der Informationsübertragung, die man als »Shannon Limit« bezeichnet. Diese Grenze ist auf der Glasfaser allerdings stark kanalspezifisch, aufgrund der Nichtlinearität der Faser wesentlich stärker als etwa im Mobilfunk. Wir nähern uns heute in der Forschung bereits dramatisch - bis auf einen Faktor 3 - der Shannon-Grenze auf der klassischen Glasfaser. Es ist daher zu erwarten dass in nicht allzu ferner Zukunft neuartige Fasern entwickelt werden müssen, deren Shannon-Grenzen wesentlich höher liegen und die damit mehr Information transportieren können. Das ist eine absolut spannende und revolutionäre Herausforderung der derzeitigen Forschung in der Glasfaser-Kommunikation. Wir wissen heute noch nicht genau wie diese Lösung aussehen wird, aber wir sind zuversichtlich, eine Lösung zu finden.