Das Heinrich-Hertz-Institut hat kürzlich einen Rekord bei der Datenübertragung über Lichtwellenleiter aufgestellt, weit jenseits der 100 Gigabit/s, die den Spitzenwert in der industriellen Anwendung darstellen. Welche Bedeutung haben solche Rekorde für die Industrie?
Für 100 Gbit/s werden zur Zeit Komponenten entwickelt. Die nächsten Schritte sind dann, diese in Übertragungssysteme zu designen, in begrenzten Feldversuchen zu erproben und sie danach in die Netze einzuführen. Der Rekord waren 2,56 Tbit/s über eine einzige Wellenlänge. Bei solchen Versuchen geht es immer darum, die Grenzen auszuloten, Probleme zu erkennen und über Lösungen dafür nachzudenken. Die Erkenntnisse fließen in sogenannte Technologie-Roadmaps ein. Aus einer guten Roadmap erkennt man, in welchen Teilbereichen noch Forschungsarbeit geleistet werden muss. Die Industrie erkennt daraus, in welchem Zeitraum voraussichtlich welche Technologie zu Verfügung steht und kann sich in ihren Entwicklungen darauf einstellen.
Professor Anton Zeilinger von der Universität Wien hatte in seinem Hauptvortrag über die Anwendungen der Quantentheorie in der Kommunikationstechnik die Leistungsfähigkeit der darauf beruhenden Verfahren vorgestellt. Ist das alles noch Zukunftsmusik oder steht z.B. die Quantenkryptographie bereits an der Schwelle zur technischen Anwendung?
Ich habe den Eindruck, dass sich immer mehr Forscher und Entwickler mit diesem Gebiet beschäftigen. Auf der ECOC gab es erstmalig einen sehr gut besuchten Workshop zu diesem Thema. Wie ja meistens in der Technik werden neue Entwicklungen zunächst in Marktnischen eingesetzt. Nach weiterem Durchlaufen der Lern- und Kostenkurve findet dann ein breiterer Einsatz statt. Mein Eindruck war, dass man sich gegenwärtig am Beginn der Lernkurve befindet. Firmen beteiligen sich an Versuchen, entwickeln erste Geräte.
Was die Übertragungskapazität in den Transportnetzen betrifft, so gibt es eine dem Mooreschen Gesetz vergleichbare Regel, nach der sich die Kapazität alle zwei Jahre verdoppelt. Wenn das so bliebe, dann hieße das, dass in etwa dreizehn Jahren hundert Mal mehr Daten transportiert werden müssten als heute. Setzen hier die durch Technik und Wirtschaft gesetzten Rahmenbedingungen einer solchen Entwicklung nicht Grenzen?
Ich glaube, wir befinden uns hier erst am Anfang der Entwicklung. Im Grunde geht es dabei um breitbandige Netzanschlüsse und da haben noch längst nicht alle Menschen einen Breitbandanschluss. Denken Sie an die Unterversorgung der ländlichen Gebiete, an China und Indien sowie an die Entwicklungsländer. Dabei sollte man nicht nur die Datenmenge, sondern auch die Geschwindigkeit bzw. Zeit, mit der ich Informationen senden und empfangen kann, im Auge haben. Wenn ich von meinem Heimarbeitsplatz eine große Datei, z.B. die Diplomarbeit eines Studenten, an die Universität senden möchte, dann wäre es schon wünschenswert, wenn dies nur eine Minute meinen Rechner beansprucht und nicht eine halbe Stunde.
Meinen Studenten versuche ich das stets so zu erklären: Beim Bau einer Wasserleitung im Haus kommt niemand auf die Idee, diese nach dem durchschnittlichen täglichen Wasserverbrauch zu dimensionieren. Dann käme man nämlich mit einem dünnen Röhrchen aus, aus dem den ganzen Tag über Wasser tropft. Sie möchten vielmehr einmal am Tag duschen und erwarten dann, dass aus der Wasserleitung kurze Zeit sehr viel Wasser kommt. Die Dimensionierung richtet sich also nach Informationsmenge pro Zeiteinheit und nicht nach Durchschnittswerten. Wir rechnen längerfristig mit 1Gbit/s für jeden Teilnehmer, was bei FTTH (Fiber To The Home) kein grundsätzliches Problem darstellen sollte.