Milliardenschwere Investitionen treiben den Ausbau von KI-Rechenzentren und erhöhen die Anforderungen an Stromversorgung, Highspeed-Schnittstellen und Sicherheit. Wie sich der Markt entwickelt und welche Rolle Messtechnik spielt, erläutert Dr. Philipp Weigell von Rohde & Schwarz im Interview.
Markt&Technik: Die Investitionen in KI-Rechenzentren erreichen historische Größenordnungen. Wie erleben Sie den Markt aktuell?
Dr. Philipp Weigell, Vice President Market Segment Industry, Components, Research & Universities von Rohde & Schwarz: Wir sehen eine außergewöhnliche Dynamik. Microsoft, Amazon, Alphabet und Meta investierten 2025 zusammen rund 400 Milliarden Dollar in KI-Infrastruktur. Meta spricht von bis zu 72 Milliarden Dollar, Google von 91 bis 93 Milliarden, Amazon von über 125 Milliarden. Natürlich wird diskutiert, ob diese Summen dauerhaft tragfähig sind. Entscheidend ist jedoch: Selbst wenn nur ein Teil realisiert wird, entstehen gigantische Rechenzentren mit völlig neuen Anforderungen.
Wo liegen die zentralen Herausforderungen?
Im Wesentlichen sind es drei Bereiche. Erstens: die Konnektivität. Wie transportieren wir massive Datenmengen zwischen Chips, über Leiterplatten und Kabel, von Rack zu Rack und über Kontinente hinweg? Das verlangt neueste PCIe- und Ethernet-Standards und höchste Signalqualität. Zweitens: die Stromversorgung. Gigawatt-Leistung muss effizient auf Kilowatt- und schließlich auf einzelne Lastpunkte heruntertransformiert werden – mit minimalem Ripple und maximaler Effizienz. Und drittens: die Sicherung des Rechenzentrums: Wie schützen wir die hochsensiblen KI-Modelle und Daten – physisch und digital? Diese Themen betreffen übergreifend unterschiedliche Akteure – vom Chipdesigner über den Komponentenhersteller bis hin zum Systemintegrator. Unsere Stärke ist es, Lösungen für alle Dimensionen anbieten zu können.
Bleiben wir zunächst bei der Stromversorgung. Welche Architektur-Entwicklungen sehen Sie?
Die Stromversorgungsarchitektur ist entscheidend für die Effizienz moderner KI-Rechenzentren. Derzeit ist die 48-V-DC-Architektur Standard in Hyperscale-Umgebungen. Die Vorteile: relativ sichere Spannungen, SELV-kompatibel, klassische Messtechnik funktioniert. Der Nachteil: Hohe Leistungen erfordern massive Ströme – 200 bis 300 Ampere pro Versorgungspunkt sind keine Seltenheit. Das führt zu dicken Kabeln, hohen Widerstandsverlusten und Spannungsabfällen. Der nächste Schritt ist die ±400V-DC-Architektur. Höhere Spannungen reduzieren die Ströme – und damit Verluste und Wärme. Allerdings bewegen wir uns hier außerhalb des SELV-Bereichs. Das bedeutet neue Sicherheitsanforderungen, beispielsweise CAT-III-1000-V-Zertifizierungen für Messgeräte. Gleichzeitig setzen sich Wide-Bandgap-Bauelemente wie SiC und GaN durch. Sie steigern die Effizienz, erzeugen aber extrem schnelle Schaltflanken im Subnanosekundenbereich. Diese führen zu massiven Gleichtaktstörungen, mit denen konventionelle Messköpfe nicht zurechtkommen.
Wie begegnen Sie diesen Effekten?
Unter anderem mit isolierten Messlösungen wie unseren isolierten Tastköpfen R&S RT-ZISO. Sie erlauben präzise differentielle Messungen bis ±3000 Volt bei Referenzspannungen bis ±60 Kilovolt – mit mehr als 90 dB Gleichtaktunterdrückung selbst bei 1 GHz. Das ist essenziell, um beispielsweise Miller-Plateau-Effekte bei High-Side-Gate-Messungen präzise zu erfassen. Zudem haben wir 2025 ZES Zimmer Electronic Systems übernommen – einen Spezialisten für hochpräzise Leistungsmessung. Damit ergänzen wir unsere Oszilloskope für schnelle Transienten um Power-Analyzer für Wirkungsgrad-, Oberschwingungs- und Konformitätsmessungen. Strategisch ist das ein wichtiger Schritt im Power-Measurement-Bereich.
Auf Server-Ebene steigen die Leistungen weiter. Eine NVIDIA-B200-GPU beispielsweise benötigt über 1 kW. Wie misst man solche Szenarien?
Hier finden entscheidende Entwicklungen statt. Ein System mit acht B200-GPUs benötigt 7 Kilowatt – in der Spitze bis zu 14 kW. Die Spitzenströme liegen über 1000 Ampere. Moderne Server arbeiten mit Multi-Phase-Buck-Convertern mit 10, 15 oder 20 parallelen Phasen, um Ripple zu minimieren und die Last zu verteilen. Diese Phasen gleichzeitig zu erfassen, war lange eine Herausforderung.
Und heute?
Mit unserem MXO-5-Oszilloskop in Kombination mit den kompakten Rack-Oszilloskopen MXO 5C können Entwickler bis zu 24 hochauflösende Kanäle parallel messen – ideal für Multi-Phase-Buck-Converter mit zehn bis 20 Phasen in modernen GPU-Stromversorgungen. Jeder Kanal bietet 12 Bit Auflösung, 5 Gigasamples pro Sekunde und 500 Megapoint Speichertiefe. So lassen sich auch lange transiente Ereignisse wie dynamische Lastsprünge analysieren. Das ermöglicht eine vollständige Charakterisierung moderner Server-Stromversorgungen.
Stichwort Signalintegrität: PCIe Gen6 arbeitet mit 64 GT/s und PAM4. Was bedeutet das für die Messtechnik?
PAM4 nutzt vier Spannungspegel statt zwei. Das erhöht die nutzbare Bandbreite, macht das System aber deutlich empfindlicher gegenüber Rauschen, Übersprechen und Jitter. Perspektivisch sprechen wir bei Gen7 von 128 GT/s. Für Leiterplatten, Kabel und Steckverbinder setzen wir Netzwerkanalysatoren mit bis zu 54 GHz ein. Sie ermöglichen die präzise Messung der S-Parameter und die Bewertung von Insertion Loss, Return Loss und Crosstalk gemäß PCIe-Spezifikation. Für Chip-Level-Tests nutzen wir Geräte mit bis zu 67 GHz Bandbreite. Mithilfe von De-Embedding ermitteln wir die S-Parameter des Messpfads und entfernen sie numerisch aus dem Ergebnis. So lässt sich die tatsächliche Performance des Chips validieren.
Sie haben Jitter angesprochen. Warum ist das so kritisch?
Weil das Timing entscheidend ist. PLL- und CDR-Schaltungen erzeugen den Bit-Takt für SerDes-Links. Mit steigenden Datenraten schrumpft das Phasenrausch- und Jitter-Budget. Ein System, das bei Gen4 stabil war, kann bei Gen6 oder Gen7 versagen, wenn die Taktqualität nicht ausreicht. Mit unserem Phase Noise Analyzer R&S FSWP führen wir hochsensitive Phasenrauschmessungen durch. Unsere Signalgeneratoren R&S SMA100B und SMB100B liefern extrem spektralreine Testsignale. Das ist essenziell für die Validierung von Taktverteilungsnetzwerken und Spread-Spectrum-Clocking-Konzepten.
Es wird viel über eine mögliche KI-Blase diskutiert. Wie schätzen Sie das ein?
Es gibt durchaus berechtigte Fragen. Die Kapitalausgaben könnten die Abschreibungen übersteigen – das ist langfristig nicht nachhaltig. Trotzdem bin ich positiv gestimmt. Die Infrastruktur wird gebaut, und sowohl bei der Entwicklung als auch der Validierung wird unsere Messtechnik benötigt. Selbst bei einer Konsolidierung bleiben die technischen Herausforderungen bestehen – Effizienz, Power Integrity und Signalintegrität werden eher noch wichtiger. Zudem entstehen aus solchen Investitionsphasen neue Innovationsfelder. Unsere Tochtergesellschaft Zurich Instruments arbeitet etwa mit IQM und NVIDIA am Thema Quantum Error Correction. Auch Anwendungen wie der digitale Herzmuskel von MyoTwin zeigen: Neue Rechenzentren schaffen Spin-offs, die wiederum Rechenleistung benötigen – und damit Messtechnik.
Am Thema Nachhaltigkeit kommen wir nicht vorbei. Welchen Beitrag kann Messtechnik hier leisten?
Einen ganz unmittelbaren. KI-Rechenzentren verbrauchten 2025 zwischen 20 und 50 Terawattstunden Strom – das sind rund zehn Prozent des globalen Datacenter-Verbrauchs. Präzise Effizienzmessungen in der Entwicklungsphase ermöglichen Optimierungen, die über die Lebensdauer erhebliche Einsparungen bringen. Denn jedes Prozent Effizienzgewinn bei einem Megawatt-Rechenzentrum ist relevant. Unsere Power-Analyzer messen nicht nur Wirkungsgrad, sondern auch die Konformität mit Normen wie IEC 61000-3-2. Das verhindert EMV-Probleme und erhöht die Zuverlässigkeit. Schnellere, präzisere Messungen verkürzen zudem Entwicklungszyklen – das wiederum spart Zeit, Material und Energie.
Und wie sieht es beim Thema Sicherheit aus?
Sicherheit umfasst heute weit mehr als nur Cybersecurity. Neben klassischer IT-Sicherheit spielen physische Sicherheit und Zutrittskontrolle eine wachsende Rolle. Unser Portfolio umfasst spezialisierte Lösungen für Personenscreening mit Mikrowellen-Bildgebung – um beispielsweise versteckte Gegenstände wie USB-Sticks und andere Datenträger zu erkennen und Insider-Bedrohungen zu verhindern. Auch das Thema Zoning und Abschirmungseffektivität nach IEEE 299 ist kritisch: Rechenzentren implementieren zunehmend abgeschirmte Bereiche, um Abhören zu verhindern. Mit unseren Spektrumanalysatoren und Signalgeneratoren können wir die elektromagnetische Dämpfung dieser Abschirmungen charakterisieren – das stellt sicher, dass sensitive Daten und KI-Modelle geschützt sind. Zero-Trust-Security erfordert Deep Packet Inspection und kontinuierliches Netzwerk-Monitoring. Mit unseren IT-Sicherheitslösungen lassen sich Anomalien in Echtzeit erkennen. Dies ist die Konvergenz von Messtechnik und IT-Sicherheit.
Werfen wir noch einen Blick voraus. Welche Trends werden die Messtechnik in den kommenden fünf Jahren prägen?
Auch hier sehe ich drei wesentliche Trends. Erstens: KI-gestützte Messtechnik. Instrumente werden intelligenter, erkennen Anomalien automatisch, lernen aus Mustern und schlagen Teststrategien vor. Zweitens: die Integration photonischer Technologien. Optische Interconnects und Co-Packaged Optics erfordern elektro-optische Charakterisierung. Drittens: Strengere Regulierung in den Bereichen KI-Governance, Datensouveränität und Energieverbrauch. Damit werden vor allem Konformitätstests wichtiger.
Die Mess- und Prüftechnik steht also vor spannenden Zeiten. Was würden Sie – abschließend - jungen Ingenieuren raten?
Seien Sie neugierig und interdisziplinär. Die spannendsten Probleme liegen an den Schnittstellen – zwischen analog und digital, Hardware und Software, Physik und Machine Learning. Ein guter Power-Integrity-Ingenieur muss heute Halbleiterphysik verstehen, Hochfrequenztechnik beherrschen und programmieren können. Bleiben Sie mit Weiterbildung am Ball – die Technologie entwickelt sich rasend schnell. Und sammeln Sie praktische Erfahrung. Wer schon mal mit einem 1000-Ampere-Netzteil oder einer 224-Gb/s-Ethernet-Lane gearbeitet hat, versteht die Herausforderungen grundlegend besser. Und – nicht zuletzt – knüpfen Sie Kontakte. Fachkonferenzen und -messen sind unverzichtbar – dort treffen sich Fachleute aus Industrie, Komponentenherstellern und Systemintegratoren, um zu diskutieren, welche Entwicklungen sich abzeichnen. Dort gestalten Sie Ihre Zukunft.
Das Interview führte Nicole Wörner.