Während seiner COMPUTEX-Keynote konnte Jensen Huang, Gründer und CEO von Nvidia, verkünden, dass diverse Computerhersteller eine Reihe von Blackwell-Systemen mit Grace-CPUs, NVIDIA-Netzwerken und Infrastruktur auf den Markt bringen werden.
Dazu gehören ASRock Rack, ASUS, GIGABYTE, Ingrasys, Inventec, Pegatron, QCT, Supermicro, Wistron und Wiwynn. Huang: »Die nächste industrielle Revolution hat begonnen. Unternehmen und Länder gehen Partnerschaften mit Nvidia ein, um die Billionen Dollar schweren traditionellen Rechenzentren auf beschleunigtes Computing umzustellen und eine neue Art von Rechenzentrum - KI-Fabriken - zu errichten, um einen neuen Rohstoff zu produzieren, sprich künstliche Intelligenz.«
Um die Entwicklung von Systemen verschiedener Größen und Konfigurationen zu beschleunigen, unterstützt die modulare Referenzdesign-Plattform MGX nun auch die Blackwell-Komponenten. Dazu gehört auch die neue »GB200 NVL2«-Plattform von Nvidia, die laut Unternehmensangaben eine bisher unerreichte Leistung für das Inferenzieren großer Sprachmodelle, für RAG (Retrieval Augmented Generation) und die Datenverarbeitung bietet.
Aus der Sicht von Nvidia eignet sich GB200 NVL2 besonders für Anwendungen wie die Datenanalyse, für die Unternehmen jährlich mehrere Milliarden Dollar ausgeben. Durch die Nutzung der hohen Speicherbandbreite der NVLink-C2C-Verbindungen und der dedizierten Dekomprimierungs-Engines in der Blackwell-Architektur wird die Datenverarbeitung um das bis zu 18-fache beschleunigt, bei 8-fach besserer Energieeffizienz im Vergleich zur Verwendung von x86-CPUs.
Die MGX-Plattform bietet Computerherstellern eine Referenzarchitektur, mit der sie schnell und kosteneffizient mehr als 100 Systemkonfigurationen erstellen können, um die vielfältigen Anforderungen der Rechenzentren weltweit an das Accelerated Computing zu erfüllen.
Die Hersteller beginnen mit einer grundlegenden Systemarchitektur für ihr Servergehäuse und wählen dann ihre GPU, DPU und CPU aus, um verschiedene Arbeitslasten zu bewältigen. Bis heute sind laut Nvidia mehr als 90 Systeme von über 25 Partnern auf den Markt gebracht worden oder befinden sich in der Entwicklung, die die MGX-Referenzarchitektur nutzen. Ein beachtlicher Fortschritt, denn im letzten Jahr waren es erst 14 Systeme von sechs Partnern gewesen. Laut Nvidia können mithilfe von MGX die Entwicklungskosten um bis zu drei Viertel gesenkt und die Entwicklungszeit um zwei Drittel auf nur sechs Monate verkürzt werden.
Laut Nvidia unterstützen auch AMD und Intel die MGX-Architektur und planen zum ersten Mal ihre eigenen CPU-Host-Prozessor-Modul-Designs zu liefern. Dazu gehören die AMD Turin-Plattform der nächsten Generation und der Intel Xeon 6-Prozessor mit P-Cores (früherer Codename Granite Rapids). Jeder Hersteller von Serversystemen kann diese Referenzdesigns verwenden, um Entwicklungszeit zu sparen und gleichzeitig Konsistenz in Design und Leistung zu gewährleisten.
Die neueste Plattform, GB200 NVL2, nutzt ebenfalls MGX und Blackwell. Das skalierbare Single-Node-Design ermöglicht eine Vielzahl von Systemkonfigurationen und Netzwerkoptionen zur nahtlosen Integration von Accelerated Computing in die bestehende Rechenzentrumsinfrastruktur.
Zum Partner-Ecosystem von Nvidia gehören TSMC sowie globale Elektronikhersteller, die Schlüsselkomponenten für den Aufbau von KI-Fabriken liefern, einschließlich Server-Racks, Stromversorgungen, Kühllösungen. Dazu gehören Unternehmen wie Amphenol, Asia Vital Components (AVC), Cooler Master, Colder Products Company (CPC), Danfoss, Delta Electronics und LITEON.
Unternehmen können auch auf die NVIDIA AI Enterprise Software-Plattform zugreifen, die die NIM Inferenz-Microservices von Nvidia umfasst, um generative KI-Anwendungen in Produktionsqualität zu erstellen und auszuführen.
Huang kündigte während seiner Keynote außerdem an, dass führende taiwanesische Unternehmen Blackwell zügig einsetzen wollen. So plant beispielsweise das Chang Gung Memorial Hospital, Taiwans führendes medizinisches Zentrum, den Einsatz der Blackwell Computing Plattform, um die biomedizinische Forschung voranzutreiben und Bildgebungs- und Sprachanwendungen zu beschleunigen.
Foxconn wiederum will Grace Blackwell für die Entwicklung intelligenter Lösungsplattformen für KI-gestützte Elektrofahrzeuge und Robotikplattformen sowie für eine wachsende Zahl sprachbasierter generativer KI-Dienste nutzen.
Darüber hinaus konnte Nvidia auch die breite Einführung der Spectrum-X Ethernet-Netzwerkplattform bekanntgeben. So gehören CoreWeave, GMO Internet Group, Lambda, Scaleway, STPX Global und Yotta zu den ersten KI-Cloud-Service-Anbietern, die NVIDIA Spectrum-X einsetzen, um ihre KI-Infrastrukturen mit extremer Netzwerkleistung auszustatten.
Darüber hinaus haben noch weitere Nvidia-Partner Spectrum-basierte Produkte angekündigt, darunter ASRock Rack, ASUS, GIGABYTE, Ingrasys, Inventec, Pegatron, QCT, Wistron und Wiwynn, die sich Dell Technologies, Hewlett Packard Enterprise, Lenovo und Supermicro anschließen und die Plattform in ihre Angebote integrieren.