„Project Denver“ NVIDIA plant Angriff auf Server-Markt

Intels x86-Prozessoren aus dem lukrativen Rechenzentrums-Markt rauswerfen – das hat NVIDIA mit seinem neuen Prozessor erreichen, der acht eigenentwickelte Cores und zusätzlich eine 256-CUDA-Core GPU beinhalten soll. An Rechenleistung wird es daher wohl kaum mangeln.

Im Gegensatz zu dem „Wayne“ genannten Tegra-4-Prozessor mit 4 ARM-Cores und bis zu 64 GPU-Cores, den wir vor kurzem hier vorgestellt haben und dessen Tape-Out in den nächsten Wochen erfolgen wird, wird der neue Chip, der in einem 28-nm-Prozess gefertigt werden wird und dessen Tape-Out im Dezember erfolgen soll, acht 64-bit-ARM-Cores und mindestens 256 CUDA-Cores enthalten.

Die Compute Unified Device Architecture, kurz CUDA genannt, ist eine von Nvidia entwickelte Technik, die es Programmierern erlaubt, Programmteile zu entwickeln, die durch den Grafikprozessor (GPU) auf der Grafikkarte abgearbeitet werden. In Form der GPU wird zusätzliche Rechenkapazität bereitgestellt, wobei die GPU im Allgemeinen bei nicht sequentiellen Programmabläufen signifikant schneller arbeitet als die CPU. CUDA findet bei wissenschaftlichen und technischen Berechnungen ihren Einsatz. Der nur für Grafik-Berechnungen genutzte Grafikprozessor kommt mittels der CUDA-API auch als Co-Prozessor zum Einsatz. Allgemein lässt es sich dort effizient anwenden, wo Algorithmen hoch parallelisiert werden können. Im November 2010 wurde von Nvidia die CUDA-Version 3.2 veröffentlicht. Programmierer verwenden zurzeit C for CUDA (C mit NVIDIA Erweiterungen). Seit der Fermi-Architektur kann auch C++ verwendet werden.

Mit diesen Leistungsdaten dürfte sich der Chip aus einem ähnlichen Niveau bewegen wie AMDs APU mit der Bezeichnung Trinity. Die CPU-Core-Eigenentwicklung auf Basis der ARMv7-Architektur dürfte sich an die Architektur des Cortex-A15 anlehnen und mit 2,0-2,5 Ghz getaktet werden, gleiches gilt wohl auch für die GPU. Der Speichercontroller und die restlichen Komponenten auf dem SoC dürften aus Energiespargründen deutlich unter dieser Frequenz liegen.

Anders als bei AMDs APU-Design, wo die Datenübertragung von CPU und GPU zum bzw. vom Speichercontroller mit der Taktfrequenz von DDR3-Speicher erfolgt, dürfte der NVIDIA-Chip eine direktere Verbindung zwischen CPU und GPU beinhalten, die Bandbreiten von mehr als 1 TByte/s ermöglicht. Die CPU wird davon lediglich 10-20 % benötigen, so dass die datenhungrige GPU stets gut mit „Daten gefüttert“ werden kann.

Neben den bislang adressierten Märkten wird es auch ein spezielles Design für Motherboards von Notebooks, Desktop-PCs und Servern geben, das neben USB 3.0., SATA (6 Gbit/s) auch PCI 3.0. unterstützt. Bemerkenswert erscheint NVIDIAs Strategie, auch in den besonders luktrativen Server-Markt vordringen und sogar vor Rechenzentren nicht haltmachen zu wollen. Bislang war NVIDIA dort zwar mit GPUs, aber nicht mit CPUs vertreten.

So brachte z.B. IBM mit dem "iDataPlex" als erster renommierter Serverhersteller Rackeinschübe auf den Markt, in denen Xeon-Prozessoren von Intel und Fermi-GPUs von Nvidia kombiniert sind. In vier Höheneinheiten verpackt IBM beim iDataPlex zwei x86-CPUs Xeons der Serie 5600 (Westmere-EP) mit bis zu sechs Cores, sowie zwei GPU-Karten vom Typ Tesla M2050. Jede dieser Karten besitzt eine Fermi-GPU und 3 GByte GDDR5-Speicher.

NVIDIA will mit den „Project-Denver-Chips“ die x86-CPUs vertreiben. Sollte dies gelingen, würde die Profatibilität nicht unwesentlich gesteigert – vor allen Dingen auf Kosten von Intel. Lassen wir uns überraschen.