Schwerpunkte

Nvidia präsentiert neue Produkte

KI- und HPC-Anwendungen im Fokus

29. Juni 2021, 12:30 Uhr   |  Tobias Schlichtmeier

KI- und HPC-Anwendungen im Fokus
© Nvidida

Mit den »A100 80GB PCIe« Grafikprozessoren und den »NDR 400G InfiniBand« Switches will Nivida schnellere KI- und HPC-Anwendungen ermöglichen.

Nvidia reichert seine KI-Supercomputing-Plattform HGX mit neuen Produkten an. Sie sollen neue Datenraten und höhere Leistungen für KI- und HPC-Anwendungen ermöglichen. Viele Branchen sollen profitieren.

Um drei Produkte will Nvidia seine HGX-Plattform erweitern: den »A100 80GB PCIe« Grafikprozessor, die »NDR 400G InfiniBand« Netzwerk-Switche und die »Magnum IO GPUDirect Storage« Software. Sie sollen neue Möglichkeiten im Bereich KI und HPC ermöglichen. Einige Unternehmen wie Atos, Dell oder Lenovo nutzen bereits die neuen Produkte.

Beispielsweise nutzt General Electric die HGX-Plattform für numerische Strömungssimulationen, die die Designs bei großen Gasturbinen und Düsentriebwerken entscheidend verändern. So ist es möglich, die Auswirkungen von Strömungen in Turbinen zu untersuchen und besser zu verstehen. Ebenfalls findet die HGX-Plattform ihren Einsatz im Bereich der Wissenschaft: So wird der neue Supercomputer an der Universität in Edinburgh vom HPC-System von Nvidia angetrieben.

Leistungssteigerungen für KI und HPC

Die A100 Tensor Core GPUs können zum Beispiel zum Lösen komplexer KI- sowie Datenanalyse-, Modelltrainings- und Simulationsaufgaben zum Einsatz kommen. Mit bis zu 80 GB erhöhen die neuen GPUs die Speicherbandbreite im Vergleich zur A100 40 GB um 25 Prozent auf 2 TB/s und bieten 80 GB HBM2e-Speicher mit hoher Bandbreite.

So ist es möglich, mehr Daten und größere neuronale Netzwerke im Speicher zu verarbeiten und so die Leistungsaufnahme zu minimieren. In Kombination mit der schnelleren Speicherbandbreite können Forscher so einen höheren Durchsatz und schnellere Ergebnisse erzielen. HGX-Plattformen mit A100-basierten GPUs, die über NVLink miteinander verbunden sind, sind über Cloud-Services von Amazon Web Services, Microsoft Azure und Oracle Cloud Infrastructure verfügbar.

InfiniBand-Switch-Systeme

Ergänzend zu den GPUs stellt Nvidia neue InfiniBand NDR-Netzwerk-Switches bereit. Die Quantum-2-Switches mit fester Konfiguration bieten 64 Ports NDR 400 Gb/s pro Port oder 200 Gb/s mit 128 Ports. Hingegen liefern die modularen Switches skalierbare Port-Konfigurationen mit bis zu 2.048 Ports NDR 400 Gb/s InfiniBand (bzw. 4.096 Ports NDR 200). Mit einem bidirektionalen Gesamtdurchsatz von 1,64 Petabit pro Sekunde sind die Switches bis zu fünffach schneller als die Vorgängergeneration.

Zu den erweiterten Managementfunktionen gehören In-Network-Computing-Beschleunigungs-Engines. Ausfallzeiten im Rechenzentrum sollen laut Hersteller mit der UFM-Cyber-AI-Plattform weiter minimiert werden. Basierend auf Industriestandards sind die Quantum-2-Switches – die voraussichtlich im dritten Quartal ausgeliefert werden – abwärts- und aufwärtskompatibel, was eine einfache Migration und Erweiterung bestehender Systeme und Software ermöglicht.

Magnum IO GPUDirect Storage

Die neue Software von Nvidida bedient komplexe Workloads und ermöglicht den direkten Speicherzugriff zwischen GPU-Speicher und Storage. Über den direkten Pfad können Anwendungen von einer geringeren I/O-Latenz profitieren und die volle Bandbreite der Netzwerkadapter nutzen, während die Auslastung der CPU sinkt und die Auswirkungen des erhöhten Datenverbrauchs verwaltet werden. Unterstützt wird die neue Software zum Beispiel von Dell, IBM Storage sowie Micron.

Auf Facebook teilen Auf Twitter teilen Auf Linkedin teilen Via Mail teilen

Das könnte Sie auch interessieren

Verwandte Artikel

NVIDIA Corporate