Schwerpunkte

GPU Technology Conference 2020

KI wird allgegenwärtig

06. Oktober 2020, 09:35 Uhr   |  Gerhard Stelzer

KI wird allgegenwärtig
© Nvidia | GTC 2020

Solange die Covid-19-Pandemie die Welt im Griff hat, sendet Nvidia-CEO Jensen Huang seine GTC-Keynote aus der heimischen Küche.

Direkt aus seiner Küche zuhause im Silicon Valley skizzierte Nvidia-CEO Jensen Huang seine Vision für das »Zeitalter der KI« in Rahmen seiner »GTC Kitchen Keynote«.

Mit einer umfassenden Vision für das »Zeitalter der KI« eröffnete Nvidia-CEO Jensen Huang die Herbstausgabe der GPU-Technologiekonferenz (GTC). In der typischen schwarzen Lederjacke vor seinem Herd in der Küche stehend, erläuterte er in einer aufgezeichneten Keynote welche Neuheiten Nvidia auf den Gebieten Rechenzentren, Edge-KI, Kollaborationstools und Gesundheitswesen auf der Pfanne hat. »KI erfordert eine völlige Neuerfindung des Rechnens – ein komplettes Umdenken – von den Chips über Systeme, Algorithmen, Werkzeuge bis hin zum Ökosystem«, stellte der Nvidia-Boss in seiner Küche im Silicon Valley fest.

Hinter einer Reihe von Ankündigungen, die von der Gesundheitsfürsorge über Robotik bis hin zu Videokonferenzen reichten, war Huangs zugrundeliegende Geschichte einfach: KI verändert alles, was Nvidia an den Schnittpunkt von Veränderungen gebracht hat, die jede Facette des modernen Lebens berühren. Immer mehr dieser Veränderungen sind zunächst in Huangs Küche zu sehen, mit ihrem verspielten Strauß bunter Pfannenwender, der während der COVID-19-Pandemie als zunehmend vertrauter Hintergrund für Ankündigungen diente.

»Nvidia ist ein Computerunternehmen durch und durch – wir lieben es, an extrem harten Computerproblemen zu arbeiten, die große Auswirkungen auf die Welt haben – das ist genau unser Ding«, sagte Huang. »Wir setzen alles daran, diese neue Form des Computings voranzutreiben und zu demokratisieren – für das Zeitalter der KI.«
Die diese Woche stattfindende GTC ist eine der bisher größten. Sie umfasst mehr als 1.000 Sessions – 400 mehr als die letzte GTC – in 40 Themenbereichen. Und sie ist die erste, die quer durch die Zeitzonen der Welt läuft, mit Sitzungen in Englisch, Chinesisch, Koreanisch, Japanisch und Hebräisch.

Turbo für Rechenzentren

Moderne Rechenzentren seien softwaredefiniert, was sie flexibler und anpassungsfähiger macht. Das erzeugt eine enorme Belastung. Der Betrieb der Infrastruktur eines Rechenzentrums kann 20 bis 30 Prozent seiner CPU-Ressourcen binden. Und da »der Ost-West-Verkehr oder der Verkehr innerhalb eines Rechenzentrums und die Mikrodienste zunehmen, wird diese Last dramatisch ansteigen«, ist Huang überzeugt.
»Eine neue Art von Prozessor wird benötigt. Wir nennen ihn die Data Processing Unit«, so der Nvidia-CEO. Die DPU besteht aus Beschleunigern für Netzwerk, Speicher und Sicherheit sowie programmierbaren Arm-CPUs, um den Hypervisor zu entlasten.

Die neue Nvidia BlueField 2 DPU ist ein programmierbarer Prozessor mit leistungsstarken Arm-Cores und Beschleunigern, der die kontinuierlich fließenden Daten für Netzwerk, Speicher und Sicherheit direkt verarbeiten kann. Er ist das jüngste Ergebnis der Übernahme des Hochgeschwindigkeits-Interconnect-Anbieters Mellanox Technologies durch Nvidia, die im April abgeschlossen wurde.

DOCA - Ein programmierbarer Infrastruktur-Prozessor für Rechenzentren

Nvidia kündigte auch DOCA an, seine programmierbare Rechenzentrums-Infrastruktur-auf-einem-Chip (Data enter On-Chip-Architecture). »Mit DOCA-SDKs können Entwickler Infrastrukturanwendungen für softwaredefinierte Netzwerke, softwaredefinierte Speicher, Cybersicherheit, Telemetrie und noch zu erfindende In-Network-Computing-Anwendungen schreiben«, sagte Huang.
Huang ging auch auf eine Partnerschaft mit VMware ein, die letzte Woche angekündigt wurde, um VMware auf BlueField zu portieren. VMware betreibe die Unternehmen der Welt – sie sei die Betriebssystemplattform in 70 Prozent der Unternehmen weltweit.

DPU-Roadmap mit 1000-facher Leistungssteigerung

Die DPU-Roadmap von Nvidia ist ambitioniert und winkt mit schnellen Fortschritten. BlueField-2 ist jetzt in der Bemusterung, BlueField-3 in der Fertigstellung und bei BlueField-4 läuft die Entwicklung auf Hochtouren. »Wir werden eine Menge neuer Technologie in die Netzwerktechnik einbringen«, sagte Huang. »In nur wenigen Jahren werden wir einen fast 1000-mal höheren Rechendurchsatz erreichen. BlueField-4, eine DPU, die 2023 auf den Markt kommt, wird die Unterstützung für die parallele Programmierplattform CUDA und Nvidia AI umfassen – und wie ein Turbo das In-Network-Computing aufladen.«
Diese Fähigkeiten könne man bereits heute mit dem neuen BlueField-2X erhalten. Die 2X-Version erweitert BlueField-2 um einen Nvidia Ampere-Grafikprozessor für In-Network-Computing mit CUDA und Nvidia AI.

Trends von der Nvidia GTC 2020

Nvidia Omniverse ist eine Plattform für die simultane Echtzeitsimulation und Zusammenarbeit. Hier eine Covid-19-Simulation auf Molekularebene.
Ein Rechenzentrum auf einem Chip: die DPU (Data Processing Unit) Nvidia Bluefield-2 umfasst 6,9 Mrd. Transistoren.
DOCA - Data center On Chip Architecture ist ein programmierbarer Infrastruktur-Prozessor für Rechenzentren.

Alle Bilder anzeigen (9)

Kooperationen mit Microsoft, Cloudera und VMware

Auch Verbraucherorientierte Internetunternehmen setzen vermehrt auf Nvidia-Technologie, um KI-Dienste anzubieten. Inferenz (Schlussfolgerungen) –bei der vollständig trainierte KI-Modelle zum Einsatz kommen – ist der Schlüssel zu einer neuen Generation von KI-basierten Diensten für den Verbraucher. Insgesamt übertreffe die Inferenz-Berechnung mit Nvidia-GPUs in der Cloud bereits jetzt alle anderen Cloud-CPUs, erklärte Huang.

In diesem Zusammenhang kündigte er an, dass Microsoft Nvidia AI auf Azure einsetzt, um intelligente Dienste in Microsoft Office zu ermöglichen, einschließlich intelligenter Grammatikkorrektur und Textvorhersage. Microsoft Office gesellt sich zu Square, Twitter, eBay, GE Healthcare und Zoox, um nur einige zu nennen, in einer Vielzahl von Branchen, die Nvidia-GPUs für Schlussfolgerungen verwenden.

Die Fähigkeit, riesige Datenmengen schnell verarbeiten zu können, ist der Schlüssel zur modernen KI und Datenwissenschaft. Nvidia RAPIDS sei die schnellste Extraktions-, Transformations-, Lade- oder ETL-Engine der Welt und unterstütze Multi-GPU und Multi-Knoten. Nvidia hat seine API nach sehr populären datenwissenschaftlichen Frameworks – Pandas, XGBoost und ScikitLearn – modelliert, so dass RAPIDS leicht zu erlernen ist.

Beim Datenverarbeitungs-Benchmark nach Industriestandard lief ein Nvidia DGX-Cluster mit 16 Knoten 20-mal schneller als der schnellste CPU-Server, wenn die 30 komplexen Datenbankabfragen auf einem 10-TByte-Datensatz ausgeführt wurden. Dennoch kostet das Cluster nur ein Siebtel und verbraucht ein Drittel der Energie.
Huang kündigte an, dass Cloudera, eine Hybrid-Cloud-Datenplattform, mit der sich Vorhersagemodelle aus Daten verwalten, sichern, analysieren und lernen lassen, die Cloudera-Datenplattform mit Nvidia RAPIDS, Nvidia AI und Nvidia-beschleunigtem Spark beschleunigen wird.

Nvidia und VMware kündigten außerdem eine zweite Partnerschaft an. Die Unternehmen werden eine Rechenzentrumsplattform schaffen, die die GPU-Beschleunigung für alle drei großen Rechenbereiche unterstützt: virtualisierte, verteilte Scale-out- und komponierbare Mikrodienste. »Unternehmen, die VMware einsetzen, werden in der Lage sein, Nvidia GPU- und AI-Computing in jedem beliebigen Rechenmodus zu nutzen«, erklärte Huang.

Seite 1 von 3

1. KI wird allgegenwärtig
2. Leistungsfähige KI am Edge
3. Wie geht's mit Arm weiter?

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

Kleinster KI-Supercomputer am Edge
Autonomes Fahren – Keine Chance ohne Künstliche Intelligenz
Nvidia steigt bei DFKI ein
Nvidia schließt Übernahme von Mellanox ab
Mercedes und Nvidia kooperieren für Softwarearchitektur
Nvidias zweite virtuelle GTC findet vom 5. bis 9. Oktober statt

Verwandte Artikel

NVIDIA Corporate, Microsoft, VMware Global, Inc.