Agentic AI, Physical AI, uvm.

Die Zukunft der Künstlichen Intelligenz

1. April 2025, 8:00 Uhr | Iris Stroh
Blackwell Ultra
© Nvidia

Vor 25 Jahren hat Nvidia mit GPUs gestartet, damals war von KI noch keine Rede, aber genau diese Technologie beschert dem Unternehmen einen Rekordumsatz nach dem anderen.

Diesen Artikel anhören

Und auf der Keynote zur diesjährigen GTC 2025 zeigte sich Jensen Huang, Mitbegründer, President und CEO von Nvidia, überzeugt, dass KI auch weiterhin für ordentliches Wachstum sorgen wird.

Seiner Meinung nach ist KI vor rund zehn Jahren in das weltweite Bewusstsein vorgedrungen und hat seitdem enorme Fortschritte gemacht. Angefangen habe KI mit Computer Vision und Spracherkennung, in den letzten fünf Jahren hat sich der Fokus auf Generative KI verlagert. Dabei ging es darum, der KI beizubringen, Inhalte von einer Modulität in eine andere zu übersetzen: Texte zu Bildern, Bilder zu Texten, Text zu Video, aber auch aus chemischen Eigenschaften neue Moleküle oder Materialien generieren.

Durchbruch mit Agentic AI

»Generative KI hat die Art und Weise, wie Computer arbeiten, grundlegend verändert«, so Huang weiter. Früher erstellte man Inhalte im Voraus, speicherte verschiedene Versionen davon ab und rief später die passende Version, wenn man sie brauchte. Heute sieht es ganz anders aus: Die KI erzeugt Inhalte in Echtzeit, sie versteht den Kontext, erkennt, was wir fragen, was wir meinen und generiert eine passende Antwort. Wenn nötig, greift sie zusätzlich auf vorhandene Informationen zurück, verarbeitet sie weiter – und kombiniert sie zu einer neuen, situationsgerechten Antwort. Und in den letzten Jahren ist aus der Sicht von Huang noch ein weiterer entscheidender Durchbruch passiert. »Wir nennen es Agentic AI«, erklärt Huang. Agentic AI könne eigenständig Entscheidungen treffen, sie verstehe Kontexte, könne planen, handeln, Werkzeuge nutzen und mit multimodalen Informationen interagieren. Agentic AI basiert auf Reasoning, bei der das Problem in Einzelschritte zerlegt wird, unterschiedliche Lösungswege ausprobiert und Antworten überprüft werden.

Physical AI wird neue Art von Robotern schaffen

Aus der Sicht von Huang hat aber noch eine weitere große Welle in der Entwicklung der KI begonnen: Robotik – ermöglicht durch eine neue Art von KI – die sogenannte »Physical AI«. Sie verstehe die physikalische Welt wie zum Beispiel Reibung, Trägheit, aber auch dass ein Objekt weiter existiert, auch wenn es gerade nicht sichtbar ist (z. B. wenn es hinter einem anderen Gegenstand verschwindet). Huang: »Diese Fähigkeit, die dreidimensionale, reale Welt zu verstehen, ist der Schlüssel zu einer völlig neuen KI-Ära der »Physical AI« und sie ermöglicht vollkommen neue Roboter.« Was wiederum neue Märkte und Geschäftsmöglichkeiten für alle eröffne, die in diesem Bereich aktiv sind.

Also zwei neue Faktoren, die das KI-Wachstum treiben. Und jede Welle stehe vor drei Grundproblemen: Daten, Training, Skalierung. Also wie werden die nötigen Daten in ausreichender Qualität und Menge beschafft, wie können KI-Modelle trainiert werden, ohne dass ständig Menschen eingreifen müssen und wie kann man sicherstellen, dass die KI mit mehr Ressourcen auch schlauer wird, denn auch wenn mehr Rechenleistung und Daten zur Verfügung stehen, der Algorithmus muss stimmen.

Bedarf an Rechenleistung wurde unterschätzt

»Durch den Durchbruch bei Agentic AI mit Reasoning ist der Rechenaufwand heute mindestens 100-mal höher als wir noch vor einem Jahr dachten«, betont Huang. Und damit steigt die Anzahl der erzeugten Tokens und der dafür notwendige Rechenaufwand. Um die Reaktionszeit der KI trotzdem in einem benutzerfreundlichen Rahmen zu halten, muss auch die Rechengeschwindigkeit steigen.

Und wie wird der KI Reasoning beigebracht, mit welchen Daten? Aus Huangs Sicht heißt das Zauberwort: Reinforcement Learning, das verifizierbare Ergebnisse liefert. Damit werden Billionen von Tokens für die Modellbildung synthetisch erzeugt, ganz ohne Eingriff eines Menschen, aber mit mehr Rechenleistung.

Zahlen aus der Industrie bestätigen den enormen Anstieg. So vergleicht Huang die Verkaufszahlen von Hopper und Blackwell, die an die vier großen CSPs (Cloud Service Provider) – AWS, Microsoft Azure, Google und Oracle – ausgeliefert wurden. Im Spitzenjahr wurden 1,3 Mio. Hopper-GPUs an diese Unternehmen verkauft. Blackwell hat bereits im ersten Jahr der Einführung die Marke von 3,6 Mio. Stück erreicht. »Wir befinden uns an einem Wendepunkt, an dem die weltweiten Investitionen in Recheninfrastruktur – insbesondere für KI – auf ein Volumen von über eine Billion Dollar zusteuern.«

Neuvorstellungen auf der GTC 2025

Um weiterhin am KI-Boom teilhaben zu können, hat Huang diverse Neuvorstellungen auf der GTC 2025 gemacht. »Der 2024 vorgestellte Blackwell mit NVLink72 läuft in voller Produktion und ist im Vergleich zu Hopper 25- bis 40-mal leistungsfähiger«, so Huang. In der zweiten Hälfte dieses Jahres sollen bereits erste Systeme mit Blackwell Ultra NVLK72 kommen. Für die zweite Hälfte 2026 kündigt Huang Vera Rubin NVL144 an, mit Vera-CPUs (88 Custom-ARM-Cores) und Rubin-GPUs mit 50 PFlops (FP4-Format) und 288 GB HBM4-Speicher. In der zweiten Hälfte 2027 wiederum soll bereits die nächste GPU mit Rubin Ultra NVL576 folgen.

Eine weitere Entwicklung soll laut Huang den Kunden helfen, auf immer größere Systeme zu skalieren und dafür setzt Nvidia auf Photonik. Nvidia hat zusammen mit TSMC diese Technologie entwickelt. Damit sollen KI-Fabriken mit Millionen von GPUs über verschiedene Standorte hinweg verbunden werden können, bei gleichzeitig geringerem Energieaufwand und geringeren Kosten. Laut Huang sollen in der zweiten Hälfte dieses Jahres die Silicon-Photonic-Switches ausgeliefert werden.

Neue DGX-Systeme

Nvidia hat außerdem neue DGX-Systeme vorgestellt, darunter die Desktop-Workstation DGX Spark sowie DGX Station auf Basis der Grace-Blackwell-Plattform. Huang kündigt außerdem Nvidia Dynamo an, eine Open-Source-Software zur Beschleunigung und Skalierung von KI-Reasoning-Modellen in KI-Fabriken. Damit soll folgendes Problem gelöst werden: Während der Denkphase (Prefill) ist das System stark mit Rechenoperationen ausgelastet, erzeugt jedoch vergleichsweise wenige Tokens. In der eigentlichen Antwortphase (Decode) liegt der Fokus auf der schnellen Token-Generierung. Abhängig vom Anwendungsfall können deshalb mehr GPUs entweder für Prefill oder für Decode zugewiesen werden. »Diese dynamische Ressourcenverteilung ist technisch anspruchsvoll«, erläutert Huang. Und diese Prozesse koordiniert jetzt Dynamo. »Es fungiert als Betriebssystem für die KI-Fabriken«, so Huang weiter. Er erklärt außerdem, dass mit Omniverse Blueprint komplette KI-Fabriken simuliert werden können – inklusive Stromversorgung, Kühlung, Netzwerk und Wartung.

Wie oben schon diskutiert, ist die Robotik für Huang der nächste große KI-Markt. Auch hier sind viele Daten erforderlich, aber auch hierfür hat Nvidia die Lösung: Mit Omniverse und Cosmos können Entwickler große Mengen synthetischer Daten erzeugen, um Roboter zu trainieren. In Omniverse werden reale Sensordaten aggregiert und mit Cosmos vielfältig erweitert, um umfangreiche, fotorealistische Datensätze zu erstellen. Isaac Lab wiederum ermöglicht es, Roboter durch Imitationslernen oder Verstärkungslernen neue Fähigkeiten erwerben zu lassen. Um die Roboterstrategien in realitätsnahen Simulationen zu testen, kann mit Omniverse auf digitale Zwillinge mit physikalischem Feedback und hochauflösender Sensorsimulation zurückgegriffen werden – und mit dem MEGA-Blueprint können Entwickler ganze Roboterflotten in virtuellen Umgebungen testen. Nvidia führt außerdem mit Isaac GR00T N1 ein Basis-Modell für humanoide Roboter ein. Es verfügt über eine duale Systemarchitektur, um quasi langsames Denken (für Wahrnehmung, Verständnis der Umgebung und Planung von Aktionen) und schnelles Denken (setzt geplante Aktionen in präzise Bewegungen um) zu ermöglichen. Zuletzt verweist Huang noch auf Newton, eine Open-Source-Physics-Engine für die Robotik, die in Kooperation zwischen Nvidia, DeepMind und Disney Research entwickelt wird.

General Motors/Nvidia: Zusammenarbeit erweitert

GM hat in Nvidia-GPU-Plattformen investiert, um KI-Modelle in verschiedenen Bereichen, einschließlich Simulation und Validierung, zu trainieren. Die Zusammenarbeit der Unternehmen erstreckt sich nun auch auf die Umgestaltung des Designs und des Betriebs von Automobilwerken. GM wird die Nvidia-Omniverse-Plattform nutzen, um digitale Zwillinge von Montagelinien zu erstellen, die virtuelle Tests und Produktionssimulationen ermöglichen, um Ausfallzeiten zu reduzieren. Zu den Maßnahmen gehören die Schulung von Robotikplattformen, die bereits für Vorgänge wie Materialhandhabung und Transport sowie Präzisionsschweißen eingesetzt werden, um die Sicherheit und Effizienz der Fertigung zu erhöhen.

GM wird auch Fahrzeuge der nächsten Generation auf Nvidia Drive AGX bauen, die auf der Blackwell-Architektur basieren und auf dem sicherheitszertifizierten Betriebssystem Nvidia DriveOS laufen.

 


Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu NVIDIA Corporate

Weitere Artikel zu Künstliche Intelligenz (KI)

Weitere Artikel zu Mikroprozessoren

Weitere Artikel zu Grafikprozessoren