Mit NVIDIA AI Foundry können Entwickler ihre eigenen »Supermodelle« für ihre speziellen Anwendungsfälle erstellen, und zwar mithilfe von Llama 3.1 sowie Software und Rechenleistung von Nvidia.
Die Supermodelle können mit eigenen Daten als auch mit synthetischen Daten trainiert werden, die von Llama 3.1 405B und dem NVIDIA-Nemotron-Reward-Modell generiert werden. NVIDIA AI Foundry basiert auf der NVIDIA-DGX-Cloud-AI-Plattform, die gemeinsam mit den weltweit führenden öffentlichen Clouds entwickelt wurde, sodass Unternehmen umfangreiche Rechenressourcen zur Verfügung stehen, die sich leicht skalieren lassen.
Jensen Huang, Gründer und CEO von Nvidia, erklärt: „Die öffentlich verfügbaren Llama-3.1-Modelle von Meta markieren einen entscheidenden Moment für die Einführung von generativer KI. Llama 3.1 öffnet jedem Unternehmen und jeder Branche die Tore, um modernste generative KI-Anwendungen zu entwickeln. NVIDIA AI Foundry hat Llama 3.1 durchgängig integriert und ist bereit, Unternehmen bei der Entwicklung und dem Einsatz individueller Llama-Supermodelle zu unterstützen.« Und Mark Zuckerberg, Gründer und CEO von Meta, fügt hinzu: »Die neuen Llama 3.1-Modelle sind ein sehr wichtiger Schritt für Open-Source-KI. Mit NVIDIA AI Foundry können Unternehmen ganz einfach hochmoderne KI-Dienste erstellen und anpassen, die von den Menschen gewünscht werden, und sie mit NVIDIA NIM bereitstellen.«
Um den Einsatz von Llama-3.1-Modellen zu beschleunigen, stellt Nvidia seine NVIDIA-NIM-Inferenz-Microservices für Llama-3.1-Modelle zur Verfügung, die unter der Adresse »ai.nvidia.com« zum Download bereitstehen. Laut Nvidia sind die NIM-Microservices der schnellste Weg, um Llama-3.1-Modelle in der Produktion einzusetzen, und sie ermöglichen einen bis zu 2,5-fach höheren Durchsatz als bei einer Inferenzierung ohne NIM. Unternehmen können die Llama-3.1-NIM-Microservices mit den neuen NVIDIA-NeMo-Retriever-NIM-Microservices kombinieren, um hochmoderne Retrieval-Pipelines für KI-Kopiloten, Assistenten und digitale menschliche Avatare zu erstellen.
Die Llama-3.1-Sammlung mehrsprachiger LLMs wurde auf über 16.000 NVIDIA H100-Tensor-Core-GPUs trainiert und für beschleunigtes Computing und Software von NVIDIA optimiert - im Rechenzentrum, in der Cloud und lokal auf Workstations mit NVIDIA-RTX-GPUs oder PCs mit GeForce-RTX-GPUs - und ist eine Sammlung von generativen KI-Modellen mit 8B-, 70B- und 405B-Parametern.
Wie üblich kann Nvidia auch bereits auf erste Kunden verweisen. Beispielsweise nutzt das Beratungsunternehmen Accenture NVIDIA AI Foundry, um mit dem Accenture AI Refinery Framework eigene Llama-3.1-Modelle zu erstellen - sowohl für den eigenen Gebrauch als auch für Kunden, die generative KI-Anwendungen einsetzen möchten, die ihre Kultur, Sprachen und Branchen widerspiegeln. Darüber hinaus heißt es bei Nvidia, dass Unternehmen aus den verschiedensten Branchen (Gesundheitswesen, Energie, Finanzdienstleistungen, Einzelhandel, Transport und Telekommunikation) bereits mit NVIDIA-NIM-Microservices für Llama arbeiten. Zu den ersten, die auf die neuen NIM-Microservices für Llama 3.1 zugreifen, gehören Aramco, AT&T und Uber.