Microsoft hat zwei selbstentwickelte Chips vorgestellt: den »Microsoft Azure Maia AI Accelerator«, der für KI- und Generative-KI-Aufgaben optimiert ist und die »Microsoft Azure Cobalt«-CPU, ein Arm-basierter Prozessor, der auf allgemeine Rechenlasten in der Microsoft Cloud zugeschnitten ist.
Die Chips sollen ab Anfang nächsten Jahres in den Rechenzentren von Microsoft zum Einsatz kommen und zunächst die Dienste wie Microsoft Copilot oder Azure OpenAI Service unterstützen. Scott Guthrie, Executive Vice President der Cloud + AI Group von Microsoft, erklärt: »Microsoft baut die Infrastruktur zur Unterstützung von KI-Innovationen auf, und wir gestalten jeden Aspekt unserer Rechenzentren neu, um die Anforderungen unserer Kunden zu erfüllen. Bei der Größenordnung, in der wir arbeiten, ist es für uns wichtig, jede Schicht des Infrastruktur-Stacks zu optimieren und zu integrieren, um die Leistung zu maximieren, unsere Lieferkette zu diversifizieren und den Kunden die Wahl der Infrastruktur zu ermöglichen.« Rani Borkar, Corporate Vice President für Azure Hardware Systems and Infrastructure (AHSI), fügt hinzu: »Software ist unsere Kernkompetenz, aber offen gesagt, sind wir ein Systemunternehmen. Bei Microsoft entwickeln und optimieren wir Hardware und Software gemeinsam, so dass eins plus eins größer ist als zwei. Wir haben Einblick in den gesamten Stack, und Silizium ist nur eine der Zutaten.«
Microsoft kündigte gleichzeitig an, dass auch bisherige Silizium-Partnerschaften weiter gepflegt werden. So stellte das Unternehmen eine Vorschau der neuen NC H100 v5 Virtual Machine Series vor, die für NVIDIA H100 Tensor Core GPUs entwickelt wurde und mehr Leistung, Zuverlässigkeit und Effizienz für KI-Training im mittleren Leistungsbereich und generatives KI-Inferencing bietet. Außerdem wird Microsoft im nächsten Jahr auch den neuesten NVIDIA H200 Tensor Core-Grafikprozessor einsetzen, um die Inferenzierung größerer Modelle ohne Erhöhung der Latenzzeit zu unterstützen. Das Unternehmen kündigte darüber hinaus an, dass es AMD MI300X beschleunigte VMs zu Azure hinzufügen wird. Die virtuellen Maschinen des Typs ND MI300 wurden entwickelt, um die Verarbeitung von KI-Workloads für das Training von KI-Modellen mit hoher Reichweite und generatives Inferencing zu beschleunigen, und werden mit AMDs neuester GPU, der AMD Instinct MI300X, ausgestattet.
Microsoft arbeitet bereits an der zweiten Generation seiner Halbleiter.