Roadmap von Intel

Granite Rapids und Sierra Forest

14. Januar 2024, 8:30 Uhr | Iris Stroh
© jackson | stock.adobe.com

Pat Gelsinger, CEO von Intel, hatte auf der »Intel Innovation 2023« erklärt, dass Dezember 2023 Emerald Rapids, die fünfte Xeon-Generation, kommt. Im Vorfeld zur Hot Chips 2023 wiederum wurden Details zu den Folgeprodukten – Sierra Forest und Granite Rapids – gezeigt, die im Jahr 2024 kommen sollen.

Diesen Artikel anhören

Beide Xeon-Prozessoren – Granite Rapids und Sierra Forest – basieren auf derselben Plattform (Birch Stream) und werden mithilfe des »Intel 3«-Prozesses gefertigt. Sierra Forest (E-Cores) soll als erster Prozessor bereits in der ersten Hälfte 2024 kommen, Granite Rapids (P-Cores) kurz danach folgen.

Dass Intel bei der nächsten Generation für Rechenzentren auf zwei unterschiedliche Xeon-Prozessoren setzt, begründet Matt Langman, Vice President und General Manager of Future Xeon Platforms bei Intel, damit, dass der Markt das fordert. Gespräche mit Kunden hätten ergeben, dass natürlich weiterhin CPUs gebraucht werden, die eine höhere Rechenleistung/Core aufweisen, deshalb Granite Rapids bzw. P-Cores. Ergänzend dazu »sehen wir aber auch, dass es eine wachsende Nachfrage nach einem Kerntyp gibt, der für eine bessere Dichte optimiert ist, egal ob auf Sockel- oder Rack-Ebene. Gleichzeitig geht es bei diesen Prozessoren auch darum, die Leistungsaufnahme zu verringern, damit die Datenzentren auch Nachhaltigkeits- und Energieeffizienzziele erfüllen können«, so Langman. Darüber hinaus sei sich Intel bewusst, dass es in Rechenzentrum eine große Vielfalt an Deployment-Modellen, unterschiedliche Anforderungen an die Stromversorgung, den Formfaktor, Speicherbandbreite und verschiedenen Arten der Konnektivität gibt.

Rechenzentren benötigen nicht nur Prozessoren, die auf höchste Rechenleistung ausgelegt sind, sondern auch Varianten, die auf Effizienz ausgelegt sind
Rechenzentren benötigen nicht nur Prozessoren, die auf höchste Rechenleistung ausgelegt sind, sondern auch Varianten, die auf Effizienz ausgelegt sind.
© Intel

All das will Intel mit seinen neuen Prozessoren abdecken: P-Core ist auf höchste Rechenleistung getrimmt und adressiert damit rechenintensive und KI-Arbeitslasten, E-Core wiederum ist laut Ryan Tabrah, GM für die Xeon-E-Core-Produkte bei Intel, darauf ausgerichtet, eine extrem hohe Rechendichte auf möglichst energieeffiziente Weise zu liefern. Tabrah weiter: »Obwohl wir bei E-Core leichte Modifikationen vorgenommen haben, um diese Rechenleistung effizient mit einer hohen Leistung pro Watt, einer hohen Kerndichte und einem hohem Durchsatz zu erreichen, haben wir noch einen anderen wichtigen Punkt erreicht, das zeigt das Feedback unserer Kunden: diese beiden Prozessoren haben viel gemeinsam.« Dazu zählt der Intel-Manager beispielsweise die gleichen Sockel, beide werden mit demselben Chiplet-Ansatz umgesetzt, beide Prozessoren verfügen über die gleichen I/Os, die gleichen Speicher oder die gleiche Firmware.

Modulare SoC-Architektur

Intel setzt auf eine Chiplet-Architektur für seine neuen Xeon-Prozessoren, um damit eine modulare SoC-Architektur realisieren zu können
Intel setzt auf eine Chiplet-Architektur für seine neuen Xeon-Prozessoren, um damit eine modulare SoC-Architektur realisieren zu können.
© Intel

Also anstatt mit einer Architektur und einer Compute-Engine und verschiedenen Implementierungen die Bedürfnisse des Marktes abzudecken, »setzt Intel jetzt auf zwei Mikroarchitekturen mit optimierten Designimplementierungen«, erklärt Sailesh Kottapalli, Senior Fellow and Chief Architect bei Intel. Und weiter: »Damit erreichen wir aus unserer Sicht wirklich die beste Abdeckung sowie die beste Leistung und Energieeffizienz über das gesamte Anwendungsspektrum.«

Intel hat laut seiner Aussage die Skalierung nicht nur in Hinblick auf die Rechenleistung und Effizienz umgesetzt, sondern eine modulare SoC-Architektur entwickelt, die insgesamt skalierbar ist. So soll es Granite-Rapids-Prozessoren für 1S- bis 8S-Server geben, Sierra Forest für 1S- oder 2S-Modelle; die Prozessoren sind mit bis zu 12 Speicherkanälen (einschließlich der Unterstützung von MCR-DIMMs) ausgestattet und verfügen in der Maximalausstattung über 136 Lanes PCIe 5.0/CXL 2.0 und bis zu 144 Lanes UPI-Links.

Intel nutzt, wie bereits erwähnt, für die neuen Prozessoren einen Chiplet-Ansatz, indem Intel die Chiplets nach Recheneinheit und I/O aufteilt. »Damit können wir unsere Compute-Chiplets auf Basis des besten Prozessknotens, sprich Intel 3, fertigen, die I/O-Chiplets wiederum werden mit Intel 7 gefertigt«, so Kottapalli weiter. Jeder Prozessor, also Granite Rapids und Sierra Forest, ist mit jeweils zwei I/O-Chiplets ausgestattet, dazu kommen in das Gehäuse entweder einer, zwei oder drei Compute-Chiplets.

Leistungsverbesserungen bei den P- und E-Cores

Funktionale Blöcke und Eigenschaften der Performance-Core-Prozessoren
Funktionale Blöcke und Eigenschaften der Performance-Core-Prozessoren.
© Intel

Um den P-Core auf höchste Rechenleistung zu trimmen, hat Intel auf diverse Ansätze gesetzt. Dazu gehört beispielsweise ein 64 KB großer I-Cache und eine verbesserte Sprungvorhersage. Darüber hinaus ist es dem Unternehmen gelungen, die notwendige Zyklenanzahl für Gleitkommamultiplikationen von bislang 4 bis 5 auf 3 Zyklen zu drücken. Außerdem unterstützt die integrierte Matrix-Engine jetzt auch das FP16-Format für KI- und ML-Anwendungen (Machine Learning). In Hinblick auf Security unterstützen die neuen Granite Rapids jetzt 256 bit große Codierungsschlüssel.

Funktionale Blöcke und Eigenschaften der Efficiency-Core-Prozessoren
Funktionale Blöcke und Eigenschaften der Efficiency-Core-Prozessoren.
© Intel

Beim E-Core geht es um Durchsatz und Effizienz, dementsprechend sehen die Optimierungen zum Teil etwas anders aus. In einem Punkt sind P- und E-Core gleich: Auch der E-Core ist mit einem 64 kB großen I-Cache ausgestattet. Dazu kommen beim E-Core noch 6-Wide-Decode-, 5-Wide-Allocate- und 8-Wide-Retire-Einheiten, um den Durchsatz zu erhöhen. Der L2-Cache ist 4 MB groß, den sich zwei oder vier Kerne teilen. Die E-Cores unterstützen BF16-Datentypen sowie verschiedene Befehle wie LAM (Linear Adress Masking), HLAT (Hypervisor-Managed Linera Adress Translation) oder CMPccXADD (Compare and Add if Condition is Met) sowie AVX-IFMA und AVX-DOT-PROD-INT8.

Wie gut schneiden die Cores ab?

Intel ist nicht nur überzeugt, dass das Unternehmen mit den neuen Xeon-Prozessoren die Anforderungen des Marktes am besten abdecken kann, sondern dass die Prozessoren auch von den Leistungswerten her durchaus auftrumpfen können. So würden sich die Xeon-Prozessoren mit den P-Cores dadurch auszeichnen, dass mit ihnen laut Unternehmensangabe die geringsten TCOs (Total Cost of Ownership) für rechenintensive Arbeitslasten möglich sind. Darüber hinaus hätten Leistungstests mit über 350 Modellen ergeben, dass Granite Rapids eine höhere KI-Performance erreicht als irgendeine andere CPU. Langman: »Wir gehen davon aus, dass unsere Leistung bei KI-Arbeitslasten im Vergleich zur 4. Generation von Xeon-Prozessoren um den Faktor 2- bis 3-mal höher ist.« Bei Sierra Forest sehen die Benchmarks laut seiner Aussage ebenfalls hervorragend aus. »Wir gehen davon aus, dass wir mit Sierra Forest im Vergleich zu Sapphire Rapids die Rack-Dichte um 250 Prozent erhöhen können, gleichzeitig dürfte das Verhältnis von Leistung zur Leistungsaufnahme um 240 Prozent steigen.« Und abschließend: »Sierra Forest mit bis zu 144 Cores pro CPU weist ein TDP von lediglich 200 W auf«, so Langman abschließend.


Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu INTEL GmbH

Weitere Artikel zu Mikrocontroller

Weitere Artikel zu Mikroprozessoren