Parallelrechner weisen den Weg

Wettlauf der Supercomputer

16. August 2016, 14:56 Uhr | Von Erich Bonnert
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 1

GPU gegen CPU

Grafikprozessoren (GPU) von AMD und Nvidia dominieren seit vielen Jahren die für mathematische Berechnungen entscheidende Parallelverarbeitung mehrerer Datenströme, indem sie der CPU diese Arbeit abnehmen. CPU-Entwickler wie Intel und Oracle versuchen mit integrierter Grafikleistung dagegen zu halten. Ende Mai kündigte Google unter dem Namen Tensor sogar die Entwicklung eigener Prozessoren für Cloud-Rechner an. Details sind allerdings noch nicht bekannt. Ein wichtiger Generationssprung bei GPUs wird von Nvidia mit dem Pascal P100 für dieses Jahr erwartet. Jetzt nutzte Intel die ISC-Bühne, um mit Xeon Phi 7200 (bisher „Knights Landing“) eine lange erwartete Prozessorfamilie für das High Performance Computing vorzustellen. Rajeeb Hazra, Manager von Intels Data Center Group, blies sogleich zur Offensive gegen die wichtigsten Konkurrenten im HPC-Markt: Intels neue Chips sind sowohl als Hauptprozessoren für Systeme unter Windows oder Linux wie auch als Beschleunigerkarten einsetzbar – voll kompatibel zu bisherigen Xeon-CPUs. Dabei würden sie mit über 3 Teraflops (Gleitkommaoperationen pro Sekunde) bei Kalkulationen mit doppelter Genauigkeit (double precision) mehr als doppelt so schnell rechnen wie die Wettbewerber, kündigte Hazra an.

Die neuen CPUs haben ihren Ursprung im Projekt Larrabee von 2006, mit dem Intel erstmals eigene Grafikprozessoren entwickeln wollte. Drei Jahre später wurde der Versuch eingestellt, stattdessen konzentrierte man sich auf die Vielkern-Prozessor-Architektur namens Many Integrated Cores (MIC) aus Pentium-Kernen. Damit entstanden zunächst mehrere Beschleunigerkarten unter der Bezeichnung Xeon Phi „Knights Corner“, die Leistungen bis zu 1,2 Teraflops im Modus mit doppelter Genauigkeit erreichen und in mehreren Supercomputer-Architekturen zum Einsatz kommen. Jetzt aber setzt Intel seine platz- und stromsparenden Atom-Prozessorkerne der Generation Silvermont ein – sie mussten allerdings für die Parallelverarbeitung beträchtlich modifiziert werden. So berechnet jeder nun simultan vier Threads im Hyperthreading-Verfahren und kann zusätzlich 512-Bit-Vektor­operationen des Typs AVX-512 verarbeiten. Je zwei Kerne sitzen auf einer CPU-Kachel und teilen sich 1 MB L2-Cache-Speicher. 36 solcher Kacheln sind auf dem Prozessor-Die angeordnet – insgesamt also 72 Kerne. Je nach Modellausführung schaltet der Hersteller dabei zwischen 64 und 72 CPU-Kerne zum Betrieb frei.

HPC-Anwendungen skalieren kaum mit der reinen Leistung der Rechenwerke, sondern meist mit der Speicherbandbreite, also mit schnellen Datenwegen zwischen Speichern und CPUs. Und so halten zwei weitere Neuheiten Einzug in die Intel-Architektur: Embedded-DRAM und besonders schnelle Interconnects sind im CPU-Gehäuse inte­griert. Bei dem Embedded-Speicher handelt es sich um den gemeinsam mit Micron Technology entwickelten Speicherwürfel (MC). Dabei werden die MC-DRAM-Chips gestapelt, mit Silizium-Durchkontaktierung (TSV) gekoppelt und von einem eigenen Mikrocontroller gesteuert, der durch effiziente Speicherbelegung nur bestimmte DRAM-Bereiche aktiviert und so Strom sparen kann. Ein 2D-Gitter verbindet die CPU-Kacheln miteinander und koppelt sie an den 16 GB großen MC-DRAM – mit einer Bandbreite von fast 500 GB/s. Das Gitter stellt außerdem die Verbindung zu den DDR4-Controllern her. Die Controller binden den bis zu 384 GB großen DDR4-Hauptspeicher an, der außerhalb des Gehäuses sitzt.

passend zum Thema


  1. Wettlauf der Supercomputer
  2. GPU gegen CPU
  3. Der größte Prozessor

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu INTEL GmbH

Weitere Artikel zu Fujitsu Electronics Europe GmbH

Weitere Artikel zu Grafikprozessoren

Weitere Artikel zu Mikroprozessoren