KI und HPC

»Eine Antwort für alle Probleme gibt es nicht«

23. Oktober 2023, 15:30 Uhr | Iris Stroh
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 1

Einheitliche Programmier-API ?

Nicht trivial, denn die Entwicklungen im KI-Bereich schreiten extrem schnell voran.

Ja, weil einfach klar wird, dass mit diesen wie auch immer gearteten neuronalen Netzen viele Applikationsbereiche besser abgedeckt werden können bzw. manche Applikationen werden damit überhaupt erst ermöglicht. Bildverarbeitung gab es schon vor dem Aufkommen von KI, aber auch hier wurde erkannt, dass es mit KI einfach besser geht, und das ist natürlich ein dynamischer Prozess.

Und für jemanden, der eine Architektur designt, ist das eine schwierige Aufgabe, denn er muss entscheiden, welche Sachen gut unterstützt werden sollen und wie sich das am besten in der Hardware widerspiegelt. Gleichzeitig soll die Architektur natürlich auch universell genug sein für zukünftige Applikationen, plus der Anforderung, und das wird oft unterschätzt: Sie soll auch aus Sicht des Programmierers, der Middleware als auch der Applikation möglichst einfach zu nutzen sein.

Vom Programmierer einfach zu nutzen sein, sprechen Sie auf die einheitliche Programmier-API an?

OneAPI würde ich als Middleware bezeichnen. Natürlich gibt es dabei auch eine wirkliche API für den Programmierer. Das ist vor allem im HPC-Bereich wichtig, denn diese Programmierer sind typischerweise immer ein bisschen näher an der Hardware dran, um die optimale Performance rauszuholen. Aber unser Bestreben ist es, eine Software-Schicht zu bieten, die für verschiedene Architekturen, also für eine CPU, GPU oder für Beschleuniger, gleich ist. Die Libraries, die an der Hardware dranhängen, sind natürlich trotzdem unterschiedlich gestaltet.

OneAPI ist übrigens eine Schnittstelle, die nicht nur für Intel-Architekturen funktioniert, sondern auch für andere. Und das ist genau das, was ein Programmierer will: Er will ein Programm schreiben, das möglichst auf jeder Hardware läuft. Bei KI ist man sogar noch einen Schritt weiter, weil in dem Fall auch noch Frameworks wie Pytorch oder Tensor-Flow oder das, was in Zukunft kommt, unterstützt werden müssen. Also müssen wir sicherstellen, dass unsere Libraries, die in OneAPI stecken, das auch können. Damit erreiche ist einerseits Portabilität und andererseits auch die gewünschte Performance.

Intel hat Altera übernommen, FPGAs sind gerade im KI- Bereich eigentlich eine sehr dankbare Architektur, und sie sind per Definition erst einmal generisch. Ist eine Kombination aus FPGA und CPU eine Richtung, die Intel beschreitet?

FPGAs werden durchaus für KI-Anwendungen verwendet und es ist auch denkbar, beispielsweise eine GPU mit einem FPGA zu kombinieren. Die Frage ist aber, ob das für eine hinreichende Anzahl von Anwendern sinnvoll ist. FPGAs können immer für einen sehr speziellen Zweck sehr optimiert programmiert werden, aber das ist durchaus aufwendig.

Hier sollte eigentlich OneAPI helfen, weil dann nicht in RTL programmiert werden muss.

Ja, aber die Frage bleibt trotzdem immer dieselbe: Welche Architekturkombinationen sind wirklich sinnvoll und wie hoch ist der Aufwand? FPGAs sind durchaus interessant für KI-Anwendungen, und sie werden ja auch benutzt, auch unsere Bausteine. Aber auch wir müssen uns überlegen, wo die Stärken dieser Bausteine liegen. Echtzeit ist zum Beispiel ein Pluspunkt von FPGAs, und da werden sie auch eingesetzt. Ob das dann bei anderen Anwendungen irgendwann mal interessant ist, muss man von Fall zu Fall entscheiden.

Nvidia wird derzeit im KI-Bereich am meisten gehypt, das zeigt sich auch an den Aktienkursen. Wo sehen Sie Intel im Trainings-Bereich, einerseits was den Marktanteil anbelangt, aber auch technologisch?

Vom Marktanteil kann ich Ihnen keine Zahlen nennen, aber über die Technik kann ich sehr wohl sprechen. Im Trainings-Bereich bieten wir die Gaudi2-Architektur an. Diese Architektur ist wirklich auf Training und High-Level-Inferencing ausgelegt, sprich: diese Aufgaben kann sie sehr schnell erledigen. Damit sind wir auch erfolgreich, denn auch bestimmte Benchmarks gegenüber dem Nvidia-A100 zeigen, dass wir besser sind. Das schwankt von Benchmark zu Benchmark, aber im Durchschnitt sind wir um den Faktor 2 schneller.

Geht es um GPUs für HPC- und KI-Anwendungen, halte ich Intel ebenfalls für durchaus konkurrenzfähig. Auch hier gibt es eine Menge Benchmarks gegenüber konkurrierenden Plattformen, die zeigen, dass wir durchaus besser sind, wobei ich betonen möchte, dass es immer auf die Anwendung ankommt.

Für entscheidender als Benchmarks halte ich die Tatsache, dass wir dem Anwender nicht eine Lösung anbieten, sondern im Endeffekt drei, sprich: CPU, GPU und spezielle KI-Beschleuniger. Wir bieten also eine größere Diversifizierung, mit der wir die Anwender in die Lage versetzen, ihre KI-Anwendung optimal zu unterstützen. Denn einmal reicht eine CPU, und ein anderes Mal muss Gaudi2 eingesetzt werden.

Das heißt, dass der Anwender nicht irgendeine GPU kaufen muss, die viele Funktionen enthält, die der Anwender gar nicht braucht, die aber für seine KI-Anwendung gut passt. Unser CEO formuliert das gerne so: »Die Demokratisierung von KI«, sprich: wir machen es möglich, dass mehr Anwender KI für ihre Anwendung optimiert nutzen können.

Nvidia setzt auch einen wichtigen Aspekt auf Software, wie sieht Intel das?

Software ist natürlich sehr wichtig. Wir konzentrieren uns erst einmal auf das, was ich gern als Middleware bezeichne, also ein One-API-Stack. Geht es um die Anwendungs-Software, dann setzen wir auf Zusammenarbeit mit Anbietern sowohl aus dem Open-Source-Bereich als auch professionellen Software-Anbietern. Damit stellen wir sicher, dass diese Software optimiert auf unseren Architekturen abläuft. Im HPC-Bereich arbeiten wir beispielsweise mit Ansys und Altair im Engineering-Bereich zusammen. Wir haben auch vorgefertigte Container für bestimmte Szenarien, sodass mithilfe einer Container-Library von uns die Container heruntergeladen werden können, die für bestimmte Zwecke vorgefertigt sind. Und wenn es an die Anwender geht – da setzen wir auf Zusammenarbeit mit den Leuten, die die Anwendung gut verstehen.


  1. »Eine Antwort für alle Probleme gibt es nicht«
  2. Einheitliche Programmier-API ?
  3. "Ethernet noch nicht an der Grenze"

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu INTEL GmbH

Weitere Artikel zu Mikrocontroller

Weitere Artikel zu Künstliche Intelligenz (KI)