Neuer CEO, neue Prozessoren »Intel befindet sich mitten im Wandel«

Remi El-Ouazzane, VP und COO der AI Products Group von Intel, auf der „EMEA Intel AI DevCon“ in München.

Intel erreicht auf einigen Märkten nicht den Anteil, der dem Unternehmen eigentlich zukommt. Bob Swan will das ändern.

So lässt sich in Kurzform formulieren, was der bisherige Übergangs-CEO von Intel, in seiner E-Mail an die Mitarbeiter anlässlich seiner soeben erfolgten Ernennung als permanenter CEO formuliert hatte.Gleichzeitig sprach er von riesigen Chancen, wie sie sich für Intel in der fünfzigjährigen Unternehmensgeschichte noch nicht aufgetan hätten. Ob es Intel gelingt, diese Chancen in steigenden Umsatz und steigende Anteile in neuen Märkten umzusetzen, daran wird sich Bob Swan messen lassen müssen.

Seine Strategie: Furchtlos und offen neue Märkte anzugehen, die sich in einer zunehmend datenzentrischen Welt auftun: »Intel befindet sich mitten in einer Transformation, die sich als die erfolgreichste in der Firmengeschichte herausstellen kann. Dazu muss sich aber die Umsetzung verbessern, was geschehen wird.«

Eines der Hauptschlachtfelder: künstliche Intelligenz. Mit zahlreichen teuren Übernahmen – unter anderem von Altera, Mobileye, Movidius und Nervana – hat Intel bereits die Weichen in diese Richtung gestellt. Einige Ergebnisse hat Intel auf der ersten „EMEA Intel AI DevCon“ vorgestellt, die kürzlich in München stattfand – allerdings noch bevor der neue CEO bekannt gegeben wurde. Doch dürfte Bob Swan mit den neuen Chancen, von denen er in seiner E-Mail an die Mitarbeiter sprach, vor allem den KI-Markt gemeint haben. Da trifft es sich gut, dass zuvor Remi El-Ouazzane, VP und COO der AI Products Group von Intel, auf der EMEA Intel AI DevCon bereits auf dedizierte KI-Hardware eingehen konnte. So wird der neue „Deep Learning Accelerator“ vom Typ NNP-L 1000 (Codename Spring Crest) den Lernprozess für KI-Systeme deutlich beschleunigen – gegenüber dem Vorgänger (Lake Crest) mindestens um den Faktor vier, wie Remi El-Ouazzane erklärte.

Entwickelt wurde er innerhalb von Nervana, die Intel 2016 übernommen hatte. NNP steht für neuronaler Netzwerkprozessor, das L für Learn. Es handelt sich also um einen Prozessor, der für das Training von KI-Systemen auf Basis von neuronalen Netzen ausgelegt ist und unter anderem das Gleitkommaformat bfloat16 beherrscht, das in ML-Systemen bereits Verbreitung gefunden hat. Intel verwendet es unter anderem auch in den Xeon-Prozessoren und in den Altera-­FPGAs. TSMC fertigt den NNP-L 1000 mithilfe eines 16-nm-Prozesses; seit Dezember letzten Jahres gibt es Samples. »Ende des Jahres wird der NNP-L 1000 in ersten Datencentern installiert sein und KI auf die nächste Stufe heben«, so El-Ouazzane. Sein Bruder, der NNP-I 1000 (Codename Spring Hill), soll laut El-Ouazzane ebenfalls noch in diesem Jahr auf den Markt kommen. Das I steht dabei für Inference: Mit dem „Deep Learning Accelerator“ vom Typ NNP-I 1000 zielt Intel also auf das Feld der Inferenz ab und will diesen Vorgang ebenfalls wesentlich beschleunigen. »Er wird in diesem Jahr auf den Markt kommen und einen ganz neuen Maßstab setzen«, so El-Ouazzane. Einen ersten Kunden nannte er ebenfalls schon: Facebook.

Beides, den Lernvorgang wie die Inference zu beschleunigen, ist eine wesentliche Voraussetzung dafür, Deep Learning, also das Lernen auf Basis neuronaler Netze, wirtschaftlich sinnvoll zu machen. Nur so kann diese KI-Technik in großem Maßstab auf der Ebene der Datencenter, der Edge-Geräte und Devices Einzug halten. In diesem Umfeld ist Intel natürlich nicht alleine. Neben den bekannten Wettbewerbern – darunter vor allem Nvidia, IBM, AMD und Google – sind zahlreiche mit üppigen Investorengeldern ausgestattete Start-up-Firmen eifrig dabei, neue KI-Prozessoren zu entwerfen, vornehmlich auf Basis neuronaler Netze. Dem steht El-Ouazzane gelassen gegenüber. Denn im KI-Umfeld käme es darauf an, nicht nur die neusten KI-Prozessoren auf den Markt zu bringen, sondern auf einer breit angelegten Hardware- und Softwarebasis aufbauen zu können. Denn zu vielfältig sind die Anforderungen all der unterschiedlichen KI-Einsatzgebiete, als dass eine Hardware-Architektur oder eine Technologie allein alle abdecken könne. Schließlich sei KI keine Erfindung der vergangenen zwei Jahre. Und Intel sei von Anfang an dabei gewesen.

Diese Historie sei wichtig, denn auch die traditionelle Hardware spielt aus Sicht von El-Ouazzane eine unverzichtbare Rolle in der neuen KI-Welt. Ein wesentliches Element bilden die Prozessoren der Xeon-Familie für den Einsatz in Rechenzentren. Zwar handelt es sich hier (noch) um konventionelle Prozessoren, sie eignen sich aber hervorragend, um auf ihnen KI-Lernprozesse laufen lassen zu können. Denn häufig sind die »Deep Learning Accelerators« gar nicht erforderlich, um geeignete KI-Umgebungen in Rechenzentren aufzubauen. Hier kommt es neben den Prozessoren vor allem darauf an, auf die richtige Speicherarchitektur zu setzen, um für den Lernprozess die Daten mit möglichst hohem Durchsatz bei geringer Latenz zur Verfügung stellen zu können. »Der Speicher ist die Achillesferse jeder KI-Architektur«, betonte denn auch Remi El-Ouazzane auf der AI DevCon in München.