Intel wird 50 Jahre alt "Nur die Paranoiden überleben"

2.018 Drohnen ließ Intel zum 50. Geburtstag bei seiner Firmenzentrale in Snata Clara aufsteigen - Weltrekord.
2.018 Drohnen ließ Intel zum 50. Geburtstag bei seiner Firmenzentrale in Santa Clara aufsteigen - Weltrekord.

Intel ist der bekannteste und größte Halbleiterhersteller der Welt, dem die Industrie zahlreiche Innovationen verdankt. Heute feiert man in der Firmenzentrale in Santa Clara den 50. Geburtstag. Hier ist unser Rückblick auf 50 spannende Jahre - und ein Fazit von Firmengründer Gordon Moore.

Am 18. Juli 2018 feiert Intel seinen 50. Geburtstag. Hierbei stiegen 2.018 Drohnen an der Firmenzentrale im kalifornischen Sanata Clara synchron auf und schrieben eine fulminante LED-Lichtshow in den Himmel. Dieser Weltrekord sollte zeigen, dass Intel noch immer innovativ und agil ist: Fliegen auf Basis von GPS-Navigation, die Steuerung einer Flotte durch einen einzelnen Piloten, die “Drohne-zu-Drohne”-Kommunikation und “autonomes Fliegen”.

Gegründet wurde Intel von Bob Noyce und Gordon Moore. Beide gehörten den legendären "Untreuen Acht" an, einer Gruppe von Managern, die aus Unzufriedenheit mit der Entwicklungsstrategie ihres damaligen Arbeitgebers Fairchild Semiconductor ihre eigene Firma gründeten. Die Idee war, mehrere Transistoren auf einem Stück Halbleiter zu implementieren. Mit seiner Erfindung des integrierten Schaltkreises legte Noyce gemeinsam mit Jack Kilby von Texas Instruments den Grundstein der heutigen Chip-Industrie.

Steht Intel heute für Mikroprozessoren, begann man 1968 sein Geschäft zunächst mit Speicherchips. Im April 1969 kam der Direktzugriffsspeicher 3101 mit aus heutiger Sicht lächerlichen 64 bit Speichervermögen, der auf der Bipolartechnik aufsetzte.

Parallel wurde am Silizium-Gate-Metalloxid-Speicher gearbeitet, was in den 1969 vorgestellten SRAM-Chip 1101 mündete. Hier kamen erstmals Silizium- statt Metall-Gates zum Einsatz.

Erst 1971 entstand die erste CPU, der 4-bit-4004, 1972 folgte der 8-bit-8008, 1974  der 8080. 1978 folgte dann mit dem 8086 der erste x86-Prozessor, der eine CISC-Architektur implementierte, die noch heute – wenn auch mehrfach vom Befehlssatz und von der Registerbreite erweitert –  die Basis aller Intel-CPUs darstellt. 1979 gab es mit dem 8088 noch eine abgespeckte Version des 8086.

Mit den x86-Prozessoren bekann die legendäre Wintel-Allianz zwischen Intel und Microsoft in der sogenannten PC-Ära. Die Idee war, dass Microsoft immer ressourcenfressendere Windows-Versionen herausbrachte, die entsprechende Hardware-Erweiterungen nicht nur auf der DRAM-, sondern vor allen Dingen auf der CPU-Seite erforderten. Dies war für Intel quasi im Jahresrythmus die Lizenz zum Gelddrucken, da die PC-Anwender mehr oder weniger gezwungenermaßen die neuesten Geräte kaufen mussten, wenn sie denn von Microsofts “Innovationen” auf der Softwareseite profitieren wollten. Legendär war dabei Intels “Intel-Inside-Kampagne”, welche zur Prime-Time z.T. täglich im Fernsehen zu bewundern war. Die einfache Message an den Endkunden lautete: Egal, welchen PC Du kaufst, Hauptsache ein Intel-Prozessor steckt drin.

Leidtragender war – damals konnte man ihn noch so nennen  – der kleine Konkurrent AMD, der nebenbei mit illegalen Knebelverträgen z.B. mit dem seinerzeit in Europa dominierenden Elektronikhänder Media Markt/Saturn vom Markt ferngehalten werden sollte. Vor fast einem Jahrzehnt wurde gegen Intel deswegen von der EU-Kommission eine Milliarden-Strafe wegen unfairen Wettbewerbs verhängt, die freilich noch nicht bezahlt wurde: Der Fall geht noch durch weitere Gerichtsinstanzen.

Im Jahr 2008 – ein Jahr nach der Vorstellung des ersten iPhones durch Apple – erklärte ein Intel-Manager erstmals in der Öffentlichkeit auf einer Prozessorkonferenz in Tokio, das sich das PC-Zeitalter dem Ende zuneigen würde. Tatsächlich entwickelte sich das Smartphone seitdem zum meistgenutzten Endgerät für den Zugang ins Internet. Trotz mehrfacher Versuche u.a. unter Leitung des deutschen Ex-Infineon-Vorstands Prof. Hermann Eul scheiterte Intel, seine Atom-Prozessoren auf eine Energieeffizienz zu trimmen, welche den Einsatz in einem Smartphone realistisch hätten erscheinen lassen. Stattdessen musste man zusehen, wie sich die kleine Firma arm aus Cambridge mit ihrer vergleichsweisen energieeffizienten RISC-Architektur (erst 32, seit ARMv8 64 bit) zum Helden der Smartphone-Ära aufschwang.

Das Glück für Intel bestand darin, dass mit dem Wachstum des Internets und der Endgeräte vor allen Dingen in China der Bedarf an Rechenleistung in der Cloud explodierte. Mit einem Marktanteil von 90+x % in diesem margenträchtigen Segment konnte Intel das Mobilgeräte-Geschäft einstampfen und trotzdem noch profitabel bleiben.

Nachdem die GPUs über Dekaden die Rolle des Display-Fütterers mit Daten eingenommen hatten, erleben die Grafik-Chips derzeit auf Grund ihrer Parallelisierbarkeit von Workloads eine Art 2. Frühling im Bereich der künstlichen Intelligenz und Maschine Learning. Ähnlich wie bei den Mobilgeräte-Prozessoren wurde Intel auch hier kalt erwischt.

Um wenigstens hier eine gute Rollen spielen zu können, geht Intel inzwischen sogar Kooperationen mit GPU-Herstellern ein. Vor diesem Hintergrund hat Intel seine lange Feindschaft mit AMD aufgegeben und verbaut in seinen neusten Chipsets "Kaby Lake G" für Laptops neben seinen CPUs auch AMDs "Radeon"-GPUs. Zuvor hatte Intel schon IP des GPU-Anbieters Nvidia lizenziert. Bedauerlicherweise aus Intel-Sicht ist Nvidia mit der Rolle des Lieferanten nicht zufrieden.

Schaut man sich die aktuelle Liste der 500 schnellsten Supercomputer der Welt an, erkennt man, wie gut Nvidia sich als Intel-Rivale inzwischen in Stellung gebracht hat. Erstmals seit 25 Jahren lieferten nicht CPUs, sondern GPUs den größten Anteil der Rechenleistung. Der Einzug der Grafik-Chips in die Forschungs-Labore, Universitäten und kommerzielle Datenzentren werde die Landschaft der Supercomputer für immer verändern, schätzt Michael Feldman, Chefredakteur der "Top-500-Liste".

Um die Abhängigkeit von Nvidia zu beenden, stellte Intel den GPU-Chefarchitekten von AMD, Raja Koduri ein, der kürzlich über Twitter ankündigte, dass Intel bereits bis 2020 einen eigenen diskreten GPU-Chip bauen wolle.

Bilder: 10

Intels Top-10-Innovationen

Mehr als 26.000 Intel-Mitarbeiter haben über die größten Innovationen in der 50jährigen Firmengeschichte abgestimmt. Hier sind die Top-10.

Die Intel-Deasaster

Neben vielen Erfolgen und technischen Innovationen war die Intel-Historie auch mehrfach Schauplatz technischer Katastrophen. Aktuell noch gut im Gedächtnis sind die unter "Spectre" und "Meltdown" bekannt gewordenen Angriffsmöglichkeiten auf Basis der spekulativen Befehlsausführung eines Out-of-Order-Prozessors. Die aufgezeigten Probleme sind bis heute nicht gelöst, trotz Updates und Patches.

Die Krise erinnert an einen Moment, in dem Intel einmal dicht am Abgrund stand: Mitte der Neunzigerjahre wurde ein Fehler bei einem Pentium-Chip entdeckt, der sich bereits im Handel befand. Zunächst hatte Intel versucht, den Fehler zu vertuschen, dann stillschweigend zu korrigieren.

Intel weigerte sich auch nach Protesten, die Chips auszutauschen, was in der Öffentlichkeit eine Welle der Empörung auslöste. Der langjährige CEO Andy Grove entschuldigte sich daraufhin öffentlich und startete ein umfangreiches Austauschprogramm.

Aktuell kämpft Intel mit den Folgen der Sex-Affäre seines Ex-CEOs Brian Krzanich. Dieser musste auf Grund der strengen Unternehmensregeln zurücktreten, aktuell wird der Chip-Riese nur interimsweise von Robert Swan geführt. Eine Nachfolge für Krzanich steht noch nicht fest.

Legendär ist bis heute Andy Groves Motto "Nur die Paranoiden überleben", der Titel eines lesenswerten Buches über seine Zeit als Intel CEO. Andy Grove starb leider im März 2016 im Alter von 80 Jahren an einer Krebserkrankung.

Letztendlich muss man jedoch vor allen Dingen feststellen, dass Intel zahlreiche Innovationen vor allen Dingen in der Chip-Fertigung auf die Beine stellte, von denen heute die gesamte Industrie profitiert. Ein wichtiges Zukunftsfeld für Intel ist die künstliche Intelligenz, deren neuronale Netze in der Lernphase hohe Rechenleistung erfordern, welche durch High-End-Prozessoren wie dem Xeon abgedeckt wird, auf der anderen Seite hat Intel mit Loihi einen KI-Chip in der Entwicklung, dessen Mikroarchitektur ähnlich wie Googles TPU den Anforderungen neuronaler Netzwerke besser gerecht wird als herkömmliche CPU- oder GPU-Architekturen.

 

Bilder: 4

Intels Drohnen-LED-Show

Zum 50. Geburtstag schrieben 2.018 Drohnen eine LED-Show in den Nachthimmel über Santa Clara.