IEDM 2017 Innovationen auf Systemebene sind notwendig

Dr. Lisa Su, AMD: »3D-Stacking-Technologien sind vielversprechend, weil sie den Energieverbrauch pro Bit senkt und die Speicherbandbreite erhöht. Aber diese Technik ist für die Volumenfertigung noch nicht geeignet. Technisch ist das kein Problem, aber Kostenprobleme müssen noch geklärt werden.«
Dr. Lisa Su, AMD: »3D-Stacking-Technologien sind vielversprechend, weil sie den Energieverbrauch pro Bit senkt und die Speicherbandbreite erhöht. Aber diese Technik ist für die Volumenfertigung noch nicht geeignet. Technisch ist das kein Problem, aber Kostenprobleme müssen noch geklärt werden.«

Dr. Lisa Su, President und CEO von AMD, erklärte in ihrer Keynote während der diesjährigen IEDM, dass die bisherigen Mittel, um die Rechenleistung von CPUs und GPUs zu steigern, in Zukunft nicht mehr ausreichen. Neue Ansätze, speziell auf Systemebene müssen genutzt werden.

Dass in den letzten Jahren eine enorme Steigerung der Rechenleistung erreicht wurde, macht Su an zwei Beispielen deutlich: Im Jahr 1992 kam der Super-Computer Cray, der leistungsstärkste Computer von damals, auf eine Rechenleistung von 15 GFLOPs. Su: Heute, also 25 Jahre später erreicht eine Spielekonsole rund 5 bis 6 TFLOPs und das für 500 Dollar.«

Und ein Ende ist nicht in Sicht, der Bedarf an noch höherer Rechenleistung ist aus Sus Sicht ungebrochen. Nicht umsonst hat AMD mit seinem »Project 47« einen 1PetaFLOPs schnellen Prototypen vorgestellt.

Doch wozu braucht man die gesamte Rechenleistung? Su: »Die Ära der PCs neigt sich dem Ende zu, auch der Mobiltelefonmarkt ist gesättigt.« Den nächsten Schwung soll die so genannte Immersive Ära bringen, die zwei Anforderungen aufweist, die den Rechenbedarf nach oben treiben: Einfache Nutzbarkeit, um die Nutzererfahrung zu verbessern, sprich Spracherkennung, Gesichtserkennung, Gestenerkennung. Und der steigende Bedarf, Daten zu verarbeiten, sprich Big Data Analyse, High Performance Computing und Maschinenlernen.

In der PC-Ära hat sich laut SU die Rechenleistung alle 1,5 Jahre verdoppelt, ähnlich wie die Leistungseffizienz (siehe Bildergalerie). »Das hat sich in den letzten Jahren verlangsamt, weil die Skalierung der Transistoren immer schwieriger wird«, so Su weiter. Also wurden an vielen anderen Schrauben gedreht, einschließlich System-, Architektur- und Software-Innovationen, um die Rechenleistung in einem ähnlichen Tempo weiter zu steigern. Auch im Server-Bereich sowie bei den GPUs wurden enorme Leistungszuwächse erzielt.

Bislang wurden diese Leistungszuwächse aus ihrer Sicht zu 40 Prozent durch neue Prozesstechnologien erreicht. Die restlichen 60 Prozent wurden über die Integration von Systemkomponenten, die Verbesserung der Mikroarchitektur, eine größere Die-Fläche, durch ein ausgeklügeltes Power-Management und über Software erreicht.

Alte Ansätze kommen an ihre Grenzen

Su ist der Überzeugung, dass viele der bisher verwandten Ansätze an ihre Grenzen stoßen, so dass nur zusätzliche Innovationen auf Systemebene zu einer weiteren Leistungssteigerung führen können. Das betrifft zwar nicht die Skalierung der Transistoren, die soll auch in Zukunft noch ihren Beitrag leisten, aber beispielsweise hält Su eine weitere Erhöhung der Die-Fläche für schwierig. Su: »Mit jedem Sprung auf den nächsten Technologieknoten steigt die Komplexität, so dass die Kosten pro mm² in modernen Technologien kontinuierlich gestiegen sind. Hinzu kommt noch, dass die Fertigungsausbeute für sehr große Die-Flächen ziemlich schlecht ist und dass auch die Grenzen der Masken erreicht sind.«

Ansätze, um hier weiter zu kommen, gibt es aus Sus Sicht einige. AMD nutzt beispielsweise die MCM-Technologie, um mehrere Dies nebeneinander zu setzen, was sich positiv auf die Fertigungsausbeute und damit auf die Kosten auswirkt. Ein weiterer Ansatz ist die 2.5D-Technik, die AMD ebenfalls nutzt, um HBM (High Bandwidth Memory: Speicher-Stacks) über einen Interposer neben einer GPU zu platzieren. Hier betont Su, dass damit nicht nur der Energieverbrauch bei Speicherzugriffen deutlich niedriger ausfällt, sondern dass im Vergleich zu GDDR5 auch niedrigere Frequenzen und ein einfacheres elektrisches Protokoll möglich sind. Als Zukunftsmusik, aber mit viel Potenzial, bezeichnet Su die 3D-Technik. Allerdings wäre diese Technik immer noch in der Experimentierphase, es muss noch viel passieren, dass sie auch in der Hochvolumenproduktion kosteneffektiv genutzt werden kann. So sieht Su beispielsweise immer noch Probleme mit der TSV-Technik, aber auch Probleme mit der Wärmeentwicklung seien noch nicht gelöst. Hier könnten vielleicht Mikrofluide Ansätze eine Lösung darstellen.

Last but not least ist auch die Weiterentwicklung auf Transistorebene wichtig, speziell um die Energie pro Operation zu reduzieren, Potenzial sieht sie hier im SiGe-Tri-Gate und in GAA-Transistoren. Su weiter: »Die Kommunikation verbraucht einen Großteil des Leistungs-Budgets. Deshalb seien auch Fortschritte im analogen I/O-Bereich notwendig, um die Leistungsaufnahme zu reduzieren und höhere Geschwindigkeiten zu ermöglichen. Su abschließend: »Auf der Speicherseite muss auch einiges passieren, hier können 2.5D und 3D-Integrations-Ansätze helfen, aber sie stellen nur den ersten Schritt in die richtige Richtung dar. Die Speichertechnologie an sich muss verbessert werden und zwar in Hinblick auf Dichte, Kosten pro Bit und Energie pro Bit. Eine Reihe nichtflüchtiger Technologien wie PCM, MRAM und ReRAM zeigen diesbezüglich einiges an Potenzial, sie müssen aber noch ausgereift werden.«

Bilder: 6

AMD-IEDM

Wie die Rechenleistung in den letzten zehn Jahren gesteigert wurde und wie sie zukünftig gesteigert werden kann