ISSCC 2019 KI, Speicher und 5G dominieren weltweit führende Chip-Konferenz

Machen Sie mit bei der Wahl zum "Innovator des Jahres" und gewinnen Sie eine Reise zur IEDM- oder ISSCC-Konferenz in San Francisco.
Die ISSCC-Konferenz findet alljährlich in San Francisco statt.

Die in San Francisco stattfindene ISSCC ist 2019 sehr bemerkenswert. Zum ersten Mal seit jeher zeigt die Flagship-Halbleiterkonferenz des IEEE - jetzt im 66. Jahr - keine neuen Allzweck-Prozessoren. Dennoch gibt es keinen Mangel an Innovation in Bereichen wie KI,5G, Automotive und Gesundheitswesen.

Mit 3.050 Teilnehmern erfreut sich die International Solid-State Circuits Conference   (ISSCC) 2019 an dem zweithöchsten Besucheraufkommen in den letzten 10 Jahren, nur 2015 kamen mit 3.179 noch mehr Besucher nach San Francisco. 2018 machten sich Teilnehmer von 358 Unternehmen, 186 Forschungseinrichtungen wie Universitäten und 663 Studenten auf den Weg. 65,3 % der Teilnehmer kamen von dem amerikanischen Kontinent, 23,2 % aus Asien und enttäuschende 11,5 % aus Europa.

Dieses Jahr wurden 609 Präsentationen eingereicht, von denen es 197 in die Konferenz schafften. Aus Europa kommen dabei nur 30 Präsentationen (15 %), von denen alleine 13 vom belgischen IMEC stammen. Asien ist mit 79 Präsentationen dabei (40 %) und Amerika mit 88 Präsentationen (45 %).  

Das Fehlen wichtiger Präsentationen von Mikroprozessoren scheint zwei Trends zu widerspiegeln. Erstens verlangsamt sich die Skalierung des Moore'schen Gesetzes, da Transistoren an grundlegende Grenzen stoßen. Intels 10-nm-Ice Lake wird erst im Herbst eintreffen und die Foundries sind gerade bei 7-nm-Chips (mit vergleichbaren Geometrien), so dass 5 nm und darunter noch Jahre in der Zukunft liegen. Zweitens stammen die jüngsten Fortschritte weniger von Allzweck-CPUs als vielmehr von spezialisierten Beschleunigern wie GPUs, FPGAs und kundenspezifischen Chips, den ASICs, ausgegangen. Die diesjährige Prozessor-Session hat keinen Mangel an diesen spezialisierten Chips für Automotive, Robotik, Kryptographie, Grafikverarbeitung und Optimierungsprobleme. IBM hält einen Vortrag über die Supercomputer „Summit“ im Oak Ridge National Laboratory und „Sierra“ im Lawrence Livermore National Laboratory, die eine Kombination aus Power9-CPUs und Nvidia Tesla-V100-GPUs verwenden, um in die aktuelle Top500-Liste der schnellsten Computer der Welt aufzusteigen.

Yann LeCun von Facebook (Bild 1) eröffnete die Konferenz mit einem Vortrag über die Herausforderungen für weitere Fortschritte in der KI. Die meisten Fortschritte im Bereich des Deep Learnings seit dem ImageNet-Wettbewerb 2012 sind im überwachten Lernen zu verzeichnen, das viele vom Menschen klassifizierte Daten erfordert, oder im sogenannten verstärkenden Lernen, das jedoch zu viele Versuche erfordert, um für viele Anwendungen praktisch zu sein. Bestärkendes Lernen oder verstärkendes Lernen (englisch reinforcement learning) steht für eine Reihe von Methoden des maschinellen Lernens, bei denen ein Agent selbständig eine Strategie erlernt, um erhaltene Belohnungen zu maximieren. Dabei wird dem Agenten nicht vorgezeigt, welche Aktion in welcher Situation die beste ist, sondern er erhält zu bestimmten Zeitpunkten eine Belohnung, die auch negativ sein kann. Anhand dieser Belohnungen approximiert er eine Nutzenfunktion, die beschreibt, welchen Wert ein bestimmter Zustand oder Aktion hat. Die größte Herausforderung für das nächste Jahrzehnt wird es laut LeCun sein, Maschinen zu bauen, die mehr wie Menschen lernen können. Dieses "selbstüberwachte Lernen" erfordert eine viel leistungsfähigere Hardware als wir es heute haben, aber es könnte eines Tages zu Maschinen mit einem gewissen Maß an gesundem Menschenverstand führen.

Die Zunahme der KI- und maschinellen Lernaufgaben hat zu mobilen SoCs mit neuronalen Verarbeitungseinheiten wie Apples A12 Bionic und Huawei's HiSilicon Kirin 980 für Smartphones und andere Edge-Geräte geführt. In einer separaten Session über maschinelles Lernen stellt Samsung seinen neuronalen Dual-Core-Prozessor mit 1.024 Multiplikator-Akkumulator-(MAC)-Einheiten vor, der für seinen 8-nm-Prozess entwickelt wurde und der 6,94 Billionen Operationen pro Sekunde bei 0,8 Volt Versorgungsspannung ermöglicht. Samsung sagt, dass die Architektur seines neuronalen Prozessors eine 10-fache Beschleunigung gegenüber dem vorherigen Stand der Technik liefert, die ohne weitere Details über die Datenformate und Algorithmen schwer zu überprüfen ist, aber was klar ist, ist, dass die Leistung neuronaler Prozessoren schnell gewachsen ist, wie Bild 2 zeigt, das den Fortschritt in den maschinellen Lernchips seit der Konferenz im letzten Jahr vergleicht.

Die diesjährigen Vorträge umfassen auch Designs, die mit verschiedenen Arten von künstlichen neuronalen Netzwerken (einschließlich neuromorpher Chips zum Spiken neuronaler Netze) und Multi-Bit-Präzision umgehen können, um Genauigkeit und Durchsatz zu optimieren. Ein Beispiel präsentierte Hoi-Jun Yoo vom koreanischen Forschungsinstitut KAIST (Bild 3) mit einem DNN-Prozessor-SoC, das unterschiedliche Präzisionen (FP8 bis FP16) nutzt und eine extrem hohe Energieeffizienz von 25,3 TFLOPS/W erreicht, was rund 4.4x höher ist als bei Nvidias V100-GPU. Der LNPU (Deep-Learning Neural Processing Unit) genannte Chip wird mit 200 MHz getaktet und wird in einem gewöhnlichen 65-nm-Prozess gefertigt, was zu einerm Silizium-Flächenbedarf von 166 Quadratmillimetern führt.    

Eine der größten Herausforderungen für KI-Hardware ist es, diese hochparallelen Verarbeitungsmaschinen auszulasten, da Systeme keine Daten aus dem Speicher lesen und die Ergebnisse schnell genug zurückschreiben können. In diesem Jahr beinhaltet die ISSCC ein Nachmittagsforum, das sich mit speicherzentrierten Architekturen für KI- und maschinelle Lernanwendungen befasst und unter anderem Vorträge von ARM, IBM, Intel, Nvidia und Samsung enthält. Im High-End-Bereich tragen schnellere Speicher wie High-Bandwidth-Memory (HBM) und GDDDR6 dazu bei, diese Probleme anzugehen, und neu entstehende Speicher der Speicherklasse wie STT-MRAM könnten die Lücke zwischen DRAM-Systemspeicher und Flash-Solid-State-Speicher schließen.

Eine neuere Lösung, die im Mittelpunkt vieler aktueller Forschungsarbeiten steht, eleminiert den Datentransfer komplett und quetscht stattdessen die Zahlen in das Speicher-Array. Einige der CIM-Kandidaten (Compute In-Memory) auf der diesjährigen Konferenz sind ReRAM- und SRAM-Makros. Diese Designs sind besonders vielversprechend für das maschinelle Lernen in Edge-Geräten, da sie eine sehr geringe Latenzzeit aufweisen und eine hohe Effizienz bei den Operationen pro Sekunde und Watt aufweisen.

Die Konferenz enthält auch viele Neuigkeiten über konventionelle eingebettete und diskrete Speicher. Sowohl Samsung als auch TSMC präsentieren 7-nm-Dual-Port-SRAM-Bitzellen für Hochleistungsanwendungen  (Dual-Port-RAM ermöglicht es, mehrere Lese- und Schreibvorgänge gleichzeitig durchzuführen, um den Datendurchsatz zu steigern). Auf der ISSCC werden weiterhin auch einige der ersten Präsentationen über die nächste Generation von DRAM-Speicher gezeigt, um die Bandbreite zu erhöhen und die Leistungsaufnahme zu reduzieren. Samsung zeigt einen Baustein der ersten LPDDR5-Generation der 10-nm-Klasse (Low-Power DDR5) für Smartphones und andere mobile Anwendungen, das nicht nur schneller ist (7,4 Gbps pro Pin), sondern auch den Energiebedarf für Lese- und Schreiboperationen um 21 Prozent bzw. 33 Prozent im Vergleich zum aktuellen LPDDR4X reduziert. Rivale SK Hynix zeigt einen 16Gb DDR5-Chip, der mit 6,4 Gbps pro Pin arbeitet und die Stromaufnahme um fast ein Drittel reduziert.

SK Hynix hält  auch einen interessanten Vortrag über ein DRAM-Paket, das acht Chips mit einem Controller kombiniert, um Kapazitäten von 512 GB auf dem Modul zu erreichen. Die ersten 256 GB Module auf Basis von 16 GB DDR4-Chips (bis zu vier pro Paket) kommen gerade auf den Markt und bringen die Kapazität der Mainstream-Xeon Scalable "Cascade Lake" Zwei-Sockel-Server auf 6 TB.

Auf der Speicherseite führt die Einführung von 3D-NAND-Flash-Speicher und Drei- (TLC) und Vier-Bits pro Zelle (QLC) Programmierung dazu, dass die Dichte auf ganz neue Ebenen steigt (Bild 4). Western Digital (SanDisk) kündigt den branchenweit höchsten 3D-Speicherstapel mit 128 Schichten und der peripheren Schaltung unter dem Array an, was zu einem 512Gb TLC-Chip führt. Samsung stellt auch seinen neuesten 512Gb TLC-Chip vor, während Toshibas 96-Lagen-Baustein QLC verwendet, um die Dichte auf 1,33 Tb pro Chip oder mehr als 1 GB pro Quadratmillimeter Siliziumfläche zu erhöhen. 

Hochleistungs-Computing, massive Cloud-Rechenzentren und schnellere 4G- und 5G-Netzwerke steigern die Nachfrage nach schnelleren Netzwerken auf allen Ebenen. Die diesjährige Konferenz enthält mehrere Ankündigungen von mehreren hochmodernen drahtgebundenen Transceivern, die PAM-4-Modulation verwenden, um Geschwindigkeiten über 100 Gbps zu erreichen - darunter drei 7-nm-Chips (eSilicon, Huawei und MediaTek) und ein IBM 14nm FinFET-Design, das einen Rekord von 128 Gbps erreicht. Diese werden dazu beitragen, die Nachfrage nach schnelleren Verbindungen innerhalb und zwischen Rechenzentren zu befriedigen.

Für drahtlose Netze hat Qualcomm derzeit den Vorteil mit seinem X50-Modem - das in vielen der ersten 5G-Handys auf dem Mobile World Congress Ende dieses Monats zu sehen sein wird - aber einige andere sind dicht dahinter. Auf der ISSCC stellt Samsung ein 14-nm-Basisband vor, das 5G (sowie 2G, 3G und 4G) unterstützt und bis zu 3,15 Gbps Down und 1,27 Gbps Up auf einem 38,4 Quadratmillimeter großen Die liefert. Es ist Teil des Exynos Modem 5100 Chipsatzes (der auch Power-Management-Chips beinhaltet), den Samsung auf der ISSCC vorführt. Intel stellt einen 28-nm 5G-Transceiver für Sub-6-GHz-Bänder und mmWave-Bänder vor. Es ist Teil des XMM 8160, einem 5G-Chipsatz, den Intel Ende 2018 angekündigt hat. Der XMM 8160 unterstützt 5G (und 2G, 3G und 4G) und kann Geschwindigkeiten von bis zu 6 Gbps erreichen. Der XMM 8160 wird in der zweiten Jahreshälfte 2019 ausgeliefert und ersetzt Intels ersten 5G-Chipsatz, den XMM 8060, der angeblich "zu einer Entwicklungsplattform wird". Bild 5 zeigt die Entwicklung der Datenraten über die Zeit.

Es mag viel länger dauern, bis Intel und andere den nächsten großen "Tick" in Mikroprozessoren liefern, aber die Industrie hat immer noch viele "Tocks" in der Tasche. Die Nachfrage nach schnellerer Berechnung, Speicherung und Kommunikation hat sich nicht verlangsamt, und wie die diesjährige ISSCC zeigt, suchen die Chiphersteller weiterhin nach innovativen Wegen, um zu reagieren.