Elektroniknet Logo

Effektive Materialforschung

Voraussetzung für 5G, KI und Big Data


Fortsetzung des Artikels von Teil 2

Von Neumann zu Neuronen

Was genauso auch für das Advanced Packaging am anderen Ende der Wertschöpfungskette gilt: Hier halten in abgewandelter Form Techniken Einzug, die aus dem Front End bekannt sind wie etwa die Lithografie, aber auch ganz neue Methoden, um Chiplets, Fan-out Wafer-Level- und Panel-Level Chips und optische Verbindungen realisieren zu können, um nur einige zu nennen.
Doch die Entwicklung wird weiter voranstürmen, und hier sieht Ralph Dammel die größten Chancen: Die Von-Neumann-Architektur gilt es abzulösen. Denn deren Kennzeichen es ist, dass die Daten zwischen den getrennten CPU- und Speichereinheiten ständig über Busse hin und her geschoben werden müssen – was sehr viel Energie kostet und Wärme produziert. Zudem können die erforderlichen niedrigen Fehlerraten kaum noch erreicht werden.

Von Neumann zu Neuronen

Doch es gibt einen Ausweg: neuromorphe Chips, die ähnlich arbeiten wie das Gehirn von Lebewesen. Die Basiseinheiten sind Neuronen, die gleichzeitig als logische Elemente wie als Speicher fungieren. Weil in neuromorphen Chips die Von-Neumann-Trennung von CPU- und Speichereinheiten aufgehoben ist, lassen sich bereits signifikante Reduzierungen der Energieaufnahme erzielen. Was mindestens ebenso interessant ist: Es wurde schon gezeigt, dass neuromorphe Systeme selbst bei Fehlerraten von 40 Prozent noch gut funktionieren, sie sind also fehlertolerant, was ein weiterer großer Vorteil gegenüber der Von-Neumann-Architektur ist.

Doch was ist unter „neuromorphen Chips“ bzw. „Neuromorphic Computing“ konkret zu verstehen? Wie so häufig sind die Begriffe nicht scharf. Dem biologischen Vorbild Gehirn am nächsten kommen die asynchron arbeitenden Spiking Neural Networks (SNNs). Doch auch das In-Memory Computing (hier sind die Speichereinheiten in die Logik integriert) sowie die vielen neuronalen Netze (vor allem Convolutional Neural Networks (CNNs), die heute in der Mustererkennung schon weit verbreitet sind und synchron arbeiten), werden üblicherweise zum Neuromorphic Computing gezählt.
Aber selbst die wenigen derzeit erhältlichen SNN-Chips bilden das SNN auf die gewöhnliche CMOS-Logik ab, wie etwa der „Akida“ von Brainchip.

Noch effektiver wäre es, die herkömmlichen Transistoren durch Elemente wie Memristoren zu ersetzen, die den biologischen Neuronen auch in ihrer Hardware ähneln. Was dann auch bedeuten würde, die CMOS-Logik zumindest teilweise zu verlassen.

Für Ralph Dammel jedenfalls steht fest: »Auch wenn CMOS noch sehr lange dominieren wird: Wir werden von CMOS weggehen; das dürfte zwar noch mindestens fünf Jahre in der Zukunft liegen, doch die Entwicklungen, die bereits vorangetrieben werden, sind sehr, sehr vielversprechend.« Das Allerschönste für ihn: Die Technologien, die CMOS hinter sich lassen, benötigen erst recht von Grund auf neu zu entwickelnde Materialen – und zwar in sehr vielen unterschiedlichen Ausprägungen. Genau das Richtige für die von Intermolecular entwickelten Simulations- und Analysemethoden sowie die Prototypenproduktion.

Deshalb ist er überzeugt, dass Merck Performance Materials schon in der Entwicklung der kommenden CMOS-Generationen die erforderlichen Materialien schnell zur Serienreife bringen kann und erst recht gut gerüstet ist für die Explosion des Materialbedarfs in der Nach-CMOS-Ära. »Auch wenn man das auf den ersten Blick übersehen mag: Wir als Spezialist für die Materialentwicklung machen den Weg zur weiteren Digitalisierung erst frei.«

 

Anbieter zum Thema

zu Matchmaker+

Gehirn und Computer
Nach Schätzungen von Experten von IBM liegt die Rechenleistung des menschlichen Gehirns im Bereich zwischen 1 und 10 Exaflops, die Speicherkapazität zwischen 4 und 5 PB. Dabei nimmt das Gehirn 20 W auf. Dennoch ist die Energieaufnahme gemessen am Gesamtgewicht eines Menschen enorm: Es wiegt rund 1300 g, konsumiert aber 25 Prozent des Energiebedarfs des Körpers.

Wollte man die Leistung des Gehirns – gemessen in eFLOPS und PB – mit einem Computer realisieren, so wären dafür zehn Supercomputer vom Typ Summit von IBM erforderlich. Sie wiegen 3400 t, beanspruchen die Fläche von 10 Tennisplätzen und verbrauchen 150 MW Energie.


  1. Voraussetzung für 5G, KI und Big Data
  2. "...die Ziel-ICs werden im eigenen Haus designt"
  3. Von Neumann zu Neuronen

Das könnte Sie auch interessieren

Verwandte Artikel

Merck KGaA