Anforderungen krempeln Prozesse um IC-Design im KI-Zeitalter

Ravi Subramanian, Mentor: »Weil das Design der Halbeitersubsysteme von der Systemebene her definiert werden muss, können Siemens und Mentor nach der Übernahme ihr Know-How zusammenführen, um den Anwendern die Entwicklung flexibler Plattformen und ihre effektive Validierung zu ermöglichen.«

Warum die Übernahme von Mentor durch Siemens für 4,5 Mrd. Dollar sinnvoll war und was jetzt möglich ist, erklärt Ravi Subramanian, VP und GM von Mentor.

Als Siemens im April 2017 Mentor für 4,5 Mrd. Dollar übernommen hatte, fragte sich so mancher, was ein Systemhersteller mit einer EDA-Firma anfangen will, die auf das Chip-Design spezialisiert ist. Für Ravi Subramanian, Vice President und General Manager IC Verification Division von Mentor, die jetzt zu Siemens gehört, bietet die Kombination beider Firmen genau die Antworten auf die Fragen, die der IoT-Umbruch stellt. Dieser Umbruch sei nur mit der Einführung der Handys, der PCs und der Minicomputer vergleichbar. Ein Beispiel dafür: »Die Rechenkapazität für die größten KI- und Machine-Learning-Trainingsläufe verdoppelt sich alle 3,5 Monate. Seit 2021 ist sie um den Faktor 300.000 gestiegen«, so Subramanian. Allein diese Aufstellung zeige, wie stark die Elektronikindustrie durch den Umbruch erschüttert werde. Denn die Leistungsfähigkeit der ICs hätte sich entsprechend Moore‘s Law im selben Zeitraum nur um den Faktor 12 verbessert.

Es tut sich also eine beachtliche Lücke auf: Die bisherigen Methoden der Skalierung und Verbesserung der Produktionstechniken für Chips reicht im Zeitalter von KI und Machine-Learning nicht mehr aus, um die schnell wachsenden Anforderungen erfüllen zu können.

Deshalb halten neue Prozessor- und neue Speicher-Architekturen Einzug. Daran entwickeln die IC-Hersteller genauso wie die Anwender: Amazon, Alphabet, Volkswagen, Samsung, Microsoft, Huawei, Intel, Apple, Daimler, Merk, Toyota, Novartis, Ford, Facebook, Pfizer, BMS, GM, Bosch, Siemens und Oracle investieren Rekordbeträge in R&D, Amazon im vergangenen Jahr nicht weniger als 22,6 Mrd. Dollar, gefolgt von Alphabet mit 16,2 Mrd. Dollar und Volkswagen mit 15,8 Mrd. Dollar. Denn alle wollen sich für die KI- und Machine-Learning-Ära möglichst gute Ausgangspositionen sichern.

Die Systeme, die diese Firmen herstellen, sind zwar ganz unterschiedlich, gemeinsam ist ihnen aber, dass die zugrunde liegenden Silizium-Subsysteme den Ausschlag dafür geben, ob sie die hohen Anforderungen erfüllen können. Das krempelt die Designmethoden für die Entwicklung der Systeme um: Denn es muss jetzt von der Systemebene aus definiert werden, wie die Halbleiter aussehen, welche Prozessorelemente und welche Speicher sie enthalten und wie das Ganze partitioniert ist. Einfach SoCs auf der RTL-Ebene zu entwickeln genügt nicht mehr.

Dazu ein Blick auf die Halbleitersysteme selber: Die Art und Weise, wie die Daten zwischen den verschiedenen Verarbeitungselementen hin und her bewegt und wie die Verarbeitungselemente verteilt sein werden, wird sich ändern. KI-Beschleuniger werden dabei eine genauso wichtige Rolle spielen wie Speicher.

Weil die Verarbeitungselemente nicht notwendigerweise auf einem einzigen SoC integriert sein müssen, entwickelt sich das Packaging zu einem weiteren wesentlichen Element. Der noch junge Chiplet-Ansatz zeigt, wo der Weg hingeht, Prozessorhersteller wie AMD und Intel nutzen die Technik bereits, auch Designer von ASICs wie eSilicon oder Netronome sind involviert. Denn damit lassen sich die Halbleitersysteme so auslegen, dass sie die jeweiligen Workloads gut verarbeiten können; ein universeller Prozessor wie bisher wird die Aufgaben weder in Datenzentren noch in Edge-Geräten allein bewältigen können.

Ein weiteres Beispiel für den Umbruch: Prozessorhersteller wie Intel kümmern sich intensiv um Speichertechniken und umgekehrt: So hat Micron kürzlich FWDXT (Forward next) übernommen, die Hardware- und Software-Tools für Deep-Learning-Anwendungen entwickelt. In der Kombination mit den eigenen Speichern will Micron Deep-Learning-Systeme realisieren, die für die Datenanalyse erforderlich sind, insbesondere in den Bereichen IoT- und Edge-Computing. Ziel ist es, Computer, Speicher, Tools und Software in eine umfassende KI-Entwicklungsplattform zu integrieren. Diese Plattform wiederum soll die wichtigsten Bausteine für die Erforschung von Speichersystemen erlauben, die für KI-Workloads optimiert sind.