Auf der CES 2026 skizzieren verschiedene Halbleiterhersteller den nächsten KI-Schub: von Yottascale-Rechenzentren über KI-PCs und Edge-Prozessoren bis hin zu software-defined Vehicles, Robotik und Automotive-SoCs mit stärkerer Integration, Skalierbarkeit und lokaler KI.
Dr. Lisa Su, Chair und CEO von AMD, ist überzeugt, dass sich die KI-Rechenleistung in den kommenden fünf Jahren in Richtung Yottascale entwickeln wird. Bereits 2022 markierte der Exascale-Supercomputer Frontier, der auf AMD-Technologie basiert, einen Meilenstein. Seitdem wächst die KI-Infrastruktur rasant. Während 2025 rund eine Milliarde Menschen KI aktiv nutzten, sollen es laut Su in fünf Jahren rund fünf Milliarden sein, »die täglich KI nutzen«. Yottascale sei kein fernes Zukunftsszenario, sondern eine notwendige und reale Größenordnung – und zugleich erst der Anfang.
Der steigende Bedarf betrifft sowohl Training als auch Inferenz. Laut Su vervierfacht sich der Rechenbedarf neuer Modelle jährlich, während das Volumen der verarbeiteten Inferenz-Tokens in den vergangenen zwei Jahren um den Faktor 100 gestiegen ist. »KI entwickelt sich von gelegentlichen Interaktionen hin zu immer aktiver, ständig verfügbarer Intelligenz. KI-Agenten, multimodale Modelle und autonome Systeme treiben die Inferenzlast massiv nach oben«, sagt Su.
AMD sieht sich technologisch gut positioniert und verfolgt einen klaren Plattformansatz: »AMD schafft die technologische Grundlage für die nächste Phase der KI durch eine durchgängige End-to-End-Technologieführerschaft – von Silizium über Systeme bis zur Software –, ergänzt durch offene Plattformen und eine enge Zusammenarbeit mit Partnern im gesamten Ökosystem«, erläutert Su.
Produktseitig erweitert AMD sein Portfolio deutlich. Vorgestellt wurden die neuen Ryzen-AI-400-Prozessoren für Copilot+-fähige PCs sowie Ryzen AI PRO 400 für Business-Notebooks. Ergänzt wird das Angebot von neuen Ryzen AI-Max+-Modellen für Premium-Notebooks und kompakte Desktop-Systeme sowie Ryzen AI Halo, AMDs erste eigene KI-Entwicklerplattform. Alle Ryzen-AI-400-Prozessoren werden durch den Software-Stack ROCm 7.2 unterstützt.
Technisch basieren Ryzen AI 400 und PRO 400 auf der Zen-5-Architektur und integrieren XDNA-2-NPUs mit bis zu 60 TOPS. Sie haben bis zu 12 CPU-Kerne, Radeon-800M-Grafik und eine TDP von 15 bis 54 Watt. Die Ryzen-AI-Max+-Varianten kombinieren Zen-5-CPUs, Radeon-8060S-Grafik mit bis zu 40 Compute Units, XDNA-NPUs und ein Unified-Memory-Konzept. Die Halo-Plattform ist für lokale KI-Workloads mit sehr großen Modellen ausgelegt und unterstützt bis zu 128 GB Arbeitsspeicher.
Darüber hinaus stellte AMD mit Ryzen AI Embedded ein neues Embedded-Portfolio vor. Die P100-Serie adressiert Automotive- und Industrieanwendungen und kombiniert Zen-5-CPU-Kerne, RDNA-3.5-Grafik und XDNA-2-NPUs. Eine leistungsstärkere X100-Serie soll in den kommenden Monaten in die Bemusterung gehen.
Intel verfolgt das Ziel, KI lokal, effizient und breit verfügbar zu machen und treibt dafür Architektur, Fertigung und die enge Verzahnung von Hard- und Software konsequent voran. Die im Vorjahr gegebene Zusage, bis Ende 2025 erste Produkte auf Basis des neuen 18A-Prozesses auszuliefern, habe Intel nicht nur eingehalten, sondern übertroffen. »Mehrere 18A-basierte Core-Ultra-Series-3-Dies befinden sich bereits im Serienhochlauf«, erklärt Lip-Bu Tan, CEO von Intel. Die erzielten Fortschritte seien nur durch die enge Integration von Chipdesign, Prozessentwicklung, Fertigung und Packaging möglich gewesen – »und das ist etwas, wozu in dieser Form nur Intel in der Lage ist«, meint Tan.
Jim Johnson, Senior Vice President und General Manager der Client Computing Group bei Intel, bezeichnet 18A als »den weltweit ersten Foundry-Prozessknoten mit RibbonFET- und PowerVia-Technologien«. Dank GAA-Transistoren und rückseitiger Stromversorgung erreiche Intel gegenüber Intel 3 eine um bis zu 15 Prozent höhere Performance pro Watt und eine mehr als 30 Prozent höhere Transistordichte. »Eine führende Fertigung ist damit wieder ein strategischer Eckpfeiler von Intel«, betont Johnson.
Mit Core Ultra Series 3 verfolgt Intel eine plattformorientierte Strategie auf Basis eines modularen Multi-Die-SoC-Designs. Zentrale Funktionsblöcke wurden vollständig erneuert: Es gibt neue P-Cores (Cougar Cove), neue E-Cores (Darkmont), eine neue integrierte Arc-GPU (B390, Xe3-Architektur) und die neue NPU5 für energieeffiziente KI-Inferenz. Das Compute-Tile im 18A-Prozess bildet das Leistungszentrum, ergänzt durch ein skalierbares Graphics-Tile und ein separates I/O-Tile. »All das führen wir mit unserer fortschrittlichen Foveros-Packaging-Technologie zusammen, um unterschiedliche Leistungsstufen flexibel abzudecken«, erklärt Johnson.
Für Notebooks verspricht Intel bis zu 27 Stunden Akkulaufzeit, im Vergleich zu Lunar Lake bis zu 77 Prozent schnellere Grafik, 60 Prozent höhere CPU-Leistung und bis zu doppelte KI-Performance. Die Arc-B390-GPU umfasst 12 Xe3-Cores, 96 XMX-Engines mit 120 TOPS, 16 MB L2-Cache und 12 Ray-Tracing-Units. Laut Dan Rogers, Vice President PC Products bei Intel, ist sie »die bislang leistungsstärkste integrierte GPU«.
Intel kombiniert CPU, GPU und NPU zu einem abgestuften KI-System: Die NPU übernimmt daueraktive Inferenz, die GPU rechenintensive KI-Workloads, die CPU Steuerung und Datenaufbereitung. »Wir haben KI nicht als einzelnes Feature entworfen, sondern als durchgängige Fähigkeit über CPU, GPU und NPU hinweg«, schildert Johnson. Insgesamt erreicht die Plattform bis zu 180 TOPS, womit lokal auch »große, quantisierte LLMs mit bis zu rund 70 Milliarden Parametern« verarbeitet werden können.
Über den PC hinaus überträgt Intel die Plattform gezielt auf Edge-Anwendungen wie Robotik, Industrie und Smart Cities. Entsprechende SKUs mit erweitertem Temperaturbereich und Langzeitverfügbarkeit werden parallel eingeführt. Johnson fügt abschließend hinzu: »Unsere Partner arbeiten derzeit an mehr als 200 Systemdesigns auf Basis von Core Ultra Series 3.«
Mit der neuen Prozessorfamilie S32N7 will NXP Semiconductors den nächsten Schritt zum softwaredefinierten Fahrzeug gehen. Der S32N7 ist eine Weiterentwicklung der Super-Integrations-Prozessoren der S32N55-Familie, basiert ebenfalls auf 5-nm-Technologie, hat jedoch einen deutlich erweiterten Funktionsumfang. Nicola Concer, Senior Product Manager Automotive Processors bei NXP, beschreibt den S32N7 als zentralen Fahrzeugrechner, der die Basis für KI-basierte Innovationen im gesamten Fahrzeug schafft – »ohne bestehende Architekturen immer wieder neu erfinden zu müssen«.
Ziel ist es, möglichst viele Fahrzeugfunktionen in einer zentralen Recheneinheit zusammenzuführen und so einen vollständigen »Fahrzeugkontext« zu erzeugen. Gemeint ist die domänenübergreifende Zusammenführung von Echtzeit-, Zustands- und Sensordaten aus Bereichen wie Antrieb, Fahrwerk, Karosserie, Energie- und Netzwerkmanagement. Dadurch können bislang getrennte ECUs konsolidiert und ihre Daten gemeinsam genutzt werden. »Mit dem S32N7 bleibt KI nicht auf einzelne Funktionen wie ADAS oder Infotainment beschränkt, sondern damit wird „KI überall im Fahrzeug“ möglich«, beschreibt Concer.
Technisch kombiniert der S32N7 bis zu 12 lockstep-fähige Cortex-R52-Kerne (bis 1,4 GHz) und bis zu 8 Cortex-A78AE-Kerne (bis 1,8 GHz) sowie die eIQ-Neutron-NPU und einen Car-V-Accelerator. Hinzu kommen ein TSN-Ethernet-Switch mit 7 Ports (bis 10 GBit/s), PCIe-Services, Legacy-Schnittstellen, Security-Module mit Kryptobeschleunigern und ein „Foundation“-Subsystem für Boot, Safety und OTA-Updates. »Hardwaregestützte Partitionierung sorgt für Safety, Security und IP-Isolation bis ASIL-D«, betont Concer.
Der S32N7 ist als Ergänzung zu ADAS und Infotainment ausgelegt und bildet den Kern eines Software Defined Vehicle. Er unterstützt KI-Anwendungen auch im geparkten oder ladenden Zustand und fein abgestufte Power-Modi bis hin zu einem langjährigen Always-on-Betrieb. NXP arbeitete bei der Definition eng mit Bosch zusammen; erste Steuergeräte existieren bereits. Die Serienproduktion ist für Anfang 2027 geplant.
Abschließend betont Concer die Skalierbarkeit der Plattform: »NXP setzt mit S32N55 und S32N7 auf eine durchgängige, pin- und softwarekompatible Architektur.« Für OEMs ergeben sich zudem wirtschaftliche Vorteile: »Potenziell lassen sich die Gesamtbetriebskosten um bis zu 20 Prozent senken.«
Texas Instruments hat auf der CES mehrere neue Automotive-Halbleiter vorgestellt, die Sicherheit und Automatisierung über unterschiedliche Fahrzeugklassen hinweg verbessern sollen. Im Zentrum steht die skalierbare TDA5-Familie von High-Performance-Computing-SoCs, die energie- und sicherheitsoptimierte Verarbeitung sowie Edge-KI für Fahrzeuge bis SAE-Level 3 ermöglicht.
Zur Familie gehört unter anderem der TDA54-Q1, der laut TI 8 Arm-Cortex-A720AE-Kerne und 6 Cortex-R52+-Kerne integriert und durch mehrere dedizierte Hardware-Beschleuniger ergänzt wird. Die SoCs liefern eine Edge-KI-Leistung von 10 bis 1200 TOPS bei einer Effizienz von über 24 TOPS/W. Möglich wird diese Skalierbarkeit dank eines Chiplet-Designs auf Basis von UCIe, mit dem unterschiedliche Funktionsumfänge innerhalb einer einheitlichen Plattform realisiert werden können.
TI integriert in die TDA5-Familie zudem die neue Neural Processing Unit C7, die laut Hersteller bis zu 12-fach höhere KI-Leistung bei ähnlichem Energiebedarf wie frühere Generationen erreicht – ohne aufwendige Kühlung. Die SoCs sind für die Inferenz großer transformerbasierter KI-Modelle mit Milliarden von Parametern ausgelegt und kombinieren KI-Verarbeitung mit Safety-, Security- und klassischen Rechenaufgaben auf einem Chip.
Durch die Zusammenführung von ADAS-, Infotainment- und Gateway-Funktionen lassen sich Systemkomplexität und Kosten reduzieren. Die sicherheitsorientierte Architektur unterstützt zudem die Umsetzung von ASIL-D ohne zusätzliche externe Bausteine. Für die Softwareentwicklung arbeitet TI mit Synopsys zusammen und bietet ein Virtualizer-Entwicklungskit, das SDV-Projekte laut TI um bis zu 12 Monate beschleunigen kann.
Ergänzend stellte TI den AWR2188 vor, einen Single-Chip-4D-Imaging-Radartransceiver mit 8 Sende- und 8 Empfangskanälen. Verbesserte ADC-Verarbeitung und ein optimierter Chirp-Generator sorgen für rund 30 Prozent höhere Performance und präzisere Objekterkennung bei Entfernungen von über 350 Metern.
Abgerundet wird das Portfolio durch den DP83TD555J-Q1, einen 10BASE-T1S-Ethernet-PHY, der Ethernet kostengünstig bis zu den Fahrzeug-Endknoten bringt und Kabelaufwand, Gewicht und Kosten reduziert.