Der starke Bedarf an KI-Beschleunigern treibt die Nachfrage nach High Bandwidth Memories (HBM): Ab 2024 wird die HBM3 die dominierende Generation sein.
Die HBM-Generationen unterscheiden sich vor allem in ihren Datenübertragungsraten, wie TrendForce erklärt. Die sogenannte HBM3-Generation, die derzeit auf dem Markt angeboten wird, sollten nach Ansicht von TrendForce in zwei Untergruppen kategorisiert werden: Die erste umfasst HBM3-Speicher mit Datenübertragungsraten von 5,6 bis 6,4 GB/s, die zweite – die TrendForce HBM3e nennt – erreicht 8 Gb/s. Verwirrend ist, dass für die zweite Kategorie eine Vielzahl von Begriffen im Umlauf ist, darunter HBM3P, HBM3A, HBM3+ und HBM3 Gen2.
SK hynix und Samsung haben ihre HBM3-Generation für die Nvidia-Beschleuniger vom Typ »H100/H800« und die »MI300«-Beschleuniger von AMD entwickelt. TrendForce erwartet, dass beide in ersten Quartal 2024 ihre HBM3e-Genertionen in Mustern auf den Markt bringen werden. Micron hat sich dazu entschlossen, die HBM3-Generation zu überspringen und gleich mit HBM3e-Prdukte auf den Markt zu kommen.
Die HBM3e-Genertion wird aus übereinandergestapelten Dies zu je 24 Gb aufgebaut sein und eine Gesamtkapazität von 24 GB erreichen. Sie sollen im »GB100«-Beschleuniger von Nvidia arbeiten, der 2025 auf den Markt kommen soll. Deshalb würden die HBM3e-Generationen der führenden Hersteller ab dem ersten Quartal 2024 in Mustern erhältlich sein. Ab der zweiten Jahreshälfte soll die Produktion in Stückzahlen folgen.
Die GPUs werden allerdings immer teurer: Die »H100/H800«-GPUs von Nvida kosten zwischen 20.000 und 25.000 Dollar pro Stück. Die Eight-Card-Konfiguration im Server zieht zusätzlich hohe Betriebskosten nach sich. Deshalb wollen die Cloud-Server-Betreiber ihre hohen Kosten senken und ihre Abhängigkeit von AMD und Nvidia reduzieren, indem sie eigene KI-Beschleuniger entwickeln – auch wenn sie weiterhin GPUs von Nvidia und AMD beziehen werden.
Mit der Tensor Processing Unit (TPU) hat Google bereits eine eigene GPU entwickelt, genauso wie AWS mit »Trainium« und »Inferentia« eigene GPUs entwickelt hat. Beide arbeiten laut TrendForce bereits an der Folgegeneration, die die HBM3- oder HBM3e-Generationen benötigen werden. Außerdem werden weitere Cloud Service Provider vermehrt auf die eigene Entwicklung von KI-Beschleunigern setzen, was zu einem verschärften Wettbewerb in diesem Marktsegment führen werde.