Schwerpunkte

Edge Computing

Künstliche Intelligenz fordert Speicher

24. Februar 2021, 06:00 Uhr   |  Steve Pawlowski und Prasad Alluri

Künstliche Intelligenz fordert Speicher
© shutterstock.com

KI-Anwendungen stellen hohe Anforderungen an Speicher.

KI-Anwendungen treiben die Anforderungen an Datenspeicher. Sie müssen enorme Datenmengen bereit halten und große Datenblöcke sehr schnell an den Prozessor ausgeben. Dadurch wird sich der Aufbau des Speichers in Rechnersystemen für KI verändern müssen.

KI-Anwendungen treiben die Anforderungen an Datenspeicher. Sie müssen enorme Datenmengen bereit halten und große Datenblöcke sehr schnell an den Prozessor ausgeben. Dadurch wird sich der Aufbau des Speichers in Rechnersystemen für KI verändern müssen.

KI wird immer genauer und allgegenwärtiger werden. Sie wird immer mehr Aufgaben übernehmen, bei denen Menschen traditionell sagen würden: »Warum sollte ich dafür jemals einen KI-Algorithmus verwenden?« Lebensmittelgeschäfte könnten beispielsweise KI-fähige Kameras einsetzen, die in regelmäßigen Abständen prüfen, ob ein Regal leer ist, und, falls dies der Fall ist, einen Angestellten benachrichtigen, damit er die Bestände auffüllt. In einer Post-COVID-Welt werden wir sehen, dass mehr Unternehmen KI für solche Anwendungsfälle einsetzen, nicht nur um kontaktvermeidende Prozesse zu schaffen. KI wird auch in Infrastrukturen wie Rechenzentren und 5G-Basisstationen Einzug halten, da neuronale Netzwerkalgorithmen immer besser in der Lage sind, Arbeitslasten und Systemfehler zu korrigieren und wiederherzustellen.

Es gibt KI-Algorithmen für einfache, singuläre Aufgaben und hochentwickelte Algorithmen zur Abbildung des menschlichen Gehirns. KI, die so agil ist, benötigt eine erhebliche Menge an Speicher, auf den schnell zugegriffen werden kann. Doch wenn sich die Datenrate zum Speicher erhöht, erhöht sich auch die Stromaufnahme. Forscher haben herausgefunden, dass das Training eines einzigen KI-Modells das Fünffache der Kohlenstoffemissionen eines US-Automobils über die gesamte Lebensdauer verursachen kann, einschließlich der Herstellung des Fahrzeugs [1]. Dieser immense Energiebedarf ist nicht tragbar, wenn KI in unserer Gesellschaft allgegenwärtig sein soll, sowohl in Bezug auf das Rechenzentrum als auch auf unseren Planeten.

KI-Systeme energieeffizienter gestalten

In den nächsten Jahren werden neue Wege erforscht werden, um KI auf energieeffiziente Weise zu betreiben. Das könnte bedeuten, dass die KI-Prozessoren näher an den Speicher herangerückt werden, indem der Speicher in einem 3D-Aufbau über der Logik gestapelt wird.

Heute wird eine Menge der verfügbaren Datenrate – und auch der verfügbaren Daten – nicht genutzt. Das bedeutet, dass große Mengen an Energie verschwendet werden, nur um die Technik zu betreiben, mit der die Daten bei Bedarf zur Verfügung gestellt werden können. In den kommenden Jahren werden wir also immer mehr Techniken sehen, die analysieren, wie man KI-Algorithmen so fein abstimmen kann, dass sie so leistungsfähig wie möglich sind, dabei aber extrem sparsam mit Energie umgehen. Im Grunde geht es darum, Erkenntnisse aus jedem Bit an Daten herauszuquetschen, um sicherzustellen, dass sie nicht verschwendet werden.

KI wandert an den Netzwerkrand

Die Zunahme von KI-Anwendungen bedeutet, dass es immer wichtiger wird, dass sich Edge Computing in der Nähe von Netzwerkknoten wie 5G-Basisstationen befindet. Schon bald könnten in jeder Basisstation, in jedem Turm Rechen- und Speicherknoten eingebaut sein. Und es gibt viele Startups, die sich auf den Bau von Edge-Rechenzentren konzentrieren, die wie Transportcontainer aussehen und in Ballungsgebieten stehen, um Inhalte – wie zum Beispiel Videodatenströme – näher an den Konsumenten zu bringen. Diese Edge-Rechenzentren werden sich in den nächsten Jahren durchsetzen, da Unternehmen und Verbraucher große Datenmengen nutzen wollen.

Speicher neu gedacht

Im Jahr 2021 werden vermehrt Objektspeicher zum Speichern von strukturierten und unstrukturierten Daten, Dateien, Blöcken und Objekten verwendet – alles in einem Repository. Die großen Datensätze der KI brauchen die Nähe zu dem Ort, an dem die Verarbeitung stattfindet. Die bisher üblichen Speicher ähneln dagegen eher großen separierten »Kühlräumen«. Objektspeicher werden in der Lage sein, KI-ähnliche Arbeitslasten direkt zu erledigen, was bedeutet, dass auf große Datensätze mit geringer Latenz zugegriffen werden kann. Infolge des Anstiegs datenintensiver KI-Anwendungen wird auch der Bedarf an leistungsfähigem NVMe-Speicher steigen. Denn dieser leistungsfähige Objektspeicher basiert auf Flash-Speicher-ICs, im Gegensatz zu traditionellem Speicher. Diese Entwicklung könnte zu einer schnelleren Einführung von Gen4-NVMe-SSDs führen, um einen leistungsfähigeren Objektspeicher für KI-Anwendungen zu ermöglichen.

Literatur

[1] Hao, K.: Training a single AI model can emit as much carbon as five cars in their lifetimes. MIT Technology Review, 6.6.2019, www.technologyreview.com/2019/06/06/239031/training-a-single-ai-model-can-emit-as-much-carbon-as-five-cars-in-their-lifetimes.

Die Autoren

Steve Pawlowski, Micron
© Micron Technology

Steve Pawlowski, Micron Technology

Steve Pawlowski

ist als Corporate Vice President of Advanced Computing Solutions and Emerging Memory Solutions bei Micron verantwortlich für die Definition und Entwicklung innovativer Speicher für den Enterprise- und High-Performance-Computing-Markt. Bevor er im Juli 2014 zu Micron kam, war er bei Intel als Senior Fellow und Chief Technology Officer für die Data Center and Connected Systems Group verantwortlich. Pawlowski hat einen Bachelor-Abschluss in Elektrotechnik und Computersystemtechnik vom Oregon Institute of Technology und einen Master-Abschluss in Computerwissenschaft und -technik vom Oregon Graduate Institute. Er ist außerdem Inhaber von 58 Patenten.

Prasad Alluri, Micron
© Micron Technology

Prasad Alluri, Micron Technology

Prasad Alluri

ist der Vice President für Unternehmensstrategie bei Micron. Bevor er zu Micron kam, hatte er Führungspositionen bei Intel in den Bereichen Technik und Geschäft inne, für Speicher-, Wireless- und optische Produktlinien. Er begann seine Karriere als Forscher im Bereich nichtflüchtiger Speicher und fortschrittlicher Transistorentwicklung in den Forschungslabors von Motorola. Alluri hat einen Ph.D. von der Arizona State University und einen MBA von der Wharton Business School.

Auf Facebook teilen Auf Twitter teilen Auf Linkedin teilen Via Mail teilen

Verwandte Artikel

MICRON SEMICONDUCTOR (Deutschland) GmbH, MICRON GmbH & Co. KG