Das Potenzial der Speicher-ICs

KI ermöglichen, Kosten für autonomes Fahren drücken

15. Februar 2020, 15:42 Uhr | Heinz Arnold
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 1

Wie sich im Auto Kosten sparen lassen

Doch Fab 6 wartet mit einer weiteren Besonderheit auf: Hier können parallel sowohl DRAMs als auch NAND-Flash- und NOR-ICs produziert werden, »was ebenfalls einzigartig ist«. Außerdem spricht Micron davon, über die dortige Fertigung die Speichertypen langfristig liefern zu können. Erst kürzlich hatte das Unternehmen entschieden, weitere 3 Mrd. Dollar in den Ausbau der Fab 6 zu stecken.

Speicher für KI

Zudem hatte Micron sich über einige Zukäufe darauf eingestellt, dass Speicher und Prozessoren im Zeitalter von KI enger zusammenrücken und die Architekturen wechselseitig voneinander abhängen werden. Ende letzten Jahres übernahm Micron FWDNXT (gesprochen: Forwardnext), die sich auf Hardware- und Software Tools für Deep-Learning-Anwendungen spezialisiert hat. In der Kombination mit den eigenen Speichern will Micron auf den Einsatz in Deep-Learning-Systemen optimierte Speicher entwickeln, die für die Datenanalyse erforderlich sind, insbesondere in den Bereichen IoT und Edge Computing. Ziel ist es, Computer, Speicher, Tools und Software in eine umfassende KI-Entwicklungsplattform zu integrieren. Diese Plattform wiederum soll die wichtigsten Bausteine für die Erforschung von Speichersystemen erlauben, die für KI-Workloads optimiert sind.

Die KI-Inferenz-Engine von FWDNXT unterstützt die Deep-Learning-Accelerator-Technologie (DLA) von Micron. Damit erhält Micron die Tools, um Systeme zu entwickeln, die Speicher und Berechnungen enger zusammenführen, was gegenüber heutigen Systemen zu höherer Leistung und einem geringeren Energieverbrauch führt. Mit DLA unterstützt Micron Frameworks für maschinelles Lernen und neuronale Netze und die schnelle Verarbeitung großer Datenmengen über eine benutzerfreundliche Oberfläche. Sie werden in der Medizintechnik für die Analyse von Mikroskopiebildern oder für die Analyse der Daten in der Teilchenphysik eingesetzt.

Zudem hatte Micron 2015 das FPGA-Startup Pico Computing erworben, ebenfalls mit dem Ziel, zu lernen, wie die eigenen Speichereinheiten aufgebaut werden müssen, um sie für die Zusammenarbeit mit neuronalen Netzen zu optimieren, besonders für Edge-Geräte. Dazu müssen die Ingenieure aber genau wissen, wie neuronale Netze im Zusammenspiel mit Prozessoren und Speichern funktionieren. Deshalb hat sich Micron die erforderlichen Elemente verschafft, um die gesamte Funktionskette im Haus zu haben. Steve Pawlowski, VP of Advanced Technology von Micron und früherer Mitarbeiter von Intel, leitet die Forschungen, die klären sollen, wie genau die Speichersysteme der Zukunft auszusehen haben – nicht nur um die Anforderungen an Performance, Latenz und Leistungsaufnahme zu erfüllen, sondern damit sie auch preislich geeignet sind, um in Edge-Geäten und vor allem im autonomen Fahren eingesetzt werden zu können. Aber auch in Flugtaxis, wie beispielsweise in denen von Volocopter, in die Micron im Rahmen der Serie-C-Investmentrunde im vergangenen Hersbst investiert hatte.

Wie sich im Auto Kosten sparen lassen

Sehr viel in Hinblick auf Kostensenkungen für autonomes Fahren verspricht sich Weigl von einer weiteren Neuheit, den mit SR-IOV-Funktionen (Single Root I/O Virtualization) ausgestatteten SSDs. Über SR-IOV können virtualisierte Host-Systeme auf gemeinsam genutzte PCIe-Komponenten zugreifen, die aus ihrer Sicht als mehrere physikalisch getrennte Einheiten erscheinen. »Damit können wir beispielsweise für den Einsatz in ADAS virtuelle SSDs realisieren, die auf die verschiedenen Domänen und Subdomänen Zugriff haben. Wir haben also eine zentrale SSD in dem System, die virtuell geteilt wird«, erklärt Weigl.

Wie das in Autos konkret funktionieren kann, hatte Micron erst kürzlich auf der CES zusammen mit Valens gezeigt: Beide Unternehmen hatten dort das erste zentrale Speichersystem auf Basis der Automotive-qualifizierten 1-TB-BGA-SSD von Micron vorgestellt. Nun wird es möglich, PCIe-Signale über weit größere Entfernungen als die üblichen 10 bis 15 Zentimeter zu übertragen. Die PCIe-Übertragung läuft dabei über ein einziges ungeschirmtes Twisted-Pair-Kabel mit bis zu 16 Gbit/s. »Das wird helfen, die Kosten für das autonome Fahren erheblich zu drücken«, erklärt Weigl.

Denn das wäre unbedingt erforderlich, um autonomes Fahren auf ein Preisniveau zu bringen, das es massenmarkttauglich machen würde – und nicht nur der obersten Oberklasse und speziellen Anwendungen vorbehalten bliebe. »Mit unserem Ansatz können wir SSDs mit 1 oder 2 TB Speicherkapazität virtuell teilen und machen damit zusätzliche Speicherelemente überflüssig, was die Kosten deutlich reduzieren sollte«, so Weigl.


  1. KI ermöglichen, Kosten für autonomes Fahren drücken
  2. Wie sich im Auto Kosten sparen lassen

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu MICRON SEMICONDUCTOR (Deutschland) GmbH

Weitere Artikel zu Speichermodule/Speichermedien

Weitere Artikel zu Künstliche Intelligenz (KI)