Performance-IP Optimierungs-Tool für DRAMs

Bei hauseigenen Benchmark-Tests hat Performance-IPs Tool »Memory Request Optimizer« die Latenz von DRAMs um Werte von 71, 77 und 78 Prozent reduziert.
Bei hauseigenen Benchmark-Tests hat Performance-IPs Tool »Memory Request Optimizer« die Latenz von DRAMs um Werte von 71, 77 und 78 Prozent reduziert.

Mit dem Memory Request Optimizer will die Startup-Firma Performance-IP die Latenz von DRAMs senken und so die Performance etwa von SoCs steigern.

Laut Gregg Recupero, CTO von Performance-IP, arbeiten derzeit Speichersubsysteme »mit weniger als 80 Prozent ihrer Effizienz, wodurch sich die Kommunikation zwischen dem Speicher und dem SoC-Client verlangsamt«. Hauseigene Benchmarks hätten gezeigt, dass sich mit dem Memory Request Optimizer die Latenz zwischen 71 und 78 Prozent reduzieren lasse. Die IP bündelt als Prefetch ähnliche Anfragen, speichert sie in einem winzigen Cache und steigert so die Gesamt-Performance des Systems. Vom Tool können bis zu 16 Clients gemanaged werden.

Mit dem Einsatz des Tools könnten Kunden an ihren bewährten Designs mit DDR3- und DDR4-Bausteinen länger festhalten und so Kosten sparen. Neben der Steigerung der Performance lässt sich die Software aber auch so einsetzen, dass der Stromverbrauch gesenkt wird, wobei sich dann allerdings die Systemleistung nicht spürbar erhöht. Innerhalb der Speicher-Hierarchie lässt sich Recupero zufolge die IP beliebig implementieren - beispielsweise in Front des DRAM-Controllers.

Bislang hat laut Recupero die IP bei den Kunden aus der Automobil-Industrie am meisten Anklang gefunden, denn »Fahrerassistenz-Systeme (ADAS) müssen in Echtzeit Unmengen an Videodaten verarbeiten«. Neu auftauchende Märkte seien neuerdings auch der Bereich Netzwerke, wo ebenfalls riesige Ströme an Daten zu bewältigen sind, und IoT.

Nach Ansicht von Ulrich Brandt, Director Marketing der Swissbit AG, »ist der Ansatz nicht neu, sondern schon bei Großrechnern eingesetzt worden, aber in dieser Form habe ich zum ersten Mal davon gehört«. Im Prinzip sei es eine weitere Cache-Hierarchie mit intelligenter Entscheidung, ob ein Datenstream selbst gecached werden solle oder nicht. »Die Software schaut, ob wiederkehrend bestimmte Streams bedient werden müssen, und wenn dies der Fall ist, lädt sie per Prefetch schon mal weitere Daten in einen Cache.« Nachfolgende Requests könnten dann schneller bedient werden. Weil das System so höhere Performance liefere, sei es für die Anwender auf jeden Fall von Nutzen. »Ich kann aber nicht sagen, inwieweit sich die Anzahl der Gates und der damit verbundenen Kosten gegen die gewonnene Performance rechnet.« Als Alternativen führt Brandt größere 2nd- oder 3rd-Level-Caches an.

»Die Idee hinter der Sache klingt nicht schlecht«, findet Robert Herth, Senior LM&BDM Storage Solutions bei MSC Technologies. Hier gehe es um eine Performance-Verbesserung, was das Thema Prefetch betrifft in einem System (SoC) und nicht in einem DRAM selbst. Der Memory Request Optimizer »sitzt vor dem DRAM-Controller und soll das Lesen vom DRAM beschleunigen - so würde ich es verstehen«. Seitens Speicherprimus Samsung hielt man sich auf Anfrage weitgehend bedeckt, »weil es sich um ein CPU-Architektur-Thema handelt und nicht in erster Linie um ein Memory-Thema«, sagt Samsung-Mitarbeiterin Christina Sprankel.