Der GPU Coder ist ein neues Produkt, das Deep-Learning-Modelle automatisch in CUDA-Code für Nvidia-GPUs konvertiert. Ein Grund für den anhaltenden Trend zu Deep Learning ist die enorme Verbesserung der GPU-Leistung, die allein in den letzten drei Jahren um den Faktor 60 gestiegen ist. Um diese Leistung auch für Deep-Learning-Modelle nutzen zu können, führt der GPU Coder eine automatische Umwandlung zu CUDA-Code durch. Der Code kann direkt auf Nvidia-Grafikprozessoren ausgeführt werden, was eine Verarbeitung von bis zu 3.000 Bildern pro Sekunde erlaubt.
Benchmarks, die Mathworks mit einer TitanXP-GPU und Intel-Xeon-E5-1650 v4 mit 3,6 GHz durchgeführt hat zeigen, dass der generierte Code für die Deep-Learning-Inferenz für bereitgestellte Modelle eine bis zu 7-mal bessere Leistung als TensorFlow erreicht und eine 4,5-mal bessere Leistung als Caffe2. Die verwendeten Softwareversionen waren Matlab R2017b, TensorFlow 1.2.0 und Caffe2 0.8.1. Für die Benchmarks wurden die GPU-beschleunigten Versionen der jeweiligen Software verwendet.
Neben den Updates für Deep Learning bietet R2017b auch eine Reihe von Neuerungen für andere wichtige Bereiche:
Data Analytics mit MATLAB
Modellierung von Echtzeit-Software mit Simulink
Verifikation und Validierung mit Simulink
R2017b ist ab sofort weltweit erhältlich. Mehr Informationen und eine Liste mit sämtlichen Updates finden Sie auf der Mathworks-Website.