Nvidia will das GPU-Computing voran bringen und stellt jetzt den GPU-Anpassungs-Code für die LLVM-Compiler-Infrastruktur der Open-Source-Community zur Verfügung.
»Der Code, den wir LLVM gaben, hat sich bei CUDA-Mainstream-Produkten bewährt. Somit bieten wir Programmierern die notwenige Sicherheit, Zuverlässigkeit und volle Kompatibilität zu hunderten von Millionen Nvidia-GPUs, die heute in Rechnern und Servern arbeiten«, betont Ian Buck, General Manager GPU-Computing Software bei NVIDIA. »Das ist ein Meilenstein im GPU-Computing-Bereich, der Forschern und Programmieren eine unglaubliche Menge an Flexibilität gewährleistet und ihnen eine große Auswahlmöglichkeit an Programmiersprachen und Hardware-Architekturen für die Entwicklung von Next-Gen-Applikationen bietet.«
LLVM ist eine weit verbreitete Open-Source-Compiler-Infrastruktur im Baukastenprinzip, die es vereinfacht, neue Programmiersprachen und Prozessor-Architekturen hinzuzufügen. Der CUDA-Compiler unterstützt dabei die Programmiersprachen C, C++ und Fortran für eine erhebliche Beschleunigung der Rechenleistung durch Nvidia-GPUs. Nvidia arbeitet dabei eng mit LLVM-Entwicklern zusammen, um Änderungen des CUDA-Compiler-Quellcodes mit dem LLVM-Kern und der Parallelrecheneinheit kompatibel zu machen. Das Ergebnis: Programmierer können GPU-beschleunigte Applikationen mit vielen Programmiersprachen entwickeln. Dies erleichtert den Zugang zu GPU-Computing und dient einer größeren Verbreitung dieser Technologie.
LLVM unterstützt eine große Anzahl an Programmiersprachen und Frontends, einschließlich C/C++, Objective-C, Fortran, Ada, Haskell, Java-Bytecode, Python, Ruby, ActionScript, GLSL und Rust. Es handelt sich um dieselbe Compiler-Infrastruktur, die bei Nvidias-CUDA C/C++ Architektur zum Einsatz kommt. Bekannte Unternehmen wie Apple, AMD, Adobe und MathWorks greifen bereits darauf zurück.