Künstliche Intelligenz

Maschinelles Lernen – Deep Learning

28. Juni 2016, 11:22 Uhr | Iris Stroh
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 1

Hochparallelisierte Hardware

Die Hardware-Hersteller haben Maschinenlernen und Deep-Learning längst für sich entdeckt. Dazu gehört aufgrund der hohen Parallelität der GPU-Hersteller Nvidia. Die Tesla-P100-GPU ist die neueste Entwicklung aus der Tesla-Plattform von Nvidia für Hochleistungs-Computing (HPC). Der Tesla-P100-Grafikprozessor beschleunigt die Rechenleistung für eine große Bandbreite von Anwendungen im Bereich HPC und Deep Learning. Darunter ist beispielsweise auch der „AMBER Molecular Dynamics Code“, der auf einem einzelnen Server-Knoten (der mit P100 ausgerüstet ist) schneller arbeitet als 48 Dual-Socket-CPU-Systeme. Auch für das Training des bekannten neuronalen Netzwerks AlexNet würden derzeit 250 Dual-Socket-CPU-Serverknoten benötigt – im Gegensatz dazu reichen gerade mal acht Tesla-P100-GPUs aus, um dieselben Prozesse zu bearbeiten. Die weit verbreitete Wettervorhersage-Applikation COSMO läuft auf acht Tesla-P100-GPUs schneller als auf 27 Dual-Socket Knoten.
Der Prozessor basiert auf der Pascal-Architektur und ist über NVIDIA NVLink-vernetzt. Die NVIDIA-NVLink-Highspeed -Verbindung ermöglicht eine hohe Bandbreite (160 GByte bidirektional), die eine besonders schnelle Kommunikation zwischen der CPU und dem Grafikprozessor sowie zwischen mehreren Grafikprozessoren ermöglicht. Bis zu acht Tesla-P100-GPUs können so miteinander verbunden werden, um die maximale Applikationsleistung in jedem Serverknoten zu erreichen. Er wird mit 16-nm-FinFET-Technologie hergestellt. Laut Unternehmensangabe kommt er bei HPC-Berechnungen auf eine Rechenleistung von 5,3 TeraFLOPS (doppelte Genauigkeit). Bei einfacher Genauigkeit ist eine Rechenleistung von 10,6 TeraFLOPS möglich und bei Half-Precision 21,2 TeraFLOPS. Dank CoWoS-Ansatz (Chip on Wafer on Substrate) mit HBM2 soll die Pascal-GPU im Vergleich zur Maxwell-Architektur eine um den Faktor 3 erhöhte Memory-Bandbreite (720 GByte/s) aufweisen.
Nvidia ist natürlich nicht der einzige, der sich für solche Anwendungen interessiert. NXP hat beispielsweise in seiner BlueBox – eine Entwicklungsplattform für autonomes Fahren – mit dem S32V-Vision-Prozessor und dem LS2088A-Prozessor ein System mit der Möglichkeit zum Maschinenlernen realisiert. Darüber hinaus ruft eine hohe Parallelität auch die FPGA-Hersteller auf den Plan. Aaron Behman, Director, Video & Vision, Corporate Strategy & Marketing bei Xilinx, glaubt sogar, dass FPGAs gegenüber GPUs, aber auch CPUs, einen deutlichen Vorteil bei Deep-Learning-Anwendungen haben. Benchmarks hätten gezeigt, dass FPGAs mehr Bilder pro Sekunde pro Watt erkennen können als konkurrierende GPUs und CPUs. Derzeit seien allerdings die Workflows für FPGAs noch nicht so verfeinert wie bei den konkurrierenden Technologien. »Aber das Ecosystem von Xilinx entwickelt sich weiter, um auch diese Ansätze im Entwicklungs-Workflow für unsere FPGAs zu unterstützen«, so Behmann.
Xilinx unterstützt Deep-Learning in Bilderkennungsanwendungen, speziell in tiefen und Konvolutionsnetzen (CNN sind eine Klasse von mehrschichtigen, neuronalen Netzen). Hier bietet das Ecosystem von Xilinx auch spezielle Unterstützung an. In diesem Zusammenhang verweist Behmann auf Auviz Systems und Teradeep. Auviz Systems beispielsweise bietet mit AuvizDNN eine Funktionsbibliothek zur CNN-Implementierung auf FPGAs an. Mit diesen Lösungen lassen sich z.B. Anwendungen wie autonome Drohnen, ADAS, industrielle Bildverarbeitung und Überwachung realisieren.


Grenzen von Maschinenlernen, Deep Learning und KNNs

Auch wenn KNNs mit Maschinenlernen und Deep Learning beachtliche Erfolge bei der Bild- und Spracherkennung vorweisen können, gibt es doch Kritiker, die auf die Grenzen und Gefahren dieser Verfahren hinweisen. Ein großer Kritikpunkt ist zum Beispiel, dass bei neuronalen Netzen keiner weiß, wie und warum ein KNN zu einer bestimmten Entscheidung kommt. Das kann enorme Probleme mit sich bringen. Nutzt Amazon Deep Learning, um einem Kunden beim Kauf eines Produkts auch noch andere Produkte vorzuschlagen, kann der Kunde die zum Teil vollkommen abwegigen Vorschläge einfach ignorieren. Wird Deep Learning aber im Finanzwesen genutzt, dann sollten die Ergebnisse, die das KNN ausspuckt, auch nachvollziehbar sein, denn beantragt ein Kunde einen Kredit und wird er ihm aufgrund des KNN-Ergebnisses versagt, dann will er sicherlich wissen, warum.
Ein zweiter wichtiger Kritikpunkt besteht darin, dass Kritiker zwar anerkennen, dass die heutigen Algorithmen Vorhersagen treffen können, die zu 90 Prozent und mehr richtig sind, aber dass sie eine 100-prozentige Quote kategorisch ausschließen. Maschinelles Lernen kann nie mit einer Genauigkeit von 100 Prozent arbeiten. Bei Amazon mag das wieder kein Problem sein. Wird Deep Learning aber in ADAS-Systemen eingesetzt, sieht die Sache schon wieder ganz anders aus. Hier wäre es geradezu fatal, sich ausschließlich auf das Deep-Learning-Ergebnis zu verlassen. Das Gleiche gilt natürlich auch für das Finanzwesen. Werden beispielsweise Kredite aufgrund einer Deep-Learning-Analyse nicht vergeben, dann ist in 10 Prozent der Fälle der Kunde der Leidtragende, denn da hat sich dann der Algorithmus einfach verrechnet.


  1. Maschinelles Lernen – Deep Learning
  2. Hochparallelisierte Hardware

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu NVIDIA Corporate

Weitere Artikel zu XILINX GmbH

Weitere Artikel zu NXP Semiconductor Netherlands B.V.

Weitere Artikel zu NXP Semiconductors Germany

Weitere Artikel zu NXP Semiconductors Marketing and Sales Unternehmensbereich derPh-GmbH