IEDM 2016, San Francisco Vom Gehirn inspiriertes Computing kommt

Das menschliche Gehirn arbeitet im Vergleich zu Mikroprozessoren langsam, dafür massiv parallel. Vor allem aber ist es unglaublich energieeffizient. Von den neuronalen Strukturen des Gehirns inspiriert wurde TrueNorth, ein rekonfigurierbarer Chip mit 1 Mio. Neuronen und 256 Mio. Synapsen.

Auf dem International Electron Devices Meeting (IEDM) kommen traditionell die drei Plenarvorträge aus Amerika, Asien und Europa. Bei der 62. IEDM in San Francisco übernahm IBM-Fellow Dr. Dharmendra S. Modha den US-Part und stellte den 1620 Teilnehmern sein Konzept des Brain-inspired Computings vor. Im Zentrum seines Vortrags stand der TrueNorth-Prozessor, ein rekonfigurierbarer Silizium-Chip mit 1 Mio. Neuronen, 256 Mio. Synapsen und 4096 parallelen, verteilten Rechenkernen, der mit einer Leistungsaufnahme von 70 mW bei einer Spannung von  0,775 V auskommt. Dieser Wert liegt um mehrere Größenordnungen unter klassischen High-Performance-Prozessoren, die typischerweise eine Leistungsaufnahme im zweistellige Wattbereich aufweisen. Der Silizium-Chip misst 4 cm2 und wurde in einem 28-nm-LPP-Prozess von Samsung gefertigt.

TrueNorth wurde im Hinblick auf eine homogene Skalierung mit eingebauter Chip-zu-Chip-Kommunikation entwickelt. Modha präsentierte nun zwei verschiedene skalierbare Systeme, eins das aus locker gekoppelten 16 Single-Chip-Boards besteht und eins das 16 Chips in einer 4x4-Konfiguration auf einem Board zusammenfasst und damit die inhärente Kachelstruktur von TrueNorth nutzt.

Der Chip ist nicht neu und wurde schon in einem Paper auf der letzten IEDM in Washington präsentiert, aber ein Prozessor muss auch programmiert werden und braucht ein Eco-System, um in Applikationen erfolgreich zu sein. Modha stellte jetzt für den neuronalen Prozessor ein Software-Ecosystem vor, bestehend aus Simulator, einer Programmiersprache und einer integrierten Programmierumgebung. Es gibt eine Bibliothek mit Algorithmen und Anwendungen, Firmware, Tools für Deep Learning, einen strukturierten Schulungsplan sowie eine Cloud-Anbindungsmöglichkeit. Dieses Ecosystem ist nun in über 40 Universitäten, Regierungsinstitutionen und nationalen sowie Firmenlabors in Gebrauch. Diese neuromorphische Plattform ist die Grundlage für ein ganzes Spektrum von Anwendungen, von mobilem über Embedded Computing bis zur Cloud und könnte eine leistungsfähige Ergänzung in der Entwicklung von Exascale-Computern der nächsten Generation sein. Das Langfristziel lautet, ein „Gehirn in einer Schachtel“ zu bauen mit 10 Mrd. Neuronen, bei einer Leistungsaufnahme von gerade mal einem kW und mit einem Raumbedarf von weniger als 2 Litern.

Modha zufolge kommt es nun darauf an, die beiden komplementären Computer-Revolutionen Deep Learning und neuromorphisches Computing zusammenzubringen. Bei Deep Learning geht es um die Fähigkeit in Bezug auf die Applikations-Performance und –Genauigkeit. Außerdem wird Deep Learning zur Programmierung von neuromorphen Computern genutzt und es findet offline statt. Bei neuromorphischem Computing hingegen stehen Energie-, Volumen, Geschwindigkeitseffizienz und Skalierbarkeit im Zentrum. Neuromorphisches Computing wird zur Implementierung von Deep Learning genutzt und findet online statt.

Zwischen Deep Learning (DL) und TrueNorth (TN) existieren allerdings einige Inkompatibilitäten: Die Eingangssignale für DL liegen in hoher Genauigkeit vor, während TN mit Spikes (nervenähnlichen Signalen) arbeitet. Bei DL sind Neuronen kontinuierlich differenzierbar, bei TN Spiking. Synapsen arbeiten bei DL mit großer Genauigkeit (>=32 bit) und bei TN mit niedriger (1 bit + LUT). DL lässt jede Art von Vernetzung zu, TN nur Core-zu-Core mit 256 Eingängen pro Neuron. Eine höhere Genauigkeit lässt sich meist mit der Nutzung mehrerer TN-Prozessoren erzielen.

Bilder: 5

Neuromorphischer Prozessor TrueNorth von IBM

Der neuromorphische Prozessor TrueNorth von IBM