Was damit bereits möglich ist, zeigte er am Beispiel von Novartis. Für das Pharma-Unternehmen hat Intel eine Trainingsumgebung auf Basis der Xeon-Familie aufgebaut. Ziel war es, ein KI-Bilderkennungssystem zu entwickeln, um feststellen zu können, wie verschiedene Substanzen die feinen Strukturen einer Zelle verändern – wichtig für die schnelle Entwicklung neuer Medikamente. Zunächst arbeitete das System auf Basis eines einzigen Skylake-Prozessors. Dann erweiterte es Intel auf acht Skylake-Prozessoren, an die SSDs mit einer Speicherkapazität von nicht weniger als 2 TB angeschlossen wurden. Das Ergebnis: Die Trainingszeit sank von über 10 Stunden auf nur noch 30 Minuten.
Mit dem neuen „Cascade Lake“, dem 14-nm-Nachfolger des Skylake, werde sich das noch einmal deutlich beschleunigen, so El-Ouazzane. Einen Blick auf kommendes Jahr warf er auch: 2020 wird Alibaba in Partnerschaft mit Intel während der olympischen Spiele in Tokio ein unter Mitwirkung der Firma Wrench entwickeltes „3D-Athletic Tracking“-System vorstellen. Es kann aus den von konventionellen 2D-Kameras aufgenommenen Filmsequenzen über die kontinuierliche Verfolgung von 23 Gelenken am Körper der Athleten eine 3D-Repräsentation des Bewegungsablaufs eines Sportlers errechnen und die Echtzeitaufnahmen so überlagern, dass der Zuschauer genau verfolgen kann, was ein Athlet besser oder schlechter macht als seine Konkurrenten. Das ist für die Zuschauer eine zusätzliche interessante Live-Information.
Dasselbe System hilft den Sportlern, ihr Training zu optimieren, könnte also das Training an sich revolutionieren. Dass dies scheinbar so einfach abläuft, dazu kommt es nicht nur auf die entsprechend Hardware an. Direkt über der Ebene der Prozessoren, FPGAs und Accelerators arbeiten Bibliotheksentwickler daran, die Hardware den Analyseprozessen, dem Machine-Learning und Deep Learning anzupassen unter Verwendung von Python, DAAL (die eigene Data Analytics Acceleration Library für Machine-Learning) und MKL-DNN. Große Hoffnungen setzt Intel auf den nGraph-Compiler, einen Open-Source-Compiler für Deep-Learning-Modelle für verschiedene Hardware (CPUs, GPUs, NNPs) und Frameworks (TF, MXnet, ONNX). »In nGraph investieren wir mehr als in alles andere«, so El-Ouazzane.
Außerdem wird Intel die Deep-Learning-Frameworks auf die eigenen Angebote optimieren; derzeit laufen die Arbeiten an Caffe2, PyTorch und Paddle Paddle. Außerdem entwickelt Intel am Deep Leaning Studio, einem Open-Source-Tool, das die Entwicklungszeit für Deep Learning weiter verkürzen wird. Ankündigungen sind demnächst geplant. Auf der Ebene der Toolkits hat Intel OpenVINO (Open Visual Inference & Neural Network Optimization) auf den Markt gebracht, das für die Inference von CPUs, GPUs, FPGAs und VPUs gedacht ist und in verschiedenen Frameworks (Tensorflow, Caffe, MXNet) genutzt werden kann. Im November vergangenen Jahres hatte Intel den „Neural Compute Stick 2“ für die Movidius Myriad X Vision Processing Unit (VPU) vorgestellt.
Schon innerhalb weniger Wochen habe sich die Nachfrage geradezu explosiv entwickelt, sagte Cormac Brick, Chief Architect von Movidius, in München. Damit die unterschiedlichen Branchen von KI-Systemen profitieren können, kommt es darauf an, sie darauf jeweils anzupassen. Dazu hat Intel 2018 das „AI Builders Ecosystem“ gegründet, das jetzt bereits über 170 Mitglieder weltweit umfasst. Innerhalb des Ökosystems sollen Systemintegratoren, unabhängige Software-Firmen und OEMs zusammenkommen, um sich gegenseitig dabei zu unterstützen, KI-Systeme zu entwickeln und zu installieren. Wem bei all dem auch ein wenig mulmig wird, den kann Casimir Wierzynski, Senior Director der AI Products Group von Intel, beruhigen. Er proklamiert, dass unsere Privatsphäre nicht angetastet werden darf. Nun gibt es aber einen prinzipiellen Gegensatz: KI-Systeme wollen so viele Daten wie möglich sammeln. Wer auf seine Privatsphäre Wert legt, will diese Daten aber nicht herausgeben.
Die Lösung des Problems liege laut Wierzynski wieder in der KI: Homomorphic Encryption. Im vergangenen Jahr hatte Intel den auf nGraph basierenden „Homomorphic Encryption Transformer“ (HE-Transformer) vorgestellt, der es gestattet, KI-Systeme mit Daten zu trainieren, die verschlüsselt nur zu diesem Zweck zur Verfügung stehen. »Bisher war das aufgrund fehlender Rechenleistung nicht möglich, jetzt können neuronale Netze trainiert und Inference durchgeführt werden, ohne dass die Privatsphäre Schaden nimmt.« Das zeigt auch, mit welcher Geschwindigkeit sich der KI-Markt entwickelt. Wierzynski sprach in München von einer Verdopplung der KI-Performance alle 4,5 Monate über die vergangenen sechs Jahre. Wer dabei sein will, muss sich also sputen, um nicht abgehängt zu werden. Einen Konzern von der Größe Intels in die richtige Richtung zu steuern dürfte sicherlich keine einfache Aufgabe für Bob Swan werden. Weil in der KI-Welt alles so schnell geht, wird auch schnell offenbar werden, ob Intel den richtigen Weg findet.