Intel Künstliche Intelligenz im Blickfeld

Leistungsangabe für Arria-10-FPGAs
Leistungsangabe für Arria-10-FPGAs

Intel will mit seinen Prozessoren und FPGAs in der Künstlichen Intelligenz (KI/AI) und dem Maschinenlernen eine große Rolle spielen, was Übernahmen wie Nervana Systems und die Gründung der AIPG (Artificial Intelligence Products Group) verdeutlichen.

Bill Jenkins, Senior Product Specialist, Artificial Intelligence, in der Programmable Solutions Group von Intel, ist davon überzeugt, dass Maschinenlernen eine große Chance für die FPGAs darstellt. Egal ob es um autonomes Fahren, Industrieanwendungen oder die Analyse von riesigen Datenmengen geht, überall wird Maschinenlernen genutzt.

Marktchancen werden natürlich von vielen ergriffen, dementsprechend ist nicht nur Intel auf den KI-Zug aufgesprungen, sondern auch andere Firmen wittern hier ihre Chance. Nur ein Beispiel: Nvidia, die sich mit ihren Grafikprozessoren auch auf KI fokussiert. Dennoch sieht sich Jenkins mit seinen FPGAs in einer guten Position, hier erfolgreich zu sein. Jenkins: »FPGAs sind ja viel mehr als nur ein Beschleuniger, also das, was ein DSP oder eine GPU ist. FPGAs können zwar auch am PCIe-Bus wie andere Beschleuniger hängen und im traditionellen Ansatz Daten vom Host erhalten, aber wir können auch den Datenpfad selbst kontrollieren. Und das ist für echtzeitfähige AI-Anwendungen sehr wichtig, weil wir die Daten von der Festplatte, einem Ethernet-Port oder einer Kamera nehmen und die Maschinenlernalgorithmen inline durchführen können, ohne dass der Host zum Flaschenhals bei der Datenbewegung wird. Klar, wenn die Daten vom Host kommen, ist das auch okay, aber wir sind nicht auf diesen Ansatz beschränkt.«

Bei vielen Plattformen am Markt gehe es um Latenzzeiten oder Rechenleistung, aber ein FPGA bringe Systemvorteile mit sich, die weit über die interne Rechenleistung hinausgehen. Ein Beispiel: Wenn der Host 70 Prozent seiner Leistung verbrät, sei es mit dem Systemmanagement, mit dem Warten auf die Antwort auf einen Interrupt oder um einen DMA aufzusetzen, um die Daten zum Beschleuniger zu schieben, dann ist das für die Systemperformance nicht förderlich. »Das zeigt sich nicht in irgendeinem Benchmark«, so Jenkins weiter. Ein FPGA, das die Daten direkt nimmt, sie verarbeitet und die Ergebnisse irgendwo ins System weiterleitet, und zwar in einer deterministischen Weise mit geringen Latenzzeiten und ohne, dass der Host irgendwie involviert ist, dann gewinnt das gesamte System, denn dann kann der Host andere Systemaufgaben durchführen oder die Ergebnisse weiterverarbeiten.

Dazu komme noch, dass die Welt der KI einer schnellen Wandlung unterliegt. Es werden ständig neue Architekturen gefunden, die noch mehr GEMM-Berechnungen (General Matrix to Matrix Multiplication) durchführen können. Für GEMM-Berechnungen seien zwar auch die GPUs gut geeignet, aber die FPGAs können das auch, sind dabei aber viel flexibler. Denn sie bieten dem Entwickler die Flexibilität, exakt die Hardware zu realisieren, mit der genau das anstehende Problem gelöst werden kann. Jenkins: »FPGAs stellen eine Plattform dar, um eine einzigartige Lösung für ein Problem zu realisieren, und zwar mit genau der dafür notwendigen Performance, nicht mehr und nicht weniger.« Der FPGA-Ansatz zeichne sich darüber hinaus durch eine hervorragende Leistungseffizienz aus, und »er ist zukunftssicher, weil er auch die Topologien, Architekturen der nächsten Generation unterstützen kann«, so Jenkins.

Dass auch der größte Konkurrent im PLD-Markt, Xilinx, an KI interessiert ist, wundert Jenkins nicht. Für ihn zeige das Xilinx-Engagement einfach nur, dass nicht nur Intel FPGAs für einen guten Ansatz in KI-Anwendungen hält, der Systemvorteile mit sich bringt. Jenkins fasst zusammen: »Dazu zählen ausreichende Systemleistung, geringere deterministische Systemlatenzzeiten und die Möglichkeit, eine kundenspezifische Lösung zu entwickeln.«

Für die Entwicklung baut Intel ein umfassendes Ökosystem für KI mit FPGAs auf. Laut Jenkins stehen bereits jetzt Entwicklungs-Tools, SDKs, Frameworks, Software und Bibliotheken, um eine Abstraktion gegenüber der Hardware zu erreichen, zur Verfügung.