Schwerpunkte

Welche Hardware ist die beste für KI?

Von unter 1 MOPS bis hin zu 1000 TOPS

12. Oktober 2020, 14:00 Uhr   |  Iris Stroh


Fortsetzung des Artikels von Teil 2 .

FPGAs

Die FPGA-Hersteller positionieren sich seit Langem am KI-Markt. Hussein Osman, Segment Marketing Manager von Lattice Semiconductor, argumentiert denn auch in dieselbe Richtung wie Terrill, allerdings nur, was MCUs/MPUs anbelangt: »Da sie Daten seriell verarbeiten, verfügen Bausteine mit einer Von-Neumann-Architektur wie Mikrocontroller oft nicht über die Echtzeitleistung, die für die Implementierung von Edge-KI bei geringem Stromverbrauch erforderlich ist.«

In Hinblick auf FPGAs fällt sein Urteil natürlich anders aus als das von Terrill: Sie bieten die Möglichkeit zur parallelen Verarbeitung, und das eignet sich einfach besser für die Verarbeitung von Arbeitslasten wie AI-Inferencing. In Hinblick auf konkurrierende FPGA-Anbieter wiederum merkt er an, dass ihre FPGAs typischerweise für Rechenzentren gedacht sind und nicht für Edge-KI. Osman: »Für die meisten Edge-KI-Anwendungen sind aber FPGAs mit niedrigem Stromverbrauch erforderlich.«

Und genau diesen Bereich decke Lattice mit seinen FPGA-basierten Low-Power-Lösungen für Edge-KI- und Smart-Vision-Anwendungen ab. Und hier kann Lattice im Vergleich zu MCUs deutliche Pluspunkte sammeln. Denn die Lattice-FPGAs zeichnen sich laut Osman bei einer deutlich höheren Rechenleistung durch eine um den Faktor 10 und mehr verringerte Leistungsaufnahme aus, und das bei höherer Genauigkeit und höherer Auflösung.

Und Nick Ni, Director of Product Marketing AI, Software, Ecosystem bei Xilinx, fügt noch hinzu: »FPGAs ermöglichen die Implementierung einer benutzerdefinierten, domänenspezifischen Architektur für ein bestimmtes Modell, wodurch die höchste Hardware-Auslastung erreicht wird. MCUs, MPUs, GPUs und KI-Chips bieten in Hinblick auf die Hardware wenig bis gar keine Flexibilität, um auch neue Trends bei KI-Modellen zu unterstützen.«

Craig Petrie, VP Marketing bei BittWare, a Molex company, sieht FPGAs ebenfalls in der besseren Position, denn damit stünden Entwickler die Flexibilität offen, um die Silizium-Ressourcen je nach Bedarf an bestimmte Arbeitslasten anzupassen; das bringt Vorteile in der Größe und einem geringeren Leistungsbedarf. Wie groß die Vorteile ausfallen können, macht Petrie am Beispiel seines Kunden Myrtle.ai und dessen Empfehlungsmaschine Seal deutlich. Die Seal-Hardware basiert auf dem 250-M2D-Modul von BittWare mit einem UltraScale+-FPGA von Xilinx. Petrie: »Mithilfe von BittWare wurde das Seal-Modul so konzipiert, dass es in bestehende Infrastrukturen passt. Darüber hinaus sind keine Änderungen am Empfehlungsmodell des Kunden oder ein neues Training notwendig, und dennoch bleibt die Genauigkeit gleich. Solche einfachen Upgrades mit einer maßgeschneiderten Beschleunigung führen laut Myrtle.ai zu einem 8-fach höheren Durchsatz und einer 80-prozentigen Reduzierung des Energieverbrauchs.«

MCUs/MPUs können aber mehr

Auch wenn MCUs/MPUs bei der Parallelität mit FPGAs nicht mithalten können, eignen sie sich wie oben beschrieben in vielen Fällen trotzdem für KI-Anwendungen. Aus Levys Sicht gibt es aber noch einen anderen Grund, sich zu überlegen, ob eine MCU/MPU nicht doch besser passt: »Maschinelles Lernen ist Middleware. Mit anderen Worten: Während die ML ein integraler Bestandteil einer Anwendung sein kann, muss das System auch in der Lage sein, Kameratreiber, Sicherheits-Stacks, das Betriebssystem und alle anderen Software-Elemente, die Teil dieses Designs sind, auszuführen. In diesem Zusammenhang hat eine MCU oder MPU immer Vorteile gegenüber einem FPGA.« Und weiter: »Heutige MPUs mit geringem Stromverbrauch, wie die i.MX 8M Plus, enthalten einen 2,3-TOPS-Beschleuniger. Das ist zwar nicht die maximal mögliche Rechenleistung, aber alles ist ein Kompromiss aus Leistung und Preis. Und wir glauben, dass dies den Sweet Spot für viele heutige ML-Anwendungen trifft.«

Geht es allerdings um Automotive-Anwendungen, so weist Pinton darauf hin, dass x86/MPU/FPGA zwar eine große Flexibilität böten, aber auch einen hohen Stromverbrauch und hohe Kosten verursachen. Folglich: »Solche Prozessoren können für die Vorentwicklung oder für High-End-Fahrzeuge eingesetzt werden, aber nicht für die Serienproduktion«, so Pinton weiter. Dafür seien dedizierte HW-Beschleuniger notwendig, die für neuronale Netze und für die anvisierten Anwendungsfälle im Automobilbereich konzipiert wurden, denn »sie ermöglichen eine drastische Reduzierung des Stromverbrauchs und bieten eine erschwingliche Lösung für die Großserienproduktion«, erklärt Pinton abschließend.

Seite 3 von 3

1. Von unter 1 MOPS bis hin zu 1000 TOPS
2. Mindestverarbeitungsleistung von 30 fps
3. FPGAs

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

NXP beschleunigt ML-Anwendungen durch Glow-Compiler
Syntiant bringt KI in Edge-Geräte
Wie lässt sich mit KI Geld verdienen?
Gesetzliche Regeln für künstliche Intelligenz gefordert
KI wird allgegenwärtig
KI viel seltener genutzt als gedacht
Robotik und KI erobern die Inspektion
Neuronale-Netzwerk-Beschleuniger
KI trainieren ohne den Datenschutz zu verletzen

Verwandte Artikel

INFINEON Technologies AG Neubiberg, IMEC vzw, NXP Semiconductors Germany, Renesas Electronics Europe GmbH, STMicroelectronics GmbH, LATTICE Semiconductor GmbH, XILINX GmbH, Molex Deutschland GmbH