Sandra Rivera, CEO von Altera, ist in diesem Jahr Keynote-Speakerin auf der embedded world Conference. Im Gespräch mit Markt & Technik erklärt sie, wie FPGAs eingesetzt werden, um KI in vielen Anwendungen zu ermöglichen und wie einfach sie zu nutzen sind – auch von Nicht-Spezialisten.
Markt & Technik: Wieso sind Sie der Meinung, dass KI-Anwendungen im Edge insbesondere für FPGA-Anbieter eine große Chance darstellen?
Sandra Rivera: Seit eh und je eignen sich FPGAs besonders gut für Märkte und Technologien, die sich entwickeln, die dynamisch sind und sich verändern. Dazu zählt beispielsweise die Infrastruktur für die drahtlose Kommunikation und den Übergängen von 1G zu 2G, 3G, 4G, 5G und jetzt 6G. Diese Plattformen müssen zukunftssicher sein, sie müssen genügend Spielraum und Flexibilität aufweisen, so dass Entwickler für Jahre die Möglichkeit haben, sie an sich verändernde Standards und Anforderungen anzupassen.
Und KI ist ein hervorragendes Beispiel für eine Industrie, die sich im Wandel befindet und dynamisch ist. Heute werden FPGAs in großem Umfang in Edge-Anwendungen eingesetzt, und da sich der KI-Markt weiterentwickelt und Unternehmen versuchen, mehr Intelligenz ins Edge zu bringen, sehen wir viele Möglichkeiten für eine Expansion des FPGA-Marktes erweitert.
Können Sie ein paar Anwendungsbeispiele nennen?
Im Edge eignen sich FPGAs prinzipiell immer, wenn es um KI-Inferenzierung geht, bei der Leistung, Kosten, Größe und Gewicht eine große Rolle spielen. Ein Beispiel hierfür sind Video- und Bildverarbeitungsanwendungen, in denen eine geringe Latenz und ein deterministisches Verhalten entscheidend sind. Das gilt insbesondere für Robotersysteme, industrielle Automatisierungssysteme und medizinische Bildgebung und natürlich alle Arten von unbemannten Systemen, die sich autonom bewegen.
Die feinkörnige parallele Architektur eines FPGAs macht sie ideal für diese Anwendungsfälle, da sie mehrere Funktionen gleichzeitig in Echtzeit berechnen können. Sobald sie programmiert sind, tun sie genau das, was von ihnen erwartet wird.
Im Vergleich zu GPUs oder CPUs ermöglichen FPGAs eine hohe Leistung und einen geringen Stromverbrauch bei kleinem Formfaktor. Und die Flexibilität eines FPGAs bedeutet, dass sie neu programmiert werden können, wenn sich Arbeitslasten und Standards weiterentwickeln.
In welchen Bereichen sind FPGAs für KI weniger effizient?
Vereinfacht gesagt ist der Aufbau und das Training sehr großer Sprachmodell in zentralisierten Rechenzentren am besten mit Clustern von Vektorprozessoren möglich, wie sie in GPUs zu finden sind.
Das soll aber nicht heißen, dass Rechenzentren nicht auch eine Chance für FPGA-Anbieter sind. Es gibt viele Anwendungsfälle, in denen FPGAs neben einer CPU oder GPU sitzen, um als Co-Prozessor zu fungieren oder Daten vor dem Training vorzuverarbeiten.
Die Entwicklungsumgebung für GPUs/MPUs ist viel benutzerfreundlich. Müssen Entwickler RTL-Spezialisten sein, um ein FPGA zu verwenden?
Klar, die Low-Level-Programmierung eines FPGAs stellt für viele eine Herausforderung dar. Genau aus diesem Grund haben wir viel Energie und Geld in unsere KI-Software gesteckt. Mit ihr können wir nicht nur mehr Entwickler erreichen, also auch jene, die kein RTL programmieren können, sondern, dass damit ist es auch möglich, dass jeder Entwickler die typischen KI-Frameworks und Modelle nutzen kann, mit denen er vertraut ist.
Wenn wir die Modelle und Frameworks betrachten, die wir mit dieser Tool-Suite und OpenVINO adressieren können, ist schon viel abgedeckt, plus der Tatsache, dass es zwischen der Software und der Hardware nur noch geringe Interaktionen auf unterster Ebene gibt. Dank dieser hohen Abstraktion merken die meisten Entwickler überhaupt keinen Unterschied, auf welcher Hardware sie entwickeln.
FPGAs haben aber noch einen weiteren Vorteil gegenüber MCUs: die Entwickler können mit unseren Bausteinen verschiedene Workloads in einem System zu konsolidieren. Anstatt ein KI-System auf Basis von MCU, NPU, Logikbausteine etc. zu realisieren, die alle unterschiedlich programmiert werden müssen, bei denen das Timing abgestimmt werden muss, können Entwickler mit FPGAs die verschiedenen Arbeitslasten, plus KI/ML-Funktionalität, in nur einem Baustein realisieren.
Das heißt also, dass ein »normaler« Entwickler einer KI-Anwendung kein RTL zum Programmieren braucht?
Genau, wobei wir zwei Möglichkeiten unterstützen. FPGA-Experten können KI/ML-Fähigkeiten sehr einfach hinzuzufügen, weil wir denselben Tool-Flow benutzen – ein ganz klarer Vorteil von Altera, denn unsere Konkurrenz nutzt einen besonderen Tool-Flow für KI.
Für Experten aus anderen Bereichen, wie zum Beispiel Biologie, Aerodynamik, Computer Vision, autonome Fahrzeuge, Fabrikautomation etc. kann der KI-Entwickler neben unserer KI-Suite auch branchenübliche Bibliotheken und Frameworks wie PyTorch oder TensorFlow verwenden. Und dank der bereits beschriebenen Abstraktion zwischen Hard- und Software kommen sie mit RTL gar nicht in Berührung.
FPGAs haben nicht gerade den Ruf, energiesparend zu sein. Wie können FPGAs dazu beitragen, den Energieverbrauch in Edge-Anwendungen zu senken?
Im Vergleich zu einer CPU oder GPU, die vergleichbare Arbeitslasten ausführen, sind FPGAs deutlich energieeffizienter, wenn man die Leistung pro Dollar oder die Leistung pro TCO, sprich Total Cost of Ownership, betrachtet. Die in FPGAs integrierten Funktionen, einschließlich eingebetteter Prozessoren, DSP-Blöcke, die mit KI-Funktionen erweitert wurden, und Hochgeschwindigkeits-I/Os, in Kombination mit ihrer programmierbaren Fabric ermöglichen es Entwicklern, ein FPGA als benutzerdefinierten KI-Beschleuniger zu verwenden. Dadurch können Entwickler häufig mehrere Systemkomponenten in einem einzigen Baustein konsolidieren.
Mit unseren leistungsstarken Agilex 7 FPGAs für Hochleistungsanwendungen, Agilex 5 FPGAs für Standardanwendungen und Agilex 3 FPGAs für kosten- und energieoptimierte Anwendungen bietet Altera eine Reihe von Optionen für unterschiedliche Systemanforderungen.
Wie wichtig ist das KI-Geschäft für Altera?
KI bietet uns eine sehr gute Gelegenheit, unseren TAM, also unseren gesamten adressierbaren Markt, zu erweitern und das Wachstum zu beschleunigen. FPGAs wurden schon immer im Edge eingesetzt, und mit den Funktionen, die wir ins Silizium integrieren, und den Tools, die wir Entwicklern anbieten, ermöglichen wir es ihnen, die Leistungsfähigkeit eines FPGAs zu nutzen, um mehr Intelligenz in eine größere Palette von Endanwendungen zu bringen. Da FPGAs typischerweise eine Lebensdauer von 10 bis 15 Jahren oder mehr haben, bieten sie außerdem eine hervorragende Möglichkeit, ihre Investitionen zukunftssicher zu machen.
Die meisten Geschäftsmodelle, die wir für die nahe Zukunft entwickelt haben, basieren auf der Verwendung von Standard-FPGAs in Edge-Plattformen, sei es in der Fertigung, in der industriellen Automatisierung und, und, und.
Mit KI können wir die Einsatzmöglichkeiten in diesen Zielmärkten noch erweitern. Wir sind überzeugt, dass in den nächsten paar Jahren mehr als die Hälfte der Edge-Plattformen über ein gewisses Maß an KI- und maschinellen Lernfunktionen verfügen werden. Und ein Großteil des Wachstums, das wir sehen, kommt von KI-, maschinellen Bildverarbeitungs- und ML-Anwendungen.
Beziehen Sie die Innovationen mehr auf Hard- oder auf Software?
Das FPGA-Geschäft ist in erster Linie ein Software-Geschäft. Wir verkaufen Silizium, aber um die Vorteile dieser Halbleiter – also Logik-Fabric, I/Os, Speicher-Controller, Kommunikationsschnittstellen und integriertem Hard-Prozessor-IP - wirklich nutzen zu können, benötigen wir die entsprechende Software.
Auf der Hardware-Seite sind wir derzeit mit den Innovationen, die wir mit Agilex eingeführt haben, gut aufgestellt. Zu diesen Innovationen gehören beispielsweise eine Logik-Fabric, die im Vergleich zu FPGAs der Konkurrenz die doppelte Leistung pro Watt bietet, KI-gestützte Beschleuniger, Tensorblöcke und Hochgeschwindigkeits-Transceiver, die Datenraen von 116 Gbps unterstützen.
Wenn es um Software und IP geht, haben wir unsere Investitionen deutlich erhöht, um die Eintrittsbarrieren zu senken und die Zahl der Entwickler, die unsere Hardware nutzen können, zu erhöhen. Vielfach geht es auch darum, zu zeigen, welche Entwicklungen mit unseren FPGAs überhaupt möglich sind. Deshalb entwickeln wir auch Referenz-Designs, um die Fähigkeiten unserer Hardware zu demonstrieren. Dies geschieht typischerweise in Zusammenarbeit mit unseren Kunden und Partnern aus unserem Ökosystem. Ich werde in meiner Keynote auf der Embedded World einige Beispiele zeigen. Und diese Anstrengungen werden wir natürlich weitertreiben.