Schwerpunkte

KI und ML

»KI und ML bieten einen völlig neuen Weg zur Problemlösung«

04. April 2019, 12:00 Uhr   |  Iris Stroh


Fortsetzung des Artikels von Teil 2 .

Schnelle Entwicklung bei KI...

Sie sprachen von Low-End-MCU und High-End-Applikationsprozessor. Mit welchem Portfolio adressiert NXP KI-Anwendungen?

Wie bereits gesagt, sind wir der Überzeugung, dass ein skalierbares Portfolio besonders wichtig für KI-Anwendungen ist, weil die Entscheidung für ein Produkt am Ende davon abhängt, wie viel Leistung benötigt wird, also wie groß die Inferenzlatenzzeit sein darf, und wie viel Speicher verfügbar sein muss.

Klar gibt es Leute, die sagen, dass sie mehr Leistung und ausgefallene ML-Beschleuniger wollen, aber die Kosten sind immer der wichtigste Faktor. Und genau aus diesem Grund ist ein NXP-Produkt wie der i.MXRT600 mit integriertem DSP eine ausgezeichnete Wahl für Sprach- und Bildanwendungen. Der integrierte DSP übernimmt die Keyword-Erkennung, sodass der Großteil des Bausteins im Low-Power-Modus bleiben kann, bis ein entsprechendes Keyword erkannt wird. Am anderen Ende des Spektrums bietet NXP i.MX8- und Layerscape-Bausteine mit integrierten GPUs, Multicore-CPUs und DSP an, sodass die Möglichkeit besteht, heterogene Berechnungen und mehrere maschinelle Lernalgorithmen parallel durchzuführen. Die nächste Generation von Bausteinen wird dedizierte ML-Beschleuniger beinhalten, die aus unserer Sicht ein beispielloses Leistungsniveau aufweisen werden.

Klassifizierung, Objekterkennung, Segmentierung, Spracherkennung und Anomalie-Erkennung sind Bereiche, in denen KI immer häufiger zum Einsatz kommt. Für die unterschiedlichen Anwendungen werden verschiedene neuronale Netze verwendet, angefangen bei CNNs über RNNs oder LSTMs und MLPs bis hin zu Hybridvarianten. Bietet NXP optimierte Hardware für die verschiedenen neuronalen Netze an?

Wir verfolgen eher einen universellen Ansatz. Bei über 25.000 Kunden wäre es unmöglich, sich auf eine spezifische Hardwarelösung zu einigen, die zwischen CNNs, RNNs usw. unterscheidet. Stattdessen geht es bei uns mehr um die Software und die Generierung der entsprechenden Inferenz-Engines, mit denen die Berechnungen abgebildet werden, die ausgeführt werden müssen.

Was muss ein universeller KI-Beschleuniger können?

Ein universeller KI-Chip ist ein Chip, der darauf optimiert ist, eine große Anzahl von parallelen Multiply-Accumulate-Operationen schnell durchzuführen. Sicherlich fallen die Anforderungen von CNN und RNN unterschiedlich aus, und es gibt Unternehmen, die über spezialisierte Beschleuniger verfügen, aber die Mehrheit wird universellere KI-Beschleuniger verwenden.

KI entwickelt sich derzeit sehr schnell, es kommen ständig neue Algorithmen und Modelle auf den Markt. Deshalb sehen sich Unternehmen wie Xilinx in einer extrem guten Position, um am KI-Hype zu partizipieren.

Wie bereits gesagt, es wird immer bessere Möglichkeiten geben, einen neuen Algorithmus auszuführen, aber solange die Hardware – CPU, GPU, DSP etc. – in der Lage ist, Multiply-Accumulate-Operationen parallel durchzuführen, ist sie in der Lage, die Anwendung auszuführen. Aber es ist natürlich klar, dass FPGAs Möglichkeiten in Rechenzentren haben. Zum Beispiel verwendet Microsoft Xilinx-FPGAs in mehr als der Hälfte seiner Server. Aber die Skalierbarkeit von FPGAs hin zu Edge-Computing ist teuer. Außerdem werden auch andere Halbleiter genutzt, Facebook setzt beispielsweise auf Nvidia-GPUs und Google auf TPUs.

Seite 3 von 3

1. »KI und ML bieten einen völlig neuen Weg zur Problemlösung«
2. Rasanter Fortschritt bei Open Source
3. Schnelle Entwicklung bei KI...

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

Qualcomm schließt neues Gebot für NXP aus
Der Halbleiterbedarf wächst – so oder so
NXP ernennt Lars Reger zum CTO
Übernahmewelle im Halbleitersektor läuft aus
Die Gewinner der Kategorie »Aktive Bauelemente«
Der Wettkampf der autonomen Mini-Flitzer

Verwandte Artikel

NXP Semiconductors Germany, XILINX GmbH, Microsoft Deutschland GmbH