Schwerpunkte

Advertorial

Mit Kria-SOMs Edge-Innovationen beschleunigen

18. Juni 2021, 12:44 Uhr   |  Evan Leal, Director, Product Marketing - Boards & Kits von Xilinx

Mit Kria-SOMs Edge-Innovationen beschleunigen
© WEKA Fachmedien, Avnet Silica

Das Kria-Portfolio mit adaptiven SoMs beschleunigt die Entwicklung von KI-Anwendungen im Edge.

Im Edge und den Endpunkten kommt immer mehr KI in den Anwendungen zum Einsatz. Sie müssen diversen Anforderungen genügen, das heißt, die Systeme müssen zuverlässig laufen, eine hohe Leistungsfähigkeit aufweisen und in einem kleinen Formfaktor verfügbar sein.

Der Einsatz von KI-Methoden (Künstlicher Intelligenz) im Edge oder Endpunkt nimmt stetig zu, denn eine leistungsstarke KI-Inferenzierung macht beispielsweise Städte intelligent, ermöglicht aber auch intelligente, hochautomatisierte Fabriken.

KI im Edge ist alles andere als einfach

Systeme, die im Edge eingesetzt werden, müssen bestimmten Vorgaben hinsichtlich Leistungsaufnahme, Fläche und Kosten genügen. Das heißt aber auch, dass die steigenden Anforderungen an die Verarbeitungsleistung innerhalb der Grenzen einer Edge-Anwendung eine Herausforderung in diesem Bereich darstellen. Früher konnten CPUs für sich beanspruchen, dass ihre Leistungsfähigkeit im Edge stetig zunimmt, doch die Geschwindigkeit, mit der diese Verbesserungen erreicht wurden, hat sich verlangsamt. CPUs ohne Beschleuniger haben mittlerweile Schwierigkeiten, die Rechenleistung zu liefern, die für die nächste Generation von KI-fähigen Edge-Anwendungen benötigt wird. Das gilt besonders dann, wenn auch noch hohe Anforderungen an kurze Latenzzeiten bestehen.

Eine domänenspezifische Architektur (DSA) ist der richtige Ansatz, wenn es um die Implementierung fortschrittlicher KI-Anwendungen im Edge geht, denn sie zeichnen sich durch Determinismus und niedrige Latenzzeiten aus.

Eine geeignete DSA wird genau dahingehend optimiert, dass sie die erforderlichen Daten effizient verarbeiten kann – das gilt sowohl für die Inferenzierung als auch für die Teile der Anwendung, die nicht KI-spezifisch sind, also schlussendlich ist die Leistungsfähigkeit für die gesamte Anwendung entscheidend. Dieser Punkt ist kritisch, denn man muss sich bewusst sein, dass die KI-Inferenzierung auch eine Vor- und Nachverarbeitung benötigt, die nichts mit KI zu tun hat und dass auch diese Aufgaben sehr Leistungsanforderungen aufweisen. Das heißt, dass grundsätzlich die gesamte Anwendung beschleunigt werden muss, um schlussendlich im Edge (oder anderswo) eine KI-fähige Anwendung effizient zu implementieren.

Wie alle Halbleiter mit festverdrahteten Funktionen haben auch anwendungsspezifische Standardprodukte (ASSPs) für KI-Anwendungen im Edge ihre Grenzen. Das größte Problem besteht darin, dass im KI-Bereich die Innovationsgeschwindigkeit unglaublich hoch ist, so dass KI-Modelle schneller viel überholt sind als Technologien, die nichts mit KI zu tun haben. Dementsprechend können Halbleiter mit festverdrahteten Funktionen aufgrund von neuen und effizienteren KI-Modellen schnell veraltet sein. Das Tape-out eines ASSPs/ASICs kann mehrere Jahre dauern, genug Zeit, in der sich der Stand der Technik bei KI-Modellen enorm weiterentwickelt hat. Darüber hinaus steigen in Edge-Anwendungen auch die Anforderungen an Safety und Security, was häufig zu Updates im Feld führt, die das Potenzial haben, durchaus teuer auszufallen.

Adaptives Computing ermöglicht effiziente KI-Anwendungen im Edge

Adaptive Computing - einschließlich einer Hardware, die für bestimmte Anwendungen optimiert werden kann, wie FPGAs - ist ein leistungsstarker Ansatz für KI-fähige Edge-Anwendungen.

Mittlerweile gibt es adaptive Hardware, wie zum Beispiel adaptive SoCs, die eine FPGA-Fabric enthalten, gekoppelt mit einem oder mehreren eingebetteten CPU-Subsystemen. »Adaptive Computing« ist aber viel mehr als »nur Hardware«. Adaptive Computing umfasst auch einen Satz an Entwicklungs- und Laufzeit-Software, die in ihrer Kombination eine einzigartige adaptive Plattform darstellen, auf der hochflexible und effiziente Systeme aufgebaut werden können.

Adaptive Computing ermöglicht, dass DSAs ohne den Zeitaufwand und die Vorlaufkosten implementiert werden können, die mit kundenspezifischen Bausteinen wie ASICs verbunden sind. Das heißt, dass flexible und optimierte Komponenten für jede beliebige Domäne, einschließlich KI-fähige Edge-Anwendungen, schnell realisiert werden können. Adaptive SoCs eignen sich besonders für diese domänenspezifische Verarbeitung, da sie die Flexibilität eines eingebetteten CPU-Subsystems mit der optimalen Datenverarbeitung einer adaptiven Hardware kombinieren.

Seite 1 von 3

1. Mit Kria-SOMs Edge-Innovationen beschleunigen
2. Adaptive System-on-Modules – kurz SoMs
3. Kria KV260 Vision AI Starter Kit

Auf Facebook teilen Auf Twitter teilen Auf Linkedin teilen Via Mail teilen

Das könnte Sie auch interessieren

Verwandte Artikel

Avnet Silica, XILINX GmbH