Schwerpunkte

KI-Anwendungen im Edge

Neuronale-Netzwerk-Beschleuniger

07. Oktober 2020, 16:44 Uhr   |  Newsdesk st

Neuronale-Netzwerk-Beschleuniger
© Maxim Integrated Products

Künstliche Intelligenz für batteriebetriebene IoT-Geräte durch neuen Neuronale-Netzwerk-Beschleuniger-Chip von Maxim Integrated Products.

In Inferenz-Anwendungen kann der Low-Power-Neuronale-Netzwerk-Beschleuniger-Mikrocontroller MAX78000 von Maxim Integrated Products die Leistungsaufnahme und Latenzzeit im Vergleich zu einer Software-LÖsung um einen Faktor von über 100 reduzieren.

Der Baustein von Maxim erlaubt die Ausführung von KI-Inferenzen mit weniger als einem Hundertstel der Energie, die konventionelle Softwarelösungen benötigen. Damit erhöht er ganz erheblich die Laufzeit batteriebetriebener KI-Applikationen und ermöglicht auch komplexe neue KI-Anwendungen, die zuvor als nicht realisierbar galten. Diese Leistungsverbesserungen fordern keinerlei Kompromisse hinsichtlich Latenz und Kosten: Der MAX78000 führt Inferenzen 100-mal schneller aus als Software-Lösungen, die auf Low-Power-Mikrocontrollern laufen, und das zu einem Bruchteil der Kosten von FPGA- oder GPU-Lösungen.

Die KI-Technologie ermöglicht es Maschinen, zu sehen und zu hören und die Welt auf eine Weise zu verstehen, die zuvor nicht möglich war. KI-Inferenzen zur Edge zu bringen, bedeutete früher, Daten von Sensoren, Kameras und Mikrofonen zu sammeln, diese Daten an die Cloud zu senden, um eine Schlussfolgerung (Inferenz) zu ziehen, um anschließend eine Antwort zurück zur Edge zu senden. Diese Architektur funktioniert, aber bedeutet aufgrund der schlechten Latenzzeiten und dem hohen Energiebedarf eine große Herausforderung für Edge-Anwendungen.

Durch die Integration eines dedizierten neuronalen Netzwerkbeschleunigers mit zwei verschiedenen Mikrocontroller-Kernen hebt der MAX78000 diese Einschränkungen auf. Er ermöglicht es Maschinen, komplexe Muster optisch und akustisch wahrnehmen – mit lokaler und in Echtzeit ausgeführter KI-Verarbeitung bei geringer Leistungsaufnahme. Herzstück des MAX78000 ist eine spezialisierte Hardware, die darauf ausgelegt ist, die Leistungsaufnahme und die Latenzzeit von Convolutional Neural Networks (CNN) zu minimieren. Diese Hardware läuft, ohne dass die Mikrocontroller-Kerne stark eingreifen müssen, wodurch der Betrieb optimiert ist. Energie und Zeit werden nur für die mathematischen Operationen aufgewendet, die ein CNN implementieren. Um externe Daten effizient in die CNN-Engine zu übertragen, können Kunden einen der beiden integrierten Mikrocontroller-Kerne verwenden: den Cortex-M4-Kern oder den RISC-V-Kern mit einer noch niedrigeren Leistungsaufnahme.

Für die anspruchsvolle KI-Entwicklung stellt Maxim Integrated umfangreiche Tools für eine nahtlosere Evaluierung und Entwicklung zur Verfügung. Das MAX78000EVKIT# enthält Audio- und Kameraeingänge sowie sofort einsatzbereite Demos für das Keyword Spotting und die Gesichtserkennung. Eine vollständige Dokumentation hilft Entwicklern dabei, Netzwerke für den MAX78000 mit den für sie gewohnten Tools wie TensorFlow oder PyTorch zu trainieren.

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

Es geht auch ohne Messmanschette
LED-Controller sorgt für die richtige Erleuchtung
Die größten Hersteller analoger Chips 2019
Photodetektor-Modul für kompaktere Designs
Analog Devices kauft Maxim für 21 Mrd. Dollar
Strom für Mini-SPSen
Weniger Aufwand für I²C- und SPI-Sensoren
1-Wire Protocol reduziert Komplexität
Beschleunigte Markteinführung

Verwandte Artikel

Maxim Integrated Products