Imagimob/Synaptics

Machine-Learning für Edge-Geräte

14. Juni 2022, 8:57 Uhr | Heinz Arnold
© Imagimob

Auf Basis der »tinyML«-Platform von Imagimob lassen sich schnell und einfach Sound-Event-Detection-Systeme entwickeln, etwa für den Einsatz in der vorausschauenden Wartung.

Diesen Artikel anhören

Weitere Beispiele sind die Bewegungs- und Gestenerkennung, Audiosysteme und die Materialerkennung. Auf der »tinyML«-Platform von »Imagimob AI« – eine End-to-End-Machine-Learning Platform für Edge-Geräte – arbeitet der »DBM10L« von Synaptics. Dabei handelt es sich um ein Dual-Core-SoC, auf dem ein DSP und ein Neuronales Netzwerk integriert sind. Ursprünglich hatte die DSP Group den »DBM10« entwickelt, die Synaptics Ende 2021 für 550 Mio. Dollar übernommen hatte. Das IC ist klein und eignet sich wegen seiner geringen Leistungsaufnahme für den Einsatz in batteriebetriebenen Geräten wie Smartphones, Tablets, Smart-Home-Geräte, Fernbedienungen und Wearables. 

Mit Hilfe der Lernalgorithmen für die Sound-Event-Detection (SED) von Synaptics können schnell Systeme erstellt werden, die beispielsweise das Zersplittern von Glas, das Schreien eines Babys, Schüsse oder das Geräusch eines Mikrowellenofens erkennen. Das dauert von der Sammlung der Daten bis zur kompletten Installation auf dem jeweiligen Edge-Gerät wenige Minuten. Imagimob hat »Imagimob AI« als Entwicklungsplattform für Machine-Learning in Edge-Geräten auf den Markt gebracht. Mehr dazu könen die Besucher der embedded world am Stand von Imagimob (Halle 4, Stand 133) erfahren.
 

passend zum Thema


Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!