Auf Basis der »tinyML«-Platform von Imagimob lassen sich schnell und einfach Sound-Event-Detection-Systeme entwickeln, etwa für den Einsatz in der vorausschauenden Wartung.
Weitere Beispiele sind die Bewegungs- und Gestenerkennung, Audiosysteme und die Materialerkennung. Auf der »tinyML«-Platform von »Imagimob AI« – eine End-to-End-Machine-Learning Platform für Edge-Geräte – arbeitet der »DBM10L« von Synaptics. Dabei handelt es sich um ein Dual-Core-SoC, auf dem ein DSP und ein Neuronales Netzwerk integriert sind. Ursprünglich hatte die DSP Group den »DBM10« entwickelt, die Synaptics Ende 2021 für 550 Mio. Dollar übernommen hatte. Das IC ist klein und eignet sich wegen seiner geringen Leistungsaufnahme für den Einsatz in batteriebetriebenen Geräten wie Smartphones, Tablets, Smart-Home-Geräte, Fernbedienungen und Wearables.
Mit Hilfe der Lernalgorithmen für die Sound-Event-Detection (SED) von Synaptics können schnell Systeme erstellt werden, die beispielsweise das Zersplittern von Glas, das Schreien eines Babys, Schüsse oder das Geräusch eines Mikrowellenofens erkennen. Das dauert von der Sammlung der Daten bis zur kompletten Installation auf dem jeweiligen Edge-Gerät wenige Minuten. Imagimob hat »Imagimob AI« als Entwicklungsplattform für Machine-Learning in Edge-Geräten auf den Markt gebracht. Mehr dazu könen die Besucher der embedded world am Stand von Imagimob (Halle 4, Stand 133) erfahren.