Schwerpunkte

KI in Embedded-Vision-Systeme einfügen

»Wir optimieren neuronale Netze für Embedded-Vision-Systeme«

24. Februar 2020, 15:35 Uhr   |  Andreas Knoll

»Wir optimieren neuronale Netze für Embedded-Vision-Systeme«
© Cubemos

Skeleton Tracking in der Praxis: Die von Cubemos entwickelte Skeleton-Tracking-KI eignet sich auch für Anwendungen im Sport.

Das 2018 vom Bildverarbeiter Framos ausgegründete KI-Startup Cubemos will jetzt sein Projektgeschäft durch eigene Standard-KI-Produkte auf Basis neuronaler Netze ergänzen. Dr. Christopher Scheubel, Geschäftsführer von Cubemos, erläutert die technischen Hintergründe sowie die Pläne des Unternehmens.

Markt&Technik: Embedded-Vision ist ein Buzzword, aber sicherlich auch ein Trend. Welche Bedeutung hat Embedded Vision für die Bildverarbeitung?

Dr. Christopher Scheubel: Embedded Vision ist die Verbindung eines bildgebenden Systems und eines integrierten Prozessors. Die Technologie hat sich im Consumer-Sektor (etwa Drohnen oder Home Security) entwickelt und ist in die Industrie hineindiffundiert. Durch den Ursprung im Consumer-Sektor sind die Produktlebenszyklen relativ kurz und die Margen niedriger als im klassischen Industriegeschäft. Der positive Effekt ist, dass sich damit völlig neue Anwendungen für die Industrie bei geringen Kosten erstellen lassen. Bei Embedded Vision sind also die klassischen Economies of Scale, also Skaleneffekte, zu beobachten, die im Machine-Vision-Geschäft nicht zu sehen waren.

Aus welchen Komponenten bestehen typische Embedded-Vision-Systeme?

Ein typisches Embedded-Vision-System besteht aus der Kameraoptik, dem Bildsensor plus Bildsensor-Board sowie einem Processing Board. Das Bild wird von dem Sensor erfasst und von einem Image Signal Processor (ISP) oder einem Field-Programmable Gate Array (FPGA) verarbeitet. Gleich hinter diesem Verarbeitungsschritt befindet sich ein Embedded-Prozessor, etwa eine Central Processing Unit (CPU) oder eine Graphics Processing Unit (GPU).

Weil Bildverarbeitungstechnik im Zuge von Embedded Vision immer kompakter und preisgünstiger wird, lassen sich so Anwendungen realisieren, die bisher zu groß oder zu teuer waren. Beispiele sind Pick-and-Place-Lösungen mit Hilfe von Robotern, selbstfahrende Staubsauger in Haushalten sowie Erkennungen in der Sicherheits- und Überwachungstechnik.

Cubemos
© Cubemos

Christopher Scheubel, Cubemos: »Cubemos möchte 2020 sein erfolgreiches Projektgeschäft durch eigene KI-Produkte ergänzen.«

In welcher Komponente von Embedded-Vision-Systemen ist die KI-Software verankert?

Jeder Embedded-Prozessor ermöglicht die Nutzung von KI-Software in Embedded-Vision-Systemen. Das können herkömmliche CPUs, GPUs oder spezialisierte ASICs sein. In allen diesen Chips kann unter anderem KI-Software von Cubemos laufen. Vor Kurzem hat Framos die VPU (Visual Processing Unit) „Movidius Myriad X“ von Intel in sein Sortiment aufgenommen; dieser Chip ist nur etwa so groß wie der Nagel des kleinen Fingers, bietet aber eine herausragende Rechenleistung. Mit ihm lässt sich auch die Bildverarbeitung mehrerer Sensormodule umsetzen; klassische Bildverarbeitungs-Algorithmen und neuronale Netze können eingebunden werden, etwa für Erkennungsaufgaben.

Wie läuft die Implementierung der neuronalen Netze und damit der KI ab?

Ein Projekt, bei dem KI implementiert wird, läuft immer recht ähnlich ab. Zunächst erheben wir gemeinsam mit unseren Kunden einen Datensatz aus mehreren 1000 Bildern, der dann vom Anwender oder von uns gelabelt wird. Wichtig ist dabei: Die Datenhoheit haben bei unseren Lösungen nicht wir, sondern die Kunden.
Daraufhin entscheiden wir uns für eine passende Architektur des neuronalen Netzes. In den meisten Fällen sind schon vorgefertigte Netze vorhanden, die entsprechend der Applikation des Kunden angepasst werden müssen. Das neuronale Netz wird anschließend mit dem neu erhobenen Datensatz trainiert.

Dieser Prozess kann sehr aufwändig sein und wird von unseren Hochleistungsrechnern in Taufkirchen bei München durchgeführt. Als nächster Schritt wird das neuronale Netz entsprechend der Zielplattform, etwa einer CPU oder einem ASIC, optimiert. In der Anwendung läuft dann nur noch die Inferenz, das heißt, dass das Bild ans neuronale Netz übergeben wird und das Ergebnis beispielsweise der Personenerkennung zurückkommt. Im Anschluss integrieren wir das neuronale Netz in eine fertige Software und implementieren Schnittstellen bis hin zur vollständigen graphischen Oberfläche.

Seite 1 von 2

1. »Wir optimieren neuronale Netze für Embedded-Vision-Systeme«
2. Neuronale Netze übersichtlicher machen

Auf Facebook teilen Auf Twitter teilen Auf Linkedin teilen Via Mail teilen

Verwandte Artikel

elektroniknet, FRAMOS GMBH