KI in Embedded-Vision-Systeme einfügen

»Wir optimieren neuronale Netze für Embedded-Vision-Systeme«

24. Februar 2020, 15:35 Uhr | Andreas Knoll
Skeleton Tracking in der Praxis: Die von Cubemos entwickelte Skeleton-Tracking-KI eignet sich auch für Anwendungen im Sport.
© Cubemos

Das 2018 vom Bildverarbeiter Framos ausgegründete KI-Startup Cubemos will jetzt sein Projektgeschäft durch eigene Standard-KI-Produkte auf Basis neuronaler Netze ergänzen. Dr. Christopher Scheubel, Geschäftsführer von Cubemos, erläutert die technischen Hintergründe sowie die Pläne des Unternehmens.

Diesen Artikel anhören

Markt&Technik: Embedded-Vision ist ein Buzzword, aber sicherlich auch ein Trend. Welche Bedeutung hat Embedded Vision für die Bildverarbeitung?

Dr. Christopher Scheubel: Embedded Vision ist die Verbindung eines bildgebenden Systems und eines integrierten Prozessors. Die Technologie hat sich im Consumer-Sektor (etwa Drohnen oder Home Security) entwickelt und ist in die Industrie hineindiffundiert. Durch den Ursprung im Consumer-Sektor sind die Produktlebenszyklen relativ kurz und die Margen niedriger als im klassischen Industriegeschäft. Der positive Effekt ist, dass sich damit völlig neue Anwendungen für die Industrie bei geringen Kosten erstellen lassen. Bei Embedded Vision sind also die klassischen Economies of Scale, also Skaleneffekte, zu beobachten, die im Machine-Vision-Geschäft nicht zu sehen waren.

Aus welchen Komponenten bestehen typische Embedded-Vision-Systeme?

Ein typisches Embedded-Vision-System besteht aus der Kameraoptik, dem Bildsensor plus Bildsensor-Board sowie einem Processing Board. Das Bild wird von dem Sensor erfasst und von einem Image Signal Processor (ISP) oder einem Field-Programmable Gate Array (FPGA) verarbeitet. Gleich hinter diesem Verarbeitungsschritt befindet sich ein Embedded-Prozessor, etwa eine Central Processing Unit (CPU) oder eine Graphics Processing Unit (GPU).

Weil Bildverarbeitungstechnik im Zuge von Embedded Vision immer kompakter und preisgünstiger wird, lassen sich so Anwendungen realisieren, die bisher zu groß oder zu teuer waren. Beispiele sind Pick-and-Place-Lösungen mit Hilfe von Robotern, selbstfahrende Staubsauger in Haushalten sowie Erkennungen in der Sicherheits- und Überwachungstechnik.

Anbieter zum Thema

zu Matchmaker+
Cubemos
Christopher Scheubel, Cubemos: »Cubemos möchte 2020 sein erfolgreiches Projektgeschäft durch eigene KI-Produkte ergänzen.«
© Cubemos

In welcher Komponente von Embedded-Vision-Systemen ist die KI-Software verankert?

Jeder Embedded-Prozessor ermöglicht die Nutzung von KI-Software in Embedded-Vision-Systemen. Das können herkömmliche CPUs, GPUs oder spezialisierte ASICs sein. In allen diesen Chips kann unter anderem KI-Software von Cubemos laufen. Vor Kurzem hat Framos die VPU (Visual Processing Unit) „Movidius Myriad X“ von Intel in sein Sortiment aufgenommen; dieser Chip ist nur etwa so groß wie der Nagel des kleinen Fingers, bietet aber eine herausragende Rechenleistung. Mit ihm lässt sich auch die Bildverarbeitung mehrerer Sensormodule umsetzen; klassische Bildverarbeitungs-Algorithmen und neuronale Netze können eingebunden werden, etwa für Erkennungsaufgaben.

Wie läuft die Implementierung der neuronalen Netze und damit der KI ab?

Ein Projekt, bei dem KI implementiert wird, läuft immer recht ähnlich ab. Zunächst erheben wir gemeinsam mit unseren Kunden einen Datensatz aus mehreren 1000 Bildern, der dann vom Anwender oder von uns gelabelt wird. Wichtig ist dabei: Die Datenhoheit haben bei unseren Lösungen nicht wir, sondern die Kunden.
Daraufhin entscheiden wir uns für eine passende Architektur des neuronalen Netzes. In den meisten Fällen sind schon vorgefertigte Netze vorhanden, die entsprechend der Applikation des Kunden angepasst werden müssen. Das neuronale Netz wird anschließend mit dem neu erhobenen Datensatz trainiert.

Dieser Prozess kann sehr aufwändig sein und wird von unseren Hochleistungsrechnern in Taufkirchen bei München durchgeführt. Als nächster Schritt wird das neuronale Netz entsprechend der Zielplattform, etwa einer CPU oder einem ASIC, optimiert. In der Anwendung läuft dann nur noch die Inferenz, das heißt, dass das Bild ans neuronale Netz übergeben wird und das Ergebnis beispielsweise der Personenerkennung zurückkommt. Im Anschluss integrieren wir das neuronale Netz in eine fertige Software und implementieren Schnittstellen bis hin zur vollständigen graphischen Oberfläche.


  1. »Wir optimieren neuronale Netze für Embedded-Vision-Systeme«
  2. Neuronale Netze übersichtlicher machen

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu elektroniknet

Weitere Artikel zu FRAMOS GMBH

Weitere Artikel zu Betriebssysteme

Weitere Artikel zu Industrie-Computer / Embedded PC

Weitere Artikel zu IoT / IIoT / Industrie 4.0

Weitere Artikel zu Künstliche Intelligenz (KI)

Weitere Artikel zu Bildverarbeitungs-Systeme

Weitere Artikel zu IIoT-Protokolle (OPCUA, MQTT, ...)