Mehr Anwendungen durch Embedded Vision

Embedded-Module statt Bildverarbeitungs-PCs

22. Februar 2021, 20:56 Uhr | Andreas Knoll

Fortsetzung des Artikels von Teil 5

Axel Krepil, Framos: Embedded Vision gibt Maschinen Entscheidungshilfe

Axel Krepil, Framos
Axel Krepil, Framos: »Heutige Embedded-Vision-Systeme arbeiten in Echtzeit und mit sehr geringer Latenzzeit.«
© Framos

Der Trend zum Edge Computing spiegelt sich auch in der Embedded-Vision-Technik wider, was Maschinen neue Grundlagen für automatisierte Entscheidungen vermittelt. Axel Krepil, Vice President Sales & Support bei Framos, erläutert die Hintergründe.


Markt&Technik: Inwieweit geht der Trend zu Embedded Vision mit dem Trend zu Edge Computing einher?

Die zunehmende Implementierung von Kameras in der Industrie trägt zur Schaffung intelligenterer Maschinen bei. Konzepte wie Objekterkennung, Tiefenwahrnehmung, Kollisionsvermeidung und Entscheidungsfindung durchdringen die Geräte und Maschinen („Machine Learning“). Waren viele Kameras bisher noch mit lokalen Host-Industrie-PCs verbunden, so hält „Computing at the Edge“, also die Datenauswertung und -Analyse in der Kamera, zunehmend Einzug in neuere Modelle. Das ermöglicht die neuronale Zusammenarbeit vieler lokaler Geräte, etwa um Produktionsabläufe flexibler, schneller und sicherer zu machen und so effizienter zu gestalten.


Welches Leistungsniveau haben Embedded-Vision-Systeme mittlerweile erreicht?

Heutige Embedded-Vision-Systeme arbeiten in Echtzeit und mit sehr geringer Latenzzeit. Die Rechenleistung der VPUs (Video Processing Units) mit den eingebundenen Bildkomprimierungen und Erkennungsalgorithmen haben in letzter Zeit derartige Fortschritte gemacht, dass externe CPUs eigentlich nicht mehr notwendig sind. Gute Beispiele sind hier Intel Movidius, Nvidia, aber auch Ambarella, Lattice und Xilinx, oder als komplette Kamera beispielsweise die „Neurocam“ von Flir Systems.


Welche Dienstleistungen sind für anwendungsspezifische Embedded-Vision-Systeme erforderlich?

Als exklusiver europäischer Nvidia-Imaging-Partner bietet Framos neben den spezifischen Komponenten für eine industrielle Kamera, etwa den Bildsensoren von Sony mit passenden Optiken, auch das Erstellen von Software-Treibern sowie das ISP-Tuning etwa für die Nvidia-Jetson-Familie an. Ebenso hilft Framos bei projektspezifischen Anfragen rund um die Lizenzierung und Beschaffung des Intel Myriad sowie um deren Hardware-/Software-Entwicklung. Auf dieser Basis führt Framos die komplette (oder Teil-)Entwicklung eines kundenspezifischen optischen Kamera-/Sensormoduls durch, einschließlich entsprechender Basis-Firmware und der Hardware-Produktion. Applikationsspezifische KI-Software erstellt Framos‘ Partner cubemos.

Anbieter zum Thema

zu Matchmaker+

  1. Embedded-Module statt Bildverarbeitungs-PCs
  2. Horst Mattfeldt, Matrix Vision: Neue Chancen durch GPUs und KI-Beschleuniger
  3. Carsten Traupe, IDS Imaging Development Systems: SoC und SoM befeuern den Fortschritt
  4. Jan-Erik Schmitt, Vision Components: Auf einem ausgereiften, hohen Niveau
  5. Stephan Hahn, Stemmer Imaging: Der Schlüssel zu Deep Learning
  6. Axel Krepil, Framos: Embedded Vision gibt Maschinen Entscheidungshilfe
  7. Oliver Helzle, hema electronic: Daten-Manager für Kameras und Sensoren

Verwandte Artikel

FRAMOS GMBH, STEMMER IMAGING AG, IDS Imaging Development Systems GmbH

TW Automa EBV Sept21