Elektroniknet Logo

Mehr Anwendungen durch Embedded Vision

Embedded-Module statt Bildverarbeitungs-PCs


Fortsetzung des Artikels von Teil 3

Jan-Erik Schmitt, Vision Components: Auf einem ausgereiften, hohen Niveau

Jan-Erik Schmitt, Vision Components
Jan-Erik Schmitt, Vision Components: »Embedded-Vision-Systeme stehen klassischen Kameraanwendungen bezogen auf Leistungsfähigkeit und Einsatzbereich in nichts nach.«
© Vision Components

Embedded-Vision-Systeme können mittlerweile an die Stelle von Bildverarbeitungssystemen auf PC-Basis treten. Jan-Erik Schmitt, Geschäftsführer von Vision Components, erläutert die wichtigsten Trends.


Markt&Technik: Welche technischen Trends zeigen sich im Bereich Embedded Vision derzeit?

Jan-Erik Schmitt: Aktuell sehen wir drei Trends, die miteinander zusammenhängen: Es kommen immer mehr Embedded-Prozessoren mit speziellen Recheneinheiten auf den Markt, die Bildeinzug und Bildverarbeitung einfacher und schneller machen – beispielsweise mit ISPs, GPUs, FPGAs und NPUs. Damit ausgestattete Embedded-Vision-Systeme lassen sich kostengünstig entwickeln und produzieren und sind perfekt an vielfältige Anwendungen angepasst – ob in Medizintechnik und Laborgeräten, in Drohnen oder Smart-Farming-Lösungen. Diese Entwicklung hin zu hoch applikationsspezifischen Komponenten ist ein zweiter Trend. Infolge vieler mobiler Anwendungen und der Integration von Embedded-Vision-Systemen in immer kleinere Geräte ist die Miniaturisierung ein dritter Trend.


Für welche Anwendungen in der Industrie eignen sich heutige Embedded-Vision-Systeme?

Die genannten Embedded-Plattformen sind extrem leistungsstark und eignen sich für praktisch alle Anwendungen - auch solchen, bei denen noch vor einigen Jahren PCs mit Industriekameras verwendet wurden. Gegenüber den PC-Systemen bieten die Embedded-Plattformen einige Vorteile: Sie sind kostengünstiger, weil sie perfekt auf die spezifische Anwendung zugeschnitten sind und auf jeden nicht benötigten Overhead verzichten. Sie sind dadurch kleiner und optimal für mobile Anwendungen und Edge-Devices geeignet. Und Industrietauglichkeit und Langzeitverfügbarkeit sind im Embedded-Bereich meist garantiert. Kurzum: Embedded-Vision-Systeme stehen klassischen Kameraanwendungen bezogen auf Leistungsfähigkeit und Einsatzbereich in nichts nach.


Welche Rolle spielt die MIPI-CSI-2-Schnittstelle derzeit in Embedded-Vision-Systemen und für das Produktportfolio Ihres Unternehmens?

Die MIPI-CSI-2-Schnittstelle wird von den meisten modernen Prozessorplattformen unterstützt und hat sich auch in der Industrie etabliert. Vision Components bietet eine Vielzahl von MIPI-Modulen für zahlreiche Anwendungen an – auch für solche mit Bildsensoren, die von Haus aus keine MIPI-Schnittstelle mitbringen. Mittels der Module lassen sich etwa die hochauflösenden und lichtempfindlichen High-End-Bildsensoren der Serien Starvis und Pregius von Sony mit gängigen Embedded-Prozessoren einsetzen.

Darüber hinaus präsentiert das Unternehmen auf der Messe embedded world 2021 Digital das „VC picoSmart“, das wohl kleinste Embedded-Vision-System weltweit. Es ist nur so groß wie ein herkömmliches Bildsensor-Modul und vereint auf der nur 22 mm x 23,5 mm großen Platine einen 1-Megapixel-Sensor mit Global Shutter, ein FPGA-Modul und einen FPU-Prozessor sowie Speicher und FPC-Konnektor für den Anschluss eines Interface-Boards. Mit dem VCRT-Betriebssystem sind Bildverarbeitungsaufgaben in Echtzeit möglich – etwa für Objekterkennung, Lagekontrolle, Barcode-Lesen sowie Bahnkanten- und Füllstandskontrolle. Damit ist das VC picoSmart aus unserer Sicht eine echte Revolution im Bereich Embedded Vision – und eine gute Basis für die Entwicklung applikationsspezifischer, kostengünstiger und kompakter Vision-Sensoren. Rund um die Integration unserer MIPI-Module und Embedded-Vision-Systeme bieten wir die nötigen Treiber, Unterstützung beim Design-In und kundenspezifische Entwicklungen an.

Anbieter zum Thema

zu Matchmaker+

  1. Embedded-Module statt Bildverarbeitungs-PCs
  2. Horst Mattfeldt, Matrix Vision: Neue Chancen durch GPUs und KI-Beschleuniger
  3. Carsten Traupe, IDS Imaging Development Systems: SoC und SoM befeuern den Fortschritt
  4. Jan-Erik Schmitt, Vision Components: Auf einem ausgereiften, hohen Niveau
  5. Stephan Hahn, Stemmer Imaging: Der Schlüssel zu Deep Learning
  6. Axel Krepil, Framos: Embedded Vision gibt Maschinen Entscheidungshilfe
  7. Oliver Helzle, hema electronic: Daten-Manager für Kameras und Sensoren

Verwandte Artikel

FRAMOS GMBH, STEMMER IMAGING AG, IDS Imaging Development Systems GmbH

TW Automa EBV Sept21