Expertenumfrage zur 3D-Bildverarbeitung

Räumlicher Durchblick in immer mehr Anwendungen

10. Februar 2022, 9:06 Uhr | Andreas Knoll

Fortsetzung des Artikels von Teil 4

Vision Components: »3D-Bildverarbeitung wird embedded«

Schmitt_Jan Erik
Jan-Erik Schmitt, Vision Components: »Wir sehen in der 3D-Bildverarbeitung aktuell drei Trends: Unabhängigkeit, immer größere Leistung und Miniaturisierung.«
© Vision Components

Jan-Erik Schmitt, Vision Components
»3D-Bildverarbeitung wird embedded«

Der Trend zu Embedded-Vision-Systemen, genauer gesagt: zu kompakten Sensoren mit Onboard-Datenverarbeitung, macht auch vor der 3D-Bildverarbeitung nicht Halt. Jan-Erik Schmitt, Geschäftsführer von Vision Components, erklärt ihn und andere Trends näher.

Markt&Technik: Was hat sich in der 3D-Bildverarbeitung in den vergangenen Jahren technisch getan? Welche technischen Trends zeigen sich dort momentan?

Jan-Erik Schmitt: Wir sehen aktuell drei Trends: Unabhängigkeit, immer größere Leistung und Miniaturisierung.
Immer mehr Anwendungen können heutzutage von 3D-Bildverarbeitung profitieren – und die Integration ist dank Embedded Vision deutlich einfacher geworden. Dabei geht der Trend weg von 3D-Sensoren, die für die Berechnung und Auswertung der erfassten Punktwolke an einen externen PC angeschlossen werden müssen, und hin zu kompakten Sensoren mit Onboard-Datenverarbeitung.

Ein Beispiel aus der Metallverarbeitung: Mit 3D-Profilsensoren können Hersteller von Gesenkbiegepressen die Winkelhaltigkeit bei der Metallverarbeitung in Echtzeit messen. Unsere Lasertriangulationssysteme müssen dazu lediglich an der Biegepresse installiert und an die Steuerung angeschlossen werden. Sie messen den Biegewinkel des Werkstücks und gleichen den Wert in Echtzeit mit dem Sollwert ab. Dieser Vorgang erfolgt komplett im Sensor, und nur das Ergebnis wird an die Steuerung übergeben. Damit arbeiten die Sensoren komplett autark. Der CNC-Steuerungsexperte Delem hat unsere Lasertriangulationssysteme dafür sogar bereits in seine Steuerungen integriert, sodass die Funktion nur noch aktiviert werden muss.

Hinzu kommt, dass die Elektroniken für die Bildverarbeitung immer kleiner und leistungsstärker werden. Unter dem Namen VC picoSmart haben wir im vergangenen Jahr das kleinste komplette Embedded-Vision-System vorgestellt: Es ist so klein wie eine Briefmarke, enthält aber alle Komponenten für Bildeinzug und -verarbeitung wie etwa Bildsensor, CPU und Speicher. Zusammen mit einem speziell darauf abgestimmten Lasermodul bildet VC picoSmart 3D eine Basis, mit der OEMs mit wenig Aufwand kompakte und preisgünstige Triangulationssensoren entwickeln können.

Was kann die 3D-Bildverarbeitung in industriellen und nichtindustriellen Anwendungen leisten, auch im Vergleich zur 2D-Bildverarbeitung?

3D bietet eine deutlich höhere Datentiefe und ermöglicht komplexere Auswertungen – von der Volumenberechnung beim Vermessen von Objekten über eine höhere Genauigkeit für die Beurteilung von Poren, Kerben und Verunreinigungen in der Qualitätskontrolle bis hin zur exakten Positionierung von Objekten und Fahrzeugen.

Welche 3D-Bildverarbeitungsverfahren eignen sich für welche Anwendungen besonders und warum?

Für mehrachsige Roboter oder autarke Fahrzeuge ist 3D-Bildverarbeitung unerlässlich. Ansonsten setzen sich 3D-Verfahren in der Qualitätssicherung besonders dann durch, wenn sie auch preislich attraktiv sind. Deshalb haben wir VC picoSmart 3D vor allem für die Entwicklung kostengünstiger Triangulationssensoren konzipiert. Außerdem bieten wir als Neuheit ab sofort auch MIPI-Kameramodule mit 3D-/ToF-Sensoren an. Sie ermöglichen es, preisgünstig und mit den Vorteilen der weit verbreiteten MIPI-CSI-2-Schnittstelle Systeme für die 3D-Bildverarbeitung zu entwickeln.

Welche Vorteile hat die 3D- gegenüber der 2D-Bildverarbeitung in der Robotik? Welche 3D-Bildverarbeitungsverfahren bieten sich dort besonders an?

Wie beschrieben ist 3D-Bildverarbeitung für genaue Positionierungen von Robotern, Greifarmen und Bauteilen Grundvoraussetzung. Dafür eignen sich besonders Stereo-Vision-Systeme oder Multi-Vision-Systeme mit mehreren Kameras und einer Elektronik für die zentrale Verarbeitung der Kameradaten.

Das Lasertriangulationsverfahren mit Embedded Vision und Laserlinien eignet sich gut für das Vermessen von Bauteilen, Spalt- und Winkelmaßen und ähnlichen Anwendungen, weil es ohne Berührung und mit Abstand zum untersuchten Objekt arbeitet, genaue Ergebnisse liefert und kostengünstig zu realisieren ist. Auch für Pick-and-Place-Anwendungen werden Embedded-Vision-Systeme von VC eingesetzt.

Wie lassen sich 3D-Sensoren bzw. 3D-Kameras in Embedded-Vision-Systeme integrieren?

Wir bieten für Lasertriangulationssensoren einen »Baukasten« an: OEMs können einen komplett integrationsfertigen Sensor für unterschiedliche Arbeitsabstände bekommen, auch in individuellem Gehäuse oder Design. Außerdem erhalten sie die kompletten, aufeinander abgestimmten Komponenten als Basis für die schnelle und unkomplizierte Entwicklung eigener Triangulationssensoren.

Darüber hinaus bieten wir das besonders kompakte Embedded-Vision-System VC picoSmart 3D für 3D-Bildverarbeitungen an. Für Unternehmen, die komplett individuelle Systeme entwickeln, in die sie 3D-Bilderfassung integrieren wollen, gibt es zudem MIPI-Kameramodule mit 3D-Sensoren und Embedded-Vision-Systeme von VC, die aus einem oder mehreren Bildsensoren und einer Elektronik für die Bilddatenverarbeitung bestehen.

Ganz neu ist VC Power SoM, ein Hardwarebeschleuniger auf FPGA-Basis. Das Board ist für die Vorverarbeitung komplexer Bilddaten entwickelt und wird zwischen den Kamerasensoren und dem Embedded-Prozessor für die Endapplikation installiert. Es kann dann beispielsweise die Auswertung von Stereo- und 3D-Bilddaten übernehmen und entlastet damit den Hauptprozessor. Anwender haben außerdem deutlich höhere Freiheitsgrade bei dessen Auswahl. Damit vereinfacht VC Power SoM also ebenfalls Integration und Entwicklung von Embedded-Vision-Systemen mit 3D-Bildverarbeitung.
 

Anbieter zum Thema

zu Matchmaker+

  1. Räumlicher Durchblick in immer mehr Anwendungen
  2. Teledyne Dalsa: »KI dringt auch in die 3D-Technik vor«
  3. Framos: »Stereo ist Treiber, ToF wird interessanter«
  4. Photonfocus: »Kompakte und modulare Systemarchitekturen sind gefragt«
  5. Vision Components: »3D-Bildverarbeitung wird embedded«
  6. IDS Imaging Development Systems: »3D Vision macht Roboter flexibel«

Verwandte Artikel

IDS Imaging Development Systems GmbH, Teledyne DALSA GmbH, FRAMOS GMBH