Bildverarbeitungs-Messe Vision 2016 Kameras als Augen von Maschinen

Besonders kompakt ist die bei Stemmer Imaging erhältliche Hyperspektralkamera »Specim FX10« von Specim.
Besonders kompakt ist die bei Stemmer Imaging erhältliche Hyperspektralkamera »Specim FX10« von Specim.

3D-Bildverarbeitung, Hyperspektraltechnik und Robot Vision sind drei Branchen-Trends, die sich auf der Vision 2016 zeigen werden. Auch Themen wie CMOS-Bildsensoren und USB 3.0 werden breiten Raum einnehmen.

»Die Bildverarbeitungstechnik bildet jetzt tatsächlich das organische Auge von Maschinen und Robotern«, erläutert Dr. Horst Heinol-Heikkinen, Geschäftsführer von Asentics in Siegen und Vorstandsmitglied der VDMA-Fachabteilung Industrielle Bildverarbeitung. »Wir haben also die Vision verwirklicht, die wir seit 20 Jahren verfolgen. Damals stellten wir am Ende einer Produktionskette ein Bildverarbeitungssystem hin, um eine finale Qualitätsaussage zu bekommen. Jetzt ist die Bildverarbeitung an mehreren Stellen in der Produktionskette zu finden, um nach jedem Schritt die Qualität zu ermitteln. Vor 20 Jahren hatten wir also eine Maschine mit Bildverarbeitung am Schluss, und in Zukunft – im Blick auf Industrie 4.0 – muss die Maschine direkt auf Qualitätsmaße reagieren können, die während der Produktion gewonnen werden.«

Als »Augen des Roboters« kommen nicht nur 2D-Kameras, sondern auch 3D-Kameras in Frage: »Es gibt ein wachsendes Interesse an 3D-Kameras, um beispielsweise Prozesse zu automatisieren und zu überwachen, Robotersteuerungen einfacher umzusetzen und Mensch-Maschinen-Interfaces zu optimieren und sicherer zu gestalten«, sagt Jana Bartels, Produktmanagerin für 3D/Time-of-Flight (ToF) bei der Basler AG in Ahrensburg (Halle 1, Stand E42). Im Kommen seien wenig komplexe 3D-Systeme mit schnellen, hochauflösenden und leicht bedienbaren Sensoren bzw. Kameras. Basler präsentiert dazu auf der Vision unter anderem Kameras mit LVDS-basierter BCON-Schnittstelle für Embedded-Vision-Systeme sowie seine »Basler-ToF-Kamera«. »Sie ist die erste industrielle VGA-Kamera im Mainstream-Preissegment, die nach dem ToF-Prinzip arbeitet«, führt Bartels aus. Das ToF-Verfahren, auch Lichtlaufzeitmessung genannt, beruht auf der Zeit, die das Licht von der Lichtquelle zum Objekt und zurück zur Kamera braucht; je größer die Entfernung, desto länger die benötigte Zeit. Die Lichtquelle und die Bilderfassung sind so synchronisiert, dass die Entfernungen aus den Bilddaten extrahiert und berechnet werden können.

Ritchie Logan, Vice President Business Development bei Odos Imaging im schottischen Edinburgh (Halle 1, Stand B84), betrachtet Industrie 4.0 als einen treibenden Faktor für Innovationen in der Bildverarbeitungs-Branche: »Industrie 4.0 und die 3D-ToF-Technik sorgen für eine große Bandbreite bei den Anfragen der Anwender. Das hilft uns, neue Lösungen für die Herausforderungen in Verbindung mit Industrie 4.0 und Logistik 4.0 zu entwickeln.« Mit Blick auf den Vision Award 2014, den das Unternehmen für »Machine Vision with Depth« bekam (hochauflösendes System auf Basis des gepulsten 3D-ToF-Bildgebungsverfahrens), präsentiert das Unternehmen Weiterentwicklungen wie die hochauflösende 3D-ToF-Kamera »StarForm« und die Event-Recording-Kamera »StarStop« mit Freeze-Motion-Funktion.

Auf dem ToF-Prinzip beruht auch die 3D-Kamera O3D von ifm electronic in Essen (Halle 1, Stand E10). Sie lässt sich mittels anwendungsspezifischer Apps leicht konfigurieren und integrieren. »In den Apps sind die Algorithmen für jeweils eine Anwendung bereits vollständig programmiert«, erläutert Mike Gonschior, Produktmanager Objekterkennung, Kamerasysteme und PMD bei ifm electronic. »Der Anwender muss sich dadurch nicht mit der 3D-Bildverarbeitung beschäftigen. Er bekommt ein fertiges Produkt inklusive der bereits programmierten App.«

LMI Technologies (Halle 1, Stand H51) stattet seine 3D-Kameras mit CMOS-Bildsensoren und Embedded-Technik aus. Auf der Vision präsentiert das kanadische Unternehmen seine neuesten Geräte »Gocator 2410 smart 3D laser line profiler« und »Gocator 3506 smart 3D snapshot sensor« mit einer Auflösung von 2 und 5 MPixel, nach Firmenangaben die branchenweit höchste.

Neu sind auch die 3D-Profilsensoren der Serie »weCat3D« von Wenglor Sensoric in Tettnang (Halle 1, Stand I15). Erhältlich sind über 70 Versionen, wobei die höchstauflösende Höhenunterschiede von 2 µm erfasst. Die 3D-Profilsensoren arbeiten nach dem Prinzip der Lasertriangulation. Dabei wird eine Laserlinie auf das zu erfassende Objekt projiziert. Die im Sensor integrierte Kamera betrachtet die Laserlinie unter dem Triangulationswinkel. Der Sensor kann somit ein präzises Höhenprofil erstellen. Durch das Aneinanderreihen solcher 2D-Profile lässt sich eine 3D-Punktewolke erzeugen.

Für die schnelle Erfassung von 3D-Daten auch bei bewegten Objekten eignet sich das Verfahren von Matrix Vision in Oppenweiler (Halle 1, Stand E12): »Unsere Lösung mit 3D-Punktewolkengenerierung in Echtzeit und ausreichender Auflösung erfüllt die Anforderungen solcher Applikationen«, betont der technische Geschäftsführer Uwe Furtner. Für die schnelle Erfassung von 3D-Daten spreche außerdem, dass sie in der Industrieproduktion 4.0 eine wertvolle Ergänzung sei, weil sie sich in vernetzte Umgebungen hervorragend integrieren lasse. Der Anwender könne für eine Qualitätsprüfung die CAD-Daten direkt mit den Ergebnissen der ermittelten Punktewolken online abgleichen.

Das Unternehmen zeigt auf der Vision »mvBlueSIRIUS« - keine reine 3D-Lösung, sondern eine 6D-Kamera, die neben den 3D-Punktewolken auch Bewegungsvektoren und RGB-Farbinformationen liefert. »Neben einer reinen Berechnung der Daten ist die Kamera auch in der Lage, Objekte zu erkennen, die sich mit Informationen zu Form, Farbe, Größe und Geschwindigkeit beschreiben lassen«, verdeutlicht Furtner. Das Besondere an der 6D-Erkennung: Sie erleichtere auch Personen die Anwendung, die keine Erfahrung mit algorithmischer Auswertung haben.