Schwerpunkte

Industrielle Bildverarbeitung

Schlüsseltechnologie für Industrie 4.0

28. November 2016, 15:37 Uhr   |  Andreas Knoll


Fortsetzung des Artikels von Teil 2 .

Die künftige Rolle von Vision-Sensoren und Smart Cameras

Detlef Deuil, Sick: »Die Bildverarbeitungs-Systeme werden sich vor dem Hintergrund von Losgröße 1 noch flexibler an die Zielapplikationen anpassen müssen.«
© Sick

Detlef Deuil, Sick: »Die Bildverarbeitungs-Systeme werden sich vor dem Hintergrund von Losgröße 1 noch flexibler an die Zielapplikationen anpassen müssen.«

Welche Rolle werden Vision-Sensoren sowie Smart Cameras bzw. intelligente Kameras in der Industrie 4.0 spielen?

René von Fintel, Basler: Eine entscheidende, denn 2D- und 3D-digitale Inhalte enthalten so viele Informationen, dass die verschiedensten Auswertungen, Steuerungen oder Optimierungen damit möglich sind - genau das, worauf Industrie 4.0 hinaus will. Um allerdings einen vollumfänglichen Einsatz zu ermöglichen, wird es stark auf die Kosten pro Kamera oder Sensor ankommen. Im Zuge von Industrie 4.0 erwarte ich, dass der Anteil an industriellen Kameras im gesamten Produktionsprozess noch einmal steigen wird.

Ute Häußler, Framos: Für einfache Prüfaufgaben und Prozesse mit geringer Komplexität werden diese vorkonfigurierten Kompaktsysteme sicherlich weiterhin beliebte und einfach zu integrierende Bausteine sein. Unter dem Gesichtspunkt der verstärkten Einbindung in die SPS sehr individueller Anlagen und komplexer Fertigungsprozesse gehen wir eher vom Einsatz modularer Bildverarbeitungssysteme mit einer zentralen Steuerungseinheit aus. Je mehr Kameras im Einsatz sind, je mehr Aufgaben damit erledigt werden und je höher die Komplexität der Gesamtanwendung ist, desto sinnvoller und kosteneffektiver ist der Einsatz zentralisierter Controller, die mehrere Kameras und abhängige Systeme aufgabenübergreifend analysieren und vernetzt steuern.

Horst Mattfeldt, Matrix Vision: Man kann annehmen, dass auch ihre Verbreitung zunehmen wird. Ein Ansatz ist Deep Learning, ein Lernverfahren, das mehrere, meist Tausende, Gut- und Schlechtbilder trainiert und anschließend automatisch entscheidet, was gut oder schlecht ist. Der Rechen- und Speicheraufwand ist enorm und für eine intelligente Kamera nicht zu bewältigen. Daher sollen hierfür neuronale Netze zum Einsatz kommen, die von Supercomputern errechnet und dann auf die intelligente Kamera gespielt werden, so der Plan. Das riesige Speichervolumen, das durch Deep Learning benötigt wird, lässt sich nicht von einer intelligenten Kamera abdecken. Daher wird Deep Learning oft mit Cloud Computing in Verbindung gebracht. Große Internet-Anbieter wie Google mit Cloud Vision, IBM mit Watson oder Microsoft mit seinen Cognitive Services versuchen, sich im Markt der Bildverarbeitung zu etablieren. Aber wer trägt die gewaltigen Kosten der Supercomputer, und wer garantiert die Sicherheit der Daten der Cloud-Lösung, deren Server in den USA stehen?
Matrix Vision verfolgt hier eine andere Strategie mit einem Zwillingskonzept aus der intelligenten Kamera »mvBlueGEMINI« und der selbstlernenden, intelligenten Software »mvIMPACT-CS«. Beides ist schon jetzt erhältlich. Die von der Kamera aufgenommene aktuelle Szene wird automatisch ausgewertet, die dazu passenden Algorithmen und bei Bedarf auch Filter ausgewählt, die vom »mvIMPACT-CS« auch gleich automatisch richtig parametriert werden. Die Hardware-Leistung der jetzigen intelligenten Kameras reicht dafür aus. Alles geschieht an Ort und Stelle, und welche Algorithmen zum Einsatz kommen, ist ersichtlich. Ein weiterer Vorteil: Die Software ist webbasiert und lässt sich überall im Netzwerk per Browser und durch den selbstlernenden Ansatz auch von jedem bedienen. So wird Industrie 4.0 lebendig.

Detlef Deuil, Sick: Es werden weiterhin alle Produktkategorien im Markt vertreten sein. Vision-Sensoren werden deutlicher applikationsspezifischer ausgeprägt sein. Die Code-Leser auf Kamera-Basis haben hier ein Stück weit die Richtung vorgegeben im Sinne von einfacher Inbetriebnahme und Marktakzeptanz.
Die Smart Cameras werden den Integratoren und OEMs nach wie vor eine universelle Möglichkeit zur Lösung von Bildverarbeitungsaufgaben im Sinne von Vielfalt oder auch Komplexität bieten. Spannend wird hier das Thema einfache Bedienbarkeit im Sinne von Losgröße 1 innerhalb Industrie 4.0.

Dr. Klaus-Henning Noffz, Silicon Software: »Vision-Sensoren und eingebettete Kameras werden sich einander annähern.«
© Silicon Software

Dr. Klaus-Henning Noffz, Silicon Software: »Vision-Sensoren und eingebettete Kameras werden sich einander annähern.«

Dr. Klaus-Henning Noffz, Silicon Software: Für eine kosteneffiziente Inspektion des Produktionsumfelds zunehmend individualisierter Produkte mit kleinen Losgrößen entwickeln Bildverarbeitungs-Unternehmen eingebettete Kamerasysteme und Standardisierungsgremien die dazu passenden Schnittstellen und Standards. Bestehende (kabellose) Vision-Sensoren entwickeln sich zu immer intelligenteren und leistungsfähigeren Systemen. Durch eingebettete Rechenleistung und intelligente Algorithmen werden Sensoren und Kameras dazu in der Lage sein, Daten wie Produkt-, Qualitäts- und Prozessinformationen in Echtzeit auszuwerten, zur weiteren Verwendung aufzubereiten und die Ergebnisse zurückzumelden. Die industrielle Bildverarbeitung spielt hier die Rolle des Prozessoptimierers, steuert darüber hinaus die Maschinen- und Anlagenüberwachung (Prozesskontrolle und -steuerung) und fungiert als Daten-Server, mit dessen Hilfe sich Prozesse analysieren und optimieren lassen.
Auf der Prozessebene müssen dafür die Daten unterschiedlicher Sensoren zusammengeführt werden, ohne Kenntnisse über die physische Sensorebene zu haben. Denn um autonom intelligente Entscheidungen zu treffen, benötigen sowohl die Automatisierungssysteme als auch die überlagerten Steuerungsebenen eine fundierte Datengrundlage. Die Ausstattung der Bildverarbeitungssysteme mit der nötigen eigenständigen Funktionalität und Kommunikationsfähigkeit ist dafür eine wichtige Voraussetzung.
Bislang dienen proprietäre Software-Programme dazu, die Kamera zu steuern oder Verarbeitungsergebnisse zu übertragen, sowie zur Geräteerkennung und -steuerung. Zahlreiche Schnittstellen existieren zwischen den einzelnen Komponenten. Daher sind Schnittstellen-Standards zu entwickeln, die GenICam-kompatibel sind, um Kameras effizient in das Produktionsumfeld einzubetten.
Vision-Sensoren und eingebettete Kameras werden sich einander annähern. Wenn Vision-Sensoren immer mehr intelligente Funktionen bekommen, werden die Kameras immer stärker für spezifische Aufgaben in der Produktion perfektioniert. Dazu dienen nicht zuletzt die Standardisierungsbemühungen, die alle Kameratypen (2D-Code-Leser, 3D-Flächenscan-Sensor, Visual-Tracking-System) einbeziehen.
Entwicklungen in der 3D-Inspektion bieten neue Möglichkeiten nicht nur zur Erfassung der Oberflächenbeschaffenheit sowie von Form, Lage und Position, sondern auch in der hochauflösenden 3D-Inline-Prüfung von Kleinstbauteilen. Anwendungsfelder sind zahlreich, etwa in der Robotik, in Fahrerassistenz-Systemen und in der Human Machine Interaction etwa bei der Gestenerkennung und -steuerung.

Peter Stiefenhöfer, Stemmer Imaging: Ob ein Bildverarbeitungssystem PC-basiert oder als Vision-Sensor bzw. intelligente Kamera ausgeführt ist, macht in Bezug auf Industrie 4.0 keinen großen Unterschied. Die Form des Bildverarbeitungssystems wird weiterhin durch die Anforderungen an die Bildverarbeitung bestimmt. Wichtig ist nur, dass die Anbindung an die Anlage eine flexible Reaktion auf die Ergebnisse der Bildauswertung erlaubt.

Seite 3 von 4

1. Schlüsseltechnologie für Industrie 4.0
2. Der Aufbau von Industrie-4.0-Bildverarbeitungssystemen
3. Die künftige Rolle von Vision-Sensoren und Smart Cameras
4. Die Bedeutung von Mobile Devices und Apps

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Verwandte Artikel

MATRIX VISION GmbH, Basler AG, FRAMOS GMBH, IDS Imaging Development Systems GmbH, STEMMER IMAGING AG, Silicon Software GmbH, SICK Vertriebs-GmbH