Jeder Vision-Sensor besitzt einen oder mehrere Schaltausgänge, die das Ergebnis des Erkennungsvorganges ausgeben. Ebenso ist mindestens ein Eingang zur Triggerung der Bildaufnahme vorhanden. Deutlich größere Unterschiede zwischen einzelnen Geräten bestehen hinsichtlich Auswahl und Funktion der weiteren Schnittstellen: Während eine Parametrier-Schnittstelle für das Einrichten noch zum Standard gehört, ist eine Prozessdaten-Schnittstelle zur Übermittlung zum Beispiel von Positionsdaten oder Drehwinkeln im laufenden Betrieb nicht immer gegeben – allerdings auch nicht in jedem Fall nötig.
Jeder Vision-Sensor besitzt einen oder mehrere Schaltausgänge, die das Ergebnis des Erkennungsvorganges ausgeben. Ebenso ist mindestens ein Eingang zur Triggerung der Bildaufnahme vorhanden. Deutlich größere Unterschiede zwischen einzelnen Geräten bestehen hinsichtlich Auswahl und Funktion der weiteren Schnittstellen: Während eine Parametrier-Schnittstelle für das Einrichten noch zum Standard gehört, ist eine Prozessdaten-Schnittstelle zur Übermittlung zum Beispiel von Positionsdaten oder Drehwinkeln im laufenden Betrieb nicht immer gegeben – allerdings auch nicht in jedem Fall nötig.
Jeder Vision-Sensor besitzt einen oder mehrere Schaltausgänge, die das Ergebnis des Erkennungsvorganges ausgeben. Ebenso ist mindestens ein Eingang zur Triggerung der Bildaufnahme vorhanden. Deutlich größere Unterschiede zwischen einzelnen Geräten bestehen hinsichtlich Auswahl und Funktion der weiteren Schnittstellen: Während eine Parametrier-Schnittstelle für das Einrichten noch zum Standard gehört, ist eine Prozessdaten-Schnittstelle zur Übermittlung zum Beispiel von Positionsdaten oder Drehwinkeln im laufenden Betrieb nicht immer gegeben – allerdings auch nicht in jedem Fall nötig.
Die Integration in andere industrielle Bussysteme wie zum Beispiel Profibus erfolgt in der Regel über externe Umsetzer. Die Bedienoberflächen der Vision-Sensoren stellen am PC alle notwendigen Funktionen für das Einrichten und die Fehleranalyse zur Verfügung. Dabei sollte die Bedienung ähnlich wie am PC unterschiedliche Benutzerebenen zulassen, um einen Maschinenbediener unterschiedliche Konfigurationen aufrufen zu lassen, die aber nur ein Einrichter quasi als Administrator ändern kann. Zunehmend wird eine direkte Ansprache des Vision-Sensors über die Steuerung wichtig, um zum Beispiel bei Jobwechseln automatisiert ohne Benutzereingriff neue Konfigurationen per Steuerungstelegramm laden zu können.
Eine Frage der Funktionen
Während viele Vision-Sensoren nur eine einzige Auswerte-Methode anbieten, offerieren „Multitalente“ verschiedene Varianten. Gleiches gilt für die Prüfung mehrerer Merkmale in einem Bild. Dabei gilt es zu unterscheiden, ob ein bestimmtes Merkmal wie zum Beispiel eine definierte Form oder ein spezielles Zeichen erkannt werden soll oder nur das Vorhandensein eines Aufdrucks oder Aufklebers unabhängig vom Inhalt des Aufdrucks. Weitere Forderungen sind zum Beispiel die Ausgabe von Position oder Drehwinkel eines erkannten Teils. Ein wichtiges Auswahlkriterium kann auch die Verarbeitungszeit für die jeweilige Auswerte-Methode sein, die sich durch eine gut gewählte Einengung des Arbeitsbereiches im Bild weiter optimieren lässt.
Zur Anwesenheitserkennung unbestimmter Merkmale – etwa des Aufdrucks einer fortlaufenden Seriennummer oder eines Mindesthaltbarkeitsdatums – eignen sich die Methoden Grauwert, Kontrast und Gradient. Bei der Grauwert-Bestimmung als einer der einfachsten Auswerte-Methoden wird die Anzahl der Pixel oberhalb eines bestimmten Grauwertes gezählt. Mit ihr lässt sich die Anwesenheit von Objekten oder Bedruckungen auf homogenem Untergrund schnell feststellen – allerdings nur bei gleichbleibender Beleuchtung und Oberflächenqualität. Feine Unterschiede zwischen Objekt und Hintergrund sind damit nicht auflösbar. Robuster hinsichtlich der Anforderungen ist die Kontrastbewertung, bei der die statistische Grauwert-Verteilung über die Pixelanzahl komplexer erfasst wird.
Als weitere Verfeinerung kann die Gradientenmethode örtliche Zusammenhänge der Übergänge zwischen hellen und dunklen Pixeln mit berücksichtigen. Damit lassen sich auch unregelmäßig strukturierte Objekte lage-unabhängig und bei schwankender Helligkeit detektieren.