Die Software bestimmt den Funktionsumfang der Hardware Auch in der industriellen Bildverarbeitung kann die Hardware ohne Software rein gar nichts

Ob in PC-gestützten Bildverarbeitungs-Systemen, intelligenten Kameras oder Vision-Sensoren: Der entscheidende Faktor für den Umfang und die Leistungsfähigkeit der Bildverarbeitungs-Funktionen ist die Software. Die technische Entwicklung auf der Softwareseite bestimmt darüber, welche Anwendungen die Hardware wie gut beherrscht - und schreitet rasant voran.

Die Software bestimmt den Funktionsumfang der Hardware

Ob in PC-gestützten Bildverarbeitungs-Systemen, intelligenten Kameras oder Vision-Sensoren: Der entscheidende Faktor für den Umfang und die Leistungsfähigkeit der Bildverarbeitungs-Funktionen ist die Software. Die technische Entwicklung auf der Softwareseite bestimmt darüber, welche Anwendungen die Hardware wie gut beherrscht - und schreitet rasant voran.

Kein Thema hat unter Bildverarbeitungs-Experten in den letzten Jahren so sehr für Diskussionsstoff gesorgt wie der Schnittstellen-Standard GigE Vision (Gigabit Ethernet for Machine Vision). In der Werbung wird GigE Vision stets groß herausgestellt. Aus dem Blick gerät dabei oft, dass für die Bildverarbeitung nicht die Schnittstelle das maßgebliche Element ist, sondern die Software: Erst sie ermöglicht im Zusammenspiel mit der Hardware die Erfassung, Verarbeitung und Auswertung der Bilddaten. »Schnittstellen sind eben nur Schnittstellen - die eigentliche Bildverarbeitung findet ja erst dahinter statt«, betont Dr. Lutz Kreutzer, Manager PR & Marketing von MVTec Software. Thomas Schmidgall, Marketingleiter von IDS Imaging Development Systems, bestätigt dies: »Eine Schnittstelle allein macht noch keine Bilder«, führt er aus. »Zur Schnittstellen-Hardware ist auch eine entsprechende Software vonnöten.«

Angesichts dessen ist es erstaunlich, dass gerade die Software in der Fachdiskussion so wenig Aufmerksamkeit findet. Möglicherweise liegt dies daran, dass Software ein vielschichtigeres und daher schwerer greifbares Thema ist als Schnittstellen-Standards. Trotz der Komplexität sind aber auch in der Softwaretechnik einige allgemeine Trends auszumachen: »Weil die Geschwindigkeit von Verfahren weiterhin eine große Bedeutung hat, wird die Beschleunigung der Software-Algorithmen stetig vorangetrieben«, erläutert Dr. Wolfgang Eckstein, Geschäftsführer von MVTec Software. »Hierbei nutzen die Entwickler einerseits Fortschritte auf der Hardware-Seite aus, und andererseits erstellen sie neue Algorithmen, die bekannte Verfahren in kürzerer Zeit ausführen.«

Ohne entsprechende Hardware kann nämlich auch die leistungsfähigste Software nicht das sein, was sie ist: »Weil die elektronischen Bauelemente unaufhaltsam schrumpfen und die Rechnerleistung permanent steigt, sind immer komplexere Analysealgorithmen und Bildverarbeitungs-Programme mit Echtzeiteffekt möglich«, formuliert Torsten Zöller, Senior Marketing Manager Europe Central bei Cognex. »Dies gilt sowohl für PC-gestützte Systeme als auch für sogenannte Vision-Sensoren, die mittlerweile Aufgaben übernehmen, die früher PC-Systemen vorbehalten waren.«

Ein wichtiger Trend bei Bildverarbeitungs-Software ist die Vereinfachung der Bedienung: »Sie wird noch über Jahre die Entwicklung der Software bestimmen«, hebt Eckstein hervor. »Dies liegt daran, dass die Anforderungen durch die größere Nähe zum Endkunden wachsen und neue Techniken wie die 3D-Objekterkennung immer komplexer werden.« Von der Komplexität dürfe aber der Anwender nichts spüren.

»Dem Anwender ist es letztlich egal, welche Details während der Bildverarbeitung ablaufen. Für ihn zählt das Endergebnis: sichere Arbeitsweise und eindeutige Resultate zu einem kalkulierbaren und günstigen Preis. Die Programmierung einer Bilddaten-Vorverarbeitung ist kaum sein Thema. Für Bildverarbeitungs-Systemintegratoren kann die hardware-optimiert ablaufende Bildverarbeitung aber durchaus von Interesse sein. Letztendlich entscheidet aber auch hier, welche Werkzeuge und Komponenten für die Aufgabe zur Verfügung stehen und wie einfach das Engineering ist. Bei komplexen Aufgaben mit sehr schnellen Taktraten kann die Bild-Vorverarbeitung mittels FPGAs in der Kamera ein wichtiger Aspekt sein.«

»Auch bei vermeintlich einfachen Aufgaben und eng eingegrenzten Randbedingungen ist die industrielle Bildverarbeitungstechnik von der Erkennungsleistung des Menschen noch weit entfernt. Ein Beispiel: Die Erkennung von Bearbeitungsspänen in Sacklöchern mit teilweise verschmutzten Oberflächen. Solche Aufgaben sind derzeit nur mittels einer raffinierten, speziellen Messtechnik erfolgreich lösbar. Versuche mit Standardbeleuchtung und derzeit bekannten Bildverarbeitungsmethoden scheitern, obwohl die Fehler mit dem Auge am Monitorbild (nicht nur am Objekt!) eindeutig zu erkennen sind. Der Grund: die Vielfalt der Erscheinungsformen eines Spans lässt sich nicht modellieren.

Im Bemühen, sich der menschlichen Erkennungsleistung zu nähern, liegen die derzeitigen Grenzen nicht in der Prozessorleistung oder im Speicherplatz, sondern im unzureichenden Verständnis der Mechanismen, die dem menschlichen Erkennen und Lernen zugrunde liegen. Ein tieferes Verständnis könnte mit gleicher Hardware jederzeit einen Quantensprung in Sachen Erkennungsleistung auslösen.

Um einem tieferen, technisch umsetzbaren Verständnis näher zu kommen, geht mein Aufruf an die Forschung nicht in die Richtung, noch bombastischere Aufgaben mit noch mehr apparativem Aufwand und möglichst vielen Projektpartnern (und entsprechendem Verwaltungsaufwand) gleichzeitig anzugehen, sondern sich zu bescheiden und auf den ersten Blick einfach erscheinende Aufgaben anzugreifen, die ungelöst oder unbefriedigend gelöst sind. Weniger ergibt oft mehr.«

»Hochauflösende Sensoren und schnelle PCI-Express-Systeme erlauben es den Herstellern von Kameras und Erfassungskarten, immer leistungsfähigere Erfassungstechniken zu entwickeln. Daraus entstehen riesige Datenmengen, die der Bildverarbeitungs-Rechner schnellstmöglich verarbeiten muss. Weil die Leistung der Rechner nicht in gleichem Maße wächst, ist auf eine optimale Ausnutzung der Kapazitäten zu achten. Optimierte Algorithmen sind dabei ein wichtiger Aspekt. Rechenintensive Vorverarbeitungen lassen sich allerdings von der CPU auf andere Prozessoren auslagern. Dazu bieten sich spezielle Hardware-Lösungen mit FPGAs an.«