Embedded-Vision-Lösung lernt fliegen

Das fliegende Auge

21. Februar 2017, 12:03 Uhr | Heiko Seitz
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 2

„Konfigurieren statt programmieren“

Für ein 1 ha großes Areal benötigt der Multicopter etwa 4 bis 5 min, wenn Start und Landung unmittelbar am Rand des zu kartographierenden Gebiets erfolgen. Bei einer Flughöhe von zirka 40 m und einer skalierten Bildauflösung von 1200 x 800 Pixel beträgt die Bodenauflösung dann im Mittel etwa 7 cm/px. Das Embedded-Vision-System ist dabei auf die Fluggeschwindigkeit des Multicopters von maximal 5 m/s ausgelegt; entsprechend reicht eine vergleichsweise niedrige Bilderfassungsrate von 1 bis 2 Frames/s aus, und eine Pufferung der Bilddaten ist ebenfalls nicht nötig. Besteht eine Funkverbindung zwischen dem Flugsystem und der Kontrollstation, lässt sich der Stitching-Prozess live vom Boden aus verfolgen. Nach Abschluss der Kartographierung lässt sich die komplette Karte entweder per Fernzugriff abrufen, sofern sich der Multicopter in Funkreichweite befindet, oder nach dessen Landung auf einen externen Datenträger kopieren und weiter verbreiten.

Die Bildverarbeitung hat die AKAMAV mit C++ und der Open-Source-Bibliothek OpenCV realisiert. „Weil die Problemstellung eine Echtzeit-Anforderung enthält, muss die Software möglichst leistungsfähig sein, weshalb nur eine Hochsprache in Frage kommt. OpenCV hat sich dabei in den letzten Jahren als Standard für die Bildverarbeitung im Forschungsbereich durchgesetzt und überzeugt mit allerhand existierenden Funktionen für die Bildanalyse oder für maschinelles Sehen“, argumentiert Mario Gäbel, Mitglied der studentischen Arbeitsgruppe AKAMAV.

Die Einbindung der Kamera erfolgt über das uEye-API. Besonders dem API kommt bei allen Vision-Applikationen eine Schlüsselrolle zu, denn es entscheidet erstens, wie nutzerfreundlich die Kamerafunktionen sind, und zweitens, wie gut das Potential der Kamera ausgeschöpft werden kann. IDS bietet hier mit seinem eigenen „Standard“ einen Vorteil, von dem besonders auch die Entwickler von Embedded-Vision-Anwendungen profitieren: Denn egal, welche Kamera des Herstellers eingesetzt wird, egal welche Schnittstellentechnologie (USB 2.0, USB 3.0 oder GigE) benötigt wird, und egal, ob eine Desktop- oder Embedded-Plattform zum Einsatz kommt – das uEye-API ist immer gleich. Das vereinfacht nicht nur den Austausch von Kamera oder Plattform; es ermöglicht Entwicklern auch, Projekte auf einem Desktop-PC zu entwickeln und später 1:1 und ohne aufwändige Anpassungen des Codes auf dem Embedded-Rechner zu verwenden. Sowohl die Integration der Kamera als auch die Adaption an eine Third-Party-Bildverarbeitungs-Software wie etwa Halcon ist auf der Embedded-Plattform identisch zur Desktop-Umgebung. Spezielle Tools wie das „uEye Cockpit“, das ebenfalls Teil des IDS-eigenen Software-Development-Kits ist, verringern den Aufwand für Programmierer darüber hinaus. Nach dem Motto „Konfigurieren statt programmieren“ lässt sich die Kamera am Desktop-PC mit wenigen Mausklicks vorkonfigurieren. Die Konfiguration lässt sich speichern und später leicht in die Embedded-Vision-Applikation laden. Gerade im Embedded-Bereich ist die Programmierung durch die Cross-Kompilierung in der Regel sehr aufwändig, und wegen fehlender Display- und Tastatur-Anschlüsse gibt es oft keine Möglichkeiten, die angeschlossene Kamera direkt am Gerät einzustellen. Gerade in so einer Situation ist eine Vorkonfiguration der Kameraeinstellungen im „uEye Cockpit“ Gold wert. (ak)


  1. Das fliegende Auge
  2. Multicopter operiert autark
  3. „Konfigurieren statt programmieren“

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu IDS GmbH