Embedded-Vision-Lösung lernt fliegen Das fliegende Auge

Der Multicopter fliegt hier virtuell über der Karte eines Katastrophengebiets.
Der Multicopter fliegt hier virtuell über der Karte eines Katastrophengebiets.

Embedded Vision zählt neben 3D und Robot Vision zu den Trendthemen der Bildverarbeitung. Außer die Industrie beginnt sie jetzt auch die Lüfte zu erobern: Single-Board-Computer und Platinenkameras fliegen jetzt auf Drohnen mit und kartographieren Katastrophengebiete in Echtzeit.

Autonome Transportsysteme und Roboter in der Industrieproduktion 4.0, selbstfahrende Automobile oder autark agierende Drohnen sind ohne Echtzeit-Bildverarbeitung nicht denkbar. Klassische Bildverarbeitungs-Systeme aber scheiden hier aus Platz- oder Kostengründen aus, so genannte Smart Cameras sind in ihrem Funktionsumfang meist stark eingeschränkt. Erst die Kombination aus miniaturisierter Kamera, kompaktem Prozessor-Board und flexibel programmierbarer Software ermöglicht es, Bildverarbeitungs-Applikationen individuell zu entwickeln und direkt in Maschinen oder Fahrzeuge „einzubetten“. An der Technischen Universität Braunschweig beispielsweise wurde ein Multicopter für die Echtzeit-Kartographierung von Katastrophengebieten gebaut. Die Karten werden erstellt von einem an Bord montierten Embedded-Vision-System, bestehend aus einem Single-Board-Computer auf ARM-Basis und einer USB-3.0-Platinenkamera von IDS.
Wie kann eine Drohne in einer Katastrophensituation helfen? Indem sie beispielsweise Wasserproben nimmt, Rettungsringe abwirft oder Geodaten und Bilder aus Gebieten liefert, wo Menschen nicht oder nur mit Mühe hingelangen. Für letztere Aufgabe hat das Team AKAMAV, eine Arbeitsgruppe aus Studierenden und Beschäftigten der Technischen Universität Braunschweig, die vom Institut für Flugführung (IFF) der TU Braunschweig unterstützt wird, einen speziell ausgestatteten Multicopter gebaut.