Forschungsprojekt Propedes

Mehr Sicherheit für Fußgänger

13. April 2012, 10:04 Uhr | Von Prof. Dr. Holger Blume, Dr. Sebastian Flügel, Dr. Martin Kunert, Dr. Werner Ritter und Prof. Dr. Axel Sikora
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 4

Fusionsverfahren

Bild 3. Fusion von NIR- und FIR-Bild auf Merkmalsebene. Dargestellt wird eine von N hintereinander verschalteten Klassifikationsstufen. Die unter den Filterkernen (schwarz/weiß) befindlichen Intensitätswerte werden aufsummiert (weiß mit +, schwarz mi
Bild 3. Fusion von NIR- und FIR-Bild auf Merkmalsebene. Dargestellt wird eine von N hintereinander verschalteten Klassifikationsstufen. Die unter den Filterkernen (schwarz/weiß) befindlichen Intensitätswerte werden aufsummiert (weiß mit +, schwarz mit -) und mittels Schwellwert und gewichteten Summationsoperatoren verschaltet. Am Ausgang der letzten Klassifikationsstufe liegt dann die Entscheidung Fußgänger bzw. kein Fußgänger vor.

Die Fusion bildgebender Sensoren ist auf drei Ebenen realisierbar: Auf der Bildpunktebene, der Merkmalsebene und der Objektebene. Bei der Fusion müssen dabei die durch die Fusionsebene definierten Strukturen in den Bildern der zu fusionierenden Sensoren identifiziert werden. Dies kann bei der Fusion auf der Bildpunktebene für an unterschiedlichen Stellen im Fahrzeug verbaute Sensoren nicht eindeutig gelöst werden und fällt aus diesem Grund für die praktische Anwendung aus. Bei der Fusion auf der Merkmalsebene müssen in den jeweiligen Sensorbildern aus mehreren Bildpunkten zusammengesetzte Strukturen einander zugeordnet werden. Dies ist mit vertretbarem Such- und damit Rechenaufwand möglich. Bei der Fusion auf Objektebene müssen lediglich die im Einzelsensorsystem detektierten Objekte einander zugeordnet werden. Dies ist im Regelfall mit einfachen Mitteln, d.h. mit geringem Rechenaufwand möglich.

Das in Propedes entwickelte Fusionsverfahren lässt sich auf alle bildgebenden Sensoren, d.h. sowohl auf NIR-Radar-Bilder als auch für NIR-FIR-Bilder anwenden. Es arbeitet auf der Merkmalsebene und ist in Bild 3 für die Sensorkombination NIR-FIR dargestellt. Dies ermöglicht - im Gegensatz zur Fusion auf Objektebene, in der die Ergebnisse der Einzelsensorsysteme kombiniert werden - eine Systemleistung (Detektionsrate gegenüber Falschalarmrate), die deutlich über der eines Einzelsensorsystems liegt. Untersuchungen ergaben, dass im NIR-FIR-System 93 Prozent der Fußgänger im Entfernungsbereich bis 127 m detektiert wurden, während im gleichen Test ein FIR-Einzelklassifikator lediglich 78 Prozent der Fußgänger detektieren konnte.

 


  1. Mehr Sicherheit für Fußgänger
  2. Nachtsichtassistenten der nächsten Generation
  3. NIR-Radar
  4. NIR-FIR
  5. Fusionsverfahren
  6. In Propedes entwickelte Software-/Hardware-Architekturen für mehr Rechenleistung
  7. Anbindung an das ADTF-Framework
  8. Optimale Partitionierung der Videoalgorithmen
  9. Applikationsspezifisch konfigurierbare Soft-Core-Prozessoren
  10. Umsetzung auf Multi-FPGA-Hardware-Plattform
  11. FPGA-basierter Ansatz bietet viel Potential
  12. Die Autoren

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Bundesministerium für Bildung und Forschung BMBF

Weitere Artikel zu Robert Bosch GmbH

Weitere Artikel zu Safety und Security