Neuartiges Kamerasystem Unsichtbares sichtbar machen

Wissenschaftler der Universität Bonn und der University of British Columbia haben ein Kamerasystem entwickelt, das ohne Spiegel um die Ecke sehen kann. Aus diffus reflektiertem Licht rekonstruiert es die Form von Objekten, die sich außerhalb des Blickfelds befinden.

Ein Laser leuchtet an die Wand und eine Kamera schaut dabei zu. Durch das Kameraobjektiv ist nichts weiter zu sehen als eine weiße Raufasertapete mit einem hellen Lichtfleck darauf. Ein Rechner zeichnet diese Bilder auf, verarbeitet sie weiter und allmählich zeichnen sich auf dem Bildschirm die Umrisse eines Gegenstands ab. Der Gegenstand befindet sich allerdings hinter einer Trennwand und somit nicht im Betrachtungswinkel der Kamera. Wie funktioniert aber dieses um die Ecke schauen?

Die entscheidende Informationsquelle hierfür ist das Streulicht, das der Laserpunkt von der Wand aussendet. Auf Umwegen fällt dieses Licht wieder auf die Wand und schließlich aufs Objektiv der Kamera. „Wir nehmen eine Art Lichtecho auf, also zeitaufgelöste Daten, aus denen wir das Objekt rekonstruieren können“, erklärt Prof. Dr.-Ing. Matthias B. Hullin vom Institut für Informatik II der Universität Bonn. „Ein Teil des Lichts ist auch mit dem unbekannten Gegenstand in Berührung gekommen und bringt so wertvolle Information über dessen Form und Aussehen mit.“

Um solche Echos messen zu können, hat Hullin zusammen mit seinen ehemaligen Kollegen der University of British Columbia (Vancouver, Kanada) ein spezielles Kamerasystem entwickelt und nach seinem Wechsel nach Bonn weiter verfeinert. Dieses Kamerasystem zeichnet nicht nur die Richtung auf, aus der das Licht kommt, sondern auch, wie lange es von der Lichtquelle bis zur Kamera gebraucht hat.

Da die hierfür benötigten Bildsensoren bereits auf dem Massenmarkt angekommen sind, ist der technische Aufwand vergleichsweise gering. Insbesondere Tiefenbildkameras wie sie zur Steuerung von Videospielen oder für Abstandsmessungen im Automobilbereich verwendet werden, basieren auf derartigen Sensoren. Die eigentliche Herausforderung ist es, den Laufzeitmessungen die gewünschte Information zu entlocken. Denn gemessen wird nur die Summe zahlreicher Lichtreflexionen, die auf verschiedenen Wegen in die Kamera gelangen und sich dort überlagern.

Bei diesem als Multipfad-Interferenz bekannten Problem wird oft versucht, die unerwünschte Multipfad-Streuung zu herauszurechnen und sich lediglich auf den direkten Anteil des Signals zu konzentrieren. Hullin und seine Kollegen haben hingegen ein mathematisches Verfahren entwickelt, bei dem die Ergebnisse ausschließlich aus dem Störanteil des Signals gewonnen werden können. Und dieser Störanteil kann eben auch von Gegenständen herrühren, die sich überhaupt nicht im Blickfeld der Kamera befinden.

Noch beschränken sich die Ergebnisse auf grobe Umrisse. Durch eine Weiterentwicklung der einzelnen Bauteile sowie der mathematischen Methoden sollen zukünftig auch höhere Auflösungen erreicht werden. Mögliche Einsatzgebiete der neuen Technologie könnten in der Telekommunikation, der Fernerkundung und der medizinischen Bildgebung zu finden sein.