GPU-Computer sorgt für Rechenpower

Mobile Mapping zu Land, zu Wasser und in der Luft

13. Dezember 2022, 8:00 Uhr | Das Interview führte Andrea Czakalla von Compmall
Fraunhofer IPM
Im Mobile-Mapping-System arbeitet der GPU-Computer »GM-1000« von Compmall.
© Fraunhofer IPM

Mit Mobile Mapping lassen sich raumbezogene Daten aufzeichnen. Prof. Dr. Alexander Reiterer und sein Team vom Fraunhofer IPM haben ein System entwickelt, das weit über den derzeitigen Stand der Technik hinausgeht. Die Rechen- und Steuerleistung basiert auf einem GPU-Computer von compmall.

Markt&Technik: Herr Reiterer, Ihr Fachbereich am Fraunhofer Institut für Physikalische Messtechnik IPM in Freiburg hat für die Firma Geotechnik ein Mobile-Mapping-System entwickelt, das genaue Abbildungen von Straßen und ihrer Umgebung erstellt. Wozu benötigt man diese Daten?

Alexander Reiterer: Die Kamera- und Laserscanner-Daten unserer Systeme erleichtern das Planen von Bauarbeiten im öffentlichen Raum sowie deren Dokumentation. Ingenieure und Techniker können Tiefbauarbeiten anhand einer soliden Datenbasis deutlich zuverlässiger vorbereiten, denn jeder Baum, jede Straßenlaterne oder jede E-Tankstelle ist exakt und dreidimensional dokumentiert. Auch Katasterämter haben Bedarf an den umfangreichen, hochaufgelösten Daten. Sie geben Aufschluss über den Zustand der Infrastruktur und zeigen zum Beispiel frühzeitig Risse in Brücken, Tunnelwänden, Straßenoberflächen oder Fassaden. Außerdem erkennen unsere Mapping-Systeme die Art der Oberfläche. Also zum Beispiel welches Material verbaut wurde und ob die Oberfläche trocken oder feucht ist. All diese Daten erfasst das Messfahrzeug bei hoher Fahrgeschwindigkeit.

Anbieter zum Thema

zu Matchmaker+
Reiterer Alexander
Prof. Dr. Alexander Reiterer, Fraunhofer Institut für Physikalische Messtechnik IPM in Freiburg: »Compmall hat uns den GM-1000 vorgeschlagen und ein Testgerät bereitgestellt, das wir vier Wochen lang mit Blick auf die zahlreichen Kriterien geprüft haben.«
© Fraunhofer IPM

Wie ist ein solches System aufgebaut?

Das Mobile-Mapping-System für die Firma Geotechnik ist auf dem Dach eines Transporters installiert und umfasst Kameras, Light Detection and Ranging (LiDAR), GNSS-Antennen und 3D-Sensoren für das Erfassen von Positionen. Ein sogenanntes Odometer, das mit einem Rad verbunden ist, ermittelt zurückgelegte Strecken, falls keine GNSS-Daten vorhanden sind, zum Beispiel in einem Tunnel. Alle Daten werden an einen PC im Transporter übermittelt und auf SSD gespeichert.

Für welche Einsatzbereiche ist es konzipiert?

Das mobile Scanning funktioniert auf der Straße und ebenso auf der Schiene. Hier vermessen unsere Multisensorsysteme Gleisinfrastrukturen hochpräzise. Für den Einsatz auf Drohnen haben wir besonders leichte und kompakte Systeme entwickelt, mit denen sich große bauliche oder landschaftliche Strukturen aus der Luft messen lassen. Aktuell entwickeln wir verstärkt Unterwassersysteme für bathymetrische Messungen, also für Messungen des Meeresbodens. Hier kommen ebenfalls LiDAR-Module und Kameras zum Einsatz, die entweder aus der Luft oder von einem Boot aus Topographien unter Wasser messen.

Warum ist Ihr System anderen überlegen?

Wir konnten die Auflösung der Messbilder sehr gut steigern. Bisher am Markt verfügbare Systeme erreichen 5 bis 10, maximal 15 Megapixel pro Kamera. Unser System nimmt 30 Megapixel pro Einzelkamera auf, was sich bei sechs Kameras auf 180 Megapixel addiert. Beim Fahrzeug von Geotechnik nehmen die Kameras alle fünf Meter ein Bild auf, das sich zu einem 360°-Panorama-Bild zusammenfügt. Das komplett gekapselte LiDAR-System misst bei einer Wellenlänge von 1550 Nanometern und erfasst 2 Mio. Messpunkte pro Sekunde. Entscheidend für die Performance des Gesamtsystems ist außerdem die Integration der unterschiedlichen Sensoren auf die mobile Plattform – hier haben wir sehr viel Know-how und Erfahrung. Gleiches gilt für das Auswerten der Messdaten.

Fraunhofer IPM
Das Mobile-Mapping-Fahrzeug des Fraunhofer-Instituts für Physikalische Messtechnik IPM in Freiburg.
© Fraunhofer IPM

LiDAR ist energieintensiv. Wie managen Sie das im Auto?

Dahinter steckt ein ausgeklügeltes Energiemanagement. Eine zweite Lichtmaschine im Fahrzeug versorgt das Mobile-Mapping-System und lädt zwei Akkus, die als Zwischenspeicher fungieren. Sie springen bei Netzschwankungen ein oder falls die Lichtmaschine nicht ausreichend Leistung erzeugt, zum Beispiel weil das Auto an einer Ampel steht.

Als Recheneinheit verwenden Sie den »GM-1000« von Compmall. Was hat den Ausschlag für diesen GPU-Computer gegeben?

Das System ist nach Maß gefertigt, wenn Sie so wollen. Nach einer ausführlichen Marktanalyse haben wir das passendste Modell ausgewählt. Hierbei spielten unter anderem Schnittstellenausstattung, Datenspeicher, Leistung, Robustheit sowie der erweiterte Betriebstemperaturbereich eine Rolle. Compmall hat uns den GM-1000 vorgeschlagen und ein Testgerät bereitgestellt, das wir vier Wochen lang mit Blick auf die zahlreichen Kriterien geprüft haben: Die Leistungsaufnahme sollte 72 Watt nicht überschreiten, die Compute Unified Device Architecture (CUDA)-Version sollte mit der offenen »LadyBug«-Software kompatibel sein, zudem sollte die Kapazität der GPU-Karte ausreichend sein, um die Livebilder beider LadyBug-Kameras zu rendern. Der GM-1000 hat alle Anforderungen erfüllt – außerdem ergab der Testlauf, dass mindestens eine Core i7-8700 CPU von Intel nötig ist.

Was sind Ihre nächsten Ideen für Mobile-Mapping-Systeme?

Der nächste Schritt steht unmittelbar bevor, die Simulation läuft bereits. Wir anonymisieren personenbezogene Daten in den Messdaten unmittelbar und nicht erst im Post-Prozess. Beispielsweise werden Menschen, die wir fotografieren, sofort verpixelt. So sind die Daten, die das System auf der SSD speichert, bereits anonymisiert. Gleiches gilt für Autos, denn sie können nicht nur über das Kennzeichen, sondern auch über andere Besonderheiten einer Person zugeordnet werden. Solche besonderen Merkmale machen wir auf dem Weg von der Kamera zur SSD unkenntlich.

Hierfür setzen Sie auf Machine Learning?

Wir haben den Algorithmus mit Supervised Learning trainiert. Anhand von etwa 100.000 Bildern hat der Algorithmus gelernt, die von uns definierten 25 Objektklassen zu erkennen und damit umzugehen. Entdeckt der Algorithmus einen Menschen oder ein Fahrzeug, werden diese vollständig verpixelt. Alle anderen Objektklassen speichert das System unbearbeitet.

Wie erfolgreich ist die Bildererkennung?

Die Zuverlässigkeit bei Oberflächenerkennung beträgt zwischen 90 und 95 Prozent, mit weiterem Training sind bis zu 98 Prozent möglich. Bei echten 3D-Objekten schaffen wir eine Zuverlässigkeit von 85 Prozent – hier erwarten wir noch fünf bis zehn Prozent mehr. Die Objekte identifiziert der Algorithmus derzeit aus den Kamerabildern. In einem zweiten Schritt berücksichtigt er die LiDAR-Daten um – vereinfacht gesprochen – die Ergebnisse aus den Bildern zu verbessern. 

Vielen Dank für das Gespräch.


Das könnte Sie auch interessieren

Verwandte Artikel

compmall GmbH, Fraunhofer IPM (Institut für Physikalische Messtechnik)