Offene Fusions-Plattform Entwicklung autonomer Fahrfunktionen vereinfachen

360-Grad-Scanning, dynamische Objekterkennung, Freiraumerkennung – so sieht die offenen Fusionsplattform die Umgebung.
360-Grad-Scanning, dynamische Objekterkennung, Freiraumerkennung – so sieht die offenen Fusionsplattform die Umgebung.

Ein Verbund aus Forschungseinrichtungen, Hochschulen, IT-Herstellern sowie Unternehmen aus dem Umfeld der Automobilindustrie hat eine seriennahe Fusionsplattform mit offenen Schnittstellen entwickelt. Diese ermöglicht es, hoch- und vollautomatisierte Fahrfunktionen kostengünstig zu integrieren.

Die Offene Fusions-Plattform, kurz OFP, wurde vom Verbundkoordinator Hella gemeinsam mit dem Deutschen Zentrum für Luft- und Raumfahrt, Elektrobit Automotive, Infineon Technologies, InnoSent, Hella Aglaia Mobile Vision, der Hochschule Reutlingen, der Geschäftsstelle Elektromobilität RWTH Aachen, Streetscooter Research und TWT Science and Innovation entwickelt. Zusätzlich unterstützten Continental und Nvidia als assoziierte Partner.

Das vom Bundesministerium für Bildung und Forschung mit 4,4 Millionen Euro geförderte Projekt wurde mit der Integration erster vollautonomer Fahrfunktionen in drei Demonstrationsfahrzeugen nach knapp über drei Jahren abgeschlossen. Bei dem umgesetzten Szenario fährt ein Elektrofahrzeug vollautomatisiert eine freie Ladestation auf einem Parkplatz an und positioniert sich über der Ladeplatte. Nach dem abgeschlossenen Ladevorgang sucht es sich vollautomatisiert einen freien Parkplatz ohne Ladeplatte.

»Für derartige hoch- oder vollautomatisierte Szenarien existierten bislang lediglich Prototypen, die noch nicht seriennah waren«, erläuterte Dr. Michael Schilling, Projektleiter für die Vorentwicklung Automated Driving bei Hella und Verbundkoordinator für das OFP-Projekt. Schon heute sind zwar Fahrerassistenzsysteme in Serie, etwa Stauassistenten, die Daten von zwei Sensoren fusionieren. »Doch für das vollautomatisierte Fahren ist es notwendig, dass die Fahrzeuge ihre gesamte Umgebung wahrnehmen können. Dafür müssen Daten von vielen Sensoren und Kameras fusioniert werden, um ein vollständiges Umgebungsmodell zu erzeugen, dass mit der erforderlichen Genauigkeit die Umwelt abbildet und auf dem sich die Fahrfunktion zuverlässig umsetzen lässt.« Eine Herausforderung hierbei sind die Schnittstellen zwischen den einzelnen Sensoren und der zentralen Steuereinheit, die bisher nicht standardisiert sind. Aktuell sind die Schnittstellen der Fahrerassistenzsysteme sehr funktionsspezifisch und abhängig vom jeweiligen Zulieferer oder Automobilhersteller. Genau hier setzte das Forschungsprojekt an.

Offen zugängliche Schnittstellenbeschreibungen

Als Input für die OFP dienten im Projekt vier Kameras und acht 77 GHz Radarsensoren, die jeweils 360° um das Fahrzeug herum abdecken. Ein zusätzliches V2X-Modul ermöglichte daneben die Kommunikation zwischen Fahrzeugen und externer Infrastruktur, etwa der Ladeplatte. Die Verbundpartner haben gemeinsam die Schnittstellenbeschreibungen der einzelnen Komponenten in einer frei verfügbaren »Interface Specification« offengelegt. Noch während des Projektes wurde vom Forschungsverbund gemeinsam mit Automobilherstellern und Zulieferern ein ISO-Standardisierungsprozess für die Sensordatenschnittstellen gestartet.

Mit Beendigung des Projektes wird eine aktualisierte Schnittstellenbeschreibung veröffentlicht, die auch in den laufenden ISO-Prozess einfließen wird. Damit haben erstmals alle Automobilhersteller und Zulieferer die Möglichkeit, ihre Produkte schnell und einfach in die Fusionsplattform zu integrieren. Hella Aglaia Mobile Vision hat mit dem Umgebungsmodell den zentralen Bestandteil der OFP entwickelt. Über die Visualisierungsmöglichkeiten können Entwickler sehen, wie das Fahrzeug die gesamte Umgebung wahrnimmt und auf dieser Basis entscheiden, welche Sensordaten fusioniert werden sollen. Ob komplexe Fahrerassistenzfunktionen oder vollautomatisierte Fahrfunktionen - sämtliche Funktionen können sie so programmieren.

Die Arbeiten an der OFP gehen auch nach dem Projekt weiter. Zentrale Fragestellungen werden sein, wie sich die Sensordaten mit Machine Learning verarbeiten lassen, um die Funktionen zu verbessern und die Entwicklungsarbeit weiter zu beschleunigen. Auch soll das Parkplatz-Szenario um urbane Fahrsituationen bzw. bei über 20 km/h erweitert werden. Diese Szenarien erfordern ein Zusammenspiel mit weiteren Sensoren, wie LiDAR-Sensoren. Genau in diesem Bereich der multisensoriellen Datenfusion kann die OFP schließlich ihr gesamtes Potenzial ausspielen. Darüber hinaus wird bei der Weiterentwicklung die funktionale Sicherheit eine große Rolle spielen, um zu gewährleisten, dass sämtliche entwickelte Funktionalitäten ausfallsicher funktionieren.