Fahrerassistenzsysteme Das Auto der Zukunft soll hören

Das Auto lernt hören: Modifizierte Dachfinne zur Erprobung von Fahrzeug-Sensoren für die akustische Erfassung von Außengeräuschen.

Das automatisierte Fahrzeug der Zukunft soll hören können. Forscher des Fraunhofer-Instituts IDMT in Oldenburg arbeiten mithilfe von Künstlicher Intelligenz an einem akustischen Fahrerassistenzsystem. Erste Prototypen erkennen bereits Außengeräusche wie Sirenen.

Das moderne Auto hilft seinem Fahrer beim Einparken, überwacht den toten Winkel und erfasst mit »Sensorik-Augen« die Umgebung. Nur hören kann es – noch – nicht. Doch akustische Systeme, die Außengeräusche wahrnehmen und einordnen, werden künftig im Zusammenspiel mit intelligenten Radar- und Kamerasensorik wichtig für das autonome Fahren sein. Um das »hörende Auto« zu realisieren, entwickeln Forscherinnen und Forscher am Fraunhofer IDMT in Oldenburg KI-basierte Technologien zur Erkennung von Tönen und Ereignissen.

Der erste Prototyp signalisiert etwa im Bruchteil einer Sekunde, wenn ein Fahrzeug mit Martinshorn naht. Nur so kann ein autonome Fahrzeug ausweichen und die Rettungsgasse bilden. Ein akustisches Frühwarnsystem kann auch beim Einbiegen in Spielstraßen warnen, oder auch wenn ein Nagel im Reifen steckt. Darüber hinaus kann das System den Zustand eines Autos über die Motoren- und Fahrgeräusche überwachen und im Notfall per Spracherkennung Hilfe holen. Die akustische Sensorik der IDMT-Forscherinnen und -Forscher bildet sich aus Mikrofonen, Steuergerät und Software. Wetterfeste Mikrofone außen am Fahrzeug nehmen den Luftschall auf. Die Sensoren leiten die Audiodaten an ein Steuergerät weiter, welches relevante Metadaten daraus produziert.

KI hilft Geräusche zu analysieren

Die optimale Signalaufnahme durch Sensorpositionierung, die Signalvorverarbeitung und – verbesserung sowie die Störgeräuschbefreiung stellten die Forscher vor einige Herausforderungen. Das Team entwickelte dafür eigene Beamforming-Algorithmen. Diese ermöglichen die dynamische Lokalisation von sich bewegenden Schallquellen, wie beispielsweise das Martinshorn. Machine-Learning-Verfahren trainierten mit den akustischen Signaturen der relevanten Töne und bildeten damit über akustische Bibliotheken den Ereignis-Erkenner des IDMT damit aus. Diese intelligente Sensorplattform soll alle Geräusche mit einer hohen Zuverlässig und damit Sicherheit für die Insassen erkennen.

Eigens entwickelte KI-basierte Algorithmen zur Audioanalyse ermitteln die Stör- und Zielgeräusche. »Wir wenden Methoden des Maschinellen Lernens an. Wir trainieren unsere Algorithmen mit unterschiedlichsten, zuvor gesammelten Geräuschen«, so Danilo Hollosi, Gruppenleiter Akustische Ereignisdetektion. Die Marktreife des Systems wird für 2025 angepeilt.

Das von dem Fraunhofer-Team entwickelte akustische Verfahren lässt sich auch für weitere Branchen und Märkte adaptieren, etwa zur Qualitätssicherung in der industriellen Produktion. Hier verarbeiten intelligente akustische Sensoren batteriebetrieben Geräusche von Maschinen und Anlagen. Die Informationen werden drahtlos an Analyse- und Steuergeräte weitergeleitet. Darüber  lassen sich Rückschlüsse auf den Zustand der Fertigungsanlagen ziehen und mögliche Schäden vermeiden. Automatische Spracherkenner ermöglichen auch berührungslose Dokumentationssysteme, beispielsweise in der Turbinenwartung.