ADAS reagieren auf Tonlage der Stimme Ford & RWTH Aachen untersuchen Zukunft der Spracherkennung

Gestresst und genervt am Steuer? Wie wäre es, wenn das eigene Auto auf die Stimmung des Fahrers reagieren könnte? Dieser Frage nimmt sich Ford an.
Gestresst und genervt am Steuer? Wie wäre es, wenn das eigene Auto auf die Stimmung des Fahrers reagieren könnte? Dieser Frage nimmt sich Ford an.

Schätzungen zufolge werden im Jahr 2022 ungefähr 90 Prozent aller Neufahrzeuge über Spracherkennungs-Systeme. In Zukunft werden Autos sogar anhand des Tonfalls wissen, wie sich der Fahrer fühlt. Ford forscht gemeinsam mit der RWTH Aachen an der Verbesserung von Sprachverarbeitung in Fahrzeugen.

Wie wäre es, wenn das eigene Auto auf die Stimmung des Fahrers reagieren könnte – zum Beispiel, um ihn auf dem Weg nach Hause aufzumuntern? Heute noch Zukunft, in absehbarer Zeit aber vielleicht schon Realität. Es wird geschätzt, dass bis zum Jahr 2022 fast 90 Prozent aller Neufahrzeuge über Spracherkennungs-Systeme verfügen werden, rund 75 Prozent dieser Autos werden darüber hinaus eine Cloud-basierte Sprachsteuerung ermöglichen. Dies ist eine der Voraussetzungen dafür, dass künftige Assistenz-Systeme dank Mikrofonen und In-Car-Kameras auf winzige Veränderungen des Gesichtsausdrucks sowie auf die jeweilige Tonlage der Stimme reagieren können.

So könnten diese Systeme dank Spracherkennung und künstlicher Intelligenz in gar nicht ferner Zeit wissen, ob der Fahrer gestresst ist und welche Musik er dann beim Autofahren hören möchte. Oder vielleicht will er lieber ein Hörbuch vorgelesen bekommen oder möglicherweise weder Musik noch Worte hören wollen? Auch Komfort-Details wie die Farbe und Intensität der Cockpit-Beleuchtung könnten der jeweiligen Stimmung angepasst werden.

Ein Forschungsprojekt, das Ford derzeit gemeinsam mit der RWTH Aachen betreibt, widmet sich der Verwendung mehrerer Mikrofone zur Verbesserung der Sprachverarbeitung und zur Verringerung der Störung durch Fremdgeräusche.