Touch-Displays für Infotainment-Systeme Mit Haptik und Fahrererkennung

3D-Head-Up-Displays mit integrierter Fahrerkamera die Gesten und Gesichtsausdrücke erkennt und haptischer Rückkopplung.
Kyocera richtet sich stärker auf den Automobilmarkt aus. Für Infotainmentsysteme und Instrumentenanzeigen forscht der Konzern schon länger an Piezo-Systemen für haptisches Feedback.

Kyocera stattet seine Touch-Displays für den Bereich Automotive künftig mit einer haptischen Rückkopplung aus. Sie simuliert den Klick-Eindruck unterschiedlicher Tasten. Eine integrierte Fahrerkamera erkennt Gesten sowie Gesichtsausdrücke und erweitert den Funktionsumfang von 3D-Head-Up-Displays.

Touch-Displays sind in Infotainment-Systemen im Automobil Standard. Im Vergleich zu mechanischen Tasten sind sie verschleißarmer und leichter zu reinigen. Außerdem lässt sich das optische Erscheinungsbild mit wenig Aufwand über die grafische Benutzeroberfläche verändern und individualisieren. Für die Automobilhersteller ist das ein relevanter Faktor für die Produktdifferenzierung.

Die Branche legt aber auch viel Wert darauf, dass sich ein Modell haptisch von der Konkurrenz absetzt: »Vor der Serienfertigung durchläuft ein Prototyp in der Regel eine Haptikprüfung«, sagt Eberhard Schill (Bild 1) von Kyocera Displays Europe, das unter anderem für BMW entwickelt. Früher wurden dabei auch die Parameter für die mechanischen Bedienelemente des Infotainment-Systems herstellerspezifisch festgelegt. Tastengröße, Federstärke, Hub – es sollte sich unverwechselbar nach VW, Audi oder Daimler anfühlen.

Dafür investierte die Automobilbranche viel Geld in Forschung und Entwicklung. Mit aktuellen Touch-Displays kann dieses Wissen nicht mehr genutzt werden und dem Interieurdesigner geht ein Differenzierungsmerkmal verloren.

Haptik-Integration in Touch-Displays

Die etablierten Methoden zur Integration von haptischer Rückkopplung in Touch-Displays sind auf die Automobilindustrie nicht übertragbar. Meist wird dazu das Deckglas oder das gesamte Display-System in Vibration versetzt, was bei den fest verbauten Displays im Automobil mit optisch verklebtem Deckglas nicht möglich ist.

Kyocera hat ein System entwickelt, das zwar auch auf die Vibration des Deckglases angewiesen ist, aber mit so kleinen Schwingungsamplituden auskommt, die auch mit optisch verklebten Displays erzeugt werden können (Bild 2).

Bilder: 3

Haptik-Integration, Bilder 1-3

Haptik-Integration in Touch-Displays mit Sensor-Aktor

Das System stimuliert den Pacini-Nerv im Finger des Anwenders, der hauptsächlich für das haptische Empfinden eines Tastendrucks verantwortlich ist. In Probandenstudien zeigte sich, dass dieser Nerv viel empfindlicher auf die Frequenz des Vibrationsimpulses und auf die Impulsform reagiert als auf die Amplitude. Letztere kann zur Stimulation lediglich ein paar Mikrometer betragen.

Das beste Klick-Gefühl wird durch das Anlegen eines sinusförmigen Impulses mit 170 Hz erreicht, wenn der Fingerdruck eine Auslöseschwelle von 1,5 Newton überschreitet [1]. Durch Variation der Schwingungsparameter lassen sich bis zu vierzehn unterschiedliche Tasten, Knöpfe und Stellregler simulieren. Das kann auch in Abhängigkeit der detektierten Fingerposition und der aufgebrachten Fingerkraft geschehen. Ein Multitouch, bei dem an verschiedenen Positionen zeitgleich unterschiedliche Tast-Eindrücke simuliert werden, ist pysikalisch allerdings nicht möglich.

Aufbau mit piezobasiertem Sensor-Aktor

Für die Haptik-Integration wird das Touch-Display um ein Piezo-Element mit Steuerelektronik erweitert (Bild 3). Es fungiert als Kraftsensor und Aktuator in einem Element, was mit alternativen Techniken wie den aus der Robotik bekannten elektroaktiven Polymeren (EAP) nicht möglich ist. Die Reaktionszeiten von Piezo-Aktuatoren sind kurz genug, um Vibrationen im Bereich von einigen hundert Hertz zu erzeugen.

Sie werden vom Host-Controller ausgelöst, nachdem über den Touch-Sensor die Fingerposition ermittelt und der Fingerdruck bestimmt wurde. Abhängig vom Fingerdruck können unterschiedliche Aktionen ausgeführt werden. Wird bei geringem Druck auf einem Touch-Bereich ein spezifisches Tastengefühl simuliert und erst bei erhöhtem Druck eine Funktion am Infotainment-System ausgelöst, kann der Anwender die richtigen Touch-Bereiche auf dem Display ohne Blickkontakt erfühlen. Der Kraftsensor löst bis zu 256 unterschiedliche Schwellenwerte auf.

Kleine Displays zwischen 3,5 und 4,3 Zoll Diagonale benötigen einen Piezo-Aktuator, für größere Modelle bis 10,4 Zoll sind zwei notwendig. Aktuell befindet sich bei Kyocera die zweite Generation der Piezo-Elemente in der Entwicklung. Sie sind 80 Millimeter lang bei 8 × 8 Millimeter Breite und Bauhöhe. Mit einem »Haptic Booster« können bis zu sieben Piezo-Elemente simultan angesteuert werden. Einer der ersten Großabnehmer der Technik , die unter dem Namen €»Haptivity€« vermarktet wird, ist die Robert Bosch Car Multimedia. Im Mai 2018 wurde dazu eine entsprechende Lizenzvereinbarung unterzeichnet.

Kamera für Gesten- und Fahrererkennung

Der nächste Entwicklungsschritt für das Automotive-Display, den Kyocera verfolgt, ist eine direkt hinter die Pixel integrierte Kamera (Bild 4 und Bild 5). Sie ist für den Fahrer nicht sichtbar und kann freier in der Instrumentenanzeige platziert werden, als es beim Aufbau mit ausgesparter Sensorik-Leiste möglich ist. Hier kann eine ungünstige Lenkrad-Position das Sichtfeld der Kamera einschränken.

Bilder: 3

Kamera für Fahrerkennung und Bildkorrektur, Bilder 4-6

Kamera für Fahrerkennung und Bildkorrektur 3D-Head-up-Displays, Bilder 4-6

In der Instrumententafel oder der Mittelkonsole kann die Kamera in Verbindung mit Bildverarbeitungssoftware zur Gesten- und Fahrererkennung verwendet werden. Für die Gestenerkennung gilt die Technik als sehr zuverlässig und ist in Bezug auf EMV einfacher handhabbar als eine kapazitive Methode.

Wie weit die Bilddaten über Fahrer und Mitfahrer ausgewertet und genutzt werden, hängt letztlich vom Automobilhersteller und dem praktischen Umgang mit dem Datenschutzgesetz ab. Umsetzbar sind Anwendungen von einer benutzerfreundlichen Zugriffskontrolle auf Fahrzeugsysteme durch Gesichtserkennung bis zur Auswertung der Gesichtszüge des Fahrers auf Stress und Aggression

Bildkorrektur für 3D-Head-up-Displays

Die Daten aus der Fahrerkamera können mit 3D-Head-up-Displays (3D-HUD) kombiniert werden. Um dem Fahrer Informationen so in sein Sichtfeld einzublenden, dass seine Augen zum Ablesen möglichst wenig neu fokussieren müssen, projizieren die Displays die Informationen in einer virtuellen Entfernung direkt an die erkannten Personen. Der korrekte Tiefeneindruck kann aber nur in einem engen Bereich dargestellt werden. Verändert der Fahrer Blickwinkel oder Kopfposition aus der Idealhaltung, verzerrt sich die angezeigte Position.

Die aktuelle Augenposition und Blickrichtung kann über die Fahrerkamera bestimmt und zur Korrektur der Bilddarstellung genutzt werden. Einen Demonstrator hat Kyocera kürzlich offiziell vorgestellt (Bild 6). Die Verzögerung der Bildkorrektur liegt im Bereich von einigen zehn Millisekunden. Das bildgebende LC-Display stammt aus eigener Fertigung. Es ist ein 2,6“ LTPS-TFT für den erweiterten Temperaturbereich von –40 bis +95 °C mit 800 × 480 Pixeln und einem Kontrastverhältnis von 1.200:1.

 

Literatur

[1] Schill, E.: Vom Touch zur Haptik. Elektronik 2015, Sonderausgabe Displays, S.35.