Vor einigen Monaten wurde Haptivity vorgestellt, ein Touchscreen mit simuliertem mechanischem Tastenklick. Diese Entwicklung ist für einen Display-Hersteller ja schon etwas fachfremd. Wie kam es dazu?
Als reinen Display-Entwickler und Hersteller verstehen wir uns auch nicht. Wir sind vielmehr ein Entwickler und Anbieter für HMI-Technik. In dieser Funktion haben wir mit Touch Displays als HMI begonnen und hier einiges von der Bedienphilosophie lernen können, die wir im Consumer-Bereich sehen konnten. Uns fiel aber auf, dass die fehlende Rückkopplung, die man von mechanischen Tasten, Stellrädern, Hebeln usw. gewöhnt war, für viele Benutzer ein Problem ist. Gerade bei Industriemaschinen, die einige Zeit benötigen, um eine Eingabe auch für den Anwender sichtbar auszuführen, kommt es aufgrund der fehlenden Rückkopplung zu ungewollten Mehrfacheingaben. Das geht so weit, dass Mitarbeiter mit so viel Druck auf das Display drücken, bis das Glas bricht, einfach deshalb, weil sie denken, das Gerät erkenne ihre Eingabe nicht. Aufgrund solcher Erfahrungen haben wir Haptivity entwickelt.
Die Interessen des Automobilbereichs adressieren Sie damit auch, oder?
Ja, wir haben eine große Nähe zum Automobilbereich und dort möchte man den Fahrer in die Lage versetzen, für die Steuerung seines Touch Display die Augen nicht mehr so oft von der Straße nehmen zu müssen. Den Tastsinn anzusprechen ist hier eine logische Option.
Zielt die Entwicklung einer Gestensteuerung durch Kyocera Display ebenfalls auf den Automobilbereich ab?
In erster Linie ja. Die Gestensteuerung wurde ja beispielsweise schon im 7er BMW vorgestellt. Der Gedankengang ist hier ähnlich wie bei der simulierten mechanischen Rückkopplung: Die Augen des Fahrers sollen auf der Straße bleiben können. Wir sind mit dieser Entwicklung allerdings nicht auf den Automobilbereich beschränkt.
Auch die Gestensteuerung ist schon etwas anderes als die reine Display-Entwicklung. Deutet sich hier ein Kompetenzwechsel bei Kyocera Display an?
Mit Haptivity und Gestensteuerung haben wir schon ein etwas anderes Feld betreten. Hier müssen wir uns viel mehr Gedanken über physiologische und auch psychologische Aspekte machen. Ein Teil der HMI ist nun mal der Mensch und dieser Aspekt ist die tägliche Herausforderung für den technisch geprägten HMI-Entwickler. Ich selbst habe in den letzten Jahren gelernt, dass es bei der HMI-Entwicklung gar nicht so sehr darauf ankommt, wie beispielsweise ein Bild objektiv aussieht, sondern was das Gehirn des Empfängers daraus macht. Um zur Bewältigung dieser Aufgabe den richtigen Schlüssel zu finden, muss man sich auch über Neuro-Anatomie Gedanken machen und Studien an Testpersonen durchführen. Für die Entwicklung von Haptivity haben wir genau das tun müssen und uns so eine Menge Wissen und Fachkompetenz in einem neuen Bereich angeeignet.