Ob Mobiltelefone, Fernseher oder Tablet-PCs: Die technischen »Innereien« unterscheiden sich kaum, für Differenzierung sorgt hauptsächlich die Benutzeroberfläche. Da sich daran wohl nichts ändern wird, denkt die Industrie über spezialisierte »User-Interface-Prozessoren« nach.
Wenn der Funktionsumfang zweier Geräte relativ gleichwertig ist, wird die Benutzeroberfläche (User Interface, UI) zum wichtigsten Unterscheidungsmerkmal. Dieser Trend lässt sich besonders gut bei Mobiltelefonen beobachten und greift derzeit zunehmend auf andere Geräte über. Ein Beispiel ist das Mobiltelefon »RAZR« von Motorola. Obwohl es sich in seiner Funktion nicht nennenswert von anderen Mobiltelefonen unterschied, hob es sich dank seines Designs deutlich ab - eine gewisse Ähnlichkeit zum »Kommunikator« aus »Raumschiff Enterprise« lässt sich nicht verleugnen.
Die Verkaufszahlen überstiegen die Erwartungen des Herstellers deutlich. Bei Apples »iPhone« sind das neuartige Design und die Benutzeroberfläche die wichtigsten Gründe für den kultverdächtigen Status. Beides ist seitdem von vielen anderen Herstellern nachgeahmt worden, was einen neuen Wettbewerb im Smartphone-Bereich auslöste. Zu einem erheblichen Anteil hat die geschickte Wahl der Touchscreen-Oberfläche in Kombination mit den »Apps« dazu beigetragen, dass das iPhone das wohl ertragreichste Produkt von Apple ist.
Dieser Trend setzt sich bei anderen ausgereiften Produkten fort, beispielsweise bei Notebooks, die nun als neue Ultrabooks mit integrierter Touch-, Sprach- und Fingerbewegungserkennung angeboten werden. Verbraucher erwarten von ihren Geräten, dass sie einfach funktionieren, selbst dann, wenn sie komplexe Aufgaben erfüllen. Da herrscht wenig Toleranz für schlechte Benutzeroberflächen, was in der Regel zu einer niedrigeren Akzeptanz jener Funktionen führt, die nicht einfach aktiviert werden können.
Zwei Beispiele sind der Touchscreen und die Spracherkennung (Speech Recognition, SR). Die Nachfrage für beides ist nach wie vor hoch, allerdings unterscheiden sich beide deutlich hinsichtlich der Entwicklung und Akzeptanz. Einerseits sind Touchscreens mittlerweile integraler Bestandteil vieler elektronischer Geräte, nicht zuletzt wegen ihres eleganten Designs, aber wohl hauptsächlich wegen ihrer einfachen Nutzung. Dies lässt sich in vielen Märkten beobachten, zum Beispiel bei Mobiltelefonen und Tablet-Computern, wo mehr oder weniger alle bedeutenden Hersteller Produkte anbieten, die auf Eingabe via Touch basieren.
Die Spracherkennung andererseits verzeichnet eine deutlich geringere Akzeptanz, wobei auch hier Apple mit »Siri« eine Vorreiterrolle eingenommen hat. Derzeit allerdings ist die Automobilindustrie das einzige Marktsegment das damit begonnen hat, die SR auf breiter Basis einzusetzen. Hier kommt sie hauptsächlich für Infotainment-Anwendungen zum Einsatz. Bis heute bieten nur wenige Unternehmen Autos mit Embedded-SR an, während andere Anbieter derzeit lediglich planen, Systeme mit Embedded-SR-Funktionen in ihr Portfolio aufzunehmen.
Häufig beginnen Produkte zunächst mit einem einfachen Konzept und entwickeln sich dann zu einem durchaus komplexen System. Genauso hat sich die Entwicklung der UIs von der Tastatur zum Touchscreen abgespielt und kann sich möglicherweise in der Spracherkennung und anderen, weitaus komplizierteren UIs in der gleichen Weise wiederholen. In der nächsten Phase der UI-Entwicklung werden sich die Geräte an die Verbraucher anpassen, anstatt dem Nutzer ein intensives Training abzuverlangen. Außerdem müssen sie »out of the box« funktionieren. Darin eingeschlossen sind nicht nur gut anpassbare Basisfunktionen, sondern mit der Zeit auch weitaus komplexere Funktionen wie zum Beispiel die Erkennung individueller Vorlieben. Um das zu erreichen, müssen die Geräte noch »intelligenter« werden; dazu benötigen sie aber mehr Rechenleistung und Speicher.
»Intelligente« Benutzeroberfläche
Heutige Technik verlässt sich auf die »Eigenintelligenz« und die sogenannte »Predictive Intelligence«, also Fähigkeiten des Vorausschauens. »Eigenintelligenz« ist die Fähigkeit eines Gerätes, über den eigenen Status Diagnosen zu erstellen und präventive Maßnahmen zu ergreifen, während »Predictive Intelligence« die vom Nutzer gewünschten Ergebnisse voraussehen kann. Im Allgemeinen nutzt die Eigenintelligenz Informationen der im System eingebetteten Sensoren, um den Betrieb zu überprüfen und aufrechtzuerhalten.
Viele Geräte verwenden Frühwarnindikatoren, die den Nutzer warnen, wenn die Leistung nachlässt oder der sofortige Systemausfall droht. Im Fahrzeugbereich beispielsweise lassen sich mittels Sensoren etwa der Stand des Treibstoffs oder Schmieröls anzeigen. Mit zusätzlichen Verarbeitungsressourcen können aber auch deutlich kompliziertere Diagnosen erstellt werden. Prädiktive Verfahren sind dagegen weitaus komplizierter, da das System die verschiedenen dem Nutzer zur Verfügung stehenden Optionen verstehen und voraussehen muss, um dann die wahrscheinlichsten auszuwählen. »Predictive Intelligence« ist entweder aktiv oder passiv.
Ein Beispiel ist die Autokorrekturfunktion - aktiv falsch geschriebene Wörter werden sofort durch richtige Wörter (oder wenigstens anders falsche) ersetzt. Die passive Vorhersage wird oft genutzt, um dem Nutzer Wahlmöglichkeiten vorzuschlagen, wie zum Beispiel bei »Genius« von Apple und dem »Music Genome Project« von Pandora, die beide die Historie des Hörers nutzen, um ihrerseits eine Liste mit neuen Songs zu erstellen, die dem Nutzer gefallen könnten.
Die Entwicklung eines Systems mit echter »Predictive Intelligence« muss sich auf Genauigkeit verlassen. Je mehr Daten ein System über einen Benutzer sammeln kann, desto genauer kann es dessen Bedürfnisse vorhersagen. Meistens gehen prädiktive Verfahren davon aus, dass Menschen in ihren Interaktionen beständig sind, was aufgrund von Emotionen, Ablenkung und freiem Willen jedoch eher unrealistisch ist. Ein Beispiel sind Spracherkennungssysteme im Automobilbereich: Aktuelle SR-Verfahren sind sprachbasiert, können also dazu das gesprochene Wort identifizieren, sei es auch akzent- oder dialektbehaftet. Allerdings werden die emotionale Verfassung des Sprechers und die Auswirkungen auf den Akzent dabei selten, wenn überhaupt, in Betracht gezogen.
Eine Person, die zum Beispiel wütend ist, wird höchstwahrscheinlich plötzlich schneller sprechen und eventuell auch lauter, was zu Abweichungen beim Ton führt. Das wiederum wird mit hoher Wahrscheinlichkeit die Genauigkeit der Erkennung beeinträchtigen und so den Nutzer weiter negativ beeinflussen. Ein System, das die jeweilige Gefühlslage des Fahrers erkennt, könnte jedoch die Algorithmen anpassen, um sie für die Antworten zu ersetzen, wie zum Beispiel durch die Absenkung der Mikrofonverstärkung. Darüber hinaus könnte ein solches System, sobald sich der Fahrer wieder beruhigt hat, damit fortfahren, die Algorithmen neu zu regeln, um den Betrieb aufrechtzuerhalten.
In Grenzen lässt sich der Gemüts-zustand eines Anwenders schon heute erkennen. Zum Beispiel kann eine Handy-Kamera sowohl das Gesicht eines Nutzers erkennen als auch aufgrund von Gesichtsausdrücken und Körpersprache Rückschlüsse auf den Gemütszustand ziehen. Darüber hinaus könnte der Touchscreen den gehetzten oder aufgeregten Zustand einer Person »erspüren«, und zwar anhand der Intensität und Geschwindigkeit der Tastaturnutzung. In ganz ähnlicher Weise könnte auch ein Spracherkennungssystem Abweichungen in der Stimmlage des Nutzers überwachen. Jedes dieser Systeme könnte seine Analyse mit den anderen koordinieren, um die Genauigkeit weiter zu verbessern.