Berühren oder berührungslos?

Intuitive Benutzerschnittstellen entwickeln

28. September 2011, 16:04 Uhr | Von Ahsan Javed
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 2

Positions- oder phasen- gesteuert - was ist besser?

Positionsgesteuerte Gestenerkennung kann die physikalische Position eines Objekts zurückmelden und bietet somit zusätzliche Kontrolle über ein System, z.B. die Bestätigung eines Haltebefehls oder einer Auswahlgeste (Hold-to-Select). Dieser Ansatz kann jedoch versagen, da die Genauigkeit der Positionsberechnung von der Form des LED-Lichtausgangs und von der Form des Objekts abhängt. Ein Finger in 2 cm Abstand kann die gleiche Lichtmenge reflektieren wie eine Hand in 15 cm Abstand.

Der phasengesteuerte Ansatz stellt eine zuverlässigere Methode zur Gestenerkennung dar, bietet aber keine Positionsinformationen, womit keine Haltegesten möglich sind. Die beste Lösung ist eine Kombination aus positions- und phasengesteuertem Ansatz, um die Vorteile beider Techniken zu nutzen und ein wirklich zuverlässiges Gestenerkennungssystem zu erhalten.

Zukünftige Elektronikgeräte werden mehr Gesten oder sogar Gestenkombinationen erkennen, um fortschrittliche Schnittstellenfunktionen zu bieten. Moderne Tablets und Smartphones mit integrierten Touchscreens und Kameras enthalten bereits viele Sensoren wie kapazitive Berührungssensoren, optische Sensoren, Beschleunigungsmesser und Bildsensoren, um verschiedene Eingabeformen zu unterstützen. Die Kombination und gemeinsame Nutzung dieser Sensoren verbessert die Benutzerschnittstelle, wie z.B. den Einsatz des Berührungsbildschirms zur Fokussierung der integrierten Kamera, während sich über den Näherungssensor der Zoom einstellen lässt.

Neuere Bildgebungstechniken wie Microsofts Kinect-System führen zu immer ausgereifteren Anwendungen für Gestenerkennungssysteme. Bald werden Fahrzeuge übermüdete Fahrer erkennen können, sobald sich deren Kopf senkt; Anwender werden sich nur mit ihren Augen durch Benutzerschnittstellen navigieren, und Video-Werbetafeln werden Botschaften bei Annäherung darstellen. Umgebungs- und anwendersensitive Elektronik wird zu noch mehr Bequemlichkeit und Neuerungen in allen Bereichen der Unterhaltungselektronik führen. Die Interaktion wird dabei nur durch die Vorstellungskraft der Entwickler begrenzt.

 

Der Autor:

Ahsan Javed
ist seit 2008 bei Silicon Laboratories tätig und unterstützte die Entwicklungsarbeit im Bereich Digital Isolation, bevor er zur Human Interface Products Group wechselte. Javed verfügt über mehr als zehn Jahre Branchen-erfahrung aus den Bereichen Automotive, Consumer und Industrie. Vor seiner Tätigkeit bei Silicon Labs war Javed acht Jahre für Freescale Semiconductor (vorher Motorola) tätig, wo er Positionen im Product Engineering und Product Marketing für Freescales Microcontroller Division innehielt. Javed hat das Studium an der Rice University mit einem Master of Electrical Engineering abgeschlossen und zusätzlich einen MBA der University of Texas in Austin erworben.

  1. Intuitive Benutzerschnittstellen entwickeln
  2. Gesten anpassen
  3. Positions- oder phasen- gesteuert - was ist besser?

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Silicon Laboratories Inc.

Weitere Artikel zu Displays / HMI-Systeme / Panel-PCs