Berühren oder berührungslos?

Intuitive Benutzerschnittstellen entwickeln

28. September 2011, 16:04 Uhr | Von Ahsan Javed
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 1

Gesten anpassen

Gestenerfassung geschieht nicht automatisch. Jede Geste, ob Berührung oder berührungslos, muss an die Anforderungen des Systems und die jeweilige Verwendung angepasst werden. Auch das System muss so angepasst werden, dass es unbeabsichtigte Bewegungen oder falsche Gesten ignoriert. Automatische Armaturen und Handtuchspender in öffentlichen Toiletten weisen meist eine kurze Verzögerung auf, um sicherzustellen, dass sich tatsächlich eine Hand vor dem Sensor befindet und auf einen Wasserstrahl bzw. ein Papierhandtuch wartet. Diese kurze Verzögerung gewährleistet, dass Ressourcen geschont werden und dass das System nicht irrtümlich reagiert, wenn eine Person vorbeigeht oder andere falsche Eingaben vorliegen.

Evaluierungsboard IRslider2EK
Bild 2. Das Evaluierungs- board IRslider2EK von Silicon Labs erkennt berührungs- lose Gesten und kann zufällige Bewegungen vor dem Sensor von gezielten Gesten unterscheiden.
© Silicon Labs

Beim Navigieren durch eine Sammlung von Fotos auf einem Touchscreen erfolgt das Scrollen durch die Bilder anhand des Fingers - aber nicht mit der Handfläche oder der Handseite. Das System wurde so entwickelt, dass es eine Berührung mit der Fingerspitze als Geste erkennt, während eine Berührung mit der Handfläche als fehlerhaft erkannt wird.

Bei der Definition einer Geste und der daraus resultierenden Maßnahme gehen viele Faktoren mit ein, einschließlich Geschwindigkeit, Bewegung und Größe der Oberfläche. Im Falle der berührungslosen Gesten, die durch Infrarot-Näherungssensoren oder optische Sensoren erkannt werden, müssen noch weitere Aspekte wie Reflexionsfläche des zu erkennenden Objekts, Umgebungslichtverhältnisse und Objekttiefe mit berücksichtigt werden.

Das Evaluierungsboard IR-slider2EK (Bild 2) von Silicon Labs erkennt z.B. links- und rechtsläufige Gesten sowie Haltepunkte, wenn die Bewegung an einem bestimmten Ort gestoppt wird. Winkt ein Anwender seine Hand über das Board, wird hingegen weder der Haltepunkt noch eine Scroll-Bewegung erkannt. Jede dieser Aktionen kann somit mit einer Benutzeroberflächenfunktion in Verbindung gebracht werden.

Mehrfachberührungs-Gesten
Bild 3. Beispiele für Mehrfachberührungs-Gesten.
© www.gestureworks.com

Berührungsgesten sind alltäglich geworden, da immer mehr Smartphones auf den Markt kommen. Multi-Touch-Gesten bzw. Gesten, die zwei oder mehr Finger erfordern, ermöglichen eine einfache Benutzung dieser zunehmend komplexer werdenden Geräte. Zu diesen Multi-Touch-Gesten zählen zahlreiche Eingabetechniken, wie Tippen, Wischen, Bewegen und Drehen (Bild 3).

Berührungslose Gesten

Berührungslose Gesten sind neben der einfachen Näherungssensorik relativ neu und werden mit leicht unterschiedlichen Techniken implementiert. Es gibt zahlreiche Möglichkeiten, eine berührungslose Gestenerkennung einzusetzen, z.B. die optische Bildgebung. Die rechen- und energieeffizienteste Art ist jedoch mithilfe eines Infrarot-Sensors und einer Infrarot-LED. Die berührungslose Gestenerkennung mit Infrarot lässt sich mit einem positions- oder mit einem phasengesteuerten Ansatz verwirklichen. Die positionsgesteuerte Bewegungs-erkennung umfasst drei grundlegende Schritte:

  • Näherungsrohdaten werden in verwendbare Abstandsdaten umgewandelt.
  • Diese Abstandsdaten dienen zum Schätzen der Position des Zielobjekts.
  • Der Vergleich des Timings der Positionsdaten legt fest, ob eine Geste vorliegt oder nicht.

Bei der Entwicklung eines solchen Systems werden in einem festen Abstand ein Zielobjekt über dem Sensorfeld positioniert und die A/D-Wandler- Zählschritte festgehalten. Wird z.B. eine Hand in einem bestimmten Abstand vor dem Sensor gehalten und werden dabei x A/D-Wandler-Zählschritte initiiert, besagt die weitere Erfassung von x Zählschritten, dass sich ein ähnliches Objekt mit diesem Abstand vor dem Sensor befindet. Werden mehrere dieser Messungen mit verschiedenen Abständen durchgeführt, erhält der Entwickler eine gute Reihe an A/D-Wandler-Zähl- schritten für die Distanzdaten.

Diese Daten müssen für alle Infrarot-LEDs im Gestenerkennungsfeld aufgenommen werden. Danach wird eine Feineinstellung vorgenommen, damit sichergestellt ist, dass die Abweichungen der einzelnen LED-Lichtleistungen über das gesamte System hinweg in Betracht gezogen werden. Mit diesen Daten wird dann eine Positionsschätzung eines Objekts vorgenommen, das sich über dem System befindet. Grundlage ist die relative Reflexion der In-frarot-LEDs. Schließlich müssen noch das Timing, die Richtung und die Geschwindigkeit verfolgt werden, mit der das Zielobjekt bewegt wird. Nur so kann das System eine gültige Geste erkennen und darauf reagieren.

In einem positionsgesteuerten System kommt es darauf an, die Zeitstempel für den Eintritt, den Austritt und die derzeitige Position eines Objekts im detektierbaren Bereich zu erfassen. Dies schließt den Bereich um das Näherungserfassungssystem ein, in dem eine gültige Messung erfolgen kann. Die meisten Gesten lassen sich mithilfe dieser Timing- und Positionsinformation einfach erkennen. Jedes System muss jedoch kundenspezifisch an die jeweilige Anwendung und an die Vorstellungen des Systementwicklers angepasst werden.

Phasengesteuerte Gestenerkennung verwendet nur Timing-Daten und die Rohdaten des A/D-Wandler-Ausgangs. Die Berechnung von Abständen ist dabei nicht erforderlich. In einem Näherungserkennungssystem mit mehreren LEDs verwendet der phasengesteuerte Ansatz die Reflexionsänderungen über dem Sensor und die Bewegungsrichtung, um die Geste zu erkennen.

Die maximale Reflexion einer Infrarot-LED tritt auf, wenn sich ein Objekt direkt über der LED befindet. Die Bewegungsrichtung lässt sich dann daran erkennen, welche LED zuerst reflektiert wird. Bewegt sich über dem IRslider2EK-Board ein Objekt von links nach rechts, liefert zuerst die linke Infrarot-LED die maximale Reflexion, anschließend die rechte LED. Damit erkennt das Phasensystem, dass eine Rechtsbewegung stattgefunden hat.


  1. Intuitive Benutzerschnittstellen entwickeln
  2. Gesten anpassen
  3. Positions- oder phasen- gesteuert - was ist besser?

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Silicon Laboratories Inc.

Weitere Artikel zu Displays / HMI-Systeme / Panel-PCs