Geräte steuern mit Gesten »Unsere Software ist weltweit als einzige schon heute für Embedded Systeme geeignet«

Sascha Klement ist Managing Director und CTO bei Gestigon, einer Ausgründung des Instituts für Neuro- und Bioinformatik der Uni Lübeck. Das Unternehmen setzt eine neue Software als »enabling technology« ein, um den Massenmarkt für Gestenerkennung voranzutreiben.
Sascha Klement ist Managing Director und CTO bei Gestigon, einer Ausgründung des Instituts für Neuro- und Bioinformatik der Uni Lübeck. Das Unternehmen setzt eine neue Software als »enabling technology« ein, um den Massenmarkt für Gestenerkennung voranzutreiben.

Berührungslose Steuerung von Geräten auf dem Weg zur Marktreife: Sascha Klement ist Managing Director und CTO bei Gestigon, einer Ausgründung des Instituts für Neuro- und Bioinformatik der Uni Lübeck. Das Unternehmen setzt eine neue Software als »enabling technology« ein, um den Massenmarkt für Gestenerkennung voranzutreiben.

Die Gestigon GmbH wurde 2011 als Ausgründung aus der Universität Lübeck, Institut für Neuro- und Bioinformatik, von Sascha Klement, Prof. Dr. Erhardt Barth und Prof. Dr. Thomas Martinetz gegründet.

Herr Klement, ihr Unternehmen entwickelt Software, die Hand- und Körpergesten erkennt, in Befehle übersetzt und dabei wenig Rechnerleistung benötigt. Dafür konnten Sie gerade eine erste Anschubfinanzierung durch den High-Tech-Gründerfonds abholen. Was ist das Besondere?

Sascha Klement: Das Grundprinzip: Eine 3D-Kamera erfasst eine Bewegung, die Software ordnet diese Geste einem bestimmten Befehl zu. Es handelt sich dabei um 3D-Kameras, wie sie heute bereits für Spielkonsolen wie die Xbox360 von Microsoft verfügbar sind. Die Software nimmt verschiedene Gesten und Ganzkörperpositionen von mehreren Personen gleichzeitig auf – die Anzahl der Personen wird alleine durch das Sichtfeld der Kamera beschränkt. Die Anforderungen an Rechnerleistung und Speicherbedarf sind dabei deutlich geringer, als bei konkurrierenden Lösungen, unter anderem weil auf keine Datenbank zurückgegriffen werden muss. Als embedded software kann sie plattformunabhängig eingesetzt werden.

Wo beispielsweise?

Sie läuft auf allen gebräuchlichen Plattformen und Betriebssystemen wie Windows 7, Linux, MacOS und ARM-basierten Systemen wie dem Pandaboard und bietet Schnittstellen zu den wesentlichen am Markt verfügbaren 3D-Sensoren. Damit kann die Lösung flexibel in bestehende oder präferierte Hard- und Softwareumgebungen integriert werden.

An welche Geschäftsfelder denken Sie dabei? 

Wir haben vor allem drei Märkte im Visier: die Automobil- und Medizintechnik und die Unterhaltungselektronik. Insgesamt ist die Lösung besonders gut für alle mobilen Anwendungen, zum Beispiel Mobiltelefone, Tablets, Fernbedienungen, Navigations- und Assistenzsysteme, aber auch für PCs, Gaming, Digital Signage oder Medizintechnik geeignet.

Im Bereich der Mittelkonsole im Auto wird aktuell von Automobilzulieferern die Gestenerkennung erprobt. Doch der Markt ist schwierig, limitierende Faktoren sind zum Beispiel Anforderungen an die Sicherheit, Gefahren durch unwillkürliche Gesten müssen gebannt sein. Der interessanteste Markt für uns ist allerdings die Consumer-Elektronik. Dort streben wir ein Lizenzgeschäft mit unserer Software an. So haben neueste Flachbildfernseher zwar bereits Gestenerkennung integriert – doch technisch ist das bei weitem noch nicht ausgereift. Auf der letzten CES in Las Vegas haben wir interessante Gespräche mit Entscheidern führender Hersteller geführt.

Wen würden Sie im Bereich Gestenerkennung als Konkurrenz bezeichnen?

Es gibt etwa drei, vier Mitbewerber, die sich an Skeletterkennung versuchen. Doch das erfordert eine Menge Know-How. Und im Unterschied zu anderen haben wir unsere Technologie von Anfang an konsequent für den Einsatz als eingebettetes System konzipiert, also etwa für mobile Anwendungen.

Unsere Software ist weltweit als einzige schon heute für Embedded Systeme geeignet – in allen relevanten Parametern weist sie deutlich bessere Performance-Werte in Bezug auf Speicherbedarf, Prozessorauslastung und Latenz auf als vergleichbare Lösungen. Gestigon liefert als »Enabling Technology« eine echte Skeletterkennung, sowohl für den gesamten Körper, als auch für Hände und einzelne Finger. Das Skelett wird durch eine drei-dimensionale Topologie mathematisch beschrieben, wodurch sich die Bewegungen der Knotenpunkte im Raum als eine Geste definieren lassen und dann beliebigen Aktionen in einer Anwendung zugeordnet werden können.

Unsere Software erhält die 3D-Daten der Kamera in Form einer dreidimensionale Punktwolke und passt die Skeletttopologie bestmöglich an die beobachteten Daten an. Somit lassen sich alle Freiheitsgrade und Bewegungen z.B. einer Hand abbilden.

Dank der zunehmenden Marktdurchdringung von preiswerten 3D-Kameras erwachsen uns neue Geschäftsmodelle – denn der limitierende Faktor für unsere Lösung war bislang die Qualität der Daten.

Wird denn Gestenerkennung herkömmliche Touchscreens irgendwann ablösen?

Touchsysteme sind heute Standard und nicht überall macht berührungsloses Bedienen Sinn. Ich denke eher, dass sie zusätzliche Möglichkeiten eröffnen wird, zum Beispiel Greifgestik, manipulierende Gesten, virtuelles Anfassen in Form eines komplett neues User Interface. Entscheidend ist eine exzellente User Experience mit geringer Latenz und gutem grafischen, akustischen oder andersartigem Feedback.

In welchem Stadium sehen Sie den Markt für Gestenerkennung derzeit noch? Wie schätzen Sie seine Entwicklung ein?

Gestenerkennung hat sich über Jahre eher langsam entwickelt - erst durch die Verfügbarkeit von preiswerten Kameras hat sich der Markt geöffnet. Wir erwarten, dass in den nächsten zwei Jahren die ersten praxistauglichen System mit Gestenerkennung in den Massenmarkt vordringen – dann hoffentlich mit gestigon inside!

Das Gespräch führte Corinne Schindlbeck

Gestigon stellt auf der embedded world aus: in Halle 4A, Stand 306 n.