Die Technologie ist zwar kein umfassender Ersatz für traditionelle Interaktionsverfahren, aber sie öffnet neue Möglichkeiten, um Computer aus der Ferne zu bedienen oder zu beeinflussen. Ob Knopf, Schalter, Tastatur, Maus und Touchdisplay - der Mensch hat über Jahrzehnte gelernt, Maschinen mit der Kraft seiner Finger zu steuern. Als Drücker, Dreher oder Wischer setzte er Zeichen, nach denen sich die Geräte richten mussten.
Mit der Gestensteuerung bietet sich nun die Gelegenheit, der Mensch-Maschine-Interaktion eine weitere Dimension hinzuzufügen: die berührungsfreie Steuerung aus der Distanz. Gartner bezeichnet sie als "Lean-back Zone". Vergleichbares war auch schon mit der Sprachsteuerung versucht worden, ohne dass allerdings der erhoffte Durchbruch auf breiter Front erreicht wurde.
- Spannende neue Eingabemethoden
Gestensteuerung erobert die Schnittstelle von der Maschine zum Menschen, immer mehr Geräte reagieren auf einen Fingerzeig. - Myo
Das Armband "Myo" der Firma Thalmic analysiert die Kontraktionen von Armmuskeln bei Bewegungen. Alle Daten werden via Bluetooth an Computer oder Geräte gesendet, wo sie Anwendungen von der Drohne bis zum Fernseher steuern. Mitte des Jahres soll das Armband für 150 Dollar auf den Markt kommen. - Leap Motion
Mit "Leap Motion" vom gleichnamigen Anbieter gibt es einen Controller für Mac und PC, der Fingergesten zur Steuerung des Rechners erkennt. Erste Hardwarehersteller wie Hewlett-Packard wollen den Kurzstreckensensor in ihre Geräte einbauen. - Eyesight
Dass sich Gestensteuerung im Massenmarkt zumindest als alternatives Eingabeverfahren etabliert, darf als sicher gelten. ... - Flutter
Exemplarisch für den Trend in die Breite sind die Apps "Flutter" (gekauft von Google) und "Eyesight", die beide die On-Board-Kamera von Notebooks nutzen. - Jollaphone
- Startup Myestro
- Gesten mit den Augen
Rasanter technischer Fortschritt
Durch den rasanten technischen Fortschritt bei Sensoren und Kameras, die besser, kleiner und billiger wurden, lässt sich die Gestenerkennung auch mit Embedded Software umsetzen, die plattform- und kameraunabhängig einsetzbar ist und nur wenig Energie benötigt. Dadurch kann die Technik heute in Mobiltelefonen, Tablets oder Navigationssystemen zum Einsatz kommen.
Die Gestensteuerung teilt sich auf in einen geräte- und einen kamerabasierenden Zweig. "Zwar können mit Mäusen oder Multi-Touch-Panels auch Gesten erkannt werden, dennoch sind bei der Gestensteuerung in erster Linie Bewegungen gemeint, die mit der Hand oder dem Kopf ausgeführt werden", erläutert Christian Knecht vom Institut für Arbeitswissenschaft und Technologiemanagement (IAT) der Universität Stuttgart.
Die ersten Vertreter der gerätebasierenden Gestensteuerung waren Nintendos 3D-Controller "Wii", der in der Hand getragen wird, sowie der Datenhandschuh als Pionier. Dieser erfasst Gesten der Hand und der Finger durch mechanische (Exoskelett), optische (Lichtwellenleiter) oder auch elektrische (Widerstand) Verfahren. Aktuelles Beispiel für den Ansatz ist das Armband "Myo" der Firma Thalmic Labs, das die Kontraktionen von Armmuskeln bei Bewegungen analysieren kann. Alle Daten werden via Bluetooth an Computer oder Geräte gesendet, wo sie Anwendungen von der Drohne bis zum Fernseher steuern. Mitte des Jahres soll das Armband für 150 Dollar auf den Markt kommen.
"Aufgrund der Tatsache, dass ein Gerät immer am Körper getragen werden muss, eignet sich der Ansatz nicht für jedes Einsatzszenario", sagt der Stuttgarter Wissenschaftler Knecht. Daher sind die gerätebasierenden Systeme in eine Nische geraten, während die kamerabasierenden Verfahren wichtiger wurden. Auch hier kam der Durchbruch über eine Spielekonsole, Microsofts "Xbox" mit der Hardware "Kinect", die die Bewegung der Spieler in Signale zur Steuerung des Avatars auf dem Bildschirm umrechnet. Microsoft Research arbeitet an einem ähnlichen System auf Basis von Schallwellen, das den Dopplereffekt nutzt. Mit "Leap Motion" vom gleichnamigen Anbieter gibt es zudem einen Controller für Mac und PC, der Fingergesten zur Steuerung des Rechners erkennt. Erste Hardwarehersteller wie Hewlett-Packard wollen den Kurzstreckensensor in ihre Geräte einbauen.
Dass sich Gestensteuerung im Massenmarkt zumindest als alternatives Eingabeverfahren etabliert, darf als sicher gelten. "Die wesentlichen Gründe für die Entwicklung sind die hohe Intuitivität und Natürlichkeit dieses Bedienkonzepts", sagt Jens Neuhüttler vom Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO) in Stuttgart. Zum anderen seien inzwischen funktionsfähige und auch preisgünstige Lösungen am Markt erhältlich, von denen manche über Software-Development-Kits (SDKs) auch für Forscher und Privatpersonen geöffnet werden, um neue Einsatzfelder zu schaffen und Anwendungsbeispiele zu entwickeln. Exemplarisch für den Trend in die Breite sind die Apps "Flutter" (gekauft von Google) und "Eyesight", die beide die On-Board-Kamera von Notebooks nutzen.