Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Die nächste Smartwatch-Generation wird mit dem Auge bedient

von GQ
Das Licht an- und ausschalten, die Lautstärke regeln oder den Fernsehsender wechseln. All das kann man heute mit seiner Smartwatch machen — und bald muss man dafür wahrscheinlich noch nicht mal mehr den Bildschirm berühren.

Forscher der University of Lancaster haben eine neuen Software entwickelt, die eine Smartwatch auf die Bewegungen des Auges reagieren lässt. Um die Uhr zu steuern, muss ein Nutzer nur Kreisbewegungen mit seiner Pupille machen. Dabei kann er mit dem Auge einfach einem bewegten Punkt auf dem Monitor folgen. So können Apps genauso gesteuert werden, als würde man den Bildschirm mit dem Finger berühren.

„Für Smartwatches ist das ziemlich entscheidend, weil eine Uhr eigentlich dafür designt ist, sie mit den Augen zu benutzen — das ist der einzige Grund, warum wir von Taschenuhren auf Armbanduhren umgestiegen sind. Damit wir sie freihändig benutzen können,“ sagte Hans Gellersen, der an dem Projekt beteiligt ist.

„Der Mechanismus, Funktionen durch Bewegungen auszulösen, kann auch für andere Geräte verwendet werden, zum Beispiel für Fernseher. Man kann sich den Bildschirm aus der Entfernung anschauen und das Programm steuern“, sagte Gellersen. Ein Bildschirm kann dabei mehrere Steueroptionen besitzen. Jedem Befehl wird dann ein eigener rotierender Punkt zugeordnet. Um zu vermeiden, dass der falsche Punkt mit den Augen angesteuert wird, bewegen sie sich in unterschiedlichen Geschwindigkeiten im Kreis.

Derzeit nutzt das System der Forscher noch eine Kamera, die der Nutzer auf dem Kopf tragen muss. Gellersen sagt jedoch, dass es nur eine Frage der Zeit sei, bis Smartwatches entsprechend gute Kameras eingebaut hätten. Dann könnten sie selbst die Bewegungen der Pupillen auswerten.

Ähnliche Technolgien sind bereits für verschiedene Branchen in der Entwicklung. Vermarkter wollen etwa auswerten, wie Kunden ihre Auslagen und Schaufenster betrachten und Autohersteller wollen so den Komfort für Fahrer erhöhen. Selbst die Entwickler von Oculus Rift denken darüber nach, etwas ähnliches in die nächste Generation der VR-Brille zu integrieren. Laut Gellersen liegt das daran, dass die Eye-Tracking-Technik langsam immer günstiger wird. Es sei aber noch nicht abzusehen, was ihre wichtigsten Anwendungsgebiete sein werden.

Was Gellersens Eye-Tracking-System von anderen unterscheidet, ist seine Steuerung durch Kreisbewegungen der Iris. Das sei weitaus intuitiver, als bei schon existierenden Systemen. „Bisher musste man, um einen Knopf zu drücken, ihn lange anstarren. Das ist ziemlich unnatürlich und anstrengend für die Augen“, sagt Gellersen. „Stattdessen zeigt unser System sich langsam drehende Elemente auf dem Bildschirm. Für das Auge ist es ganz natürlich, diesen Bewegungen zu folgen.“ Gellersens System würde demnach die normalen Verhaltensweisen des Auges unterstützen, anstatt sich der bisherigen Konvention des Klickens oder Touchens unterzuordnen. 

GQ Empfiehlt
Diese Tattoos steuern Gadgets

Diese Tattoos steuern Gadgets

von WIRED Staff