/AR

Dieses Armband liest eure Gedanken – und setzt sie in Bewegungen um

Achim Fehrenbach 07.12.2018 Lesezeit 6 Min

Es war einer der spannendsten Vorträge auf der Tech-Konferenz Slush in Helsinki: Das New Yorker Start-up CTRL-Labs präsentierte ein Armband, das Bewegungssignale an die Muskeln ausliest. Das Ziel? Allein mit der Kraft ihrer Gedanken sollen wir eine Vielzahl von Geräten gleichzeitig steuern können.

Digitale Telekinese, das verspricht das New Yorker Start-up CTRL-Labs. Denn das will Controller, VR-Handschuhe, Tastaturen und auch Computermäuse überflüssig machen. Das Team aus Ingenieuren und Programmierern hat dafür ein Armband entwickelt, das die Bewegungsbefehle des Gehirns an die Hand abgreift und in punktgenaue digitale Kommandos übersetzt – und anschließend in virtuellen Umgebungen manifestiert. Ein Hirn-Computer-Interface also, das ohne Implantate auskommt. Aber wie funktioniert das und wofür soll es taugen? Darüber haben wir auf der Tech-Konferenz Slush mit Josh Duyan gesprochen, dem Chief Strategy Officer von CTRL-Labs.

Josh Duyan von CTRL-Labs.

WIRED: Mr. Duyan, welche Idee steckt hinter der neuronalen Schnittstelle von CTRL-Labs?
Duyan: CTRL-Labs wurde 2015 von drei Doktoren der Neurowissenschaft von der Universität Columbia gegründet. Durch die Arbeit mit ihren Beratern wurde ihnen klar, welch große Kluft es heutzutage zwischen der Informationsmenge gibt, die wir aufnehmen können, und der, die wir ausgeben. Die Idee hinter der Firma war, diese Kluft zu schließen – und Menschen die Möglichkeit zu geben, Informationen mit höherer Bandbreite auszugeben.

WIRED: Die Idee von von CTRL-Labs ist also, den menschlichen Output schneller zu machen. Wie funktioniert das technisch?
Duyan: Der jetzige Prototyp ist ein Oberflächen-EMG-Gerät mit 16 Kanälen. Damit können wir die neuromuskulären und biophysischen Signale entschlüsseln, die man immer dann generiert, wenn man sich bewegt und mit Dingen interagiert. Mittels Signalverarbeitung und Machine Learning sind wir in der Lage, die einzelnen Motoneuronen im Rückenmark zu identifizieren, wenn sie feuern. Die vorherrschende Denkweise in der Neurowissenschaft ist, dass, sobald man sich bewegt, Neuronen zu feuern beginnen, um diese Bewegung zu erzeugen. Bei diesem Prozess – er heißt Rekrutierung – werden immer mehr Neuronen rekrutiert und feuern, um Signale an die Muskeln zu senden. Wenn ein Neuron feuert, nennen das die Wissenschaftler ein Aktionspotenzial. Das Neuron wacht also auf, überschreitet einen Schwellenwert und erreicht dann den Spitzenwert. Auf diese Weise wird das elektrische Signal für die Körperbewegung erzeugt.

WIRED: Wie wird das Signal transportiert?
Dyan: Es gibt Neuronen in der Großhirnrinde und im Rückenmark. Wir lesen die Neuronen aus, die sich im Rückenmark befinden. Und die senden ein elektrische Signal durch ein Axon. Ein einzelnes Axon reicht vom Rückenmark über den Arm bis zur Hand und in den Finger. Mit unserem Armband können wir dieses elektrische Signal messen, während es durch den Arm geht, um eine Fingerbewegung auszulösen. Um mit Hilfe unserer Software können wir dann sagen: „Ok, das war Neuron Nummer zwei.“ Das Ganze lässt sich auch so erklären: Ein Neuron im Rückenmark ist mit einem Axon verbunden. Dieses einzelne Axon franst am Ende aus und kommuniziert mit mehreren Muskelfasern – diese Muskelfasern werden also alle gleichzeitig aktiviert. Indem diese Fasern zusammen feuern, können wir ein bestimmtes Muster erkennen und das entsprechende Neuron identifizieren. Wir interessieren uns für die Muskeldaten, um herauszufinden, welche Bewegung man plant.

WIRED: Diese Herangehensweise unterscheidet sich konzeptionell sehr stark von anderen Gehirn-Schnittstellen, die bereits getestet wurden...
Duyan: Ja und nein. Die meisten Leute, die ihre Technologie als Hirn-Maschine-Interface bezeichnen, tun ähnliche Dinge. In zwei Aspekten unterscheiden sie sich aber konzeptionell sehr stark von unserem Ansatz: Erstens arbeiten sie invasiv. Sie bohren also tatsächlich Löcher in den Schädel und pflanzen Elektroden ins Gehirn ein. Zweitens interessieren uns nur Steuerungsprobleme beim menschlichen Output. Wir haben also ein Gerät, das nur ausliest. Im Gegensatz dazu versuchen viele Leute, die sich mit Hirn-Maschine-Interfaces beschäftigen, auch Informationen zu schreiben, um Dinge im Gehirn zu speichern. Sie interessieren sich für Stimmungen oder auch Neuromodulation, die beispielsweise beruhigt oder Dinge ans Gehirn zurücksendet. Wir allerdings arbeiten nicht-invasiv und interessieren uns nur dafür, das Signal zu verstärken, um Steuerungsprobleme ausfindig zu machen.

WIRED: Wie wird das Signal aus dem Armband weiterverarbeitet?
Duyan: Wir verarbeiten die Signale, um die rohen EMG-Daten zu nutzen und sie für unsere Zwecke zu verfeinern. Darüber hinaus nutzen wir auch Machine Learning auf mehreren Ebenen, um die Informationen zu extrahieren, mit denen wir dann möglicherweise die Steuerung verbessern können.

WIRED: Das Signal wird also verstärkt?
Duyan: Wir machen damit eine Menge. Ein Beispiel: Wenn Sie mir das Armband jetzt anlegen und ich es ein paar Minuten trage, erkennt es mich. Würden Sie es nun anlegen, würde es erkennen, dass ich es nicht bin. Das ist aber nur eines der Gebiete, in denen wir Machine Learning nutzen. In einem anderen Gebiet helfen wir Leuten, bessere 2D-Steuerung zu erhalten. Damit lässt sich dann beispielsweise ein Mauszeiger ersetzen.

WIRED: Wo überall kommt das Gerät momentan zum Einsatz?
Duyan: Bei uns nutzen das einige Leute in ihrer täglichen Arbeit, zum Beispiel beim Browsen im Web und bei der Informationssuche. Außerdem kann man es mittlerweile als Tastatur-Ersatz verwenden. Wir nutzen es für Robotersteuerung in Umgebungen wie Virtual Reality und Augmented Reality. Man kann damit kontrollieren, wie man durch den Raum navigiert und mit Objekten interagiert – etwa, wie man sie auswählt oder mit ihnen spielt. Wir haben einige Games, die damit wirklich Spaß machen – zum Beispiel Asteroids. Man kann damit aber auch Musik machen.

WIRED: Das Armband kann also in nahezu allen Bereichen genutzt werden. Aber welche Bereiche sind am vielversprechendsten?
Duyan: Auf lange Sicht wollen wir es wirklich für alles Mögliche nutzen. Zu Beginn konzentrieren wir uns aber auf die Bereiche, zu denen wir am meisten beisteuern können. Also eine Mischung aus dem, was wir am besten können – und dem, wo Steuerung heutzutage besonders schlecht ist. Wir glauben, dass wir die Tastatur auf lange Sicht ablösen können, aber heutzutage sind die meisten Menschen noch ziemlich zufrieden mit ihr. Das größte Potenzial sehen wir in den neuen Computer-Plattformen. Ich zum Beispiel kann überhaupt nicht auf meiner Apple Watch tippen, weil der Bildschirm zu klein ist. Wenn wir das mit dem Tippen also hier hinbekommen, dann sinkt nicht nur die Einstiegshürde für Verbraucher – dann ist das auch die beste Gelegenheit für uns, einen Mehrwert zu erzeugen. Das Gleiche beobachten wir bei Augmented und Virtual Reality: Man begibt sich in die in eine tolle Umgebung, hält aber gleichzeitig einen Controller in Händen, um navigieren zu können. Auf diese Bereiche konzentrieren wir uns also zuerst.

WIRED: Es geht also letztlich darum, dass man die Technik vergisst, sie intuitiv nutzt...
Duyan: Ja, genau. Es geht darum, Sinn aus Bewegung zu destillieren. Darum, dass man sich bei Tätigkeiten ganz natürlich bewegt - und dass man nicht diese ganzen vermittelnden Geräte braucht. Die Information sollte direkt von einem selbst kommen.