/WIRED2029

Mit einer VR-Gehirnschnittstelle könnte Facebook 2029 zu Ready Player One werden

Ben Hartlmaier 16.12.2018 Lesezeit 13 Min

Bisher sammeln große Konzerne wie Google und Facebook Nutzerdaten über Smartphones und Webseiten. Doch es gibt bereits Pläne, direkt die Gehirne der User anzuzapfen. Der Neurowissenschaftler Philipp Kellmeyer forscht an der Uniklinik Freiburg an einer Gehirn-Computer-Schnittstelle und hat gemeinsam mit Kollegen ein Paper zu den ethischen Herausforderungen der Neurotechnologie und Künstlichen Intelligenz veröffentlicht. Für unser WIRED2029-Special haben wir mit ihm darüber gesprochen, wie uns diese Technik in zehn Jahren beeinflussen könnte, ob Facebook heimlich an der Matrix baut und ob wir letztlich nicht mehr sind, als ein Gehirn im Tank.

WIRED: Herr Kellmeyer, es gibt kritische Stimmen, die behaupten, dass KI schon heute sehr oft dazu eingesetzt wird, uns durch psychologische Tricks dazu zu bringen, mehr Geld auszugeben. Dabei sind die Computer noch nicht einmal direkt mit unseren Gehirnen verbunden. Sind wir in 10 Jahren nur noch willenlose Konsum-Zombies?
Philipp Kellmeyer: Das ist mir alles ein wenig zu düster, da muss man differenzieren. Es gibt schließlich sehr breite Anwendungsgebiete für intelligente Systeme. Zum Teil wird damit sehr viel in der Grundlagenforschung gearbeitet, um etwa Vorgänge im Gehirn besser verstehen zu können. Aber daneben gibt es natürlich auch kommerzielle Anwendungen von KI. Wenn dann jemand kommt und sagt, dass kommerzielle KI-Anwendungen dafür da sind, um Geld zu generieren, ist das eine Tautologie. Wenn man die Parameter unseres sozio-ökonomischen Grundzusammenhangs akzeptiert, nämlich dass wir in einem wachstumsorientierten, kapitalistischen Wirtschaftssystem leben, dann sind das die Bedingungen, auf die man sich einlässt: Nämlich, dass die jeweils neuesten oder vielversprechendsten Technologien im Privatsektor oder in einem anderen kommerziellen Zusammenhang immer dazu verwendet werden, um Geschäftsmodelle zu optimieren. Das Ziel dabei ist nicht die Glückseligkeit der Nutzer, sondern, dass die Firma wächst, neue Märkte erschließt und mehr Geld generiert. Das ist hoffentlich jedem klar, der sich in unserer Gesellschaft bewegt.

WIRED: Springt denn gar nichts für die Nutzer dabei heraus?
Kellmeyer: Es wäre naiv, zu denken, dass Google oder Facebook KI-Anwendungen nutzerzentriert entwickeln, etwa um die User-Experience zu verbessern – auch wenn sie das behaupten. Aber das ist Teil der Marketing-Strategie. Man kann das alles jedoch nur bis zu einem gewissen Grad ändern, weil börsennotierte Unternehmen nun mal Verantwortung gegenüber ihren Shareholdern haben. Aber es kann sich ja auch jeder dazu entscheiden, dabei nicht mitzumachen, quasi als Opt-out. Man kann auch versuchen, so wenig wie möglich dazu beizutragen, etwa durch Datensparsamkeit. Aber man hat relativ wenige Angriffspunkte, um das Ganze grundsätzlich in Frage zu stellen.

Jeder technologische Fortschritt hat einen Dual-Use-Aspekt

Philipp Kellmeyer

WIRED: Sie haben vorhin Grundlagenforschung erwähnt. Bei der vermeintlichen Manipulation der letzten US-Wahl durch Facebook und Cambridge Analytica, hat Michal Kosinski – der Psychologe, der die Grundlagenforschung dazu betrieben hat – hinterher behauptet, er habe „nur gezeigt, dass es die Bombe gibt“, sie aber nicht benutzt. Haben Sie nicht Angst, dass Ihre Forschung zur Gehirn-Computer-Schnittstelle in zehn Jahren nicht als neue, viel größere Manipulations-Bombe verwendet werden könnte?
Kellmeyer: Bei unserer Forschung geht primär darum, herauszufinden, wie Prozesse der Informationsverarbeitung im Gehirn funktionieren. Aber jeder technologische Fortschritt hat einen Dual-Use-Aspekt. Wenn jemand privilegiertes Wissen darüber hätte, wie gewisse Gehirnvorgänge funktionieren und wenn man sie systematisch beeinflussen könnte und gleichzeitig dieses Wissen monopolisiert und hinter verschlossenen Türen vorhanden wäre, dann hätte der Akteur, der im Besitz dieses Wissens ist und es skalieren und einsetzen kann, ein Instrument in der Hand mit dem er manipulativ vorgehen kann. Insofern wäre aus unserer wissenschaftlichen Perspektive zu sagen, dass Open Science – also Transparenz und Offenheit der Forschung – erstmal ganz gute Barrieren dagegen sind. Aber auch das stößt natürlich irgendwann an Grenzen. Es gab zum Beispiel genetische Versuche, um Grippeviren noch infektiöser zu machen. Damals stand man vor der Frage, ob man in diesem Fall die Methoden in einem wissenschaftlichen Journal veröffentlichen sollte. Was dafür spricht ist, dass Wissenschaftler die Vorgänge verstehen müssen, um Gegenmaßnahmen entwickeln zu können. Andere wiederum sagen, dass das so gefährlich ist – weil es dann jeder in einem Labor nachmachen könnte – dass es nicht veröffentlicht werden darf. Letztendlich ist das eine Frage der Auseinandersetzung verschiedener Standpunkte innerhalb der Wissenschaft und Gesellschaft. Da ist die Neurotechnologie nicht ausgenommen. Aber dadurch, dass die Technik noch nicht so weit ist, wäre jetzt ein guter Moment um sich in einer breiten gesellschaftlichen Debatte darüber zu unterhalten, welche potentiellen Implikationen diese Technologie mit sich bringt

WIRED: Was wäre das Ziel einer solchen Debatte?
Kellmeyer: Sinnvoll wäre es, effektive und verantwortliche Governance Frameworks zu erstellen, um die Entwicklung in die richtigen Bahnen zu lenken – ähnlich wie es bei genetisch modifizierten Organismen (GMOs) der Fall ist. Hier gibt es mittlerweile eine Jahrzehnte andauernde Debatte, in der sich auch normativ kollidierende Wertsysteme zeigen. In den USA herrscht beispielsweise der disruptive Ansatz, der besagt, dass neue Technologie benutzt werden soll, um wirtschaftliches Wachstum zu erzeugen. Europa hat hingegen bei GMOs das Vorsorgeprinzip in den Mittelpunkt gestellt. Das heißt: Bei einer neuen Technologie, bei der man die Langzeitfolgen noch nicht absehen kann, muss man in der Forschung schrittweise und möglichst vorsichtig vorgehen, anstatt sie einfach breit zu streuen und zu implementieren. In ähnlicher Weise könnte man es jetzt auch für intelligente Neurotechnologie machen – zumindest theoretisch. Das Problem ist aber, dass das natürlich nationale Regelungen oder Gesetze oftmals übersteigt, weil die Firmen, die so etwas anbieten würden, wahrscheinlich nicht dort wären, wo sie von diesen Regelungen betroffen wären. Deshalb braucht es neben nationalen oder transnationalen Vereinbarungen – etwa auf EU-Ebene – wahrscheinlich auch einen internationalen Einigungsprozess, etwa auf der Ebene der OECD oder UN.

WIRED: Woran denken Sie dabei genau?
Kellmeyer: Ich denke da zum Beispiel an so etwas wie eine Datenethik-Deklaration der Vereinten Nationen. In Bezug auf Neurotechnologie ist eine der drängenden Fragen: Falls moderne Verfahren des maschinellen Lernens zur Dekodierung der Hirnaktivität Rückschlüsse auf besonders kritische Information zulassen – beispielsweise die Wahrscheinlichkeit, ob jemand depressiv ist oder suizidal wird – fällt damit auch die Barriere der Privatheit mentaler Zustände? Dann würde sich ebenfalls die die Frage stellen, ob das noch durch das Zivilrecht adäquat abgebildet werden kann, oder ob man in diesem Fall nicht schon die Menschenrechte heranziehen muss. Denn die Frage könnte auch lauten: Gibt es ein fundamentales Menschenrecht auf die Privatheit mentaler Zustände?

WIRED: Wäre dann der Satz „Die Gedanken sind frei“ nicht länger gültig?
Kellmeyer: Ich würde es nicht „Gedankenfreiheit“ nennen. Das ist ein schwieriger Begriff, weil er impliziert, dass man den Inhalt von Gedanken auf absehbare Zeit aus Gehirnaktivität ablesen kann. Aber das ist extrem unwahrscheinlich. Es gibt allerdings diskrete Zustände des Gehirns – oder von Teilen des Gehirns – die mit bestimmten mentalen Zuständen wie Angst oder Müdigkeit korrelieren.

WIRED: Also eher unbewusste Regungen und Bedürfnisse?
Kellmeyer: Nehmen wir an, eine Patient hätte ein Hirnimplantat – etwa, weil er an Epilepsie leidet – das ständig die Hirnaktivität ausließt und ein angeschlossenes Deep-Learning-basiertes Dekodiersystem würde über die Zeit relativ zuverlässig lernen, Schmerzzustände zu erkennen. Wenn dann ein Arzt den Patienten fragen würde, ob er Scherzen hat und der Patient mit „Nein“ antwortet, obwohl das System etwas anderes anzeigt, dann wäre dessen Freiheit kompromittiert. Die Gründe dafür können vielfältig sein – etwa, weil es dem Patienten unangenehm ist, den Schmerz zuzugeben, oder weil er dem Arzt keine Umstände machen will, oder weil ein Angehöriger im Raum ist. All diese Möglichkeitsräume, all diese Freiheit die wir momentan haben, um den Inhalt unseres inneren Erlebens für uns zu behalten und zu entscheiden, was davon nach außen kommt und was nicht – diese Freiheit wäre dadurch in einer gewissen Weise kompromittierbar.

WIRED: Also im Grunde die Freiheit zur Lüge?
Kellmeyer: Ja genau. Denn die ist ja im Prinzip Teil der menschlichen Freiheit. Aber nochmal: Das ist nicht auf den semantischen Inhalt einzelner Gedanken – also deren genauer Bedeutung – bezogen. Aber der Spielraum meiner mentalen Beweglichkeit wäre eingeschränkt, wenn ich immer darauf achten müsste. Das ist ähnlich wie in einer Stadt, von der man weiß, dass sie mit Überwachungskameras bestückt ist. Dort verhält man sich auch anders und begibt sich vielleicht in eine Ecke, die noch dunkler ist – die nicht überwacht ist. Wenn man jetzt wüsste, dass die Welt des inneren Empfindens nicht mehr geschützt ist, dann wäre das ein starker Eingriff in die geistige Freiheit.

Was Facebook behauptet, ist Blödsinn

Philipp Kellmeyer

WIRED: Sie sagen, es ist nicht möglich, den exakten Inhalt einzelner Gedanken auszulesen. Facebook behauptet allerdings, an einem System zu arbeiten, mit dem man per Gedanken schreiben können soll – und dafür müsste man ja den genauen Bedeutungsinhalt auslesen können. Geht Facebook also einen komplett neuen Weg, oder ist diese Behauptung Blödsinn?
Kellmeyer: In erster Linie ist das Blödsinn. Das ist nur eine großspurige Ankündigung, die weitreichende Marketing-Effekte hat und ein großes Medienecho erzeugt. Wenn man genauer hinschaut wird klar, dass sie dafür eine fundamental neue Technologie entwickeln wollen und gar nicht auf bestehende Systeme wie etwa EEG zurückgreifen. Aber: Die letzten 100 Jahre der Neurowissenschaft haben sich genau diesem Problem gewidmet, nämlich wie man aus Hirnaktivität Inhalte auslesen kann. Und da gibt es ganz grundlegende Barrieren und Schwierigkeiten. Zum Beispiel dabei, welche Daten eine bestimmte Messmethode, wie EEG oder MRT, überhaupt liefern kann. Zwar rekrutiert Facebook gerade reihenweise Neurowissenschaftler, Ingenieure und Maschine-Learning-Experten, aber Details zur Herangehensweise gibt es bislang keine. Es wäre schon eine absolute neurowissenschaftliche Revolution, wenn die in ein paar Jahren ein Gerät demonstrieren würden, mit dem man etwas komplett Neues machen kann im Hinblick auf die Dekodierbarkeit des Gehirns. Insofern bin ich da skeptisch.

WIRED: Könnte Facebook vielleicht etwas anders planen?
Kellmeyer: Es könnte vielleicht folgendes passieren: Auf dem Weg zu diesem revolutionären Gerät könnten Prototypen hergestellt werden, die auf Elektrodenbasis Gehirnströme messen und damit zum Beispiel den Social-Media-Stream automatisch an die Gemütszustände der User anpassen. Und weil Facebook sehr viele Nutzer hat, könnten schnell bis zu einer Million Leute solche Dinger auf dem Kopf haben. Wenn man dann das, was heute mit den Smartphone-Daten der Nutzer passiert, auch in einer substantiellen Weise mit deren Hirndaten machen würde – nämlich zentral sammeln und auswerten – könnte es sein, dass ein Machine-Learning-Verfahren aus diesen riesigen Datenmengen eventuell Eigenschaften ablesen kann, die man in einer Testgruppe von nur 50 Leuten nicht aus EEG-Daten herauslesen kann, weil die Datenmenge zu klein ist. Hier stellt sich dann wieder die Frage der Privatsphäre: Zwar könnte man sagen, dass auf einem individuellen Level der Datenschutz gewährt würde, weil die Daten anonymisiert sind, aber auf einem Gruppen-Level ist das dann schon nicht mehr der Fall, weil sich auf dieser Ebene Merkmale wie Geschlecht oder Rasse auslesen lassen könnten, was dann wiederum für Marketingzwecke verwendet werden kann.

WIRED: Sie forschen auch an der Kombination von Gehirndaten und Virtual Reality (VR). Mit Oculus ist Facebook einer der größten VR-Player. Wenn ich mir vorstelle, dass Facebook uns eine VR-Welt präsentiert, die an unsere Gehrinaktivität angepasst wird, klingt das so, als würde Facebook an der Matrix bauen. Wie klingt das für Sie?
Kellmeyer: Na ja, man sagt zwar immer, dass heutige VR-Systeme hoch immersiv wären, aber das sind sie nicht. Wir sehen das im Labor. In der Simulation weiß man immer noch, dass man sich in einer Simulation bewegt. Aber ein soziales Großexperiment, bei dem man andere als Avatar in der virtuellen Realität treffen kann – eine Art Second Life in der VR – hätte sicherlich eine große Attraktivität auf viele Leute. Und möglicherweise auch ein Abhängigkeitspotential. Man muss Dinge wie die Internet Gaming Disorder der WHO zwar auch kritisch sehen – Stichwort: Medikalisierung sozialer Phänomene – aber letztendlich ist es so, dass solche Systeme möglicherweise schon ins Belohnungssystem des Hirns eingreifen können und somit ein Abhängigkeitspotenzial haben könnten.

Man kann darauf Wetten, dass Facebook an einer sozialen VR-Plattform arbeitet

Philipp Kellmeyer

WIRED: Aber der Gedanke, an so etwas wie der virtuellen Spiele-Welt aus Ready Player One zu forschen, wäre für Facebook doch durchaus reizbar, oder nicht?
Kellmeyer: Wenn man mit dem kapitalistischen Verwertungsgedanken an die Sache herangeht und sagt: Das Ziel der Firma ist es, dass die Leute so viel Zeit wie möglich mit ihrem Produkt verbringen, dann ist jede Innovation, durch die die Leute noch mehr Zeit mit dem Produkt verbringen, natürlich im Interesse der Firma. Insofern kann man fast darauf wetten, dass sie an VR-basierten sozialen Plattformen arbeiten. Und dann könnte man natürlich auch in der VR Werbung schalten. Das ist ein riesiger Markt.

WIRED: Treffen wir uns dann in zehn Jahren in der VR zum Interview?
Kellmeyer: Da muss man sich fragen, ob die direkte Mensch-zu-Mensch-Beziehung vielleicht einen Wert hat, den man nicht durch eine Simulation emulieren kann. Eigentlich geht es doch um die Frage: Bekomme ich meinen Hintern noch vom Sofa hoch, um jemanden in real life zu treffen, oder reicht es mir, in der VR abzuhängen, weil mir alles andere keinen Mehrwert bringt?

WIRED: Was wäre denn einer dieser Mehrwerte einer direkten Mensch-zu-Mensch-Begegnung?
Kellmeyer: Das ist kompliziert. Ich würde sagen, dass ein sehr starker Aspekt der menschlichen Interaktionsfähigkeit davon abhängt, dass unser Leib – wie die Philosophen sagen würden – also unser physikalischer Körper in die Welt wirkt. Und die Repräsentation dieses Körpers in der Welt liefert uns ja auch haptische und andere sensorische Information zurück, die ein reines Simulationserleben nicht bieten kann. Zumal die Simulation ja primär visuell ist, oder höchsten audio-visuell. Wir unterschätzen vielleicht die Immersivität des echten Lebens. Manche sensorischen Inputs bemerken wir beispielweise gar nicht: Etwa die Propriozeption, also die Stellung unserer Körperteile zueinander, oder die Schwerkraft. All diese Dinge, die auf uns wirken und die unser Körper in Echtzeit verarbeitet, damit er den physikalischen Leib durch die Welt schleppen kann um andere zu treffen, sind ein ganz wesentlicher Bestandteil unseres Gefühls der Präsenz und des In-der-Welt-Seins, um es philosophisch auszudrücken. Das wäre etwas, das aktuelle Systeme überhaupt nicht emulieren können.

WIRED: Aber ist das nicht nur eine Frage der Genauigkeit der Simulation? Könnte nicht in der Zukunft ein Computer in der Lage sein, jede notwendige Information ins Gehirn einzuspeisen, die für ein Gefühl der Präsenz notwendig sind?
Kellmeyer: Das wäre das Gehirn-in-Tank-Argument, das auch der Matrix zugrunde liegt. Das halte ich allerdings neurophysiologisch für extrem unplausibel. Unsere Körperlichkeit in der Welt ist ein wesentlicher Bestandteil unserer Existenz, den man nicht durch bloße Stimulation oder Eingabe ins Gehirn reproduzieren kann. Zumal es bislang überhaupt nicht verstanden wurde, wie die Enkodierung – als das Gegenteil der Dekodierung – im Gehirn überhaupt funktioniert. Das alleine wäre ein Forschungsprogramm für die nächsten 100 Jahre.

Alle Artikel des WIRED2029-Specials, die vom 12. bis 19.12.2018 erscheinen werden, findet ihr hier.