Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Can't touch this – Warum Interaktionsdesigner den Bildschirm als Schnittstelle abschaffen wollen

von Chris Köver
Swipe, tipp, wisch, glotz: Bildschirme bestimmen unser Leben. Interaktionsdesigner würden sie am liebsten abschaffen. Denn die beste Schnittstelle zwischen Mensch und Maschine ist: gar keine.

Dieser Artikel erschien zuerst in der gedruckten Ausgabe des WIRED Magazins im April 2016. Wenn ihr die Ersten sein wollt, die einen WIRED-Artikel lesen, bevor er online geht: Hier könnt ihr das WIRED Magazin testen.

Du drehst an einem Knopf und wählst einen Song aus. Du schiebst mit dem Daumen einen Regler nach rechts, und das Lied wird lauter. Alles wie gewohnt. Nur: Da ist gar kein Knopf, da ist kein Regler, kein Touchscreen. Du bewegst deine Finger, und die werden zur Geisterhand im leeren Raum: Was Googles Gruppe Advanced Technologies and Projects, kurz ATAP, unter dem Namen Project Soli in einem Video präsentiert, erinnert an einen Zaubertrick. Einen allerdings, bei dem nicht nur das Kaninchen zum Verschwinden gebracht wird, sondern der Hut des Magiers noch dazu, in dem das Kaninchen stecken müsste.

Hinter Project Soli verbirgt sich eine ultrasensible Radartechnik, die feinste Fingerbewegungen erkennen kann und die Interaktion zwischen Mensch und Maschine ohne physische Bedienelemente ermöglicht. Doch nicht nur den Bildschirm und die Knöpfe braucht es nicht mehr, auch die Maschine, die gesteuert wird, muss nicht notwendigerweise mehr im Raum sein. Das Verschwinden der Objekte, für deren Gestaltung traditionell die De­signer zuständig sind, ist in diesem Fall der Beginn eines neuen Designs, eben des der Interaktion.

Am Anfang von Project Soli, sagt dessen deutscher Chefdesigner Carsten Schwesig, stand eine Be­obachtung: Geräte werden immer kleiner, die Technik schrumpft – doch was nicht schrumpft, sind unsere Finger. Die sind als Werkzeuge ziemlich klobig, wenn es darum geht, kleine Bildschirme zu bedienen. „Wir können die Dinge immer kleiner machen, aber ab einem bestimmten Punkt funktioniert die Interaktion via Touch einfach nicht mehr“, sagt Schwesig.

Schwesigs Job als Interaktionsdesigner ist es, unsere Begegnungen mit Maschinen möglichst angenehm zu gestalten. Soll heißen: angenehm für uns, nicht für die Maschinen. Und wenn ein Touchscreen nicht mehr passt, denkt sich Schwesig eben etwas Besseres aus. Zum Beispiel ein unsichtbares Interface wie bei Project Soli, das den physischen Kontakt zwischen Mensch und Maschine erübrigt.

Das klingt erst mal gut. Denn Bildschirme schleichen sich immer weiter in unser Leben und schieben sich zwischen die Dinge und uns. Durchschnittlich achteinhalb Stunden pro Tag verbringen wir mittlerweile vor ihnen. Wir gucken drauf, wenn wir Texte schreiben oder Serien gucken; wenn wir nach der nächsten Bar suchen oder dem Weg dorthin; wenn wir wissen wollen, was unsere Freunde machen, wie viele Schritte wir heute gegangen sind oder was wir ein­kaufen wollten. Und weil das noch nicht genug ist, checken wir immerzu auf ihnen, den Bildschirmen, ob jemand irgendwas geliket, geteilt oder kommentiert hat, das wir über ihn, den Bildschirm, im Nirgendwo des Netzes gepostet haben.

„Unsere Liebe für digitale Interfaces ist außer Kontrolle geraten“, schreibt Golden Krishna. „Wir sind so besessen von ihnen, das ruiniert Zukunftsinnovationen.“ Krishna ist Interaktionsdesigner wie Schwesig, sein Essay The Best Interface Is No Interface ist einer der meistdiskutierten Designtexte der letzten Zeit. Inzwischen ist daraus ein Buch und eine Art Bewegung geworden. Ihr Schlachtruf: #NoUI, kein User-Interface. Ihre Forderung: Der Bildschirm als Schnittstelle muss weg.

Dabei fanden auf ihm digitale Revolutionen statt. Das grafische User-Interface des Apple Macintosh etwa war in den 80er-Jahren eine Sensation: Wir Menschen mussten nicht mehr lernen, wie Maschinen zu sprechen. Wir brauchten nur noch wissen, was ein Schreibtisch ist und ein Papierkorb und wie man mit Ordnern umgeht.

Vor zehn Jahren brachte die Einführung des Multi-Touch-Screens einen weiteren Schritt. Keine Bürometapher mehr. Nur noch Objekte, die man hin und her schieben kann wie im echten Leben. „Das Graphical User Interface war der Schritt von Superexperten zu allen, die ein Büro kannten“, sagt Patrick Baudisch, Professor für Interaktionsdesign am Hasso-Plattner-Institut in Potsdam, „und Touch war dann der Schritt von allen, die ein Büro kannten, zu allen Menschen ab dem Alter von zwei Jahren. Damit hat man 98 Prozent der Menschheit abgeholt.“

Das wirkliche Problem mit dem Interface ist, dass es ein Interface ist.

Don Norman

Wenn der Screen also den Zugang fast aller Menschen zu digitaler Technologie einfacher machte, warum will die NoUI-Fraktion ihn loswerden? Don Norman, Designkritiker und einer der Vorreiter des NoUI-Ansatzes, sagt: „Das wirkliche Problem mit dem Interface ist, dass es ein Interface ist. Interfaces stehen im Weg.“ Wer will schon darüber nachdenken, dass er einen Computer benutzt, wenn er doch eigentlich eine Nachricht schreiben, ein Auto lenken oder eine Kiste Weißwein bestellen will?

Norman glaubt, für die Interaktion zwischen Menschen und Maschinen gelte das Gleiche wie für jedes gute Design: Es sollte sich um den Menschen drehen, der es benutzt. Die beste Interaktion sei deshalb diejenige, während der wir gar nicht mehr das Gefühl haben, eine Maschine zu gebrauchen. Und das werde erreicht, wenn es zwischen uns und dem, was wir erledigen wollen, keinen Bildschirm mehr gebe, nichts mehr anzufassen oder wegzuwischen. Interaktionsdesigner, fordern Krishna und Norman, müssten aufhören, stets nur in Apps und grafischen Interfaces zu denken, und sich stattdessen wieder darauf besinnen, was die beste Lösung für ein Problem sei. Handele es sich dabei um die Bedienung eines Kühlschranks oder Getränkeautomaten, so der NoUI-Glaubenssatz, ist die Lösung: wenigstens kein Screen.

Um sich gelungene Beispiele dafür anzusehen, muss man gar nicht in die Zukunft schauen. So hat Siemens bereits im Jahr 1999 gemeinsam mit Mercedes eine besonders einleuchtende Methode entwickelt, ein Auto ohne Schlüssel zu öffnen: Berührt man den Griff, überprüft ein Sensor im Wagen, ob ein Schlüssel in der Nähe ist, und die Tür öffnet sich von selbst. Als Fahrerin tue ich also, was ich ohnehin tun würde: Ich fasse den Türgriff an, den Rest erledigt das Auto. Google testet in San Francisco gerade unter dem Namen Hands Free ein System, bei dem man keine Geldbörse mehr hervorkramen muss, um im Restaurant zu bezahlen. Einfach bestellen und sagen, dass man mit Google zahlen will – und die App, in der man vorher seine Kontodaten hinterlegt hat, erledigt das von der Hosentasche aus.

Unsere Liebe für digitale Interfaces ist außer Kontrolle geraten. Wir sind so besessen von ihnen, das ruiniert Zukunftsinnovationen.

Golden Krishna

Im Moment erfordern die meisten dieser NoUI-Interaktionen noch ein Gerät, das man mitführen muss. Aber immerhin braucht man es nicht mehr in die Hand zu nehmen, keine App mehr zu öffnen, sich durch kein Menü mehr zu klicken. Bald werden die Prozessoren und Sensoren unabhängig von einem Gerät bereits in unserer Kleidung vernäht sein, wir werden sie auch direkt auf unseren Körpern tragen, als Linse auf der Netzhaut etwa.

Designer müssen dafür dem Formlosen noch eine Form geben: Wie interagiert man mit einem unsichtbaren Interface wie dem von Googles Project Soli? Woher soll man überhaupt wissen, dass eines da ist? Wie groß ist das Feld, in dem sein Sensor Bewegungen erkennt? Wie signalisiert man, dass man eine Interaktion beginnt oder beendet? „Eine Türklinke“, sagt Schwesig, „drückt ihre Funktionalität durch ihre Form aus, ihre Position und Ausrichtung an der Tür. Aber unser System ist unsichtbar, es gibt keine inhärente Art, in der das System dem Nutzer seine Features kommunizieren könnte.“

Eine Tür hat auch den Vorteil, dass man sofort rückgemeldet bekommt, ob die eigene Handlung erfolgreich war: Die Tür ist auf. Woher weiß ich aber, dass ein Sensor meine Bewegung erkannt und auch richtig interpretiert hat? Ob ich einen von mir gewünschten Radiosender ausgewählt habe, bekomme ich noch mit. Wenn ich aber versehentlich das Garagentor ein Stockwerk tiefer geöffnet habe, merke ich das im Zweifel erst Stunden später.

Und dann die alles entscheidende Frage: Mit welchen Gesten soll man dieses System überhaupt steuern? Gesten entsprechen den Tastenkombinationen in einem grafischen Interface, die wir als Abkürzungen nutzen können. Doch auf dem Desktop gibt es auch ein Menü – wenn ich die Tasten für Drucken, Kopieren oder Speichern nicht im Kopf habe, kann ich nachschauen. „Discoverability“ nennen Interaktionsdesigner diese Möglichkeit, sich in unbekanntem Terrain zurechtfinden zu können. Bei einem unsichtbaren Interface funktioniert das aber nicht. „Gestensteuerung“, sagt Interaktionsforscher Baudisch, „ist ungefähr so, als hätte man bei Word das Menü entfernt und müss­te raten, welcher Shortcut zu welcher Aktion führt.“

Hoffnung bietet der Umstand, dass wir alle bereits ein bestimmtes Repertoire von Interaktionen kennen. Eine automatische Tür, sagt Schwesig, sei schließlich auch ein Interface, mit dem wir uns zu verständigen gelernt haben: Sehen wir keine Klinke an einer Tür, gehen wir einfach auf sie zu und erwarten, dass sie sich öffnet.

„Im Fall von Project Soli waren die Möglichkeiten bereits durch die Technologie vorgegeben“, sagt Schwesig. Der Radarsensor sei besonders gut darin, feine Bewegun­gen zu registrieren; statische Ges­ten hingegen wie „Daumen hoch“ eigneten sich weniger gut. Bei der weiteren Arbeit stellten Schwesig und sein Team fest, dass viele der Aktionen, die sie auslösen wollten, der Kommunikation mit der physischen Welt ähneln – einen Knopf drücken, einen Regler verschieben. Der Vorteil dieser Gesten ist, dass wir sie bereits aus analogen Zeiten kennen. Das macht es aus Designer-Perspektive leicht, sie mit Aktionen zu verknüpfen: Ich schiebe mit dem Daumen einen virtuellen Regler auf dem Zeigefinger nach links – das Lied, das gerade läuft, wird leiser. Ich drücke einen Knopf – die Musik geht aus.

Die Nachteile sind aber ebenso offensichtlich: Wir kennen diese Gesten, weil wir früher an echten Knöpfen gedreht haben. Die später Geborenen haben das nicht. Schon heute verstehen viele Kinder nicht, dass bestimmte Bildschirme nicht durch Berührung gesteuert werden können: Sie tatschen ratlos auf Fernsehmonitoren herum.

Wenn ein Gerät besonders einfach zu benutzen ist, nennen wir dessen Design intuitiv oder natürlich – der Erfolg von Apple etwa hängt an dieser Idee. Das hat aber nichts mit einer angeborenen Fähigkeit zu tun. Dass uns ein Interface natürlich vorkommt, liegt daran, dass es uns vertraut ist. Für uns kann das heute eine Tastatur sein, für Jüngere der Touchscreen. Und eine nächste Generation wird vielleicht ebenso selbstverständlich unsichtbare Regler mit den Fingern in der Luft verschieben – und ansonsten über Sprachassistenten wie Siri, Alexa und Cortana mit Computern kommunizieren.

Ich glaube, dass wir auch in Zukunft in der virtuellen Realität große Displays aufrufen werden, die in der Luft hängen werden.

Don Norman

Aber diese Methoden der Mensch-­Maschine-Interaktion unterscheiden sich im Maß an Komplexität, das sie ermöglichen. Denen, die mit Gesten oder Sprache gesteuert werden, fehlt die Tiefe, um die vielen Ebenen an Untermenüs anzusteuern, die auf Bildschirmen darstellbar sind; sie können dem User auch keine komplexeren Rückmeldungen liefern. Letztlich wird es in Zukunft eher einen Mix der Interaktionsarten geben. Denn um Texte zu schreiben, gibt auch Don Norman zu, sei die Tastatur in Verbindung mit irgendeiner Form von Monitor auch dann noch eine der besten Optionen, wenn wir mal nicht mehr an einem Schreibtisch, sondern in virtuellen Räumen arbeiten: „Ich glaube, dass wir auch in Zukunft in der virtuellen Realität große Displays aufrufen werden, die in der Luft hängen werden.“

Auch um eine von vielen Optionen auszuwählen, ist ein visuelles Menü praktisch. Von Computerspielen kennt man das, wenn es darum geht, die Waffen oder Rüstung zu wechseln. Das Startmenü, das neulich in einem Video für die Microsoft HoloLens zu sehen war, scheint Normans Vermutung zu bestätigen. Vielleicht, sagt Norman, könnte man sich auf eine Universalgeste oder ein Wort verständigen, mit der man dieses Menü aufrufen kann, um die Optionen präsentiert zu bekommen. Kinder, die mit Virtual Reality aufwachsen, würden das später mal als sehr intuitiv empfinden.

Die Voraussetzung dafür, dass der Bildschirm so weit wie möglich aus unserem Leben verschwindet, ist letztlich, dass die Zahl der Interaktionen zwischen Mensch und Maschine sinkt. Die Anhänger des NoUI hoffen da auf zwei Entwicklungen: leistungsstärkere Sensoren und intelligentere Maschinen. Letztere beobachten uns immer genauer und verstehen uns immer besser – ohne dass wir uns ihnen noch groß erklären müssten. Sie spüren, wie schnell unser Herz schlägt und wie oft wir uns in der Nacht im Schlaf umdrehen. Sie wissen, welche Route wir zur Arbeit nehmen, welche Serien wir schauen und in welchem Rhythmus wir beim Tippen den Touchscreen berühren

Damit verbinden sich zwei Grundsatzfragen: Sind wir bereit, uns als Wesen zu betrachten, deren Existenz durch Wiederholungshandlungen geprägt ist, was uns für Maschinen super vorhersehbar macht? Und wollen wir uns ihrem Kontrollregime so weit unterwerfen, dass sie die Steuerung unseres Alltags weitgehend übernehmen? Wenn wir beide Fragen bejahen, begeben wir uns in den Bereich der sogenannten predictive interaction: Je mehr Geräte über uns wissen und je besser sie werden, eigene Schlüsse daraus zu ziehen, desto seltener müssen wir uns durch überflüssige Apps und Menüs klicken. Unsere Maschinen werden wissen, was wir als Nächstes tun werden, noch bevor wir es tun.

Unangenehm ist, dass solche intelligenten Systeme demnächst nicht nur wissen, was ich einkaufe, sondern auch, wann ich mit wem Sex habe.

Intelligente Thermostate von Nest, sich selbst aufpumpende Autoreifen von Goodyear und auto­nome Waschmaschinen von Whirl­pool gibt es schon. Das Internet of Things wird die relativ unkomplizierten Automatisierungen für den Alltagsbedarf erledigen. McDonald’s ist bereits einen Schritt weiter: Die Fast-Food-Kette hat ein intelligentes System getestet, das anhand das Automodells vorhersagt, welche Bestellung ein Drive-through-Kunde aufgeben wird. Die Trefferquote war erstaunlich hoch: mehr als 80 Prozent.

Noch kühnere Versuche in diese Richtung sind die persönlichen Assistenten, die Google und Amazon gerade weiterentwickeln. Google Now zeigt auf Basis meiner vergangenen Suchen und Bewegungsdaten morgens schon das Wetter, die Verkehrslage und Nachrichten zu den von mir bevorzugten Themen. Amazons Wohnungsas­sistent Echo ist im Sinne des Geschäftsmodells von Amazon zwar vor allem dazu gedacht, komfortabel online einzukaufen und weniger dazu, Informationen abzurufen. Echo lernt aber durch das fast ständige Zuhören die Vorlieben seiner Nutzer immer besser kennen. Die Vermessung des Menschen wird über seine Einkäufe und Suchverläufe hinaus umfassend.

Die passende Polemik zu den Vorteilen solcher Systeme kommt wieder vom No-Interface-Autor Golden Krishna: Dumme Computer und Geräte zwingen uns, sie mit jedem kleinsten bisschen Wissen selbst zu füttern. Dieses Unglück könnten wir uns ersparen, indem wir ihre Sensoren und Algorithmen in die Lage versetzen, diese Informationen selbst zu sammeln – wo und wann es sich anbietet. Ein Computer, der in der Lage ist, „mathematische Formeln in Millisekunden zu knacken und auf Pedabytes von Daten online zuzugreifen“, schreibt Krishna, sollte nicht auf unseren User-Input angewiesen sein.

Aus der Nutzerperspektive kann das wundervoll sein, eine Erfahrung, die Futuristen und Interak­tionsdesigner gerne als magisch beschreiben: Das Gerät macht von selbst, was ich will. Allerdings ist das Szenario auch gruselig. Denn im Tausch gegen Bequemlichkeit gebe ich etwas auf – neben meinem womöglich bloß narzisstischen Glauben an meine Einzigartigkeit als unberechenbares Subjekt: meine Daten. Was passiert mit denen? Dient deren Sammeln nur dazu, mein Leben einfacher zu machen? Und werden sie sicher und gut verschlüsselt verwahrt?

Ziemlich unangenehm ist jedenfalls die Vorstellung, dass solche intelligenten Systeme demnächst nicht nur wissen, was ich einkaufe und welche Routen ich zurücklege, sondern auch, was ich esse, wie mein Blutdruck im Schnitt ist und wann ich mit wem Sex habe. Noch unangenehmer wird sie, weil ich weiß, dass die Firmen, denen ich das Wissen überlasse, nicht in erste Linie meine, sondern vor allem ihre eigenen finanziellen Interessen verfolgen. Was gewinne ich, was gebe ich dafür auf?

Eine andere Frage ist die der Machbarkeit. Wie viele unserer Handlungen und Wünsche werden intelligente Systeme so vorhersagen, dass wir nicht mehr mit den Maschinen interagieren müssen? Wie komplex werden die Tätigkeiten sein, die wir an sie outsourcen können? In der Forschung zur Mensch-Maschine-Interaktion ist das eine Art religiöse Frage. Die einen glauben, es sei nur eine Frage der Zeit, bis Maschinen unsere Gedanken lesen können. Andere, unter ihnen Don Norman, sind sich sicher, dass keine noch so intelligente dazu je in der Lage sein wird.

Statt auf AI, Artificial Intelli­gence, setzen Norman und andere daher auf IA, Intelligente Augmentation. Oder wie Norman es lieber nennt: Human-Technology-Teamwork. Viel zu viele Maschinen unterjochten uns im Moment, sagt er: Wir müssen lernen, wie man sie korrekt bedient, und wenn wir daran scheitern, geben wir uns selbst die Schuld. „Das liegt aber nicht daran, dass der Mensch fehlerhaft ist, sondern dass das Design schlecht ist.“

Echtes Teamwork bestehe nicht darin, dass eine Maschine dem Menschen abverlange, auch zur Maschine zu werden. Sondern entstehe aus einem Design, das beiden Teamplayern erlaube, ihre je eigenen Stärken auszuspielen. Im Fall der Maschine: Präzision und die Fähigkeit zu endlosen Wiederholungen, ohne je müde zu werden. Im Fall des Menschen: die Fähigkeit zur Kreativität, zur Neugier, dem wilden und unvorhersehbaren Denken. „Für Ingenieure, die unsere Computer entwerfen, ist das nur ein Problem. Für uns ist es das, was uns menschlich macht“, sagt Norman.

Das System muss nicht meine Gedanken lesen können, es kann mich einfach fragen.

Don Norman

Er wünscht sich ein Navigationssystem, das ihn nicht nur auf die schnellste Route führt, sondern auch versteht, dass er auf dem Weg zu seinem Büro an der University of California in San Diego lieber die malerische nimmt. „Dazu muss das System nicht meine Gedanken lesen können“, sagt Norman. „Es kann mich einfach fragen: ,Willst du lieber am Meer entlangfahren?‘“

Human-Technology-Teamwork, das klingt gut: nach Computern, die mir Arbeit abnehmen, statt Arbeit zu machen; nach Maschinen, die auf meiner Seite stehen. Die morgens meine Fahrradreifen aufpumpen, nachmittags die Heizung anstellen und mir abends bereits ein Taxi bestellen, während ich mich noch in der Bar von meinen Freunden verabschiede. Und die mich am nächsten Morgen rechtzeitig wecken, wenn ein neuer Tag beginnt.

Fraglich ist weniger, ob es so kommen wird. Sondern worauf wir dann die Zeit verschwenden, die wir dank der Maschinen gewinnen. Uns Menschen ist da noch immer etwas eingefallen. Im Zweifel waren es stets: neue Maschinen, die es neu zu bedienen galt. 

GQ Empfiehlt
Die neue WIRED ist da!

Die neue WIRED ist da!

von WIRED Editorial