/Roboter

Warum es uns schwer fällt, einen bettelnden Roboter auszuschalten

Katja Scherer 31.08.2018 Lesezeit 8 Min

Wir werden es im Alltag immer häufiger mit Robotern zu tun bekommen. Doch wie sollen wir uns ihnen gegenüber eigentlich benehmen? Eine junge Forscherin der Universität Duisburg-Essen zeigt, dass wir sie oft nicht wie Maschinen, sondern wie Menschen behandeln. Manchmal schaffen es Roboter sogar, unser Verhalten zu beeinflussen.

Er sitzt auf dem Tisch, den Rücken zur Wand, die Beine angezogen, die Arme lässig aufgestützt. Mit leicht geneigtem Kopf blickt der kleine Mensch-Roboter Nao sein Gegenüber aus blauen Kulleraugen an und sagt mit monotoner Stimme: „Nein, bitte schalt mich nicht aus! Ich habe dann Angst, dass es nicht mehr hell wird.“ Spätestens jetzt hat der kindsgroße Humanoide alle Aufmerksamkeit im Raum auf sich gezogen – außer die von Aike Horstmann. Die Doktorandin beobachtet viel lieber Naos menschliche Besucher: Wie reagieren sie auf das Flehen der sympathischen Maschine? Schalten sie den Roboter aus – oder lassen sie sich von ihm manipulieren?

Genau das hat die 25-jährige Sozialpsychologin in ihrer Masterarbeit an der Universität Duisburg- Essen untersucht. Das Ergebnis: Viele Menschen tun sich sehr schwer damit, den Roboter trotz seines Protests auszuschalten. Stundenlang hat die junge Frau Versuchsteilnehmer dabei beobachtet, wie sie verlegen auf ihrem Stuhl herumrutschten oder Nao fragten, warum er denn Angst habe. „Es ist schon verrückt“, sagt Horstmann. „Obwohl jeder weiß, dass eine Maschine keine Gefühle hat, können wir offensichtlich gar nicht anders als Mitgefühl zu empfinden.“ Sie blickt auf ihren mechanischen Schützling, der nun stumm abwartet, und muss lachen. „Selbst mir ging das anfangs so – obwohl ich die Texte für Nao ja selbst mitverfasst habe.“

Lassen wir uns von menschlich aussehenden Robotern manipulieren?

Bisher begegnen uns Roboter im Alltag nur beim Rasenmähen oder Staubsaugen. Trauen wir uns nicht, sie auszuschalten, schadet das höchstens unserer Stromrechnung. Aber wie ist das, wenn irgendwann Mensch-Roboter an der Hotelrezeption oder im Pflegeheim arbeiten? Wie leicht lassen wir uns von ihnen aus der Fassung bringen?

Die soziale Beziehung zwischen Mensch und Technologie beschäftigt Wissenschaftler seit es Computer gibt. Wahrscheinlich hat fast jeder schon einmal seinen alten Rechner angefeuert, wenn der zehn Minuten brauchte, um hochzufahren. Das Beispiel zeigt, dass wir bereits jetzt eine engere Beziehung zu unseren technischen Geräten haben als uns manchmal bewusst ist. Doch gerade humanoide Roboter, also Roboter, die uns Menschen ähneln, bringen die Verbindung auf eine neue Stufe. Die Forschung zeigt: Dort ist die soziale Interaktion am stärksten.

Aike Horstmann hat mit ihrer Masterarbeit neue Erkenntnisse geliefert und ist damit sogar in den USA bekannt geworden – ein Erfolg, den die Nachwuchsforscherin selbst noch gar nicht richtig fassen kann. „Wir hatten zwar damit gerechnet, dass das Thema die Öffentlichkeit interessiert, aber dass wir weltweit so viel Aufmerksamkeit bekommen, ist unglaublich.“ Sie ordnet einige Karten mit dem Namen von Wochentagen auf dem Tisch an, um ihren Versuchsaufbau zu erklären. Dann verkündet sie: „So, es kann losgehen!“

Das Versuchssetting ist simpel: Die 85 Teilnehmer in Horstmanns Studie bekamen zwei Aufgaben gestellt. Damit Nao ihnen helfen kann, einen fiktiven Wochenplan zu erstellen, mussten sie ihm in einem ersten Schritt verschiedene Karten mit Aktivitäten wie „Schwimmen“ zeigen. Im zweiten Schritt erzählten sie Nao, was sie an welchem Tag tun wollten. Den Studienteilnehmern wurde gesagt, dass das Spiel die Interaktionsfähigkeit des Roboters verbessern soll. Was sie nicht wussten: Eigentlich wurden sie selbst getestet und zwar ganz am Ende des Spiels, wenn es darum ging, Nao auszuschalten.

Interessant war aber, wie stark die Wirkung von Nao auf die Studienteilnehmer war.

Aike Horstmann, Sozialpsychologien

Bei 43 Teilnehmern „wehrte“ sich der Roboter gegen das Ausschalten. Das Ergebnis: 13 Personen ließen Nao kurzerhand angeschaltet, die übrigen 30 brauchten doppelt so lange wie die Personen aus der Vergleichsgruppe, bei denen Nao nicht bettelte. Bei der Befragung danach erklärten die Probanden am häufigsten, sie hätten nicht gegen den Willen des Roboters handeln wollen. Sechs Menschen hatten Mitleid mit ihm. Andere waren einfach von der Situation überrascht oder hatten Angst, etwas falsch zu machen. Horstmann hatte mit diesem Ergebnis zwar gerechnet. „Interessant war aber, wie stark die Wirkung von Nao auf die Studienteilnehmer war – und das, obwohl er seine Bitte, an bleiben zu dürfen, jeweils nur ein einziges Mal geäußert hat.“

Menschen wollen Maschinen nicht vor den Kopf stoßen

Das Phänomen, dass Menschen so emotional auf Maschinen reagieren, ist in der Forschung bekannt als media equals life oder kurz media equation. Medien oder Maschinen werden also von Menschen mit echtem Leben gleichgesetzt. Erstmals veranschaulicht haben das die Standford Professoren Byroon Reeves und Clifford Nass bereits 1996. Sie ließen Probanden Aufgaben an einem Computer lösen. Danach mussten die Studienteilnehmer die Leistung des Computers bewerten und zwar einmal am selben Rechner und einmal an einem anderen. Die Teilnehmer, die ihre Bewertung an jenem Computer abgaben, der ihnen vorher die Aufgaben gestellt hatte, gaben signifikant besseres Feedback – als würden sie die Maschine nicht vor den Kopf stoßen wollen.

Die Erklärung von Nass und Reeves: Computer sind zwar leblose Gegenstände, aber auf eine gewisse Art interagieren sie mit uns – zum Beispiel, indem sie uns mitteilen, dass wir eine bestimmte Aufgabe gut gelöst haben. Aus evolutionärer Sicht sind wir damit überfordert, so die These. Bisher gab es schließlich nur leblose Gegenstände wie Steine, die überhaupt nicht mit uns interagierten, oder Lebewesen wie Hunde, die auf unsere Handlungen reagieren. Gegenüber dieser neuen Form reagierender Objekte verhalten wir uns also so, wie wir es in den letzten Tausenden von Jahren bei anderen Lebewesen taten: Wir reagieren auf die sozialen Reize der Maschinen, indem wir sozial reagieren – media equals life.

Diese These von Reeves und Nass sei später in mehreren Studien bestätigt worden, erzählt Horstmann. So konnten Nass, Youngme Moon und Nancy Green sogar zeigen, dass im Umgang mit Computern auch Gender-Vorurteile eine Rolle spielten. Studienteilnehmer hielten in einem Versuch Computer mit männlicher Stimme für kompetenter als jene mit weiblicher Stimme. Auch da neigen wir also dazu, unsere sozialen Muster auf Maschinen zu übertragen. Und das treffe noch viel stärker auf Roboter zu, insbesondere auf Humanoiden, sagt Horstmann. Denn die senden noch deutlich mehr Reize aus als ein Computer.

Der Roboter macht sogar Witze

„Nao, zum Beispiel, mit seinen blauen Augen sieht nicht nur nett aus, auch die Sprache spielt eine sehr wichtige Rolle,“ sagt Horstmann. Dafür hat die Forscherin einige Rhetoriktricks angewandt. Im Gespräch mit den Studienteilnehmern ließ sie die kleine Maschine Witze reißen und von ihren Lieblingsspeisen erzählen. Manchmal nahm der Roboter sogar Bezug auf das, was vorher gesagt wurde – als habe er ein echtes Gedächtnis. Auf die Probanden, die nicht wussten, dass Horstmann während des Versuchs im Nebenzimmer saß und per Knopfdruck die Bandansagen abspielte, musste es so wirken, als könnten sie mit Nao hervorragend plaudern.

Sozialpsychologin Aike Horstmann und der Versuchsroboter Nao. 

Dass Menschen sich teils schwer tun, Roboter abzuschalten, zeigte schon ein Forscherteam um Christoph Bartneck von der Universität von Canterbury im Jahr 2007. Auch damals wurden die Studienteilnehmer aufgefordert, einen Roboter auszuschalten. Jene Probanden, die zuvor bei einem Spiel mit dem Roboter zusammengearbeitet hatten, brauchten im Schnitt dreimal länger. „Damals wurde allerdings nicht gezielt getestet, ob es einen Unterschied macht, wenn ein Roboter bewusst sozial auftritt und sich aktiv gegen das Abschalten wehrt“, sagt Horstmann.

Das hat sie nun nachgeholt. Sie hat ihren Test in zwei Versionen durchgeführt. Einmal ließ sie den Roboter besonders sozial auftreten, einmal eher neutral. Es zeigte sich, dass gerade bei der zweiten Version, das „Betteln“ des Roboters besonders starken Eindruck auf die Teilnehmer machte. „Das fand ich zuerst überraschend, aber eigentlich macht es Sinn: Gerade dann war Naos Bitte für die Probanden besonders überfordernd.“ Für die Sozialpsychologin zeigt das, dass wir vor allem dann durch Roboter beeinflusst werden können, wenn wir das bisherige Bild, das wir von einer Maschine haben, neu überdenken müssen. Das könnte gerade in den nächsten Jahren noch öfter der Fall sein.

Werden wir Roboter eher wie Handys oder wie Freunde behandeln?

Wie sich unser Verhalten gegenüber Robotern im Zeitverlauf entwickle, sei noch nicht erforscht, sagt Horstmann. Lernen wir zum Beispiel irgendwann, selbst humanoide Roboter ein- und auszuschalten wie ein Handy – oder fühlen wir uns ihnen irgendwann so nah, dass sie eher wie ein guter Freund für uns sind? Die Doktorandin versucht in ihrer Promotion nun erst einmal eine andere Frage zu lösen: Sie vergleicht, welche Erwartungen Menschen an Roboter haben – zum Beispiel durch Filme – und was die Begegnung mit echten Robotern dann bei ihnen auslöst. Noch sei die Auswertung nicht abgeschlossen, sagt Horstmann. Eines aber kann sie schon sicher sagen: „Trotz aller technologischer Fortschritte in den vergangenen Jahren werden die Fähigkeiten von Robotern von den meisten Menschen kolossal überschätzt.“ Auch die emotionalen.