/Science

MIT-Forscherin zeigt, wie man Computern Gefühle beibringen kann

Sarah Heuberger 11.10.2017

Nicht nur Wissenschaftler, auch Unternehmen wollen wissen, wie Computer Emotionen erkennen und simulieren können. Das war nicht immer so. Die Forscherin Rosalind Picard gilt als Begründerin des Affective Computing und erzählt im Interview von anfänglichen Hürden und kulturellen Unterschieden.

Technologien, die menschliche Gefühle erkennen und simulieren können, beschreibt man als Affective Computing. Rosalind Picard gilt als die Begründerin dieser Forschungsrichtung. Sie leitet die Affective-Computing-Forschungsgruppe am Media Lab des MIT und ist Mitgründerin der Startups Affectiva, eine Software zur Emotionsmessung, und Empatica, das Wearables zur medizinischen Nutzung herstellt.

Als Picard Mitte der 90er Jahre mit der Forschung über Emotionen begann, wollte zunächst niemand ihre Ergebnisse veröffentlichen. Mittlerweile ist Affective Computing eine so große Forschungsrichtung geworden, dass sie ihre eigenen Fachzeitschriften benötigt. Nicht nur die Wissenschaft, auch Unternehmen und die Werbeindustrie wollen die Technologien für sich nutzen. Ob den Menschen ein Produkt gefällt, wie sie einen Werbespot wahrnehmen oder welchem Kandidaten sie ihre Stimme geben wollen, wenn sie eine Debatte im Fernsehen sehen – all das kann aus Emotionen herausgelesen werden.

WIRED hat mit Rosalind Picard über Gesichtsausdrücke japanischer Geschäftsmänner beim Karaoke und über Möglichkeiten und Limits emotionaler Computer gesprochen.

WIRED: Warum war Emotionsforschung unter Wissenschaftlern lange Zeit eher ein Tabu?
Rosalind Picard: Emotionen hatten früher einen ganz anderen Ruf als heute. Jetzt verstehen die Menschen, wie wichtig es ist. Früher war es ein eher peinliches Thema, das als undurchdacht und unwissenschaftlich galt. Also wollte ich wirklich nicht mit Emotionen in Verbindung gebracht werden. Erst als ich versucht habe zu verstehen, wie das Gehirn funktioniert, habe ich festgestellt, wie wichtig Emotionen für das rationale Denken und für die intelligente Entscheidungsfindung sind. Oder dabei, wie wir mit einem Überangebot an Informationen umgehen. Unser emotionales System entscheidet, welche Informationen die wichtigen sind. Ich habe gemerkt: Verdammt, das kostet mich vielleicht meine Karriere, aber das sieht wichtig aus.

WIRED: Vor 20 Jahren haben Sie das Buch „Affective Computing“ veröffentlicht und damit eine neue Forschungsrichtung in der Computerwissenschaft geprägt. Wie waren die Reaktionen damals?
Picard: Am Anfang konnten die Leute gar nicht glauben, dass es dieselbe Rosalind Picard war. Sie haben gedacht, vielleicht gibt es ja zwei. Das Buch hielten sie für verrückt, aber ich hatte eigentlich den Ruf, seriöse mathematische Forschung zu betreiben. Ich glaube, ich hätte das Ganze nicht durchziehen können, wäre ich nicht am MIT Media Lab gewesen. Am MIT herrscht die Haltung, dass man etwas eben genau dann machen sollte, wenn es verrückt erscheint.

WIRED: Was hat den rasanten Aufstieg von Affective Computing vorangetrieben?
Picard: Ich weiß nicht, ob 20 Jahre unbedingt schnell sind. Ich wusste aber immer, dass es nur eine Frage der Zeit sein würde, bis die Leute merken, wie wichtig es ist, Emotionen zu verstehen. Auch die große Verfügbarkeit von Daten online hat dazu beigetragen. Als wir damit angefangen haben, Emotionen zu messen, waren wir auf die Daten aus dem Labor angewiesen. Wir waren also sehr limitiert, was das Budget und unsere Zeit betraf. Dann waren immer mehr Menschen online, wo man sowohl die Stimme als auch Gesichtsausdrücke messen kann. Die Physiologie online zu messen war schwieriger, aber jetzt kann man das zum Beispiel auch durch den Herzschlag und den Atem tun. Es gab eine Explosion an Daten und je mehr Beispiele wir haben, desto besser wird natürlich die Machine-Learning-Software. Die Technologie hat sich so entwickelt, dass man nicht nur Paper dazu veröffentlichen, sondern tatsächlich Menschen helfen kann.

WIRED: Wie misst man denn überhaupt Emotionen?
Picard: Zunächst einmal haben wir keine Möglichkeit, genau die Gefühle von jemandem zu messen. Wir können nicht einfach etwas ins Gehirn stöpseln und die Gefühle auslesen. Gefühle sind immer noch privat. Was wir messen können, ist, wie Gefühle Verhalten, Gesichtsausdrücke, die Hautoberfläche oder den Herzschlag verändern können. Alle diese Veränderungen bilden Gefühle nicht perfekt ab, aber sie geben uns spezifischere Informationen, was gerade passiert. Wenn jemand zum Beispiel sehr gelangweilt ist, wird der Herzschlag sehr langsam und die Augen schließen sich. Wir bringen Computern bei, Dinge besser zu verstehen, die Menschen sehen und verstehen können. Aber wir bringen ihnen auch Sachen bei, die die Menschen nicht sehen können. Das ist etwas umstrittener. Wir müssen in unserer Gesellschaft einen Dialog darüber führen, was wir mit diesen Daten tun oder nicht tun sollten.

WIRED: Messen Sie nicht eigentlich viel mehr Affekte als Emotionen?
Picard:
Als ich Affective Computing definiert habe, habe ich mich gefragt, ob es eher affektiv oder emphatisch heißen sollte. Ich habe viel mit der Bedeutung dieser Worte gerungen. Manche Menschen sagen, dass Emotionen eher etwas Positives oder Negatives sind, also glücklich oder traurig. Aber nehmen wir Interesse zum Beispiel – man kann an etwas interessiert sein, was positiv oder schrecklich ist. Es ist ein affektives Phänomen.
Seit Ewigkeiten streiten sich Psychologen über die Definition von Emotionen. Es ist aber ein bisschen wie bei Geologen, die um einen Stein vom Mount Everest herumstehen und darüber streiten, ob er zum Mount Everest gehört oder nicht. Aber ich glaube, wir müssen einfach den Mount Everest hochsteigen. Wenn man Technologien baut, braucht man dazu nicht unbedingt eine feste Begriffsdefinition. Unsere Definition ist etwas weiter gefasst, also nicht nur den Mount Everest, sondern auch ein bisschen von Tibet.

WIRED: Wie stellen Sie sicher, dass Sie in Ihrer Forschung auch kulturelle Unterschiede miteinbeziehen?
Picard:
Die Daten zeigen uns, dass es zwischen Kulturen große Ähnlichkeiten, aber auch ein paar signifikante Unterschiede gibt. Wir müssen einfach Daten über verschiedene Kulturen hinweg generieren und dürfen nicht einfach annehmen, dass die Bedeutung überall dieselbe sei. Meines Wissens nach hat Affectiva die meisten Daten über Kulturen hinweg gesammelt und sie haben tolle Weltkarten erstellt. Zum Beispiel darüber, wie viele Menschen in Europa, in England, Deutschland oder den USA lächeln. Oder Frauen und Männer im Vergleich, in großen Städten und auf dem Land. Sie finden alle möglichen Unterschiede, zum Beispiel auch darin, wie stark Emotionen in verschiedenen Kulturen zum Ausdruck gebracht werden. Aber auch der Kontext ist wichtig. Über Japan hört man oft, wie unemotional die Geschäftswelt sein soll. Jedes Mal, wenn ich das einem japanischen Geschäftsmann erzähle, bricht er in Lachen aus. Es hängt eben davon ab, ob man sich gerade in einer geschäftlichen Verhandlung oder bei einem lockeren sozialen Event befindet. Wenn man mit den Geschäftsmännern zum Karaoke singen ausgeht, zeigen sie sehr viele Emotionen und sind sehr expressiv. Diese Dimension muss man auch immer mitdenken.

WIRED: Dann trainiert man die Software auch immer dahingehend, dass sie den Kontext berücksichtigt?
Picard: Ja, Software braucht das. Die meiste Software heutzutage berücksichtigt nicht den Kontext, das ist zu komplex. Oder man bringt der Software nur einen bestimmten Kontext bei, kann dann aber auch nicht erwarten, dass sie auch außerhalb dieses Kontextes funktioniert. Es ist sehr schwierig, Emotionen in verschiedenen Kontexten zu verstehen.

WIRED: Dann ist die Fehlerquote bei der Emotionsmessung also immer noch hoch?
Picard: Es gibt viele Dinge, die wir noch nicht messen können. Zuerst einmal sind eben viele Dinge, die wir messen können, an den Kontext gebunden. Und wir können immer noch nichts messen, was dem ganzen Spektrum menschlicher Gefühle nahekommt. Die Menschen haben immer mehr Künstliche Intelligenz (KI) zu Hause. Da gibt es so viele verschiedene Kontexte, dass es schwierig wird für eine Alexa zum Beispiel, all diese verschiedenen Situationen zu verstehen und richtig zu reagieren. Aber die KI sammelt auch Daten und Feedback, ob die Leute Alexas Reaktionen gut oder schlecht fanden. Das wiederum hilft Alexa dabei, besser zu werden.

WIRED: Sie sind Mitbegründerin von Empatica, das das Armband Embrace auf den Markt gebracht hat. Wie funktioniert die Anwendung?
Picard:
Das Armband zeichnet alle möglichen medizinischen Daten auf, zum Beispiel darüber, wie viel man geschlafen hat. Bei mir waren es heute knapp sieben Stunden. Und es hilft dabei, epileptische Anfälle zu erkennen. Wenn das Gerät einen Anfall misst, schickt es einen sofortigen Alarm zu demjenigen, den man als Betreuer angegeben hat, der dann hoffentlich schnell da ist und hilft. Alle sieben Minuten stirbt jemand bei einem epileptischen Anfall. Es wurde bewiesen, dass die Wahrscheinlichkeit bei einem epileptischen Anfall zu sterben höher ist, wenn man alleine ist. Jemanden schnell zu alarmieren, könnte also Leben retten.

WIRED: Bei der Nutzung von Emotionsforschung gibt es nicht nur positive Beispiele. Der US-Grenzschutz zum Beispiel testet gerade Möglichkeiten, um Twitter-Profile via Sprachanalyse auf Stimmungen zu analysieren. Beunruhigt sie das Missbrauchspotential von Affective Computing?
Picard: Davon habe ich noch nichts gehört. Klingt gruselig. Wenn Menschen öffentlich ihre Gefühle zeigen, ist es eben öffentlich. Da kann man nicht viel machen. Man kann sich immer noch entscheiden, sie zu verstecken. Was mich viel mehr beunruhigt, ist, wenn man sich entschließt, seine Gefühle zu verstecken und trotzdem jemand versucht, sie auszulesen. Das kommt mir sehr falsch vor. Wir müssen einen Dialog darüber führen, wann Gefühle öffentlich sind und wann privat. Viele Menschen wollen die Emotionen ihrer Mitarbeiter messen, ihren Stress. Denen sage ich dann, dass wir vielleicht den Mitarbeitern Tools zur Verfügung stellen können, die ihren Stress überwachen. Aber der Boss sollte nicht wissen, wer gestresst ist. Die Technologie könnte zu den falschen Schlüssen führen. Außerdem sollte man seinen Mitarbeitern mehr Kontrolle geben, statt sie ihnen zu entziehen, wenn man will, dass sie sich produktiver und gesünder fühlen. Ansonsten erhöht man nur ihr Stress-Level und verschlechtert ihr Leben.

WIRED: Gibt es denn ein Limit, Maschinen Emotionen beizubringen?
Picard: Es gibt Limits und wir sollten uns diese Limits auch selbst setzen. Maschinen sollten ohne unser Einverständnis und Wissen keine Emotionen von uns messen können. Technische Einschränkungen gibt es, weil Maschinen einfach keine Gefühle oder ein Bewusstsein haben. Sie sind keine lebenden, fühlenden Wesen. Sie haben nicht dieselbe Hardware oder Biologie wie wir. Aber um eine emotionale Interaktion erfolgreich zu meistern, müssen sie nicht unbedingt so fühlen wie wir. Jede Frau, die ein Baby bekommen hat, weiß, dass ein Mann nicht verstehen kann, wie sich das anfühlt. Aber er kann sich immer noch dazu entscheiden, sich hilfreich zu verhalten. Wenn sie Schmerzen hat und er macht irgendwelche dummen Witze – raus mit ihm. Aber wenn er versucht, sie zu verstehen und sie weiß, dass er wenigstens versteht, was Schmerz ist, gibt es eine Möglichkeit sich zu verbinden, auch wenn man unterschiedlich verdrahtet ist.