Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Machines Of Loving Grace / Algorithmen sind keine guten Personenvermittler

von Jürgen Geuter
Algorithmen sind überall. Jeder hat ständig mit ihnen zu tun, viele fürchten sie, doch die wenigsten verstehen tatsächlich, wie sie funktionieren. In seiner WIRED-Kolumne durchleuchtet Jürgen Geuter die mathematischen Problemlöser, die unsere Welt zu lenken scheinen. Diesmal: Algorithmen, die sich selbst weiterbilden.

Die Automatisierung der Arbeitswelt schreitet mit stoischer Unausweichlichkeit voran. Nachdem die Industrie schon seit Jahrzehnten durch Maschineneinsatz ihre Effizienz um ein Vielfaches erhöht hat, geraten nun auch solche Jobs unter Druck, die bisher als immer noch sicher galten: Vor zwei Wochen ging es in dieser Kolumne um Systeme, die kreative Tätigkeiten durchführen können. Software zum Beispiel, die automatisch aus Fakten lesbare Texte erzeugen kann.

Es gibt heute kaum einen Gesellschaftsbereich, in dem keine Jobs durch Automatisierung in Gefahr sind. Ob Industrie, Dienstleistungssektor oder sogar Carework: Die Maschinen und Automatisierungen kommen. Noch sind viele Maschinen zu teuer, um sie produktiv einzusetzen, doch diese vermeintliche Sicherheit schmilzt langsam aber sicher weg. Das Versprechen, durch den Wandel von der Industrie- zur Dienstleistungsgesellschaft vor den Problemen durch Automatisierung und Globalisierung sicher zu sein, war eine Chimäre.

Sind Wäsche sortieren und das Suchen von Katzenbildern die Zukunft unserer Arbeit?

Automatisierung und Globalisierung hängen eng zusammen: Beide basieren darauf, die (Zwischen-)Ergebnisse und Prozesse unserer Arbeit möglichst stark zu vereinfachen und zu standardisieren. So können an sich komplexe Produkte mit deutlich weniger gut ausgebildeten und damit weniger gut bezahlten Menschen hergestellt werden. Die Beispiele zur automatischen Texterzeugung aus der letzten Folge „Machines Of Loving Grace“ zeigen genau das: Bestimmte Textarten können auf einfache Bausteine heruntergebrochen werden, die dann auch eine Maschine zusammensetzen kann.

Nun gibt es viele Tätigkeiten, die sich nicht so einfach in standardisierte Formeln und Prozesse übersetzen lassen. Dinge, die uns Menschen sehr leicht fallen, die aber Maschinen vor immense Probleme stellen. Einen Berg Wäsche sortieren zum Beispiel. Oder aus einer Menge Fotos diejenigen herauszupicken, auf denen eine Katze zu sehen ist. Liegt hier die Zukunft der Arbeit und unserer Jobs? Ich habe da leider schlechte Nachrichten.

Es gibt eine ganze Klasse aus unterschiedlichen lernenden Algorithmen, die heute schon zu beeindruckenden Leistungen imstande sind. Aber eigentlich muss man allen Algorithmen die Welt erklären, ihnen das Wissen einprogrammieren, das sie zur Lösung der ihnen zugedachten Probleme brauchen. Was macht lernende Algorithmen so speziell?

Lernende Algorithmen tun etwas, vielleicht sogar sehr gut. Aber warum? Weiß man nicht.

In den letzten Wochen wurde viel über BRETT berichtet, einen Roboter der Universität Berkeley. BRETT kann Handtücher falten, Lego-artige Steinchen zusammenstecken und Deckel auf Flaschen drehen. Das klingt gar nicht so spannend — doch niemand hat BRETT erklärt, wie er diese Aufgaben genau lösen soll. BRETT hat das selbst gelernt. Die Arten von Lernalalgorithmen, die BRETT einsetzt, werden „Deep Learning“-Algorithmen genannt, und sind lose an die Funktionsweise des menschlichen Gehirns angelehnt. Ähnlich wie in unserem Kopf werden künstliche „Neuronen“ miteinander verschaltet, zu einem sogenannten neuronalen Netz. An dieses werden Eingangdaten angelegt, zum Beispiel Bilder, Texte oder — in BRETTs Fall — Informationen über die Lage der Objekte im betrachteten Raum.

Jedes einzelne Neuron im Netzwerk entscheidet nun — abhängig von den Impulsen aus den Neuronen, die mit seinen Eingängen verbunden sind — ob es einen Impuls weiterleitet oder nicht. Erst wenn ein gewisser Schwellenwert erreicht wird, „schaltet“ das Neuron, sonst bleibt es still. Dabei gewichtet jedes Neuron unterschiedliche Impulse höher oder niedriger. Es „mag“ quasi bestimmte Vorgänger mehr als die anderen. Am Ende kommt eine Entscheidung dabei heraus, etwa die Feststellung, dass ein Bild eine Katze enthält, oder der Befehl an den Greifarm, sich um 45 Grad zu drehen.

Nachdem das System seine Aufgabe gelöst hat, kommt das Lernen ins Spiel: Entweder werden von außen die Ergebnisse bewertet und dem System dieses Zeugnis zur Verfügung gestellt. Oder das System selbst bewertet die eigenen Ergebnisse anhand einer mathematischen Zielfunktion (zum Beispiel: Wie viele Schritte habe ich zum Lösen meiner Aufgabe gebraucht?). Dann probiert man das Spiel nochmal. Und nochmal. Und nochmal. Maschinen haben Geduld und können das 24 Stunden, 7 Tage die Woche.

Sind Computer nicht viel fairer als Menschen, wird ein Bewerbungsverfahren durch sie nicht viel besser?

Und irgendwann hat man das System so trainiert, dass es Dinge kann, die man niemals mit statischen Algorithmen hätte lösen können. Google nutzt das zum Beispiel bei seinem Fotodienst Google+ Photos: Dort kann man nach „cat“ suchen und bekommt wirklich fast alle eigenen Bilder angezeigt, die eine Katze abbilden. Auch einige andere Begriffe funktionieren. BRETT hingegen hat durch ewiges Trainieren gelernt, wie er Handtücher falten kann. Und durch noch mehr Training wurde er immer schneller. Dabei sind die Systeme sehr flexibel bei ihren Eingabewerten: BRETT erkennt Faltbares in einem chaotischen Haufen aus Wäsche, Google+ entdeckt Katzen auf nahezu beliebigen Fotos.

Das Problem dabei haben eigentlich nur wir Menschen: Denn niemand weiß mehr genau, warum ein solches lernendes System nun gerade die richtige Antwort geliefert hat. Oder ob die Lösung wirklich richtig oder ideal ist. Wo es bei traditionellen Algorithmen meistens möglich ist, die Entscheidungen nachzuvollziehen, entziehen sich lernende Algorithmen oft genau diesem externen Verständnis. Sie tun etwas, und tun das vielleicht sogar sehr gut. Aber warum? Weiß man nicht.

Das wäre weniger dramatisch, wenn es nur ums Handtuchfalten ginge. Aber natürlich hört es im Labor nicht auf. Die Firma Psyware aus Aachen beispielsweise wendet solche Maschinenlernsysteme auf die psychologische Bewertung von Menschen an: Anstelle teurer und langwieriger Assessments von Bewerbern durchzuführen, kann das PRECIRE-System des Unternehmens schon nach wenigen Minuten Telefongespräch Persönlichkeitsprofile erzeugen, die — wie Psyware sagt — so gut sind wie die von professionellen Psychologen. Und sind Computer nicht viel fairer als Menschen? Ist so ein Bewerbungsverfahren nicht viel besser?

Der Computer sagt: Nein. 

Leider wissen wir das nicht, denn die Ergebnisse solcher Systeme sind eben nicht so richtig nachvollziehbar. Warum wird eine bestimmte Person abgelehnt? Aus Kompetenzgründen oder weil die Trainingsdaten des Systems falsch oder unangemessen sind? PRECIRE beispielsweise weist unterschiedlichen Worten bestimmte Charakteristika zu: Die häufige Verwendung von „man“ wird als unverbindlich eingeordnet. Aber gilt das für alle Dialekte und sozialen Schichten? Insbesondere bei trainierten Maschinen, die Entscheidungen über Menschen treffen sollen, ist die Gefahr der unbewussten Diskriminierung durch die Entwickelnden immens. Während andere daran arbeiten, Diskriminierung im Bewerbungsprozess zu minimieren, würde sie in einem Computersystem plötzlich zur „objektiven Wahrheit“ — und das ohne die Möglichkeit, nachzuvollziehen, wie genau die Bewertung entstanden ist.

Für viele Firmen ist die Idee, Menschen standardisiert und effizient bewerten zu können, ein kostensparender Traum. Für die Betroffenen aber offensichtlich ein Horrorszenario: Anstelle eines Dialogs während der Bewerbung für einen Job endet das Gespräch in Zukunft möglicherweise nach einer Minute mit der Aussage „Der Computer sagt: Nein“.

Lernende Softwaresysteme sind faszinierend. Aber so leistungsfähig sie auch sein mögen: Leider lernen sie genau das, was wir in sie hineinstecken, unsere impliziten Annahmen, Vorurteile und Modelle der Welt. Und wir sind nur allzu oft keine guten Lehrer. 

GQ Empfiehlt