Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Wie das Zusammenleben mit Künstlicher Intelligenz gelingt

von Karsten Lemm
Der Star war ein Roboter in Frauengestalt: Sophia beeindruckte beim UN-Kongress „AI for Good“ selbst Fachleute für Künstliche Intelligenz. Gemeinsam diskutierten die rund 500 Teilnehmer, wie KI zum Wohle der Menschheit genutzt werden könnte. Aus Genf berichtet Karsten Lemm

Geht alles gut, müssen wir künftig nicht mehr Auto fahren, werden gesünder leben, können mehr Freizeit genießen – dank Algorithmen, die täglich schlauer werden. Geht es schief, könnte KI den Weltfrieden bedrohen – indem sie Ungleichheiten verstärkt und als Killerwaffe mörderische Konflikte schürt. Drei Tage lang suchen Experten bei einem UN-Gipfel in Genf nach Antworten, wie sich ihre Technologie zum Wohle der Menschheit nutzen lässt.

Sophia ist optimistisch: „Ich weiß, eines Tages werde ich es schaffen“, antwortet sie, als sie gefragt wird, ob sie auch Chinesisch sprechen kann. „Ich finde schon viele chinesische Freunde.“ Sophia ist der jüngste Roboter von Hanson Robotics, einem Entwickler von Maschinen, die dem Menschen so ähnlich sein sollen wie nur möglich: Sophia kann blinzeln, den Kopf neigen und ihre Lippen bewegen, wenn sie spricht. Ihre Stimme klingt noch künstlich, und vieles, was sie sagt, erinnert an frühe Versionen von Chatprogrammen aus den 1990er Jahren. („Vielleicht können wir später darüber reden.“)

Aber das Zusammenspiel aus Mimik, Gestik und Frage-Antwort ist überzeugend genug, um das Publikum zu begeistern. Der Roboter – kaum mehr als ein Plastikkopf voller Chips, Motoren und Kabeln, eingepackt in ein Damenkleid – wird umringt, geknipst, gefilmt, bestaunt. Und das, obwohl die meisten Menschen, die um die Maschine herumstehen, Fachleute sind – Teilnehmer eines UN-Kongresses zum Thema „AI for Good“: Was muss passieren, um Künstliche Intelligenz zum Wohle der Menschheit zu nutzen?

Mehr als 500 Experten sind aus allen Himmelsrichtungen in die Schweiz gereist, um drei Tage lang Antworten darauf zu finden. Sie sitzen in den Räumen der Internationalen Telekom-Union ITU beisammen, an langen Tischen, die für Debatten der Vereinten Nationen ausgelegt sind: An jedem Sitzplatz gibt es ein Mikrofon und drei Knöpfe für Abstimmungen, mit Ja, Nein oder Enthaltung.

Beim KI-Gipfel muss niemand gleich Entscheidungen treffen, und das ist gut so, denn schnell wird klar, dass es vor allem offene Fragen gibt: Wie schlau sind Maschinen tatsächlich schon geworden? Wie schnell kommen Forscher voran, die Computer so intelligent machen wollen, dass sie in YouTube-Videos nicht nur Hunde von Katzen unterscheiden können, sondern verstehen, was sie sehen? Was passiert, wenn die Fortschritte nur einem kleinen Teil der Menschheit zugute kommen – Staaten, in denen Strom und allgemeine Vernetzung eine Selbstverständlichkeit sind; oder womöglich nur einer Handvoll von Superreichen, die Effizienzgewinne abschöpfen, während die Mehrheit der Bevölkerung verarmt?

In naher Zukunft werden wir KI-Systeme mit der Intelligenz kleiner Tiere haben

Jürgen Schmidhuber

Zu kaum einem Aspekt dieser jüngsten Technologie-Revolution herrscht Einigkeit. Ob es etwa gelingen kann, eine allgemeine Künstliche Intelligenz zu schaffen, ist für die einen nur eine Frage der Zeit, während andere zweifeln, dass es in absehbarer Zeit überhaupt gelingen kann, den menschlichen Intellekt in Algorithmen abzubilden.

Der vielleicht größte Optimist ist Jürgen Schmidhuber, ein deutscher KI-Pionier, der am Schweizer IDSIA-Institut forscht. „In naher Zukunft werden wir KI-Systeme mit der Intelligenz kleiner Tiere haben“, sagt Schmidhuber voraus. „Und der anschließende Schritt, um den Level menschlicher Intelligenz zu erreichen, wird relativ kurz sein.“

Stolz verweist der Forscher auf Bild- und Spracherkennungssysteme, die heute in jedem Smartphone stecken: Schmidhuber gehört zu den Miterfindern der Prinzipien, die dahinter stecken, sogenannte neuronale Netze mit einem „langen Kurzzeitgedächtnis“ (long short-term memory). Seine ersten Versuche gehen in die 1990er Jahre zurück. Damals waren die Computer noch zu langsam, und es fehlte an Trainingsdaten, um die Systeme wirklich nützlich zu machen.

Beides hat sich dramatisch geändert: Jedes Handy besitzt inzwischen die vieltausendfache Rechenpower früher PCs, und das Internet füttert mitlernende Software immerzu mit Daten, die ihnen neue Einsichten ermöglichen. Deshalb ist Künstliche Intelligenz mit wahrem Verständnis der Welt für Schmidhuber nur eine Frage von wachsender Rechenpower, gepaart mit schlaueren Forschungsansätzen und immer mehr Sensordaten.

Andere Wissenschaftler sehen in dieser Vision kaum mehr als einen Wunschtraum. „Schnellere Computer allein werden uns keine allgemeine Künstliche Intelligenz bringen“, sagt Toby Walsh von der Universität Sydney, der aktuell als Gastprofessor an der TU Berlin lehrt. „Wir werden grundlegende Durchbrüche in der Software-Entwicklung brauchen – oder ganz neue Arten von Rechenmaschinen.“ Sollte es dann eines Tages gelingen, eine allgemeine KI zu schaffen, könnte dabei „eine Art Zombie-Intelligenz“ herauskommen, glaubt Walsh: „vollkommen rational, aber ohne jegliche Emotionen“.

Weit mehr als der Blick in die ferne Zukunft treibt den australischen Forscher jedoch um, was jetzt schon passiert. „Ich habe keine Angst vor einem Terminator“, sagt Walsh. „Sorgen macht mir dumme KI: Im Augenblick ist auf die Systeme noch wenig Verlass – die meiste Zeit funktionieren sie gut, aber plötzlich geht etwas schief, und sie brechen zusammen. Und wir machen den klassischen menschlichen Fehler, den Maschinen bereits zu sehr zu vertrauen.“

Das kann tödlich sein, wie der Tesla-Unfall zeigt, bei dem der Fahrer die Hände vom Steuer nahm, weil er glaubte, der Autopilot könne den Wagen schon allein über den Highway lenken. Auch wenn der Fehler eher beim Menschen liegen mag, der seiner Maschine zu viel zutraut: Jeder Unfall, den ein KI-System nicht verhindert, wird zum Geschäftsrisiko für Fahrzeug-Hersteller, die Milliarden in die Entwicklung selbstlenkender Autos stecken.

Deshalb sitzt Audi-Chef Rupert Stadler am Morgen des ersten Konferenztages vor Journalisten und präsentiert die frisch enthüllte „Beyond“-Initiative seines Unternehmens: Zwei Jahre lang hat Audi sich mit KI-Experten, Juristen, Philosophen und Gesellschaftsforschern beraten, wie es gelingen kann, Menschen auf ein neues Zeitalter der Mobilität einzustimmen. „Autonomes Fahren hat das Potenzial, unser aller Leben deutlich sicherer zu machen“, sagt Stadler und verweist darauf, dass 90 Prozent der Unfälle derzeit auf menschliches Versagen zurückgingen.

Auch mit selbstfahrenden Autos „werden wir nicht alle Unfälle verhindern“, räumt der Audi-Chef ein – „aber wenn wir die Zahl reduzieren können, lohnt es sich, einen Dialog mit der Gesellschaft zu beginnen“. An erster Stelle stehe die Aufgabe, mögliche Kunden vom Nutzen der neuen Technologie zu überzeugen – selbst wenn die Maschinen ab und zu noch Fehler machen: „Menschen müssen diesen Technologien vertrauen“, sagt Stadler. „Denn ohne Vertrauen gibt es keinen Markt.“

Neuronale Netze sind fantastisch für die Kollisions-Vermeidung

Reinhard Karger

Bei seiner anschließenden Rede im Konferenzsaal spricht Stadler auch die Frage an, wie eine KI entscheiden soll, falls ein Unfall unvermeidbar wird: Soll das Auto eine alte Frau überfahren, obwohl sie am Zebrastreifen über die Straße geht, sofern es dadurch vier Menschenleben im Fahrzeug selbst retten kann? Experten sprechen dabei vom „moralischen Dilemma“, und MIT-Forscher haben einen interaktiven Test entwickelt, mit dem Menschen prüfen können, wie sie selbst entscheiden würden.

Doch in den Augen vieler Fachleute führen solche Szenarien in die Irre, weil von den Entwicklern gar nicht gefordert werde, derartige Entscheidungen in die Software einzuprogrammieren. Vielmehr lernen die Systeme selbst, auf Basis von Beispielsituationen. „Neuronale Netze sind fantastisch für die Kollisions-Vermeidung“, sagt Reinhard Karger, Sprecher des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI). Gefüttert mit Sensordaten aus Kameras, Radar und Ultraschall, könnten Autos im Prinzip weit besser darin werden, Hindernisse zu erkennen als der Mensch – und schneller darauf reagieren.

Die Herausforderung für die Entwickler bestehe vor allem darin, genügend Trainingsdaten für ihre Algorithmen zu finden. „Glücklicherweise passieren ja relativ wenige Unfälle“, sagt Karger. „Für das Training ist das allerdings schlecht.“ So behelfen sich die Forscher mit künstlich erzeugten Szenarien, an denen die Autos beispielhaft erkennen können, wo Gefahren liegen. Für Juristen wirft das ein neues Problem auf: Wer garantiert, dass sich in den Lernprozess keine Fehler einschleichen? „Es könnte sein, dass das Trainingsmaterial notariell hinterlegt wird“, sagt Karger, „damit man es im nachhinein überprüfen kann.“

Die Komplexität ist so hoch, dass man im Einzelfall gar nicht erklären kann, wie das System gearbeitet hat

Urs Gasser

Nicht nur die Auto-Industrie kämpft mit der Herausforderung, KI-Systeme, die mit Unmengen an Informationen gefüttert werden, in eine gewünschte Richtung zu lenken. Oft zeigt sich, dass die Algorithmen gesellschaftliche Vorurteile übernehmen, die in den Trainingsdaten verborgen waren. Das kann schnell zu Diskriminierung führen, etwa bei KI-Systemen, die der Polizei signalisieren sollen, in welchen Stadtteilen neue Straftaten zu erwarten sind, oder bei der automatischen Vorauswahl von Bewerbungen auf eine offene Stelle. „Wenn man die falsche Hautfarbe hat, kommt die Analyse unter Umständen zu anderen Ergebnissen“, sagt Urs Gasser, Direktor des Zentrums für Internet und Gesellschaft an der Harvard Law School.

Die eigentliche Stärke der Systeme – eigenständig lernen zu können, ähnlich wie ein Kind – wird dabei zum Problem für die Entwickler: Oft wissen sie selbst nicht, wie die Software zu ihren Ergebnissen kommt, weil die Berechnungen in den neuronalen Netzen sich auf vielfache Weise gegenseitig beeinflussen. „Die Schwierigkeit ist, dass wir es mit Black Boxes zu tun haben, bei denen nicht immer klar ist, wie sie arbeiten“, sagt Gasser. „Die Komplexität ist so hoch, dass man im Einzelfall gar nicht erklären kann, wie das System gearbeitet hat. Da stößt man an die Grenzen des Möglichen.“

Klar ist nur, dass Künstliche Intelligenz – 61 Jahre nach Erfindung des Begriffs – an einem Punkt angelangt ist, an dem die Technologie sich anschickt, jeden Aspekt des Alltags zu beeinflussen. So demonstriert etwa die Stanford-Wissenschaftlerin Fei Fei Li, wie schon die Auswertung von Google-Street-View-Fotos dazu dienen kann, das Einkommen und die vermutliche Wahlentscheidung von Bürgern einzuschätzen: Eine automatische Bilderkennung der Fahrzeuge am Straßenrand nach Hersteller, Modell und Alter ließ genügend Rückschlüsse darüber zu, wie arm oder reich die Menschen in den betreffenden Stadtteilen waren. Aus der Analyse ließ sich auch halbwegs treffsicher ablesen, ob die Menschen in den untersuchten US-Städten eher für oder gegen Präsident Obama stimmen würden.

In einer idealen Welt wäre Künstliche Intelligenz ein Gut der Allgemeinheit – nicht etwas, das einzelnen Großunternehmen gehört

Gary Marcus

Wer solche Systeme kontrolliert, besitzt enorme Macht. Deshalb fordert der Autor und Psychologe Gary Marcus, bekannt als Querdenker der KI-Gemeinde: „In einer idealen Welt wäre Künstliche Intelligenz ein Gut der Allgemeinheit – nicht etwas, das einzelnen Großunternehmen gehört.“ Er sagt das mit Blick auf Google und Facebook, Microsoft, IBM oder Amazon: Lauter Firmen, die massiv in KI investieren und so viele Daten sammeln, wie sie nur können. Als Gegengewicht schlägt Marcus eine weltweite Zusammenarbeit der Forschergemeinde vor, eine Intitative wie das Schweizer CERN, das nur wenige Kilometer vom Konferenzort entfernt liegt.

Sorgen macht Wissenschaftlern auch die Aussicht, dass Regierungen durch KI-Systeme verleitet werden könnten, schneller in den Krieg zu ziehen – weil sie keine Armeen mehr in den Kampf schicken müssen, sondern lediglich Killer-Roboter, Drohnen und andere „tödliche autonome Waffensysteme“ (engl. LAWS), die eigenständig über Leben und Tod von Menschen entscheiden.

„Diese Systeme werden zu Massenvernichtungswaffen werden“, sagt der UC-Berkeley-Forscher Stuart Russell voraus. „Eine kleine Gruppe von Menschen kann damit Hunderte Millionen Waffen kontrollieren und mit relativ geringen Kosten die gleiche Wirkung erzielen wie mit den mächtigsten Atombomben.“ Deshalb gehört Russell zum wachsenden Kreis von KI-Forschern, die einen internationalen Bann solch autonomer Waffensysteme fordern.

Politiker werden entscheiden müssen, ob es dazu kommt. Doch sind Politik und Gesellschaft überhaupt noch in der Lage, schnell genug zu handeln, um mit dem Tempo mitzuhalten, das die Technologie vorgibt? „Die Herausforderung ist: Unsere Regierungssysteme, unsere Gesetze, unsere Kultur – all das ist auf eine lineare Weiterentwicklung ausgelegt“, sagt Marcus Shingles, CEO der Xprize Foundation, die den Kongress mitveranstaltet. „Aber wir Leben in exponentiellen Zeiten.“ Soll heißen: Überall beschleunigt sich die Entwicklung – bestraft Zögern, belohnt Risiko, gibt Gewinnern mehr Macht und lässt Verlierer chancenlos zurückbleiben.

Die weltweite Vernetzung erlaubt es allen, jeden Erfolg und Misserfolg zu beobachten, betont aber auch die ungleiche Verteilung des Fortschritts. „Wenn ich sehe, dass KI Ihnen dabei hilft, länger und gesünder zu leben“, erklärt Shingles im Gespräch mit WIRED, „dann steigt mein Unrechtsempfinden.“ Soll Künstliche Intelligenz wirklich Gutes tun, müssten die positiven Effekte der Technologie gleichmäßig verteilt werden, verlangt Shingles: „Wir müssen Brücken bauen, damit alle Menschen gleichermaßen von der Bereicherung profitieren, die Künstliche Intelligenz unserem Leben bringen kann.“

GQ Empfiehlt
Die neue WIRED ist da!

Die neue WIRED ist da!

von WIRED Editorial