Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Warum wahre Intelligenz für lernende Maschinen unerreicht bleibt

von Karsten Lemm
Maschinen haben viel gelernt. Doch wahre Intelligenz entzieht sich auch den besten Systemen. Was fehlt?

Schon clever, wie Dora ihre Aufgabe löst. „Finde die Cornflakes-Schachtel“, lautet ihre Mission, und obwohl sie ihre Umgebung nicht kennt, verliert die Maschine wenig Zeit mit Suchen. Kamera und Sensoren signalisieren Dora, ob sie sich in einem Büro oder einem Apartment befindet. Die Mess­ergebnisse gleicht sie mit einprogrammiertem Wissen über menschliches Wohnen ab und rollt bald zielstrebig in die Küche, wo sie nach kurzem Umschauen entdeckt, was sie gesucht hat. Ganz ohne Hilfe.

Der Roboter der Univer­sität Birmingham – Spitzname: Dora the Explorer – zeigt beispielhaft, wie weit künstliche Intelligenz (KI) gekommen ist: Lernende Systeme vollbringen mittlerweile rou­tinemäßig Kunststücke, die noch vor wenigen Jahren unmöglich schienen. Sie steuern Autos durch dichten Stadtverkehr, übersetzen als Simultandolmetscher, helfen Ärzten bei der Krebstherapie, indem sie Tumore identifizieren und mehr Fachliteratur auswerten, als jeder Mensch es könnte – schneller und genauer noch dazu.

Deep Learning nennt sich das Verfahren, auf das viele dramatische Fortschritte in jüngerer Zeit zurückgehen. Statt der Maschine genau vorzuschreiben, was sie tun soll, gibt man ihr die Möglichkeit, sich die Welt zu erschließen wie ein kleines Kind. Ausprobieren und schauen, was herauskommt, führt dabei weitgehend von allein ans Ziel, weil die Software nach jedem Rechenschritt prüft, welches Versuchsergebnis näher am gewünschten Resultat liegt.

Die chaotische Menschenwelt sperrte sich dagegen, kühl und logisch berechnet zu werden

So tasten Deep-Learning-­Systeme sich an die Lösung heran und lernen etwa, Katzen von Hunden zu unterscheiden, indem sie Milliarden von YouTube-­Videos auswerten. Oder sie bringen sich das chinesische Go-Spiel bei, das für seine Komplexität berühmt ist, bis nach unzähligen Testspielen kein Mensch mehr mithalten kann – so, wie es Googles Alpha­Go-System im Frühjahr vorgeführt hat.

Deep Learning ist ein Triumph für eine Disziplin, die jahrzehntelang nur mühsam vorankam. Dabei hatten ihre Erfinder sich anfangs ausgesprochen optimistisch gezeigt. Innerhalb eines Jahrzehnts sollte es möglich sein, „eine vollkommen intelligente Maschine“ zu bauen, spekulierte 1963 der Stanford-Forscher John Mc­Carthy, der den Begriff künstliche Intelligenz prägte. Doch die chaotische Menschenwelt sperrte sich dagegen, kühl und logisch berechnet zu werden. Spürbaren Fortschritt brachten erst neuronale Netze, die sich an der Funktionsweise des Gehirns orientieren: Sie verteilen die Analyse auf Knotenpunkte, die den Nervenzellen im Gehirn ähneln.

Bei modernen Systemen liegen zwischen Dateneingabe und -ausgabe zahlreiche Schichten der Informationsverarbeitung, daher der Begriff Deep Learning. Jede Schicht profitiert von den Erkenntnissen vorheriger Berechnungen. So lernt das System etwa, zunächst die Umrisse eines Kopfes zu sehen, ehe es anfängt, zwischen Mund und Nase zu unterscheiden (s. Grafik unten).

Mustererkennung ist die große Stärke dieser Methode. Sie funktioniert allerdings nur, wenn gigantische Datenmengen zur Verfügung stehen, die sich mit der Rechenkraft ganzer Server­Farmen auswerten lassen. Praktikabel wurde Deep ­Learning deshalb erst, als das Internet anfing, neuronale Netze mit dem Input von Milliarden Menschen zu versorgen. Fotos, Videos, Facebook-­­Updates: Alles dient als Lernmaterial, jeder Klick macht KI-Systeme schlauer und ein Stück mächtiger.

„Wir werden wohl ein ganzes Jahrzehnt brauchen, um all die Wege zu finden, auf denen sich Deep Learning als nützlich erweisen kann“, sagt der Informatiker Stuart Russell von der UC Berkeley. Zugleich warnt er davor, wieder einmal zu schnell zu viel zu erwarten: „Die Technologie ist sehr nützlich für Dinge wie Bild- und Sprach­erkennung“, sagt Russell, einer der führenden KI-Forscher. „Aber sie hat auch klare Grenzen.“

Die größte Einschränkung ist die Unfähigkeit des Computers, die Welt, mit der er es zu tun hat, tatsächlich zu verstehen. Selbst wenn der Rechner Katzen und Hunde unterscheiden kann, weiß er dadurch noch nicht, wie die Tiere sich meist verhalten – dass Katzen kratzen, Hunde kläffen und beide sich gern von Zweibeinern ihr Frühstück servieren lassen. „Bei Alltagsintelligenz haben wir noch eine Riesenlücke“, räumt Wolfgang Wahlster ein, Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz. „Es fehlt das Hintergrundwissen, um wesentliche Merkmale einer Situation zu erfassen.“

+++ Mehr von WIRED regelmäßig ins Postfach? Hier für den Newsletter anmelden +++ 

Das führt dazu, dass alle KI-­Systeme, egal, wie schlau sie scheinen mögen, in Wahrheit noch sehr beschränkt sind. Sie beherrschen nur Aufgaben, die ­ihnen ausdrücklich beigebracht wurden. Dora etwa, der erkundungsfreudige Roboter aus Birmingham, wäre aufgeschmissen, wenn er plötzlich Tee kochen sollte. „Alles, was wir derzeit sehen, sind sehr spezifische KI-Anwendungen“, erklärt der Computer­wissenschaft­ler Jeremy Wyatt, der das Do­ra-Projekt leitet. Schwache künstliche Intelligenz nennen Forscher das – im Gegensatz zu starker, die eines Tages allgemein einsetzbar sein könnte, dem Menschen gleichkommen, ihn sogar um ein Vielfaches überflügeln könnte.

Roboter-Entwickler stehen zusätzlich vor der Herausforderung, dass ihre Maschinen die Welt nicht nur verstehen, sondern auch mit ihr interagieren sollen: die Dose Tomaten erkennen, greifen und dann öffnen. „Wir Menschen sind Multitalente“, erklärt Wyatt. Roboter brauchen Algorithmen, die unterschiedliche Situationen meistern, aber auch Sensoren, Gelenke und Motoren, die ihnen körperliche Fähigkeiten verleihen. „Vor uns liegt noch ein langer, langer Weg“, sagt Wyatt. „Aber die Reise hat begonnen.“

Dieser Artikel stammt aus der Herbstausgabe 2016 des WIRED-Magazins. Weitere Themen: der Web.de-Gründer und seine Suche nach dem ewigen Leben, ein Blockchain-Krimi aus Sachsen, Udacity-Gründer Sebastian Thrun, die Zukunft des Fliegens – und ein Punk, der uns vor der NSA schützen will.

GQ Empfiehlt