86 Milliarden Nervenzellen besitzt das menschliche Gehirn. Die Natur will es so. Aber wer sagt, dass die Natur das letzte Wort haben muss? 75 Jahre nachdem Konrad Zuse die erste frei programmierbare Rechenmaschine in die Welt entließ, schickt sich die Digitaltechnik an, die Biologie zu übertrumpfen. Schnellere Prozessoren, effizientere Datenverarbeitung und komplexere Algorithmen, die dem Zusammenspiel der Neuronen nachempfunden sind: So hat sich die künstliche Intelligenz der natürlichen angenähert.
„Die Leistung erschwinglicher Rechner ist jetzt zum ersten Mal vergleichbar mit der kleiner Tierhirne“, sagt Jürgen Schmidhuber, KI-Forscher am Schweizer IDSIA-Institut und einer der Pioniere moderner neuronaler Netze. Für den 53-Jährigen besteht kein Zweifel, dass die Entwicklung weitergehen und eines Tages Systeme produzieren wird, die dem Menschen im Denken ebenbürtig sind. Ehe sie ihn überholen und um ein Vielfaches intellektuell überstrahlen werden. „Wir sind mit unserer Zivilisation nur ein Zwischenschritt“, glaubt Schmidhuber. „Es geht über die Menschheit hinaus und ähnelt der Erfindung des Lebens vor gut 3,5 Milliarden Jahren.“
Kaum ein Experte zweifelt daran, dass unsere Maschinen eines Tages mächtiger sein werden als wir selbst; dass die Erfindung über ihre Schöpfer triumphieren wird. Die Frage ist nur: Wie schnell kommt dieser Tag – und sollten wir uns vor ihm fürchten?
Systeme dürfen sich nur so verhalten, dass es dem Mensch nützt, bisher ist dieses Problem nicht gelöst
Zu den Mahnern gehören Stephen Hawking, Bill Gates und Tesla-Gründer Elon Musk. Alle sehen in einer künftigen Superintelligenz die Gefahr, dass die Technik sich verselbstständigt: Wenn Maschinen eigene Entscheidungen fällen, auch über Leben und Tod, wer garantiert, dass sie sich nicht irgendwann gegen den Menschen selber wenden? Etwa, weil sie zu dem Schluss kommen, dass die Menschheit der Erde zu viel Schaden antut. „Wir rufen die Geister“, warnt Musk in Erinnerung an die Geschichte vom Zauberlehrling, der seine Fähigkeiten fatal überschätzt.
Für Jürgen Schmidhuber gehören solche Bedenken nach Hollywood: „Keine einsame Superintelligenz wird alles kontrollieren.“ Eher sollten wir einen Wettbewerb der KI-Systeme erwarten, ähnlich wie in der Natur – und selbst wenn diese Intelligenzen der Kontrolle des Menschen entgleiten, gebe es keinen Grund, sich vor ihnen zu fürchten. „Wer klüger ist als andere, rottet die anderen deswegen nicht aus“, argumentiert Schmidhuber. Probleme entstünden nur, wenn verschiedene Spezies um dieselben Ressourcen streiten. KIs aber dürften mehr daran interessiert sein, das Weltall zu erobern, als sich auf der Erde mit dem Menschen aufzuhalten.
Stuart Russell ist skeptischer. Auch der Computerwissenschaftler von der UC Berkeley hält es für „sehr wahrscheinlich“, dass Maschinen intelligenter werden als ihre Schöpfer. „Das wirft die Frage auf, wie wir sicherstellen, dass diese Systeme sich ausschließlich so verhalten, dass es dem Menschen nützt“, sagt er. „Bisher ist dieses Problem nicht gelöst.“
Russell selbst forscht an einer Methode, KIs tief sitzende Selbstzweifel einzuprogrammieren. „So hätten sie ein Motiv, vorsichtig zu sein und Menschen zu erlauben, sie abzuschalten“, erklärt Russell. Grundsätzlich ist er zuversichtlich: „Es gibt Möglichkeiten, einige der größten Bedenken auszuräumen.“
Noch bleibt Zeit, den besten, sichersten Weg in die Zukunft zu finden. Allgemeine künstliche Intelligenz, da sind sich Optimisten und Pessimisten weitgehend einig, verlangt noch eine Reihe von technischen Durchbrüchen und wohl Jahrzehnte der Forschung. Vielleicht steht am Ende ein Modell, wie es sich Harri Valpola ausmalt: „Wir sollten uns an der Psyche von Hunden orientieren“, schlägt der Gründer des Startups The Curious AI Company vor. Dem Menschen zu gefallen, wäre dann das größte Ziel selbst superintelligenter Maschinen –„und wir hätten Systeme mit dem Gemüt eines Haustiers, aber dem IQ von Einstein hoch zehn.“
Dieser Artikel stammt aus der Herbstausgabe 2016 des WIRED-Magazins. Weitere Themen: der Web.de-Gründer und seine Suche nach dem ewigen Leben, ein Blockchain-Krimi aus Sachsen, Udacity-Gründer Sebastian Thrun, die Zukunft des Fliegens – und ein Punk, der uns vor der NSA schützen will.