Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Was passiert, wenn Maschinen klüger werden als wir?

von Karsten Lemm
Erstmals tritt eine Erfindung an, den Intellekt des Menschen zu überholen. Künstliche Intelligenz entwickelt sich schnell, vielleicht zu schnell. Microsoft, Google, Facebook, Apple, sie alle forschen daran. Vielen macht der schnelle Fortschritt aber Sorgen.

86 Milliarden Nervenzellen besitzt das menschliche Gehirn. Die Natur will es so. Aber wer sagt, dass die Natur das letzte Wort haben muss? 75 Jahre nachdem Kon­rad Zuse die erste frei programmierbare Rechenmaschine in die Welt entließ, schickt sich die Digitaltechnik an, die Biolo­gie zu übertrumpfen. Schnellere Prozessoren, effizientere Daten­verarbeitung und komplexere Algorithmen, die dem Zusammenspiel der Neuronen nachempfunden sind: So hat sich die künstliche Intelligenz der natürlichen angenähert.

„Die Leistung erschwinglicher Rechner ist jetzt zum ersten Mal vergleichbar mit der kleiner Tierhirne“, sagt Jürgen Schmidhuber, KI-Forscher am Schweizer IDSIA-Institut und einer der Pioniere moderner neuronaler Netze. Für den 53-Jährigen besteht kein Zweifel, dass die Entwicklung weitergehen und eines Tages Systeme produzieren wird, die dem Menschen im Denken ebenbürtig sind. Ehe sie ihn überholen und um ein Vielfaches intellektuell überstrahlen werden. „Wir sind mit unserer Zivilisation nur ein Zwischenschritt“, glaubt Schmidhuber. „Es geht über die Menschheit hinaus und ähnelt der Erfindung des Lebens vor gut 3,5 Milliarden Jahren.“

Kaum ein Experte zweifelt daran, dass unsere Maschinen eines Tages mächtiger sein werden als wir selbst; dass die Erfindung über ihre Schöpfer triumphieren wird. Die Frage ist nur: Wie schnell kommt dieser Tag – und sollten wir uns vor ihm fürchten?

Systeme dürfen sich nur so verhalten, dass es dem Mensch nützt, bisher ist dieses Problem nicht gelöst

Stuart Russell, Computerwissenschaftler UC Berkeley

Zu den Mahnern gehören Stephen Hawking, Bill Gates und Tesla-Gründer Elon Musk. Alle sehen in einer künftigen Superintelligenz die Gefahr, dass die Technik sich verselbstständigt: Wenn Maschinen eigene Entscheidungen fällen, auch über Leben und Tod, wer garantiert, dass sie sich nicht irgendwann gegen den Menschen selber wenden? Etwa, weil sie zu dem Schluss kommen, dass die Menschheit der Erde zu viel Schaden antut. „Wir rufen die Geister“, warnt Musk in Erinnerung an die Geschichte vom Zauberlehrling, der seine Fähigkeiten fatal überschätzt.

Für Jürgen Schmidhuber gehören solche Bedenken nach Hollywood: „Keine einsame Superintelligenz wird alles kontrollieren.“ Eher sollten wir einen Wett­bewerb der KI-Systeme erwarten, ähnlich wie in der Natur – und selbst wenn diese Intelligenzen der Kontrolle des Menschen entgleiten, gebe es keinen Grund, sich vor ihnen zu fürchten. „Wer klüger ist als andere, rottet die anderen deswegen nicht aus“, argumentiert Schmid­huber. Probleme entstünden nur, wenn verschiedene Spezies um dieselben Ressourcen streiten. KIs aber dürften mehr daran interessiert sein, das Weltall zu erobern, als sich auf der Erde mit dem Menschen aufzuhalten.

Stuart Russell ist skepti­scher. Auch der Computerwissenschaftler von der UC Berkeley hält es für „sehr wahrscheinlich“, dass Maschinen intelligenter werden als ihre Schöpfer. „Das wirft die Frage auf, wie wir sicherstellen, dass diese Systeme sich ausschließlich so verhalten, dass es dem Menschen nützt“, sagt er. „Bisher ist dieses Problem nicht gelöst.“

Russell selbst forscht an einer Methode, KIs tief sitzende Selbstzweifel einzuprogrammieren. „So hätten sie ein Motiv, vorsichtig zu sein und Menschen zu erlauben, sie abzuschalten“, erklärt Russell. Grundsätzlich ist er zuversichtlich: „Es gibt Möglichkeiten, einige der größten Bedenken auszuräumen.“

Noch bleibt Zeit, den bes­ten, sichersten Weg in die Zukunft zu finden. Allgemeine künstliche Intelligenz, da sind sich Optimisten und Pessimisten weitgehend einig, verlangt noch eine Reihe von technischen Durchbrüchen und wohl Jahrzehnte der Forschung. Vielleicht steht am Ende ein Modell, wie es sich Harri Val­pola ausmalt: „Wir sollten uns an der Psyche von Hunden orientieren“, schlägt der Gründer des Startups The Curious AI Company vor. Dem Menschen zu gefallen, wäre dann das größte Ziel selbst superintelligenter Maschinen –„und wir hätten Sys­teme mit dem Gemüt eines Haustiers, aber dem IQ von Einstein hoch zehn.“

Dieser Artikel stammt aus der Herbstausgabe 2016 des WIRED-Magazins. Weitere Themen: der Web.de-Gründer und seine Suche nach dem ewigen Leben, ein Blockchain-Krimi aus Sachsen, Udacity-Gründer Sebastian Thrun, die Zukunft des Fliegens – und ein Punk, der uns vor der NSA schützen will.

GQ Empfiehlt
Die neue WIRED ist da!

Die neue WIRED ist da!

von WIRED Editorial