/Google

Alphabets neue KI hat mehr als nur einen Trick auf Lager

Tom Simonite 07.12.2017 Lesezeit 3 Min

Die meisten Künstlichen Intelligenzen sind nur auf eine einzige Aufgabe spezialisiert. Mit AlphaZero beweist Google, dass es möglich ist, flexiblere KIs für mehrere Anwendungsbereiche zu bauen.

Künstliche Intelligenzen hatten schon immer nur einen einzigen Trick auf Lager. Jahrzehntelang haben Forscher hochspezialisierte Programme geschrieben, die den Menschen in immer komplexeren Spielen schlagen konnten. Sie haben Tic Tac Toe gemeistert und schließlich auch Dame und Schach. Zuletzt hat die Forschungsgruppe DeepMind von Alphabet die Welt mit einer AI überrascht, die das chinesische Brettspiel Go gewinnen kann. Diese KI-Champions können aber nichts anderes, als die Aufgabe zu erfüllen, für die sie geschaffen waren.

DeepMind hat nun die erste Künstliche Intelligenz vorgestellt, die gleiche mehrere Brettspiele beherrscht. Ein Paper, das jetzt veröffentlich wurde, beschreibt die Software AlphaZero als KI, die sich selbst zu einem Meister in Schach, Go oder dem „japanischen Schach“ Shogi trainieren kann.

AlphaZero könnte dann zwar immer noch nicht alle drei Spiele gleichzeitig spielen. Aber die Fähigkeit, eins von drei unterschiedlichen und komplexen Spielen zu erlernen, ist bemerkenswert. Nicht einmal die besten KIs sind dazu fähig, zwischen verschiedenen Aufgaben zu wechseln. Das ist auch ein Grund, warum sich viele Experten sicher sind, dass es noch eine ganze Weile dauern wird, bis Maschinen zur Konkurrenz für Menschen werden.

Der Durchbruch mit AlphaZero zeigt, dass es möglich ist, KI-Systeme zu Generalisten statt Spezialisten zu machen. In einem Tweet schrieb Julian Togelius von der New York University, dass eine wirklich vielseitige KI immer noch weit entfernt ist, das Paper aber „exzellente Arbeit“ auf dem Weg dahin geleistet hat.

AlphaZero kann sich jedes Spiel in seinem Repertoire von Grund auf beibringen, braucht aber vorher die Regeln. Das Programm spielt gegen sich selbst und verbessert mit jeder Runde seine Fähigkeiten. Es probiert verschiedene Züge aus und findet so heraus, welche am schnellsten zu einem Sieg führen.

Die Mechanismen basieren auf dem AlphaGoZero, den DeepMind im Oktober vorstellte und der sich selbst das Spiel Go beibringen kann. Für den AlphaZero haben die Forscher dem Algorithmus ein Update verpasst, der nun aus einer größeren Auswahl an Zügen wählen und damit potenziell mehrere Spiele erlernen kann.

Das Paper beschreibt, wie sie drei untrainierte KIs dazu gebracht hat, jeweils ein anderes Spiel zu erlernen. Da Menschen nicht mehr gut genug sind, ist AlphZero gegen den besten künstlichen Spieler von Schach, Go und Shogi angetreten. Die neue Software hat alle drei Programme ziemlich schnell schlagen können. Um Schach zu meistern, brauchte AlphaZero vier Stunden, zwei Stunden für Shogi und in acht Stunden war AlphaZero besser als AlphaGoZero.

Je flexibler autodidaktische Software wird, desto schneller kann Google womöglich seine KI-Technik weiterentwickeln. Als nächstes Ziel soll ein Starcraft-Bot entstehen. Das Videospiel gilt als sehr komplex, da es viel mehr Möglichkeiten, Züge und Funktionen gibt, als bei einem Brettspiel. Außerdem müssen Spieler auch verborgene Züge ihres Gegners vorausahnen.

AlphaZero bleibt aber trotzdem eine recht begrenzte Künstliche Intelligenz. Das menschliche Gehirn kann immerhin viel mehr als nur drei Brettspiele erlernen. Es kann alle denkbaren Logikrätsel lösen und hat künstlerisches und räumliches Vorstellungsvermögen. Außerdem braucht es viel weniger Energie als AlphaZero. Wie DeepMind schreibt, brauchte das Programm 5000 von Googles leistungsfähigsten Machine-Learning-Prozessoren, kurz TPU.

Dieser Artikel erschien zuerst bei WIRED US.