Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

In Googles Laboren brauchen KIs den Menschen nicht mehr

von Cade Metz
In Googles Laboren liefern sich Künstliche Intelligenzen Duelle, um gemeinsam schlauer zu werden. Auf Hilfe von Menschen sind sie dafür (fast) nicht mehr angewiesen.

Am Tag, als Richard Feynman starb, stand auf der Tafel seines Seminarraums: „Ich kann nur das verstehen, was ich auch erschaffen kann.“ Wenn Ian Goodfellow heute seine Forschung beschreibt, greift er gern auf diesen Sinnspruch des berühmten Physikers, Caltech-Professors und Bestseller-Autors zurück. Goodfellow arbeitet für Google Brain, das Künstliche-Intelligenz-Labor des mächtigsten Internetunternehmens der Welt. Wenn er Feynman zitiert, meint er damit aber nicht sich selbst – oder irgendeinen anderen Menschen bei Google. Er meint die Maschinen: „Was eine KI nicht erschaffen kann, das kann sie nicht verstehen.“

Goodfellow ist einer der wichtigsten KI-Forscher der Welt. Nach einem kurzen Gastspiel bei OpenAI – dem Google-Brain-Konkurrenten von Elon Musk und Sam Altman – kehrte er zu Google zurück und baute dort eine Forschungsgruppe für „Generative Models“ auf. Darunter versteht man Systeme, die Bilder, Töne und andere Repräsentationen der realen Welt erschaffen. In Anspielung auf Feynman beschreibt Goodfellow diesen Ansatz als einen Weg zu allen möglichen Arten der Künstlichen Intelligenz.

„Wenn sich eine KI die Welt in realistischen Details vorstellen kann – wenn sie lernt, sich realistische Bilder und realistische Töne vorzustellen – dann ermutigt das die KI, etwas über die Struktur der Welt zu lernen, wie sie wirklich existiert“, sagt er. „Das kann der KI helfen die Bilder zu verstehen, die sie sieht, oder die Töne, die sie hört.“

Man kann sie sich wie Künstler und Kunstkritiker vorstellen

Ian Goodfellow, Google Brain

Im Jahr 2014, als er noch Doktorand an der Universität Montreal war, dachte Goodfellow sich nach einem betrunkenen Streit in einer Bar die KI-Technik „Generative Adverserial Networks“ (GANs) aus. Eine wunderbar elegante Idee, egal wie biergetränkt ihre Ursprünge sind: Eine KI kreiert beispielsweise realistische Bilder, während eine zweite die Resultate analysiert und herauszufinden versucht, ob die Bilder echt oder gefälscht sind.

„Man kann sie sich wie Künstler und Kunstkritiker vorstellen“, sagt Goodfellow. „Das Generative Model will den Kritiker in die Irre führen – ihn dazu bringen, seine Bilder für echt zu halten.“ Weil die zweite KI so darauf erpicht ist, die Bilder als Fälschungen zu entlarven, lernt die erste, die Realität auf eine Art und Weise zu imitieren, wie sie es allein nicht könnte.

Yann LeCun, Facebooks Direktor für KI-Forschung, nannte GANs „die coolste Erfindung im Deep Learning der letzten 20 Jahre“. Deep Learning ist ein Feld der KI, das den Kurs der größten Internetunternehmen der Welt verändert hat, darunter Google, Microsoft, Amazon und natürlich Facebook. Goodfellows Idee sind noch weitgehend im Entwicklungsstadium, haben sich aber rasend schnell in der KI-Community verbreitet. Viele Experten, LeCun inklusive, glauben, dass sie zu „unüberwachtem Lernen“ führen könnten – einer großen Sehnsucht der KI-Forschung: Maschinen lernen ohne direkte Hilfe von Menschen.

Die Idee kam Goodfellow in einer Montrealer Bar namens Les 3 Brasseurs, die drei Brauer. Sein Freund Razvan Pascanu, heute Forscher bei DeepMind, Googles anderer KI-Abteilung, feierte dort seinen Doktortitel. Einer der Gäste beschrieb ein neues Forschungsprojekt, den Versuch, alle Elemente eines Fotos mathematisch zu determinieren. Die Idee lautete, diese Statistiken dann in eine Maschine einzuspeisen, damit sie selbstständig fotorealistische Bilder erschaffen kann. Ein wenig angetrunken sagte Goodfellow, dass das niemals funktionieren werde – dass es zu viele Statistiken zu berücksichtigen gebe und niemand sie jemals alle erfassen könne. Er entschied, dass es einen besseren Weg gab: Neuronale Netze, nicht Menschen, könnten der Maschine die Erschaffung fotorealistischer Bilder beibringen.

Ein neuronales Netz ist ein komplexes mathematisches System, das Aufgaben erlernt, indem es gewaltige Datenmengen analysiert, von Gesichtserkennung auf Fotos bis zum Verstehen gesprochener Worte. Goodfellows Idee an diesem Abend in der Bar: Während ein neuronales Netz lernt, fotorealistische Bilder zu erschaffen, versucht ein zweites als Gegenspieler herauszufinden, ob diese Fälschungen sind – und füttert die erste KI im Wesentlichen mit seinen Urteilen. Auf diese könnte die zweite KI der ersten mit der Zeit beibringen, Fake-Bilder zu kreieren, die von echten Fotos nicht mehr zu unterscheiden sind.

Ein Streit brach aus. Goodfellows Freunde waren davon überzeugt, dass auch seine Idee nicht funktionieren würde. Also ging er nach Hause und setzte sie einfach in die Tat um. „Ich war immer noch ein bisschen betrunken, meine Freundin schlief schon. Und ich saß da und dachte: Meine Freunde in der Bar haben alle Unrecht!“, erinnert er sich. „Also blieb ich wach und programmierte GANs auf meinem Laptop.“ So wie Goodfellow die Geschichte erzählt, funktionierte der Code gleich beim ersten Versuch. „Das war ganz, ganz großes Glück, denn wenn es nicht gleich geklappt hätte, hätte ich wohl aufgegeben.“

Er und einige weitere Forscher veröffentlichten noch im selben Jahr ein Paper, dass die Idee beschrieb. In den drei Jahren seitdem haben sich hunderte weitere wissenschaftliche Arbeiten mit dem Konzept beschäftigt. In Goodfellows erstem Paper arbeiteten zwei neuronale Netze zusammen, um fotorealistische Abbildungen handgeschriebener Zahlen herzustellen. Mittlerweile wenden Wissenschaftler die Idee auf Fotos von allem von Katzen über Vulkane bis hin zu ganzen Galaxien an. GANs haben sogar schon bei astronomischen Experimenten und Simulationen in der Teilchenphysik assistiert.

Die coolste Erfindung im Deep Learning der letzten 20 Jahre

Yann LeCun, Facebook AI Research

Aber sie sind immer noch verdammt schwer umzusetzen. Man muss nicht nur ein neuronales Netzwerk, sondern gleich zwei auf einmal trainieren. Mit seiner neuen GAN-Forschungsruppe bei Google hofft Goodfellow den Prozess verfeinern zu können. „Die Hauptsache, mit der ich mich als Machine-Learning-Forscher auseinandersetzen muss, ist, wie ich die KIs verlässlich trainierbar mache“, sagt er.

Das erhoffte Resulat: Systeme, die nicht nur immer besser darin werden, realistische Bilder und Töne zu erschaffen, sondern auch darin, diese zu erkennen. Und Systeme, die zunehmend ohne die Hilfe von Menschen lernen können. „Die Modelle lernen die Struktur der Welt zu verstehen“, sagt Goodfellow. „Und das kann den Systemen helfen, ohne viel explizite Anweisung zu lernen.“

GANs könnte sogar zu unbeaufsichtigtem Lernen führen, wie es heute so noch nicht existiert. Heute lernen neuronale Netze, Katzen zu erkennen, indem sie Millionen von Katzenfotos analysieren – aber Menschen müssen diese sorgfältig auswählen und als solche kennzeichnen. Menschen sind nach wie vor unerlässlicher Teil der Prozesses, was oft zu Problemen führt, sei es aus Bias-Gründen oder angesichts der schieren Menge menschlicher Arbeit, die KI-Trainig erfordert. Forscher wie Yann LeCun drängen deswegen auf ein System, dass ohne menschliche Beteiligung lernen kann, etwas das die Evolution der KI beschleunigen könnte.

Aber das ist erst der Anfang. GANs eröffnen noch viele weitere Möglichkeiten. David Kale forscht an der University of Southern California und glaubt, dass die Idee seinen Kollegen und ihm helfen könnte, Gesundheits-KIs zu entwickeln, ohne die Privatsphäre der Patienten zu verletzen. Im Prinzip könnten GANs Patientenakten fälschen. Machine-Learning-Systeme könnte dann mit diesen trainieren statt mit echten. „Statt Patientenakten ins Internet zu kippen, damit jeder mit ihnen herumspielen kann, warum bringen wir nicht GANs bei, künstliche Datensätze zu kreieren, und machen diese der Forschung zugänglich?“, fragt Kale.

Obwohl viele an der Idee hinter GANs forschen, sagt es viel aus, dass Goodfellow ausgerechnet bei Google seine Forschungsgruppe aufbauen will. Er war einer der ersten, die den Konzern in Richtung OpenAI verließen, jenem Labor, das versprach seine Forschungsergebnisse offen mit der ganzen Welt zu teilen. Doch weniger als ein Jahr später kehrte Goodfellow zu Google zurück – weil dort alle seine Fachkollegen waren. „Es machte einfach keinen Spaß, den ganzen Tag in Videokonferenzen zu verbringen“, erzählt er.

Teilen ist wichtig. Aber enge Zusammenarbeit ist es auch – egal ob man ein KI-Forscher ist oder ein neuronales Netz.

WIRED.com

Dieser Artikel erschien zuerst bei WIRED.com
Das Original lest ihr hier.

GQ Empfiehlt