Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Diese Videospiel-Stadt wurde von einer Künstlichen Intelligenz erschaffen

von Michael Förtsch
In Zukunft könnten digitale Welten wie in Red Dead Redemption 2 oder der Far-Cry-Serie nicht mehr nur von Level-Designern, sondern ebenso Künstlichen Intelligenzen gestaltet werde. Dass das funktioniert, das hat jetzt der Grafikkartenhersteller Nvidia gezeigt.

Hinter den Welten moderner Videospiele wie Red Dead Redemption 2, Far Cry 5 oder Battlefield 5 steckt eine Menge harter Arbeit. Teils mehrere Jahre werkeln Level-Designer an der finalen Topographie der digitalen Umgebungen, sie feinjustieren die Verläufe von Wegen und die Position von Gebäuden. Sie nutzen speziell für einzelne Objektarten entwickelten Tools, um auch die wirklich passenden Bäume, Steine und Grasflächen für eine Waldlandschaft, ein Dorf oder Großstadt zu finden. Geht es nach dem Grafikkarten- und Technologieunternehmen Nvidia und Forschern des Computer Science and Artificial Intelligence Laboratory am MIT könnten zukünftige Videospiele aber auch – zumindest teilweise – von einer Künstlichen Intelligenz erschaffen werden.

In einem Studienprojekt haben die Entwickler um den KI-Forscher Bryan Catanzaro ein Deep-Learning-Netzwerk mittels Videos von realen Umgebungen darauf trainiert, in den zweidimensionalen Bildern dreidimensionale Objekte wie Gebäude, Fahrzeuge, Bäume, Briefkästen und anderes zu erkennen. Dabei setzte das Team auch auf Trainingsdatenpakete, die eigentlich von Entwicklern autonomer Fahrzeuge und Drohnen genutzt werden. Die Künstliche Intelligenz sollte nämlich auch lernen diese in statische und bewegte Objekte, Kulissen, Untergrund und Himmel zu unterteilen.

icon_cookie

Um diese Inhalte zu sehen, akzeptieren Sie bitte unsere Cookies.

Cookies verwalten

Anschließend sollte das Computersystem diese Objekte und Segmente aus dem Video auslesen und als 3D-Objekt nachbilden. Und zwar mitsamt Textur, korrekten Höhenebenen, Ecken und Kanten. All das wurde daraufhin durch einen Entwickler in die Videospiel-Engine Unreal Engine 4 übertragen, der noch grobe Fehler korrigierte und die Struktur der 3D-Welt anpasste. Damit sollen sich letztlich schnell und einfach aus einem Video komplette 3D-Welten erzeugen, segmentieren und neu generieren lassen – sei es eine Rennstrecke, eine Wüstenlandschaft oder eine komplette Stadt. Aber die Technik könnte auch angewendet werden, um einzelne Personen, Gegenstände und kleine Areale nachzustellen – einfach aus einem schnell gedrehten Video.

Streitende Netze für beste Ergebnisse

Das Team von Nvidia und dem MIT setzte bei diesem Projekt auf ein Generative Adversarial Network. Hierbei versucht ein neuronales Netzwerk die Objekte und Umgebungen in 3D zu erschaffen. Ein zweites neuronales Netz versucht wiederum, diese anhand von möglichen Fehlern als nicht überzeugend zu disqualifizieren. Durch die Konkurrenz der GAN-Netze soll eine stetige Verbesserung der generierten Inhalte garantiert werden. Dazu integrierte das Team noch den Bild-aus-Bild-Generator pix2pix, der schon für andere Projekte genutzt wurde, in denen Künstliche Intelligenzen beispielsweise Aktgemälde malen oder Zeichnungen von Katzen und Hunden in Pseudo-Fotos übersetzen sollen.

Dass das grundsätzlich funktioniert, das zeigt Nvidia in einem simplen Fahrsimulator, der als nutzbarer Machbarkeitsbeweis erstellt worden war. Bei diesem steuert der Spieler seinen Wagen durch eine Stadtkulisse mitsamt Fahrzeugen, die vollumfänglich durch eine Künstliche Intelligenz aus einem Video heraus-generiert worden war. Dabei zeigen sich die für viele KI-Bilder typischen Schlieren und Unschärfen bei Texturen oder auch merkwürdige Kanten und Schrägen bei einigen Objekten. Auch sonst soll das System, wie Nvidia anmerkt, noch weit von einer kommerziellen Nutzbarkeit entfernt sein. Bis diese Technik Stadt- und Naturlandschaften wie in Grand Theft Auto 5 erzeugen könne, würde es wohl noch Jahrzehnte dauern.

Bald könnte die KI erste Designer unterstützten

Das KI-System könnte aber durchaus schon in naher Zukunft eingesetzt werden, um dreidimensionale Trainingsumgebungen für autonome Fahrzeuge zu erzeugen – denen die grafische Qualität ziemlich egal ist. Aber auch ein eng umgrenzter Einsatz bei der Videospielentwicklung ist schon denkbar. Beispielsweise könnten sich Spieler mit ihren Smartphones filmen und so ein digitales Abbild erschaffen, das in ein Spiel übertragen werden kann. Und wenn schon nicht für eine gesamte Stadt, so könne die Technik immerhin schon taugen, um Straßenverläufe korrekt nachzubilden und die Position von Wahrzeichen in einem Videospiel mit realer Kulisse zu bestimmen.

Ebenso könnte ein auf das Aussehen von Menschen trainiertes KI-System, helfen, Videospiele mit möglichst vielen unterschiedlich aussehenden Figuren zu bevölkern – in dem es sich, basierend auf seinen Trainingsdaten, möglichst vielfältige Nichtspielercharaktere einfallen lässt. „Eine der großen Hürden, die Entwickler derzeit bei der Erschaffung virtueller Welten zu nehmen haben, egal ob für Videospielentwicklung, Telepräsenz oder andere Anwendungen, ist, dass das sehr teuer ist“, sagt Bryan Catanzaro. „Diese Methode erlaubt es Künstlern und Entwicklern, diese deutlich günstiger zu fabrizieren – einfach dadurch, dass eine KI aus der echten Welt lernt.“

GQ Empfiehlt
Wie das Pentagon von Games profitieren will

Wie das Pentagon von Games profitieren will

von Nicholas Thompson