/Kultur

Krieg im Jahr 2040: Wenn intelligente Maschinen Soldaten jagen

Dirk Peitz 21.02.2018 Lesezeit 21 Min

Maschinen entscheiden schneller als Menschen, brauchen keine Pausen und halten mehr aus. Maschinen sind aber nicht intelligent genug, um den Menschen auf dem Schlachtfeld zu ersetzen oder gegen ihn anzutreten. Noch nicht.

Der Krieg der Zukunft beginnt mit einem kurzen Laserstrahl. Abgefeuert wird er von der chinesischen Raumstation Tiangong-3, auf der im Geheimen eine Abschussvorrichtung installiert wurde für einen chemical oxygen iodine laser. Die ersten Ziele, die die chinesischen Taikonauten ins Visier nehmen, sind GPS-Satelliten und ein Kommunikationssatellit, über den unter anderem das Wideband Global SATCOM (WGS) des amerikanischen Militärs betrieben wird.

An diesem Netz hängen die Truppen der Army ebenso wie die Schiffe und U-Boote der Navy und die amerikanischen Nuklearstreitkräfte, ja sogar Kommunikationsstränge des Weißen Hauses. Die vielen Menschen und Maschinen im Einsatz Amerikas tauschen darüber Befehle aus, nachrichtendienstliche Erkenntnisse, Aufklärungsinformationen, Überwachungsdaten.

Jede Schlacht, in die US-Streitkräfte ziehen, wird darüber koordiniert. Und dank GPS wissen alle beteiligten Menschen und Maschinen, wo sie sind und was die Zeit geschlagen hat. Diese Netzwerke dürfen nicht zusammenbrechen. Niemals. Sonst wäre der schlagkräftigste, furchteinflößendste und größte Militärapparat, den die Welt je gesehen hat, auf einen Schlag taub, stumm, blind, orientierungslos. Er wäre fast schon geschlagen.

Peter Singer hat diese Horrorvision im Jahr 2015 aufgeschrieben, zusammen mit seinem Co-Autor August Cole. In dem Roman Ghost Fleet, der in einer undatierten, aber nicht fernen Zukunft spielt, in 20, 25 Jahren. Darin zerstört auf der Erde dann China weite Teile der US-Pazifikflotte, unbemannte Fluggeräte greifen bemannte Kampfflugzeuge an, autonome Drohnen mit Hirnen voller künstlicher Intelligenz jagen Soldaten.

Die Zukunft kann man sich nur vorstellen, indem man Vergangenheit und Gegenwart analysiert

Ghost Fleet ist keine reine Science-Fiction, alle darin erwähnten Technologien und Waffen existierten zum Zeitpunkt der Niederschrift wenigs­tens als Prototypen. Nur dass die chinesische Raumfahrtbehörde ihr Konzept für die 2022 ihren Betrieb aufnehmen sollende Tiangong-3 ein Jahr nach Erscheinen ihres Romans verändern würde, konnten Singer und Cole nicht vorausahnen. Denn in die Zukunft können auch sie nicht sehen. Die Zukunft kann man sich nur vorstellen. Indem man Vergangenheit und Gegenwart analysiert und ins Ungewisse verlängert.

Das ist das Risiko nicht nur der Science-Fiction. Sondern auch der Prognosen, die für reale künftige Konflikte erstellt werden. Vor allem Streitkräfte brauchen Vorstellungen von kommenden Risiken, um sich auf sie vorbereiten zu können. Die Bundeswehr hat mögliche Veränderungen der Weltordnung durchgespielt in einem zunächst geheimen Papier namens Strategische Vorausschau 2040, dessen Existenz der Spiegel Anfang November enthüllte. Doch fast ebenso erschreckend wie das, was dort an Risiken bis zum Jahr 2040 und an möglichen „Konfliktbildern“ beschrieben wird, der Zerfall der EU etwa, war die Nachricht: Die Bundeswehr hat zum ersten Mal eine solche Vorausschau erstellt.

In den USA beschäftigt sich traditionell ein Heer an Militärstrategen öffentlich mit der Zukunft des Krieges. Auch Magazine erzählen davon, etwa die erste Ausgabe der amerikanischen WIRED, die vor 25 Jahren, am 2. Januar 1993, vorgestellt wurde. Die Coverzeile lautete: „Bruce Sterling has seen the future of war“. Wobei Sterling vor allem darüber berichtete, wie Panzerbesatzungen der U. S. Army mit frühen VR-Anwendungen trainierten. Die Übungsszenarien ähnelten noch sehr den realen Einsätzen kurz zuvor im Ersten Irakkrieg 1991.

Ein Vierteljahrhundert später sieht die Gegenwart anders aus. Auch der Blick nach vorn. Was wird in einem Vierteljahrhundert sein, ums Jahr 2040? Da fragt man am besten Experten. Einen Sci-Fi-Autor, der vor allem Militärforscher ist. Einen KI-Wissenschaftler, der Alarm schlägt. Verschwiegene Diplomaten bei den Vereinten Nationen. Einen Historiker, der nach vorne schaut. Und einen Strategen der DARPA, der Forschungseinrichtung des Pentagon, der vom Silicon Valley gelernt hat. Man macht also eine Reise in die Zukunft des Krieges.

Der zivile Vordenker

„Die letzte Armee, die eine offene Feldschlacht eingegangen ist, war tatsächlich die irakische im Jahr 1991, und ihre verheerende Niederlage zeigte allen anderen: Versuche besser nicht, dich im offenen Feld einem technologisch überlegenen Gegner wie den USA zu stellen, denn so wirst du ein leichtes Ziel für smart bombs und laser-guided missiles. In Konflikten seither sehen wir, dass die Stadt zum bevorzugten Ort der Auseinandersetzung wird. Dort kann man zwischen der Zivilbevölkerung untertauchen und sich verstecken. Die Voraussage, dass es noch mehr urban warfare geben wird in Zukunft, ist also relativ leicht zu treffen – der Krieg zieht menschlichen Wanderungsbewegungen hinterher.“

Das sagt eben Peter Singer, wenn man ihn heute nach dem realen Krieg der Zukunft fragt. Der Amerikaner ist, was es in Deutschland gar nicht gibt: ein öffentlicher Intellektueller in Verteidigungsfragen, ein ziviler Vordenker des Militärischen. Singer hat Sachbücher geschrieben etwa über kommende Kriegseinsätze von Robotern (Wired for War, 2009); er hat Barack Obama beraten und das US-Militär, das FBI und nebenbei die Macher von Call of Duty.

Singer ist Senior Fellow am pro­gressiven Washingtoner Think Tank New America – und gerade mal 43 Jahre alt. Ghost Fleet war für ihn die Chance, sein militärisches Wissen in eine fiktionale Form zu übertragen. Drei große Trends sieht Singer neben der Urbanisierung der Kriegsführung noch. Erstens das, was im Englischen multi-domain warfare genannt wird und besagt, dass zu den klassischen Arenen militärischer Auseinandersetzung (Boden, Luft, Wasser) weitere hinzugekommen sind und hinzukommen, der Cyberspace und bald auch der Weltraum – und dass dort künftig überall gleichzeitig Krieg geführt werden wird. Das Schlachtfeld wird nicht grenzenlos, aber entgrenzt sein.

Maschinen handeln rascher als Menschen und halten mehr aus. Pausen brauchen sie auch keine

Zweitens, sagt Singer, „können nichtphysische Mittel der Cyber- und der elektronischen Kriegsführung physische Folgen produzieren.“ Das ist die Lehre aus der den USA und Israel zugeschriebenen Stuxnet-Attacke 2010 auf das iranische Atomprogramm und aktuell aus den offenbar russischen Netzwerkangriffen auf die Ukraine, um deren Stromversorgung lahmzulegen. Stux-net sei anders als jede zuvor in der Menschheitsgeschichte hergestellte Waffe gewesen, sagt Singer: Sie besaß keine physische Form.

Der cyberwarfare sei damit um ein wesentliches taktisches Element ergänzt worden und werde sich künftig nicht mehr auf das Stehlen von Daten beschränken, das Ausspionieren eines Gegners oder das Orchestrieren von Desinformationskampagnen. Der logische nächste Schritt sei die digitale Manipulation militärischer Gerätschaften, um diese kampfunfähig zu machen. Die Betriebssysteme von Panzern etwa seien ein lohnendes Angriffsziel.

Stuxnet betrachtet Singer auch als eine Art Metapher für den aus seiner Sicht letzten Großtrend: Der Mensch werde Maschinen und also Waffensystemen künftig weitgehende Autonomie gewähren. So wie Stuxnet sie als Software schon besaß. „Hätte Stuxnet eine Gestalt gehabt“, sagt Singer, „hätten wir sie einen autonomen Roboter genannt.“

Schon heute verfügt das US-Militär über rund 11.000 Drohnen und 12.000 bodengestützte robotische Systeme. Die nächsten Schritte seien, weitere unbemannte Systeme zu bauen, Flugzeuge oder Kriegsschiffe etwa wie die vor San Diego im Testbetrieb befindliche Sea Hunter – und alle Plattformen mit künstlicher Intelligenz (KI) auszustatten.

Maschinen entscheiden rascher als Menschen, bewegen sich schneller, brauchen keine Pausen, halten mehr aus. Noch sind die Maschinen nur nicht klug genug, um den Menschen auf dem Schlachtfeld zu ersetzen – oder gegen ihn anzutreten.

Die redend Schweigenden

Genf, neben New York der zweite Hauptsitz der Vereinten Nationen, ist ein seltsamer Ort: Kaum irgendwo wird so viel geredet und zugleich so diskret um Verschwiegenheit gebeten. Als Journalist kann man Diplomaten leicht treffen, doch zitieren darf man aus diesen Hintergrundgesprächen später nichts.Womöglich ist das auch einer der Gründe dafür, warum eine größere Öffentlichkeit bis heute kaum mitbekommen hat, dass die Weltgemeinschaft in Genf seit drei Jahren über die Zukunft des Krieges diskutiert: Im Rahmen der Abrüstungskonferenz, genauer der UN-Konvention zu konventionellen Waffen, wird dort über die technologischen, ethischen und juristischen Herausforderungen durch lethal autonomous weapon systems (kurz: LAWS) gesprochen und über ein mögliches Regelwerk verhandelt.

Dass das bislang ohne konkrete Ergebnisse geschieht, ist insofern nicht überraschend, als dass Protokolle der Konvention nur einstimmig verabschiedet werden können. Das zuletzt zustande gekommene, jenes über die Beseitigung von Kriegsmunitionsrückständen, ist vor elf Jahren in Kraft getreten; die danach folgenden Verhandlungen über ein Verbot von Streumunition scheiterten 2011.

Seither sucht die Abrüstungskonferenz nach neuen Aufgaben und hat sie in autonomen Waffensystemen gefunden, die nach der Erfindung des Schießpulvers und der Atombombe eine dritte Revolution in der Kriegsführung auslösen könnten. Offiziell aber exis­tieren sie noch gar nicht. Doch das ist auch eine Frage der Definition. Die Staatengemeinschaft hat sich bislang nicht darauf geeinigt, was eine Waffe zu einer autonomen macht.

„Was sind die Technologien, die zur letalen Autonomie bei Waffensystemen beitragen oder beitragen könnten? Könnte man sie im weitesten Sinne mit künstliche Intelligenz/autonome Systeme bezeichnen?“ Mit diesen Fragen leitet denn auch Amandeep Singh Gill, der indische Vertreter bei der Genfer Abrüstungskonferenz, einen ganzen Fragenkatalog ein, den er zur Vorbereitung auf das diesjährige UN-Expertentreffen zu LAWS als deren Vorsitzender veröffentlicht hat (die Konferenz hat Mitte November und damit kurz nach dem Redaktionsschluss dieser WIRED-Ausgabe stattgefunden).

Die Forschung und Entwicklung auf dem Gebiet der künstlichen Intelligenz geht rasend schnell voran.

Die Formulierung von Fragen passt zur unklaren Position Indiens als aufstrebende Technologie- und Militärmacht gegenüber LAWS. Wie überhaupt die internationale Gemengelage bei dem Thema unübersichtlich ist. Über 120 Staaten haben die UN-Konvention unterschrieben. Nur rund zwei Dutzend von ihnen – jene, die sich keinerlei Hoffnungen darauf machen dürfen, bei einem möglichen Rüstungswettlauf um autonome Waffensysteme technologisch mithalten zu können – haben sich bislang eindeutig für ein totales LAWS-Verbot ausgesprochen.

Indiens Erzfeind Pakistan etwa hat das getan, mit Verweis darauf, autonome Waffensys­teme seien „illegal, unethisch, unmenschlich und unverantwortlich“. Doch die parallelen Bemühungen des Landes, den Begriff der Autonomie möglichst weit auszulegen, haben wohl auch damit zu tun, dass Pakistan seit Langem ein Hauptziel von US-Drohnenangriffen ist und schon den ferngesteuerten Einsatz dieser unbemannten Flugsysteme gern ächten ließe.

Die USA wiederum sind nicht so eindeutig gegen jede Kontrolle von LAWS, wie man das an­gesichts der militärtechnologischen Vorreiterrolle Amerikas vielleicht annehmen könnte: Die USA können sich offenbar zumindest eine Regelung vorstellen, die die Entwicklung auto­nomer Waffensysteme einem Transparenzgebot unterwürfe (eine Idee, mit der sich die vergangene deutsche Bundesregierung der Großen Koalition anfreunden konnte).

Russland schien den UN-Prozess zunächst blockieren zu wollen, China zeigte sich offen. Israel hat sich im Jahr 2016 gegen ein vorschnelles Verbot ausgesprochen – mit dem Hinweis darauf, der Einsatz autonomer Waffensys­teme könne zu größerer Zielgenauigkeit führen, womit Kollateralschäden minimiert und Risiken sowohl für Soldaten wie Zivilisten im Konfliktfall reduziert werden könnten.

Einig scheinen sich alle Länder nur darin, dass die Abrüs­tungskonferenz in Genf das richtige Forum ist, um über diese Waffensysteme zu diskutieren. Die Frage ist nur: trotz oder gerade wegen des langsamen Tempos der Verhandlungen dort? Denn die Forschung und Entwicklung auf dem Gebiet der künstlichen Intelligenz geht derweil rasend schnell voran.

Der unfreiwillige Aktivist

Genau deswegen fordert Toby Walsh ein Verbot der Entwicklung von offensiven autonomen Waffensystemen. Walsh ist Professor für KI an der University of New South Wales in Sydney und hat vor zwei Jahren einen ersten offenen Brief initiiert, der eine entsprechende Forderung formulierte und den damals unter anderem Stephen Haw­king, Elon Musk und Steve Wozniak unterzeichneten.

Im vergangenen Jahr hat Walsh dann während des LAWS-Treffens in Genf gesprochen, und im August dieses Jahres folgte ein weiterer offener Brief, den mehr als einhundert Gründer von Robotik- und KI-Firmen unterschrieben haben, darunter erneut Musk und diesmal auch Mustafa Suleyman, Chef der Google-KI-Schwes­ter DeepMind.

Anfang November schließlich wandten sich australische und kanadische Wissenschaftler mit einer Verbotsforderung an ihre jeweiligen Regierungen. Autonome Waffen stellen einen der seltenen Fälle dar, bei denen sowohl Forscher als auch Unternehmer auf einem Feld einer Meinung scheinen. Eines Tages könnten „Despoten wie Terroristen diese Waffen gegen unschuldige Zivilbevölkerungen richten“, heißt es in dem Brief vom August: „Wir haben nicht mehr viel Zeit zu handeln. Sollte diese Büchse der Pandora einmal geöffnet sein, wird es schwer werden, sie wieder zu schließen.“

An einem sonnigen Herbsttag sitzt Walsh vor einem Café in Prenzlauer Berg, er ist mit dem Fahrrad gekommen: Walsh hat seit 2016 eine Gastprofessur an der TU Berlin. Er arbeitet derzeit an einem KI-System, das Organspenden bestmöglich verteilen helfen soll, doch die Diskussion um LAWS, sagt Walsh, hätten ihn neben seiner Forschung zu einem „unfreiwilligen Aktivisten“ gemacht.

Die ersten völlig autonomen Waffen werden schlicht sein. Und nicht wie Arnie aussehen.

Fragt man ihn danach, ob er im Gegensatz zur Staatengemeinschaft eine Definition für autonome Waffensysteme habe, antwortet Walsh: „Wir besitzen ja nicht einmal eine klare dafür, was künstliche Intelligenz ist. Oder Intelligenz überhaupt. In der KI-Forscherszene gibt es den Witz, dass alles KI ist – solange es als Problem noch nicht gelöst ist.“

Bei LAWS hingegen erscheine es ihm, als würden fehlende Definitionen auf politischer Ebene eher als Rechtfertigung benutzt, nicht handeln zu müssen. Wobei Walsh den Einsatz von bereits verfügbaren defensiven teilautonomen Systemen etwa bei der Raketenabwehr nachvollziehbar findet: Der Mensch könne gar nicht schnell genug handeln, wenn ein Kriegsschiff mit balistischen Raketen beschossen werde.

Also übernimmt die Maschine die Zielerfassung. Es werde in Zukunft auch Systeme geben, die nicht eindeutig defensiv oder offensiv sein werden. Weitere Kriterien könnten auch der geografische Raum und die Dauer sein, in denen solche Waffen eingesetzt werden.

Entlang der Grenze zwischen Süd- und Nordkorea etwa sind auf der südlichen Seite wohl heute bereits von Samsung entwickelte Maschinengewehrautomaten stationiert, die selbstständig Ziele ausmachen und beschießen. Die Installierung des Waffensystems SGR-A1 wurde nie offiziell bestätigt, doch die entmilitarisierte Zone DMZ wäre ein idealer Testort für eine eher dumme KI mit Tötungsauftrag. Die DMZ ist ein klar definierter, fixer, menschenleerer Raum. SGR-A1 erhöht da nur die Effizienz, mit der er überwacht wird: Das Ding ballert auf fast alles, was sich bewegt.

Autonome Drohnen mit Hirnen voller künstlicher Intelligenz jagen in dem Roman Ghost Fleet Soldaten.

Etwas völlig anderes hingegen wäre es, so Walsh, wenn autonome Drohnen tage- oder gar wochenlang über einem sich ständig verändernden Schlachtfeld kreisten, Ziele identifizierten und ins Visier nähmen. In seinem neuen Buch Android Dreams: The Past, Present and Future of Artificial Intelligence beschreibt Walsh das als die Wahrwerdung des filmischen Albtraums von Terminator. In der Realität würden die Killerroboter jedoch erst mal schlichter konstruiert sein – und sie werden nicht die Gestalt von Arnold Schwarzenegger besitzen.

Walsh widerspricht allen positiven Annahmen über autonome Waffensysteme: Roboter würden nicht effektiver sein als Soldaten (aber effizienter beim Töten); Roboter würden im Krieg auch nicht eher gemäß des humanitären Völkerrechts handeln, als Menschen es tun – die Unterscheidung zwischen Zivilisten und Kombattanten sei von einer programmierten Mustererkennung niemals zu leisten. Auch die Behauptung schließlich, Verbote würden gegen die Entwicklung neuer Waffen nie helfen, sei falsch. Das UN-Protokoll über blind machende Laserwaffen, das seit 1998 gilt, habe gezeigt: Man kann technologische Entwicklungen auch verhindern.

Der Historiker der Zukunft

Die große Herausforderung, sagt Jerry Hendrix, werde tatsächlich irgendwann diese sein: „Während autoritäre Staaten autonome Waffensysteme einsetzen werden im Krieg, werden demokratische wie wir den Menschen nach wie vor im Entscheidungsprozess behalten wollen – und was dann? Auf dem Schlachtfeld könnten autoritäre Staaten Roboter auf uns loslassen, die in Picosekunden handeln. Wie können wir es da schaffen, dass bei uns immer noch ein Mensch entscheidet, ob geschossen wird oder nicht, getötet wird oder nicht?“ Diese Fragen muss man erst mal auf sich wirken lassen.

Die Herbstsonne taucht Hendrix’ Büro in ein sanftes Licht, das Center for a New American Security (CNAS) hat seinen Sitz in einem Gebäude nördlich der K-Street, der Ecke in Washing­ton, D. C., wo traditionell die Politikberater und Lobby­isten arbeiten. Zu Fuß sind es bis zum Weißen Haus keine zehn Minuten, aber die örtliche Nähe sagt nichts aus darüber, wie nah oder fern diese Leute politisch dem je aktuellen Bewohner unten an der Pennsylvania Avenue stehen.

Der Think Tank CNAS betrachtet sich als überparteilich. Jerry Hendrix leitet dort das Langzeitprojekt Evolving the Future Force, das Strategien für die künftige Ausrichtung der US-Streitkräfte erarbeiten soll. Als Militärhistoriker, ehemaliger Marineoffizier und früherer Pentagon-Mitarbeiter in dessen interner Denkfabrik für Zukunftsfragen, dem Office of Net Assessment (ONA), hat Hendrix einen speziellen Blick auf das Militär.

Das amerikanische, obwohl noch immer mit Abstand das teuerste der Welt, hält er für nicht ausreichend ausgestattet: Gerade hat Hendrix einen Text verfasst, in dem er die Aufstockung der U.S. Navy von aktuell 279 Schiffen auf 355 fordert, im Sommer hat er bereits im Fachmagazin Defense One kritisiert, dass die U.S. Air Force nur 100 Modelle des geplanten neuen Tarnkappenbombers B-21 bestellen wolle, obwohl 164 nötig seien.

Es wäre aber zu einfach, Hendrix für einen schlichten Rüs­tungsbefürworter alter Schule zu halten, der etwa die Glorie der einst viel größeren US-Flotte wiederherstellen wolle. „Als Historiker schaue ich in die Vergangenheit, um eine Ahnung davon zu bekommen, wie die Zukunft aussehen könnte – was nicht ungefährlich ist, doch diese Perspektive hat sich oft als nützlich erwiesen.“

Einen in Militärkreisen häufig angestellten historischen Vergleich findet er deshalb hochinteressant: dass unsere Gegenwart in militärstrategischer Hinsicht der Zwischenkriegszeit der 20er- und 30er-Jahre ähnele. Zwei Waffensysteme, die bereits im Ersten Weltkrieg verfügbar waren, seien danach strategisch überdacht und später im Zweiten Weltkrieg auf neue Weise eingesetzt worden, sagt Hendrix: der Panzer und der Flugzeugträger.

„Wir haben heute wieder eine Reihe von noch relativ neuen Technologien zur Verfügung, teilweise entwickeln wir sie gerade – unbemannte Plattformen, Energiewaffen, elektromagnetische Geschütze, Überschall­raketen“, sagt Hendrix. „Keine dieser Technologien wird Kriege einmal allein entscheiden – es wird die Art sein, wie sie künftig kombiniert werden mit bereits existierenden Plattformen und Anwendungen.“

Im ONA habe er gelernt, dass militärstrategische Revolutionen stets in drei Stufen ablaufen: Erst werden Technologien verfügbar, dann entwickelt man für sie Einsatzkonzepte, schließlich wirkten sich diese concepts of operations auf die Strategie selbst aus. „Verweigert man sich diesen Entwicklungen“, sagt Hendrix, „ist das einer der Gründe, warum Großmächte irgendwann stürzen: Wenn sie weiter in alte Technologien investieren, weil sie Angst haben, neue auszuprobieren. Sie bleiben stehen und werden von aufstrebenden, innovativeren Mächten überholt.“

Die Überlegungen, die in den USA zur Zukunft des Krieges angestellt werden, geschehen also auch vor dem Hintergrund, dass sich eine Supermacht sorgt, ins Hintertreffen zu geraten. Vor allem gegenüber China.

Die Fantasien, eines Tages würden Superintelligenzen gegeneinander Krieg führen: Die gehörten ins Kino.

Anfang November sitzt Eric Schmidt, der Executive Chairman der Google-Mutter Alphabet, beim Artificial Intelligence and Global Security Summit des CNAS auf dem Podium und wird von Hendrix’ Kollegen Paul Scharre interviewt. Schmidt ist nebenbei Vorsitzender des Defense Innovation Advisory Board, eines externen Beratungsgremiums des US-Verteidigungsministeriums. Er sagt: „Das Ministerium hat viel Geld, seine Programme sind großangelegt, über viele Jahre. Doch ein Großteil der Software, die dort entwickelt wird, ist nicht von höchster Qualität.“

Eine Kultur der Innovation sei nötig, in KI investiere das Verteidigungsministerium nicht genug. Dabei biete künstliche Intelligenz dem Militär große Möglichkeiten etwa bei der visuellen Kontrolle, Schmidt meint offenkundig unter anderem des Luftraums: „Wieso lassen wir Menschen – die hervorragend ausgebildeten Männer und Frauen des amerikanischen Militärs – den ganzen Tag auf Bildschirme starren?“

Was denn mit der KI-Konkurrenz aus China sei, fragt Scharre. Daraufhin referiert Schmidt die im Juli verkündete staatliche KI-Initiative der Volksrepublik. Die zielt darauf ab, bis 2020 auf dem Feld mit Amerika gleichzuziehen, es bis 2025 zu überholen und 2030 schließlich die Industrien rund um KI weltweit zu beherrschen. „Hat unser Land nicht mal dieses Feld dominiert?“, fragt Schmidt. „Sind wir nicht diejenigen, die das alles erfunden haben?“

Als Fragen aus dem Publikum zugelassen werden, stellt jemand die nach der Verwendung von KI in Waffen und der Warnung Elon Musks davor. Schmidt antwortet: „Ich glaube, dass Elon falsch liegt, wenn es um KI geht.“ Die Fantasien, eines Tages würden Superintelligenzen gegeneinander Krieg führen: Die gehörten ins Kino.

Der Stratege der Zukunft

Als Thomas Burns den fens­terlosen Konferenzraum im siebten Stock des Bürogebäudes in Arlington betritt, in dem die Defense Advanced Research Projects Agency, kurz DARPA, ihren Sitz hat, hält er locker eine Flasche Wasser in der Hand. Der Krieg ist für Burns Alltag, theoretisch. Die DARPA, die sagenumwobene Innovationsagentur des US-Vertei­digungsministeriums, hat einst das Arpanet erfunden, den Vorgänger des Internets, und vor über zehn Jahren mit ihrer Grand Challenge der Idee des autonom fahrenden Autos zum Durchbruch verholfen. Aber das sind nur zivile Folgen ihrer militärischen Forschungstätigkeit.

Die DARPA ist in sechs Fachabteilungen unterteilt, Burns ist Chef einer davon, des Strategic Technology Office (STO). Burns ist so etwas wie der Systemtheoretiker der Agentur. Er war Offizier der Air Force, gründete dann ein eigenes Startup für Sensortechnologie und später eine Investmentfirma, bevor er zur DARPA zurückkehrte.

Diesen Sommer hat Burns ein neues Konzept vorgestellt, das er „mosaic warfare“ getauft hat und eine technologische Revolution darstellen würde in der Art, wie Waffensysteme designt und konstruiert werden. Das Militär denkt traditionell in großen Plattformen. Es lässt Schiffe, Flugzeuge, Fahrzeuge entwickeln für eine je spezifische Verwendung. Es dauert aber oft 20 oder mehr Jahre von der ers­ten Idee bis zur Inbetriebnahme etwa eines Kampfflugzeugs. Und in der Zeit ändert sich die Welt mitunter sehr.

Burns’ Konzept des mosaic warfare verabschiedet sich deshalb vom Gedanken einer starren Verwendung von Plattformen. Burns will Systeme erschaffen, die aus immer wieder neu kombinierbaren Teilen bestehen. „Wir haben uns gefragt: Wie können wir die Einzelteile so strukturieren, dass sie anpassbar sind und kompatibel miteinander – die Sensorfähigkeiten, die Steuerelemente, die Waffenwirkung erzeugenden Teile?“

Die Antwort ist die Metapher des Mosaiks – man soll die Elemente zu frei wählbaren Bildern zusammenfügen können, je nach Mission. Auch technologische Weiterentwicklungen sollen über die veränderbaren Elemente in dieses „System der Systeme“ integrierbar sein. Im Grunde will Burns dem US-Militär einen permanent updatebaren Baukasten liefern, aus dem es sich frei bedienen kann. Die großen Plattfor­men mit ihren bisher kaum veränderbaren Bundles würden zu bloßen Grundgerüs­ten, in die man die neuesten Anwendungen stecken könnte, sogar solche, die nicht speziell fürs US-Militär entwickelt wurden, gleichsam off the shelf.

Die Sache ist nun die: Mosaic warfare würde disrupten, was das US-Militär bisher für gut und richtig erachtet. Patrick Tucker, Technikredakteur bei Defense One, sagt denn auch, Burns befinde sich mit seinen Ideen mitten in einer Grundsatz­debatte innerhalb des Pentagon. Im Grunde sei allen klar, dass der technologische Vorsprung, den das US-Militär durch die Stealth-Technologie und Präzisionswaffen gehabt habe, nahezu aufgebraucht sei.

Auch deshalb hat das Pentagon im Jahr 2014 seine Third Offset Strategy beschlossen, die Felder wie Robotik, Autonomie und Big Data fürs US-Militär erschließen und dessen Zusammenarbeit mit dem Privat­sektor (sprich: Silicon Valley) verbessern soll. In dem Zuge hat das Ministerium im Jahr 2015 seinen eigenen Tech-Hub DIUx gegründet, der in Mountain View in Rufweite von Google sitzt.

Die Frage aber sei, welche Richtung das Pentagon unter der Führung des Verteidigungsministers James Mattis langfristig einschlage, sagt Tucker. Eines sei klar: „Mattis ist überzeugt von der Außergewöhnlichkeit des amerikanischen Soldaten und seiner Ausbildung.“ So halte Mattis auch an der Doktrin fest, die in der Direktive 3000.09 des Minis­teriums im Jahr 2012 festgeschrieben wurde. Die besagt, dass beim US-Militär stets ein Mensch die letzte Entscheidung trifft: Human-in-the-loop.

Mattis, der Ex-General, hat im Zweiten Irak­krieg eine Marineinfanteriedivision geführt. Mehr traditionelles boots on the ground geht gar nicht. Marines und Soldaten aber werden auf dem Schlachtfeld der Zukunft, so wie Burns es sich vorstellt, noch gefährlicher leben als bisher schon. Oder daraus abgezogen werden. Auch im Krieg steckt ja ein Einsparpotenzial für Personal, aber das sagt Burns nicht. Das Schlachtfeld werde extrem umkämpft sein, sagt er. Das gelte nicht nur im physischen Sinne. Sondern auch dahingehend, dass Widersacher versuchen werden, vor allem mit elektronischen Mitteln beim Gegner das schwächste Glied jeder modernen Kriegsführung zu treffen: die Kommunikation.

Komplexität könne der neue asymmetrische Vorteil des US-Militärs werden.

Das sei letztlich auch der Moment, in dem autonome Waffensysteme wirklich ins Spiel kommen werden: „In Augenblicken gestörter Kommunikation, wenn keine Informationen mehr untereinander ausgetauscht werden können, kann man sich darauf verlassen, dass autonome Waffensysteme ihren vorgegebenen Auftrag erfüllen.“ Zwar sei die Technologie noch lange nicht so weit. Womöglich sei das in 30, vielleicht auch erst in 50 Jahren der Fall. Was aber nicht bedeute, dass alle menschliche Kontrolle aufgegeben werden müsse.

Ein Szenario sei denkbar, in dem ein Mensch aus einer fliegenden Plattform heraus eine große Menge an LAWS führe, ja orchestriere. Entscheidend sei beim mosaic warfare Folgendes, sagt Burns: Durch eine Vielzahl an bemannten wie unbemannten Waffensystemen schaffe man eine möglichst komplexe Situation, die den Gegner überwältige. Komplexität könne der neue asymmetrische Vorteil des US-Militärs werden. „Man kann Komplexität sogar als eine Waffe begreifen“, sagt Burns. „Damit schafft man, was in der Army-Sprache simultaneous dilemmas in multiple domains heißt – der Gegner kommt nicht hinterher.“

In der Fiktion von Peter Singers Roman Ghost Fleet, und das ist dann schon bemerkenswert, taucht genau diese Vorstellung von Komplexität auch auf. Nur dass chinesische Waffensysteme die gegen amerikanische Widersacher richten. Wenn man Thomas Burns fragt, für wie wahrscheinlich er einen kommenden Konflikt zwischen Supermächten hält, sagt er: Er tendiere dazu, die nicht zu erwarten. Natürlich könne jemand einen furchtbaren Fehler machen. Doch auch eine Datenanalyse, die die DARPA angestellt habe anhand der bewaffneten Konflikte seit dem Ende des Zweiten Weltkriegs, habe gezeigt: Die Wahrscheinlichkeit eines Krieges ähnlichen Ausmaßes sei extrem gering.

Viel wahrscheinlicher seien überschaubare, aber langanhaltende Konflikte, wie wir sie derzeit erleben auf der Welt. Die Maschinen – die Computer der DARPA – geben also Entwarnung. Für die Größe, nicht aber die Art der Kriege, die wir Menschen anzetteln werden in Zukunft. Mit der Maschine oder gegen sie.