/Life

Zehn realitätsnahe Szenarien, wie die Welt untergehen könnte

Richard Benson 19.05.2017

Was könnte das Ende der Menschheit auslösen? Mit dieser Frage beschäftigen sich Wissenschaftler, die existenzielle Risiken erforschen. Hier diskutieren sie zehn Horrorszenarien.

Dieser Artikel erschien zuerst in der gedruckten Ausgabe des WIRED Magazins im April 2017. Wenn ihr die Ersten sein wollt, die einen WIRED-Artikel lesen, bevor er online geht: Hier könnt ihr das WIRED Magazin testen.

Es ist ein winterlicher Abend Ende vergangenes Jahres, als sich in der im 14. Jahrhundert errichteten Old Library des Pembroke College in Cambridge eine internationale Runde von 50 Wissenschaftlern zu einem kerzenbeschienenen Dinner versammelt. Das Thema ihrer Gespräche ist ein äußerst ernstes: Was bedroht den Fortbestand der Zivilisation am meisten?

Zu der Veranstaltung haben zwei Institutionen der Universität Cambridge eingeladen, das Centre for the Study of Existential Risk (CSER, auch „Caesar“ genannt) und das Leverhulme Centre for the Future of Intelligence  (CFI). Das Reden über den Weltuntergang ist hier Standard, denn beide Forschungszentren gehören zu einer kleinen Gruppe von Organisationen in Großbritannien und den USA, in denen hochrangige Wissenschaftler, Juristen und Philosophen sich mit sogenannten existenziellen Risiken befassen.

Unter solchen, im Englischen X-risks genannt, versteht man hypothetische zukünftige Ereignisse, die eine globale Katastrophe auslösen könnten, die schlimmstenfalls die Auslöschung der Zivilisation oder der Menschheit zur Folge haben könnten. Die Bedrohungen lassen sich unterscheiden in anthropogene, also vom Menschen gemachte (Atomkrieg, Klimawandel), und non-anthropogene (Asteroideneinschlag, Vulkanausbrüche, Invasion durch feindlich gesinnte Außerirdische). Zu diesen ist noch eine weitere Bedrohung hinzugekommen, die derzeit wohl meistbeachtete, aufgrund derer die Untersuchung von X-risks in den vergangenen zehn Jahren auch erst zur wirklichen Wissenschaftsdisziplin wurde: die Bedrohungen durch die 
Entwicklung von Künstlicher Intelligenz (KI). 

Das ehrwürdige Clare College in Cambridge existiert seit bald 800 Jahren. Diese Risikoforscher denken trotzdem übers Ende nach. Von links nach rechts: Julius Weitzdörfer, Centre for the Study of Existential Risk, Cambridge; Beth Barnes, Future of Sentience Society, Cambridge; Stephen Cave, Leverhulme Centre for the Future of Intelligence, Cambridge; Anders Sandberg, Future of Humanity Institute, Oxford; Huw Price, University of Cambridge; Jane Heal, Centre for the Study of Existential Risk, Cambridge.

Der Philosoph Nick Bostrom hat die Betrachtung von X-risks mit der Gründung des Future of Humanity Institute (FHI) im Jahr 2005 in Oxford auf die Agenda gesetzt: Die potenziellen Gefahren, die von KI ausgingen, seien zu groß, um sie zu ignorieren. Das Leverhulme Centre for the Future of Intelligence wurde dann dafür gegründet, um X-risk-Forschung an verschiedenen Wissenschaftsstandorten zu ermöglichen und zu koordinieren: in Oxford und Cambridge, am Imperial College in London und im Future of Life Institute am MIT, im Machine Intelligence Research Institute im kalifornischen Berkeley und im lediglich im virtuellen Raum existierenden Global Catastrophic Risk Institute (GCRI). In Cambridge gibt es zudem noch eine Studierendenorganisation namens Future of Sentience, die von der Studentin Beth Barnes mitgegründet wurde, die als student collaborator mit dem CSER zusammenarbeitet.

KI beschäftigt die Fantasie von Menschen zwar seit Beginn der industriellen Revolution. Doch die rasante Entwicklung der Computertechnologie im 21. Jahrhundert löst selbst bei den rationalsten und klügsten Denkern auf der Welt Ängste aus. Im Januar 2015 gehörten unter anderem Stephen Hawking, Elon Musk und Googles Forschungschef Peter Norvig zu den Unterzeichnern eines offenen Briefes, in dem Dutzende Experten dazu aufriefen, die möglichen Auswirkungen von KI auf die Menschheit besser zu untersuchen.

Der Brief war ursprünglich vom Future of Life Institute verfasst worden und wandte sich an KI-Forscher. Die Bedenken sind seither eher gewachsen: Martin Rees, Kosmologe in Cambridge und Mitbegründer des CSER, hält die X-risk-Forschung für unverzichtbar – zwar existiere die Erde seit 45 Millionen Jahrhunderten, doch unser Jahrhundert sei das erste, in dem eine einzige Spezies, wir Menschen, die Zukunft der Biosphäre bestimme.

Wir könnten nach vier Milliarden Jahren Evolution die letzte Generation unserer Spezies sein 

Die Tech-Industrie interessiert sich ebenfalls verstärkt für existenzielle Risiken. Das CSER in Cambridge wurde auch dank der Unterstützung des Skype-Mitgründers Jaan Tallinn ins Leben gerufen. Tallinn hatte den Cambridge-Philosophieprofessor Huw Price bei einer Konferenz kennengelernt, und die beiden hatten festgestellt, dass sie ähnliche Befürchtungen in Bezug auf KI und andere Bedrohungen hegten. Tallinn hatte begonnen, sich ernsthaft Sorgen zu machen, nachdem er Texte des KI-Forschers Eliezer Yudkowsky gelesen hatte. Daraufhin hatte sich Tallinn entschlossen, Menschen aus unterschiedlichen Wissenschaftszweigen zum Thema KI zusammenzubringen.

„An den Berührungspunkten zwischen Physik, Computerwissenschaften und Philosophie hat sich ein Forschungsfeld entwickelt“, sagt Tallinn. „Als Philosoph kann man Thesen entwickeln, die man dann mit mathematischen Modellen unterfüttert, statt ins freie Assoziieren zu geraten, was die meisten Philosophen tun – die stützen sich letztlich auf ihre Intuition. Doch Intuitionen sind stets mangelbehaftet. Wenn philosophische Überlegungen hingegen auf Computercode oder mathematischen Modellen fußen, dann ist das schon mal eine tragfähige Basis. Zugleich kann die Philosophie die Naturwissenschaften in sich widerspruchsfrei machen und ihren Erkenntnissen einen Rahmen und eine Richtung geben.“

Nick Bostrom vom FHI in Oxford argumentiert ähnlich, wenn er über sein Institut sagt, es formuliere „Fragen, die man beantworten muss, sollten Zukunftstechnologien das Menschsein an sich verändern“. Ein Beispiel, auf das man sich leicht einigen kann: Roboter sollten dieselben Grundwerte beachten wie Menschen. Doch wie verständigen wir uns darauf, welche Werte das sind? Stephen Cave, Geschäftsführer des CFI, sagt dazu: „Seit 2500 Jahren machen wir Menschen uns Gedanken über diese Fragen, nun müssen wir sie dringend beantworten. Das ist sehr aufregend.“

CSER-Geschäftsführer Seán Ó hÉigeartaigh sagt, dass die meiste Arbeit im Bereich X-risks ganz praktische Anwendungen besitze. Jane Heal vom CSER zum Beispiel untersuche, „wie wir den reflektierenden, abgeklärten Teil des menschlichen Bewusstseins vom anmaßenden tierischen Teil so trennen können, dass wir gemeinsam Gesetzgebungen schaffen können, die den Klimawandel bekämpfen“.

Bereitet einem das Nachdenken über solche Fragen nicht schlaflose Nächte? Da lacht Nick Bostrom: „Das fragen alle Leute.“ Anders Sandberg, Wahrscheinlichkeitstheoretiker am FHI, sagt dazu: Er schlafe sehr gut, denn er mache sich ja Gedanken darüber, wie das Eintreffen von Bedrohungsszenarien verhindert werden könne.

Jaan Tallinn wird da philosophischer: „Tatsächlich habe ich die Welt mehr schätzen gelernt. Wenn man fürchtet, dass wir womöglich die letzte Generation des Menschengeschlechts sein könnten nach vier Milliarden Jahren Evolution, möchte man etwas gegen dieses Untergangsszenario unternehmen – doch zugleich empfindet man Dankbarkeit, am Leben zu sein.“

Diese zehn Bedrohungen nehmen X-risk-Forscher ernst:

1. Künstliche Intelligenz übernimmt die Macht
Eines der meistdiskutierten Sze­narien in der X-risk-Forschung lautet: Maschinen könnten eine Form von Intelligenz entwickeln, die der menschlichen überlegen wäre und unabhängig von ihr existieren könnte. Nick Bostrom vom FHI sagt: Sollte die Geschwindigkeit der Veränderungen, die durch KI hervorgerufen werden, mit der während früheren industriellen und landwirtschaftlichen Revolutionen vergleichbarer werden, so werde der KI-Zug „vermutlich nicht am Bahnhof ‚Mensch‘ anhalten oder auch nur abbremsen“. Bostrom glaubt, dass Maschinen im Jahr 2075 ein Intelligenzniveau erreichen werden, das 90 Prozent des menschlichen entspricht.

Ein anderer Grund zur Sorge ist nach Ansicht des FHI-Mitgründers Jaan Tallinn, dass die existenziellen Risiken, die von KI ausgehen, auch alle anderen Risiken erhöhen könnten: Die Gefahr bestehe, dass intelligente Roboter durchdrehen und etwa einen Atomkrieg auslösen könnten.

Reine Science-Fiction-Szenarien sind aber nicht Gegenstand der X-risk-Forschung. Deren Vertreter sind sich bei einem einig: Es geht hier nicht um Terminator. Ist ein Risiko realistisch vorstellbar, so hört es meist auf, eines zu sein. Denn dann kann man Vorkehrungen dagegen treffen, dass es eintritt. Die Herausforderung besteht darin, sich etwas vorzustellen, was wir uns eigentlich nicht vorstellen können – und damit umzugehen.

Manche Wissenschaftler aus anderen Forschungsfeldern sehen in KI keinerlei Bedrohung. Die Argumentation der X-risk-Forscher aber ist gar nicht, dass KI prinzipiell gefährlich sei, sondern dass sie gefährlich werden könnte – und deshalb steht das Thema bei ihnen hoch oben auf der Agenda.

Wahrscheinlicher Zeitpunkt: 2075
Priorität: sehr hoch

2. Pandemien werden zur Bedrohung für die Menschheit
Natürlich auftretende ebenso wie vom Menschen verursachte Seuchen sind eines der meisterforschten globalen Katastrophenszenarien. Durch sogenannte „Gain of function“-Experimente haben Befürchtungen davor neue Nahrung erhalten: Bei solchen Experimenten werden bekannte Krankheitserreger mit neuen, riskanten Funktionen ausgestattet. So haben etwa Virologen im Jahr 2011 eine Variante des Vogelgrippevirus gezüchtet, die auch von Frettchen übertragen werden kann. Die Forscher wollten besser verstehen, unter welchen Bedingungen das Virus in freier Wildbahn übertragen wird.

Derartige Experimente können Risiken beherrschbar machen. Andererseits kann durch sie ein womöglich größeres Risiko überhaupt erst kreiert werden, falls dergestalt veränderte Organismen aus geschützten Laborbereichen nach außen gelangen und schlimmstenfalls eine weltweite Seuche auslösen.

Diese Bedrohung ist deshalb besonders groß, weil sich eine Pandemie im Ernstfall selbst reproduziert: Während eine nukleare Explosion örtlich begrenzt ist, könnte sich ein synthetisch hergestelltes Virus in unserer hochmobilen Welt binnen weniger Tage über den Erdball verteilen. In der Vergangenheit haben Seuchen mit natürlichem Ursprung wie zum Beispiel die Pest Millionen Opfer gefordert. Heute könnte die Biotechnologie aber etwas erschaffen, das die Pest wie eine harmlose Grippewelle erscheinen ließe.

Denkbar wäre, dass ein Einzelner ein Virus züchten und aus einem Labor herausschmuggeln könnte mit der Absicht, die Menschheit zu vernichten. Anders Sandberg vom FHI arbeitet an einem Paper, das die Motivlage hinter einer solchen Tat ergründen soll. „Es ist gar nicht leicht, das Szenario zu überprüfen“, sagt er, „weil wenige Leute so etwas je tun wollten – es gibt dazu nicht viel Quellenmaterial.“ Als das CSER eine ähnliche Untersuchung durchführte, erfuhr es Bedenkliches: Derzeit gibt es keine Vorschriften, die Biotech-Firmen zwingen würden, ihre Labormitarbeiter psychologischen Tests zu unterziehen.

Weil für das Einzeltäter-Szenario sehr viele Dinge zusammenkommen müssten, hält Sandberg es für deutlich unwahrscheinlicher als „einen Laborunfall, der passieren könnte, weil ein Biotech-Startup unvorsichtig handelt“.

Wahrscheinlicher Zeitpunkt: heute
Priorität: sehr hoch

3. KI-gesteuerte Waffen reißen die Kontrolle an sich
Südkorea setzt zur Sicherung seiner Grenze zu Nordkorea heute bereits von Samsung entwickelte Wachroboter ein, die im Notfall schießen könnten – autonome Waffensysteme sind also schon im Gebrauch. Deshalb ist ein Zukunftsszenario nicht unwahrscheinlich, in dem Gesichtserkennungssoftware bei der Jagd auf Zielpersonen benutzt werden könnte; oder eines, in dem Kleptokraten oder Terroristen sich per 3D-Drucktechnologie eigene Waffenarsenale anlegen.

Früher, während des Rüstungswettlaufs im Kalten Krieg, bauten Staaten Bomben und Raketensprengköpfe mit riesigem Zerstörungspotenzial (weil die Zielgenauigkeit dieser Waffen so schlecht war) und benutzten menschliche Armeen, die im Kriegsfall enorme Verluste hätten erleiden müssen. In Zukunft könnten Roboterarmeen hingegen gezielt eingesetzt werden und würden unbeteiligten Zivilisten theoretisch nicht schaden.

Roboterarmeen werden jedoch derart klein und billig sein, dass nicht nur staatliche Akteure in ihren Besitz kommen dürften. Das dystopischste Szenario wäre, dass militärische Stärke zukünftig völlig entkoppelt würde von der Größe eines Staates oder einer Gruppe. Laut Jaan Tallinn könnte Folgendes passieren: „Fünf Leute könnten mit nur zwei Lkw-Ladungen autonomer Kleinwaffen die Bevölkerungen ganzer Städte töten – und niemand wüsste sicher, wer dahintersteckt.“

Stuart Russell, Computerwissenschaftler in Berkeley, warnt vor einem Wettrüsten, bevor überhaupt eine echte Debatte über autonome Waffensysteme begonnen hat und eine Verständigung auf deren Verbot möglich wird, wie es derzeit bei den Vereinten Nationen diskutiert wird. Das allein sollte einem schon Angst machen, doch ein Wettrüsten könnte auch die Entwicklung riskanter KI beschleunigen – inklusive solcher Maschinen, die in der Lage sind, selbst Waffen zu kaufen.

Wahrscheinlicher Zeitpunkt: jederzeit
Priorität: (noch) niedrig

Maschinen könnten die Weltherrschaft übernehmen, glauben zumindest x-Risk-Forscher. 

4. Ein Atomkrieg führt das Ende der Zivilisation herbei
Obwohl mögliche nukleare Konflikte heute weniger diskutiert werden als zu Zeiten des Kalten Krieges, gibt es nach wie vor Tausende Kernwaffen auf der Welt. Und diverse Konflikte (etwa in Kaschmir und der Ukraine), in die Atommächte verstrickt sind.

Das GCRI beobachtet die Entwicklung und richtet sein Augenmerk insbesondere auf die Möglichkeit, dass es zu einem ungeplanten Atomkrieg zwischen Russland und den USA kommen könnte. Die beiden Staaten sind zusammen im Besitz von 90 Prozent des weltweiten Kernwaffenarsenals. Schon ein Falschalarm könnte als Reaktion einen Erstschlag zur Folge haben. Für 90 Prozent der vom GCRI durchgespiel­ten Szenarien beziffert das Institut die aufs Jahr gerechnete Wahrscheinlichkeit deren Eintreffen auf 0,07 bis 0,00001. Die Zahl 0,07 bedeutet: Im Schnitt könnte alle 14 Jahre ein ungeplanter Atomkrieg ausbrechen.

Die radioaktive Verstrahlung würde die Menschheit nicht notwendigerweise als Ganzes bedrohen. Ein Risiko aber geht vom nuklearen Winter aus, der entstehen könnte, wenn viele Städte zerstört würden – wären es mehr als etwa 100, so wäre die Rußwolke, die in die Stratosphäre aufstiege, groß genug, um die Wärmestrahlung der Sonne zu blockieren. Der Temperatursturz würde die Nahrungsmittelproduktion in den betroffenen Gebieten reduzieren. Geschähe das parallel in den USA, Russland und Europa, könnte der Engpass ausreichen, um den Kollaps auch aller nicht von Atomschlägen betroffenen Gesellschaften auszulösen – und damit das Ende der Zivilisation.

Wahrscheinlicher Zeitpunkt: jederzeit
Priorität: niedrig bis mittel

5. Extreme Klimaveränderungen zerstören alle Infrastruktur
Es klingt überraschend, doch der Klimawandel als solcher wird von den X-risk-Forschern nicht als drängendes Problem betrachtet. Das FHI beispielsweise hat es abgelehnt, sich damit zu beschäftigen, „weil das Problem zu gering ist“, so Anders Sandberg. Dieser Unwillen liegt teilweise darin begründet, dass sich bereits sehr viele andere Wissenschaftler mit dem Klimawandel befassen. Dass Risikoforscher sich mit dem Thema nicht abgeben, liegt aber paradoxerweise auch darin begründet, dass der Klimawandel mit zu vielen unbekannten Variablen verbunden ist.

„Es ist denkbar, dass im Laufe unseres Jahrhunderts bereits Technologien zur Verfügung stehen werden, die die Gefahren des Klimawandels abwenden“, sagt Sandberg. „Andererseits könnten auch Technologien erfunden werden, die alles noch viel schlimmer machen. Wir können nicht sagen, wie sehr sich die Temperaturen aufgrund von menschlichen Aktivitäten ändern werden, deshalb ist es extrem schwierig, zutreffende Voraussagen zu machen.“

Die größte Gefahr, die von einem Temperaturanstieg ausgehen könnte, wäre die Zerstörung der natürlichen wie menschengemachten Infrastruktur – etwa dadurch, dass eine Spezies aussterben und in Folge dessen ein mit ihr verbundenes Ökosystem kollabieren könnte. Eine nachfolgende Seuche oder ein Nuklearkrieg um schwindende Ressourcen könnten dann das Ende der Zivilisation herbeiführen. Diese Art von katastrophalen Folgeeffekten nennt man systemische Risiken, und die werden derzeit in einem Forschungsprojekt von Sandberg und dem Global Catastrophic Risk Institute in New York weiter untersucht.

Wahrscheinlicher Zeitpunkt: jederzeit
Priorität: niedrig bis mittel

6. Ein Asteroid schlägt auf der Erde ein 
Gäbe es die Erdatmosphäre nicht, würde unser Heimatplanet andauernd von kleinen Meteoroiden getroffen: Die Atmosphäre verbrennt alles restlos, was einen geringeren Umfang als zehn Meter hat. Das ist praktisch, denn die kinetische Energie, mit der ein solcher Brocken auf die Erde prallen würde, hätte etwa die gleiche Wucht wie die Atombombe, die einst Hiroshima zerstörte. Pro Jahrtausend wird die Erde durchschnittlich ein- bis zweimal von einem Asteroiden getroffen, dessen Umfang größer ist als zehn Meter; und einmal alle Million Jahre von einem, der einen Kilometer oder größer ist. Der Einschlag eines solchen Kleinplaneten würde ausreichen, um das Weltklima derart zu verändern, dass etwa durch Ernteausfälle die Menschheit in Gefahr geraten könnte.

Die wirklich ernsthaften, existenziell bedrohlichen Einschläge wie etwa derjenige des Asteroiden, der vor rund 66 Millionen Jahren den 180 Kilometer großen Chicxulub-Impaktkrater in Mexiko hinterlassen hat und in dessen Folge es zum Aussterben unter anderem der Dinosaurier kam, geschehen etwa alle 50 bis 100 Millionen Jahre mal. Das mag besorgniserregend klingen. Doch es ist gut zu wissen, dass Astronomen permanent für die Erde gefährliche Himmelskörper beobachten und eine ganze interdisziplinäre Wissenschaftscommunity damit beschäftigt ist, mögliche Gegenmaßnahmen zu planen, falls ein Himmelskörper der Erde einmal gefährlich nahekäme. 

X-risk-Forscher werden sich deshalb vermutlich auch in Zukunft nicht größer mit Asteroiden beschäftigen. Stattdessen bitten sie viel eher Spezialisten für Pandemien oder Biosicherheit, zu prüfen, welche möglichen Nachfolgewirkungen ein großer Einschlag haben könnte.

Wahrscheinlicher Zeitpunkt: 50 bis 100 Millionen Jahre
Priorität (im Jahr 2017): niedrig

Vielleicht verschlingt aber auch ein riesiges Vakuum unser Universum – ein gängiges Diskussionsthema bei X-risk-Forschern

7. Das Leben, wie wir es kennen, ist nur eine Simulation
Um komplexe Risiken kalkulieren zu können, müssen X-risk-Forscher gedanklich die Grenzen dessen ausloten, was belegbar ist. Und zu den esoterischsten Überlegungen gehört die, wir Menschen könnten nicht die intelligenteste Lebensform im Universum sein – sondern bloß Marionetten in einem Spiel, das wir nicht begreifen.

Die Hypothese, wir befänden uns in einer Simulation und seien Teil eines Experiments oder Spielzeug einer höheren Macht, wurde 1998 in dem Film Die Truman Show durchdekliniert. Am FHI, sagt Nick Bostrom, werde darüber nachgedacht, weil das „unsere Ansichten darüber einschränkt, wie die Zukunft aussehen und was unser Platz in der Welt sein könnte“.

Ähnliches gilt für das Konzept des Boltzmann-Gehirns, das im Jahr 2004 aufgestellt und nach dem Physiker Ludwig Boltzmann benannt wurde. Diese Theorie besagt, dass die Menschheit lediglich eine zufällige Ansammlung von Materie in einem Multiversum darstelle, in dem viele andere Dinge existierten, von denen wir niemals etwas wissen würden. Die Quantenmechanik legt nahe, dass kleinste Mengen von Energie gelegentlich Moleküle aus Materie produzieren können. Bedenkt man die Unendlichkeit der Zeit, folgt daraus, dass diese Moleküle nach Zufallsprinzipien ein Gehirn erzeugen könnten, das sich seiner selbst bewusst wäre, doch nicht notwendigerweise irgendwas außerhalb seiner eigenen Erfahrungswelt verstünde.

Manche Verfechter dieser Theorie nutzen sie, um zu erklären, warum das Universum so gut geordnet erscheint. „Nur sehr wenige Leute nehmen die Idee der Boltzmann-Gehirne aber wirklich ernst“, sagt Anders Sandberg. X-risk-Forscher beschäftigen sich kaum mit ihnen, denn selbst wenn es Boltzmann-Gehirne gäbe, könnte niemand etwas mit ihnen anfangen.

Wahrscheinlicher Zeitpunkt: unbekannt
Priorität: sehr niedrig

8. Ein Mangel an Nahrung verursacht ein Massensterben
Prognosen besagen, im Jahr 2050 würden bis zu 9,6 Milliarden Menschen auf der Erde leben. Um zukünftige Hungersnöte zu vermeiden, müsste in den drei Jahrzehnten bis dahin die weltweite Nahrungsproduktion dementsprechend um 70 Prozent erhöht werden. Die Fortschritte in der Agrartechnologie aber, die parallel zum Anstieg der Bevölkerungszahlen seit 1950 bis heute geschahen, waren mit einem höheren Verbrauch von fossilen Brennstoffen verbunden. Zudem sorgen Bodenerosion und Umweltbelastungen dafür, dass die landwirtschaftlich nutzbaren Flächen weniger werden. 

Und dann gibt es noch die Risiken, die unmittelbar mit der spezifischen Art der Nahrungsmittel verbunden sind, die wir essen. Eine weitverbreitete Meinung besagt, dass wir künftig erheblich weniger Fleisch und dafür mehr Getreideprodukte essen müssen. Doch obwohl Fortschritte bei der Saatgutzucht dazu geführt haben, dass Feldfrüchte auch unter ungünstigen Bedingungen wachsen, warnen Wissenschaftler, dass dieses Saatgut anfällig ist. Ganze Weizenanbaugebiete könnten durch Pilzbefall vernichtet werden, und synthetisch hergestellte Viren könnten ebenfalls katastrophale Folgen für die Landwirtschaft haben. 

Experten sagen voraus, dass ab dem Jahr 2020 drastische Preisanstiege bei Nahrungsmitteln drohen; in Entwicklungsländern könnte die Versorgung gegen Mitte des Jahrhunderts kritisch werden. Nahrungsengpässe haben in der Geschichte der Menschheit oft zu Aufständen und politischer Instabilität geführt. Doch über einen zukünftigen Fall wurde bisher wenig nachgedacht. Das CSER in Cambridge arbeitet nun an einem ganzheitlichen Ansatz.
 
Wahrscheinlicher Zeitpunkt: 2050
Priorität: hoch

9. Ein Vakuum verschlingt das Universum
In den vergangenen zehn Jahren hat eine Theorie gewisse Popularität erlangt, die besagt: Der Zusammenstoß von Teilchen in einem Teilchenbeschleuniger könnte eine Reaktion triggern, in deren Verlauf sich die Quantenzusammensetzung aller Materie, ja sich gar die Grundregeln der Physik überhaupt verändern könnten. 

In jüngster Zeit haben einige Forscher die Hypothese aufgestellt, dass irgendwo im Universum eine Blase mit einem echten Vakuum eines absoluten Nichts existieren könne. Dieses Vakuum drohe, das Universum in Lichtgeschwindigkeit zu vernichten, im Zuge eines Prozesses namens Vakuumzerfall. Dass der noch nicht eingesetzt habe, liege darin begründet, dass das Vakuum in einem metastabilen Zustand ruhe – Teilchenbeschleuniger aber könnten diesen Zustand stören. Woraufhin sich das Vakuum ausdehnen und die Welt verschlucken könne. 

Viele Physiker lehnen diese Annahme ab und verweisen darauf, dass die Erde schon immer kosmischen Strahlen widerstanden habe, die eine größere Kraft besäßen, Materie zu verwandeln, als ein Teilchenbeschleuniger. Die Erde sei noch immer da, also sei sie ausreichend widerstandsfähig.

Die Wissenschaftler am FHI überzeugt letztere Argumentation nicht. Sie sagen, unsere Existenz allein könne nicht als Beweis dafür dienen, die Unwahrscheinlichkeit des Einsetzens dieses Vakuumzerfalls zu belegen – denn es könne ja sein, dass schon Millionen von Erden vor unserer auf diese Weise ausradiert worden seien.

Diese Überlegung führte dazu, dass am FHI zuletzt ein Paper entstand, das die Wahrscheinlichkeit berechnete, mit der wissenschaftliche Arbeiten an sich inkorrekt sein könnten. Ergebnis: Ein Prozent aller Arbeiten müssten eigentlich zurückgezogen werden, weil sie Berechnungsfehler oder falsche Modelle enthielten. „Deshalb sollte sogar eine wissenschaftliche Arbeit, die vorhandene Forschungsergebnisse bestätigt, einen als Leser nur zu 99 Prozent darin bestärken, dass es kein entsprechendes Risiko geben könnte“, sagt Anders Sandberg. „Ein Prozent aber bleibt stets ungewiss.“

Wahrscheinlicher Zeitpunkt: streng genommen jetzt
Priorität: niedrig

10. Ein Tyrann untergräbt die globale Stabilität
Am Morgen nach der Wahl von Donald Trump zum US-Präsidenten gab es im CSER eine Gruppendiskussion darüber, ob dieses Votum ein existenzielles Risiko darstelle. Schon im Anschluss an die Brexit-Abstimmung in Großbritannien war ein ähnliches Meeting abgehalten worden.  

Derartige Wahlergebnisse können einen signifikanten Effekt auf die Menschheit haben, speziell im Hinblick darauf, dass sie der internationalen Zusammenarbeit schaden können – bei der Bekämpfung von Problemen wie dem Klimawandel etwa oder dem Verhindern von womöglich verheerenden Konflikten. Wichtiger sogar noch ist der Effekt darauf, wie politische Entscheidungen gefällt und kommuniziert werden. Da geht es um den Siegeszug des „Postfaktischen“, wie Julius Weitzdörfer vom CSER sagt. „Mit Trump entfernen wir uns von einer Welt, in der wissenschaftliche Fakten in Debatten noch etwas zählen“, sagt er. „Das vermindert unsere Fähigkeit dazu, mit jeglicher Form von Bedrohung umzugehen. Es macht das Regieren schwieriger und erhöht die Risiken.“

Einige Forscher innerhalb der X-risk-Gemeinde, die wie etwa Simon Beard vom CSER die politischen Prozesse beobachten, halten die Vorstellung, dass die USA nun eine größere Gefahr darstellen, für eine Überreaktion – weil Hillary Clinton bei der Präsidentschaftswahl ja die Mehrheit der Stimmen gewonnen habe. Für die Risikoforschung könnte der US-Wahlausgang sogar einen Vorteil bringen: „Die Ängste vor KI haben uns bereits größere Aufmerksamkeit gesichert“, sagt Weitzdörfer. „Das Auftauchen Trumps wird nun noch mehr Menschen in ihrer Überzeugung bestärken, dass darüber hinaus weitere ernste Risiken für die Welt existieren, über die wir uns Gedanken machen sollten.“

Wahrscheinlicher Zeitpunkt: jetzt
Priorität: mittel

Jetzt WIRED Member werden und mit uns in die Zukunft starten!

Mit im Paket: 4 Magazin-Ausgaben im Jahr und der Member-Zugang zu exklusiven Inhalten auf WIRED.de sowie weitere Vorteile nur für Member.

Member werden