Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Mit der Playstation zum Pluto: Wie Elektroschrott unser Sonnensystem erforscht

von Jan Guldner
Die Uroma aller Spielekonsolen, Sonys erste Playstation, läuft heute höchstens noch bei Liebhabern zu großer Form auf. Die meisten Exemplare teilen dagegen ein trauriges Schicksal: Verdrängt von jüngeren, stärkeren Nachfolgern stauben sie in den TV-Schränken verlassener Jugendzimmer ein. Dabei könnten sie noch so viel erreichen. Zum Beispiel zum Pluto fliegen — genügend Rechenleistung dafür schlummert unter der grauen Plastikhaube. Das beweist die NASA-Raumsonde New Horizons, die tatsächlich unterwegs zum Zwergplaneten ist. Sie treibt im Grunde der gleiche Prozessor an wie die 1994 erschienene Konsole.

Dass der MIPS R3000-Prozessor dazu fähig ist, Metal Gear Solid oder Tekken auf den Fernseher zu zaubern, ist bekannt. Mittlerweile wähnt man den Playstation-Rechenkern aber im wohlverdienten Ruhestand. Doch eine 12-MHz starke, auf den Weltraumeinsatz zugeschnittene Variante des Chips steuert heute eine Sonde in 3,5 Milliarden Kilometern Entfernung an die Grenzen unseres Sonnensystems. Im Juli 2015 soll die Sonde voraussichtlich Pluto erreichen. Der Prozessor wird dann gut 25 Jahre auf dem Buckel haben.

Ist das die Technik, mit der sich die Menschheit aufmacht, die unendlichen Weiten zu erforschen und neue Lebensräume zu erschließen? Die Antwort lautet schlicht: Ja. Und bislang hat das auch ganz gut funktioniert. Der Einsatz von Alt-Technologie, die an Elektro-Schrott grenzt, ist für Raumfahrtagenturen wie NASA und ESA normal. Sie schicken regelmäßig Komponenten ins All, deren Leistungsfähigkeit längst überholt ist.

Der Grund dafür: Die Entwicklung von Satelliten und Raumschiffen dauert viel zu lange, um mit dem technischen Fortschritt mitzuhalten. Das Material war schließlich nicht schon immer veraltet. Das veranschaulicht die Entwicklung der Sonde Rosetta der Europäischen Weltraumorganisation (ESA), die seit Ende vergangenen Jahres den Kometen 67P/Tschurijumov-Gerassimenko erforscht. „Der Satellit selber wurde in den Jahren 1995 bis 2000 gebaut und fertiggestellt“, sagt Jörg Wehner, Leiter des Institutional and Infrastructure Coordination Office der ESA, „Das Design geht dabei noch weiter zurück.“

Mehr zur Geschichte der Rosetta Mission in der WIRED Germany Multimedia-Story: Auf der Suche nach dem Ursprung des Lebens

In dieser Planungsphase wurde festgelegt, welche Technologien und Komponenten den Flug zum Komet antreten würden. Ins All geschossen wurden Bauteile, die am Ende der Planung leistungsfähig genug waren, die Mission zu erfüllen und gleichzeitig das Budget nicht überschritten. „Beim Bau des Rosetta-Satelliten wurden also Technologien der späten achtziger und frühen neunziger Jahre verwendet, mit all den Problemen, die damit verbunden sind“, sagt Wehner. Deshalb hat die Kamera der Rosetta-Sonde einen Speicher von 16 Megabyte und schickt nach zehnjähriger Anreise Bildmaterial, das von jeder heutigen Handykamera übertroffen wird.

Das ambitionierteste NASA-Raumschiff aller Zeiten ist ungefähr so schlau wie dein Smartphone.

Gizmodo, Technologie-Blog

Die langen Entwicklungszyklen erklären also einen Teil der älteren Technik. Doch obwohl Prozessoren in Smartphones und PCs immer schneller werden, bekommen in der Raumfahrt oft langsamere Chips den Vorzug. Orion, das NASA-Raumschiff, das die Menschheit zum Mars bringen soll, wird von einem IBM PowerPC 750FX-Chip aus dem Jahr 2002 gesteuert, der heute in keinem Laptop mehr verbaut würde. „Das ambitionierteste NASA-Raumschiff aller Zeiten ist ungefähr so schlau wie dein Smartphone“, schreibt der Technologie-Blog Gizmodo. Doch warum ersetzt man im Lauf der Konstruktion nicht einfach alte durch neuere Technik?

 

Das Zauberwort heißt Qualifizierung. Die auf der Erde gut funktionierenden Bauteile müssen für den Einsatz im All so robust gemacht werden, dass sie die extremen Bedingungen unbeschadet überstehen. Da wären zum einen die starke Beschleunigung bei Start und Landung und die damit verbundene Vibration. Außerdem sind die Temperaturschwankungen immens: Scheint die Sonne auf die Komponenten wird es heiß, im Schatten der Erde oder anderer Planeten hingegen ist es eisig kalt. Und je weiter sich Satelliten oder Raumschiffe von der Erde entfernen, desto schwächer wird das Erdmagnetfeld. Der dichte Schutzschild gegen die kosmische Strahlung wird dann löchrig und Prozessoren, Sensoren und Speicherchips stehen unter Dauerbeschuss von energiegeladenen Teilchen.

In den meisten Fällen kann dann aus einem Katalog von bereits qualifizierten Technologien gewählt werden.

Jörg Wehner, ESA

Herkömmliche Chips fallen unter diesen Bedingungen häufig aus. Sie müssen dann neu starten oder verabschieden sich im schlimmsten Fall für immer. Auch deshalb fliegt New Horizons nicht mit dem originalen Playstation-Prozessor, sondern einer gehärteten Variante zum Pluto. Ein Defekt würde die Mission abrupt beenden. „Wenn ein Chip nach drei Wochen tot ist, war die ganze Mission umsonst“, sagt Volker Schmid, Fachgruppenleiter für Raumfahrtmanagement, Bemannte Raumfahrt, ISS und Exploration am Deutschen Zentrum für Luft- und Raumfahrt (DLR). Wenn, wie im Fall von Orion auch Astronauten an Bord sind, kann ein Chip-Versagen sogar Menschenleben kosten. „Es gibt da keinen Raum für Fehler“, sagt Schmid.

Die allerneuesten irdischen Prozessoren an diese Extrembedingungen anzupassen ist ziemlich teuer. „Es erfordert viel Aufwand und viele Tests, bis man eine Generation von Chips strahlungsresistent gemacht hat“, sagt Volker Schmid. Und je höher die Ausfallsicherheit sein soll, desto höher würden die Produktionskosten. „Die Industrie fertigt solche Chips nicht in Serie, da gibt es nichts von der Stange“, sagt Schmid. Wenn sich also schon jemand die Mühe gemacht hat, ein Bauteil so abzuhärten, dass es die Strapazen der Raumfahrt übersteht, wird es auch danach öfter eingesetzt — aus Kosten- nicht aus Leistungsgründen. „In den meisten Fällen kann dann aus einem Katalog von bereits qualifizierten Technologien gewählt werden“, sagt Jörg Wehner von der ESA. Diese Komponenten sind dann zwar reichlich erprobt, aber nicht mehr die allerschnellsten.

Was die Hardware nicht leisten kann, muss die Software deshalb ausbaden. Sie muss möglichst effizient Navigation, Kommunikation und Sensorik steuern. Kein unnützer Code-Ballast, der die Rechenleistung auffrisst darf an Bord, sondern nur das Allernötigste. Die Tüftler der Raumfahrtorganisationen schaffen es über die Software sogar, von der Erde aus die Leistung zu verbessern. Denn Updates können auch zehn Jahre nach dem Start noch ins All geschickt werden. Besonders komplexe Berechnungen werden im Zweifel auch an die Bodenstation ausgelagert. Die Satelliten und Sonden sammeln dann nur Rohdaten, die zur weiteren Verarbeitung zur Erde geschickt werden.

Bislang hat diese Kombination aus verlässlichen Bauteilen und clever programmierter Steuerungssoftware erstaunliche Ergebnisse erzielt. Das beweisen Missionen wie Rosetta oder New Horizons. Die veraltete Technologie kann einen großen wissenschaftlichen Nutzen schaffen.

Was wäre erst möglich, wenn eine Sonde die Rechenkraft der Playstation 4 und nicht die der Playstation 1 hätte? „Leistungsfähigere Komponenten wären schon sehr hilfreich“, sagt Volker Schmid. Zum Beispiel in der Erdbeobachtung: Dort kommen große Datenmengen aus vielen Kameras zusammen und könnten dann schneller verarbeitet werden. Doch die Weltraum-Missionen würden dadurch sehr schnell sehr teuer. Weltraumforscher Schmid fragt sich in solchen Fällen das, was jeder sich fragen würde, der über den Kauf eines neuen Smartphones nachdenkt: „Brauche ich das wirklich?“ 

GQ Empfiehlt