Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Googles Senior Vice President Urs Hölzle über den Energiehunger des gefräßigen Internetriesen

von GQ
Bei Google ist Urs Hölzle die Nummer acht: Das damals junge Unternehmen stellte den Schweizer Informatiker 1999 als ersten Chief Engineer ein. Verantwortlich war er damals für 30 PCs, die auf Regalen verstaut das erste Datencenter bildeten. Heute ist Hölzle als Senior Vice President für die technische Infrastruktur verantwortlich. Sein Ziel: den Energiehunger des gefräßigen Internetriesen in den Griff zu bekommen.

WIRED: Herr Hölzle, wie viel Strom verbraucht Google aktuell?
Urs Hölzle: Unser Stromverbrauch lag im Jahr 2013 bei 3.712.865 Megawattstunden. Darin ist der Strom, den wir selbst vor Ort erzeugen, eingerechnet. Unser Stromverbrauch ist in den vergangenen drei Jahren um etwa 38 Prozent gestiegen. Dank unserer Investitionen in Energieeffizienz und die Fortschritte der Hardware-Technik erreichen wir heute aber mit der gleichen Menge an Energie die 3,5-fache Rechenleistung. Und so hat sich die Relation von CO2-Emissionen zu unserem Umsatz in den vergangenen Jahren deutlich verbessert.

WIRED: Ist es denn möglich, in etwa zu beziffern, wie viel Energie eine durchschnittliche Google-Suche verbraucht? Zum Beispiel die Suche nach „Urs Hölzle“?
Hölzle: Es ist schwierig, hierfür genaue Zahlen zu nennen. Vor einigen Jahren haben wir mal ausgerechnet, wie viel CO2 ein aktiver Google-Nutzer verursacht, also eine Person, die pro Tag 25 Suchanfragen stellt, 60 Minuten am Tag auf YouTube Videos schaut, über ein Gmail-Konto verfügt und andere unserer Dienste nutzt. Das Ergebnis damals: Google stößt täglich etwa acht Gramm Kohlendioxid aus, um diesem Nutzer due Services bereitzustellen. Anders ausgedrückt: Ein Monat Google-Nutzung durch einen Nutzer entspräche einer 1,6 Kilometer langen Autofahrt. Aktuell wären diese Zahlen vermutlich noch niedriger, da unsere CO2-Intensität gesunken ist.

WIRED: Welche Maßnahmen ergreifen Sie, um Strom zu sparen?
Hölzle: Wir haben in den vergangenen zehn Jahren an der Entwicklung von Methoden gearbeitet, die in unseren Rechenzentren die Effizienz steigern sollen. Zunächst sind wir zu einem Campus-Modell übergegangen, bei dem mehrere Gebäude mit Rechenzentren an einem Standort zusammengefasst sind. Es ist sehr viel effizienter, Gebäude mit Strom zu versorgen und zu kühlen, die eng beieinander liegen. Außerdem bauen wir unsere eigenen Server. Bei konventionellen Servern sind die Effizienzstandards niedrig, um die Anschaffungskosten gering zu halten. Doch solche Server verursachen auf lange Sicht wesentlich höhere Stromkosten. Deshalb entwickeln wir eigene Server mit Blick auf hohe Effizienz und verzichten dabei auf nicht benötigte Komponenten, um Strom zu sparen. Unsere Server brauchen zum Beispiel keine Grafikprozessoren, da sie nicht an einen Monitor angeschlossen sind. Wir versehen zudem jeden Server mit eigenen Backup-Batterien; auch dies ist viel billiger und spart Energie. Wir schätzen, dass wir dadurch gegenüber einem üblichen zentralen Back-Up-System mehr als 25 Prozent einsparen.

WIRED: Welche Rolle spielt die Kühlung der Server?
Hölzle: Tatsächlich haben wir in den vergangenen zehn Jahren durchschnittlich alle 18 Monate eine neue Kühlarchitektur eingeführt. Normalerweise nutzen wir Wasser, um die Wärme abzuführen. Dieser Vorgang nennt sich Verdunstungskühlung und ist sehr effizient. Wir arbeiten hart daran, die Auswirkungen auf die lokale Wasserversorgung so gering wie möglich zu halten. So nutzen wir in unserem Rechenzentrum in Finnland Meerwasser zur Kühlung der Server.

WIRED: Welche Fehler machen andere Datencenter in Bezug auf die Energieeffizienz?
Hölzle: Viele der Methoden, die ich eben beschrieben habe, sind nicht kompliziert und sollten für Betreiber von Rechenzentren einfach umzusetzen sein. Das Wichtigste ist die Erfassung des Energieverbrauchs: Was man nicht misst, kann man auch nicht verbessern. Ein weiterer Fehler ist es, dem Mythos zu erliegen, dass ein Rechenzentrum ausschließlich bei sehr kühlen Temperaturen betrieben werden kann. Dieses Denken ist ein Überbleibsel aus der Zeit, als Computer noch sehr empfindlich waren. Heute erlauben praktisch alle Gerätehersteller in Rechenzentren Temperaturen von 25 Grade Celsius – oder sogar mehr. Auf diese Weise kann man den Stromverbrauch also ser einfach, aber deutlich senken. Man sollte den Mitarbeitern dann aber auch erlauben, bei der Arbeit kurze Hosen und T-Shirts zu tragen.

WIRED: Welche Möglichkeiten zum Stromsparen bietet die Cloud-Technologie?
Hölzle: Es gibt heute eigentlich nur noch zwei Arten von Computern: sehr große und sehr kleine. Die großen Computer sind Rechenzentren. Die kleinen Computer sind die, die wir jeden Tag in unseren Hosentaschen mit uns herumtragen. Noch vor zehn Jahren waren Computer an einen Ort gebunden, der Nutzer saß an einem Schreibtisch, unter dem der PC stand. Heute nutzen die Nutzer ihre Computer außer im Schlaf praktisch ununterbrochen, sie verwenden dabei unsere Rechenzentrum-Infrastruktur zum Suchen, Chatten und Arbeiten.

WIRED: Und diese Dauernutzung spart Energie?
Hölzle: Ja, und zwar auf zwei Arten, wie wir glauben. Erstens können unsere Rechenzentren ihre Ressourcen sehr viel effizienter nutzen als lokale Server. Nehmen wir zum Beispiel E-Mails: Bisher ist es so, dass Unternehmen sehr häufig ihre eigenen E-Mail-Server verwalten. Tatsächlich benötigen sie sogar zwei Server, falls einmal einer ausfällt. Es wird also ein Server betrieben, der überhaupt nichts leistet. Wir hingegen können die Rechenleistung sehr effektiv auf unser weltweites Netzwerk verteilen. Die Untersuchung einer US-Behörde hat ergeben, dass durch den Wechsel der Organisation zu Gmail der Stromverbrauch der Behörde um 90 Prozent gesenkt werden konnte. Und der zweite Punkt: Computer werden immer kleiner und leistungsstärker. Um das mal in eine Relation zu setzen: Ein einzelnes „Nexus 5“-Mobiltelefon bringt heute die gleiche Rechenleistung wie unsere älteste Server-Plattform – und verbraucht dabei viel weniger Energie. Ein PC verbraucht eingeschaltet etwa 150 Watt. Ein Laptop zwischen 15 und 20 Watt, ein Tablet ungefähr fünf  Watt und Mobiltelefone etwa ein bis zwei Watt. Da immer mehr Menschen auf Mobilgeräte wechseln, sinkt also der Energieverbrauch pro Stunde drastisch. 

WIRED: Genau so drastisch steigt aber auch die Zahl der Geräte und die Intensität des Datenflusses.
Hölzle: Sie haben Recht, die Zahl der Geräte steigt. Hinzu kommen miteinander vernetzte Geräte – das sogenannte „Internet der Dinge“ –, die jetzt in unserem Zuhause, in Fabriken und in Fahrzeugen Einzug halten. Wir glauben dennoch, dass der enorme Umfang des Wechsels zu effizienteren Mobilgeräten und in die Cloud dafür sorgen wird, dass der Energieverbrauch unterm Strich sinken wird. Zumal viele dieser vernetzten Geräte wiederum helfen, den eigenen Stromverbrauch noch effizienter zu steuern. Denken Sie dabei zum Beispiel an intelligente Temperaturregler, die dabei helfen, die Energiekosten zu senken.

WIRED: Die Netzwerke müssen aber auch betrieben werden. Wie sieht es mit den Kosten und dem Energiebedarf für die Netzstruktur aus?
Hölzle: Den Energieverbrauch von Rechenzentren und Endgeräten haben wir bereits recht gut erforscht, doch darüber, wie viel das Netzwerk dazwischen verbraucht, wissen wir weniger gut Bescheid. Das Netzwerk ist auch wesentlich komplexer, da sich die Daten zwischen vielen unterschiedlichen Internetanbietern und Mobilfunkbetreibern hin und her bewegen. Das ist ein Thema, das wir gerne noch gründlicher erforscht sehen würden.

WIRED: Ihre Prognose bitte: Wie sehen die grünen Rechenzentren von morgen aus?
Hölzle: Als wir unser erstes Rechenzentrum eingerichtet haben, war es allgemein akzeptiert, dass man für jedes Watt an Energie, das tatsächlich in die Rechenleistung einging, ein weiteres Watt an Energie verschwendete. Man spricht hier vom Overhead, der bei 100 Prozent liegt und für Dinge wie Kühlung und Beleuchtung entstand. Heute benötigt unsere Rechenzentrumsflotte einen Overhead von gerade einmal 12 Prozent. Wir haben damit gezeigt, dass das Engagement für Effizienz sich tatsächlich auszahlt. Aber: Je effizienter man ist, desto schwieriger wird es, sich weiter zu verbessern. Unser Overhead liegt nun schon seit knapp einem Jahr bei 12 Prozent, deshalb mussten wir kreativ werden. Wir machten uns klar, dass wir über Unmengen von Daten zu Betriebsbedingungen verfügten, die wir gar nicht nutzten. Informationen über Serverauslastung, Außentemperatur, Luftfeuchtigkeit, sogar Windgeschwindigkeit und Windrichtung. Also haben wir einen Algorithmus für maschinelles Lernen entwickelt, der den Stromverbrauch mit einer Genauigkeit von 99,6 Prozent vorhersagen kann. Nun können wir verschiedene Betriebsparameter anpassen – zum Beispiel Kühlungssysteme ein- oder ausschalten –, um an jedem Tag maximale Effizienz zu erreichen. Dieses System hat dort, wo wir es nutzen, eine zusätzliche Effizienzsteigerung von 15 Prozent erreicht.

WIRED: Bleibt der Algorithmus Ihr Geheimnis?
Hölzle: Nein, im Gegenteil, wir haben Details über das Tool veröffentlicht und hoffen, dass andere es ebenfalls einsetzen können, um den Energieverbrauch in Zukunft weiter zu reduzieren.

Hier geht es zur Hauptgeschichte „Dateninsel“ und dem Kampf von Unternehmen gegen das Internet als Klimakiller.

GQ Empfiehlt