Rechenzentrum-Nahaufnahme

Die Rechenzentren von Azure: Blick hinter die Kulissen

Ob Datenspeicherung, E-Mail-Verkehr oder die Nutzung von Software-Anwendungen: Cloud-Computing ist aus unserem Alltag nicht mehr wegzudenken. Unternehmen wie Privatpersonen nutzen vermehrt die Cloud. Doch welche Infrastruktur steckt eigentlich dahinter?

Wir haben für Sie einen Blick hinter die Kulissen von Azure, der Cloud-Computing-Plattform von Microsoft, geworfen. Auf dem virtuellen Rundgang „Inside Datacenter Tour – Azure Datacenter Operations“ haben wir spannende Einblicke erhalten, die wir gerne mit Ihnen teilen möchten.

Rechenzentren der Superlative

Das erste Mega-Rechenzentrum, das außerhalb der USA gebaut wurde, ist das DB3 bei Dublin. Seit seiner Inbetriebnahme 2009 sind wegen des wachsenden Bedarfs an Cloud-Services weitere Rechenzentren dazugekommen. Was vom Boden aus vielleicht nicht ganz zu erfassen ist, wird dank Drohnenaufnahmen spätestens in der Vogelperspektive klar: die Anlage ist riesig!

Beim Bau wurde viel Wert auf Effizienz gelegt. Als Maß dient die Power Usage Effectiveness (PUE). Dazu teilt man den Stromverbrauch der gesamten Einrichtung (Beleuchtung, Kühlungssysteme,…) durch den der Geräte (Rechner, Speicher,…). So wird erfasst, wie viel Energie tatsächlich in die Verarbeitung der Daten fließt.

Dank der Kühlung über frische Außenluft liegt die PUE von DB3 bei 1.25. Bei den später gebauten Rechenzentren DB4 und DB5 liegt sie sogar bei 1.12. Zum Vergleich: der Durchschnitt liegt bei 1.76. Salopp gesagt würde eine durchschnittliche Anlage also für jeden Euro, der den Server erreicht, weitere 76 Cent verbrauchen.

Blick auf das Rechenzentrum bei Amsterdam

Quelle: Microsoft

Um den Energiebedarf zu decken, baut Microsoft in Dublin ein Kraftwerk vor Ort. Auch auf dem Amsterdam-Campus in den Niederlanden sollen 60 Windturbinen, die 180 Megawatt liefern, entstehen. Unter den Rechenzentren dort befinden sich außerdem Wasseraufbereitungsanlagen mit einem Fassungsvermögen von jeweils einer Million Liter, um Wasser für die Kühlung zu recyceln.

Zur Kühlung werden außerdem Luftbehandlungseinheiten auf den Dächern der Rechenzentren genutzt. Die Kühlung basiert dabei auf einem Prinzip, das schon die alten Perser kannten. Außenluft wird durch Ventilatoren geleitet, um das Volumen zu erhöhen. Der Luftstrom wird über eine Oberfläche mit nassem Kühlmaterial geleitet. So lässt sich mit relativ wenig Wasser und mechanischer Energie ein Temperaturabfall von sechs Grad Celsius erzeugen.

Unterschiedliche Bauweisen

In Quincy betreibt Microsoft ein Rechenzentrum, das aus vorgefertigten Komponenten besteht. Diese Komponenten kann man sich wie Rechenzentrums-Container vorstellen, die mit bis zu 2.000 Servern ausgestattet sind. Dank des modularen Aufbaus lassen sie sich schneller und kostengünstiger aufbauen. Sie unterstützen z. B. Hotmail, Skype oder Outlook.

Natürlich werden beim Bau von Rechenzentren auch die geografischen und klimatischen Bedingungen vor Ort berücksichtigt. In Singapur steht z. B. viel weniger Fläche zur Verfügung. Daher wurde dort in die Höhe gebaut. Außerdem ist das Klima wärmer und feuchter, sodass mehr Kühlung nötig ist. Die PUE niedrig zu halten, ist unter diesen Voraussetzungen schwieriger.

Bei der Wahl der Standorte der Rechenzentren spielen Faktoren wie Nachfrage, Infrastruktur und Man Power eine Rolle. In den Rechenzentren selbst laufen übrigens keine Netzwerkingenieure mit Patchkabeln mehr herum. Mithilfe von Software Defined Networking wird der Datenverkehr zentral gesteuert, ohne dass Switches, die verschiedene Netzwerk-Segmente verbinden, manuell konfiguriert werden müssen.

Hardware

Die Namen der Server klingen wie die Titel von Blockbustern: „Godzilla“, „Beast“ oder „Beast V2“. Microsoft verfügt über eine eigene Abteilung für die Architektur und das Design von Servern. Gebaut werden die Server dann von Erstausrüstern wie HP oder Dell. Eigentlich hoffte Microsoft bei der Entwicklung der „Gen 2 Blade“ Server 2011, dass sie lange Bestand hätten und viele verschiedene Arbeitslasten unterstützen würden.

Doch schon bald wurde klar, dass für das Betreiben von Datenbanken in der Cloud ein wahres „Rechenmonster“ nötig wäre. Das war der Startschuss für „Godzilla“, einen Server mit einem vergleichsweise großen Arbeitsspeicher (512 GiB) und Solid State Drives (SSD) für mehr Speicherkapazität (9 x 800 GB). Auf Godzilla folgten weitere Server-Generationen, die für unterschiedliche Verarbeitungstypen konzipiert wurden.

Gang mit Serverracks in einem Rechenzentrum von Azure

Quelle: zdnet

Im Rahmen des Projekts Catapult untersuchte Microsoft außerdem die Entwicklung von programmierbarer Hardware. Auf der Suche nach mehr Rechenleistung und Alternativen zu CPU wurden u.a. Field-programmable Gate Arrays (FPGAs) erforscht. Bald stellte sich heraus, dass diese Chip-Sets dank Schnelligkeit, Programmierbarkeit und Flexibilität Hochleistungen erbringen können. Zum Beispiel konnte die Suchmaschine Bing verbessert werden.

Heute enthält fast jeder Server in den Rechenzentren von Microsoft einen FPGA. Beispielsweise kann der FPGA als Remote-Beschleuniger für verteiltes Rechnen eingesetzt werden, indem er zwischen den Top-of-Rack Netzwerk-Switches des Rechenzentrums und dem Network Interface Chip des Servers platziert wird. So fließt der gesamte Netzwerkverkehr durch den FPGA.

Speicher

Soweit das Auge reicht, reihen sich in den Gängen der Rechenzentren Serverracks aneinander. In der Einheit im unteren Teil der Racks kann pro Box jeweils über ein Petabyte auf herkömmlichen Festplatten gespeichert werden. Die kleineren Einheiten oben unterstützen 512 Terabyte SSD-Speicher.

Mit Micron SCUTI-O kommt dabei die schnellste SSD der Welt zum Einsatz. So können z. B. große Datenmengen in Echtzeit analysiert werden. Micron SCUTI-O nutzt mit 3D XPoint eine Speichertechnologie, die auf Veränderungen des elektrischen Widerstands basiert.

In einer gängigen Netzwerkumgebung können ca. 200 Racks über einen elektrischen Switch adressiert werden. Mit optischer Technologie, wie Microsoft sie aktuell im Projekt Sirius erforscht, soll ein optisches, rechenzentrumsweites Netzwerk geschaffen werden.

Anders als die heute verbreitete Hierarchie aus elektrischen Switches, wäre dieses Netzwerk komplett flach und könnte tausende Racks umfassen. Ein solches optisches Netzwerk könnte bessere Leistung bei höherer Zuverlässigkeit und geringeren Kosten erbringen.

Nachhaltigkeit

Rechenzentren verbrauchen viel Energie. Eine Studie von Microsoft kam aber zu dem Ergebnis, dass Azure bis zu 93 Prozent energieeffizienter als lokale Lösungen ist. Berücksichtigt man die Nutzung erneuerbarer Energie, ist die Cloud-Plattform außerdem bis zu 98 Prozent CO2-effizienter.

So bezieht Microsoft z. B. 315 Megawatt aus Solaranlagen in Virginia und 180 Megawatt aus Windrädern in den Niederlanden. In Schweden sind zudem zero-waste-Rechenzentren geplant, die ausschließlich erneuerbare Energie nutzen.

Die Rechenzentren von Azure nutzen erneuerbare Energie

Bis 2030 möchte Microsoft CO2-negativ sein. Außerdem soll die Stromversorgungskette verkürzt werden, indem die Energie möglichst vor Ort produziert wird. Je kürzer die Lieferkette, desto weniger Energieverlust und potentielle Ausfallpunkte gibt es. So können mehr Daten mit weniger Ressourcen bereitgestellt werden.

Im Pilotprojekt Stark wird die Energie direkt über den Serverracks produziert und an diese weitergeleitet. Das funktioniert mithilfe von Brennstoffzellen, die natürliches Gas in Energie umwandeln. Da die Brennstoffzellen neben Wasser auch C02 freisetzen, wird momentan an Wasserstoffbrennstoffzellen geforscht.

Sicherheit

Als zweitgrößtes Netzwerk der Welt zieht Azure leider auch bösartigen Datenverkehr an. So werden jeden Tag über sechs Billionen Bedrohungssignale analysiert. Bei Distributed-Denial-of-Service- (DDoS) Attacken z. B. wird durch viele Anfragen von vielen Rechnern absichtlich eine Blockade von Anwendungen ausgelöst.

Um das zu verhindern, vergleicht ein Schutzprogramm ständig die tatsächliche Auslastung mit den kritischen Grenzwerten. Sobald diese überschritten werden, wird automatisch die DDoS-Abwehr aktiviert. Der bösartige Datenverkehr wird gesperrt, der restliche weitergeleitet.

Auch für die Sicherheit der Rechenzentren wird durch ein mehrschichtiges Sicherheitssystem gesorgt. Für den Zutritt müssen eine Reihe von Kontrollstationen passiert werden, darunter ein biometrischer Multi-Faktor-Kontrollpunkt. Dieses Video gibt einen Überblick.

Ausgediente Geräte werden direkt vor Ort zerstört und die entsprechenden Berichte aufbewahrt. Materialen, die nicht recycelbar sind, werden vermieden. Außerdem findet gemäß dem Prinzip der Isolation und Segregation in den Rechenzentren kein Service-Management statt. Betriebseinrichtungen, in denen die Software verwaltet wird, befinden sich an anderen Standorten.

Innovationen

Eine besondere Herausforderung besteht in der Kühlung. Der Energiebedarf der Server wird wohl auch in Zukunft weiter steigen. Flüssigkeitskühlung könnte hier Abhilfe schaffen. Denn sie kann höhere Wärmeflüsse besser als Luft bewältigen. Noch ist die Forschung dazu aber nicht abgeschlossen.

Unter anderem experimentiert Microsoft mit der Zwei-Phasen-Tauchkühlung, bei der Server in eine korrosionsfreie, ungiftige Flüssigkeit mit einem geringen Siedepunkt getaucht werden. Die Flüssigkeit verdampft, steigt auf, kühlt ab und kondensiert. Der Flüssigkeitsverlust pro Jahr beträgt dabei nur drei Prozent.

Ein weiteres aktuelles Forschungsprojekt von Microsoft beschäftigt sich mit der Realisierbarkeit von Unterwasserrechenzentren. Vor einigen Wochen wurde die zweite Phase von Projekt Natick erfolgreich abgeschlossen. Es zeigte sich, dass Unterwasserrechenzentren wirtschaftlich und logistisch realisierbar sind. Zwei Jahre lang hatte der zwölf Meter lange Zylinder mit über 800 Servern vor der schottischen Küste gelegen.

Nach zwei Jahren wird das Unterwasserrechenzentrum zurück an Land geholt

Quelle: Microsoft

Die Ausfallrate war dabei achtmal niedriger als an Land. Denn der trockene Stickstoff, aus dem die Atmosphäre in dem Unterwasserrechenzentrum besteht, schützt vor Korrosion. Außerdem fehlen Erschütterungen durch Menschen, die beim Arbeiten an die Geräte stoßen.

Da die Unterwasserrechenzentren kein Süßwasser zur Kühlung benötigen, gelten sie als nachhaltig. Zudem werden sie mit erneuerbarer Energie betrieben. Als nächstes sollen mit Projekt Natick V3 insgesamt zwölf solcher Zylinder auf einem gemeinsamen Träger versenkt werden.

Die Nachfrage nach langfristiger Datenspeicherung in der Cloud steigt. Um ihr auch in Zukunft gerecht zu werden, erforscht Microsoft im Projekt Silica die Speicherung von Daten in Quarzglas mithilfe von ultraschneller Laseroptik. Ein kleines Stück Glas kann hunderte Terabyte Daten speichern.

Die vom Laser kodierten Daten können von Machine-Learning-Algorithmen ausgelesen werden. Das Glas ist extrem widerstandsfähig, es kann z. B. gekocht oder entmagnetisiert werden. So können die Daten sehr sicher und langfristig gespeichert werden.

Fazit

Riesige Anlagen, Energieversorgung aus erneuerbaren Energien, leistungsstarke Hardware, massive Speicherkapazität, herausragende Energieeffizienz, strenge Sicherheitsvorkehrungen und spannende Pilotprojekte – die Rechenzentren von Azure erfüllen gleich mehrere Superlative auf einmal.

Mehr zum Thema Cloud

Sie interessieren sich für Software-Lösungen aus der Cloud? Wir beraten Sie gerne.

Sprechen Sie uns an!