Die Geburt und Entwicklung von Unterwasser-Datenzentren

Nov 24, 2023Eine Nachricht hinterlassen
Einführung

Nur wenige wissen, dass das Konzept der Unterwasser-Rechenzentren während der ThinkWeek 2014 von Microsoft, einer internen Brainstorming-Sitzung, entstand. Es wurde von einem Mitarbeiter mit Erfahrung im Betrieb von U-Booten der Marine vorgeschlagen. Microsoft führte erste Experimente durch, bei denen ein Rechenzentrum fünf Monate lang unter Wasser getaucht wurde, mit vielversprechenden Ergebnissen.

 

Zuletzt schickte Microsoft im Jahr 2018 ein U-Boot voller 864 Server, das 27,6 Petabyte Daten speichern konnte, auf den Grund der Orkney-Inseln nordöstlich von Schottland. Zwei Jahre später, im Juni 2020, brachte Microsoft es zur Evaluierung an Land. Die Ergebnisse zeigen, dass das U-Boot-Rechenzentrum in allen Aspekten eine bessere Leistung erbringt als herkömmliche Rechenzentren und die Ausfallrate im Wasser ein Achtel der an Land beträgt.

 

Warum versenkt Microsoft sein Rechenzentrum? Kann der Bau von U-Boot-Rechenzentren nach dem Piloten im großen Stil vorangetrieben werden?

 

Microsoft Putting its Server Deep into the Water

Warum Microsoft sich für Unterwasser-Rechenzentren entscheidet

Die Antwort ist einfach: Maximieren Sie die verfügbaren Ressourcen. Gleichzeitig werden viele Mängel landwirtschaftlicher Rechenzentren behoben.

 

Erstens sind Unterwasser-Rechenzentren sicherer und stabiler: Rechenzentren sind empfindlich und mit hochentwickelten Komponenten gefüllt, die durch Temperaturschwankungen, Sauerstoffkorrosion und sogar Kollisionen beim Austausch beschädigter Teile beschädigt werden können. Aber in einer Vakuumumgebung, in der die Temperatur kontrolliert, Sauerstoff und Wasserdampf extrahiert und menschliche Eingriffe isoliert werden können, wird die Sicherheit und Stabilität des Rechenzentrums erheblich verbessert.

 

Unter dem Meer ist zweifellos eine ideale Datenquelle – nicht nur vom Sauerstoff und Wasserdampf des Landes isoliert, sondern auch menschlichen Eingriffen ein Ende gesetzt.

Zweitens und am wichtigsten: Seewassergekühlte Server haben einen einzigartigen Vorteil, und die Kühlung stellt einen großen Kostenfaktor für landgestützte Rechenzentren dar. Öffentlichen Daten zufolge werden 41 % der jährlichen Stromkosten eines Rechenzentrums für die Kühlung aufgewendet, und der jährliche Stromverbrauch von Rechenzentren weltweit macht etwa 2 % des weltweiten Gesamtstroms aus. Unter ihnen machen die Kosten für den Energieverbrauch 30 bis 50 % der gesamten IT-Branche aus.

 

Warum ist Kühlung so teuer? Tatsächlich gibt es in Landrechenzentren normalerweise zwei Möglichkeiten, Daten zu kühlen: Die eine besteht darin, mechanische Kühlung zu verwenden, d. h. den Server mit einer starken Klimaanlage zu kühlen, aber diese Kühlmethode muss jeweils viel Strom verbrauchen Tag, und die Kosten waren hoch.

 

Undersea data centers use seawater for cooling through heat exchangers

 

Die andere besteht darin, den Server durch Luft- und Wasserverdunstung zu kühlen. Diese von Natur aus begabte Methode ist viel kostengünstiger als die erstere, hat aber auch ihre eigenen Mängel: Der Fertigstellungsgrad und die Kühlqualität werden von der Außenlufttemperatur und den Wasserbedingungen bestimmt, und die Manövrierfähigkeit des Menschen ist zu gering.

Meerwasser mit einer höheren Wärmekapazität kann die vom Rechenzentrum erzeugte überschüssige Wärme speichern: Es ist lediglich ein Wärmetauscher erforderlich, um die Wärme des Rechenzentrums an das umgebende Meerwasser zu übertragen. Es handelt sich sozusagen um eine Kombination zweier traditioneller Kühlmethoden: stabil und freie Nutzung natürlicher Ressourcen.

 

Drittens ist die Küstenbevölkerungsdichte hoch, die Datenübertragung ist schnell und die Effizienz des Cloud-Computing ist höher: Um Land- und Betriebskosten zu sparen, wählen traditionelle Rechenzentren normalerweise dünn besiedelte abgelegene Gebiete, was direkt zu einer zu langsamen Datenübertragung führt viel Verzögerung. Unterwasser-Rechenzentren sind anders:

Etwa 50 Prozent der Weltbevölkerung leben im Umkreis von 150 Kilometern um die Küste. Der Bau des Rechenzentrums unter dem Meer spart Kosten und liegt in der Nähe von Wohngebieten, sodass zwei Fliegen mit einer Klappe geschlagen werden.

 

Darüber hinaus gibt es viele weitere Vorteile:

 

Beispielsweise können wir die Gezeitenenergie des Ozeans nutzen, um im Meer CO2-neutralen Strom zu gewinnen; Unterseeische Bandbreite kann über Pipelines verbunden werden, um die Datenübertragung zu beschleunigen. Beim Bau eines Unterwasser-Rechenzentrums kann der herkömmliche bürokratische Aufwand umgangen werden: Server können in wasserdichten Silos an Montagelinien gebaut und per Frachtschiff zur Bereitstellung aufs Meer verschifft werden. Laut Microsoft können diese Server-Pods innerhalb von 90 Tagen bereitgestellt werden. Während der Bau herkömmlicher Rechenzentren ein bis zwei Jahre dauert.

 

Theoretisch haben U-Boot-Rechenzentren viele Vorteile. Wie schwierig ist es also, dies zu erreichen? -- Microsoft hat die erste Antwort.

 

Microsofts Project Natick und Actual Construction

Tatsächlich begann Microsoft bereits 2015 damit, die Machbarkeit des Baus von Rechenzentren unter Wasser zu untersuchen, und startete dann das Projekt Natick.

 

In der ersten Phase des Natick-Projekts im Jahr 2015 führte das Microsoft-Forschungsteam ein 105-tägiges Experiment durch, um den Auslaufschutz zu maximieren und sicherzustellen, dass das Rechenzentrum in einem wasserdichten Behälter untergebracht wurde. Das Experiment war ein Erfolg: Microsoft stellte fest, dass die Wasserdichtigkeit des Servicemoduls im Meerwasser gewährleistet werden konnte.

 

In der zweiten Phase versucht Microsoft also, das Experiment voranzutreiben und das Projekt auf den Weg zu bringen: „Senden Sie die Daten auf den Meeresboden“, um zu sehen, ob die Daten nach einigen Jahren in gutem Zustand erhalten bleiben können. Microsoft baute ein Rechenzentrum in einen versiegelten Stahlcontainer, füllte ihn mit Stickstoff und transportierte den Container dann mit einem U-Boot ins Meer.

Das Experiment wurde vom European Marine Energy Centre (EMEC) unterstützt: EMEC stellte nicht nur Fachwissen zur Unterstützung erneuerbarer Energien zur Verfügung, sondern fungierte auch als geografischer Berater rund um Orkney – EMEC stellte sogar das Unterseekabel zur Verfügung, das das Rechenzentrum mit der Küste verbindet.

 

Das U-Boot, das den Server in die Tiefsee trägt, heißt Leona Philpot, eine Figur aus dem Spiel Halo. Es segelte in die Dunkelheit der Nordsee in der Nähe von Ornik, Schottland.

 

Warum Orkney? Da Orkney einerseits ein wichtiges Zentrum für die Erforschung erneuerbarer Energien ist, experimentiert das European Marine Energy Centre (EMEC) hier seit 14 Jahren mit Gezeiten- und Wellenenergie. Andererseits herrscht auf den Orkney-Inseln ein kaltes Klima, was dazu beiträgt, die Kühlkosten für Rechenzentren zu senken.

 

Microsoft hat das Rechenzentrum weniger als einen Kilometer vom Meeresboden entfernt platziert und Umgebungssensoren in weißen Hochdruckkammern installiert, um seinen Status in Echtzeit zu überwachen. Das Rechenzentrum und das Meer sind „nahtlos“: Ihr Strombedarf wird über Unterseekabel erfasst, und die Daten werden problemlos in die weite Welt vor der Küste übertragen. Im Jahr 2018 wurde das Microsoft North Sea-Rechenzentrum fertiggestellt: insgesamt 864 Server, 27,6 PB Speicher, um die Leistung zu testen, ein tiefer Tauchgang über zwei Jahre.

Tatsächlich sind die Forscher am meisten besorgt über Schäden an Rechenzentren: Sobald die Computer im Unterwasser-Rechenzentrum ausfallen, können sie nicht repariert werden. Zum Glück hat es gut geklappt. Bis August 2020 waren alle Computer gerettet – nur acht von mehr als 800 fielen aus, eine niedrigere Ausfallrate als in landgestützten Rechenzentren.

 

The underwater data center was retrieved from the seabed and cleaned

 

Wie erreicht man geringe Verluste? Die Forscher des Projekts vermuten, dass einerseits das kalte Wetter als Puffer fungierte; Andererseits spielt Stickstoff auch eine schützende Rolle. Kurz gesagt, dieser kleine Test bestätigt die Möglichkeit und den Wert der Unterwasserspeicherung weiter. Projektforscher sagten, dass das Projekt nicht nur eine niedrige Ausfallrate aufweist, sondern dass die Stromversorgung des Rechenzentrums auch vollständig aus Wind- und Solarenergie erfolgt, wodurch die natürlichen Ressourcen vollständig genutzt werden.

 

Darüber hinaus sind, entsprechend der Theorie, die Verwaltungskosten, die Baukosten und die Verluste bei Naturkatastrophen und anderen Notfällen des U-Boot-Rechenzentrums niedriger als die des Land-Rechenzentrums.

 

Dies ist jedoch nur ein vorübergehender Sieg. Das Volumen von mehr als 800 Servern ist weit von dem von landbasierten Rechenzentren entfernt – schließlich verfügen landbasierte Rechenzentren über Zehntausende von Servern. In gewisser Weise ist dieses Rechenzentrum eher experimentell als praktisch und kann als kleines Pilotprojekt für Microsoft bezeichnet werden. Satya Nadella, CEO von Microsoft, sagte, das Unterwasser-Rechenzentrum werde das Projekt Natick auf der ganzen Welt reproduzieren.

 

Herausforderungen und Zukunftsaussichten von Unterwasser-Rechenzentren

Wenn Microsoft das Unterwasser-Rechenzentrum erfolgreich vorantreiben will, kann es in dieser Phase nicht darauf verzichten, das schwierige Problem zu lösen:

 

Erstens stieß das Experiment von Microsoft auf große Skepsis in Bezug auf die Umwelt. Ian Bitterlin, Professor für Datenstudien, glaubt, dass die von Rechenzentren erzeugte Wärme die Meereswassertemperaturen beeinflussen kann. Wie nachgewiesen werden kann, dass das Unterwasser-Rechenzentrum keine größere Verschmutzung der Meeresumwelt verursacht, und wie mögliche Verschmutzungsrisiken vermieden werden können, muss vom Microsoft-Team gelöst werden.

 

Zweitens scheint der Schaden von 8 Servern in mehr als 800 Servern nicht groß zu sein, aber sobald das U-Boot-Rechenzentrum gefördert wird, wird der Verlust wahrscheinlich Hunderttausende Einheiten betragen, und dann ist der Bau entsprechender Unterwasser-Rechenzentren erforderlich Wartungsservicestation sowie komplette Lösungen für die Gerätewartung.

Drittens ist die Küste, wie Ian Bitlin betont, nicht der beste Ort für den Bau eines Rechenzentrums – auch wenn der Verkehr an der Küste viel höher ist als in der Wildnis, ist er immer noch nicht so umfangreich wie das Rechenzentrum in der Großstadt .

 

Natürlich ist das Natick-Projekt nicht nur ein Anstoß für den Bau von Unterwasser-Rechenzentren. Auch wenn Unterwasser-Rechenzentren nicht skalierbar sind, bieten diese kreativen Experimente wertvolle Erkenntnisse für die Rechenzentrumsbranche.

 

Beim Bau eines Unterwasser-Rechenzentrums auf den Ornik-Inseln ließ sich das Team beispielsweise von der Elektrizität inspirieren, die durch Wind- und Sonnenenergie bereitgestellt wird. Die Forscher sagten, dass sie in Zukunft erwägen könnten, Unterwasser-Rechenzentren zusammen mit Offshore-Windparks einzusetzen und Windenergie zu nutzen Energie für die Stromversorgung des Rechenzentrums, das Schlagen von zwei Fliegen mit einer Klappe oder sogar die Verknüpfung von Landstromleitungen mit den für die Datenübertragung benötigten optischen Kabeln.

 

Aus diesem Grund sucht Microsoft nach Möglichkeiten, die Vorteile des Unterwassermodells auf landgestützte Rechenzentren zu übertragen – etwa geringer Serververschleiß und hohe Sicherheit.

Microsofts data center servers

Abschluss

Project Natick hat das Potenzial, die Bereitstellung von Rechenzentren zu revolutionieren, indem es Flexibilität, schnellen Aufbau und effiziente Skalierung bietet. Während Microsoft sich vorstellt, den Erfolg von Project Natick weltweit zu wiederholen, bestehen Herausforderungen in Umweltbelangen und der Notwendigkeit von Unterwasserwartungsstationen im Falle einer großflächigen Einführung. Die Experimente von Microsoft verschieben nicht nur die Grenzen der Technologie, sondern bieten auch wertvolle Erkenntnisse für die gesamte Branche. Der innovative Ansatz von Microsoft, ob erfolgreich oder nicht, bedeutet einen bedeutenden Fortschritt in der Rechenzentrumsbranche.