Wasser ist normalerweise der größte Feind eines Rechenzentrums. Microsoft hat hier mit einem Rechenzentrum unter Wasser das Gegenteil bewiesen.
Mit Projekt "Natick" hat Microsoft bereits in 2015 vorgestellt wie ein Rechenzentrum komplett unter Wasser betrieben werden kann. Das Vorhaben befindet sich seither sogar in einer Phase 2 mit weiterführenden Tests an der Nordküste des schottischen Festlandes.
Die Idee ist relativ einfach. Ein auf dem Meeresboden versenktes Rechenzentrum bietet unter anderem die folgenden Vorteile, die ein Pendant an Land nur schwer bieten kann:
Unsere Ausfallrate ist achtmal geringer als an Land.
Gerade in Zeiten von steigenden Energiepreisen und zunehmend wichtiger werdenden ökologischen Aspekten beim Betrieb von Rechenzentren, bietet eine Unterwasser-Lösung also zahlreiche Vorteile.
Aber schauen wir uns das Thema etwas näher an.
Wasser ist der größte Feind der Technik - das weiß jeder, der schoneinmal ein Glas Wasser über sein Notebook verschüttet hat.
Die hochsensiblen Server und zugehörige Peripherie wie Router, Switches bzw. Netzwerkinfrastruktur können daher natürlich nicht einfach so im (Salz-)Wasser schutzlos versenkt werden.
Die gesamte Technik wird daher - ähnlich einem Container RZ - in einem U-Boot artigen und wasserdichten Druckbehälter gekapselt. Dieser schützt die Technik vor allen äußeren Einflüssen des Meeres. Insgesamt enthielt der Druckbehälter zwölf Racks mit insgesamt 864 Servern.
Besonderer Clou: Der Druckbehälter ist mit einer Stickstoffatmosphäre gefüllt. Somit werden die Komponenten vor Bränden aber auch der Korrosion geschützt.
Wie wir im oberen Bereich schon erahnen konnten, handelt es sich um eine komplett isolierte Umgebung. D.h. mal eben ein Kabel umpatchen oder einen defekten Server austauschen ist schlichtweg nicht möglich.
Es gibt - zumindest laut der offiziellen Aussagen - keine Druckschleuse über die ein Techniker Wartungsarbeiten innerhalb vornehmen könnte. Dies wäre aufgrund der Schutzatmosphäre und den Gefahren durch eindringendes Wasser auch völlig unrealistisch und wahrscheinlich nicht im Sinne des Erfinders.
Die Lösung als Colocation Bereich für wechselnde Kunden scheidet somit also aus.
Umso wichtiger ist es, dass kritische Komponenten wie Stromversorgung, Netzwerkanbindung, etc. innerhalb des Unterwasser-RZs redundant ausgelegt sind. Es wäre fatal und absolut unwirtschaftlich wegen eines defekten Netzwerk-Uplinks das gesamte RZ vom Meeresboden bergen zu müssen.
Auch sollte klar sein, dass der Aufwand für die Vorbereitung, Versenkung und Bergung derzeit nur von Spezialfirmen übernommen werden kann und die Kosten eines traditionellen Rechenzentrums sehr wahrscheinlich übersteigt.
Für jedes Hardware-Upgrade müsste somit der gesamte Druckbehälter gehoben und entsiegelt werden.
Zugegeben - der von Microsoft gewählte Ansatz hat durchaus einige extreme Ansätze, zeigt aber, dass auch auf den ersten Blick abwegige Ideen durchaus Ihre Vorteile haben können.
Im Bereich von Rechenzentren gibt es aber unlängst weitere Ansätze, die vor allem mit alternativen Kühlmethoden zu tun haben.
So setzt man beispielsweise in nördlichen Ländern wie Island, Norwegen oder Schweden aufgrund der geographischen Gegebenheiten unlängst auf eine Freiluft- / Außenkühlung.
Doch auch in unseren Breitengraden kann eine Freiluftkühlung bis auf einige wenige Sommertage durchaus eine Alternative für einen ökologischeren und wirtschaftlicheren Betrieb sein.
An unserem Rechenzentrumsstandort Frankfurt am Main wird dagegen auf eine Kühlung per Grundwasser gesetzt. Für heiße Sommertage wird die zur Kühlung notwendige Zusatzenergie ebenfalls aus erneuerbaren Energien bezogen.
In direkter Nachbarschaft entsteht in einem Pilotprojekt auch eine Fernwärmeversorgung des angrenzenden Wohnviertels per Abwärme aus den technischen Anlagen / Serverräumen.
In Punkto Flüssigkühlung muss man nicht gleich ein komplettes Rechenzentrum versenken. Es gibt stattdessen auch ein weiteres Kühlungskonzept, welches auf der 3M Novec Flüssigkeit mit niedrigem Siedepunkt basiert. Und nein, diese lässt sich nicht mit der Salatölkühlung aus den 2000er Jahren vergleichen ;)
Hierbei werden CPU, Mainboard und weitere Komponenten des Servers in ein Flüssigkeitsbad getaucht. Durch die warmen Chips erreicht die umgebende Flüssigkeit Ihren Siedepunkt (61°C) und verdampft. Dieser Phasenwechsel erzeugt einen sehr starken Abtransport der Wärme von den zu kühlenden Bauteilen.
Der aufsteigende Dampf wird dann in einem geschlossenen Kreislauf wieder kondensiert und somit in das Bad zurückgeführt.
Wer mehr zu den Vor- und Nachteilen dieser Lösung wissen möchte, dem empfehlen wir folgendes Video des YouTubers und Overclocking-Experten "der3auer":
Auch wenn viele der vorgestellten Kühl-Lösungen einen sehr innovativen und durchaus sinnvollen Charakter haben, sind die Lösungen meist leider noch in einem Prototypen-Status und (noch) nicht praxistauglich.
Die Kosten für derartige Speziallösungen überwiegen auf lange Sicht leider noch die traditionelle und weit verbreitete Luftkühlung. Dank Kaltgangeinhausung und ökologischer Stromquellen hat diese Lösung nach wie vor noch die Oberhand.
Aber wie sieht es in Zukunft aus? Immer höhere Energiedichten, steigende Strompreise und mehr Rechenleistung werden viele der bestehenden Konzept sicherlich verdrängen oder irgendwann überfordern.
Geschäftsführer / CEO
Gründer und Geschäftsführer der EntekSystems GmbH. Herr Kostka verantwortet bei uns die Bereiche technischer Vertrieb und Leitung des Tagesgeschäfts.
Im zertifizierten Rechenzentrum am Standort Frankfurt / Main
Weitere Artikel und Beiträge
Eine fast vergessene Spezies feiert heute Ihren wohlverdienten Ehrentag. Erfahre mehr, wie dieses Ritual entstanden ist.
Planen Sie Ihr eigenes Rechenzentrum? Dann sollten Sie folgende technischen Anforderungen und Standort-Faktoren kennen.
Lohnt sich der Betrieb eines eigenen Rechenzentrums überhaupt noch? Welche Vorteile bietet die Auslagerung des Rechenzentrums?