DrWindows
Redaktion
Cloud-Server gehen baden: Microsoft experimentiert mit Flüssigkühlung
Wie alle Cloud-Provider hat auch Microsoft das Problem, dass immer mehr Leistung abgerufen wird und man deshalb Wege finden muss, die eigenen Server effizienter arbeiten zu lassen. Gleichzeitig hat sich Microsoft aber auch dem Ziel verschrieben, bis zum Jahr 2030 nicht nur kein CO2 mehr auszustoßen, sondern sogar CO2-negativ zu sein, also mehr CO2 aus der Atmosphäre zu filtern, als man ihr hinzufügt.
Aber nicht nur aus Umweltschutzgründen experimentiert Microsoft mit neuen Kühltechnologien, es geht auch darum, mehr Leistung aus der vorhandenen Hardware herauszuholen, ohne dadurch die Haltbarkeit leiden zu lassen. Einige Leser erinnern sich vielleicht an das Projekt Natick, mit dem Microsoft den Betrieb von Unterwasser-Rechenzentren erprobt. Die Ergebnisse sind vielversprechend, denn die Hardware bringt nicht nur mehr Leistung, sondern fällt auch deutlich seltener aus.
Nachdem man die Server zum Meer gebracht hat, bringt man nun das Meer zu den Servern, heißt es in einem aktuellen Artikel auf Microsofts Innovations-Blog. Das ist selbstverständlich nur eine schöne Metapher, denn in dem neuen Forschungsprojekt wird nicht mit Wasser, sondern mit einer speziellen Kühlflüssigkeit gearbeitet, die von 3M hergestellt wird.
Die Server werden komplett in jene Flüssigkeit eingetaucht, die einen niedrigen Siedepunkt von 50 Grad hat, was dem schnellen Abtransport der Wärme dient. Das ganze System steckt wiederum in einem Container, bei dem auch der Deckel eine besondere Rolle spielt. Dort kondensiert nämlich die verdunstete Flüssigkeit, kühlt sich ab und tropft wieder in die Anlage zurück. So entsteht ein geschlossenes System, bei dem nur wenig Flüssigkeit verloren geht.
Ziel ist außerdem, diese Systeme so aufzubauen, dass beim Ausfall einzelner Komponenten nicht sofort eine Reparatur erforderlich ist, so soll ein weitgehend wartungsfreier Betrieb erreicht werden. Man hofft, ähnlich positive Effekte zu erzielen wie beim Projekt Natick, dort ist die Ausfallrate acht mal niedriger als in regulär betriebenen Serversystemen.
Das Flüssigkeit effektiver kühlt als Luft, muss man den PC-Gamern unter unseren Lesern sicherlich nicht erklären. Dass diese Systeme deutlich teurer sind, liegt ebenfalls auf der Hand. Wenn die Systeme dadurch effizienter arbeiten und weniger Defekte auftreten, kann die Rechnung unter dem Strich aber durchaus aufgehen.
Von einem produktiven Einsatz dieser Technologie ist man bei Microsoft derzeit allerdings noch ein gutes Stück entfernt, man will zunächst weitere Erfahrungen damit sammeln.
Hinweis: Der Artikel wird möglicherweise nicht vollständig angezeigt, eingebettete Medien sind in dieser Vorschau beispielsweise nicht zu sehen.
Artikel im Blog lesen
Wie alle Cloud-Provider hat auch Microsoft das Problem, dass immer mehr Leistung abgerufen wird und man deshalb Wege finden muss, die eigenen Server effizienter arbeiten zu lassen. Gleichzeitig hat sich Microsoft aber auch dem Ziel verschrieben, bis zum Jahr 2030 nicht nur kein CO2 mehr auszustoßen, sondern sogar CO2-negativ zu sein, also mehr CO2 aus der Atmosphäre zu filtern, als man ihr hinzufügt.
Aber nicht nur aus Umweltschutzgründen experimentiert Microsoft mit neuen Kühltechnologien, es geht auch darum, mehr Leistung aus der vorhandenen Hardware herauszuholen, ohne dadurch die Haltbarkeit leiden zu lassen. Einige Leser erinnern sich vielleicht an das Projekt Natick, mit dem Microsoft den Betrieb von Unterwasser-Rechenzentren erprobt. Die Ergebnisse sind vielversprechend, denn die Hardware bringt nicht nur mehr Leistung, sondern fällt auch deutlich seltener aus.
Nachdem man die Server zum Meer gebracht hat, bringt man nun das Meer zu den Servern, heißt es in einem aktuellen Artikel auf Microsofts Innovations-Blog. Das ist selbstverständlich nur eine schöne Metapher, denn in dem neuen Forschungsprojekt wird nicht mit Wasser, sondern mit einer speziellen Kühlflüssigkeit gearbeitet, die von 3M hergestellt wird.
Die Server werden komplett in jene Flüssigkeit eingetaucht, die einen niedrigen Siedepunkt von 50 Grad hat, was dem schnellen Abtransport der Wärme dient. Das ganze System steckt wiederum in einem Container, bei dem auch der Deckel eine besondere Rolle spielt. Dort kondensiert nämlich die verdunstete Flüssigkeit, kühlt sich ab und tropft wieder in die Anlage zurück. So entsteht ein geschlossenes System, bei dem nur wenig Flüssigkeit verloren geht.
Ziel ist außerdem, diese Systeme so aufzubauen, dass beim Ausfall einzelner Komponenten nicht sofort eine Reparatur erforderlich ist, so soll ein weitgehend wartungsfreier Betrieb erreicht werden. Man hofft, ähnlich positive Effekte zu erzielen wie beim Projekt Natick, dort ist die Ausfallrate acht mal niedriger als in regulär betriebenen Serversystemen.
Das Flüssigkeit effektiver kühlt als Luft, muss man den PC-Gamern unter unseren Lesern sicherlich nicht erklären. Dass diese Systeme deutlich teurer sind, liegt ebenfalls auf der Hand. Wenn die Systeme dadurch effizienter arbeiten und weniger Defekte auftreten, kann die Rechnung unter dem Strich aber durchaus aufgehen.
Von einem produktiven Einsatz dieser Technologie ist man bei Microsoft derzeit allerdings noch ein gutes Stück entfernt, man will zunächst weitere Erfahrungen damit sammeln.
Hinweis: Der Artikel wird möglicherweise nicht vollständig angezeigt, eingebettete Medien sind in dieser Vorschau beispielsweise nicht zu sehen.
Artikel im Blog lesen