Sicher: Keine Fehler erlaubt
Hundertprozentige Sicherheit gibt es nicht - auch nicht bei der IT. Trotzdem müssen von Planungsbeginn an Ausfallsicherheit und Verfügbarkeit der Server an erster Stelle stehen. Ziel ist eine Zuverlässigkeit von 99,999 Prozent. Das entspricht einem Ausfall von rund fünf Minuten pro Jahr. Das gilt besonders in einem Cloud-Rechenzentrum, das nicht nur Daten, sondern außerdem Software-, Platform- oder Infrastructure-as-a-Service-Lösungen hochverfügbar hält. Twin-Core-Rechenzentren sind ein Mittel der Wahl, um das zu erreichen. Daten und Systeme werden so permanent in einem Zwillingsrechenzentrum gespiegelt und stehen selbst dann zur Verfügung, wenn es in einem der Zwillinge zu Störungen und Ausfällen kommt. "Zero Outage" im Sinne einer Null-Fehler-Strategie muss hier oberste Priorität haben; auch physische Sicherheitsmaßnahmen dürfen daher keinesfalls vernachlässigt werden.
Zugangskontrollen, Überwachungsanlagen auf dem Gelände und Videoaufzeichnungen schützen vor unbefugtem Zugriff. In diesem Sinne muss Sicherheit Teil der DNA und sowohl bei der Infrastruktur als auch in den Prozessen gelebt werden - besonders von den eigenen Mitarbeitern. Das bedeutet: Mögliche Zwischenfälle werden vorgedacht, ein System installiert, das Sicherheitsprobleme erkennt und aus dem heraus entsprechende Gegenmaßnahmen entwickelt werden. Damit dies nicht nur graue Theorie bleibt, wird der Ernstfall auch geprobt - wie bei der Feuerwehr. Große Dienstleister absolvieren so rund 500 Übungseinsätze pro Jahr und über ihre gesamte Organisation hinweg.
Doch Sicherheit braucht auch Datenschutz. Ohne die zuverlässige Protektion eines Gesetzebers bietet noch so ausgefeilte Sicherheitstechnik eine offene Flanke. Und das ist in manchen Ländern politisch auch so gewollt. Hier hat Deutschland einen Standortvorteil: Das Bundesdatenschutzgesetz ist eines der strengsten Gesetze zur informationellen Selbstbestimmung. Die Nutzung personenbezogener Daten ist per se verboten und bedarf der ausdrücklichen gesetzlichen Erlaubnis oder der Zustimmung des Betroffenen. Im anglo-amerikanischen Rechtsraum ist es genau umgekehrt.
Zusammen mit der US-amerikanischen Gesetzgebung zur Terrorbekämpfung verschaffen sich US-Geheimdienste so Zugang zu persönlichen Daten auch ohne Gerichtsbeschluss. Der USA Freedom Act hat im Juli den USA Patriot Act abgelöst. Damit sind die personenbezogenen Daten von US-Bürgern in den Vereinigten Staaten besser geschützt. Für persönliche Daten in ausländischen Rechenzentren hat sich allerdings nichts geändert. Wer seine Daten unter den Schutzschirm deutscher Gesetze stellen will, ist also nach wie vor bei deutschen Dienstleistern mit Rechenzentren in Deutschland gut aufgehoben.
Nachhaltig: Maßnahmen für mehr Energieeffizienz
Kritisch für die Zukunftsfähigkeit eines Rechenzentrums ist ebenfalls der Energieverbrauch. Gerade in Deutschland spielt dieser Aspekt eine zentrale Rolle. Denn die Energiepreise hierzulande sind doppelt so hoch wie etwa im Nachbarland Frankreich. Energieeffizienz wird so zum wichtigen Faktor im internationalen Wettbewerb. Ein Blick auf die Power Usage Effectiveness (PUE) macht das deutlich. Dieser Wert setzt den gesamten Energiebedarf eines Rechenzentrums in Bezug zum Bedarf der IT-Komponenten. Er misst also, wie viel Strom der gesamte Rechenzentrumsbetrieb im Vergleich zum eigentlichen IT-Equipment verbraucht. Für deutsche Rechenzentren lag der durchschnittliche PUE-Wert im Jahr 2010 bei 1,9. Vereinfacht gesagt: Mit der einen Hälfte des Stroms laufen die Rechenprozessoren heiß, mit der anderen Hälfte wird diese Wärme abgeführt. Dabei lässt sich der Energieverbrauch für diese Hälfte mit Hilfe einiger relativ simpler Maßnahmen bereits deutlich reduzieren.
Hetzner Online verwendet für seine Rechenzentren ein standardisiertes Design mit Luftkühlung, um Aufwand und Kosten zu sparen.
Wärmetauschertüren als Kühlelement sorgen im Demo-Rechenzentrum von eCube an der Frankfurter Goethe-Universität für die richtige Rechnertemperatur.
Wegen des Einsatzes eines magnetgelagerten Turboverdichters zur Verdampfung des Wärmetransportmediums Wasser bei niedrigen Temperaturen kann Coolblue von Stulz – hier ein Prototyp – trotz ausgezeichneter Effizienz auf ein Kühlmittel verzichten und arbeitet ausschließlich mit Wasser.
Der neue Seitenkühler Loopus von Schäfer IT-Systeme arbeitet je nach Situation abwechselnd mit reinem Wasser oder mit Kältemittel.
Mit einem neuen, standardisierten Moduldesign, bei dem die Kühleinrichtungen unter den Rechnerschränken untergebracht sind, wendet sich Rital an Betreiber von Rechenzentren jeder Größenordnung.
Mit Eis gefüllter unterirdischer Speicher: Im Sommer schmilzt das Eis, die Kälte kühlt das RZ
Der Eisspeicher wird mit einer Wärmepumpe und anderen Elementen zu einer ganzjährig tauglichen heiz- und Kühllösung fürs RZ kombiniert
Für dauerhafte 45 Grad Eingangstemperatur sind Dells Hyperscale-Server nach Angaben des Herstellers ausgelegt – da reicht freie Kühlung meistens aus
Mit dreidimensional skalierten Miniaturbauelementen, die on-board gekühlt werden, schrumpfen Chips für gigantische Rechenleistungen gewaltig zusammen.
Forschungsergebnisse aus den Datacenter-Entwicklungen zeigen, dass allein das konsequente Trennen von Kalt- und Warmluft im Serverraum den PUE-Wert auf 1,48 senken. Erhöht man zusätzlich die Einblastemperatur sowie die Energiedichte im Rack, sinkt der PUE-Wert auf bis zu 1,23. Stabile Hardware verträgt höhere Temperaturen und senkt den Energieverbrauch für die Kühlung. Als ideal haben sich 27 Grad Celsius erwiesen. Die Rechenchips würden bis zu 35 Grad vertragen, dann steigt aber wieder die Drehzahl der Lüfter und damit der Stromverbrauch. Entscheidend ist immer der Verbrauch des Gesamtsystems.
Der nächste Schritt einer solchen Effizienzmaximierung ist ein intelligentes, automatisiertes Energiemanagement, das jede Komponente der IT-Infrastruktur auslastungsgerecht in den optimalen Betriebszustand versetzt.
Darüber hinaus könnten Rechenzentren künftig selbst einen Beitrag zur Energiewende leisten, indem sie Strom erzeugen. So könnte die Abwärme nicht nur Warmwasser bereiten, sondern auch für die Eigenstromerzeugung genutzt werden - Stichwort thermoelektrische Generatoren. Damit würde die Energieeffizienz von Rechenzentren noch einmal gesteigert. Auch CO2-Emissionen könnten so reduziert werden, weil auf Energie aus fossilen Quellen verzichtet wird. Die Mehrzahl der bestehenden Rechenzentren ist davon allerdings noch weit entfernt.
Moderne Rechenzentren sind Wegbereiter der Digitalisierung
Bereits in den Jahren 2003 bis 2013 erhöhte sich die IT-Fläche der Rechenzentren in Deutschland um 42 Prozent. Im selben Zeitraum vervierfachte sich die Anzahl der physischen und virtuellen Server auf rund vier Millionen. Die Betreiber von Rechenzentren stehen vor der besonderen Herausforderung, dieses rasante Wachstum wirtschaftlich und effizient umzusetzen.
Die nächste Entwicklungsstufe steht vor der Tür: das Software-Defined Datacenter (SDDC). Dabei sind nicht nur Rechenleistung und Speicherplatz virtualisiert, sondern auch Netzwerke und Sicherheitskomponenten. Ziel ist eine IT-as-a-Service, die ein Nutzer quasi per Knopfdruck zusammenstellt. Voraussetzung dafür ist, dass alle Komponenten aus der Ferne steuerbar sind, alle Komponenten miteinander sprechen und alle Komponenten ihre Ressourcen unterschiedlichen Nutzern zur Verfügung stellen können.
Die Anforderungen an ein modernes Rechenzentrum bleiben aber auch dann immer noch gleich: Ausfallsicherheit, maximale Verfügbarkeit und Datenschutz - vereint mit einem energieeffizienten Betrieb. Wer diese Aufgaben erfüllt, wird die steigenden Erfordernisse der IT auch in Zukunft bewältigen. Weitsicht ist dabei entscheidend. Rechenzentren, die wir heute bauen, müssen den Anforderungen von morgen gerecht werden. Und denen von übermorgen. (hal)