Bislang war der Strombedarf im Rechenzentrum (RZ) und im Enterprise Network kein großes Thema für Unternehmen. Deutlich höhere Priorität hatten Verfügbarkeit, Performance und Sicherheit. Doch das hat sich nun aufgrund der dramatisch gestiegenen Energiekosten geändert. Weitere Motive, den Strombedarf zu senken, sind der Wunsch Kohlenstoff-Neutralität zu erlangen und Net-Zero-Strategien umzusetzen.
Data Center müssen in Zukunft mehr Leistung bei geringerem Energieverbrauch bringen und gleichzeitig die steigenden Anforderungen an Ausfallsicherheit, Geschwindigkeit und Cybersecurity erfüllen. Daher ist ein einfaches Abschalten von Servern, Netzwerk-Switches und -Routern oder Anwendungen keine Option. CIOs brauchen intelligente Lösungen, um alle Herausforderungen zu bewältigen, ohne dabei gefährliche Kompromisse zu schließen. Cisco hat hier auf Basis zahlreicher Kunden- und Partnerprojekte Best Practices entwickelt, die im Folgenden beschrieben werden.
Lesen Sie auch: Diese kostenintensiven Herausforderungen kommen auf RZ-Betreiber zu
Die größten Energiefresser im Rechenzentrum
Im ersten Schritt sollten Unternehmen ermitteln, welche Bereiche im Data Center die meiste Energie verbrauchen. In einem typischen Rechenzentrum benötigen Kühlung und Rack-Betrieb rund die Hälfte des Stroms. Etwa ein Viertel geht auf das Konto der eigentlichen Datenverarbeitung und -speicherung bei Server und Storage. Jeweils zirka zehn Prozent tragen unnötige Energieverluste und der Netzwerkbetrieb bei. Den Rest, mit unter fünf Prozent, benötigt die Beleuchtung.
Das bedeutet: Jedes Watt, das die IT-Infrastruktur benötigt, erzeugt einen zusätzlichen Lastfaktor von 1,8 bis 2,5 für den Verbrauch durch Kühlung, unnötige Energieverluste und Beleuchtung. Dieser Faktor ist als PUE (Power Usage Effectiveness) definiert. Darunter versteht man das Verhältnis zwischen dem Energieverbrauch, der von der eigentlichen IT-Ausstattung verursacht wird, und dem Energiebedarf der restlichen Bestandteile eines Data Center.
Diese klassische PUE-Berechnung hat allerdings auch ihre Schwächen. Zum Beispiel benötigt ein Rechenzentrum in Norwegen aufgrund der niedrigen Außentemperaturen deutlich weniger Kühlung als in Italien. Daher kann ein italienisches Data Center trotz einer höheren PUE unterm Strich effizienter sein als das in Norwegen. Zudem erhöht eine intensive Server-Nutzung ebenfalls die PUE. Daher ist dieser Wert immer im Kontext zu betrachten.
Die wichtigsten Einflussfaktoren für den RZ-Energieverbrauch
Entsprechend sollten Unternehmen die Rahmenbedingungen für ihre Data Center prüfen. Wie gesagt: Der Ort stellt ein wichtiges Kriterium dar. Je kühler die Umgebung, desto weniger Strom verbraucht das Rechenzentrum. Wer ortsgebunden ist, sollte daher den Server-Raum möglichst im Keller platzieren oder das RZ in einem dafür reservierten, alleinstehenden Gebäude einrichten. Angrenzende Büros oder Wohnungen erzeugen meist zusätzliche Heizwärme - trotz der aktuell allgegenwärtigen Sparmaßnahmen.
Ein weiteres Thema ist die zulässige Betriebstemperatur der Komponenten. Ist die erlaubte Temperatur hoch, lässt sich der Kühlbedarf reduzieren. Allerdings kann die Betriebsdauer der Komponenten darunter leiden, so dass sie früher ausfallen. Ähnliche Überlegungen gelten für die Auslastung: Leerlauf verbraucht unnötig Strom. Eine Überlastung ist dagegen energieeffizient, verkürzt aber die Lebensdauer. Hier muss der verantwortliche Betreiber einen Kompromiss finden.
Ein zentraler Faktor ist auch die Produktauswahl. Neuere Server-Hardware, Router und Switches sowie virtuelle Lösungen sind in der Regel effizienter als ältere und dedizierte Systeme. Außerdem reduziert eine Konsolidierung und Integration der Systeme den Ressourcenbedarf. Zum Beispiel können Unternehmen ihre Flexibilität und Energieeffizienz durch aktuelle Switches-Serien erhöhen, da sie integrierte Netzwerkdienste nach Bedarf bereitstellen. Auch eine aktuelle Chip-Architektur benötigt meist weniger Strom. Automatisierung, Konsolidierung in zentrale Rechenzentren und die Wahl des richtigen Standorts für die Dienste sind weitere Hebel für eine höhere Effizienz.
Abschied vom klassischen Data-Center-Ansatz
Die Möglichkeiten zur Verbesserung lassen sich am besten verstehen, wenn man sich den bisherigen klassischen Architekturansatz für Data Center vor Augen führt. Dieser legt für eine optimale Applikations-Performance die Dimensionierung der Hardware auf Spitzenzeiten aus, eine spätere Anpassung an die reale Auslastung bleibt dann aus. Auch erfordert der Einsatz vieler einzelner Rack-Server statt weniger modularer Blade-Systeme einen hohen Bedarf an Platz, Strom und Kühlung. Der Verkabelungsaufwand ist ebenfalls größer.
Im Netzwerk stellt jeder Switch einen eigenen Managementpunkt dar. Die Segmentierung erfolgt in der Regel per VLAN, wobei die Port-Auslastung nicht immer optimal ist. Zur Datenspeicherung kommen dedizierte Storage-Systeme zum Einsatz, mit jeweils eigener Verkabelung, Stromversorgung und Kühlung sowie einem zusätzlichen Storage-Netz. Die Nutzung von Standardkomponenten und Systemen ohne Ressourcenmanagement führt dabei zu einem relativ hohen Energieverbrauch.
Automatisierung bestimmt den modernen RZ-Ansatz
Auch bei der Architektur moderner Rechenzentren steht die Applikations-Performance im Vordergrund. Doch die Dimensionierung der Hardware erfolgt hier anhand ständiger Messungen der realen Anforderungen. Weitgehend automatisierte Lösungen passen die Umgebung im laufenden Betrieb an, um Engpässe und Ressourcenverschwendung zu vermeiden. Das Steuern und Überwachen der RZ-Umgebung übernimmt intelligente Software. Zudem ist nach Bedarf eine schnelle Integration verschiedener Cloud-Anbieter über geeignete Schnittstellen und Lösungen möglich. So lassen sich Lastspitzen reibungslos abfangen.
In einer modernen RZ-Welt kommen effiziente, vorzugsweise modulare Server-Systeme zum Einsatz. Zum Vergleich: Racks besitzen jeweils zwei Netzteile (Power Supply Units = PSUs), eingebaute Zusatzmodule, zwei eigene Kabel sowie eine fest installierte Kühlungs- und Stromversorgung. Modulare Systeme nutzen dagegen sechs PSUs für acht Server. Adaptive Luftstromrichtlinien, Leistungsbegrenzung, Kabel für einen integrierten Daten-, Storage- und Managementverkehr sowie überbuchbare Mehrfachnutzung von zentralen und nicht dedizierten Ressourcen erhöhen die Energieeffizienz weiter. Einheitliche, flexible Komponenten weisen dabei eine lange Laufzeit auf. Virtualisierte NICs (Network Interface Cards) und HBA (Host Bus Adapter) reduzieren den Verkabelungsaufwand. Die Steuerung der Ressourcen erfolgt beispielsweise durch Power Capping und Kühlungsregeln, die den Energiebedarf reduzieren.
Im Netzwerk ermöglichen neuere Switch-Systeme die Steuerung der Umgebung und Ressourcenplanung mithilfe intelligenter Software-Lösungen. Durch höhere Bandbreite und bessere Auslastung sind weniger Netzwerk-Ports nötig, während Mandantenfähigkeit bei gleichzeitig hoher Sicherheit Hardware-Silos vermeidet.
Aktuelle Storage-Systeme kombinieren integrierten und externen Speicher für moderne Applikationen. Unternehmen nutzen dabei hochperformanten, effizienten Flash-Storage sowie flexible, konvergente Systeme aus Hardware und Software, die Netzwerk, Server und Storage in einem Paket konsolidieren. Dazu gehören auch integrierte Lösungen für den Container-Betrieb. Der Einsatz von hocheffizienten Systemen und Komponenten, etwa auf Basis von Mikrochips auf Basis einer Nanometer-Architektur, ermöglicht einen höheren Datendurchsatz pro Watt. Unternehmen können den Stromverbrauch zusätzlich mit Hilfe von zonenbasierter Kühlung und Komponenten mit höherem Temperaturbereich senken.