These 1: Die zweite Virtualisierungswelle steht noch bevor
Virtualisierungstechnologien haben eine Revolution in der IT bewirkt. Zwei Hauptfaktoren haben sie zum festen Bestandteil in der Planung von IT-Infrastrukturen gemacht: die Basistechnologien für Virtualisierung sind zur Reife gelangt, woraus eine großen Produktauswahl für die Anwender hervorgegangen ist; zugleich sind die Rechnerkapazitäten durch Multicore-Server so stark gestiegen, dass diese ohne geeignete Techniken gar nicht ausgelastet werden können.
Enormes Rationalisierungspotential
Unternehmen verschenken viel Potenzial, wenn sie ihre Server nicht virtualisieren. Durch die höhere Auslastung der Rechner werden Hardware- und Energiekosten sowie Raum in nennenswertem Maß eingespart, so dass IT-Verantwortliche an Server-Virtualisierung nicht vorbeigehen können.
Die Server-Virtualisierung erlaubt das parallele Ablaufen mehrerer Betriebssysteme auf einem Rechner. Mittels hardwareseitiger Komponenten und einer auf Software basierenden Abstraktionsschicht erfolgt eine logische Partitionierung der Server-Hardware.
- Ratgeber
Diese Schritte haben sich in der Praxis bewährt. - Schritt 1
Ziele und Strategien festlegen: Nicht immer stehen eine bessere Auslastung der IT und niedrigere Kosten ganz oben auf der Agenda. Vielen Unternehmen geht es schlicht darum, den IT-Wildwuchs einzudämmen. - Schritt 2
Quick-Wins mit einem schnellen Return on Investment (RoI) zuerst angehen. (Bild: Fotolia) - Schritt 3
Betriebsprozesse anpassen: Dieser Aspekt wird oft unterschätzt. Die Virtualisierung verändert etwa das Aufgabenfeld der Administratoren. (Bild: Messer Industriegase) - Schritt 4
Schulungen organisieren, Disziplin einfordern: Ohne ausreichendes Know-how und klare Regeln entsteht schnell ein Wildwuchs virtueller Maschinen. - Schritt 5
IST-Zustand analysieren: Eine genaue Bestandsaufnahme der vorhandenen IT-Komponenten sollte Grundlage jeder Server-Virtualisierung sein. (Bild: Fotolia) - Schritt 6
Workload Assesment und Sizing: Nicht nur die Server-Kapazität ist maßgeblich. IT-Manager müssen auch die Storage- und Netzwerk-Anforderungen im Auge behalten. - Schritt 7
Scale-up oder Scale-out? - Soll die Rechenlast auf einen großen oder viele kleine Server-Systeme verteilt werden ? - Schritt 9
Lizenzfragen klären: Das Management unterschiedlicher Lizenzmodelle kann in vitrualisierten Umgebungen sehr komplex werden. - Schritt 10
Altsysteme abschalten: Die Sparpotenziale der Virtualisierung lassen sich nur dann voll ausschöpfen, wenn alte IT-Systeme nach dem Projekt auch tatsächlich ausrangiert werden.
Der Ansatz erlaubt eine einfache Installation und Nutzung bei gleichzeitiger hoher Auslastung der verfügbaren Hardware, was insbesondere bei aktuellen Servern mit Quad- und Hexacore-CPUs von Interesse ist. Virtuelle Server lassen sich schnell installieren, wiederherstellen und zwischen Rechnern verschieben, zum Beispiel in Wartungsfenstern oder zur Lastverteilung. Somit eignet sich Virtualisierung ausgezeichnet für eine Verbesserung der allgemeinen Verfügbarkeit in der IT. Werden virtuelle Maschinen (VMs) zwischen verschiedenen Rechenzentren beziehungsweise Standorten repliziert, gewinnt man gleichzeitig eine sehr zuverlässige Infrastruktur für das Disaster Recovery und damit eine stark verbesserte Business Continuity.
Ist die Revolution stecken geblieben?
Umso überraschender ist es, dass die Anwender die Virtualisierung nur zögerlich annehmen, darauf weisen zumindest die Marktzahlen hin. So wurden zwar laut IDC immerhin 17,7 Prozent aller neuen Server in Europa im vierten Quartal 2009 mit Virtualisierungstechniken ausgeliefert. Bis 2013 erwarten die Marktforscher eine Steigerung auf 23 Prozent. Die optimistischen Prognosen von 2008, die einen Virtualisierungsgrad von 75 Prozent bezogen auf die gesamten IT-Installationen vorhersagten, wurden bislang weit verfehlt. Derzeit wurde laut Gartner erst 25 Prozent der verfügbaren IT virtualisiert (siehe CIOs zögern bei Virtualisierung). Doch das dürfte sich ändern, denn viele die CIOs führen die Themen Virtualisierung und Cloud Computing auf den ersten beiden Plätzen ihrer To-do-Listen für 2011, das hat Gartner in einer Umfrage aus dem Jahr 2010 herausgefunden. Der eigentliche Durchbruch auf breiter Front steht also noch bevor.