Laut der aktuellen Studie von IDC "EMEA Quarterly Server Virtualization Tracker" zufolge ist aktuell Cloud Computing mit 59 Prozent das Top-Thema bei den Unternehmen. Auf Platz zwei folgen mit 48 Prozent mobile Anwendungen, und Big Data belegt mit 37 Prozent den dritten Platz.
Allerdings prognostizieren die Markforscher IDC und Gartner nur ein leichtes Marktwachstum im Serverumfeld. Treibende Technologien sind dabei ebenfalls Cloud Computing und Big Data.
Die knappen Budgets in den IT-Abteilungen und die steigenden Kosten für Energie zwingen die IT-Verantwortlichen, ihre Serverinfrastruktur zu konsolidieren. Darüber hinaus müssen Aspekte wie Cloud-Services, Big Data und Virtualisierung berücksichtigt werden. Doch in erster Linie ist das Ziel, veraltete Systeme durch moderne, leistungsfähige Server zu ersetzen. Diese sollen energieeffizient arbeiten, eine hohe skalierbare Performance aufweisen und eine hohe Verfügbarkeit besitzen.
Der Wandel im Bereich Serverhardware wird hauptsächlich durch den Einsatz von Virtualisierungs- und Cloud-Technologien begünstigt. Dieser Trend erfordert aber, dass die Anforderungen an das Management und den Service einer solchen IT-Infrastruktur in die Planung beziehungsweise Kostenstruktur der Rundumerneuerung einbezogen werden.
- Server-Virtualisierung - Die Strategien der Hersteller
Worauf müssen sich die IT-Verantwortlichen in Zukunft bei der Server-Virtualisierung einstellen beziehungsweise was planen die Hersteller? Statements zu dieser Frage geben Server-Experten von Dell, Fujitsu, HP und IBM ab. - Peter Duemig; Dell
"Dell setzt auf modulare Systeme zur leichteren Implementierung neuer Technologien und zur besseren Skalierung." - Stefan Lautenschlaeger; Fujitsu
"Primergy Server von Fujitsu sind darauf ausgelegt, die heutigen und künftigen Anforderungen an virtualisierte Systeme bestmöglich zu erfüllen." - Johannes Horneck; HP
"Der Trend bie HP geht immer weiter in Richtung vorkonfektionierte Komplettlösungen." - Thomas Harrer; IBM
"IBM setzt besonders auf offene Standards für die Servervirtualisierung."
Wie sich der Serverbereich in Zukunft mit Blick auf die genannten Themen entwickelt, erläutern folgende Experten:
Peter Dümig, Enterprise Solutions Marketing Manager; Dell
Stefan Lautenschläger, Head of Pre-Sales Strategic Infrastructure Solutions Central Europe; Fujitsu
Johannes Horneck, Business Development Manager Datacentre Solutions; Hewlett-Packard
Thomas Harrer, Client Technical Architect / Chairman TEC Central Region; IBM Deutschland GmbH
Wichtige Tipps, worauf Sie beim Kauf eines Servers achten müssen, erhalten Sie in unseren Beiträgen Kaufberatung: der richtige Blade-Server, Kaufberatung: der richtige Rack-Server und Kaufberatung: der richtige Tower-Server.
Serverlandschaft im Wandel
Auf welche allgemeinen Trends im Bereich Server-Virtualisierung müssen sich kleine und mittelständische Unternehmen im Jahr 2014/15 einstellen?
Peter Dümig, Dell: "Bei der Server-Virtualisierung sind im Moment keine eigenen Technologietreiber erkennbar. Wir nutzen aber die allgemeinen Trends am Markt, die auch in diesem Bereich immer wichtiger werden, besonders auch für kleine und mittelständische Unternehmen. Zu diesen Trends zählt etwa lokaler Speicher bei der Virtualisierung: er ist eine preiswerte Alternative zum zentralen Storage, wie ihn VMware Virtual SAN oder Microsoft Storage Spaces zur Verfügung stellen. Ein weiteres Stichwort lautet Offload von IOs. Dazu kommt das weitere Vorantreiben der Virtualisierung in Richtung LAN."
Stefan Lautenschläger, Fujitsu: "Auch wenn wir heute von einem hohen Virtualisierungsgrad sprechen, stellen wir immer wieder fest, dass die Durchdringung vor allem in dem von Ihnen angesprochenen Kundenkreis noch nicht so stark umgesetzt ist, wie vermutet. Das liegt vor allem an der Komplexität beim Übergang von physikalischen in virtualisierte Umgebungen. Eine große Herausforderung ist das Thema "zentraler Storage". Viele dieser Kunden scheuen vor den planerischen und finanziellen Risiken einer Storage- und SAN-Umgebung zurück, auch wenn sie den Nutzen der Virtualisierung erkannt haben.
Die IT-Hersteller haben darauf reagiert und bieten für dieses Marktsegment Bundles und Referenzarchitekturen an. Diese nehmen den Kunden einen wesentlichen Teil der Risiken ab. Neue Technologien wie Storage-Virtualisierungs-Funktionen im Betriebssystem und Hypervisor reduzieren die Komplexität von Virtualisierungs-Plattformen massiv. Dabei nutzen Betriebssystem und Hypervisor lokale SSDs und Festplatten in den einzelnen Servern, um nicht nur Compute-Leistung zur Verfügung zu stellen, sondern auch gemeinsam nutzbaren Storage.
Wenn bereits Virtualisierungstechnologien genutzt werden, stehen oft die Hardwareeinsparungen und Konsolidierungsmöglichkeiten im Fokus. Gleichzeitig wächst die Zahl der virtuellen Maschinen auf den Hosts durch die wachsende Leistungsfähigkeit der Server immer weiter. Die meisten geschäftskritischen Anwendungen laufen oft auf wenigen Hosts und Störungen können so leicht den gesamten Betrieb beeinflussen. Darum werden Hochverfügbarkeit und Konzepte zum Site Failover für das Data Center immer wichtiger. Um mit der bestehenden IT-Mannschaft diese zunehmenden Anforderungen abzudecken, können die KMU auf Referenzarchitekturen und Tools aufsetzen, die DC Management und Automation unterstützen ohne den Aufbau zusätzlicher Ressourcen."
Johannes Horneck, HP: "In den letzten Jahren konnten Unternehmen mithilfe von Server-Virtualisierung IT-Kosten senken und ihre Flexibilität steigern. Da sie nicht mehr von physischen Servern abhängig waren, konnten sie ihre Rechenzentren deutlich entlasten. Gleichzeitig reagierten die Fachbereiche auf die reduzierten Kosten mit einem ungeahnten Hunger nach neuen Anwendungen, was zu einem enormen Anstieg der virtuellen Maschinen führte und die Kosten explodieren ließ. Die Synchronisation der zahlreichen unterschiedlichen Komponenten bedeutete viel Aufwand. Die Flexibilisierung wurde zunehmend durch proprietäre Komponenten im Netzwerkbereich gehemmt. Aufgrund dessen wird künftig Server-Virtualisierung allein nicht mehr ausreichen. Der Trend geht immer weiter in Richtung vorkonfektionierte Komplettlösungen für den optimierten Betrieb, die auf einer konvergenten Infrastruktur basieren.
IDC prognostiziert für das Jahr 2014 eine Verdoppelung der Anzahl virtueller Maschinen. Dies stellt eine enorme Herausforderung für IT-Abteilungen dar: Sie müssen die hohen Erwartungen an Virtualisierungsprojekte erfüllen, die Geschäftsbereiche unterstützen und jederzeit lieferbereit sein, ohne dabei den geplanten Kostenrahmen zu sprengen. Diese Erwartungshaltung hat sich insbesondere durch die Konzepte externer Cloud-Anbieter etabliert. Für den deutschen Mittelstand kommen solche Cloud-Lösungen allerdings in der Regel nicht infrage, da die eigenen Daten am liebsten nur hauseigenen Lösungen anvertraut werden.
Damit IT-Abteilungen diesen hohen Anforderungen gerecht werden, müssen Planungs- und Umsetzungsphasen sowie die Inbetriebnahme von Systemen verkürzt werden. Hier leisten Referenzarchitekturen eine bedingte Hilfestellung. Einen deutlichen Schritt weiter gehen Komplettlösungen, die alle benötigen Komponenten enthalten: Sie lassen sich nicht nur schnell konfigurieren, sondern auch wirklich zügig in Betrieb nehmen. Schwierig wird es, wenn die Komplettlösung aus den Portfolios unterschiedlicher Hersteller besteht. In diesem Fall ist die Abstimmung der Komponenten deutlich aufwendiger, denn die IT-Abteilung ist dann einerseits von dem Zeitplan jedes einzelnen Herstellers und andererseits von der Entwicklung der strategischen Beziehungen verschiedener Unternehmen in den nächsten Jahren abhängig. Dies kann einerseits zu Schwierigkeiten in der Synchronisation und über die gesamte Laufzeit zu erheblichen Friktionen führen.
Außerdem neigen viele IT-Verantwortliche dazu, Adaptionen mit Fokus auf Einzelkomponenten vorzunehmen, was nicht zwangsläufig zu Vorteilen führt, denn das Zusammenspiel der Komponenten ist viel wichtiger als die individuell angepasste Einzelkomponente. Wesentlich ist jedoch, dass auch bei Komplettlösungen jede einzelne Komponente über offene Standards verfügt, sodass kein "Vendor-Lock-in" entsteht."
Thomas Harrer, IBM: "Der am stärksten wachsende Teil der IT sind die sogenannten Systems of Engagements - das sind Anwendungen, die über das Web oder über mobile Geräte in der Regel über soziale Funktionen Kunden, Partner, Mitarbeiter zusammenbringen und deren Zusammenarbeit unterstützen. Das können auch Spiele sein, Big Data oder Analytische Anwendungen oder Systeme, die das Internet of Things unterstützen. Diese Systems of Engagements werden immer häufiger in Clouds implementiert - entweder als private Cloud im den Rechenzentren der Unternehmen, die diese Systeme einsetzen oder als Public Cloud von Hosting-Anbietern. In beiden Fällen spielt die Servervirtualisierung eine immer wichtiger werdende Rolle, denn diese Cloud-Strukturen sind meist virtualisiert. Der wichtigste Trend in diesem Bereich ist der steigende Einsatz offener Standards für die Virtualisierung und das Management von virtualisierten Umgebungen. Hier spielt Linux, KVM und OpenStack eine zunehmende Rolle.
Daneben bleiben die sogenannten Systems of Records bestehen. Das sind die Kernanwendungen von Unternehmen, auf denen die Finanztransaktionen durchgeführt werden oder auf denen kritische Kernprozesse eines Unternehmens abgebildet sind. Für diese Systeme spielen weiterhin proprietäre Lösungen eine Rolle besonders in Anwendungsszenarien mit besonders hohen Anforderungen an Performance, Skalierbarkeit oder Sicherheit." (hal)