Zahlreiche große und kleine Technologieanbieter unterstützen IT-Verantwortliche mittlerweile beim Management von OpenStack-Infrastrukturen. Zum Leistungsspektrum dieser Dienstleister gehören Distributionen, professioneller Support, Beratungs- und Integrationsleistungen sowie auch erweiterte Lösungen für das Open-Source-Ökosystem. Crisp Research hat fünf Anforderungen identifiziert, die Unternehmen beim Betrieb größerer Cloud-Umgebungen auf OpenStack-Basis im Auge behalten sollten.
1) Verfügbarkeit und Skalierbarkeit
Um die interne IT-Infrastruktur auf ein Cloud- und DevOps-Modell umzustellen, ist es unausweichlich, Cloud-native Anwendungen im Fehlerfall innerhalb einer Cloud zu verschieben. Hierzu sollten die Anwendungen die "Intelligenz" und Kenntnisse besitzen, dass jeder Server, jede Festplatte und die Netzwerkkomponenten zu jeder Zeit ausfallen können. Die Infrastruktur muss daher in Echtzeit laufend überprüft werden. Bei Bedarf ist unverzüglich auf Anomalien zu reagieren. Der Betrieb einer Infrastruktur muss somit hinsichtlich
Hochverfügbarkeit
Skalierbarkeit und
Performanz
sichergestellt werden.
Die Skalierbarkeit der Infrastruktur ist eine wichtige Eigenschaft, um die Verfügbarkeit und Stabilität der Workloads zu unterstützen. Damit wird sichergestellt, dass Applikationen trotz zunehmender Last weiterhin funktionieren. OpenStack selbst ist hochskalierbar. Die Software besteht aus einer lose gekoppelten Architektur und ist in der Lage, bei Bedarf auf Lastschwankungen in Echtzeit zu reagieren. Die Problematik besteht in den meisten Fällen in dem nicht vorhandenen Wissen hinsichtlich Design und Konfiguration der einzelnen Komponenten im Zusammenspiel mit der gesamten Infrastruktur. Eine professionelle Distribution, die auf einer OpenStack-Referenzarchitektur basiert, hilft dabei von Beginn an, eine stabile Skalierbarkeit und Performance sicherzustellen. Denn alle entsprechenden Komponenten sind in diesem Fall schon fertig konfiguriert.
2) Management und Sicherheit
Aufbau, Betrieb und das Management einer sicheren IT-Infrastruktur sind komplex. Die Annahme, dass sich eine Private Cloud auf Enterprise-Niveau an einem Arbeitstag implementieren lässt und am selben Abend sogar in Produktion geht, entspricht nicht der Realität. Dennoch wird der Faktor Zeit immer mehr zu einem Wettbewerbsvorteil, der nicht unterschätzt werden sollte. Wer eine stabile OpenStack-basierte Cloud verhältnismäßig schnell in Betrieb nehmen möchte, sollte sich auf eine Version konzentrieren, die alle Funktionen für unterschiedliche Deployment-Arten sowie das tägliche Management und Sicherheitsmechanismen beinhaltet. Fehlen solche Features, werden die dafür verantwortlichen Teams viel Arbeit und Zeit investieren müssen.
OpenStack wird in der Industrie gerne als das "Linux der Cloud" bezeichnet. Anders als bei den meisten Linux-Betriebssystemen fängt bei OpenStack die Arbeit nach der Installation aber erst richtig an. Ein echtes Cloud-Betriebssystem unterstützt den Administrator durch
Cloud-Management-Tools,
ein wiederverwendbares Architekturmodell,
eine Referenzarchitektur für das Netzwerk,
Tools für das Logging und Überwachen der Cloud-Infrastruktur,
eine Kommandozeile und Schnittstellen (APIs) für die Integration und Automation mit bestehenden und neuen Systemen,
grafische Oberflächen (GUI) für die visuelle Darstellung von Analysen.
Unternehmen benötigen eine Private Cloud mit einem verständlichen Sicherheitsmodell, insbesondere auf der Management-Ebene. Das bedeutet, dass jederzeit der Zugriff durch die Mitarbeiter und andere Nutzer der Infrastruktur erfasst und dokumentiert werden muss. Das funktioniert nur mit einer zentralen Management-Konsole und Zugriffsverwaltung. Weiterhin sollten IT-Verantwortliche auf folgende Eigenschaften der Infrastruktur achten:
Zentraler Bereich für die Fehlersuche und -beseitigung
Vollständige Trennung des Management-Bereichs (OpenStack-Datenbank) von den Daten (Virtuelle Maschinen usw.).
Aufteilung der Cloud in Zonen mit verschiedenen Sicherheitsbereichen und unterschiedlichen Zugriffsrechten.
Trennung der Infrastruktur anhand von VLANs auf Netzwerkebene.
3) OpenStack in der Praxis: Offenes Architekturdesign versus Vendor Lock-in
Eines der zentralen Versprechen von OpenStack ist die Verringerung des Vendor Lock-ins. Doch solche Marketingaussagen sollten CIOs mit Vorsicht genießen. Denn die Vorstellung, OpenStack führe zu keinem Lock-in, erweist sich in der Praxis als falsch. Jedes System birgt in irgendeiner Form einen Lock-in in sich. Viel wichtiger ist es dabei zu verstehen, dass durch den Wechsel zu OpenStack das Risiko verändert wird. Mit dem offenen Architekturdesign erhält die interne IT-Mannschaft zum einen mehr Möglichkeiten, Einfluss auf die Infrastruktur zu nehmen und diese zu kontrollieren. Zum anderen gibt es eine Vielzahl externer Anbieter und Lösungen, um das Open-Source-Framework mit zusätzlichen Funktionen zu erweitern. Mit anderen Worten: OpenStack und dessen offener Architekturansatz helfen lediglich dabei, den Lock-in zu reduzieren, können diesen aber niemals vollständig eliminieren. Das bedeutet, dass ein gewisser Lock-in als etwas Normales eingeordnet werden sollte. Anstatt zu versuchen, diesen vollständig zu umgehen, sollten Unternehmen Szenarien prüfen, die vertretbar sind und gleichzeitig einen individuellen Mehrwert bieten.
4) Hybrid Cloud und Multi-Cloud-Funktionen
Mit dem Einzug der Cloud in die Unternehmens-IT hat sich eine echte Betriebsalternative für eine Vielzahl unterschiedlicher Workloads etabliert. Dies hat dazu geführt, dass eine weitere Differenzierung der Anbieter und Deployment-Modelle erfolgen muss. Hierbei kristallisiert sich heraus, dass unternehmenskritische Workloads (SAP, SCM etc.) nicht in einer Public Cloud betrieben werden, während Web-Workloads und mobile Anwendungen dafür gut geeignet sind. Weiterhin erfordern Test- und Development-Systeme gänzlich andere Cloud-Umgebungen als der Betrieb eines stark frequentierten E-Commerce-Shops. Es zeigt sich somit, dass sich die Workloads hinsichtlich ihrer Anforderungen deutlich unterscheiden. Die Differenzierungen machen sich insbesondere bei den Anforderungen bemerkbar. Dabei wird unterschieden zwischen:
Skalierbarkeit,
Performanz (I/O oder RAM),
Verfügbarkeit (SLAs),
Security und
Kosten.
Vor diesem Hintergrund nutzen große Unternehmen wie auch Startups meist mehrere Cloud-Service-Provider und interne Infrastrukturen parallel. Weil damit die Integration auf Daten-, Anwendungs- und Prozessseite immer wichtiger wird, kommt der Gestaltung sogenannter Hybrid- beziehungsweise Multi-Clouds eine elementare Rolle zu. Und hier liefert OpenStack einen gemeinsamen Nenner. Denn die Software ist zum Provisionieren und Administrieren der verschiedenen Rechen-, Speicher- und Netzwerk-Ressourcen unabhängig von den zugrundeliegenden Hardware-Komponenten und Anbietermodellen. Durch das mittlerweile gut entwickelte Ökosystem und die Unterstützung vieler namhafter Technologieanbieter, kann OpenStack für nahezu alle relevanten Server-, Speicher- und Netzwerk-Komponenten die notwendigen Treiber und Konnektoren bereitstellen.
5) OpenStack: Standardisierung und Kontrolle
Zu Beginn ihrer Existenz lag der Fokus der meisten Cloud-Anbieter darauf, möglichst schnell mit ihrem Portfolio zu wachsen, um sich Marktanteile zu sichern. Es wurde also ein erstes IaaS-Angebot auf den Markt gebracht und versucht, die Kunden auf die Plattform zu ziehen. Allerdings liegt es in der Natur der Sache, dass die IaaS-Anbieter sich auf die eigene Plattform konzentriert haben, um diese als Standard im Markt zu etablieren. Mit einem Multi-Provider- beziehungsweise Multi-Standort-Modell haben sich nur die wenigsten Cloud-Anbieter beschäftigt.
Aus Anwenderperspektive ist das nachteilig, da sich diese von den IaaS-Angeboten ein deutlich höheres Maß an Kontrolle und Standardisierung versprechen. OpenStack macht der Branche hier ein großes Versprechen: Sollte sich die Open-Source-Technologie auf Anbieter- und Unternehmensseite gleichermaßen verbreiten, so könnte sich in den nächsten drei bis fünf Jahren eine ernsthaft integrierte und verteilte IaaS-Infrastruktur-Landschaft etablieren. Innerhalb dieser ließen sich über Anbietergrenzen hinweg Ressourcen (Rechenleistung, Speicherplatz und Netzwerk) beziehen und vermarkten.
Bereits heute stellt OpenStack allgemeingültige und standardisierte APIs (Schnittstellen) bereit. Hinzu kommt die Möglichkeit, deutlich mehr Kontrolle über den Cloud-Management-Stack zu behalten, als es bei proprietären Lösungen bisher möglich war. So können Anwender bei Bedarf und einer entsprechenden Expertise individuelle Anpassungen vornehmen und Einsicht in die Source-Code-Basis erhalten. Zudem bietet der OpenStack-Entwicklungsprozess auch für engagierte Anwender die Möglichkeit der Mitgestaltung und Einflussnahme. (wh)