Wer seine Anwendungen und seinen Speicherbedarf aus der Cloud bezieht, braucht keine Infrastruktur? Im Gegenteil! Vor allem die Unternehmen, die Services von unterschiedlichen „As-a-Service“-Anbietern mit hauseigenen Systemen kombinieren, sollten ihre IT-Systeme ordentlich aufgeräumt haben, um den Überblick nicht zu verlieren. Für eine nahtlose Integration der unterschiedlichen Services müssen sie diese auf mehreren Levels integrieren: von der Speicher- und der Datenebene her sowie bezüglich der Services, über die Orchestrierung, Integration und Kontrolle und auch hinsichtlich der Systemanalyse.
Der 1992 gegründete Infrastrukturspezialist NetApp (bis 2008 „Network Appliance“) aus Sunnyvale, Kalifornien, hat das offenbar erkannt und sein Geschäft darauf eingerichtet. Das Unternehmen, das sich lange Zeit vor allem auf Anwendungsintegration und Datensicherung konzentriert hatte, positioniert sich seit kurzem als Integrator von hybriden Multi-Cloud-Architekturen. Das hat dem Umsatz sowie dem Aktienkurs gutgetan. Die Einnahmen betrugen im vergangenen Jahr fast sechs Milliarden Dollar – Tendenz steigend. Der Wert der NetApp-Aktie lag 2016 noch bei 20 Dollar, heute bewegt er sich um die 60 Dollar.
Kunden bauen eigene Integrationsumgebung
Ende 2015 hatte NetApp zunächst den Flash-Speicher-Anbieter SolidFire gekauft, der beispielsweise innerhalb der „FlexPod“-Infrastruktur von Cisco und NetApp Verwendung findet. Ein Jahr später brachte der Daten-Management-Konzern sein Betriebssystem Ontap in einer für den Flash-Speicher maßgeschneiderten Ausführung (Version 9) auf den Markt. Laut Anbieter laufen heute alle Komponenten der hauseigenen „Hyper-Converged Infrastructure“ (HCI) mit demselben Betriebssystem. Mit Hilfe dieses Private-Cloud-Gerüsts könnten sich die Kunden relativ schmerzfrei eine eigene Integrationsumgebung bauen. Eine Flash-optimierte Datenanalyse-Software folgte im Herbst 2016.
„Wir sind mehr ein Software- als ein Hardwareunternehmen“, kontert Jörg Hesske, Vice President Germany, Austria and Switzerland, die Versuche, NetApp immer noch in die Speicherecke zu stellen. Die Top-Themen der diesjährigen Kunden- und Partnerkonferenz „NetApp Insight Europe“ lauteten denn auch Datenintegration, Künstliche Intelligenz und digitale Transformation.
Digitale Transformation fordert die IT heraus
Wie NetApp-CEO George Kurian in Bacelona betonte, erfordert digitale Transformation definitiv eine Anpassung der IT-Umgebung. Aus seiner Sicht gibt es dabei drei wichtige Aspekte:
• Geschwindigkeit ist der Schlüssel zum Erfolg. Die IT-Transformation ist demzufolge unbedingt auch auf mehr Effizienz auszurichten. Silos müssen eingerissen werden; Virtualisierung ist Pflicht; um die Cloud führt kein Weg herum.
• Hybride Multi-Cloud-Umgebungen bilden die neue De-facto-Architektur. Auf diese Weise lässt sich auch das gefürchtete Vendor-Lockin vermeiden. Zudem haben die unterschiedlichen Provider, so Kurian, jeweils individuelle Stärken, die es auszunutzen gelte.
• Das Data Center ist tot, es lebe das Data-Fabric-Konzept. Bei diesem „Datengewebe“ handelt es sich um eine Architektur für ein durchgängiges Daten-Management, die Teil des NetApp-Portfolios ist. Es spielt darin keine Rolle mehr, wo sich die Daten befinden, sie müssen nur überall dort verfügbar sein, wo sie benötigt werden: im traditionellen IT-Center, in der Cloud oder auch on the edge, also direkt beim Anwender.
Laut Kurian ist das „datengetriebene“ Unternehmen der Status, den es zu erreichen gilt. Denn „digital“ bedeute in erster Linie gesteuert: „Ihre Daten sind außerdem das einzige Asset, das Sie Ihrem digitalen Disruptor voraushaben,“ konstatierte der NetApp-Chef.
Mit dem Konzept der Data Fabric beschäftige sich NetApp seit mittlerweile vier Jahren, so Kurian weiter: „Aber in diesem Jahr sind wir auch tatsächlich n der Lage, die drei Marktführer im Cloud-Geschäft – und damit die in ihren Umgebungen gespeicherten Daten – über die HCI zu verbinden.“
Einige Unternehmen proben den Clexit
Ein Indiz dafür, dass die Marktführer AWS, Google und Microsoft die neue NetApp-Strategie zu schätzen wissen, liefert ein Blick auf die Sponsoren-Liste der Insight Europe: Alle drei haben die Veranstaltung unterstützt. Offenbar sind die „Hyperscaler“ bislang nicht willens oder in der Lage, selbst systemübergreifende Speicher- und File-Management-Systeme zu entwickeln. Gut für NetApp, das sich vermutlich deshalb so schwertut, öffentlich über die jeweiligen Stärken und Schwächen der Anbieter zu sprechen. Schließlich will man es sich mit keinem verderben.
Wie DACH-Chef Hesske festgestellt hat, nutzen aber fast alle Kunden mindestens zwei unterschiedliche Provider – aus Gründen der Funktionalität und der Entscheidungsfreiheit. Einige hätten ihre IT – zumindest in Teilbereichen – aber auch wieder ins Haus geholt. „Wir nennen das – in Analogie zum britischen EU-Ausstieg – den Clexit.“
In einem Unternehmen, das seine Hausaufgaben gemacht habe, stelle sich eben oft heraus, dass manche Services vor Ort preisgünstiger erbracht werden könnten, so Hesskes Begründung: „Die Idee, dass IT aus der Cloud per se billiger wäre, ist nicht richtig“, insistiert er. Deshalb sei die häufig propagierte „Cloud-First“-Strategie eigentlich schon wieder überholt: „Korrekt ist aber, dass die Cloud ein Unternehmen agiler und flexibler macht.“
Einmal Cloud und wieder zurück
Um die Cloud auch im sicherheitsbewussten Europa salonfähig zu machen, bietet NetApp den Kunden sein „Private-Storage“-Modell an. Dabei werden die Daten von einem separat installierten Speicher in die Infrastruktur des Service-Anbieters übertragen, dort verarbeitet, also analysiert und anschließend direkt wieder zurückgespielt.
Trotzdem wollen viele Kunden auch On-Premises-Service – parallel zu den Diensten unterschiedlicher Cloud-Anbieter. Und NetApp betrachtet diesen Wunsch als legitim. Zumal es einige Softwareprodukte hat, die beim gleichzeitigen Management unterschiedlicher Software-Deployments helfen können. Dazu gehören unter anderen die Lösungen "AWS Cloud Volumes", "Google Cloud Volumes" und "Azure NetApp Files“ sowie das On-Premises-Pendant "Cloud Volumes Ontap", das als ein Teil von HCI gehandhabt wird.