Es gibt inzwischen kaum noch Services, die Unternehmen nicht als Cloud-Dienst buchen können. Doch will man wirklich alle Daten diesen Public-Cloud-Services anvertrauen? Hier werden sehr viele CIOs schon alleine aus Datenschutz- und Compliance-Gründen nein sagen. Als Folge laufen sensible Dienste besser auf der eigenen IT-Infrastruktur, weniger kritische Services kommen in die Public Cloud.
Was muss die eigene Storage-Infrastruktur bei diesem hybriden Mischbetrieb einer privaten und Public Cloud eigentlich leisten? Einerseits muss es Schnittstellen zur Einbindung von Public Clouds a la Amazon S3 oder Microsoft Azure geben. Inzwischen nutzen Unternehmen die Public Cloud zunehmend beispielsweise auch für Backup und Disaster Recovery. Ein Problem im hybriden Einsatz der Cloud-Dienste ist das Datenmanagement: Wie lassen sich On-Premise-Daten mit den Dokumenten in der privaten und Public Cloud zentral überwachen; Stichworte Monitoring, Alerting, Kapazitätsmanagement.
Wir haben die Experten führender Unternehmen im Storage-Segment nach Ihrer Meinung gefragt, ob es für die eigene Speicherlandschaft für den Einsatz der Hybrid-Cloud spezielle Anforderungen gibt:
Hans Schramm, Field Product Manager Enterprise, Dell
Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems
Ralf Colbus, Leading Storage Professional, IBM Deutschland
Johannes Wagmüller, Director Systems Engineering, NetApp
Vincenzo Matteo, Disk Product Management Director, Oracle
- Dr. Georgios Rimikis, Senior Manager Solutions Strategy, HDS
„Über RESTful Protokolle könnten Daten in einer Public Cloud gespeichert werden, während aktive Metadaten hinter der Firewall in der Private Cloud residieren." - Vincenzo Matteo, Disk Product Management Director, Oracle
"Eine hochwertige Hybrid-Cloud-Infrastruktur setzt eine leistungsstarke Application Engineered Storage Lösung (AES) inklusive OpenStack Cloud API Support vor Ort voraus. AES senken per Automatisierung Verwaltungskosten und bieten zusätzlich anwendungsspezifisch speziell abgestimmte Funktionen." - Ralf Colbus, Leading Storage Professional, IBM Deutschland
"Zentral muss die Möglichkeit bestehen, Daten nahtlos von einem Cloud-Provider zu einem anderen zu verschieben. Dies rückt etwa dann in den Fokus, wenn ein Cloud Provider die definierten Service Level Agreements (SLA) nicht mehr halten kann." - Johannes Wagmüller, Director Systems Engineering, NetApp
"Unternehmen benötigen eine Datenmanagementplattform, die über die Clouds der verschiedenen Anbieter hinweg funktioniert. Erst mit einer solchen Lösung gelingt eine Verbindung zwischen On-Premise-Systemen sowie Ressourcen aus der Private und Public Cloud." - Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
„Ein weiteres sehr wichtiges Element ist die Bereitstellung eines Service-Kataloges für die Endbenutzer. Dieser muss sehr einfach handhabbar sein, damit die Akzeptanz genauso hoch ist wie bei bedienerfreundlichen Cloud-Anbietern. Das setzt ein Portal für die Administration voraus, in dem Services zentral definiert und gewartet werden können.“ - Hans Schramm, Field Product Manager Enterprise, Dell
"Die Storage-Infrastruktur sollte für neue Technologien offen sein und beispielsweise die Kombination von unterschiedlichen Storage-Technologien in einem System oder auch Hyperconverged-Lösungen, die zunehmend auf den Markt kommen, unterstützen."
Wird On-Premise-Storage durch die Cloud überflüssig?
Hans Schramm - Dell: "Für eine Speicherinfrastruktur, die Unternehmen in ihrem eigenen Rechenzentrum beispielsweise auch als Private-Teil einer Hybrid-Cloud betreiben, sind alle aktuellen Storage-Innovationen relevant. Dazu zählen etwa reine Flash- oder hybride Arrays. Weitere Anforderungen sind ein einfaches und übersichtliches Management und ein dynamisches und automatisiertes Tiering.
Damit werden häufig benötigte Daten auf schnellen, kleinen und teuren Medien wie SAS-Festplatten oder SSDs und selten benötigte Daten auf großen, aber kostengünstigen Medien platziert. Die Storage-Infrastruktur sollte für neue Technologien offen sein und beispielsweise die Kombination von unterschiedlichen Storage-Technologien in einem System oder auch Hyperconverged-Lösungen, die zunehmend auf den Markt kommen, unterstützen."
Dr. Stefan Radtke - EMC: "In der Vergangenheit dominierten zwei Modelle den Storage-Einsatz: Das Enterprise-Storage-Modell mit klassischen NAS- und Block-Protokollen auf der einen und das Cloud-/Objekt-Storage-Modell auf der anderen Seite. Diese zwei Welten wachsen bei EMC seit Jahren zusammen und bieten dem Kunden viele Auswahlmöglichkeiten.
Die EMC ViPR unterstützt beispielsweise alle klassischen Access-Protokolle, und auch im Back-End hat der Kunde die Wahl: Er kann Speichersysteme verschiedener Hersteller einsetzen odereinfach nur Commodity-Server mit internen Disks oder eine Appliance mit Commodity-Komponenten implementieren."
"Ein weiteres sehr wichtiges Element ist die Bereitstellung eines Service-Kataloges für die Endbenutzer. Dieser muss sehr einfach handhabbar sein, damit die Akzeptanz genauso hoch ist wie bei bedienerfreundlichen Cloud-Anbietern. Das setzt ein Portal für die Administration voraus, in dem Services zentral definiert und gewartet werden können."
Dr. Georgios Rimikis - Hitachi Data Systems: "Zunächst einmal muss die Hybrid Cloud-Lösung die Anforderungen des Unternehmens in punkto Flexibilität, Kosten, Verfügbarkeit und Leistungsfähigkeit erfüllen. Allerdings sollten die Systeme bei den Schnittstellen zu Public Clouds nicht halt machen, denn das wäre deutlich zu kurz gedacht. Zusätzliche Funktionen können den Nutzen der Cloud-Lösung deutlich erweitern."
"Über RESTful Protokolle könnten Daten in einer Public Cloud gespeichert werden, während aktive Metadaten hinter der Firewall in der Private Cloud residieren. Objektbasierte Speicherlösungen wie die Hitachi Cloud Platform (HCP) ermöglichen ein automatisiertes Daten-Tiering in der Public Cloud, gleichzeitig bleiben die Verschlüsselung und Metadaten-Kontrolle der Private Cloud erhalten.
Daten in der Public Cloud zu speichern, kann kosteffizient sein - zumindest, solange Unternehmen nicht auf sie zugreifen. Trotzdem wollen Unternehmen natürlich die Kontrolle darüber behalten. Und genau hier setzt das Hybrid Cloud Modell an: Die Metadaten bleiben in der unmittelbaren Kontrolle des Unternehmens, Inhalte lassen sich so einfach suchen und werden nur aus der Public Cloud heruntergeladen, wenn das passende Datenobjekt gefunden ist. Darüber hinaus sollten die Metadaten erweiterbar sein."
"Nachdem nicht gewährleistet ist, wo die Daten in der Public Cloud physikalisch abgelegt sind, sollte deren Verschlüsselung ebenso zum Standard gehören wie ein Hash-Algorithmus. Damit kann nachgewiesen werden, dass die Daten tatsächlich nicht verändert wurden. Ein weiterer wichtiger Punkt: Eine Lösung sollte so flexibel sein, dass die Daten sich im Hintergrund migrieren und zwischen verschiedenen Public Clouds verschieben lassen."
Ralf Colbus - IBM: "Zentral muss die Möglichkeit bestehen, Daten nahtlos von einem Cloud-Provider zu einem anderen zu verschieben. Dies rückt etwa dann in den Fokus, wenn ein Cloud Provider die definierten Service Level Agreements (SLA) nicht mehr halten kann. Ebenfalls wichtig sind offene APIs und Verschlüsselung sowie die nahtlose Integration von Storage- und Compute-Power in der Cloud, sodass sich Daten nicht nur verschieben, sondern auch in der Cloud analysieren lassen."
Johannes Wagmüller - NetApp: "Unternehmen benötigen eine Datenmanagementplattform, die über die Clouds der verschiedenen Anbieter hinweg funktioniert. Erst mit einer solchen Lösung gelingt eine Verbindung zwischen On-Premise-Systemen sowie Ressourcen aus der Private und Public Cloud. Warum dies wichtig ist, wird deutlich, wenn man sich die Situation in vielen Rechenzentren heute einmal ansieht. Immer wieder stellen wir fest, dass unternehmenskritische Daten in Silos gespeichert sind, für deren Verwaltung keine übergreifende Dateninfrastruktur und auch keine durchgängigen Prozesse existieren.
Wir bieten Lösungen für ein Datenmanagement dieser verteilten Datensilos an. Dabei ist es gleichgültig, ob diese Datensilos On-Premise, in Colocation-Centern oder bereits in der Cloud liegen. Die Basis für diese durchgängige Nutzung ist unsere Lösung Clustered Data ONTAP. Damit unterstützen wir eine Strategie weg von einzelnen Storage-Arrays und ermöglichen eine dynamische Daten- und Workload-Verschiebung über alle Ressourcen hinweg, inklusive der Cloud."
Vincenzo Matteo - Oracle: "Eine hochwertige Hybrid-Cloud-Infrastruktur setzt eine leistungsstarke Application Engineered Storage Lösung (AES) inklusive OpenStack Cloud API Support vor Ort voraus. AES senken per Automatisierung Verwaltungskosten und bieten zusätzlich anwendungsspezifisch speziell abgestimmte Funktionen. Für Oracle Datenbanken ist die Hybrid Columnar Compression ein Beispiel. Sie beschleunigt Abfragen und verringert gleichzeitig den Speicherbedarf. Ein weiteres wichtiges Feature für On-Premise Storage-Lösungen, das nur in Verbindung mit AES verfügbar ist, ist QoS Plus. Es zählt zu den intelligentesten Management Frameworks im Storage Sektor.
QoS Plus kombiniert I/O-Service-Priorisierung anhand des jeweiligen betriebswirtschaftlichen Nutzens, der workloadspezifischen Granularität (Read, Write, Random, Sequential) und der Zugriffshäufigkeit - und verschiebt Daten entsprechend in den am besten geeigneten Data Tier. Das spart Kosten, funktioniert vollautomatisch und wird - sofern gewünscht - vom Oracle FS1 AES laufend angepasst. Daten möglichst kosten- und kapazitäteneffizient zu verwalten ist gerade beim Umgang mit Flash-Speicher und in Hybrid-Cloud-Szenarien besonders wichtig. Hier kommt QoS-Plus ins Spiel - es kennt die aktuell am häufigsten verwendeten und besonders geschäftskritischen Daten und sichert sie genau dort, wo sie besonders schnell abgefragt werden können."