Den Satz "There's no glory in prevention" konnte man in diesem Jahr häufiger hören. Er meint das Dilemma von Gesundheitsberufen, dass die Verhinderung von Krankheiten oder Infektionen durch vorbeugende Maßnahmen meist nicht angemessen vom Patienten gewürdigt wird. Oder vereinfacht ausgedrückt: Der Mensch denkt erst an seine Gesundheit, wenn er krank ist. An dieser Stelle lässt sich eine erstaunliche Parallele zwischen Enterprise Storage und dem Gesundheitssystem ziehen. Auch im Storage gibt es dieses "Präventionsparadox". Schließlich nimmt im Unternehmensalltag der Storage meist die eher ungeliebte Rolle des Kostenfaktors ein, dessen Wichtigkeit erst erkannt wird, wenn etwas nicht mehr funktioniert.
"Im Storage-Markt steckt unglaublich viel Innovation, die von den Verantwortlichen im Unternehmen aber nicht immer gesehen wird", beschreibt Andreas Schmidt vom Filehosting-Dienst Dropbox das Dilemma, "in der Wahrnehmung vieler Entscheider ist Storage oft nur ein reines Cost Center. Erst wenn gar nichts mehr geht - also die Speicher voll sind oder technische Probleme entstehen - wird plötzlich und bereitwillig Budget zur Verfügung gestellt."
Verpasste Chancen durch veraltete Legacy-Systeme
Diese stiefmütterliche Behandlung wirkt sich unmittelbar auf die Innovationen der gesamten Unternehmens-IT aus, deren kritische Infrastruktur aus teilweise jahrzehntealten Legacy-Systemen besteht. Das Ergebnis sind viele verpasste Chancen. Dehsalb lohnt sich für die Experten des IDG-Round-Tables "Enterprise Storage" durchaus ein genauerer Blick auf das Thema Speicher. Der Markt biete mittlerweile eine breite Auswahl an Technologien, die einen disruptiven Einfluss auf die Datenhaltung und -verarbeitung haben und Trendthemen wie Internet of Things (IoT) oder Künstliche Intelligenz (KI) entscheidend adressieren. Vor allem die Frage, wie hoch der Cloud-Anteil künftig sein soll und wie der lokale Storage mit den eingesetzten Services harmoniert, ist hier zentral.
- Alexander Best, Datacore
"Der Vorteil von SDS liegt vor allem in der Vielfältigkeit: Sie lassen sich in diversen Architekturen einsetzen, liefern technologische Unabhängigkeit und eine schnellere Time-to-Market. Mit Blick auf die aktuell eingesetzte Hardware wird Storage aber auch die nächsten 20 Jahre noch ein “Bottleneck” bleiben." - Andreas Schmidt, Dropbox Business
"Als Cloud-Provider reden wir nicht über Platten oder Tapes, sondern über Verfügbarkeit und einfaches Datenmanagement. Gerade jetzt im neuen Lockdown wird doch klar, worum es dem User geht: Die eigenen Daten von jedem beliebigen Ort abrufen und produktiv mit ihnen arbeiten zu können." - Stefan Roth, Fujitsu
"Es ist fundamental wichtig, die Datenströme in einem Unternehmen zu analysieren, zusammenzuführen und zueinander kompatibel zu machen. In Enterprise SDS Lösungen können Sie relativ einfach komplette Data Workloads abbilden und auch analysieren. (Beispiel ETERNUS DSP oder Qumulo)" - Kristian Bacic, Huawei
"Um den Storage der Zukunft im Blick zu behalten braucht es mehr als ein zentrales Dashboard. Über kurz oder lang werden AI-Systeme das Herz einer vielfältigen Automatisierung und Lastverteilung sein." - Götz Mensel, IBM
"Mit der Red-Hat-Akquise kam ein nahezu perfektes Ökosystem zu unserem Portfolio hinzu. Unsere Aufgabe lag vor allem darin, dieses ebenso perfekt in unser Portfolio zu integrieren: Das heißt erstens, im Container-Bereich die Sicherung persistenter Daten zu realisieren. Zweitens, es zu schaffen, diese Container zu backupen. Und drittens, auch die notwendige Automatisierung zu erreichen." - Johannes Wagmüller, NetApp
"Wir beobachten den wachsenden Wunsch beim Kunden, Storage als Service zu konsumieren und positive Szenarien aus der Public Cloud auch in eine On-Premises-Infrastruktur zu überführen." - Markus Grau, Pure Storage
"Kunden wollen Daten konsumieren und nicht ihren Storage managen. Die Kernfrage lautet: Wie bekomme ich die nötige Innovation für meine Daten, ohne das komplette System erneuern zu müssen? Dabei ist es auch wichtig, eine gewisse technologische Sparsamkeit walten zu lassen. Denn je mehr spezialisierte Systeme ich parallel einsetze, desto größer ist das Risiko, dass neue Silos entstehen." - Marco Arnhold, Tech Data
"Als Distributor sitzen wir immer ein Stück weit zwischen den Stühlen. Bei der heute im Markt herrschenden technologischen Vielfalt ist es wichtig, über ein breit gefächertes Netzwerk an Spezialisten zu verfügen. Auf diese Weise können wir klassische Storage-Elemente mit Themen wie Hybrid Cloud, Containerisierung und Co. in den Kundenprojekten verknüpfen." - Manfred Berger, Western Digital
"Das Thema “Network Attached Storage” (NAS) kommt mir in der Diskussion häufig zu kurz. Mit integrierten Platten bin ich beim Platz und bei der Geschwindigkeit meistens beschränkt. Wenn ich allerdings sehr große Datenmengen speichern und analysieren will, muss ich eigentlich über das Netzwerk gehen. Das Stichwort lautet hier, Ressourcen zu disaggregieren und scheibchenweise zur Verfügung zu stellen. Gerade im Umgang mit künstlicher Intelligenz und anderen datenintensiven Prozessen liefert NAS, bzw. „NVMe over Fabric“, wertvolle Lösungsansätze."
Datenmanagement rückt in den Mittelpunkt
Hersteller und Beratungsunternehmen sind also gefragt, einerseits die technologischen Möglichkeiten zu illustrieren und andererseits Abrechnungsmodelle zu finden, die die Investitionshürden insbesondere für mittelständische Unternehmen senken. Dass es sich lohnt, davon sind die Experten überzeugt. "Die Storage-Debatte dreht sich doch im Kern um die Verwaltung knapper Ressourcen", bemerkt Manfred Berger von Western Digital. "Und in diesem Kontext muss man einfach auch auf die Bandbreite zu sprechen kommen. Es gilt, künftig noch mehr Konzepte zu finden, die unnötige Datenbewegungen vermeiden."
Ein durchdachtes, konsistentes Datenmanagement kann demnach dazu beitragen, die Storage-Kosten deutlich zu senken und den Grundstein für eine sinnvolle Zusammenführung der Unternehmensdaten zu legen. Dabei ist es wichtig, bei den Daten zu differenzieren, wie oft und für welche Zwecke sie benötigt werden, wie Alexander Best vom SDS-Spezialisten DataCore anmerkt: "Wir beobachten flächendeckend, dass etwa 10 Prozent der Gesamtdaten für 90 Prozent der Transaktionen im Unternehmen genutzt werden. Dieser Data Gravity gilt es, beim Aufbau von Storage-Architekturen Rechnung zu tragen: In On-Premises-Umgebungen ist die Anzahl der Transaktionen kein besonders gewichtiger Faktor da die Übertragungszeiten sehr kurz sind, doch sobald Sie Storage aus der Cloud nutzen, also eine hybride Architektur nutzen, und damit längere Übertragungszeiten ins Spiel kommen müssen Sie überlegen, wie Sie die Anziehungskraft Ihrer Daten aushebeln."
Studie "Enterprise Storage 2021": Sie können sich noch beteiligen! |
Zum Thema Enterprise Storage führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Entscheidern durch. Haben Sie Fragen zu dieser Studie oder wollen Sie Partner werden, helfen Ihnen Regina Hermann (rhermann@idgbusiness.de, Telefon: 089 36086 384), René Krießan (rkriessan@idg.de, Telefon: 089 36086 322) und Bastian Wehner (bwehner@idg.de, Telefon: 089 36086 169) gerne weiter. Informationen zur Enterprise-Storage-Studie finden Sie auch hier zum Download (PDF). |
Containerisierung als Chance
Lokaler Storage wird auch in Zukunft seinen festen Platz in den Unternehmen haben. Durch die Einbindung in hybride Infrastrukturen ist es allerdings wichtig, die zu verarbeitenden Daten nahe an den Applikationen zu hosten. Gerade deswegen sieht die Branche in der Containerisierung eine große Chance. "Die Nutzung von Containern ermöglicht es, die für eine Applikation benötigten Datenfragmente nah an der Anwendung zu speichern - und damit, unnötige Bewegungen zu vermeiden", betont Best.
Auch für Götz Mensel von IBM, das sich mit der Übernahme von Red Hat mit seiner Plattform Open Shift an dieser Stelle entscheidend verstärkte, liegen in der Containerisierung große Potenziale: "Wir erreichen dadurch ein neues Niveau der Agilität. Unsere Kunden werden künftig in der Lage sein, einen kompletten SDS-Stack in einem Container hochzuziehen."
Storage-Pionier IBM wolle mit der Red-Hat-Übernahme, aber auch mit intensiver Forschungstätigkeit die Technologien, die IBM in der Vergangenheit begründet hat, in die Zukunft überführen, so Mensel. Wie diese Zukunft aussehen wird, darüber herrscht zwischen Storage-, Cloud- und Service-Providern zumindest in den wesentlichsten Punkten Einigkeit. Demnach wird das Thema Software-defined Storage (SDS) in vielen Bereichen weitere Impulse setzen. Genannt werden etwa die Themen Verfügbarkeit, Mandantenfähigkeit oder zentrale Orchestrierung.
"SDS macht vor allem in Hybrid-oder Multi-Cloud-Architekturen Sinn. Schließlich haben Unternehmen heute oft einen ganzen Zoo an Lösungen zu verwalten. Wenn ich also einen einheitlichen Layer einziehe, erleichtert mir das die Portabilität der Daten ungemein", bemerkt Markus Grau von Pure Storage.
SDS adressiert individuelle Bedürfnisse
Einer der großen Vorteile von SDS liege demnach in der Flexibilität. Anwender haben damit die Möglichkeit, ihren Storage nach ihren Wünschen zu konfigurieren und bereitzustellen. Sie bestimmen über die Hardware und darüber, welche Container- oder Cloud-Plattformen in Kombination laufen.
"Letztlich haben wir es immer mit einer individuellen Strategie und somit einer individuellen Infrastruktur zu tun", bemerkt Stephan Roth von Fujitsu. "Ich muss mir die Anforderungen ansehen, analysieren und dann entscheiden, welche Architekturen ich implementiere - für heute und die Zukunft. Oft ist es gar nicht nötig, eine komplette Technologie zu ersetzen. Es existieren mittlerweile eine Reihe von Konnektoren, um in die Cloud und aus der Cloud zu arbeiten. So können Sie relativ schnell eine Hybrid-IT oder auch Data Fabric aufbauen und den Grundstein für eine weitere Skalierung legen."
Informationen zu den Partner-Paketen der Enterprise-Storage-Studie
Als Generallösung tauge SDS trotzdem nicht, wie Kristian Bacic von Huawei bemerkt: "Eine standardisierte SDS-Lösung, die alles umfasst, gibt es nicht. Die Anforderungen im Enterprise-Bereich sind dafür zu differenziert. In Zukunft werden weitläufige, dezentrale Serverstrukturen die Storage-Landschaft prägen. Daher wird aus meiner Sicht die Bedeutung von großen, verteilten Systemen zunehmen, die einer SDS Lösung unterliegen, vor Ort aber stark autonom und AI-getrieben funktionieren."
Damit Unternehmen den Schritt hin zu einer Modernisierung ihrer Legacy-Infrastruktur wagen, müssen auch die Abrechnungssysteme flexibler werden oder, wie es einige Teilnehmer ausdrücken: konsumierbar. Im Kontext von hyperkonvergenten Systemen rückt die Hardware in den Hintergrund, und Unternehmen interessieren sich für Parameter wie Verfügbarkeit, Performance oder Mandantenfähigkeit. Das Ziel ist die Realisierung von As-a-Service-Modellen, wie sie in der Public Cloud längst zum Alltag gehören. Denn nur wenn sich Enterprise Storage als "traditionelle" Komponente der IT-Landschaft in Richtung Konsumierbarkeit öffnet, wird er seine Position gegenüber den Cloud-Lösungen behaupten und in hybriden Systemen seine Vorteile ausspielen.
Für Alexander Best ist vor diesem Hintergrund der Auftrag für die Provider klar: "Wir müssen uns immer wieder ins Gedächtnis rufen, dass Storage für die meisten Unternehmen ein Mittel zum Zweck ist. Wenn Sie in ein Auto steigen denken Sie schließlich auch nicht die ganze Zeit ans Tanken. Diesen Pragmatismus beim Kunden gilt es zu adressieren, in Form von behutsamen technologischen Verbesserungen, die die Legacy-Architektur angemessen berücksichtigt."