Digitalisierung, Industrie 4.0 und Internet of Things (IoT) sind aktuell die Hype-Themen, die Unternehmen zwingen ihre IT-Landschaft grundlegend zu erneuern beziehungsweise zu konsolidieren. Laut einhelliger Meinung von IT-Experten gehört All-Flash kombiniert mit Software-Defined-Storage und Scale-Out-Architektur die Zukunft. Denn im Gegensatz zu den herkömmlichen homogenen Speicherumgebungen, erfüllen die neuen Speicherkonzepte die steigende Nachfrage nach Skalierbarkeit und Flexibilität.
Durch den steigenden Digitalisierungszwang müssen Unternehmen viele unterschiedliche Daten oft in sehr kurzer Zeit verarbeiten - Stichwort: Big Data Analytics. Da die digitale Transformation nahezu in jeden Unternehmensbereich Einzug hält, steigen die Anforderungen hinsichtlich Performance und Agilität der IT immer weiter an. Innovative IT-Konzepte sind deshalb essentiell, um neue datenzentrierte Geschäftsmodelle zu entwickeln.
- Jonas Rahe, Manager Data Center Sales Germany; Cisco Deutschland:
"Um den Speicherbedarf für Big Data zu reduzieren, bietet sich auch Object Storage an. Diese Architektur verwaltet Daten als Objekte, welche die Informationen selbst sowie Metadaten und eine eindeutige Identifizierung enthalten." - Hans Schramm, Field Product Manager Enterprise; Dell:
"Ein weiteres Trendthema sind Hyperconverged-Lösungen. Unternehmen wollen mit solchen Lösungen ihre IT-Strukturen möglichst vereinfachen. Durch hyperkonvergente Appliances kann das Datacenter auf ein Minimum an physikalischer Hardware reduziert werden, sprich auf den Bereich Server. Diese Systeme werden dann durch intelligente Software und natürlich Netzwerktechnologie verbunden." - Stefan Roth, Head of Infrastructure Solutions and Systems SC Storage Central Europe; Fujitsu:
“Software Defined Storage ist weiter auf dem Vormarsch und auch bei Flash wird weiterhin ein starken Aufwärtstrend zu verzeichnen sein. Das gilt sowohl für All-Flash als auch für Hybrid-Flash." - Ingolf Wittmann, Technical Director, IBM Deutschland:
"Wie bei den Servern setzen sich SDS und virtualisierte Speicherumgebungen auch im Mittelstandsumfeld immer mehr durch. Die Digitalisierung in den Unternehmen lässt die Kapazitäten dramatisch anwachsen, welche über Flash-Lösungen beschleunigt werden." - Thomas Muggendobler, Product Manager Storage; Thomas Krenn AG:
„Software Defined Storage wird beginnen, sich auch bei kleinen und mittleren Unternehmen durchzusetzen. Hierzu trägt vor allem VMware vSAN bei, aber auch Object Storage speziell Ceph und darauf basierende Lösungen haben in diesem Markt Potential."
Der IT-Spezialist transtec hat durch seine Marktbeobachtung, fünf wichtige Trends rund um Speichertechnologien im Rechenzentrum ausgemacht:
Cloud-Storage bringt Kostenvorteile
Cloud-Storage stellt aus wirtschaftlicher und technischer Sicht eine interessante Alternative zu On-Premise-Storage dar, da die Abbildung der Flexibilität, Agilität und Skalierbarkeit einer Public-Cloud in der Private-Cloud nur mit sehr hohem Ressourcenaufwand möglich ist. Da mittels Gateways eine einfache Verbindung zwischen der internen Infrastruktur und der Cloud zur Verfügung steht, gibt es vielfältige Einsatzszenarien, in denen Public-Cloud-Storage Unternehmen neue Skalierungs-, Wartungs- und Disaster-Recovery-Konzepte ermöglicht.
Full-Flash für höchste Storage-Performance
Bei transaktionslastigen Anwendungen, wie komplexen Datenbanken, Data Analytics in Echtzeit oder sozialen Netzwerken, gelangen Festplatten-basierte Systeme schnell an ihre Grenzen. Prädestiniert für solche Aufgaben sind so genannte Full-Flash- oder All-Flash-Arrays, die ausschließlich mit Flash-Speichern bestückt sind sowie hohe I/Os und niedrige Latenzen aufweisen. Der Fortschritt bei der Flash-Technologie ermöglicht steigende Kapazitäten bei gleichzeitig geringeren Kosten und trägt dadurch seinen Teil zum Erfolg und der Attraktivität dieser Systeme auf dem Speichermarkt bei.
Hybrid-Storage vereint Kapazität und Leistung
Stehen Leistung und zugleich hohe Kapazitäten im Mittelpunkt, spielen hybride Storage-Systeme ihre Stärken aus. Sie kombinieren die Kapazitäten von Festplatten mit der Leistungsfähigkeit von Flash-Speichern, die in diesen Systemen als intelligenter Cache fungieren. Ein Anwendungsgebiet sind beispielsweise VDI-Infrastrukturen: Um die kurzfristigen Lastspitzen während eines Bootstorms abzudecken, steht Flashperformance zur Verfügung, während im Standardbetrieb die Performance klassischer Festplatten in Verbindung mit intelligenten Caching- und Schreibalgorithmen völlig ausreicht.
Server-based-Storage - skalierbar und virtualisiert
Server-based-Storage ist in zwei voneinander unabhängigen Szenarien einsetzbar: Ist er Teil eines Hypervisors, spricht man von einem hyperkonvergenten System. Für alle, die eine integrierte, einfach zu orchestrierende virtuelle Infrastruktur als private Cloud aufbauen wollen, ist solch ein System die erste Wahl. Im zweiten Anwendungsfall dient Server-based-Storage als Basis für viele Software-Defined-Storage-Lösungen, die Speicherservices auf Standard-Hardware zur Verfügung zu stellen, wodurch eine nahezu beliebige horizontale Skalierung (Scale-out) von Server-based-Storage möglich ist.
Storage-Tiering nutzt die Vorteile aller Speichermedien
Sollen zeitgleich unterschiedliche Storage-Anforderungen bedient werden, bieten sich Storage-Tiering-Systeme an. Die Daten werden hier in Abhängigkeit der Zugriffshäufigkeit auf unterschiedlich schnellen Speichermedien (Tier) abgelegt. Häufig benötigte Daten liegen auf dem schnellsten Speichermedium, selten benötigte auf dem langsamsten. Die Verteilung der Daten übernimmt eine intelligente Management-Lösung, die das Zugriffsverhalten überwacht. Wenn bestehende Systeme in ein neues Speicherdesign integriert werden sollen, bietet sich der Einsatz von Storage-Tiering im Rahmen eines Software-Defined-Storage-Konzepts an.
Welche Storage-Lösung ist die richtige?
Ob Public Cloud, Hybrid Cloud oder Private Cloud, ob On-Premise oder Off-Premise, die Art und Weise wie eine Anwendung Daten verarbeiten soll, bestimmt welche Storage-Architektur zum Einsatz kommt. Eine pauschale Lösung gibt es nicht.
Fallen allerding große unstrukturierte Datenmengen an, die in Echtzeit verarbeitet werden müssen, sind Lösungen basierend auf All-Flash-Architektur eine gute Wahl. Sie können die Datenberge schnell und mit geringer Latenzzeit verarbeiten und sind somit ideal für solche Data-Analytics-Anwendungen geeignet. Dagegen ist ein Hybrid-Cloud-System zu präferieren, um kurzfristige Lastspitzen abzudecken. Für statische Datenverarbeitung, wie Backups, ist eine Public-Cloud-Architektur gut geeignet.