Der Storage-Sektor befindet sich in einem tiefgreifenden Wandel. Dieser wird durch verschiedene Faktoren getrieben - etwa Sicherheit, Geschwindigkeit, Effizienz und Kosteneinsparungen. Die Auguren von Gartner haben kürzlich prognostiziert, dass das Datenvolumen bis zum Jahr 2030 um den Faktor 23 wachsen soll. Behalten die Marktforscher recht, würde diese Entwicklung bestehende Rechenzentren und IT-Prozesse radikal transformieren und neu definieren. Um in Sachen Storage auf der Höhe der Zeit zu bleiben, sollten Sie die folgenden acht Trends im Auge behalten.
1. DNA-Speicher
DNA als Datenspeichermedium zu verwenden, verspricht eine weitaus höhere Kapazität und eine stabilere Umgebung als herkömmliche Storage-Architekturen. DNA Storage ermöglicht es, Daten auf molekularer Ebene zu speichern - die Informationen werden dabei direkt in DNA-Molekülen archiviert. Der ehemalige Gartner-Analyst Nick Heudecker weiß nicht nur um die Vorzüge dieses Konzepts: "Die Vorteile der DNA-basierten Datenspeicherung liegen in ihrer Dichte und Stabilität. Ein Gramm DNA kann etwa 215 Petabyte an Daten mit einer Mindestlebensdauer von 500 Jahren speichern. Der Nachteil ist, dass UV-Strahlung die DNA zerstören kann."
Wichtig zu wissen ist an dieser Stelle, dass es sich bei DNA Storage um einen langfristigen Trend handelt: Zwar gibt es deutliche Fortschritte auf diesem Gebiet, bis zum Durchbruch der Technologie wird es allerdings noch ein paar Jahre dauern. Einen festen Zeitplan, wann DNA-Speicher(medien) verfügbar sein werden, gibt es derzeit nicht. Optimisten hoffen darauf, dass es Anfang 2030 soweit sein könnte.
"Die derzeitigen DNA-Sequenzierungs- und Synthesetechnologien sind zu teuer und zu langsam, um mit herkömmlichen Speicherinfrastrukturen konkurrieren zu können", meint Heudecker. Die Zugriffslatenz sei nach wie vor hoch und werde derzeit in Minuten bis Stunden gemessen - der maximale Schreibdurchsatz in Kilobit pro Sekunde. "Ein DNA-Laufwerk, das mit der Archivierung per Tape konkurrieren will, muss einen Schreibdurchsatz in Gigabit pro Sekunde unterstützen. Das würde voraussetzen, die DNA-Synthese - also den Schreibprozess - um das Sechsfache zu beschleunigen. Der Leseprozess - die DNA-Sequenzierung - müsste hingegen zwei- bis dreimal so schnell ablaufen", erklärt der Experte.
Doch selbst wenn diese Problemstellungen gemeistert würden, gelte es immer noch eine große Hürde in Sachen Kosten zu überwinden: "Bandspeichermedien kosten zwischen 16 und 20 Dollar pro Terabyte. Die Kosten für die DNA-Synthese und -Sequenzierung bewegen sich im Bereich von 800 Millionen Dollar pro Terabyte."
2. Storage Security
Netzwerksicherheit hat in so gut wie allen Unternehmen höchste Priorität. Auf der anderen Seite wird die umfassende Absicherung von Daten - sowohl im Ruhezustand als auch bei der Übertragung - oft vernachlässigt. Cindy LaChapelle, Chefberaterin bei ISG, weiß woran das in vielen Fällen liegt: "Heutzutage nutzen viele Unternehmen ihre Datenspeicher sowohl für On-Premises-Rechenzentren als auch für Public- und Private-Cloud-Umgebungen. Im Zeitalter von Ransomware ist es jedoch wichtig, auch in Datensicherungen mit 'Air-Gap' zu investieren. Nur so sind die Datenkopien im Falle eines größeren Angriffs sicher vor unbefugtem Zugriff."
Scott Reder, leitender Storage-Spezialist beim Beratungsunternehmen Ahead, beobachtet wachsendes Interesse an zusätzlichen und erweiterten Cyberresilienz-Funktionen: "Die WORM-Technologie - Write-once, read-many - wurde vor Jahren für die Anforderungen der Finanzindustrie entwickelt. Inzwischen wird sie auch von Unternehmen im Gesundheitswesen und einer Reihe anderer Sektoren eingesetzt, um die Manipulation von Daten zu verhindern. In der Konsequenz sind Tools wie NetApp SnapLock und Dell OneFS SmartLock aufgrund wachsender Cyberbedrohungen wieder gefragt."
Für den Schutz primärer File/NAS-Storage-Systeme stünden Echtzeit-Analysefunktionen zur Verfügung, die von Produkten wie Superna Ransomware Defender für Dell OneFS und NetApp Cloud Insights mit Cloud Secure für ONTAP bereitgestellt werden, so Reder. Für Block-Storage-Nutzer seien hingegen Multi-Faktor-Authentifizierung und geschützte Snapshots verfügbar, um kritische Daten zu schützen. Während die Storage-Security-Tools zunehmend reiften, arbeiteten viele Unternehmen proaktiv daran, Storage-Produkte mit integrierten Sicherheitsfunktionen zu implementieren. Diese könnten laut dem Experten umfassendere Security-Initiativen wie die Einführung von Zero-Trust Network Access ergänzen.
3. SSD-Datenreduktion
Unter Datenreduktion versteht man die Minimierung der benötigten Kapazität um Daten zu speichern. Diese Technologie kann die Speichereffizienz steigern und die Kosten senken. Techniken zur Datenreduktion wie Komprimierung und Deduplizierung kommen bereits bei diversen Speichersystemen zum Einsatz, sind aber für Solid-State-Laufwerke noch nicht weit verbreitet.
ISG-Beraterin LaChapelle erklärt, woran das liegt: "Um Zuverlässigkeit zu gewährleisten, muss die Komprimierung verlustfrei sein. Dieser Faktor stellt SSD-Hersteller vor Herausforderungen. Viele Anbieter von All-Flash-Array-Storage-Systemen bieten Optionen für Inline-Komprimierung an, aber die Technologien sind häufig proprietär." Diese Situation werde sich wahrscheinlich in naher Zukunft verbessern, da die SSD-Anbieter daran arbeiteten, maximale Kapazität zu einem möglichst niedrigen Preis zu liefern. Darüber hinaus würden die SSD-Hersteller nun auch die PCI-Express-4.0-Spezifikation anstreben, um Bandbreite sowie Lese- und Schreibgeschwindigkeiten zu optimieren, konstatiert die Expertin.
4. Tiefere Public-Cloud-Einblicke
Um verstehen zu können, wie Storage in der Public Cloud eingesetzt wird, ist es essenziell, die Datennutzung über die gesamte Enterprise-Applikations-Landschaft abzubilden und zu modellieren. Da Public-Cloud-Speicherlösungen in der Regel Gebühren für Ingress und Egress sowie für den Datentransit zwischen Zonen und Regionen erhöben, sei die Fähigkeit, das Ausmaß der Datenbewegung vorherzusagen, entscheidend, um Kosten und Effektivität von Public Storage managen zu können, meint LaChapelle: "Idealerweise sind Sie sich der Folgen bewusst, bevor Sie Anwendungen mit Code-Abhängigkeiten zwischen Public Cloud und On-Premises-Umgebungen aufteilen."
Die Storage-Anbieter haben ihre Analysefunktionen verbessert: HPE InfoSight, NetApp ActiveIQ und Pure Storage Pure1 Meta gehören zu den Tools, die Unternehmen umfassendere Storage-Einblicke gewähren.
5. Objektspeicher
Der Wandel der Storage-Welt wird durch Cloud-Native-Anwendungen wie Datenbanken, Analysen, Data Lakes, Künstliche Intelligenz und maschinelle Sprachtechnologien vorangetrieben. Das hat Folgen, wie David Boland, Vice President of Cloud Strategy beim Cloud-Storage-Anbieter Wasabi, weiß: "Diese Anwendungen treiben die Einführung von Objektspeicher als Primärspeicher voran."
Boland weist darauf hin, dass es drei Storage-Haupttypen gibt: Objekt-, Block- und Dateispeicher: "Objektspeicher ist die einzige Option, die niedrige Kosten und hohe Performance im Exabyte-Bereich bietet." Eine aktuelle Umfrage von IDC habe gezeigt, dass 80 Prozent der Befragten davon überzeugt seien, dass Object Storage ihre wichtigsten IT-Initiativen unterstützen kann, so der Experte.
"Objektspeicher sind seit Anfang der 2000er Jahre weit verbreitet, aber erst in den letzten Jahren haben hybride Speichersystem, die Performance-Optimierungen bei NVMe-SSDs und erhebliche Preissenkungen miteinander kombinieren, den Einsatz in großem Maßstab wirtschaftlich möglich gemacht", erklärt Boland.
6. Unveränderliche Backups
Immer mehr Unternehmen interessieren sich für Immutable Backups - insbesondere bei Firmen im Finanz- und Rechtssektor herrscht reges Interesse. Und das aus gutem Grund, wie Chris Karounos, SAN-Administrator beim IT-Reseller SHI International, erklärt: "Ein unveränderliches Backup ist eine Methode zum Schutz von Daten. Sie gewährleistet, dass die Daten weder gelöscht noch verschlüsselt oder verändert werden können."
Eine solche unveränderliche Speicherung kann auf Festplatten-, SSD- und Bandmedien sowie auf Cloud-Speicher angewendet werden. Dabei ist die Nutzung einfach und bequem: Der User erstellt eine Datei, die die gewünschte Unveränderbarkeitsrichtlinie enthält. "Immutable Backups sind die einzige Möglichkeit, einhundertprozentigen Schutz vor jeder Art von Löschung oder Veränderung zu gewährleisten. In einem zunehmend schnelllebigen Geschäftsumfeld, in dem sich die Bedrohungen ständig weiterentwickeln, ist diese Technologie die Rettung", resümiert Karounos.
7. Time-Series-Datenbanken
Eine Time-Series-Datenbank (TSDB) ist darauf konzipiert, Lese- und Schreibvorgänge mit hoher Geschwindigkeit zu unterstützen. TSDBs erschlössen so für bestehende Object-Storage-Lösungen neue Ebenen der Flexibilität, ist Jesse White, CTO beim Open-Source-Plattformanbieter OpenNMS Group, überzeugt: "Insbesondere die Storage Layouts und Indizes in diesen TSDBs wurden darauf konzipiert, die Vorteile in Sachen Skalierbarkeit, Ausfallsicherheit und Kostenminimierung auszunutzen und gleichzeitig die Auswirkungen der Latenzzeit abzumildern."
TSDBs, die auf Objektspeicher laufen, richten sich an Unternehmen, Managed Service Provider und andere Organisationen, die große Mengen an Zeitreihendaten zu Beobachtungs- und/oder Analysezwecken sammeln. Stabile Builds von Time-Series-Datenbanken sind bereits verfügbar, etwa Cortex, Mimir und InfluxDB IOx.
"Object-Storage-Lösungen sind bei allen großen Cloud-Anbietern weit verbreitet - und Open-Source-Lösungen wie MinIO und Ceph bieten kompatible APIs", so White. Laut dem Experten unterstützen solche TSDBs zwar in der Regel viele APIs - die seien im Objektspeicher-Bereich aber noch nicht standardisiert: "Anwendungen müssen sich möglicherweise an die eingesetzte Lösung anpassen."
8. Storage-Minimalismus
Tong Zhang, Professor an der Abteilung für Elektro-, Computer- und Systemtechnik am Rensselaer Polytechnic Institute, ist der Meinung, dass der heißeste Storage-Trend sich im Minimalismus manifestiert: "Der Gedankengang 'Speicher ist billig, deshalb behalten wir einfach alles' ist nicht mehr zeitgemäß. Die zusammengesetzten Storage-Kosten fordern jetzt ihren Tribut."
Zhang ist der Meinung, dass die Daten schneller anfallen, als Unternehmen Rechenzentrumsarchitekturen einrichten können: "Wir müssen unsere Energie darauf verwenden, effizienter zu werden. Es gibt mehrere Strategien, die gemeinsam eingesetzt werden können, etwa die Nutzlast zu reduzieren, indem Metadaten verarbeitet werden oder Pre-Filtering um Netzwerküberlastung zu vermeiden. Auch in Laufwerke eingebettete, transparente Komprimierungsfunktionen und eine erhöhte Kapazitätsdichte ohne CPU-Belastung kommen hier zum Tragen." (fm)
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.