Mit den immer schnelleren Prozessoren in Servern können die meisten Speichersysteme nicht mithalten: Sie verursachen einen Datenstau, weil die Informationen nicht rasch genug gespeichert werden. Insbesondere virtualisierte Server überfluten die Speichersysteme mit Informationen, die verarbeitet werden wollen.
Verstärkt werden die Schwierigkeiten dadurch, dass die Datenmengen weiterhin stark ansteigen, also laufend neue Engpässe erzeugt werden. Nach einer im Juni 2013 veröffentlichten Studie von IDC erwarten IT-Verantwortliche weiterhin einen starken Anstieg des Datenvolumens in den kommenden 24 Monaten: Zwei von drei Befragten fürchten in diesem Zeitraum einen Datenzuwachs von mehr als 20 Prozent.
- Top 100: Storage
External Controller-Based (ECB) Speicher & ECB-Speicher: Die Top-Hersteller im Vergleich 2011 – 2012 (nach Umsatz und Marktanteil) - Umsätze weltweit
Angaben in Millionen US-Dollar<br>Quelle: Gartner - Umsätze EMEA
Angaben in Millionen US-Dollar<br>Quelle: Gartner - Umsatz weltweit nach Gartner
Angaben in Millionen US-Dollar<br>Quelle: Gartner - Marktanteil weltweit nach Gartner
Angaben in Prozent<br>Quelle: Gartner - Marktanteil EMEA
Angaben in Prozent<br>Quelle: Gartner - Marktanteil Deutschland
Angaben in Prozent<br>Quelle: Gartner
Dieses Problem scheint mit Flash-Bausteinen oder Solid State Disks behebbar zu sein. Nur, wo im IT-System sollen die schnellen Speicher platziert werden? Zur Auswahl steht der Einsatz im Server (sowohl als Ersatz für die Rechnerfestplatte als auch als PCI-basierter I/O- Cache-Beschleuniger), im Speicher-Controller von SAN oder NAS, als eigene Speicherklasse beim mehrstufigen Speichern (Tier 0) oder als Beschleuniger herkömmlicher Festplatten, sogenannter Hybridspeicher. Keine Lösung taugt für alle Einsatzzwecke. Aber nicht nur die professionelle IT benötigt Silicon-Chips, auch die Consumer-Elektronik kommt nicht ohne Flash-Bausteine aus, denn in den vielen Mobilgeräten arbeiten fast ausschließlich Solid State Disks (SSDs).
Kein Wunder, dass die Absatzzahlen etwa für die Flash-Chips vom platzsparenden Typ NAND steigen. Das Markforschungsunternehmen IHS iSuppli schätzt, dass in diesem Jahr NAND-Chips im Wert von 23,1 Milliarden Dollar verkauft werden, 14 Prozent mehr als im Vorjahr. Die Analysten machen neben neuen und damit voluminöseren Betriebssystemen für Mobilgeräte vor allem die Hybridfestplatten in den Rechenzentren für den Zuwachs verantwortlich.
Die Folge sind steigende Preise, die nicht so einfach durch ein erhöhtes Angebot abgefangen werden können, denn der Bau einer Halbleiterfabrik dauert rund zwei Jahre und verschlingt „mindestens eine Milliarde Dollar“, berichtet Dennis Martin vom US-Branchendienst „Demartek“. Während sich die Hersteller mit langfristigen Lieferverträgen beziehungsweise – wie Samsung – mit eigener Fertigung Gedanken über die drei Parameter Kapazität, Haltbarkeit und Leistung der Flash-Chips machen und wie diese zu optimieren sind, drohen gerade kleineren Unternehmen, die Flash-basierende Speicherprodukte entwickeln, Lieferschwierigkeiten.
Wie wichtig das Thema Flash auch für die großen Anbieter ist, beweisen die zahlreichen Firmenzukäufe der vergangenen Jahre, etwa die Übernahme von Extreme I/O durch EMC oder die von Texas Memory Systems durch IBM.
Schnelle CPUs durch Zusatzaufgaben abbremsen
Wenn die Server-Prozessoren – heute meist von Intel – mit ihren zahlreichen Cores schon so leistungsfähig sind, dass sie in virtuelle Maschinen unterteilt werden können, dann lassen sich dort auch Partitionen einrichten, die mit Speicheraufgaben betraut sind. Der Speicher-Controller wird damit überflüssig. Das ist im Prinzip die Wirkungsweise, die sich hinter dem Begriff „Software Defined Storage“(SDS) verbirgt. IDC definiert so: „Software-defined Storage ist ein Stack an Storage-Software, der auf einer gängigen Ressource (x86 Hardware, Hypervisors oder Cloud) installiert werden kann.
Dieser Storage-Software-Stack bietet eine vollumfängliche Suite an Storage-Services (zum Beispiel Orchestration Layer, Skalierbarkeit, Attribut-Management, Datenschnittstellen) und vereinigt zugrunde liegende Speicherressourcen, um Datenmobilität zwischen diesen zu ermöglichen.“ Gespart werden kann damit zum einen bei der Investition in leistungsstarke Speicher-Controller, zum anderen in externe Appliances für Speicherdienste wie Deduplizierung und Remote Copy.
Das funktioniert natürlich auch umgekehrt: Applikationen, die auf Spezialmaschinen ausgelagert sind, laufen im Speicher-Controller ab: „Das passiert heute schon mit Diensten wie Remote Replication, Datenkompression und -Verschlüsselung, in Zukunft dürften Programme für Deduplizierung, Backup und sogar für Suchaufgaben oder Analysen dort platziert werden“, prophezeit Speicherexperte Josh Krischer. Er gibt allerdings zu bedenken, dass mit jeder Zusatzaufgabe die Leistung der Prozessoren angezapft wird. Vorsicht sei also geboten, damit die CPU nicht mit Anfragen überfrachtet wird und die Performance für die Hauptbeschäftigung nicht mehr ausreicht.
Große Datenberge auch nach Jahren wiederfinden
Wie lassen sich große Mengen an unstrukturierten Daten auch morgen (oder übermorgen) noch wiederfinden, auch wenn der ursprüngliche Speicher vielleicht bereits verschrottet wurde? „Object Storage“ heißt die Wunderwaffe, mit der dies gelingen soll. Der Trick besteht darin, dass die blanken Informationen zusammen mit Metadaten und Attributen in sogenannte Container geschoben werden und dort sogar Zusatzfunktionen wie Datenkompression oder Verschlüsselung ablaufen können.
Die Container lassen sich herstellerunabhängig auf den unterschiedlichen Speichern (DAS, SAN, NAS, Cloud) ablegen und auch wiederfinden beziehungsweise auch später noch lesen. „Ein normales File-System hat Grenzen in der Skalierbarkeit, Object Storage ist unbegrenzt“, beschreibt Krischer einen weiteren Vorteil der Technik. Zudem gebe es keine Beschränkungen hinsichtlich der verschiedenen Dateitypen (strukturiert, Voice, Video), die normalerweise nicht in ein einziges Dateisystem passen. Über die Zuordnung der Attribute sei das aber möglich, so der Analyst.
Tape ist nicht tot
Speicheranalyst Josh Krischer bricht eine Lanze für das LTO-Tape, das ähnlich wie Object Storage ebenfalls zwischen Nutz- und Metadaten unterscheidet: „Das bedeutet, der Zugriff auf die Datei erfolgt quasi wie ein Direct Access.“ Der User agiert mit Drag und Drop wie beim Zugriff auf eine Disk, was sich beispielsweise zur einfachen Archivierung nutzen lässt.
Weitere Vorteile von Tape-Storage sind das immer noch beste Verhältnis von Preis und Speicherkapazität, Worm-Fähigkeit (Write once, read multiple), die geringe Stromaufnahme und eine solide Roadmap mit den kompatiblen LTO-Systemen von HP und IBM. Was seiner Meinung nach fehlt, sind Strategien der Hersteller, intelligente Tape-Lösungen wie Virtual Tape oder Verschlüsselung zu vermarkten. (mhr)