Software Defined Storage reift heran

Praxistest: Storage-Architektur von Microsoft ersetzt SAN

02.02.2015
Von Michael Kallus
Die Virtualisierung erfordert meist klassische SAN-Speichernetze, die teuer sind. Microsoft bietet eine Software-basierte Storage-Architektur als Alternative an. Die GAD, ein Spezialist für Banken-IT, hat die Microsoft-Lösung intensiv getestet und klärt, ob damit ein SAN ersetzbar ist.

Mit der Virtualisierung steigt die Nachfrage nach SANs (Storage Area Network), weil die fortgeschrittenen Funktionen es erfordern, die virtuellen Maschinen zentral zu speichern. Allerdings sind die Kosten solcher Speichersysteme eine wesentliche Hürde auf dem Weg zur Private Cloud.

NAS- und SAN-Leistungsfähigkeit ohne teure Speicher-Arrays - das verspricht Microsoft mit einer Reihe neuer Storage-Funktionen aus Windows Server 2012. Diese reichen von den Storage Spaces, den Cluster Shared Volumes bis hin zur neuen Version 3.0 des Server-Kommunikationsprotokolls SMB (Server Message Block).

Vernetzt: In seinem Mega-Cluster-Test band die GAD erstmals den Scale-out File-Server in die Speicherarchitektur ein und nutzte das Übertragungsprotokoll SMB 3.0.
Vernetzt: In seinem Mega-Cluster-Test band die GAD erstmals den Scale-out File-Server in die Speicherarchitektur ein und nutzte das Übertragungsprotokoll SMB 3.0.
Foto: GAD

Ein wichtiger Baustein ist dabei der Scale-out File-Server (SOFS). Microsoft positioniert ihn als Speicher für Applikationsdaten, besonders für VM-Images und SQL-Datenbanken. Kombiniert man den Scale-out File-Server mit den neuen Storage-Funktionen, so lässt sich eine SAN-ähnliche Architektur schaffen, die Einsatzgebiete abdeckt, die bislang SANs vorbehalten waren. Die Speichervirtualisierung wird damit direkt im Betriebssystem verankert.

Der große Vorteil der Lösung liegt darin, dass sich diese Speichersysteme relativ preiswert mit Standard-Hardware und -Netzwerken realisieren lassen. Statt der teuren SANs kann ein JBOD-System (Just a Bunch of Disks) eingebunden werden und im Bereich Netzwerk genügen einfache Switche statt Komponenten für das Unternehmensnetz. Dennoch unterstützt dieser Software Defined Storage alle wesentlichen Funktionen von Hyper-V.

Wie reif diese Architektur ist und ob sie tatsächlich an die Funktionen eines SAN heranreicht, das hat die GAD nun in zwei Umgebungen ausgiebig getestet und ein Hardware-Konzept dazu entwickelt. Die GAD eG ist Spezialist für Banken-IT und betreibt nach eigenen Angaben eines der sichersten Rechenzentren Europas. Hier sind auf 450 Hyper-V-Hosts rund 4000 virtuelle Maschinen in Betrieb - bis Mitte 2015 sollen es 7000 sein.

Test einer Microsoft-Cloud im Mega-Cluster

Der erste Test kam durch einen Zufall zustande: Für ein großes Projekt hatte die GAD im Frühsommer 2014 64 Blade-Server angeschafft, die bereits drei Wochen vor ihrem Einsatz zur Verfügung standen. Das IT-Team beschloss daher, für den anstehenden Lasttest einen Hyper-V-Cluster mit 64 Knoten und 8.000 virtuellen Maschinen aufzubauen.

"Wir wollten die Microsoft-Cloud testen und ihre Support-Grenzen überschreiten", erzählt Thomas Büdenbender, Systems Engineer bei der GAD. Büdenbender und sein IT-Team haben bereits einiges Know-how bezüglich Windows Server 2012 und Hyper-V aufgebaut, da die GAD als Technical Adoption Partner von Microsoft die Versionen in einer frühen Phase testet und dabei auch an der Entwicklung neuer Funktionen beteiligt ist.

Der Test zeigte einmal, dass sich der Hyper-V-Cluster auch mit 8000 virtuellen Maschinen problemlos managen ließ. "Am Ende umfasste der Cluster fast 12.000 virtuelle Maschinen und sein Limit war noch nicht erreicht", berichtet Büdenbender.

Shared Storage für 12.000 virtuelle Maschinen

Bei diesem Test setzte das IT-Team erstmals einige der neuen Storage-Funktionen ein. "Windows Server 2012 R2 bietet mit dem Scale-out File-Server und dem Server-Protokoll SMB 3.0 erstmals die Möglichkeit, Datei-Server als Shared Storage für Hyper-V-Cluster einzusetzen", erörtert Büdenbender. "Anlässlich des Cloud-Tests wollten wir sehen, ob die neue Datei-Server-Technik so hohe Lastanforderungen verkraftet."

Daher wurden zwei Dell PowerEdge R720 mit 384 GByte RAM und zwei CPUs mit 8 Cores in die Testarchitektur. Die beiden dienten als Scale-out File-Server und sollten den Shared Storage für das Hyper-V-Cluster bereitstellen. Für die Anbindung an das Cluster waren die Dell-Server mit je zweimal 10-GBit-Netzwerk ausgestattet.

Bei diesem Lasttest musste das IT-Team noch auf ein klassisches SAN zurückgreifen, da es über kein geeignetes JBOD-System verfügte. Daher wurden die beiden Dell-Server über je zweimal 8 GBit Fibre Channel an ein SAN angebunden, das 491 Festplatten und 145 TByte Kapazität bereitstellte.

Bei den Tests in dem Cluster mit zunächst 8000 und dann 12.000 virtuellen Maschinen konnte die Storage-Architektur mithalten. "Es war beeindruckend, wie performant der Scale-out File-Server ist", berichtet Büdenbender. "Wir haben 200 virtuelle Maschinen zwischen den Knoten hin und her geschwenkt. Die Datei-Server-Technik erreichte nicht ihre Grenzen, obwohl die beiden Scale-out File-Server über Fibre-Channel-Verbindungen mit nur 8 GBit an den Storage angebunden waren."