Der vertrauensvolle Umgang mit Daten spiegelt sich in der Erfassung, Analyse und Sicherung von Daten wider, kurzum: in einer soliden Datenmanagement-Strategie. Schien es manch einem so, dass dies längst bei jedem IT-Verantwortlichen angekommen ist, der mag mit der jüngsten Ransomware Wanna Cry eine harte Landung auf dem Boden der Tatsachen erlebt haben.
Denn viele Unternehmen, deren Systeme mit Wanna Cry gekapert wurden, mussten schmerzlich feststellen, dass schlicht weg nicht ausreichend Sicherheitskopien vorhanden waren. Dabei sollten gerade Unternehmen und Organisationen in datenintensiven Branchen ein durchdachtes Backup / Restore- und Storage-Konzept vorweisen können. Es scheint, als ob dieses in so mancher IT-Abteilung als lästige Hausaufgabe angesehen wird.
Dies liegt wohl daran, dass in Sachen Datensicherung oder besser gesagt Datenmanagement so manche Stolperfalle lauert. Die Speicherarchitektur soll skalierbar und nutzerfreundlich sein, sprich einen unkomplizierten Datenzugang ermöglichen. Ebenso soll sie effizient und schnell remonetarisierbar sein. Nur leider werden im Zuge eines Backup- und Storage-Konzeptes allzu oft mehrere wesentliche Fehler gemacht:
- Jonas Rahe, Manager Data Center Sales Germany; Cisco Deutschland:
"Um den Speicherbedarf für Big Data zu reduzieren, bietet sich auch Object Storage an. Diese Architektur verwaltet Daten als Objekte, welche die Informationen selbst sowie Metadaten und eine eindeutige Identifizierung enthalten." - Hans Schramm, Field Product Manager Enterprise; Dell:
"Ein weiteres Trendthema sind Hyperconverged-Lösungen. Unternehmen wollen mit solchen Lösungen ihre IT-Strukturen möglichst vereinfachen. Durch hyperkonvergente Appliances kann das Datacenter auf ein Minimum an physikalischer Hardware reduziert werden, sprich auf den Bereich Server. Diese Systeme werden dann durch intelligente Software und natürlich Netzwerktechnologie verbunden." - Stefan Roth, Head of Infrastructure Solutions and Systems SC Storage Central Europe; Fujitsu:
“Software Defined Storage ist weiter auf dem Vormarsch und auch bei Flash wird weiterhin ein starken Aufwärtstrend zu verzeichnen sein. Das gilt sowohl für All-Flash als auch für Hybrid-Flash." - Ingolf Wittmann, Technical Director, IBM Deutschland:
"Wie bei den Servern setzen sich SDS und virtualisierte Speicherumgebungen auch im Mittelstandsumfeld immer mehr durch. Die Digitalisierung in den Unternehmen lässt die Kapazitäten dramatisch anwachsen, welche über Flash-Lösungen beschleunigt werden." - Thomas Muggendobler, Product Manager Storage; Thomas Krenn AG:
„Software Defined Storage wird beginnen, sich auch bei kleinen und mittleren Unternehmen durchzusetzen. Hierzu trägt vor allem VMware vSAN bei, aber auch Object Storage speziell Ceph und darauf basierende Lösungen haben in diesem Markt Potential."
Worum geht's eigentlich: Backup- oder Archivdaten?
IT-Verantwortliche, Systemverwalter und Administratoren unterscheiden oft nicht zwischen Backup- und Archivdaten. Unseren Erfahrungen zufolge halten heute noch die meisten Unternehmen im Durchschnitt 40 Prozent ihrer inaktiven Daten auf der teuersten Speicher-Ebene vor, dem Primärspeicher. Dieses Vorgehen treibt die Kosten unnötig in die Höhe. Als Faustregel gilt daher: In den Backup-Prozess sollten nur Daten einfließen, die einen signifikanten Wert für die Wiederherstellung von zwei Wochen bis 24 Monaten haben und die jederzeit ohne Verzögerungen zur Verfügung stehen müssen.
Unter Archivierung hingegen versteht man Datensätze, die sporadisch abgerufen werden, die entweder aus branchenspezifischen Regularien oder aus Compliance-Gründen langfristig vorgehalten werden oder von denen man ausgeht, dass sie einen langfristigen Wert für das Unternehmen haben. Wie so oft liegt auch hier der Teufel im Detail, der richtige Ansatz kann aber immens viel Geld sparen.
Backup: Zur richtigen Zeit am richtigen Ort
Kaum zu glauben, aber leider wahr: Backups werden immer noch viel zu selten, das heißt in zu großen Intervallen durchgeführt. Ein automatisiertes Vollbackup aller Systeme und Datenbanken, etwa am Wochenende außerhalb der Bürozeiten, ist obligatorisch.
Umso wichtiger ist es jedoch, das Backup an den tatsächlichen Datenfluss anzupassen, etwa in Form von differenziellen Sicherungen aller Daten einmal pro Tag oder zu besonderen Stoßzeiten, wobei nur neu hinzugekommene Daten gesichert werden. Dabei sollte als weitere Faustregel befolgt werden, dass man am besten alle inkrementellen Backups bis zur Wochensicherung aufbewahrt. Im Falle eines kompletten Crashdowns des Systems lässt sich so nämlich am besten ein vollständiges Restore durchführen.
Nicht nur die richtige Zeit, sondern der richtige Ort ist beim Backup entscheidend. Eine Backupkopie ist schließlich nur dann gut aufbewahrt, wenn sie dezentral gelagert wird, sprich: an einem anderen Ort als das Original. Bei der Wahl eines Speichersystems für Backup-Zwecke gibt es zahlreiche Möglichkeiten, angefangen von Deduplizierungs-Appliances hin zu Standardblock- oder NAS-Speichersystemen, Hybrid- oder Public-Cloud für externen DR-Schutz und auch Tape.
Datenarchivierung: Tape oder Tiered Storage
Datenarchivierung mit dem Einsatz von Tape-Lösungen gleich. Auch wenn Tape eine günstige Option mit einem effizienten Schutz gegen Cyberkriminalität bietet und daher sicherlich als Bestandteil einer langfristigen Datenvorhaltung geeignet ist: Es gibt zig andere Speichermedien, sei es Disk oder Object Storage, die mit der entsprechenden Ausrichtung an die Unternehmensziele und Workflows ebenso gut eingesetzt werden können.
Als Faustregel gilt hier, dass man sich nicht nur auf ein Medium verlassen sollte. Basis einer soliden Datenmanagementarchitektur sollte eine sogenannte Tiered Storage Architektur sein, die mithilfe von Richtlinien Daten nach Relevanz und Zugriffshäufigkeit unterschiedlichen Speicherebenen und -medien zuweist. Dabei werden die Vorteile verschiedener Technologien kombiniert, darunter etwa für Deduplizierung optimiertes RAID, Object Storage, Public und Private Cloud Storage oder eben auch Tape-Technologien wie LTFS. Dahinter verbirgt sich das Linear Tape File System (LTFS), mit dem Tapes nahezu wie Festplatten genutzt werden und Dateien per Drag-and-Drop von dem Server aus direkt auf das Band gezogen werden können.
- Alle sichern in die Cloud
Fast alle Lösungen, auch wenn sie wie hier Acronis True Image 2017 auf den Privatanwender ausgerichtet sind, bieten mittlerweile die Sicherung in die Cloud an. - Profi-Lösung
Backup-Lösungen für den professionellen Bereich (hier Acronis Backup Advanced Universal) können sowohl auf lokale Medien, darunter auch Tapes, als auch in die Cloud und virtuelle Systeme sichern. - Backup für Virtualisierung
Anbieter Veeam hat sich auf die Sicherung virtueller Systeme und Anwendungen spezialisiert und bietet dabei auch eine freie Lösung für vSphere und Hyper-V an.
Letzten Endes geht es bei einem wirklich guten Datenspeicher- bzw. Datenmanagement-Ansatz um nichts anderes, als um das richtige Verhältnis zwischen Datenwert und Speicherkosten. Nehmen Unternehmen einen Fußabdruck ihrer Daten, können beispielsweise unstrukturierte Daten, für die kein Backup benötigt wird, aus dem Backup-Stream entfernt und in die Archivierungsinfrastruktur geschoben werden.
Unstrukturierte Daten können nach entsprechenden Kriterien klassifiziert und verwaltet werden. Diese intensive Betrachtung des eigenen Datenbestands bedeutet zwar einigen Initialaufwand. Allerdings sollte nicht zuletzt mit WannaCry deutlich geworden sein, dass in einer Datengetriebenen Welt schnell sichtbar wird, wer in puncto Datensicherung seine Hausaufgaben gewissenhaft erledigt hat - und wer eben nicht. (hal)