Wie soll das anfallende Datenvolumen einer vollständig IoT-vernetzten (Internet of Things) Welt bewältigt werden, wo Unternehmen schon jetzt mit durch Mobilität, soziale Medien und Big Data erzeugten Datenmengen zu kämpfen haben?
Wie jeder weiß, wächst das Datenvolumen exponentiell an. Prognosen des Analysten-Unternehmens IDC zufolge wird das digitale Universum, das Milliarden neuer, dauerhaft mit dem Internet verbundener IoT-Geräte umfasst, bis 2020 auf über 50.000 Exabyte, das heißt auf mehr als 5200 GByte pro Erdbewohner, anwachsen. Außerdem sagt IDC voraus, dass sich das digitale Universum ab jetzt bis 2020 alle zwei Jahre verdoppeln wird. Daraus ergeben sich natürlich wichtige Fragen: Wo werden all diese Daten unter-gebracht? Wie sollen sie verwaltet werden?
In den kommenden fünf Jahren erwarten CIOs ein Workload-Wachstum von bis zu 44 Prozent in der Cloud, im Vergleich zu einer Zunahme von nur 8,9 Prozent bei lokalen EDV-Workloads. Es kann also davon ausgegangen werden, dass im Laufe der Zeit immer größere Datenmengen in der Cloud gespeichert werden. Dies setzt Hosting-Unternehmen unter Druck, Systeme bereitzustellen, die einfach zu verwalten, flexibel und vor allem stark skalierbar sind.
Schon heute verwalten große Hosting-Anbieter wie die koreanische Telekom Umgebungen mit über 100 Petabytes, die in nicht allzu ferner Zukunft auf mehrere Exabytes angewachsen sein werden. Die Kunden solcher Hoster sind anspruchsvoll und verlangen unverzüglich Zugriff auf die Daten. Es wird also nicht nur entscheidend sein, die Daten kostengünstig speichern zu können, auch die Leistung muss stimmen. Angesichts der exponentiell wachsenden Datenmenge stellt dies schon jetzt eine Herausforderung für Hosting-Unternehmen dar. Die zusätzlichen Daten, die das IoT diesem Berg hinzufügt, wird Hosting-Anbieter dazu zwingen, ihre derzeitige Infrastruktur zu überdenken.
Das Software-definierte Rechenzentrum als Rettung
Der Datenberg wächst nicht erst seit heute und schon lange ist man auf der Suche nach dem Heiligen Gral der Unternehmens-IT, dem Software-definiertem Rechenzentrum (Software-Defined Data Center SDDC). In diesem sollen alle Schichten des Rechenzentrums, also Server-, Netzwerk- und Speicherebene, auf ein Softwareniveau gehoben werden. Damit soll der bisherige Hemmschuh alter unflexibler Systeme beseitigt werden.
Auf der Serverebene existieren bereits Lösungen, die den Server-Markt revolutioniert haben, beispielsweise vSphere von VMware oder Hyper-V von Microsoft. Software-Defined Networking folgt erst noch, da es komplexer ist als seine Geschwister Server und Speicher. Auch die Technologie, die unflexible und kostspielige Legacy-Storage-Lösungen überflüssig macht, ist bereits vorhanden. Software-Defined Storage hat schon jetzt Auswirkungen auf IT-Budgets, die bislang vor allem durch Speicher in die Höhe getrieben wurden.
- Industrie 4.0 - auch eine Frage des Rechts
Wenn Maschinen die Fäden in die Hand nehmen und Entscheidungen für Menschen treffen, stellt sich automatisch die Frage nach dem juristischen Hintergrund. Hier ist noch vieles offen. Folgende Aspekte sollten Sie im Blick behalten. - 1. Wer handelt im Internet der Dinge?
In unserer Rechtsordnung, ob im Zivilrecht, öffentlichen Recht oder Strafrecht, sind Handelnde und Zuordnungsträger von Rechten und Pflichten immer Menschen oder juristische Personen. Daran ändern auch M2M und IoT grundsätzlich nichts. - 2. Vertragsabschluss durch Softwareagenten?
Was ist, wenn die Initiative zum Abschluss einer Online-Transaktion vollautomatisiert abläuft, also eine Maschine selbst den Bestellvorgang als Nutzer auslöst? Hier stellt sich die Frage, wie sich die Verantwortung für den konkreten Rechtsakt (die automatisierte Willenserklärung und der beidseitig rein elektronische, voll automatisierte Vertragsabschluss) zuordnen lässt. Er beruht ja ausschließlich auf einem zeitlich weit vorausgelagerten, abstrakten Programmiervorgang, einem Rechtssubjekt. - 3. Unternehmensübergreifende M2M-Systeme brauchen Regeln
Werden komplexe M2M-Systeme unternehmensübergreifend aufgesetzt, kommt es nicht nur auf die technische Standardisierung, sondern auch auf die vereinbarten Nutzungsregeln an. Wie dürfen die Teilnehmer mit den Nutzungsergebnissen umgehen, und wie verhält es sich mit regulatorischer Compliance und Rechten Dritter, die der M2M-Nutzung entgegenstehen könnten (etwa Datenschutz, branchenspezifische Regulierung, Verletzung von Softwarepatenten oder sonstiger Rechte Dritter)? - 4. Offene Fragen zu Logistik, Mobilität und Smart Home
Weitgehend ungeklärte Fragen lassen sich an M2M- und IoT-Beispielen zeigen:<br>Doch wem gehören die Daten?<br>Wie steht es um die Produkthaftung - wer ist Hersteller, und welche Regressketten bauen sich auf? <br>Wer haftet für Konnektivitätsausfälle? - 5. Wer haftet in vernetzten Wertschöpfungsketten?
Wenn M2M der Schlüssel für vernetzte Wertschöpfungsprozesse ist, rückt automatisch auch die Frage der Haftung für mögliche Fehler und Ausfälle in den Vordergrund. Man wird zwischen der Haftung für fehlerhafte Datenquellen und Datenerzeugung einerseits und Fehlern in der Datenübermittlung andererseits unterscheiden müssen. - 6. Unternehmen müssen Datenschutz im Blick behalten
Der Datenschutz ist über den weiten Begriff personenbezogener Daten, zu denen auch dynamische IP-Adressen gehören können, und die Möglichkeiten komplexer Datenauslese (Big Data) etwa in den Bereichen Mobilität, Energie und Smart Homes grundsätzlich immer im Blick zu halten. Es gilt sorgfältig zu prüfen und gegebenenfalls mit den Behörden abzustimmen, ob und wie er sich mit "informierter Einwilligung", Inter-essenabwägung und Auftragsdatenverarbeitung wahren lässt.
Um die Speicherkomponente anzugehen, werden Hosting-Anbieter die Vorteile von Software-Defined Storage (SDS) nutzen müssen. SDS unterstützt bereits heute tausende Anbieter dabei, wettbewerbsfähig zu bleiben. Hoster, die Trends wie das Internet der Dinge mit seinen exorbitanten Datenmengen nicht verschlafen wollen, werden sich besser früher als später dem Software-definierten Modell anschließen müssen.
Dabei gilt es jedoch zu unterscheiden: Bei echtem Software-Defined Storage handelt es sich um flexible, einfache und leistungsfähige Lösungen der Enterprise-Klasse ohne Anbieterabhängigkeit. Die SDS-Technologie wird auf Industriestandards entsprechender Hardware implementiert, statt an teure proprietäre Modelle gebunden zu sein. Anbieter von Legacy-Systemen haben bereits marketingtechnisch aufgerüstet und ihre Hardware-basierten Geräte einfach in "Software-basiert" umgetauft.
- Hans Schramm, Field Product Manager Enterprise, Dell
"Es ist sicherlich unumstritten, dass Software heute eine tragende Rolle bei allen Storage-Themen spielt, das wird sich zukünftig weiter verstärken." - Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
"Die Storage-Hardware besteht bei EMC schon heute fast ausschließlich aus Commodity Komponenten. Selbst die High-End Speichersysteme wie EMC VMAX oder Scale-Out-NAS Islilon Systeme bestehen mit wenigen Ausnahmen vollständig aus Commodity Komponenten." - Robert Guzek, Senior Alliance Manager CE FTS CE ISS Market Operations, Fujitsu Technology Solutions
"Nur wenn die Hardware selbst über eine gewisse Intelligenz verfügt, ist sie in der Lage, unmittelbar zu reagieren und die erwünschten kurzen Antwortzeiten zu liefern. Die Hardware muss in Zukunft deshalb eher an Intelligenz gewinnen, sie muss sich selbst besser verwalten und sich flexibler an die Geschäftsprozesse und betrieblichen Anforderungen anpassen können." - Thomas Meier, Chief Technologist Storage, Hewlett-Packard
"Das Software Defined Data Center ist bei HP bereits Realität: Die Cloud-Management-Lösung Cloud Service Automation, das offene Cloud-Betriebssystem Cloud OS sowie Lösungen für Software Defined Networking und Software Defined Storage sind bereits Bestandteil von HPs Portfolio für das Rechenzentrum der Zukunft.“ - Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems
"Hardware wird im professionellen Umfeld auf absehbare Zeit mehr sein als bloße Commodity. Das gilt für 2014 und auch noch darüber hinaus." - Michael Achtelik, Storage Business Leader DACH, IBM Deutschland
"Bei der Umsetzung der Konzepte rund um den Begriff Software Defined Data Center engagiert sich IBM sehr stark. IBM verfolgt hier einen eher noch umfassenderen Ansatz als SDDC und hat hierzu den Begriff Software Defined Environments (SDE) geprägt.“ - Johannes Wagmüller, Director Systems Engineering, NetApp
"Commodity-Hardware mag für Betreiber wie Amazon AWS und Google eine Option darstellen, da sie mit eigenen Entwicklungsabteilungen für Integration und Qualitätssicherung sorgen. Im Enterprise- und KMU-Markt, wo diese mächtigen Entwicklungs-Ressourcen nicht zur Verfügung stehen, wird weiterhin auf die Betriebssicherheit von Enterprise Speichersystemen Wert gelegt werden." - Vincenzo Matteo, Disk Product Management Director, Oracle
"Wir halten Software Defined Storage aufgrund der verdeckten Kosten für kein wirklich vorteilhaftes Konzept. Weil alle Integrations-, Prüfungs- und Wartungsaufgaben für das System vollständig auf den Anwender übergehen, erhöht sich der Aufwand in diesen Bereichen signifikant, die Ausgaben steigen deshalb gleichermaßen."
SDS wird Hosting-Anbietern die Flexibilität geben, die richtige Lösung sowohl für neue als auch für Legacy-Umgebungen auszuwählen. Mit einem Preis, der oftmals 50 bis 80 Prozent unter dem für proprietäre Modelle liegt, verfügen Anbieter nun über ein "Tool" zur Bewältigung der Datenexplosion auf elegante Weise. Um Entwicklungen wie dem Internet der Dinge Rechnung zu tragen, sollten Hosting-Anbieter sich klar darüber werden, dass SDS-Lösungen zukünftig in ihre Infrastruktur-Roadmap gehören. (cvi)