Kein Fachgespräch mehr, in dem es nicht um Künstliche Intelligenz (oder AI für Artificial Intelligence) geht. Keine Diskussion ohne Deep Learning und Smart Machines. Ein Webinar der Computerwoche setzt bei der Grundlage an: dem Speichersystem.
Denn die ausgefeilteste KI-Strategie scheitert, wenn das Speichersystem nicht die schnellstmögliche Skalierung und genügend I/O-Operationen bei der Analyse von Big Data ermöglicht. Darüber sprechen Ulrich Walter, Head of Cloud und HPC Computing bei IBM Deutschland und Marco Merkel, Sales Director Consulting bei Thinkparq.
Sie schildern, wie One-Click-Technologien Storage- und Virtualisierungsvorgänge im Rechenzentrum vereinfachen und wie sich Anwendungen jeder Größe, Computing-Ressourcen, Storage und Virtualisierung zusammenführen lassen.
Fachjournalist Detlef Korus moderiert das Webinar und gibt das Wort gleich an Ulrich Walter, den "Mister Deep Learning" bei IBM. "Das Datenwachstum ist exorbitant", weiß der Manager. Eine Ad-hoc-Umfrage unter den Webinar-Nutzern zeigt, dass etwa jeder Zweite den Speicherbedarf in seinem Unternehmen auf mehr als 100 Terabyte schätzt.
Schon Mittelständler geraten schnell in den Petabyte-Bereich
Für Walter geht es nun darum, sowohl die verschiedenen Dateninseln zu betrachten, aus den die Daten stammen als auch die Daten selbst. "Geht es um Videodaten? Um Metadaten?", führt er aus. Schon Mittelständler geraten je nach Branche schnell in den Petabyte-Bereich.
Was heißt das für die Infrastruktur? Ein CIO muss Anforderungen an die Daten selbst und die Anforderungen an den Speicher betrachten. Mit Blick auf die Daten gelten "die fünf großen V", wie Walter sagt: erstens die Varietäten der Informationen, sprich die unterschiedlichen Datenformate und zweitens das steigende Volumen. Zum Dritten geht es um die "Velocity of Change", die Frage, wie häufig Daten angefasst werden und sich ändern. Punkt 4 bezieht sich auf Verlässlichkeit und Glaubwürdigkeit der Daten und Punkt fünf schließlich auf den "Value", den Wert der Daten, konkret messbar in Fragen wie: was kosten mich diese Daten, was würde es bedeuten, wenn sie nicht mehr da wären oder jemand anders damit operiert?
Auf Basis dieser Überlegungen leiten sich für IT-Entscheider Konsequenzen für Daten-Management und Storage ab. Hier geht es beispielsweise um Faktoren wie die Effizienz des Storage-Systems und die Frage, wo die Daten in welcher Granularität lokalisiert sein müssen. "Gerade in Europa spielt Data Privacy eine große Rolle", betont Walter. CIOs brauchen die Kontrolle der gesamten Data Supply Chain. Sie müssen wissen, wie viele Daten wann an welcher Stelle in welcher Qualität und Größenordnung zur Verfügung stehen. Aus Sicht von IBM erfordert eine Plattform für Deep Learning und Künstliche Intelligenz die drei Elemente Detect and Collect sowie Store/Analyze und Learn.
Es gibt noch nicht DAS System
An dieser Stelle lässt Moderator Korus die Webinar-Nutzer nochmal zu Wort kommen. Er will wissen, wie weit sie mit der Planung einer AI-Infrastruktur auf der technischen Ebene sind. Fazit einer spontanen Umfrage: eine Minderheit von 14 Prozent hat bereits Pläne ausformuliert. Weitere 43 Prozent stellen erste Überlegungen dazu an.
Ein weiterer Aspekt ist die Software. Marco Merkel umreißt sein Konzept von Software-Defined Enterprise Storage: Performance& Skalierbarkeit, Flexibilität und einfaches Management. In seiner Praxis kennt er Use Cases von Universität über Firmen aus Automotive bis zu Öl und Gas. Aktive Benchmarks für solche Lösungen gibt es noch nicht, wie er auf Nachfrage eines Webinar-Zuschauers bestätigt. Das deckt sich mit der Beobachtung von Ulrich Walter, wonach sich DAS System nach dem Motto One-size-fits-all noch nicht durchgesetzt hat. Er schmunzelt: "Im Moment ist das noch ein bisschen Wildwest da draußen!"