Experten, etwa von ISG, sagen vor allem ein gutes Jahr für die Public Cloud voraus. Darauf sollten auch Analytics-Lösungen Rücksicht nehmen. Sie sollten Anwendern die Wahl lassen, Daten von verschiedenen Speicherorten für einer Analyse heranzuziehen. Dass das Thema an Bedeutung gewinnt, legen auch entsprechende Gartner-Zahlen nahe: Die Analysten gehen davon aus, dass bis 2019 75 Prozent der Analytics-Lösungen zehn oder mehr externe Datenquellen – sei es von Partnern oder Drittanbietern – umfassen werden. Viele davon sicher in der Cloud.
Von Kapazitätsbedarf über Skalierbarkeit bis zu Zugriffsoptionen: Viele Parameter wirken darauf ein, wie Organisationen mit dem Thema Datenspeicherung umgehen. Doch die vielfältigen Möglichkeiten bedeuten für Unternehmen auch neue Herausforderungen: Wie zum Beispiel sollen Daten, die an unterschiedlichen Orten liegen, ohne aufwändige (und fehleranfällige) Migrationen für Analysen zusammengebracht werden? Dazu ist es einerseits nötig, Datensilos zu öffnen und andererseits, die Integrationswege von Daten in ein Analytics-Tool ohne Infrastrukturhürden zu gestalten. Kurz: Die Analyse soll sich in Richtung der Daten und ihrer jeweiligen Speicherorte „ausdehnen“, statt die Daten - durch Kopieren oder Migrieren - anzufassen und sie an einen bestimmten Ort zu verfrachten, wo dann die Analyse stattfindet.
Echte Wahlfreiheit endet nicht beim Ort der Datenspeicherung
Idealerweise erstreckt sich das Thema Wahlfreiheit nicht nur auf die Speicherorte von Daten, sondern auch auf den Ort, an dem die Analytics-Software läuft. Wer beispielsweise seine Unternehmensdaten lieber on-premise vorhält, die Analytics-Funktionen aber als SaaS beziehen möchte, sollte die Möglichkeit dazu haben, wenn dies zu seiner digitalen Analysestrategie passt.
Lesetipp: Was ist was bei Predictive Analytics?
Konkret werden viele Unternehmen, die auf Data Analytics setzen, nicht nur mit internen Daten arbeiten. Um datenbasiert neue Einsichten sowie Ideen zur datengetrieben Unternehmessteuerung zu erhalten, ist es häufig sinnvoll, auch externe Daten in Analysen einzubeziehen – und die sind zunehmend in der Cloud zu finden. Da jede Datenanalyse nur so gut ist wie ihre Datenbasis, ist es zudem von Vorteil, wenn möglichst viele Datenformate verarbeitet werden können; von der klassischen Excel-Tabelle über Social-Media-Daten bis hin zu automatisiert generierten Maschinendaten.
Offene APIs und eine entsprechende Palette an Konnektoren können hier vieles erleichtern und die Abfragemöglichkeiten innerhalb der Data-Analytics-Strategie potenzieren.
Unterschiede in Abfrageinhalt und -methodik können sehr sinnvoll sein
Wesentlich für erfolgreiche Analytics-Projekte in hybriden Cloud-Umgebungen ist ein User-Erlebnis, das schnell und flexibel ist – und vor allem das Steuer in der Hand der Anwender lässt. Denn nicht jeder im Unternehmen benötigt für seinen Bereich die gleichen Datenquellen, also die Grundlage der Abfrage-Inhalte. Und nicht für jeden ist die gleiche Analytics-Infrastruktur zweckmäßig, also die gleiche Abfrage-Methodik (Daten on-premise plus Software as a Service oder installierte Software plus Daten aus der Cloud, etc…).
Für Außendienstmitarbeiter oder Kräfte in ausländischen Niederlassungen können völlig andere Bedingungen bei Daten- und Software-Nutzung sinnvoll sein als für Inhouse-Mitarbeiter, zum Beispiel im Supply-Chain-Management, die sich möglicherweise eine Cloud-Anwendung mit Partnern und Lieferanten teilen.
Fazit
Flexible und skalierbares Designs sowie performante Technologien, die auch Selfservice-Betrieb und mobile Anwendungen unterstützen, dürften entscheidend sein für BI-Software, die New-Work-Modelle unterstützen oder digitale Transformationsprojekte treiben soll.