Big-Data-Analysen bieten für Unternehmen zahlreiche Chancen, Wettbewerbsvorteile zu erlangen. Sie gewinnen mehr Transparenz und können Entscheidungen auf fundierter Basis treffen. So gelingt es, Prozesse zu optimieren, Kosten einzusparen, Geschäftsfelder auszubauen oder ganz neue Geschäftsmodelle zu entwickeln. Wer in der Lage ist, möglichst schnell und zielgerichtet Daten auszuwerten, hat in Zukunft die Nase vorn. Wer dagegen zu lange mit der Digitalisierung zögert, wird im harten globalen Wettbewerb nur noch schwer mithalten können. Deshalb denken so viele Unternehmen hierzulande darüber nach, wie sie Big-Data-Projekte erfolgreich durchführen können. Die tatsächliche Umsetzung gestaltet sich jedoch oft schwierig. Die folgenden sechs Handlungsempfehlungen haben sich in der Praxis bewährt und können als Leitfaden dienen.
1. Das strategische Ziel definieren
Am Anfang steht das Ziel: Welche Herausforderungen hat das Unternehmen und wie kann Big Data Analytics helfen, diese zu adressieren? Welche Geschäftsfelder möchte man genauer unter die Lupe nehmen und vielleicht erweitern? Wohin orientiert man sich in Zukunft? Solche Überlegungen sollten zunächst auf Management-Ebene stattfinden. Die verschiedenen Fachbereiche und die IT-Abteilung setzen sich an einen Tisch und definieren die Ziele. Ein IT-Dienstleister kann dabei helfen, verschiedene Einsatzbereiche aufzuzeigen und aktuelle Trends vorzustellen. Zu den ersten Überlegungen zählt auch, die technischen Rahmenbedingungen zu diskutieren und die bestehende IT-Struktur zu analysieren. Aus den strategischen Zielen und dem technischen Status Quo ergeben sich die Anforderungen an das Big-Data-Projekt.
2. Die geeigneten Tools auswählen und implementieren
Im zweiten Schritt geht es darum, die geeigneten Technologien auszuwählen, um die zuvor ermittelten Anforderungen umzusetzen. Oft ist es sinnvoll, bestehende Analysewerkzeuge zu erweitern oder miteinander zu kombinieren. Selten ist eine Lösung von der Stange wirklich gut geeignet. Die besten Ergebnisse erzielt man, wenn man Tools individuell und passgenau auf den Anwendungsfall abgestimmt zusammenstellt. Dafür empfiehlt sich die Zusammenarbeit mit einem IT-Dienstleister, der den Markt gut kennt und herstellerunabhängig agiert. Zeiteffizient und kostengünstig lassen sich neue Bausteine in die bestehende IT-Landschaft integrieren, wenn man sie zumindest teilweise in die Cloud auslagert. Viele Unternehmen setzen dabei auf hybride Cloud-Modelle, die eine lokale Datenhoheit gewährleisten und gleichzeitig skalierbar sind.
3. Datenquellen erfassen und Daten aufbereiten
In jedem Unternehmen gibt es eine Vielzahl an Datenquellen. In einer Bestandsaufnahme analysieren die Verantwortlichen, welche davon für das Projektziel relevant sind. Viele Aspekte spielen eine Rolle, zum Beispiel in welcher Form die Daten vorliegen, wie sie sich extrahieren lassen und wie sie in den zentralen Datenpool, häufig Data Lake oder klassisch Data Warehouse genannt, überführt werden können. Anschließend müssen die Daten konsolidiert, modelliert und transformiert werden, sodass sie vergleichbar sind und für die Analyse zur Verfügung stehen. Dazu zählt unter anderem das Bereinigen von fehlerhaften oder doppelten Datensätzen, die in verschiedenen Vorsystemen vorliegen. Häufig werden zum Beispiel Stammdaten in mehreren Bereichen gehalten, stimmen aber nicht überein. Außerdem liegen Daten in Vorsystemen oft in ganz unterschiedlicher Form oder verschiedenen Sprachen vor. Diese müssen zunächst in ein einheitliches Format übersetzt werden.
4. Daten analysieren und Ergebnisse auswerten
Die konsolidierten Daten stehen nun zentral zur Analyse bereit. Mithilfe eines Dashboards erhalten die Fachbereiche die Möglichkeit, in einer leicht zu bedienenden, grafischen Umgebung freie Analysen durchzuführen und klassische Reports zu erstellen. Auch die Erstellung von Plan- / Ist-Vergleichen und Zeitreihen gehören zu dieser Art der Auswertung. Solche deskriptiven Standard-Analysen werten in der Regel die Vergangenheit aus und liefern Zahlen zur aktuellen Situation. Sie hangeln sich entlang bekannter Pfade, Erfahrungswerte und typischer Analysemuster. Aufgewertet werden diese häufig durch ein integriertes Planungssystem, das die Berechnung von Planungsmodellen und Szenarien auf Basis der Vergangenheitsdaten erlaubt. Damit wird ein strategisches und vorausschauendes Agieren der Fachbereiche ermöglicht.
5. Die Königsdisziplin: statistische Analysen
Die Königsdisziplin ist der Blick in die Zukunft: Welche auf Prognose-Modellen beruhenden prädiktiven oder gar präskriptiven Handlungsempfehlungen lassen sich aus den Daten ziehen? Dafür setzen Data Scientists statistische Analysen ein, was eher einem experimentellen, kreativen Ansatz entspricht. Oftmals weiß man anfangs noch gar nicht, welche Erkenntnisse man letztendlich vielleicht gewinnen wird. Der Data Scientist wählt eine oder mehrere Variablen aus, bestimmt das statistische Verfahren und lässt das System nach Zusammenhängen suchen. Unternehmen können auf diese Weise zum Beispiel erforschen, mit welchen Variablen ihr Umsatz in Verbindung steht. Mögliche Aspekte sind etwa die Kundenzufriedenheit, die globale Investitionsfreudigkeit, die Saison oder das Wetter. Für manche Analysen kommen zehn, zwanzig oder auch hundert Attribute in Frage. Das System errechnet nun: Der Umsatz steigt oder sinkt, wenn Attribute A, B und C zusammentreffen. Ein Unternehmen kann mithilfe solcher Analysen zum Beispiel als Handlungsempfehlung ableiten, dass es zu bestimmten Zeiten den Lagerbestand aufstocken muss, um Lieferengpässe zu vermeiden.
6. Weitere Mehrwerte herausfiltern
Den größten Mehrwert schöpfen Unternehmen, wenn sie statistische Analysen als fortlaufenden Prozess betreiben. Die entscheidende Frage lautet: Was passiert, wenn bestimmte Ereignisse eintreten oder Attribute zusammentreffen und wie sollte man dann am besten reagieren. Es lohnt sich, immer wieder neue Analysemuster auszuprobieren und bestehende zu modifizieren. Der aktuelle Datenbestand sollte kontinuierlich auf neue Möglichkeiten überprüft werden, aus denen sich Handlungsempfehlungen ergeben. Solche Prozesse lassen sich auch automatisieren. Statistische Modelle können und müssen trainiert werden. Data Scientists stehen dabei fortwährend vor der Herausforderung, anhand neuer Erkenntnisse weiter nachzujustieren, um die bestmöglichen und schärfsten Ergebnisse zu erzielen.
Fazit
Mit zielgerichteten Big-Data-Analytics-Projekten schöpfen Unternehmen Mehrwert aus ihrer Datenflut. Dabei spielt die richtige Strategie eine ebenso wichtige Rolle wie die geeigneten Tools. Analysen können nicht nur für Reports herangezogen werden, sondern ermöglichen auch Handlungsempfehlungen für die Zukunft. Das größte Potenzial steckt in statistischen Analysen. Wer sie als fortlaufenden Prozess versteht und kontinuierlich anpasst, profitiert am meisten und verschafft sich einen wichtigen Vorsprung gegenüber dem Wettbewerb.