Big Data Analytics

Wie Datenanalyse zum Fiasko wird

29.12.2017
Von  und
Bob Violino arbeitet als freier IT-Journalist für InfoWorld und Network World in den USA.


Florian Maier beschäftigt sich mit diversen Themen rund um Technologie und Management.
Mit einem durchdachten Ansatz, den nötigen Skills und der richtigen Taktik wird Data Analytics Sie zum Erfolg führen. Wir zeigen Ihnen was passiert, wenn Sie diese Voraussetzungen nicht erfüllen.

Data Analytics befähigt Organisationen, tiefgehenden Einblick in nahezu jeden Aspekt ihrer Struktur zu bekommen. Daraus kann wiederum ein Wettbewerbsvorteil erwachsen. Kein Wunder, dass viele Unternehmen massiv in Data Analytics Tools investieren.

IDC geht in einer Prognose vom März 2017 davon aus, dass sich die weltweiten Ausgaben für Big Data und Business Analytics in diesem Jahr auf satte 150,8 Milliarden Dollar summieren werden. Im Vergleich zum Vorjahr ist das ein Zuwachs von zwölf Prozent. Bis zum Jahr 2020 erwarten die Analysten weiteres Wachstum: Mehr als 210 Milliarden Dollar sollen dann aus dem Unternehmensumfeld in die Technologie fließen.

Wenn das Chaos regiert, sinken die Erfolgschancen. Wir zeigen Ihnen, wie Data Analytics nicht geht.
Wenn das Chaos regiert, sinken die Erfolgschancen. Wir zeigen Ihnen, wie Data Analytics nicht geht.
Foto: sirtravelalot - shutterstock.com

Dem Data-Analytics-Boom zum Trotz tappen aber immer noch viele Unternehmen in Fallen, die den Mehrwert der Datenanalyse zunichtemachen können. Wir haben mit verschiedenen Experten gesprochen und zeigen Ihnen sieben Wege, wie Ihr Data-Analytics-Projekt ganz sicher zur Katastrophe wird. In diesem Sinne: Don’t try this at work!

1. Suchen, ohne zu wissen wonach

Wenn Sie die Trends oder Signale die Sie aus Ihren Daten ziehen möchten, überhaupt nicht kennen, wie können Sie dann erwarten damit Mehrwert zu erzeugen?

"Das größte Problem im Datenanalyse-Prozess ist, wenn man keine Ahnung hat, wonach man in den Daten überhaupt suchen soll", weiß Tom Davenport, Berater bei Deloitte und Autor von "Competing on Analytics: The New Science of Winning". "Diese Interpretation von Data Mining, dass man wie durch Zauberhand schon etwas Interessantes in seinen Daten findet, hat in den letzten Dekaden bereits viele Unternehmen auf Abwege geführt. Auch in Zeiten von Machine Learning ist es hilfreich zu wissen wonach man sucht, wenn es um die Relation zwischen den Daten geht."

Bei The Weather Company legt man seinen Fokus deshalb darauf, "Mitarbeiter zu finden, die wissen wie man unsere Daten durchsucht und auf Grundlage dessen eine vollständige und akkurate Interpretation der Daten liefern können", wie QA-Manager Todd Eaton verrät. "Die richtigen Leute haben eine Leidenschaft dafür, mit Hilfe von Daten Fragen zu beantworten und ihre Erkenntnisse kontinuierlich zu hinterfragen. Es ist unabdingbar für unser Unternehmen, dass jeder Mitarbeiter nicht nur unsere allgemeinen Ziele kennt, sondern auch weiß, was wir in unseren Daten finden wollen. Nur so ist es uns möglich, konsistente Messungen und Daten zu sammeln."

Besonders rapide nähert man sich einem Data-Analytics-Fiasko, wenn der Fokus fehlt, meint Christina Clark, CDO bei General Electric: "Data-Analytics-Teams sind am erfolgreichsten, wenn sie auf einige priorisierte Ziele hinarbeiten. Oft scheitern Datenanalyse-Projekte daran, dass die Teams zu viele Geschäftsziele auf einmal erreichen müssen."

2. Die eigene Infrastruktur aufbauen (und warten)

Es mag verführerisch auf Sie wirken, Ihre eigene Big-Data-Infrastruktur aufzubauen und auf dem neuesten Stand zu halten. Damit könnten Sie allerdings auch den Erfolg Ihrer Datenanalyse-Initiative aufs Spiel setzen. Warum, erklärt Oliver Tavakoli, CTO beim Security-Anbieter Vectra: "Das führt dazu, dass Data Scientists in aller Regel jede Menge wertvolle Zeit auf viele Dinge verwenden - nur nicht darauf, die Datenanalyse selbst besser zu machen."

Dabei spricht Tavakoli aus Erfahrung: "Nach vielen Hardware- und noch mehr Software-Fehlern haben wir uns letztlich dazu entschlossen, diesen Teil des Problems mit Outsourcing zu lösen." Seitdem arbeitet Vectra in Sachen Infrastruktur mit einem externen Dienstleister zusammen. Und die Data Scientists verbringen nach Auskunft von Tavakoli ihre Zeit nun in erster Linie damit, das System mit Daten zu füttern und diese zu analysieren.

3. Zum Data Divider mutieren

Das Problem der Datensilos bestand und besteht in vielen Unternehmen weltweit. Diese Silos verhindern den Informationsaustausch zwischen Abteilungen und schmälern damit die Erfolgschancen der gesamten Organisation. Geht es um (Big) Data Analytics, ergibt sich exakt dieselbe Problemstellung, beziehungsweise Herausforderung.

Jeffry Nimeroff, CIO bei Zeta Global, hat deswegen eine wirksame "Best Practice" auf Lager: "Jedes Datensilo erzeugt eine Barriere zwischen Verbindungsstellen, die Mehrwert generieren könnten. Stellen Sie sich ein umfangreiches Userprofil vor. Wenn dieses Profil nicht mit den Aktivitätsdaten der Website verknüpft ist, lassen sich auch keine prädiktiven Aussagen treffen."

Das bedeutet aber auch nicht, dass Sie jetzt all Ihre Daten in einen Monolithen schmeißen. Nimeroff zeigt eine Alternative auf: "Wir setzen stattdessen auf moderne Integrationstechnologien, die uns eine ganzheitliche Sicht auf die Daten ermöglichen. Diese verbleiben dabei aber in ihren derzeitigen Systemen."

4. Datenhygiene vermeiden

Wenn Sie Daten analysieren, die nicht akkurat, veraltet oder unorganisiert sind, kann der Wert Ihrer Data-Analytics-Bemühungen drastisch absinken.

"Die 'Vermüllung' der Systeme potenziert sich durch die schiere Masse von Geschäftsdaten noch", weiß Nimeroff. "Gute Datenanalyse-Teams wollen aber mit qualitativ hochwertigen Daten arbeiten. Deshalb müssen Prozesse und Technologien installiert werden, um sicherzustellen, dass die Datenqualität stimmt."

Insbesondere die Wiederholbarkeit der Prozesse und die Möglichkeit zur Auditierung ihrer Ergebnisse sei von großer Bedeutung, so der CIO weiter. Auf technologischer Seite könnten hingegen Data-Quality-Tools für eine bessere Datenqualität sorgen.

Auch nach Meinung von CTO Tavakoli müssen Unternehmen Software-Tools dazu nutzen, unvollständige und unbrauchbare Daten auszumerzen. Nur so sei es möglich, die Datenanalyse so einfach wie möglich zu halten: "Wenn die Daten so selbstbeschreibend wie möglich sind, können alle Mitglieder des Teams die Bedeutung jedes einzelnen Bits erfassen."

"High-Quality-Daten sind der Schlüssel für brauchbare Insights", ist auch TP Miglani, CEO bei Incedo, überzeugt: "Data Warehouses und Data Lakes aufzubauen ist ein Muss, um strukturierte und unstrukturierte Daten zusammenbringen zu können. Erfolgreiche Unternehmen achten deshalb darauf, die Qualität ihrer Daten zu verbessern."

Gute Datenhygiene bedeutet aber auch, die Daten so aktuell wie möglich zu halten, verdeutlicht Nimeroff: "Je mehr 'real-time' ein System arbeitet, desto aktueller sind auch die Daten. Für dieses Unterfangen empfiehlt sich unter Umständen auch ein Service-Anbieter."

5. Auf eigene Faust

Wie bei jedem anderen größeren IT-Projekt gilt auch in Sachen Datenanalyse: Ohne den Rückhalt der Chefetage bleiben Erfolge in aller Regel aus.

"Die Aufgabe des Analytics-Teams ist es, Insights zu generieren, indem die Daten aus taktischen und strategischen Unternehmensentscheidungen miteinander verbunden werden. Wenn das Team eine superbe Datenanalyse betreibt und zuverlässige prädiktive Modelle entwickelt, ist das am Ende trotzdem nichts wert, wenn der nötige Kulturwandel innerhalb der Organisation ausbleibt", erklärt Miglani.

Das Data Management auf ein solides Fundament zu stellen, erfordere nachhaltige Bemühungen und dauere unter Umständen Jahre, weiß Christina Clark: "Einige Aufgaben, die das Data-Analytics-Team übernimmt, führen nicht unbedingt zu direkt sichtbaren Ergebnissen. Das könnte unter Umständen den Erwartungen von möglichen Partnerunternehmen zuwiderlaufen. Ein starkes persönliches Engagement der Führungsebene ist deshalb für eine datengetriebene Zukunft genauso unabdingbar, wie die offene Kommunikation mit externen Stakeholdern."

6. Mitarbeiter außen vor lassen

Werden Daten in einem Vakuum ausschließlich von Data Scientists und anderen Experten analysiert und bleibt dabei der Input von anderen Managern aus, die den Bedarf an Analytics am besten beurteilen können, wirkt sich das auf den Erfolg aus.

"Ohne die aktive Einbindung des unteren und mittleren Managements, wird die Unterstützung, die das Analytics-Team liefern will, ins Leere laufen", meint David Giannetto, COO bei Astea International. "Zwar enthalten diese Daten dann Informationen über Schwachstellen in Prozessen und anderen Bereichen, die verbessert werden können, aber das Management kümmert sich erst darum, wenn einmal Zeit ist. Also nie. Nur wenn das Data-Analytics-Team aus Leuten zusammengestellt wird, die das Business und den echten Bedarf für Information kennen, können positive Effekte für das Unternehmen entstehen."

7. Kultur- und Skill-Mangel

Data Scientists sind schwer zu finden. Wer welche hat und seine Unternehmenskultur dennoch nicht in Richtung Data fokussiert, steigert seine Misserfolgschancen erheblich.

"Für Menschen die mit Analytics nichts zu tun haben, ist Data Science eine Art Problemlösungs-Zauber", meint CEO Miglani. "Konzepte wie Predictive Analytics und selbstlernende Algorithmen sind für viele Menschen nur schwer greifbar. Es könnte schwer werden, Ihre Geschäftspartner von undurchsichtigen Algorithmen zu überzeugen. Sie müssen diese erst einmal aufklären."

Und dann wäre da noch das Problem mit dem Fachkräftemangel, wenn es um Big Data und Analytics geht. TP Miglani weiß auch in diesem Fall Rat: "Entwickeln Sie Ihre Fachkräfte und Talente einfach selbst, statt Star-Data-Scientists außerhalb Ihres Unternehmens nachzujagen. Viele Analytics-Projekte gehen deshalb in die Binsen, weil das Unternehmen daran scheitert (rechtzeitig) Spezialisten für die Datenanalyse anzuheuern. Oder die eigenen an die Konkurrenz verliert."

Dieser Artikel basiert auf einem Beitrag unserer US-Schwesterpublikation CIO.