Sie arbeitet 24 Stunden, 365 Tage im Jahr, braucht keinen Schlaf und keinen Kaffee - und ist trotzdem stets hellwach. Die Rede ist von "Vital", Board-Mitglied der in Hongkong ansässigen Investoren-Company Deep Knowledge Venture, die sich auf Projekte im Pharma- und Medizinbereich konzentriert. Vital kann wie die anderen Manager im Board von DKV mit über Investitionsvorhaben abstimmen. Nur hebt sie dabei keine Hand - Validating Investment Tool for Advancing Life Sciences, so ihr voller Name, ist ein in Software gegossener Algorithmus, entwickelt von der britischen Softwarefirma Aging Analytics. Die Maschine tut nichts anderes, als riesige Datenmengen zu sammeln, auszuwerten und anhand der so gewonnenen Ergebnisse den Kollegen Ratschläge zu geben.
Vital ist ein gutes Beispiel für das derzeit so oft beschworene datengetriebene Business. Das funktioniert allerdings nur, wenn die Daten, auf denen das Analysewerk beruht, korrekt sind. Die notwendige Datenqualität und Data Governance sicherzustellen, ist jedoch alles andere als einfach. Gerade in Zeiten von Big Data, in denen die Menge der Daten, die Zahl der Datenquellen und die Varianz der Datentypen ständig zunehmen, wachsen auch die Herausforderungen. Die Tatsache, dass sich Big Data zunehmend zum Mainstream in vielen Unternehmen entwickle, lasse auch das Risiko steigen, dass Daten verwendet würden, die sich nicht dafür eigneten, die gesetzten Ziele zu erreichen, sagt Michele Goetz, Analystin von Forrester Research.
Das Bewusstsein, etwas in Sachen Data Governance unternehmen zu müssen, scheint bei den meisten Verantwortlichen angekommen zu sein. So hat sich beispielsweise die Zahl der Chief Data Officers (CDOs) im vergangenen Jahr verdoppelt, berichtete Kurt Schlegel, Research Vice President von Gartner, auf dem Business Intelligence und Analytics Summit Mitte Oktober in München. Jemand, der sein Hauptaugenmerk darauf richtet, wie Daten im Unternehmen gesammelt, aufbereitet, verteilt und analysiert werden, dürfte in Zukunft immer stärker gefragt sein - vor allem auch um die Organisation rund um die Datenflüsse in den Griff zu bekommen. Ein zentrales BI-Team, dessen Streben allein darauf ausgerichtet ist, eine "Single Version of Truth" zu finden und zu bewahren, sei heute aber nicht mehr zeitgemäß. Das gehe auf Kosten der für die neuen Analytics-Aufgaben notwendigen Agilität und Flexibilität, warnen die Gartner-Analysten.
Data Warehouse, Reporting und die Datenintegration
Aber auch die traditionellen Aufgaben rund um Data Warehouse, Reporting und die Datenintegration müssten weiter erledigt werden, sagt Schlegel. Die Experten von Gartner plädieren daher für einen bimodalen Ansatz rund um die Daten. Einerseits brauche es eine einheitliche klare Strategie, die notwendige Sicherheit und eine zentrale Kontrolle, was mit Daten im Unternehmen passiert. Auf der anderen Seite müssten die Unternehmen aber auch dafür sorgen, Freiraum für neue Ideen rund um Daten zu schaffen. Mitarbeiter müssten über den Tellerrand schauen können. Das erfordere eine flexible und agile Organisation, die auch Fehler toleriere. Gartner geht davon aus, dass sich in den Fachabteilungen im Zuge der stärkeren Verbreitung von Self-Service-BI selbständig Datenspezialisten heranbilden werden. Die Zahl dieser "Citizen Data Scientists" werde in den beiden kommenden Jahren fünfmal so schnell wachsen wie die der speziell ausgebildeten Data Scientists.
Diese Auffächerung versetzt zwar möglicherweise mehr Mitarbeiter in die Lage, ihren Job mit Hilfe von Analytics besser zu erledigen, macht aber zugleich die Aufgabe der für Data Governance verantwortlichen Manager nicht einfacher. Nicht einmal jedes zehnte Unternehmen werde im kommenden Jahr Kontrollmechanismen für die eigenen Self-Service-BI-Aktivitäten eingerichtet haben, mutmaßt Thomas Oestreich, Research Director für den Bereich Business Intelligence und Analytics bei Gartner. Unternehmen müssten sich verstärkt um Data Governance kümmern. Dabei gehe es vor allem darum, die Balance zwischen den neuen Möglichkeiten ausgefeilter Analysewerkzeuge und den damit verbundenen Risiken zu finden. Doch damit tun sich die Verantwortlichen offenbar schwer. Fast jedes zweite Unternehmen habe dafür keine Strategie, berichtet Oestreich unter Berufung auf eine Umfrage.
- Big Data Governance
NTT untersucht in der Studie "Big Data Governance - eine Reifegrad-Analyse in Deutschland" Big Data-Projekte aus 37 Unternehmen. Es geht dabei um so unterschiedliche Branchen wie Automobil, IT und Banken. - Erreichen der Ziele
Geld spielt eine Rolle: Unternehmen, die mindestens 20 Prozent ihres IT Budgets für Big Data aufwenden, sind erfolgreicher in der Umsetzung von Big Data Projekten. - Technik am wichtigsten
Es hängt an der Technik: die technische Expertise halten die Unternehmen für den wichtigsten Erfolgsfaktor bei Big Data-Projekten. - Risiko Datenschutz
Datenschutz und Compliance gelten als größte Risiken bei der Anwendung von Big Data. - Erfolgsfaktor Integration
Je besser Big Data in die Informationsarchitektur integriert ist, umso höher die Chance, alle Ziele zu erreichen. - Aufgaben von Big Data Governance
Die Befragten erwarten von Big Data Governance vor allem die Bereitstellung von organisatorischen Strukturen, Richtlinien, Prozessen und Standards.
Governance bedeutet aus Gartner-Sicht zu definieren, nach welchen Regeln im Umgang mit Daten gespielt werden soll. Das erfordere ein Agreement, an das sich alle Beteiligten halten. "Im Fussball stellt schließlich auch kein Spieler das Regelwerk in Frage", vergleicht Oestreich. Governance habe dabei verschiedene Aspekte. Beispielsweise gehe es im Zusammenhang mit Analytics-Governance um Fragen wie: Können wir bestimmte Dinge analysieren, und sollten wir dies auch tun? Bei der Information Governance drehe sich vieles um den Wert bestimmter Informationen. So benötige die Finanzabteilung zu 100 Prozent korrekte Daten, um die geforderten Compliance-Anforderungen erfüllen zu können. Das bedeutet einen gewissen Aufwand, den man in anderen Bereichen möglicherweise nicht treiben muss. Im Marketing zum Beispiel genüge bei bestimmten Fragen eine Daten-Zielgenauigkeit von 80 Prozent.
Wichtig sei, an dieser Stelle sicherzustellen, wer sich um die Governance kümmert, und auch den Erfolg der Maßnahmen zu messen, rät der Gartner-Analyst. Schließlich gehe es darum, definierte Ziele zu erreichen, wie beispielsweise die Kundenabwanderung zu verringern oder den Umsatz zu steigern. "Die Validierung von Datenprozessen wird immer wichtiger", bilanziert Oestreich, "aber auch immer schwieriger." Zunehmend treffen Maschinen und Algorithmen Entscheidungen. Nutzer müssten darauf vertrauen, dass diese Helfer richtig liegen. "Die Welt der Kontrolle verändert sich hin zu einer Welt des Vertrauens."
BI-Markt im Wandel
Die Roadmaps der Anwenderunternehmen rund um Business Intelligence (BI) und Analytics werden sich in den kommenden Jahren drastisch verändern, sagt Neil Chandler, Research Vice President von Gartner: "Die Ära des Data Warehouse ist vorbei." Chandler zufolge gehe es in Zukunft darum, neue Dinge mit Daten auszuprobieren. Ziel dürfe allerdings nicht sein, bessere Data Lakes anzulegen. Vielmehr müsse stets im Fokus stehen, das eigene Geschäft voranzubringen.Mit dem Trend von der klassischen Reporting-BI hin zu Analytics-BI verändern sich die Fragen: Von "Was ist passiert?" über "Warum ist es passiert?" zu "Was wird passieren?" und "Wie können wir bestimmte Dinge eintreten lassen?"
Um auf diese Fragen zu antworten, steht den IT-Verantwortlichen allerdings kaum mehr Geld zur Verfügung. Die IT-Budgets haben sich laut Gartner nach dem drastischen Einbruch im Jahr 2009 kaum mehr erholt. In den zurückliegenden Jahren gab es nur marginale Steigerungen zwischen 0,2 und einem Prozent beziehungsweise leichte Rückgänge. Chandler sieht allerdings noch einen anderen Trend. Immer mehr Investitionen für Analytics-Werkzeuge kämen aus den Fachabteilungen. Der Analyst berichtet von einer Marketing-Abteilung aus Großbritannien, der etwa 50 Millionen Pfund pro Jahr für IT zur Verfügung stehen.