Kaum ein Unternehmen kann es sich heute noch leisten, auf Analytics zu verzichten. Immer dynamischere Märkte und zahlreiche Risiken zwingen die Verantwortlichen, ihre Entscheidungen mehr denn je auf der Basis aktueller und qualitativ verlässlicher Geschäftsdaten zu treffen. Tun sie das nicht, drohen Fehlentscheidungen und in der Folge wirtschaftliche Nachteile. Viele Unternehmen haben daher in den vergangenen Jahren in Systeme für Business Intelligence (BI) investiert und entsprechende Teams und Abteilungen aufgebaut. Das Ziel: Geschäftsinformationen besser erfassen und analysieren.
Wichtige Datenquellen bleiben verschlossen
Soweit die Theorie. Zwar sind BI-Tools heute in der Regel leichter zu bedienen, skalieren besser und sind leistungsfähiger als in früheren Versionen. Doch diese Fortschritte auf Anbieterseite können nicht darüber hinwegtäuschen, dass auf Anwenderseite vielerorts noch eine BI-Strategie fehlt, Prozesse unzureichend organisiert sind oder schlichtweg die Firmenpolitik eine breitere Nutzung von Business Intelligence behindert.
Auch der Zugriff auf Daten bleibt meist beschränkt. Die zeigte kürzlich die Anwenderbefragung "Time is Money. Wie schnell erhalten Entscheider kritische Kennzahlen?" des Business Application Research Center (BARC) aus Würzburg. An der vom Anbieter Tableau gesponserten Untersuchung erklärten gerade einmal elf Prozent der 270 befragten Firmenvertreter aus Deutschland, Österreich und der Schweiz, tatsächlich auf alle neuen Datenquellen zugreifen zu können, die sie für ihre Analysen benötigen. Vor allem extern zugelieferte Daten (48 Prozent) gefolgt von Social-Media-Daten (35 Prozent), extern liegenden Daten (34 Prozent) und weitere in den Fachabteilungen erfasste Daten (32 Prozent) sind bei weitem nicht überall verfügbar.
Über die Hälfte der Unternehmensvertreter sieht daher großen Nachholbedarf - vor allem für drei Aspekte:
Informationsquellen können zum aktuellen Zeitpunkt noch nicht schnell und einfach integriert werden (60 Prozent),
das Berichtswesen passt sich nicht schnell genug an die Änderungen des Marktes an (57 Prozent) und
die Möglichkeit, jederzeit individuelle Analysen vornehmen zu können, bleibt begrenzt (53 Prozent).
Die Ursachen für die vielerorts unbefriedigende Situation, Informationen passgenau bereitstellen zu können, sehen die Befragten in einer unklaren Anforderungsdefinition (47 Prozent), gefolgt von mangelnden Ressourcen im Fachbereich (38 Prozent), sowie einer Überlastung der IT (35 Prozent).
- 10. Neue Technologien
Es gibt eine Reihe neuer Technologien im Ökosystem der Business Intelligence. Mit ihrer Markteinführung werden auch Lücken sichtbar, die es noch zu füllen gilt. Neu gegründete Unternehmen werden genau das tun. Hadoop-Beschleuniger, NoSQL-Datenintegration, Integration von Daten des Internet der Dinge, verbesserte Social-Media - alles Ansatzpunkte für neue Start-Ups. In 2016 werden wir den Aufstieg dieser „Lückenfüller“ und damit einhergehend eine Konsolidierung des Marktes beobachten können. Unternehmen werden sich zunehmend vom Ansatz der Einzellösung verabschieden und auf einen offenes und flexibles Arsenal setzen, das neue Technologien beinhaltet. - 9. Daten aus dem Internet der Dinge
Das Internet der Dinge (IoT) schickt sich an, 2016 den Mainstream zu erobern. Es scheint so, als hätte bald alles einen Sensor, der nach Hause telefoniert. Man muss sich nur die Masse an Daten vorstellen, die von Mobilgeräten rund um die Uhr erzeugt werden. Mit dem Wachstum des IoT-Datenbestands steigt auch das Potenzial für neue Erkenntnisse. Firmen werden nach Mitteln und Wegen suchen, Anwender Daten erforschen und ihre Ergebnisse teilen zu lassen - und das auf sichere, geregelte und interaktive Art und Weise. - 8. Mobile Analytik-Lösungen werden eigenständig
Die Mobile Analytik ist erwachsen geworden. Sie ist nicht länger nur eine Schnittstelle der herkömmlichen Business-Intelligence-Produkte. In 2015 kamen Produkte auf den Markt, die eine fließende, auf Mobilgeräte optimierte Benutzererfahrung boten. Unterwegs mit Daten zu arbeiten wird von einer lästigen Pflicht zu einem dynamisch integrierten Teil des Analyseprozesses. - 7. Kompetenzzentren für Analytik spielen zentrale Rolle
Immer mehr Unternehmen werden Kompetenzzentren (CoE) einrichten, um die Verbreitung und Implementierung von Self-Service-Analytik zu fördern. Diese Zentren spielen eine kritische Rolle bei der Umsetzung einer datengesteuerten Unternehmenskultur. Durch Online-Foren und Einzeltraining versetzen sie auch Nicht-Experten in die Lage, Daten in ihre Entscheidungsprozesse einzubinden. Mit der Zeit führt dies dazu, dass sich die Arbeitsabläufe im gesamten Unternehmen auf Daten stützen und an ihnen orientieren. - 6. Cloud-Daten und -Analytics starten durch
2015 war das Jahr, in dem die Cloud salonfähig wurde. Die Unternehmen merkten, dass die Speicherung von Daten in der Cloud einfach und sehr gut skalierbar ist; und dass man mit Cloud-Analytik sehr agil ist. Nicht zuletzt dank neuer Tools, die es einfacher machen Daten aus dem Web zu verwenden, werden 2016 noch mehr Unternehmen in die Cloud wandern. Die Early Adopter lernen jetzt schon von diesen Daten, und alle anderen stellen fest, dass sie besser nachziehen sollten. Mehr Unternehmen werden dank der Cloud größere Datenmengen schneller analysieren - die Cloud etabliert sich als unternehmenskritisches System. - 5. Advanced Analytics nicht mehr nur für Analysten
Auch die Nicht-Analysten werden immer anspruchsvoller. Sie erwarten mehr als nur ein Diagramm, das auf ihren Daten aufsetzt, sondern tiefer gehende und sinnvolle analytische Möglichkeiten. Unternehmen werden Plattformen implementieren, mit denen Anwender statistische Methoden anwenden, eine Reihe von Fragen stellen und im Fluss ihrer Analyse bleiben können. - 4. Datenintegration wird agiler
Viele Firmen verlangen heutzutage sehr viel Agilität im Controlling. Sie wollen den richtigen Mitarbeitern die richtigen Daten zur richtigen Zeit liefern. Das ist keine Kleinigkeit, da Daten an vielen verschiedenen Orten generiert und gespeichert werden. Datenquellenübergreifend zu arbeiten kann mühsam, unmöglich, oder beides zugleich sein. 2016 werden wir viele neue Wettbewerber mit Lösungen zur Datenintegration sehen. Dank ausgeklügelter Werkzeuge und ständig neu hinzukommenden Datenquellen werden Firmen sich davon verabschieden, alle Daten an ein und demselben Ort speichern zu wollen. Wer Daten erforschen will, wird dort auf die einzelnen Datensätze zugreifen, wo sie sich befinden und sie mit agileren Werkzeugen und Methoden kombinieren, verschmelzen oder verknüpfen. - 3. Demokratisierung der Daten-Wertschöpfungskette
Self-Service Analytikwerkzeuge haben unsere Erwartungshaltung für immer verändert. In 2016 werden Nutzer eine Wertschöpfung aus dem gesamten Lebenszyklus von Daten anstreben, insbesondere durch den Eintritt der Milleniums-Generation in den Arbeitsmarkt. Für sich wiederholende Aufgabenstellungen müssen Geschäftsanwender bestimmte Daten spontan umformen können. Dementsprechend wird als natürliche Folge von Self-Service-Analytik die Nachfrage nach Self-Service-Tools zur Datenaufbereitung und Self-Service Data-Warehousing steigen. Diese Demokratisierung wird es uns ermöglichen, schnell auf Prioritätenwechsel zu reagieren. - 2. Visuelle Statistik wird zur Weltsprache
Daten verändern den Diskurs in Chefetagen, den Medien und in sozialen Netzwerken. Menschen visualisieren ihre Daten, um Antworten auf Fragen zu suchen, Erkenntnisse zu gewinnen und ihre Geschichten mit anderen zu teilen, egal ob diese Datenexperten sind oder nicht. Mit dem Anstieg der Nutzung von Daten wird auch die Zahl der Anwender steigen, die geschäftliche oder persönliche Fragestellungen mithilfe von Daten beantworten. Arbeitgeber werden verstärkt nach Kandidaten suchen, die in der Lage sind, sich kritisch mit Daten auseinanderzusetzen. Die visuelle Analytik wird dabei als die gemeinsame Sprache dienen, mit der Menschen schnell zu Erkenntnissen gelangen, sinnvoll zusammenzuarbeiten und eine Community auf der Grundlage von Daten aufbauen können. - 1. Governance & Self-Service-BI werden beste Freunde
Viele sehen Governance und Self-Service als natürliche Feinde an. Deshalb dürften auch Viele überrascht sein, die beiden friedlich nebeneinander grasen zu sehen. Es wächst zusammen, was zusammen gehört: die kulturelle Kluft zwischen Business und IT schließt sich. Die Unternehmen haben verstanden, dass richtig auf- und eingesetzte Sicherheit eine analytische Unternehmenskultur fördern und die Anforderungen der Business-Abteilungen erfüllen kann. Man setzt sich schließlich viel eher intensiv mit seinen Daten auseinander, wenn man zentrale, bereinigte Datenquellen zur Verfügung hat und weiß, dass sich jemand (IT) um Sicherheit und Performance kümmert.
Nicht einmal jede zweite Entscheidung werde derzeit auf Basis von validen Daten gefällt (44 Prozent der Befragten), sondern beruht stattdessen auf dem Bauchgefühl der Nutzer (56 Prozent), lautet das ernüchternde Fazit der Studie. Das muss zwar nicht immer verkehrt sein, zeigt aber auch, dass viele Unternehmen heute noch weit entfernt sind von der Idee eines "datengetriebenen Unternehmens". Die oft bemühte Behauptung, man verstehe Information heute als ein "Asset", klingt so mehr wie ein bloßes Lippenbekenntnis.
Self-Service liegt im Trend
In dieser Situation verwundert es nicht, dass vor allem Fachanwender es zunehmend satt haben, darauf zu warten, dass ihnen die IT-Abteilung die gewünschten Reports oder Dashboards zeitnah erstellt beziehungsweise bei der Anbindung und Bereitstellung von entscheidungsrelevanten Daten hilft. Das Zauberwort heißt daher seit einigen Jahren "Self-Service Business Intelligence" (SSBI) und findet sich mittlerweile in vielen Projektanforderungen von BI-Initiativen wieder. Gemeint ist damit, Nutzern mehr Möglichkeiten und Freiheiten an die Hand zu geben, sich selbständig Geschäftsinformationen beschaffen sowie diese aufbereiten und auswerten zu können.
Langwierige Prozesse, beginnend bei der Anforderungsdefinition, über die Kommunikation mit dem Berichtsersteller bis hin zur Abnahme - und das Ganze möglicherweise sogar mit mehreren Durchläufen - könnten sich dank "Self-Service" weitgehend vermeiden lassen, lautet das Versprechen. Befördert wird dieser Ansatz auch dadurch, dass in vielen Unternehmen das Management heute eine stärkere Verlagerung von Entscheidungen in die lokalen Organisationen und Teams fordert, um schneller auf Änderungen und Ereignisse in den täglichen Abläufen reagieren zu können.
- Big Data Governance
NTT untersucht in der Studie "Big Data Governance - eine Reifegrad-Analyse in Deutschland" Big Data-Projekte aus 37 Unternehmen. Es geht dabei um so unterschiedliche Branchen wie Automobil, IT und Banken. - Erreichen der Ziele
Geld spielt eine Rolle: Unternehmen, die mindestens 20 Prozent ihres IT Budgets für Big Data aufwenden, sind erfolgreicher in der Umsetzung von Big Data Projekten. - Technik am wichtigsten
Es hängt an der Technik: die technische Expertise halten die Unternehmen für den wichtigsten Erfolgsfaktor bei Big Data-Projekten. - Risiko Datenschutz
Datenschutz und Compliance gelten als größte Risiken bei der Anwendung von Big Data. - Erfolgsfaktor Integration
Je besser Big Data in die Informationsarchitektur integriert ist, umso höher die Chance, alle Ziele zu erreichen. - Aufgaben von Big Data Governance
Die Befragten erwarten von Big Data Governance vor allem die Bereitstellung von organisatorischen Strukturen, Richtlinien, Prozessen und Standards.
Im Zuge des Self-Service-Trends ist neuerdings auch immer häufiger von "Self Service Data Integration" (SSDI) die Rede. Der Umfrage zufolge wird dieser Lösungsansatz derzeit von Anwendern am häufigsten für eine effektivere Nutzung von BI-Software nachgefragt, insbesondere dann, wenn man sich kürzere Bereitstellungszeiten erhofft (64 Prozent). Allerdings bleiben die Erfahrungen aus der Praxis derzeit noch hinter den Erwartungen zurück. So klagen in der BARC-Studie fast ein Viertel der Befragten darüber, dass die Bereitstellungszeiten trotz aller Bemühungen weiterhin inakzeptabel seien. Dies mag daran liegen, dass die benötigten Daten nicht rechtzeitig vorliegen oder die eigenen Skills nicht ausreichen, um in akzeptabler Zeit die benötigten Reports und Dashboards in der erwarteten Qualität selbst zu erzeugen. Das Thema Datendefinitionen und Datenqualität darf daher nicht vernachlässigt werden. Vor allem die Fachbereiche sind hier gefordert, denn Datenqualität ist kein originäres IT-Problem. Was nützt das schönste Dashboard - elegant im Self-Service-Verfahren erzeugt - wenn es mit den falschen Daten arbeitet?
SSBI muss Teil einer BI-Strategie sein
Außerdem müssen sich Fachbereiche und IT-Abteilungen bei der Einführung von Self-Service-BI darüber im Klaren sein, dass es wenig zielführend ist, einfach einen BI-Selbstbedienungsladen im Unternehmen zu eröffnen. So läuft man Gefahr, die gleichen Datenqualitätsprobleme zu erzeugen, die schon vom unkontrollierten Spreadsheet-Wildwuchs bekannt sind.
Daher lautet die klare Empfehlung der BARC-Analysten, das SSBI-Nutzungskonzept immer im Rahmen einer definierten BI-Strategie anzugehen, basierend auf werthaltigen Use Cases und einer einheitlichen BI-Governance. Dazu gehört auch, Mitarbeiter im Fachbereich für Self Service zu schulen und eine gemeinsame Organisationseinheit für BI schaffen, um so eine nachhaltige Verbesserung und den breiteren Einsatz von BI zu fördern. (ba)