Das Interesse an Big Data ist enorm und wird durch die Digitalisierung von Prozessen und des Datenaustauschs zwischen Menschen, IT-Systemen und Geräten sowie zwischen Geräten untereinander weiter gesteigert (Stichwort "Internet of Things" IoT). Überall entstehen laufend Daten, die neue Informationen für neue Use Cases und Produkte bergen können. Kaum ein Tag, an dem nicht über neue Möglichkeiten und Herausforderungen im Zusammenhang mit der Erfassung, Speicherung und Analyse großer, polystrukturierter Datenmengen (Big Data) diskutiert wird.
Weniger thematisiert wird dabei indes, wie sich die Nutzung von Big Data zur bisherigen Business Intelligence(BI) verhält. Doch gerade BI-Organisationen müssen angesichts der hohen Investitionen der vergangenen Jahre und des dabei aufgebauten BI-Know-hows wissen, was dieser Trend für ihre künftige Arbeit bedeutet. Sind beispielsweise massive organisatorische und technische Veränderungen nötig, um Big Data und neue Analysetechniken einzubeziehen? Läuft es auf eine Koexistenz von Big-Data-Umgebungen und klassischen BI-Systeme hinaus, können sich beide Welten befruchten oder ist das Ergebnis gar eine Verdrängung vorhandener Systeme?
Data Warehouse meets Advanced Analytics
Um es vorweg zu nehmen: aus der Beratungs-und Projektpraxis können wir sagen, dass Business Intelligence mit seinen typischen Disziplinen Reporting und Analyse heute wichtiger denn je ist, um Unternehmen zu steuern und das Geschäft vorausschauend zu planen. Die typische, allen vertraute BI-Architektur, in deren Mittelpunkt das Data Warehouse (mit seinen Schichten "Staging Area", Cleansing", "Core", "Data Mart") steht und auf das dann BI-Frontends zugreifen, wird uns noch lange begleiten.
Doch das Datenmanagement im Unternehmen muss sich weiterentwickeln beziehungsweise erweitert werden, um neben BI auch die Nutzung von Big Data und Advanced Analytics durchgängig zu unterstützen. So sind traditionell für Business Intelligence Szenarien üblich, für die tägliche oder mehrfach am Tag erfolgende Datenaktualisierungen genügen und in denen es vor allem um das Beladen vergleichsweise überschaubarer, historisierter Datenmengen und die Abfrage auf neuen (transaktionalen, strukturierten/modellierten) Daten geht. Typische Anwendungen fallen in den Bereich des bisherigen Reportings und der Analyse (OLAP) in Fachbereichen wie Finanzen, Vertrieb, Personal, Marketing, IT oder Einkauf sowie der Unternehmensplanung.
Typische Anforderungen an Big-Data-Analytics-Umgebungen sind hingegen eine Datenaktualisierung in Echtzeit/Near Realtime/Batch, verbunden mit der hochparallelen Datenverarbeitung auch großer Datenmengen gegebenenfalls per "Streaming" sowie die für Analytics typischen "fortgeschrittenen" Analysen (statistische Verfahren, Methoden des Data Mining, Textmining). Business-Intelligence-Umgebungen sind für derartige Anforderungen im Datenmanagement und die Analyse polystrukturierter Daten nicht geeignet, aber auch nie konzipiert worden.
Polystrukturierte Daten nutzen
Zugleich nimmt mit der Nutzung von Big Data nicht nur die Geschwindigkeit, sondern auch die Vielfalt der Datenquellen und -formate zu. So gewinnen künftig neben den bisherigen in der Business Intelligence vorwiegend genutzten Datenquellen (ERP,CRM etc.) beispielsweise Sensor- und Social-Media-Daten, Textdokumente, Statistisches Material, Geoinformationen oder Daten aus der Forschung künftig an Bedeutung (siehe Abbildung). Werden solche vielfältigen Daten gezielt analysiert, können sie nicht nur neue Use Cases ermöglichen, sondern auch die traditionelle BI-Domäne bereichern. Gerade im Finanzbereich besteht die Notwendigkeit, zusätzliche Geschäfts- und Marktinformationen in die Planung und Risikoanalyse einzubeziehen. Marketing und Vertrieb können durch die Anreicherung ihrer Kunden- und Auftragsdaten beispielsweise durch Churn-Analysen, eine Kundensegmentierung oder Analysen von Web-Logs um wichtige Informationen anreichern, um Portfolio und Preise zu optimieren.