Erfolgreiche Unternehmen verstehen Information als eigenständigen Unternehmenswert und nutzen diesen möglichst effektiv. Die Basis einer solchen Nutzung bilden vier Säulen: Lebenszyklus, Qualität, Gesamtsicht sowie die AKV - eine konkrete Darstellung von Aufgaben, Kompetenzen und Verantwortlichkeiten. Als Fundament dafür ist jedoch erforderlich, die im Unternehmen vorhandenen Informationen solide zu bewerten. Ein modernes Datenmanagement sorgt dafür, dass diese die damit verbundenen Aufgaben sorgfältig geplant, aufgebaut, gepflegt und weiterentwickelt werden.
Der Unterschied zwischen einem erfolgreichen und einem weniger erfolgreichen Unternehmen lässt sich in 80 Prozent der Fälle damit begründen, wie Informationen als zentraler Treiber für die Leistungsfähigkeit der Firma genutzt werden. Laut dem "Information Opportunity Report" der Unternehmensberatung Capgemini kann die gezielte Nutzung von Informationen den operativen Gewinn um über ein Viertel steigern. Bessere Informationen führen zu Kostenersparnissen, verbessern die Erfüllung von Kundenerwartungen und steigern die Produktivität der Mitarbeiter. Außerdem helfen sie unternehmerische Risiken zu reduzieren, gesetzliche und rechtliche Verpflichtungen zu erfüllen. Doch damit nicht genug: Gute und vor allem die richtigen Informationen ermöglichen es auch, den eigenen Ruf zu schützen, Strategien der Konkurrenz zu erkennen, Markdynamiken zu erfassen sowie effektiver mit Partnern und Lieferanten zusammen zu arbeiten. Doch die wichtigste Voraussetzung, Informationen gewinnbringend zu nutzen, ist deren umfassendes Management - und dieses beginnt bereits bei der Bewertung.
Der Wert von Informationen
Jedes Unternehmen verwendet für seine Geschäftstätigkeit eine Vielzahl von externen und internen Informationen. Analysiert man die zugehörigen Systeme, Prozesse und Datenflüsse, so stellt sich in den meisten Fällen heraus, dass ein normales Unternehmen in der täglichen Arbeit zwischen 12 und 15 zentrale Informationsobjekte verwendet. Typischerweise sind dies beispielsweise Kunde, Produkt, Angebot, Bestellung, Rechnung oder die Organisationseinheit. Diese zentralen Informationen variieren je nach Branche und Größe des Unternehmens.
Die wichtigste Grundvoraussetzung für die Verwaltung von Informationen ist eine Bewertung der wirklich zentralen Objekte. Nur so kann ein Unternehmen zwischen wichtigen und weniger wichtigen Informationen unterscheiden und die internen Systeme und Richtlinien für Umgang und Verarbeitung der entsprechenden Informationen definieren. Obwohl es objektive, standardisierte Bewertungsansätze für Informationen gibt, wie beispielsweise die Informations-Produktivität, den taktischen Wert von Informationen, die Kosten fehlender Informationen bis hin zur Bilanzierung als Strukturwert gemäß IAS (International Accounting Standard) und BilMoG (Bilanzmodernisierungsgesetz), hat sich für einen effektiven Informationseinsatz in der Praxis eine subjektive - also unternehmensinterne - Bewertung am besten bewährt. Wichtig ist hierbei vor allem die Unterscheidung von:
kritischen Daten,
Performance-Daten,
wichtigen Daten,
sensiblen Daten und
nicht-kritischen Daten.
Kritische Daten sind Informationen, die für die wichtigen Geschäftsprozesse benötigt werden und deren Verlust zu einer operativen Katastrophe führen kann - sprich den unmittelbaren Stillstand der Geschäftstätigkeit zur Folge hätte. Außerdem gehören dazu Daten, die aus rechtlichen Gründen über einen längeren Zeitraum aufbewahrt werden müssen. Beispiele für solche Informationen sind die Kontodaten einer Bank, Verträge eines Rückversicherers, Bestelleingänge eines Versandhandels, Produktionsdaten eines Autoherstellers oder auch Daten für die Nachweispflicht korrekter steuerrelevanter Vermögensangaben beziehungsweise Krankenakten.
Bei Performance-Daten handelt es sich um Informationen, die für die Steuerung und die Planung eines Unternehmens relevant sind und deren Verlust oder ungewollte Veränderung zu einer unternehmerischen Katastrophe führen kann. Sie werden für das Tagesgeschäft verwendet und sind damit essentieller Teil des Business Know-hows eines jeden Unternehmens.
Nicht-Kritische und Sensible Daten sind entweder schnell wiederherzustellen oder können durch alternative Informationen ersetzt werden.
Eine Bewertung der 12 bis 15 zentralen Informationsobjekte bildet die Grundlage für alle anderen Maßnahmen. Diese Bewertung muss aus fachlicher Sicht erfolgen und sollte gut abgestimmt sein.
Säule 1: Der Lebenszyklus der Informationen
Die aktive Verwaltung von Daten über ihren gesamten Lebenszyklus hinweg umfasst die konkrete Umsetzung eines Regelwerks, das aus verschiedenen Methoden, Prozessen und Technologien besteht. Die Vorgaben bilden den eigentlichen Wert eines Informationsobjekts und regeln gleichzeitig gesetzliche Rahmenbedingungen und Aufbewahrungsfristen sowie Zugriffsrechte und Service Level Agreements (SLAs). Die eigentlichen Informationsobjekte sind so genannte Logische Units (LUNs). Zu diesen zählen unter anderem Datenträger, Dateien, Verzeichnisse, Datenbanken, Records und E-Mails.
In der Praxis haben sich dazu vierstufige Lebenszyklen bewährt: "verwendet", "analysiert", "archiviert" und "gelöscht". Als "verwendet" gelten Informationen, die im Rahmen der Unternehmenstätigkeit erzeugt, transportiert, verändert und genutzt werden - also in operativen Systemen vorgehalten werden. Werden sie nicht mehr geändert, jedoch noch für die Auswertung in so genannten Dispositiven Systemen verwendet, befinden sie sich im Lebenszyklus "Analysiert". Die Phasen "Archiviert" und "Gelöscht" erklären sich von selbst.
Entscheidend für die sinnvolle Verwaltung von Daten ist eine klare Definition von Regeln, die den Übergang zwischen den einzelnen Phasen ihres jeweiligen Lebenszyklus markieren. Diese beziehen sich auf einzelne Informationsobjekte und definieren unter anderem Aufbewahrungsfristen sowie Kritikalität. Entsprechend diesen Regeln sind die Informationssysteme auszulegen. Dies bedeutet im Klartext, dass kritische Unternehmensinformationen anders und sorgfältiger gespeichert, gesichert und archiviert werden als nicht-kritische.
- Big Data: Handlungsempfehlungen
Was sind die Hauptursachen für Fehlschläge? Und was kann das Projektteam dagegen unternehmen? - Big-Data-Vorhaben konsequent auf die Unternehmensstrategie ausrichten.
- Vollständigen Business Case mit Nachweis des Return on Investment erstellen.
- Detailliertes Pflichtenheft verfassen und pragmatischen Plan mit Reserven für Unvorhergesehenes ausarbeiten.
- Kommunikation zwischen allen Stakeholdern sicherstellen.
- Das System schrittweise einführen.
- Notwendiges Wissen vorab erwerben oder aufbauen.
Säule 2: Die Datenqualität
Die Datenqualität bildet die zweite Säule des klugen und effizienten Datenmanagements. Ziel ist es dabei, die notwendige Datenqualität zu gewährleisten, sodass die Informationen den Anforderungen der Geschäftsprozesse folgend in der entsprechender Güte aufbereitet und zur Verfügung gestellt werden können. Dabei ist klar zu definieren, zu welchem Zeitpunkt innerhalb des Geschäftsprozesses die Datenqualität zu messen ist, was genau zu erfassen ist und welche Schwellwerte dabei einzuhalten sind. Für die Messung der Datenqualität gibt es eine Vielzahl von verschiedenen methodischen Ansätzen - diese reichen von Total Quality Management (TQM) über Capability-Modelle bis hin zu Six Sigma und ISO 9000.
In der Praxis hat sich der Einsatz von so genannten Quality Gates - einem Messfühler für die Datenqualität in Prozessen - bewährt. Nach dieser Methode werden verschiedene Qualitätsattribute, wie beispielsweise Vollständigkeit, Relevanz, Genauigkeit beziehungsweise die Glaubhaftigkeit von Informationen gemessen und mit firmenspezifisch festgelegten Sollwerten verglichen. Die zulässigen Abweichungen von der "Ideallinie" sind dabei von der Bewertung der Information abhängig. Dabei gilt: Je wichtiger ein Informationsobjekt, desto exakter müssen die Qualitätsattribute innerhalb der besagten Quality Gates liegen.
Säule 3: Gesamtsicht auf Informationen und Informationsflüsse
Der Wert der zentralen Informationsobjekte, deren konkrete Phase im Lebenszyklus sowie deren Qualität lassen sich jedoch nur dann zielführend beurteilen und prüfen, wenn ein Unternehmen tatsächlich eine Gesamtsicht über sämtliche Prozesse, Daten und Informationssysteme hat. Entscheider müssen also genau wissen, welche Informationen vorhanden sind sowie wo und wie diese verwendet werden. Im Idealfall sind sämtliche Prozesse, Daten und Anwendungen zu diesem Zweck in einer Unternehmensarchitektur erfasst und in einem umfassenden Meta-Modell abgebildet.
Um den notwendigen Überblick zu erhalten, hat sich eine einfache Gegenüberstellung von Prozessen, zentralen Informationsobjekten und den wichtigsten Anwendungen bewährt. Diese drei Bausteine innerhalb einer Gesamtarchitektur zeigen, welcher Prozess und welche Anwendung welche Information wie verwendet. Wird diese Darstellung auf die externen Systeme eines Unternehmens ausgeweitet, entsteht ein Gesamtbild sämtlicher Schnittstellen und Datenflüsse. Kombiniert mit dem Wert eines bestimmten Informationsobjektes wird den Anwendern dabei schnell klar, wo die kritischen und empfindlichen Stellen in den Geschäftsprozessen und Anwendungen zu finden sind. Um gutes Datenmanagement auf Unternehmensebene umzusetzen, besteht oft auch an dieser Stelle in vielen Organisationen Konkretisierungsbedarf.
Säule 4: Die organisatorische Verankerung
Der Erfolg von Initiativen rund um Bewertung, Lebenszyklus, Qualitätsmaßnahmen und Gesamtsicht von Informationen bleibt überschaubar, wenn die Verantwortlichen nicht dafür Sorge tragen, dass diese Maßnahmen kontinuierlich verbessert werden. Doch dies ist nur dann möglich, wenn das Datenmanagement in einem Unternehmen organisatorisch verankert wird. Eine solche Organisation regelt Zuständigkeiten, Verantwortungen und Aufgaben auf jeder Ebene.
Beispielsweise ist ein Information Manager für ein bestimmtes Informationsobjekt auf fachlicher Ebene zuständig. Sein technisches Gegenüber - zuständig für eine gute Umsetzung - ist der Information Architekt. Gesteuert werden sämtliche organisatorischen Tätigkeit im Rahmen des Datenmanagements durch ein Data Management Board, welches für Umsetzung und Weiterentwicklung der notwendigen Maßnahmen auf Unternehmensebene zuständig ist. Dieses Team bewilligt entsprechende Projekte, ernennt zuständige Personen auf fachlicher und technischer Ebene und trägt gegenüber der Unternehmensleitung die Verantwortung.
Fazit: Auf dem Weg zur Datability
Datability im Sinne einer verantwortungsvollen und nachhaltigen Nutzung von Daten im Unternehmen ist nur dann erfolgreich, wenn auch die dafür erforderliche Basis vorhanden ist. Die große Mehrheit der Unternehmen ist deshalb gut beraten, über ein gezieltes Datenmanagement nachzudenken. Dieses sollte die zentralen Informationsobjekte eines Unternehmens durchgehend bewerten und ihrem Lebenszyklus entsprechend verwalten. Zudem müssen die Informationen in der notwendigen Qualität zur richtigen Zeit am richtigen Ort und in der richtigen Form zur Verfügung stehen. Dazu sind jedoch eine Gesamtsicht auf sämtliche Prozesse, Anwendungen und Informationsobjekte sowie eine vernünftige organisatorische Unterstützung im Unternehmen notwendig.
Ist diese Sicht einmal vorhanden, können Alltagsprobleme beim täglichen Umgang mit Informationen verhindert sowie organisatorische oder technische Hindernisse schnell aus dem Weg geräumt werden. Ausgestattet mit einem effizienten Datenmanagement sind Unternehmen jeder Größe in der Lage, vorhandene Informationen gewinnbringend zu nutzen und sind optimal auf künftige Herausforderungen von Big Data vorbereitet. (ba/sh)
- Best in Big Data 2013 - Die Finalisten
Die COMPUTERWOCHE kürt zum zweiten Mal die besten Big-Data-Projekte und -Tools. Am 24. September stellen sich die Anbieter der Jury und dem Publikum. Lesen Sie auf den folgenden Seiten, welche Teilnehmer in den Ring treten. - Actuate: BIRT Analytics
Actuate geht mit „BIRT Analytics“, einem Tool für Big-Data- Analytics, Visual Data Mining und Predictive Analytics, an den Start. Das Werkzeug enthält neben den Analysefunktionen ein integriertes Workflowund Kampangen-Management. - Berliner Morgenpost: Flugrouten-Radar
Die „Berliner Morgenpost“ hat eine interaktive Datenjournalismus- Anwendung umgesetzt, die Informationen zu Flügen sowie Flugspurdaten rund um die Hauptstadt auswerten und visualisieren kann. - Clueda "News Analytics" - Lotse durch den Informationsstau im Handelsraum
Nachrichten treiben Börsen. Deshalb müssen Börsenhändler in der Lage sein, in kürzester Zeit die Tragweite einer Nachricht zu verstehen und Entscheidungen zu treffen. Die Münchner Big-Analytics-Spezialisten der Clueda AG haben gemeinsam mit ihrem Kunden, der Baader Bank AG, ein Analyse-System entwickelt, das aus großen unstrukturierten Textmengen alle relevanten Informationen und Stimmungen in Echtzeit herausfiltert und so die Handelsentscheidung erleichtert. - Delphit: Social Forecast
Delphit schickt sein Tool „Social Forecast“ ins Rennen um die diesjährigen Best-in-Big-Data- Awards. Das Werkzeug erstellt quantitative Prognosen auf Basis von Mitarbeitereinschätzungen, um Entscheidungen in Unternehmen zu unterstützen. - Empolis Competitive Intelligence hört auch die schwachen Signale
Um im Wettbewerb zu bestehen, müssen Unternehmen der Konkurrenz immer einen Schritt voraus sein. Empolis hat mit "Competitive Intelligence" ein Tool entwickelt, das mittels semantischer Technologien große Mengen an unstrukturierten Daten automatisch analysiert und dabei auch die entscheidenden "schwachen Signale" ermittelt. - HP Big Data Discovery Experience - Big Data richtig pilotieren, validieren und umsetzen
Hewlett-Packard unterstützt mit "HP Big Data Discovery Experience" Anwender dabei, einen Business Case für Big-Data-Projekte zu rechnen sowie Pilotumgebungen zügig produktiv zu setzen. - hfp Informationssysteme GmbH: hfp openAnalyzer
Der „openAnalyzer“ von hfp stellt eine Datenanalyse-Plattform dar, die App-basiert strukturierte und unstrukturierte Daten einlesen, verarbeiten und wieder ausgeben kann. - IBM Infosphere Streams filtert Datenströme in Echtzeit
Um Daten effizient analysieren und nutzen zu können, benötigen die Unternehmen heute neue Methoden und Werkzeuge. IBM hat mit "Infosphere Streams" ein Tool entwickelt, das Daten in Echtzeit analysieren kann, ohne dass diese gespeichert werden müssen. - Michulke & Ringsdorf: INTTRA
Mit „INTTRA“ wendet Michulke & Ringsdorf sein System künstlicher Intelligenzen auf den europäischen Energiemarkt an. Dort wird aufgrund der immer stärkeren Integration unstet produzierender Energieträger wie Sonne und Wind die Planung von Angebot und Nachfrage an Strom für Energiehändler, Übertragungsnetzbetreiber und Kraftwerksbetreiber immer schwieriger. - Mindbreeze: InSpire
Mindbreeze bietet „InSpire“ als vorkonfigurierte, aufeinander abgestimmte Komplettlösung aus Hardware-Appliance und Softwarepaket an – für eine schnelle und umfangreiche Suche in allen Unternehmensdatenquellen. - n3 data & software science: Immobilien bewerten
ImmobilienScout24 bietet für seine Kunden neben der Vermarktung auch ein Online-Immobilienbewertungssystem an. Ein großer Teil der Metadaten der darin enthaltenen Objekte – wie etwa Baujahr, Baustil oder Heizanlage – liegt allerdings in Form von Fließtext in unstrukturierten Freitextfeldern vor und ist damit nur schwierig zu verarbeiten. - Pentaho Business Analytics ordnet Sounds im Netz
Über 200 Millionen Musiker stellen ihre Stücke in die SoundCloud. Um diese Daten sinnvoll zu sortieren und zu ordnen benötigten die Betreiber effiziente und leistungsstarke Big-Data-Werkzeuge. Mit Pentaho Business Analytics kann SoundCloud gezielter auf Wünsche und Anforderungen seiner Nutzer eingehen. - r4apps: PerForm
r4apps verspricht Anwendern mit „PerForm“ schnelle, interaktive Analysen von massiven strukturierten und unstrukturierten Daten. - Splunk holt die Informationen aus den Maschinendaten
Um Betrieb und Geschäft möglichst effizient zu betreiben, müssen Unternehmen aus ihren Maschinendaten alle wichtigen Informationen herausholen. Splunk bietet mit "Splunk Enterprise" eine Lösung, die sich flexibel konfigurieren und anpassen lässt, um Daten zu erfassen, auszuwerten und darzustellen. - Synop Systems: Synop Analyzer
Mit dem „Synop Analyzer“ bietet Synop Systems eine modular aufgebaute Big-Data-Analysesoftware an, mit der Fachanwender und Data-Mining-Experten interaktiv Zusammenhänge und versteckte Muster entdecken sowie Prognosen erstellen können. - Tableau Software: Tableau Desktop und Server
Die hohe Kunst von Big Data heißt für die Anwender, viele unterschiedliche Daten aus verschiedenen Quellen in den Griff zu bekommen sowie in diesem komplexen Zusammenspiel auch noch den Durchblick zu behalten und zudem die richtigen Schlüsse zu ziehen. - Talend Open Studio verbindet Big-Data-Quelle und -Ziel
Mit Open Studio for Big Data bietet Talend Anwendern ein grafisches Tool, mit dessen Hilfe sich der Austausch von Big Data zwischen beliebigen Quellen und Zielen einfach konfigurieren lässt. - VMS AG: SCOOP
Die VMS AG bringt mit „SCOOP“ ein Big-Data-Werkzeug für Predictive Operational Analytics zum diesjährigen Best-in-Big- Data-Award an den Start. SCOOP steht für „Seeking Cash Opportunities in Operational Processes“.