Jedes Unternehmen benötigt eine Datenstrategie, die Technologien, Prozesse, Mitarbeiter und Regeln definiert, um Daten-Assets sicher zu managen. Wie fast alles im IT-Bereich sollte aber auch eine Data Strategy im Laufe der Zeit weiterentwickelt werden, um mit Technologien, Kunden, Märkten, Geschäftsanforderungen, Regularien und einer schier endlosen Zahl anderer Prioritäten Schritt zu halten. Die folgenden sieben wichtigen Trends in Sachen Datenstrategie sollten Sie mit Blick auf die Zukunft verinnerlichen.
7 Datenstrategie-Trends für Unternehmen
Diese Data-Strategy-Trends werden sich nachhaltig auf die Strategien im Unternehmensumfeld auswirken:
1. Realtime wird real
Lan Guan, Global Data and AI Lead bei Accenture, rät CIOs dazu, ihre Investment-Strategien darauf auszurichten, die wachsende Menge an komplexen Echtzeitdaten zu bewältigen, mit denen Unternehmen immer häufiger konfrontiert sind. Die Chef-Beraterin ist davon überzeugt, dass es in der heutigen Geschäftswelt obligatorisch ist, Daten nutzen zu können: "Unique Erkenntnisse, die aus den Daten gewonnen werden, stellen einen Wettbewerbsvorteil dar, den die Konkurrenz nicht so leicht kopieren kann. Wenn diese Fähigkeit fehlt, verlieren Unternehmen den Anschluss und verpassen viele neue Möglichkeiten durch die Fortschritte bei der Datenanalyse."
Der nächste Schritt in der Datenstrategie sollte laut Guan darin bestehen, in Künstliche Intelligenz und maschinelles Lernen zu investieren und die Technologie zu nutzen, um mehr Wert aus den Daten zu schöpfen: "Initiativen wie die automatisierte Predictive Maintenance oder Workforce-Optimierung anhand von Betriebsdaten sind nur zwei von vielen Möglichkeiten, die durch die Kombination einer erfolgreichen Datenstrategie und Künstlicher Intelligenz möglich werden."
2. Interner Datenzugriff im Fokus
CIOs und Datenentscheider sehen sich mit einer wachsenden Nachfrage nach internem Datenzugriff konfrontiert, stellt Dinesh Nirmal, General Manager für KI und Automatisierung bei IBM Data, fest: "Daten werden nicht mehr nur von Analysten und Datenwissenschaftlern genutzt. Jeder im Unternehmen - vom Vertrieb über das Marketing und die Personalabteilung bis hin zum operativen Geschäft - braucht Zugang zu Daten, um bessere Entscheidungen treffen zu können."
Die Kehrseite der Medaille sei, dass es immer schwieriger werde, einfachen Zugriff auf aktuelle und relevante Daten bereitzustellen, so der IBM-Datenexperte: "Trotz massiver Investitionen ist die Datenlandschaft in Unternehmen immer noch übermäßig komplex und über mehrere Clouds, Anwendungen, Standorte, Umgebungen und Anbieter verteilt."
Infolgedessen suchten immer mehr IT-Führungskräfte nach Datenstrategien, die es ihnen ermöglichten, die riesigen, heterogenen, in Silos befindlichen Datenmengen zu managen, ohne dabei neue Risiken oder Compliance-Probleme zu schaffen: "Während der Bedarf an internem Datenzugriff steigt, müssen CIOs auch mit den sich rasant entwickelnden Regulierungs- und Compliance-Maßnahmen Schritt halten - etwa dem EU Artificial Intelligence Act oder dem White House Blueprint for an AI Bill of Rights."
3. Externer Datenaustausch wird strategisch
Nach der Beobachtung von Mike Bechtel, Chief Futurist bei Deloitte, wird der Datenaustausch zwischen Geschäftspartnern immer einfacher und kooperativer: "Mit der sinnvollen Einführung von Cloud-nativen Data Warehouses und angrenzenden Data-Insights-Plattformen sehen wir interessante Anwendungsfälle, die Unternehmen in die Lage versetzen, ihre Daten mit denen ihrer Geschäftspartner zu verflechten, um völlig neue, vermarktbare, digitale Assets zu schaffen."
Wenn es um die gemeinsame Nutzung externer Daten geht, prophezeiht Bechtel einen bevorstehenden Umbruch: "Jahrelang wurde in den Vorstandsetagen und den Serverräumen gleichermaßen abstrakt über den Wert all dieser Daten gesprochen. Aber die Geeks unter uns wissen schon lange, dass es mehr braucht, um diese Daten zu monetarisieren: Unternehmen können über Petabytes interessanter Daten verfügen - werden damit aber nicht viel anfangen können, wenn diese in einem On-Premises-Warehouse vor sich hin schimmeln."
4. Data Fabric und Data Mesh im Kommen
"Viele Unternehmen nutzen immer noch Legacy-Lösungen, alte und neue Technologien, geerbte Richtlinien, Prozesse, Verfahren oder Ansätze und kämpfen damit, all das in einer neuen Architektur zusammenzubringen, die mehr Agilität und Geschwindigkeit ermöglicht", analysiert Paola Saibene, Principal Consultant bei der IT-Beratung Resultant. An dieser Stelle könnten Data-Fabric- und Data-Mesh-Technologien dabei unterstützen, den maximalen Wert aus allen Elementen des Tech-Stacks auf praktische und nutzbare Art und Weise herauszuholen.
Data Meshs ermöglicht es einem Unternehmen, die Informationen und Erkenntnisse, die es benötigt, aus der aktuellen Umgebung zu ziehen, ohne diese radikal verändern oder massiv stören zu müssen, wie Saibene erklärt: "Auf diese Weise können CIOs die Vorteile der Tools nutzen, die sie bereits haben, aber eine zusätzliche Schicht hinzufügen, um all diese Ressourcen auf moderne und schnelle Weise zu nutzen."
Eine Data-Fabric-Architektur ermöglicht die End-to-End-Integration verschiedener Daten-Pipelines und Cloud-Umgebungen durch den Einsatz intelligenter und automatisierter Systeme. Die Data Fabric ist nach Einschätzung der Beraterin insbesondere auf der Ebene der aktiven Metadaten wichtig: "Interoperabilitätsagenten lassen es so aussehen, als ob alles unglaublich gut miteinander verbunden ist und absichtlich so gestaltet wurde. So können Sie alle erforderlichen Erkenntnisse gewinnen, ohne Ihre Umgebung überarbeiten zu müssen."
5. Observability wird geschäftskritisch
Data Observability erweitert das Konzept der Datenqualität und überwacht detailliert den ein- und ausgehenden Datenfluss von Applikationen. Laut Andy Petrella, Gründer des Observability-Anbieters Kensu und Autor von "Fundamentals of Data Observability", bietet dieser Ansatz geschäftskritische Insights in Anwendungsinformationen, Schemata, Metriken und die Herkunft der Daten.
Ein wesentliches Merkmal der Data Observability sei dabei, dass sie auf Metadaten beruhe und eine sichere Möglichkeit biete, Daten direkt in den Anwendungen zu monitoren. Sobald sensible Daten die Pipeline verließen, würden sie von einem Data Observability Agent erfasst, erklärt Petrella. "Dank dieser Informationen können Datenteams Probleme schneller beheben und deren Ausbreitung verhindern. Das senkt die Wartungskosten, stellt das Vertrauen in die Daten wieder her und steigert die Wertschöpfung aus den Daten."
Data Observability schaffe dabei eine völlig neue Lösungskategorie, meint der Autuor und empfiehlt: "CIOs sollten zunächst die verschiedenen Observability-Ansätze und die Unterschiede zum Qualitätsmanagement verstehen. Anschließend sollten sie die Stakeholder in ihrem Datenteam ermitteln, die dafür verantwortlich sind, die Technologie zu implementieren."
Unternehmen, die unfähig seien, die Datenqualität zu verbessern, würden sehr wahrscheinlich die Produktivität ihrer Datenteams beeinträchtigen und mit schwindendem Vertrauen in die Daten über die gesamte Datenkette hinweg zu kämpfen haben, meint Petrella und fügt hinzu: "Langfristig könnte das die Datenaktivitäten in den Hintergrund drängen, was sich auf die Wettbewerbsfähigkeit des Unternehmens und letztlich auf den Umsatz auswirkt."
Gregg Ostrowski, Executive CTO von Cisco AppDynamics, pflichtet bei: "Aus Sicht der Datenstrategie ist der größte Trend die Notwendigkeit für IT-Teams, klare Visualisierungen und Einblicke in ihre Anwendungen zu erhalten - unabhängig von der Domäne, ob On-Premises, in der Cloud oder in hybriden Umgebungen."
6. "Data as a Product" liefert Geschäftswert
"Data as a Product" ist ein Konzept, das darauf abzielt, reale Geschäftsprobleme durch "Blended Data" zu lösen - also Daten, die aus vielen verschiedenen Quellen herangezogen werden. Irvin Bishop Jr., CIO beim US-Bauunternehmen Black & Veatch, ordnet ein: "Dieser Ansatz, um Daten zu erfassen und zu analysieren, bietet eine neue Ebene der Intelligenz für Unternehmen, die spürbare Auswirkungen auf das Endergebnis haben kann."
Wenn man verstehe, wie diese Daten auszuwerten und anzuwenden seien, könne dies in vielerlei Hinsicht einen entscheidenden Unterschied machen, so der IT-Entscheider, dessen Unternehmen mit den Kunden an der Entwicklung von Datenprodukt-Roadmaps und der Festlegung relevanter KPIs arbeitet: "Ein Beispiel dafür ist, wie wir Daten in der Wasserwirtschaft nutzen, um kritische Infrastrukturen besser zu managen. Mit Hilfe von Daten können unsere Kunden aus der Wasserwirtschaft vorhersagen, wann ein Gerät wahrscheinlich ersetzt werden muss und welchen Umweltbelastungen es auf der Grundlage früherer Leistungsdaten standhalten kann. Das gibt den teilnehmenden Kunden mehr Kontrolle über die Zuverlässigkeit der Services und ihre Budgets."
7. Cross-funktionale Data-Product-Teams entstehen
Wenn Unternehmen Daten als Produkt betrachten, werde es notwendig, Produktteams einzurichten, die über die Bereiche IT, Business und Data Science hinweg kooperieren - ist Traci Gusher, Data and Analytics Leader bei EY Americas, überzeugt und appelliert, Data Management einfach nur als weiteres Projekt zu betrachten: "Daten müssen als voll funktionsfähiger Geschäftsbereich angesehen werden, ebenso wie Personal- oder Finanzwesen. Die Umstellung auf einen Data-Product-Ansatz bedeutet, dass Ihre Daten wie ein physisches Produkt behandelt werden -sie werden entwickelt, vermarktet, bezüglich ihrer Qualität kontrolliert, optimiert und verfolgen einen klar definierten Wert." (fm)
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CIO.com.