Für wen die D&A-Dienstleister arbeiten
Fast alle von Lünendonk untersuchten Dienstleister (96 Prozent) sind häufig für Kunden aus der Industrie tätig. Durch die Vernetzung von Maschinen und Standorten sowie die Entwicklung von Smart Factorys spielen Daten eine zentrale Rolle für Industrieunternehmen. Ebenso fallen in der Produktion enorme Datenmengen an, die zur Optimierung von Prozessen beziehungsweise zur Entwicklung neuer Produkte oder Services genutzt werden können. Gleiches gilt für die Chemie- und Pharmabranche, in der 88 Prozent der Dienstleister häufig oder sehr häufig tätig sind. Auch in der Energiebranche werden gewaltige Datenmengen generiert und die Anforderungen in Sachen Stromnetz und Smart Grids, aber auch im Kundenmanagement steigen, sodass Data Analytics von hoher Relevanz für die Anbieter ist.
Etwa acht von zehn D&A-Dienstleistern sind häufig für Banken (79 Prozent) und Versicherungen (83 Prozent) tätig - etwa im Bereich der Risikobewertung, Fraud Detection, im Schadensfallmanagement bei der Analyse von Schadensdaten, im Kundenservice oder in der Prozessautomatisierung.
Für Kunden aus dem öffentlichen Sektor und dem Gesundheitswesen arbeiten die untersuchten Dienstleister noch vergleichsweise selten, was sich mit Blick in die Zukunft jedoch ändern wird. So dürfte gerade im Gesundheitssektor im Zuge von Digital-Health-Gesetzen und der damit verbundenen Einführung der elektronischen Patientenakte ein immenser Bedarf an Lösungen zur Auswertung der gesammelten Patientendaten zu erwarten sein.
Das sind die wichtigsten D&A-Technologien
Die von den D&A-Dienstleistern entwickelten und implementierten Lösungen basieren zu großen Teilen auf Softwarelösungen von Technologiepartnern, die Tools zur Erstellung von Data Pipelines, für das Datenmanagement oder für die Data Governance anbieten. In den letzten Jahren hat sich in der Tool-Landschaft einiges getan. Vor allem Cloud-native D&A-Technologien und Entwicklerwerkzeuge haben einen Aufschwung erlebt, ebenso wie D&A-Produkte, mit denen sich dezentrale Datenarchitekturen (Data Mesh) und Datenprodukte aufbauen und betreiben lassen. Reine Visualisierungs- und Reporting-Tools spielen zwar weiterhin auch eine wichtige Rolle, zählen aber für die Mehrheit der befragten Dienstleister keine dominierende Rolle.
Die drei Hyperscaler Microsoft, AWS und Google sind für die untersuchten Dienstleister mit Abstand die wichtigsten Technologiepartner. Aber auch Snowflake, ein Anbieter im Bereich Cloud-Database-Management-Systeme für die Datenaufbereitung und -auswertung in der Cloud, zählt für 37 Prozent der D&A-Dienstleister zu den wichtigsten Technologiepartnern. SAP, vor Jahren noch führenden D&A-Hersteller, gehört dagegen nur für jeden dritten Dienstleister zu den Top-Technologiepartnern.
Fabric als zentrale Datenplattform: Wie Microsoft den Data-Analytics-Markt erobern will
Warum Anwenderunternehmen in D&A investieren
Die wichtigsten Treiber für Investitionen in Data & Analytics sind in den kommenden Jahren für 80 Prozent der befragten Kundenunternehmen, die Kundenzufriedenheit zu verbessern und zusätzliches Wachstum durch datenbasierte Angebote zu generieren. Für 77 Prozent spielen aber auch der Fachkräftemangel und die Möglichkeiten zur Prozessautomatisierung und Effizienzsteigerung durch KI eine wichtige Rolle, in Data Analytics zu investieren.
Vor allem generative KI hat das Potenzial, in allen wertschöpfenden Unternehmensbereichen standardisierbare Aufgaben zu übernehmen - mit Potenzial für erhebliche Produktivitäts- und Kostenvorteile. Dadurch erhielten Mitarbeitende mehr Raum für andere wertschöpfende Tätigkeiten.Ebenfalls 77 Prozent der Befragten sehen D&A-Technologien als wichtig an, um neue ESG-Reportingpflichten zu erfüllen. Ab 2024 sind große Konzerne durch Regularien wie die CSRD dazu verpflichtet, Transparenz hinsichtlich ihrer wirtschaftlichen, ökologischen und sozialen Nachhaltigkeit zu schaffen.
Effizienz- und Produktivitätssteigerungen durch eine intelligente Automatisierung sind für 72 Prozent der Befragten ein weiterer Treiber für D&A-Investitionen. Aufgrund der auch im Jahr 2024 erwarteten schwachen Konjunkturentwicklung rücken in deutlich mehr Unternehmen wieder die Kosten und die Suche nach Effizienzpotenzialen in den Fokus. Aber auch durch die mittlerweile hohe Reife von Künstlicher Intelligenz versuchen derzeit viele Betriebe ganze Prozessketten zu automatisieren, um beispielsweise die User Experience durch schnelle Reaktionszeiten und eine hohe Prozessqualität zu steigern. Auch der mittlerweile hohe Reifegrad von generativer KI führt dazu, dass vor allem Routineaufgaben nun besser automatisiert werden können.
Die stärkere Digitalisierung und der Umbau bestehender Geschäftsmodelle sind für zwei Drittel der Unternehmen wichtige Gründe, in Data & Analytics zu investieren. Durch die stärkere Digitalisierung werden mehr digitale Daten generiert, welche wiederum für Personalisierung oder Kundensegmentierung genutzt werden können.
65 Prozent der befragten Unternehmen wollen aber auch in D&A investieren, um ihre Employer Experience zu verbessern. Dabei geht es vor allem um die Demokratisierung von Daten und den Aufbau von Self Service Portalen, um Datenanalysen und Kennzahlen schneller zu erstellen und somit Prozesse besser steuern zu können.
Ausblick - immer mehr Daten brauchen Management und Governance
Das Datenvolumen wird in den kommenden Jahren weiter exponentiell steigen. Treiber sind die Entwicklungen rund um (generative) KI und Cloud sowie immer mehr datengesteuerte Geschäftsmodelle und Prozessketten. Die Analyse kunden- und produktbezogener Daten gewinnt im Zuge von Kundenzentrierung und Digital Experience stark an Bedeutung. Es geht darum, Produkte zu verbessern, Kosten zu senken sowie Kundinnen und Kunden personalisierter anzusprechen. Gleichzeitig zeichnet sich ein Durchbruch in der intelligenten Automatisierung ganzer Prozessketten ab. Diese Entwicklungen haben aus Sicht der Lünendonk-Analysten folgende Einflüsse auf den Markt für Data & Analytics.
Datendemokratie durch Self Services: Die Demokratisierung der Daten - unter anderem durch den Datenproduktansatz - kann Mitarbeitenden helfen, einfach und schnell an alle für sie relevanten Daten zu gelangen und diese - auch ohne statistische Vorkenntnisse und IT-Know-how - zu verstehen.
Treiber für die schnelle Verbreitung von Self-Services sind auch der Fachkräftemangel und die fehlenden IT-Skills in Feldern wie Statistik, Datenbanktechnologien, Datenmodellierung oder Big Data Analytics. An dieser Stelle bieten sich mit Low Coding und generativer KI zwei interessante Technologien an, um neue datenbasierte Anwendungen schnell und in hoher Qualität zu entwickeln, ohne dafür auf dediziertes Entwickler-Knowhow angewiesen zu sein.Datenprodukte: Im Zuge der Digitalisierung gewinnen Datenprodukte - Data as a Product - stark an Relevanz. Datenprodukte basieren auf der Data-Mesh-Architektur. Dabei handelt es sich um eine dezentralisierte Datenarchitektur, die Daten nach einem bestimmten Unternehmensbereich, zum Beispiel Marketing, Logistik oder HR, domänenorientiert organisiert. Durch Data Mesh lassen sich Daten innerhalb der einzelnen Unternehmensbereiche dezentral und produktorientiert handeln. Gerade im Zuge von aktuellen Top-Themen wie Kundenzentrierung, Digital Experience und der Cloud-native-Softwareentwicklung entwickelt sich Data Mesh zu einem viel diskutierten Ansatz.
Vor allem für Entwicklerteams verspricht Data Mesh einen besseren Zugang zu den Daten wie auch eine höhere Datenqualität. Gleichzeitig wird das Konzept des Self Service und der Datendemokratisierung massiv gefördert, indem die Fachbereiche deutlich mehr Verantwortung für die Daten bekommen. Ebenso fördert der dezentrale Data-Mesh-Ansatz auch die Einführung nativer Cloud- und Cloud-Plattform-Technologien.Datenmanagement & Data Governance: Mit der strategischen Ausrichtung auf mehr Datenkompetenz beginnt für viele Unternehmen der Wandel zu einer datengetriebenen Kultur. Damit steigen auch die Anforderungen an das Datenmanagement. Im Vordergrund stehen hier beispielsweise die Transparenz durch eindeutige Taxonomien, nachvollziehbare Datenflüsse und stringente Reporting-Konzepte sowie die Sicherstellung einer hohen Datenqualität durch entsprechende Kontrollmechanismen sowie klar geregelte Verantwortlichkeiten und Prozesse in der Governance.
Für Unternehmen und Behörden gilt es daher, mit dem Einsatz neuer Technologien auch ihre datengetriebenen Prozesse strukturierter, transparenter und übergreifender zu managen, um die Möglichkeiten der Digitalisierung zu nutzen. Dazu sind die unterschiedlichen Datensilos aufzubrechen, zu integrieren und miteinander zu vernetzen. Das bedeutet nicht zwangsläufig den Abbau der gesamten bestehenden Architektur, sondern eher eine Strategie für hybride Konzepte, um bestehende On-premises-Lösungen und Cloud-basierte Technologien zu verbinden, um fallweise benötigte Daten flexibel miteinander zu kombinieren.