Wenn Manager sich vornehmen, ihr Unternehmen zu einer "Data-driven Company" zu machen, geht es im Regelfall darum, Business-Leute in die Lage zu versetzen, mit Hilfe von Technologie und Daten bessere Entscheidungen zu treffen.
Viele Unternehmen haben deshalb inzwischen in entsprechende Datenarchitekturen investiert, Analytics-Tools angeschafft, Machine-Learning-Modelle entwickelt und Visualisierungsfunktionen eingeführt. Allerdings ist die Wahrscheinlichkeit vergleichsweise hoch, dass die Akzeptanz bei den Endbenutzern nicht besonders hoch ausfällt und die Geschäftsergebnisse nicht überzeugen. So kommt etwa der "2023 State of Data Science & Machine Learning Report" (Download gegen Daten) des Low-Code-Anbieters Knime zum Ergebnis, dass nahezu jedes zweite Unternehmen (45 Prozent) lediglich ein Viertel seiner ML-Modelle produktiv einsetzt.
Dieser Artikel befasst sich mit sieben Maßnahmen, die dabei helfen können, die oben beschriebenen Lücken zu schließen und so ein besseres Decision Making zu realisieren. Die ersten vier Punkte fokussieren dabei auf einzelne Teams, Abteilungen und Unternehmen - die letzten drei darauf, die Analytics-Bemühungen in größeren Unternehmen oder Konzernen zu skalieren.
Its Funny Friday meme time again. Remember, building quality data systems is a process and needs to be adequately funded to get the best results! Data infrastructure should be built alongside all other development to ensure decisions are data driven. #python #coding #data pic.twitter.com/6twFBUX6Ur
— Python Unbound (@PythonUnbound) February 24, 2023
1. Endbenutzer verstehen
Sich im Vorfeld mit neuen Datensätzen oder Analytics-Domänen zu befassen, ist wichtig. Allerdings besteht dabei die Gefahr, es zu übertreiben - was zum Beispiel darin gipfeln kann, Proof of Concepts in die Produktion zu überführen oder ganz wesentliche Schritte außer Acht zu lassen, wenn es darum geht, Endbenutzer-Personas zu definieren.
Soumendra Mohanty, Chief Strategy Officer beim Data-Science-Spezialisten Tredence, gibt Kontext: "In der Vergangenheit funktionierten Analytics-Lösungen traditionellerweise so, dass man einen Haufen gut durchdachter Algorithmen auf gut organisierte Daten losließ, überprüfte, was die Daten bestätigten und Empfehlungen in Form von Grafiken ausgab. Bei diesem Ansatz fällt der Input des Endbenutzers völlig unter den Tisch, der im Rahmen seiner täglichen Aufgaben Entscheidungen trifft und zu diesem Zweck Echtzeit-Empfehlungen benötigt."
Folgende Fragen können mit Blick auf die End User relevant sein:
Wie, wann und wie häufig werden wichtige Entscheidungen getroffen?
Welche Auswirkungen hat eine falsche oder verzögerte Entscheidungsfindung?
Welche Daten und Informationen werden für die Entscheidungen genutzt und wie wird auf diese zugegriffen?
Welche Tools kommen zum Einsatz, um getroffene Entscheidungen umzusetzen?
Der Schlüssel liegt dabei darin, zu durchdringen, wie sich die jeweilige Analytics-Lösung in die Workflows einfügt, welche Integrationen dabei in Betracht zu ziehen sind und an welchen Stellen automatisiert werden sollte.
2. Datenqualitätsanforderungen definieren
Einige Endbenutzer sind vielleicht nicht in der Lage, zwischen statistischen Analysen, Machine Learning und Generative AI (GenAI) zu unterscheiden - wohl aber, fehlerhafte Empfehlungen und Daten zu erkennen. Wird der iterative Prozess der Datenqualitätsoptimierung nicht früh genug in den Entwicklungsprozess integriert, können die Endbenutzer das Vertrauen verlieren - und kehren zu ihren gewohnten Workflows zurück.
Irfan Khan, President und Chief Product Officer bei SAP, erklärt, warum die Datenqualität ein so entscheidendes Kriterium darstellt: "Gebrauchsfertige, qualitativ hochwertige Geschäftsdaten sind entscheidend, um präzise Unternehmensanalysen zu gewährleisten und die Vorteile von Generative AI nutzen zu können. Nur mit einer soliden Datengrundlage und einer einheitlichen Sicht auf die Daten sind Unternehmen in der Lage, vollständig digitalisierte Geschäftsprozesse und einen nahtlosen Datenaustausch in ihrem Unternehmen zu ermöglichen."
Idealerweise definieren Sie Datenqualitätsmetriken als nicht-funktionale Anforderungen, veröffentlichen Verbesserungsmaßnahmen und bringen die Stakeholder auf den aktuellen Stand, wenn sich die Metriken verbessern.
3. Schneller entscheiden
Abseits der Datenqualität sollten zwei weitere Metriken in Zusammenhang mit Analytics im Fokus stehen, die mit der Geschwindigkeit der Entscheidungsfindung zusammenhängen:
Während die "Time-to-Data" die Verzögerungen umfasst, die entstehen, wenn Daten empfangen und verarbeitet werden,
erfasst die "Time-to-Decision" Faktoren wie Usability, Integration oder Automatisierungslevel - vom Zeitpunkt, ab dem die Daten dem Endbenutzer zur Verfügung stehen, bis hin zur Entscheidungsfindung.
"Time-to-Data war vor ein paar Jahren noch das Privileg von Hochfrequenz-Trading-Plattformen. Inzwischen kann jeder auf günstige Storage-, Compute- und Software-Tools zugreifen, um Daten in Echtzeit zu nutzen", konstatiert Nikolaos Vasiloglou, VP of Research ML beim Datenspezialisten RelationalAI.
Und während die Kosten für skalierbare Infrastrukturen kontinuierlich sinken, erfordern optimiertes Datenmanagement und robuste Daten-Pipelines architektonische (Design-)Planung. Ein Weg, dabei Fallstricke zu vermeiden: Starten Sie mit bescheideneren Analytics-Zielsetzungen und validieren Sie die Performance der Architektur, während Sie Nutzung, Daten und Fähigkeiten skalieren.
4. Datensicherheit frühzeitig gewährleisten
Eilig zusammengezimmerte Prototypen von Analytics-Lösungen und Daten-Pipelines mit niedriger Latenz können signifikante Risiken - und Kosten - aufwerfen, wenn dabei sensible Daten kompromittiert werden. Deshalb ist es in vielen Fällen deutlich kosteneffektiver, die benötigten Datenschutzmaßnahmen in den Pipelines selbst oder über eine Data-Management-Plattform einzuziehen - statt sie in Analytics-Lösungen zu implementieren.
Ameesh Divatia, CEO und Mitbegründer des Plattformanbieters Baffle, erklärt das Vorgehen: "Sämtliche regulierten Daten sollten, sobald sie erstellt oder erfasst werden, kryptografisch geschützt werden - also verschlüsselt, maskiert oder mit Token versehen. Sobald das geschehen ist, kann die nachgelagerte Datennutzung für alle Anwendungsfälle, einschließlich Generative AI, deutlich schneller vonstattengehen. Die Daten können direkt genutzt werden - ohne weitere Data-Discovery- oder -Review-Maßnahmen."
Datenschutz möglichst frühzeitig zu implementieren, eröffnet auch die Gelegenheit, Endbenutzer und Stakeholder mit Best Practices in diesem Bereich in Kontakt zu bringen.
5. Data-Governance-Programme skalieren
Analytics-getriebenes Decision Making für mehrere (Sub-)Unternehmen, Abteilungen oder Fachbereiche zu skalieren, erfordert, ein Analytics-Betriebsmodell zu entwickeln und Richtlinien im Bereich Data Governance zu etablieren.
Felix Van de Maele, CEO des Data-Intelligence-Anbieters Collibra, erklärt am Beispiel eines Fast-Food-Giganten, wie selbst Großkonzerne schnell Data-Governance-Prozesse einführen können: "Data Governance ist die Grundlage, um das wahre Potenzial von KI zu erschließen. McDonald's hat in nur 60 Tagen eine vertrauenswürdige Datengrundlage geschaffen, auf die bereits über 570 Nutzer in 21 Ländern zugreifen. Diese Fortschritte haben die Art und Weise, wie das Unternehmen Daten nutzt, verändert und zu mehr Transparenz, Vertrauen und schnelleren Prozessen für seine Business-Anwender auf der ganzen Welt geführt."
Dabei spielen Datenkataloge eine wichtige Rolle, um datengetriebene Organisationen zu skalieren. Emily Washington, SVP of Product Management beim Datenspezialisten Precisely, gibt tiefere Einblicke: "Datenkataloge, die eine robuste Data Governance und eine proaktive Qualitätsüberwachung bieten, fördern sichere Geschäftsentscheidungen. Angesichts der erhöhten Risiken, die nicht gemanagte oder ungenaue Daten in der KI-Ära mit sich bringen, ermöglicht die Priorisierung von Datenkatalogen den Anwendern ein umfassendes Verständnis ihrer Daten und des zugrundeliegenden Zustands. So können die Daten effektiv genutzt werden um Umsatz und Gewinn zu steigern."
Wie die Marktforscher von Gartner in einer aktuellen Umfrage herausgefunden haben, entwickeln 78 Prozent der in diesem Rahmen befragten Chief Data and Analytics Officers ihre Betriebsmodelle weiter, um Innovationen zu unterstützen. Dabei sind für 61 Prozent der Befragten disruptive Marktentwicklungen - einschließlich ChatGPT - ein Treiber.
6. Implementierungsstandards definieren
Datengesteuerte Unternehmen erstellen und entwickeln Standards, damit sich ihre Data-Science-Teams auf die Endbenutzer konzentrieren können. Ein Playbook kann dabei helfen, die Delivery zu beschleunigen, Best Practices zu skalieren und Deployment-Anforderungen zu etablieren. In Bezug auf Datenstandards empfiehlt Marty Andolino, VP of Engineering beim Softwareanbieter Capital One: "Datenstandards, wie etwa Metadaten, SLAs oder Observability gewährleisten Datenintegrität, Benutzerfreundlichkeit und Datensicherheit über den gesamten Lebenszyklus. Diese Standards in einheitliche Self-Service-Erfahrungen einzubetten, ermöglicht es den Benutzern, auf vertrauenswürdige Daten zuzugreifen, die unternehmensweit ausgetauscht werden."
Weitere Überlegungen werden nötig, wenn es darum geht, wie Analytics-Tools, Dashboards und ML-Modelle getestet werden. Giovanni Lanzani, Managing Director bei Xebia Data, empfiehlt an dieser Stelle: "Datenteams sollten ihre Daten von der Quelle über sämtliche Transformationen, die letztendlich die Insights bereitstellen, die das Business benötigt, hinweg testen. Nur so lassen sich potenzielle Probleme identifizieren, wenn sie gerade entstehen - und verhindern, dass die Business-Anwender mit fehlerhaften Daten arbeiten."
Größere Unternehmen mit umfangreichen operativen, analytischen und unstrukturierten Datensätzen sollten zudem Standards für Datenmanagement und -architektur festlegen, wie Aislinn Wright, VP of Product Management beim Datenbankanbieter EDB, empfiehlt: "Unternehmen ist eine Datenplattform zu empfehlen, die Transaktions-, Analyse- und KI-Daten vereinheitlicht und offene, portable Standards implementiert, um neue Analytics- und Data-Science-Projekte schnell umzusetzen."
Ein weiteres wichtiges Ziel sollte darin bestehen, den Zugriff auf Unternehmensdaten durch autorisierte Endnutzer zu vereinfachen. Krishna Sudhakar, Director of Partner Advisory beim Softwareanbieter Pricefx, erklärt: "Wenn Daten in Dutzenden von Systemen existieren und es keine Standards und Muster gibt, die schnellen Zugriff und einfache Datennutzung ermöglichen, wird jeder Versuch, mit diesen Daten zu arbeiten, zur Anstrengung."
7. Datenkultur fördern
Technologische Fähigkeiten, Data Governance und Standards für die Analytics-Praxis sind die essenziellen Bausteine - allerdings muss auch die Kultur rundherum stimmen, damit "Data-driven" zur Realität wird. Ein guter Startpunkt dafür ist es, die Kommunikation und Kollaboration im Unternehmen zu optimieren.
John Castleman, CEO des Digitalisierungsexperten Bridgenext, weiß, worauf es dabei ankommt: "Unternehmen sollten sich darauf konzentrieren, die Silos zwischen Geschäftseinheiten, Funktionen und Technologien aufzubrechen, die den Informationsaustausch und eine fundierte Entscheidungsfindung behindern. Allzu oft stehen interne Konstrukte betrieblicher Effizienz, Umsatzwachstum und Innovation im Weg."
Ein guter und einfach umsetzbarer Anfang sind regelmäßige, unternehmensweite Demos von neuen oder aktualisierten Analytics-Funktionen sowie den damit getroffenen Entscheidungen und ihrem Business Impact. Auch wenn sich zu Beginn solcher Initiativen Ängste breitmachen sollten: Zufriedene und erfolgreiche Endbenutzer tragen letztlich dazu bei, diese nachhaltig abzubauen. (fm)
- Thomas Weyand, Contentsquare
"Without Data, it´s just another opinion. Doch Daten erzählen auch nicht immer die ganze Wahrheit. Business Intelligence hängt auch sehr von der individuellen Interpretation ab und dafür braucht es das nötige Wissen auf der individuellen Ebene." - Stefan Haertlein, Cisco
"Unser Eindruck ist gerade noch, dass viele Unternehmen mit angezogener Handbremse fahren. Indem wir Schritt für Schritt die Infrastruktur segmentieren, minimieren wir die Angst vor dem Verlust der Datenhoheit und ermöglichen eine Annäherung an das Thema." - Carsten Schröder, Haufe X360
"Es ist empfehlenswert, sich zunächst Teilprojekten zu widmen, die einen “Quick Win” herstellen, um die Toleranz weiter zu fördern. Wenn ich innerhalb von 3 Monaten Ergebnisse sehe, dann gehe ich mit dem Thema Daten ganz anders um." - Hardy Groeger, IBM
"Das Stichwort lautet immer wieder: Balance! Ich muss die spezifischen Use Cases, die organisatorische und methodische Vorgehensweise sowie den technologischen Unterbau ausbalancieren, damit sie lang-, mittel- und kurzfristig zu meinen Unternehmenszielen passen." - Boris Michel, INFORM DataLab
"Wenn ich die verschiedenen Quellsysteme mit einer beliebigen Analytics-Lösung verbinde, habe ich noch lange keine Datenkultur geschaffen. Die richtige Basis schaffe ich nur, wenn ich die ganzen existierenden Silos auflöse." - Felix Hoffmann, LeanIX
"Es kann schon helfen, das C-Level “anzutriggern”, aber immer nur in Zusammenarbeit mit den Fachabteilungen. Es gibt nämlich nichts Schlimmeres, als eine erstickte Graswurzelbewegung. Das bedeutet, keine Hauruck-Aktionen und nicht zu viel auf einmal, sondern Schritt für Schritt und immer mit Blick auf das Ziel." - Florian Weigmann, PlusServer
"Das Ziel eines “Data Fabric Layers” ist es, konsistente und qualitativ hochwertige Daten zu generieren und nutzbar zu machen. Jede technologische Transformation sollte in der Absicht erfolgen, in der Zukunft datengetriebene Entscheidungen treffen zu können."
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.