Process Mining ist als Disziplin in der Datenanalyse nicht mehr aufzuhalten. Beinahe alle DAX- und MDAX-Unternehmen haben hier bereits ihre Initiativen ergriffen und fahren zumindest einen Piloten zu diesem Thema, oftmals mit mehr als nur einem Tool-Anbieter. Viele Anbieter haben sich mittlerweile in den Markt eingefunden, auch wenn sich dieser gerade etwas zu bereinigen scheint, beispielsweise auch mit dem Kauf von PAFnow (Process Mining Plugin für Microsoft Power BI) durch Celonis 2022. Und zuvor mit dem Kauf von Signavio durch SAP im Jahr 2021. Der Markt wird gerade durch die vielen Kunden des SAP ERP-Systems mit Cross-Selling auch nochmal angeheizt.
Lesetipp: Die besten Workflow-Werkzeuge
Wer Process Mining noch nicht kennt, sollte vorab einen Blick in den Artikel "Einstieg in Process Mining" werfen, alle Informationen zu den Zusammenhängen zwischen Process Mining, Robotic Process Automation (RPA) und Business Intelligence (BI) finden sich in "Wie Process Mining künftig geht".
KI kurz erklärt
Künstliche Intelligenz (Artificial Intelligence, kurz AI) ist im Process Mining zuerst vor allem eines: Gutes Marketing für Tool-Anbieter. Denn die wenigsten Business-Anwender wissen genau, was KI eigentlich ist und fällen dementsprechend nur schwer eine Einschätzung darüber, was diese Technologie heute wirklich zu leisten im Stande ist.
Künstliche Intelligenz auf der grundsätzlichen Ebene zu erklären, würde diesen Beitrag sprengen, aber so manches ergibt sich aus der Abgrenzung zu angrenzenden Begriffen:
Machine Learning (ML) ist ein Teilbereich von KI.
Deep Learning (DL) ist ein Teilbereich von ML, der umfangreiche Neuronale Netze betrifft.
Data Science ist die Arbeitsdisziplin zur Vorbereitung, Durchführung und Bewertung von machine Learning bzw. Deep Learning.
Machine Learning (und damit auch Deep Learning) kann in Supervised und Unsupervised Learning unterschieden werden. Bei Ersterem wird eine Datenhistorie (z. B. Prozessdaten) mit fallbasierten Ergebnissen (z. B. Prozess war im Ergebnis "gut" oder "schlecht") benötigt. Aufgrund dieser Daten versucht der Lernalgorithmus eine Mustererkennung, um daraus einen Prädiktionsalgorithmus für die Einschätzung zukünftiger Prozesse zu generieren.
Unsupervised Learner werden hingegen nicht mit erwarteten Ergebnissen gefüttert, sondern versuchen, Daten nach Ähnlichkeit zu Gruppieren oder Anomalien zu erkennen.
Lesetipp: FAQ Künstliche Intelligenz - Was Sie zum Thema KI wissen müssen
Vorhersagen für Prozesse
Wer erste Process-Mining-Initiativen hinter sich gebracht hat, wird vermutlich schon mit einigen der klassischen Anwendungsfälle für KI im Process Mining in Berührung gekommen sein. Unter Einsatz von Supervised Learning können Prozessaktivitäten oder ganze Prozessketten mitten im Lauf hinsichtlich der Wahrscheinlichkeit auf Erfolg (z. B. Vertriebs- oder Fertigungsprozesse) oder Sicherheit (z. B. Einkaufs- oder Zahlungsprozesse) klassifiziert werden. Aber auch voraussichtliche Kosten oder Durchlauf- bzw. Wartezeiten können berechnet und somit frühzeitig im operativen Geschäft darauf reagiert werden. Process Mining löst mit diesen etablierten KI-Komponenten also tatsächlich sein Versprechen ein, ein Frühwarnsystem in der Prozesskontrolle und ein Hebel für die laufende Geschäftsoptimierung zu werden.
Auch Unsupervised Learning findet bereits seinen Einzug in Process-Mining-Analysen, insbesondere bei der Anomalie-Erkennung innerhalb von Prozessen, aber auch zur Gruppierung (Clustering) von Prozessmustern nach ihrer Ähnlichkeit über simple Variantenvergleiche hinaus.
Process Mining auf unstrukturierten Daten dank KI
Jedes Process-Mining-Tool erstellt seine Prozessgraphen für die Process Flow Charts auf Basis von Daten im Format eines Event Logs, welches als tabellarisches Prozessprotokoll beschrieben werden kann. Jeder Prozessanalyse geht also folglich eine Prozessrekonstruktion durch Identifikationen von Prozessspuren in operativen IT-Systemen in ein Event Log voraus. Nur weil diese Zusammenstellung von Zeitstempeln, Vorgangsnummern und Aktivitätsbeschreibungen selbst tabellarisch ist, heißt das jedoch nicht, dass diese nur aus strukturierten Daten hergeleitet werden kann.
Für die meisten Unternehmen erfolgt der Einstieg in Process Mining über die Rekonstruktion und Analyse von Einkaufs- oder Kundenbestellprozessen. Seltener werden Projekte auch für After Sales, Produktion oder Logistik gestartet. Die Quellen der Datenspuren sind folglich hauptsächlich ERP- und CRM-Systeme, gelegentlich auch Warehouse- oder Dokumenten-/Ticket-Management-Systeme, die ihre Daten in strukturierten, relationalen Datenbanken hinterlegen.
Nicht selten sind besonders kritische Prozesse jedoch nur teilweise in solchen Systemen rückverfolgbar. Andere besonders interessante, da intransparente, Prozessabschnitte erfolgen beispielsweise über E-Mail-Kommunikation und sind somit für klassische Process-Mining-Analysen blinde Flecken.
Unter Einsatz von Deep Learning für Natural Language Processing (NLP) können Textdokumente (auch gescannte PDF) sowie E-Mails bereits zuverlässig klassifiziert werden, beispielsweise, ob eine E-Mail eines Kunden oder Lieferanten eine bestimmte Bestellung auszulösen, zu verändern oder zu stornieren versucht. Und nicht nur das, selbst einzelne Absätze oder Sätze eines Textes können als Prozessaktivität interpretiert werden und neben den E-Mail-Metadaten auch sequenziell interpretiert, also in eine Reihenfolge gebracht, werden.
Lesetipp: Was ist Natural Language Processing?
Der Mehrwert von KI wird hier besonders deutlich und schafft einen Ansatz von Augmented Data, da Daten viel umfänglicher vom System "verstanden" werden können. Zwar können Systeme für Ticket-Management bzw. Customer-Service die Kommunikation mit Kunden, Lieferanten usw. bereits tabellarisch protokollieren, erfassen dabei jedoch nicht alle Themen innerhalb eines Falles.
Übrigens sind auch Videos mit Deep Learning, folglich KI, pro Zeiteinheit klassifizierbar, wodurch eine Integration in Process-Mining- Analysen möglich ist. Dies eröffnet Prozessanalysen von Vorgängen, die in operativen IT-Systemen nicht getrackt werden. Ein Beispiel wären Video-Aufnahmen von Montage-Vorgängen oder logistischen Abläufen auf dem Fabrikgelände, die mit Process Mining auf Basis von Video-Daten nachvollziehbar im Prozessflussdiagramm visualisiert und dadurch zu einer weiteren Analyse bereitstehen. Process Mining auf Basis von Computer Vision wird dadurch zu einer Dimensionsreduktion, denn Videos mit pro Zeiteinheit Millionen von Bildpunkten werden zu Prozessflussdiagrammen reduziert, die Vorgänge in den Videos vereinfacht beschreiben und quantitativ bewertbar machen.
KI im Process Mining ist unabhängig vom Tool
Sowohl bei der Einführung von Process Mining, egal ob auf strukturierten oder unstrukturierten Daten, als auch beim Ausrollen von Process Mining auf das gesamte Unternehmen, sollte beachtet werden, dass Process Mining nicht etwa ein Tool, sondern eine Analysemethodik ist, die für ihr volles Spektrum durchaus einen freien Technologie-Mix voraussetzt. Zwar bringen die größeren Tool-Anbieter vorgefertigte SQL-Skripte für die Erstellung von Event Logs mit, jedoch nur für die Standardprozesse der gängigsten IT-Systeme, und das auch keinesfalls gänzlich ohne Workshops für Mitarbeiter des Kundenunternehmens.
Event Logs für unternehmensindividuelle Prozesse, fernab eines Branchenstandards, kann kein Software-Anbieter von Hause aus mitbringen. Es Bedarf hier einer guten Beratung und kundeneigene Arbeitsschritte, um die nötigen Prozessdaten entsprechend aufbereitet liefern zu können. In jedem Fall geht seitens des Anwenderunternehmens ein nicht unwesentlicher Arbeitsaufwand in die Datenaufbereitung. Dabei sollte in Erwägung gezogen werden, die Daten nicht in einem proprietären Tool zusammenzuführen, zu bereinigen und zum Event Log aufzubereiten, sondern diesen Arbeitschritt zentral in einem Data Warehouse abzuarbeiten, wie es sich bereits in der Business Intelligence (BI) Standard ist. Denn auch hier wurden in den Anfängen gerne direkt BI-Tools zur Datenaufbereitung verwendet.
Algorithmen der KI sowie vorgeschaltete Analysen arbeiten ohnehin direkt mit den Daten des Event Logs oder auf Basis der Rohdaten und sollten daher im Data-Warehouse-System laufen. Die Event Logs bleiben somit nachhaltig auch für alternative Analyse-Tools verfügbar. Zudem veralten Datenbank-Technologien auch über viele Jahre nicht, im Gegenteil zum gerade sehr dynamischen Markt für Analyse-Tools.
Auch im Kontext des aktuellen Trends zu Reverse ETL, damit wird das Zurückspielen von Daten in operative IT-Systeme bezeichnet, können Process Mining Data Warehouses Quell- oder Dritt-Systeme mit Prozessinformationen versorgen oder gar RPA- bzw. sonstige Action-Engines triggern. Zudem können sich KI-Anwendungen, unabhängig vom Process Mining Tool, an den Daten des Data Warehouses bedienen und Prädiktionsergebnisse direkt in die Event Logs zurückspielen. Data Scientists können sich ihre Machine Learning Tools dann nach Belieben aussuchen und sind nicht an anderweitigen Tool-Restriktionen gebunden. (bw)