Vom Hype zur Realität

Hyperautomation nüchtern betrachtet

Kommentar  19.09.2022
Von 
Dr. Paul Fermor ist UK Solutions Director bei der Software AG.
Trotz vollmundiger Versprechen ist auch Hyperautomation kein Wundermittel und erfordert Vorbereitung, um die erhofften Resultate zu liefern.
Der Einsatz von künstlicher Intelligenz ist nur ein Faktor für den Erfolg von Hyperautomatisierung.
Der Einsatz von künstlicher Intelligenz ist nur ein Faktor für den Erfolg von Hyperautomatisierung.
Foto: microstock3D - shutterstock.com

Hyperautomatisierung wurde als strategischer Technologietrend Nummer Eins für das Jahr 2020 bezeichnet, und es wird prognostiziert, dass sie im Jahr 2022 einen weltweit adressierbaren Markt von fast 600 Milliarden Dollar generieren wird. Für Unternehmen, die ihren Wettbewerbsvorteil ausbauen und einen höheren Geschäftswert erzielen wollen, wird es immer wichtiger, die Hyperautomatisierung zu verstehen und die Grundlagen für ihre erfolgreiche Einführung zu schaffen.

In der Vergangenheit konzentrierten sich Automatisierungs-Workflows darauf, strukturierte Daten auf eine genau vorgeschriebene Weise zu verarbeiten. Da jedoch 80 bis 90 Prozent der weltweiten Daten unstrukturiert sind, gibt es ein enormes, bisher ungenutztes Potenzial, sich durch deren Automatisierung einen Wettbewerbsvorteil zu verschaffen. In der Vergangenheit war das menschliche Gehirn der effektivste Verarbeiter unstrukturierter Daten, aber da es keine bekannte Möglichkeit gibt, Menschen in großem Umfang und auf wirtschaftlich vertretbare Weise einzusetzen, blieben die Möglichkeiten relativ unerforscht.

Dann kam Hyperautomation ins Spiel: Eine technologische Disziplin, die darauf abzielt, das Problem der Skalierbarkeit zu lösen und unstrukturierte Daten routinemäßig in die nächste Generation der Workflow-Automatisierung einzubinden. Auf diese Weise wird der Pool an Automatisierungsmöglichkeiten, die Unternehmen nutzen können, um sich einen Wettbewerbsvorteil zu verschaffen, erheblich erweitert.

Das "Hyper" in der Hyperautomatisierung

Im Zusammenhang mit Daten ist der Begriff "unstrukturiert" allerdings eine falsche Bezeichnung. Bilder, tragbare Dokumente und Audiodateien werden alle als unstrukturierte Daten eingestuft, obwohl sie alle sehr strukturiert sind. Das eigentliche Problem besteht darin, dass unstrukturierte Daten nicht in einer Form vorliegen, die die vorhandenen Systeme verarbeiten können. Bestehende Systeme erwarten, dass der Informationsfluss nicht nur die Daten, sondern auch - implizit oder explizit - die Bedeutung dieser Daten vermittelt. Unstrukturierte Daten tun das nicht: Ein Bild sagt Ihnen nicht, ob es ein Bild einer Katze oder ein Bestellformular enthält. Sie müssen den Inhalt des Bildes durch Inferenz und Kognition ableiten.

Gartners Definition von Hyperautomation bezieht sich auf eine Buchstabensuppe von zugrundeliegenden Technologien, aber das Element, das das "Hyper" in Hyperautomation wirklich ausmacht, ist die Analytik. Diese stellt - wenn auch in begrenztem Umfang - die wesentlichen menschenähnlichen kognitiven Fähigkeiten bereit, um Informationen aus unstrukturierten Daten zu extrahieren und sie in strukturierten Datenformaten abzubilden, die IT-Systeme verarbeiten können. Aufgabenbezogene Künstliche Intelligenz (KI) wie Bilderkennung und Verarbeitung natürlicher Sprache (NLP) ist dabei der wichtigste Mechanismus, da sie erweiterte Daten und Kontextualisierung für wahrscheinlich relativ gut beschriebene Automatisierungsprobleme liefert.

Um die Automatisierungsmöglichkeiten über die komplexe Datenextraktion hinaus zu erweitern, müssen die analytischen Fähigkeiten aber weiterentwickelt werden. Nur so ist gewährleistet, dass sie an die menschlichen Fähigkeiten herankommen und komplexere Entscheidungen auf Grundlage der angereicherten Daten unterstützen. Dazu gehören auch Entscheidungen über komplexere Probleme, die ein höheres Maß an logischem Denken und kognitiven Funktionen erfordern.

Der potenzielle Nutzen

KI muss die menschlichen Fähigkeiten nicht übertreffen, um der Hyperautomatisierung erhebliche Vorteile zu verschaffen. Bereits die Fähigkeit, einfachere kognitive Aufgaben zu lösen, bietet Unternehmen eine echte Chance, ihre Arbeitskräfte anders einzusetzen, damit sie ihre Ziele effizienter erreichen.

Eine kürzlich durchgeführte Studie ergab, dass Unternehmen, die alltägliche Aufgaben von Menschen auf hyperautomatisierte Workflows umstellten, ihre Erwartungen erfüllten und die Betriebskosten um 27 Prozent reduzierten. Und während die Senkung der Kosten ein lobenswertes Ziel ist, liegt der eigentliche Gewinn für die Unternehmen wohl in der Möglichkeit des Wachstums.

Stand heute können Computer noch keinen CEO ersetzen. Das Wachstum eines Unternehmens und die Schaffung und Nutzung neuer Möglichkeiten ist ein zutiefst menschliches Unterfangen. Unternehmen, die Hyperautomatisierung einsetzen, können KI jedoch nutzen, um die Intelligenz und das Knowhow der Mitarbeiter freizusetzen, damit sie sich auf die wachstumsorientierten Aktivitäten konzentrieren können, zu denen nur Menschen in der Lage sind.

Grundlagen für den Erfolg

Zumindest anfangs sollten Unternehmen ihren Enthusiasmus für die (Hyper-)Automatisierung allerdings zügeln und ihre Bemühungen auf die Schaffung einer soliden Grundlage für ihre Prozesslandschaft konzentrieren. Diese kluge Investition bietet zwei Vorteile:

  1. können Unternehmen so Redundanzen und Ballast beseitigen, die sich im Laufe der Zeit unweigerlich ansammeln. Damit wird sichergestellt, dass die betrieblichen Abläufe klar und effizient auf die strategischen Ziele ausgerichtet sind.

  2. fördert sie ein klareres Verständnis dafür, wo Automatisierung eingesetzt werden sollte und, was ebenso wichtig ist: wo nicht. Ohne diese Anfangsinvestition werden die Kosten für die Implementierung und Wartung unnötiger oder unkluger Automatisierungslösungen und die damit verbundenen technischen Schulden wahrscheinlich den Nutzen übersteigen, den sie eigentlich bringen sollten.

Ein entscheidendes Hindernis für Hyperautomatisierungsinitiativen ist der Mangel an kompetentem Datenmanagement. Trotz erheblicher Investitionen in diesem Bereich verlieren die Unternehmen mit zunehmendem Datenvolumen und der Fragmentierung der Dateninfrastruktur in Cloud- und On-Premise-Umgebungen an Kompetenz. Dementsprechend müssen Unternehmen in erheblichem Umfang in hybride Integrationsfunktionen investieren, die Datensilos zwischen den Extremen von On-Premise-Mainframes bis hin zu Cloud Data Lakes und API-Management-Lösungen beseitigen können, die diese Daten transparent und sicher im gesamten Unternehmen austauschen können.

Hyperautomation zur Realität machen

Hyperautomatisierungslösungen versprechen eine neue Ära der Workflow-Automatisierung. Die zunehmenden Möglichkeiten zur Automatisierung erfordern jedoch eine noch stärkere Betonung der Schaffung solider Grundlagen für Geschäftsprozesse und Datenmanagement. Die routinemäßige Einbeziehung dieser Grundlagen in Planungs- und Investitionsentscheidungen wird die Erfolgschancen von Hyperautomatisierungsinitiativen wahrscheinlich maximieren. (mb)

Dieser Artikel basiert auf einem Beitrag der Schwesterpublikation IDG Connect.