Albert Einstein sagte einmal: "Wir können unsere Probleme nicht mit der gleichen Art zu denken lösen, die sie geschaffen hat." Bei diesem Aphorismus hätte der geniale Physiker sich auch von den Herausforderungen der Legacy-Modernisierung inspirieren lassen können.
Als die Prozesse und Programme geschaffen wurden, die wir heute ablösen müssen, residierte Software vorzugsweise im eigenen Rechenzentrum, teilweise noch in Mainframes. Die Prozesse, die sie abbildete, waren wie in Stein gemeißelt, die Software wies eine monolithische Architektur auf, folgte festen Release-Zyklen und wurde entweder im Wasserfall- oder V-Modell entwickelt. Fluide Prozesse, Cloud, agile Entwicklung, DevOps oder Microservice-Architekturen? Weitgehend unbekannt.
Doch die Technologie verändert sich nicht nur, sie entwickelt sich auch viel schneller. Brauchte der Fernseher noch rund 40 Jahre, um sich flächendeckend durchzusetzen, benötigte das Smartphone gerade einmal zehn Jahre, um die Welt komplett zu erobern. So komplett, dass es zum Beispiel in Indien offiziellen Statistiken zufolge heute mehr Smartphones als wassergespülte Toiletten gibt.
Entwicklungen beschleunigen immer schneller
Es besteht eine relativ große Wahrscheinlichkeit, dass sich die Marktentwicklung weiter beschleunigt: Die früher relativ gleichmäßig verlaufenden Adaptionskurven für neue Entwicklungen und Produkte werden sehr viel steiler. Glichen herkömmliche Kurven eher einem sanften Hügel, ähneln sie heute Haifischflossen. Sie steigen sehr steil an und fallen in kürzerer Zeit steil ab. Das bedeutet, dass Unternehmen viel weniger Zeit haben, neue Produkte und Services erfolgreich am Markt zu platzieren.
Die zunehmende Entwicklungsgeschwindigkeit bezieht sich nicht nur auf Hardware. Sie erfasst auch Software, Prozesse und Strategien. Mitunter entsteht der Eindruck, Menschen wie Unternehmen laufen diesen Veränderungen hoffnungslos langsam hinterher. Unsere fehlende Geschwindigkeit ist allerdings zumindest zu einem Teil den nach wie vor eingesetzten Methoden und Werkzeugen geschuldet. Legacy-Systeme verhindern, dass Unternehmen ihre Geschäftsmodelle, ihre Strategien und ihre Werkzeuge schnell genug ändern. Die Fähigkeit zur schnellen Innovation ist jedoch ein wesentlicher Schlüssel zum Unternehmenserfolg. Das belegen unter anderem Zahlen aus der Accenture-Marktforschung. Demnach erzielen die innovativsten Unternehmen 64 Prozent höhere Gewinnspannen und liefern ihren Aktionären 42 Prozent höhere Erträge.
Das sehen CEOs genauso. In einer Accenture-Befragung erklärten 62 Prozent der befragten Unternehmenschefs, die IT habe einen "revolutionären Einfluss" auf ihre Unternehmen. Dabei verbinden sie das Thema Innovationsfähigkeit sehr stark mit Agilität der IT. Drei Viertel der Befragten sehen ihre Unternehmen gefährdet, wenn ihre Technologie nicht stets aktuell gehalten wird.
Legacy-Systeme zwischen Barriere und Wertbeitrag
Eine Enterprise IT, die mit einer hohen Innovations- und damit Veränderungsgeschwindigkeit mithalten kann, muss skalierbar, flexibel und belastbar (resilient) sein. Dabei sehen allerdings 70 Prozent der Entscheidungsträger die sogenannten Legacy-Systeme als wesentliche Barriere für Innovationen in ihren Unternehmen. Doch trotz all ihrer Fehler und Komplexität bergen diese Altsysteme noch sehr viel Wert - Daten, Transaktionsmechanismen, Prozessbeschreibungen - der bei einem Umstieg auf neue Technologien nicht verloren gehen darf.
Ein gangbarer Weg, das Schützenswerte der Legacy-Systeme zu retten und trotzdem zügig zu einer agilen Enterprise IT zu gelangen, ist das sogenannte "Digital Decoupling". Die digitale Entkopplung bringt Technologien, die Entwicklung und Bereitstellung von IT-Services beschleunigen - Künstliche Intelligenz, Robotic Process Automation, Platform as a Service und Cloud - mit agilen Entwicklungsansätzen zusammen: DevOps, Design Thinking und andere neue Wege, um moderne Systeme zu erstellen, zu integrieren und zu automatisieren. In jedem Fall aber - und das ist kurzfristig das Wichtigste - werden Daten von Altsystemen und Applikationen von der Legacy-Infrastruktur entkoppelt.
Prinzipiell gibt es fünf Wege, mit denen sich diese Entkopplung bewerkstelligen lässt:
APIs und Microservices: In diesem Verfahren verbinden Application Programming Interfaces (APIs) früher fest verdrahtete Systeme in Form lose gekoppelter Services. Die Entkopplung von Daten und Systemen über den Microservice-Ansatz zu erreichen, ist zwar ein vergleichsweise aufwendiges Verfahren, aber auch das Nachhaltigste. Hier geht es darum, große, monolithische Systeme in viele kleine Einzelfunktionen, die sogenannten Microservices, zu zerlegen. Das sollte auch das Ziel in einer von SAP oder Oracle geprägten Anwendungslandschaft sein. Diese gekapselten und daher unabhängig voneinander agierenden Klein-Services werden über APIs miteinander zu größeren Funktionsblöcken zusammengefasst, aber eben nur lose gekoppelt. In der Regel lassen sich Microservices von agilen Teams - auch wegen ihrer Einfachheit - sehr schnell entwickeln. Der Vorteil einer so aufgebauten IT-Landschaft: Durch die Eigenschaften der Microservices ist sie sehr robust, quasi ortsunabhängig, und sie ist vor allem auch leicht veränderbar. Die Microservices lassen sich unabhängig voneinander verändern oder austauschen. Es muss kein großer Funktionsblock oder eine ganze Software neu ausgerollt werden. Das stellt einen enormen Fortschritt hinsichtlich Flexibilität und Agilität dar. Durch die Zerlegung von Altsystemen in kleine, modulare und unabhängige Services kann schneller als je zuvor entwickelt werden.
Lesen Sie mehr zum Thema Microservices:
Microservices machen die IT schneller und agiler
Microservices: SOA reloaded?
Microservices unter BeobachtungRobotic Process Automation (RPA): Hier werden automatische Routinen entwickelt, die die Ergebnisse von Legacy-Systemen an den GUI-Schnittstellen auslesen und den neuen Systemen zur weiteren Verarbeitung zur Verfügung stellen. Früher war dieses Vorgehen auch als Screen-Scraping bekannt. Allerdings sind die neuen RPA-Verfahren deutlich besser und stabiler. Weitere Vorteile sind ihre Schnelligkeit und einfache Anwendbarkeit. Neue, zum Beispiel analytische Systeme lassen sich mit den wertvollen Daten aus den Altsystemen füttern. Der Nachteil: Das Legacy-System mit all seinen Komplexitäten und Fehlern bleibt bestehen.
Lesen Sie mehr zum Thema RPA:
Kollege Roboter, übernehmen Sie!
RPA ist eine Speerspitze der digitalen Transformation
Welche Rolle spielt intelligente Prozessautomatisierung für die Arbeitswelt von morgen?New-Book-Approach: Bei diesem "Grüne-Wiese-Ansatz" werden neue Systeme nach neuen Verfahren entwickelt, eine Migration von Alt nach Neu findet nicht statt. Am einfachsten lässt sich das am Beispiel Lebensversicherung erklären. Existierende Policen werden weiterhin im bestehenden System verwaltet. Für neue Policen wird ein neues System aufgebaut. Die beiden Systeme kooperieren nicht miteinander. Der Vorteil des Verfahrens: Es muss keine Migration der Daten stattfinden. Deshalb geht es schnell, vor allem dann, wenn man das neue System in der Cloud betreibt. Der Nachteil: Es existieren mittelfristig zwei Systeme parallel, die beide gepflegt sein wollen.
Data-Lake-Centric Architecture: Die Transaktionsergebnisse der operativen Legacy-Systeme werden in einen Data-Lake dupliziert. Auf die dort gespeicherten Daten können in Echtzeit Analysen gefahren und die Ergebnisse modernen Systemen zur Verfügung gestellt werden. Im Falle einer Bank könnte das bedeuten, dass Kontostände nicht mehr über das Legacy-System abgefragt werden, sondern über eine Query in den Data Lake. Damit sinken die Kosten für das Legacy-System, weil weniger Ressourcen gebraucht werden. Außerdem lassen sich auf Basis der Daten im Data-Lake etliche neue Kunden-Services anbieten, die gestützt auf die alte IT nur sehr schwer oder gar nicht hätten offeriert werden können. Zum Beispiel lassen sich Cash-Prognosen für Kunden leicht erstellen, weil die Transaktionen des letzten Jahres bekannt sind. Mit Hilfe von Analytic-Tools oder Machine Learning kann man den künftigen Cash-Flow relativ leicht voraussagen. Durch den Data-Lake können alle modernen Werkzeuge eingesetzt werden, die auf einer Mainframe-Anwendung nicht zur Verfügung stehen. Allerdings, und das ist der Nachteil dieses Verfahrens, müssen geänderte Daten wieder in das Legacy-System geschrieben werden. Da dies aber nur dann geschieht, wenn die Ausgangsdaten - durch eine Überweisung zum Beispiel - tatsächlich geändert werden, ist der Zugriff auf das Legacy-System sehr viel seltener nötig.
Cognitive/AI: Hier geht es um zwei Einsatzmöglichkeiten von künstlicher Intelligenz: Zum einen Daten mit Hilfe von selbst lernenden Algorithmen auswerten zu lassen und zum anderen mögliche Verbindungen unter den Teilsystemen und den APIs mit Hilfe von KI analysieren und generieren zu lassen. Eine solche von KI unterstützte Analyse und Änderung der Altsysteme ist der mit Abstand experimentellste, aber auch innovativste Ansatz.
Alles was Sie über KI wissen müssen, finden Sie in unserem Online-Special
Wichtig anzumerken bleibt, dass auch große SAP-Anwendungslandschaften digital entkoppelt werden können. Insbesondere gelingt dies mit neuen SAP-Produkten wie "S4/HANA", "SAP Leonardo" oder "SAP Fiori". Die Wahl der richtigen Entkopplungsstrategie hängt immer sehr stark von der momentanen Situation des Kunden ab. Im Gegensatz zu bisherigen Migrationsstrategien entsteht aber vor allem beim Umstieg auf Microservices kein zusätzliches Software-Layer, das die Komplexität der gesamten IT-Landschaft weiter erhöht und die IT insgesamt noch starrer machen würde. Das verleiht Unternehmen in Zukunft eine deutlich stärkere Selbstbestimmung bei der Weiterentwicklung ihrer IT. Vorausgesetzt sie arbeiten ständig weiter an ihrer dann bereits gewonnenen Agilität. Sie erlaubt es, etwa durch Microservices, IT und Service aktuell zu halten, ohne ständig am offenen Herzen operieren zu müssen.