Vor allem Großunternehmen setzen in ihren Rechenzentren auf die Host-Technologie als wichtigstes Arbeitsmittel ihrer IT. In den nächsten Jahren wird nun ein Großteil der altgedienten Mainframe-Experten in den Ruhestand gehen. In diesem Zusammenhang stellt sich die drängende Frage: Was dann?
- Mainframe-Know-how sichern
Die alte Riege der Mainframe-Spezialisten geht in Rente. Compuware gibt Tipps, wie sich Unternehmen auf den Generationenwechsel im Mainframe vorbereiten. - Bestandsaufnahme vornehmen
Compuware rät im ersten Schritt zu einer Bestandsaufnahme von bestehenden Mainframe-Daten, -Anwendungen, -Kapazitäten, -Nutzungsszenarien und -Management-Tools. - Mitarbeiterwissen bestimmen
Ferner muss eine auf Fakten basierende Bedarfsübersicht für Mitarbeiter-Know-how mit einer realistischen Zeitleiste erstellt werden. - Mainframe-Funktionen definieren
Drittens müssen die aktuellen und geplanten Mainframe-Funktionalitäten erfasst werden. - Investitionen anpassen
Darüber hinaus ist eine Anpassung der Investitionen zur Absicherung der Mainframe-Anwendungen vorzunehmen. - Kostenkürzungen überdenken
Kurzfristige Kostenkürzungen sind aufzuschieben, falls sie langfristig negative Folgen für den Mainframe-Einsatz haben. - Nicht-Mainframe-Plattformen bewerten
Nicht zu vergessen ist laut Compuware eine realistische Einschätzung von Potentialen, Kosten und Risiken der Nicht-Mainframe-basierenden Plattformen.
Unbekanntes Terrain für den Nachwuchs
Was den Mainframe-Markt in den kommenden Jahren vor allem prägen wird, ist vor allem die Big-Data-Thematik. Bildlich gesprochen ist der Mainframe der Sattelschlepper unter den Großrechnern, der immense Mengen an Daten verarbeiten kann. Im Zeitalter von Big Data unverzichtbar. Verbunden mit Big Data wird es notwendig, Funktionen für intelligente Suche und die Analyse sehr großer Datenmengen zu integrieren. Im Mainframe steckt nach wie vor die neueste und beste Technologie, nur viele wissen dies überhaupt nicht. Vor allem viele junge Manager schreiben dem Mainframe ein Dinosaurier-Image zu.
Um diesem antiquierten Image zu begegnen, besteht zum einen Handlungsbedarf bei der User Experience, die es an die modernen Anforderungen anzupassen gilt. Die klassischen grün-schwarzen Bildschirme schrecken jeden Neuling ab, der im Privatbereich in Sachen ansprechender GUIs und intuitiver Bedienung inzwischen ganz andere Standards gewöhnt ist. IBM kooperiert im Rahmen seiner "Design Thinking"-Initiative deshalb seit einiger Zeit mit Apple. Big Blue bringt in die Ehe sein Wissen im Enterprise-Geschäft und beim Betrieb großer Data Center mit, Apple seine Erfahrungen mit User Experience im Consumer Markt. In weltweiten "Design-Centern" rollen Industrie-Designer das Problem IBM-untypisch von einer anderen Seite auf und stellen die User-Sicht in den Vordergrund. Über 1000 neue Mitarbeiter/innen wurden nur hierfür laut IBM neu eingestellt, was sich mittelfristig in ganz neuen Oberflächen ausdrücken wird.
- Datenanalyse als Service
Analytics Tools aus der Cloud können den Einstieg in die Datenanalyse erleichtern. Sie erfordern keine Vorabinvestitionen im fünf- oder sechsstelligen Bereich und besitzen teilweise grafische Benutzeroberflächen, die es auch dem weniger versierten Anwender ermöglichen, Analyseprozeduren zu erstellen, die zu aussagefähigen Ergebnissen führen. Wir stellen fünf wichtige Big-Data-Tools vor, die Sie als Service aus der Cloud nutzen können. - AWS Elastic MapReduce
Seit der Version 4.1.0 von Amazon Elastic MapReduce lassen sich Cluster im laufenden Betrieb verkleinern. - Google Cloud Platform
Mit dem Google Cloud Launcher lässt sich ein Hadoop-Cluster mit wenigen Klicks einrichten. - Microsoft Azure
Ein Hadoop-Cluster ist in HDInsight von Microsoft in zirka 10 bis 15 Minuten verfügbar. - IBM Analytics
Beim Einrichten eines Hadoop-Clusters auf IBM Bluemix hat der Anwender die Wahl zwischen drei Cluster-Größen. - SAP HANA Cloud Platform
LubeInsights verknüpft Hadoop im SAP HANA und lädt nur aktuell benötigte Daten in die In-Memory-Datenbank.
Mainframe an die Hochschulen
Das Hauptproblem besteht jedoch darin, dass die jüngere Generation die Mainframe-Technologie oft nicht kennt, weil dies an anderen Hochschulen oder Berufsakademien zu stiefmütterlich behandelt wird. Hier muss ein viel breiteres Interesse geweckt werden. Auch aus Sicht der U30-Community innerhalb der IBM-Benutzervereinigung "Guide Share Europe" wird bemängelt, dass junge Leute keine Möglichkeit hätten, außerhalb ihres Unternehmens mit dem Mainframe in Berührung zu kommen. In der Tat: Wer Linux kennenlernen will, kann dies einfach per Web-Download, mit dem Mainframe ist dies deutlich schwieriger. Hier gilt es folglich, die bestehenden vereinzelten Initiativen von IBM und Hochschulen besser zu koordinieren und zu publizieren.
- Fünf gute Gründe ...
... warum Analytics nicht in die IT-Abteilung, sondern in die Fachbereiche gehören und warum jeder Fachbereichsleiter einen Data Scientist in seinem Team haben sollte. - Analytics können helfen, Unternehmensziele zu erreichen
Analytics dient keinem Selbstzweck. Der Wert von analytischen Services oder Datenprodukten entsteht erst durch die Einbindung in Geschäftsprozesse. Erst durch die Realisierung eines effektiven Nutzens in Form von Effizienzsteigerungen und damit verbundenen Kostensenkungen, der Generierung von Neugeschäft oder eine gesteigerten Kundenloyalität werden tatsächliche Effekte im Geschäftsergebnis messbar.<br /><br /> Fachbereiche sind in ihrer Funktion für die Steigerung von einzelnen Erfolgsfaktoren verantwortlich und haben daher ein Interesse zu verstehen, an welcher Stelle ihnen Analytics helfen kann. Zudem sollten die Mitarbeiter im Fachbereich auch zu einem Stück weit verstehen, wie die Analysen funktionieren, um mit dem Wissen zu ihren Geschäftsproblemen beispielsweise das Transferdenken zu leisten, wie man Daten anreichern sollte oder welche zusätzlichen Analysen durchgeführt werden sollten. Außerhalb des Fachbereichs hat für gewöhnlich niemand das entsprechende Interesse die Unternehmenskennzahlen in dem speziellen Bereich positiv zu beeinflussen und kein anderer kann es besser. - Anwendungsfälle ergeben sich aus den Erfahrungen, die Mitarbeiter im täglichen Betrieb sammeln
Gesunder Menschenverstand, Erfahrungswerte für Abwägungen zwischen Machbarem und Sinnvollem und ein Gespür für die echten Probleme in einem Unternehmensbereich sind relativ seltene Fähigkeiten, schwer zu erlangen und wenn dann über einen längeren Zeitraum im täglichen Geschäft entstanden. Das unverzichtbare Wissen, die sogenannte "Magic Sauce" für eine erfolgreiche Anwendung von analytischen Fähigkeiten ist und bleibt in den Fachbereichen. - Data Scientists brauchen das Know-how des Fachbereichs, um Modelle praxisrelevant zu entwickeln
Ein guter Data Scientist zeichnet sich durch ein breites Wissen von analytischen Methoden, Anwenderkenntnis von analytischen Technologien, Fähigkeiten zur Datenaufbereitung und Kreativität aus. Aber die Arbeit eines Risikoanalysten bei einer Bank und eines Marketinganalysten bei einem Online-Händler unterscheiden sich.<br /><br />Der Grund, warum sie ihre Jobs nicht ohne weiteres tauschen können, ist das Verständnis über ihren Fachbereich und das Wissen was funktioniert und was nicht. So wertvoll Datenprodukte für einzelne Fachbereiche sein können, häufig ist es ein Ansatz aus Testen und Lernen, der aus einem analytisch einwandfreien Modell ein für den praktischen Einsatz wertvolles und nachhaltiges Datenprodukt generiert. - Ergebnisse müssen interpretiert und Maßnahmen abgeleitet werden
Auch wenn der Data Scientist nicht im Fachbereiche angesiedelt ist: Eine enge Zusammenarbeit ist unerlässlich. Spätestens wenn es an das Verstehen von Ergebnissen und Ableiten von Maßnahmen oder die Integration in Geschäftsprozessen geht, nehmen Fachbereiche die Führungsrolle ein. Je enger die Einbindung während der gesamten Entwicklung des analytischen Anwendungsfalls, desto wahrscheinlicher ist die Akzeptanz und Relevanz für die Anwendung in den Fachbereichen. - Ein Data Scientists im eigenen Team schafft Agilität und Vorsprung
Sobald dem Fachbereich bewusst ist, welchen Mehrwert Analytics und die richtige Datenauswertung bietet, können sich Data Scientists häufig nicht mehr vor kurzfristigen Anfragen retten und müssen ihre Kapazität zwischen Fachbereichen balancieren. Arbeitet Data Scientist jedoch im eigenen Team, ist er schneller erreichbar. Analyseprojekte können dauerhaft weiterentwickelt werden und auf die immer schneller wechselnden Prioritäten vieler Fachbereiche kann reagiert werden. Der Data Scientist kann sich mit der Zeit Fachbereichswissen aneignen, entlastet somit andere Fachmitarbeiter und kann sie zugleich in ihren analytischen Fähigkeiten weiterentwickeln – als Hilfe zur Selbsthilfe für die Kollegen im Fachbereich.
Nachholbedarf in Eigen-PR
Forscher wie Martin Bogdan vom Lehrstuhl für Technische Informatik der Universität Leipzig packen das Problem an der Wurzel: Die Ausbildung ist schlichtweg nicht weiträumig genug aufgestellt und auf zu wenig Hochschulen verteilt. "Der Mainframe ist eine hochinteressante Rechnerarchitektur, die eine technologische Spitzenposition einnimmt", weiß der Leipziger. Dass dies viele nicht so wahrnähmen, sei ein Versäumnis in der Selbstdarstellung und damit zusammenhängend der bislang mangelnden Ausbildung. An der Universität Leipzig gibt es nicht nur Informatiker, sondern auch Wirtschaftsinformatiker, also künftige potenzielle Manager. Auch diese besuchen Bogdans Vorlesungen und damit ist die Mainframe-Technologie für sie keine Unbekannte.
An der Uni Leipzig plant man, gemeinsam mit der European Mainframe Academy und einigen akademischen Partnern ein "Academic Mainframe Consortium" (AMC) zu gründen. Durch zusätzliche Unterstützung aus der Wirtschaft soll dieses Lehrmaterialien für den leichten Einstieg auf allen Bildungsebenen erarbeiten, um sie akademischen Einrichtungen zur Verfügung zu stellen und beispielsweise Systemspezialisten auszubilden.
Die European Mainframe Academy sucht ihrerseits den Kontakt zu den Universitäten und anderen akademischen Einrichtungen, um in Kontakt mit jungen Menschen zu kommen, die Interesse für den Mainframe zeigen. Auf der anderen Seite pflegt sie Kontakte mit vielen Unternehmen, die Nachwuchs brauchen und sieht sich hier in einer Art Vermittlerrolle. Problem beim geplanten Academic Mainframe Konsortium könnte sein, dass die Mainframes an deutschsprachigen Hochschulen noch an einer Hand abzuzählen sind: Leipzig, Tübingen, Frankfurt/Main, Karlsruhe und Luzern. Die Maschinen dort stehen bereit und können genutzt werden. Nur müssen eben die Zugänge für junge Studierende anderer Hochschulen ermöglicht werden. Bislang geschieht das noch zu wenig, weil es kaum Fachpersonal gibt, welches die Administration, die Einrichtung von Benutzerkennungen etc. übernimmt. Die European Mainframe Academy arbeitet daran, dies zu ändern.
Der bereits so oft totgesagte Mainframe wird technologisch auch künftig gerade im Big-Data-Zeitalter seine Berechtigung haben, vorausgesetzt die Nachwuchsförderung ist gesichert. Die bereits gestarteten Initiativen sind ein erster Schritt in die Zukunft des Mainframes für und mit der nächsten Generation. (fm)