In den vergangenen Jahren hatte man zeitweise den Eindruck, als ob der Mainframe jetzt wirklich aufs Altenteil geschoben würde. Maschinen auf Basis des x86-Standards schienen sich anzuschicken, die angestammten Aufgaben der Großrechner komplett zu übernehmen. Die Werbelyrik der Dells, Hewlett-Packards (HPs) etc. wollte glauben machen, dass der Mainframe obsolet sei. Alles, was der könne, würden die eigenen Server auch vollbringen.
Ganz so einfach war es dann doch nicht. Überraschenderweise erlebte die Großrechnerplattform in den vergangenen Jahren so etwas wie einen zweiten Frühling. Doch die guten Umsatzzahlen mit den System-z-Maschinen von IBM, mittlerweile fast der alleinige Anbieter solcher Monolithen, können nicht über die Probleme hinwegtäuschen. So muss Big Blue einen Weg finden, existierende Großanwender bei der Stange zu halten. Zudem gilt es, neue mittelständische Kunden durch eine schlüssige Kosten-Nutzen-Rechnung zu überzeugen. Außerdem darf der Großrechneranbieter seine Monopolstellung nicht missbrauchen.
Lange Zeit schien der Mainframe ein Auslaufmodell zu sein. Erst hatte das Client-Server-Konzept der 90er Jahre den einfachen Aufbau kleiner IT-Infrastrukturen ermöglicht. Mit dem Aufkommen des Internets hieß es dann "The Network is the Computer!" (Video) - und IP-Netzwerke wurden und werden immer noch am liebsten auf Unix-Basis aufgebaut. Kunden aus dem Mittelstand verabschiedeten sich von ihren großen Hobeln und ließen ihre Anwendungen lieber auf Windows- und Unix/Linux-Plattformen laufen.
Doch die Zeiten änderten sich. Heute gibt es für die IBM keine Konkurrenz mehr aus den Häusern Amdahl oder Hitachi. Lediglich die BS2000-Schmiede Fujitsu bietet noch Server der Mainframe-Klasse an. Heute führt der blaue Riese ein solides Monopolistendasein mit solventen Großkunden, die vornehmlich aus dem Bereich Banken und Versicherungen kommen. Alles schien darauf hinauszulaufen, dass Mainframes den ganz Großen vorbehalten bleiben, weil diese Klientel die speziellen Leistungen eines Großrechnerumfelds wie hohe Rechenleistung, Ausfallsicherheit und Sicherheit braucht und weil sich die Migration ihrer älteren Anwendungen auf andere Plattformen finanziell nicht lohnt - bis auf weiteres.
Solides Monopol
Doch seit einiger Zeit überrascht Big Blue mit Meldungen über mittelständische Kunden, die, statt ihre alten Eisen ganz abzuschaffen, diese lieber durch neuere Modelle ersetzen und dabei einiges an Betriebskosten sparen. Ist der oftmals "Dinosaurier der IT" genannte Mainframe mal wieder zu früh für ausgestorben erklärt worden?
- Bestandsaufnahme mit Asset-Management
Schritt 1: Die RZ-Betreiber müssen alle Geräte und Systeme, Hard- wie Software lückenlos erfassen und dokumentieren. - Outsourcing prüfen
Schritt 2: Als Alternative zum Eigenbetrieb sollte auch ein Komplett- oder Teil-Outsourcing in Betracht gezogen werden. - Standardisierung als Ziel
Schritt 3: RZ-Betreiber sollten auf eine standardisierte IT-Landschaft mit einheitlichen Lizenzen und einheitlichen Versionen hinarbeiten. - Kosten im Blick behalten
Schritt 4: Grundsätzlich sollten die Einkäufer darauf achten, möglichst schlank dimensionierte und verbrauchsarme Geräte einzukaufen. - Bessere Auslastung mit Virtualisierung
Schritt 5: Um Hardware zu optimieren, muss man sie reduzieren. Das funktioniert mit mehreren virtuellen Servern auf einem physikalischen Gerät. - Das passende Kühlkonzept
Schritt 6: Durch eine effizientere Auslastung der Rechner, lässt sich die Menge aller Stromabnehmer deutlich reduzieren. - Stromverbrauch planen
Schritt 7: RZ-Betreiber müssen die Richtwerte für den Stromverbrauch pro Quadratmeter RZ-Fläche realistisch planen. - Die richtige Dimension
Schritt 8: Ein Raumkonzept hilft, die vorhandenen Räumlichkeiten, Klimatisierung sowie Systeme und Geräte aufeinander abzustimmen. - Monitoring
Schritt 9: Ein umfassendes Monitoring sollte den Rechner-Pool, Stromversorgung, Kühlsysteme und die USV-Anlagen beinhalten.
"Dinosaurier haben mehr als 120 Millionen Jahre überlebt, das vergessen die Leute sehr oft", sagt Josh Krischer, Inhaber einer Unternehmensberatung für Rechenzentrumsfragen. Dabei hatte seiner Ansicht nach gegen Ende der 80er IBM selbst für einige Jahre die Lust daran verloren, Mainframes zu verkaufen. Nachdem Amdahl und Hitachi ihre Ambitionen im Mainframe-Markt aufgegeben hatten, von dieser Seite somit keine Konkurrenz durch IBM-kompatible Maschinen mehr zu befürchten war, verlegte der blaue Riese seinen Fokus auf den möglichst profitablen Betrieb einer vermeintlich auslaufenden Technologie.
Vor sechs Jahren allerdings definierte IBM in einem "Mainframe Charter " genannten Positionspapier den Stellenwert und die weitere Entwicklung des Mainframes neu. Darin wird diese Rechnerwelt nunmehr als strategische Plattform in IBMs Produktportfolio anerkannt. Ferner wird beschlossen, für diese Systeme mittelfristig Technologien zur Senkung der Betriebskosten bereitzustellen, die Entwicklung neuer Anwendungen zu fördern, den Service auszubauen und sich um die Verbreitung von Know-how zu bemühen.
Virtualisierung ist nicht neu
Die Technologien, die in den darauf folgenden Jahren die Schlagzeilen beherrschten - Virtualisierung, Server-Konsolidierung, Cloud Computing -, machten den Mainframe auch für viele Anwender zu einer strategischen Plattform - wobei angemerkt werden muss, dass etwa ein Thema wie Virtualisierung schon seit Jahrzehnten auf dem Mainframe eingeführt war. Dieses Mal stand es allerdings in einem anderen Kontext als in den 70er und 80er Jahren des vergangenen Jahrhunderts. Zwar wussten Mainframe-Anwender schon immer die sprichwörtliche Zuverlässigkeit und Skalierbarkeit ihrer Infrastruktur zu schätzen. Allerdings bieten das andere Plattformen inzwischen auch. Etwaige Defizite in diesen Disziplinen lassen sich oftmals durch niedrigere Betriebskosten und andere Technologien ausgleichen.
Das Zauberwort im Zusammenhang mit IBMs Erfolgsmeldungen zu neuen Mainframe-Aufträgen lautet immer wieder "Konsolidierung". Statt riesige Server-Farmen mit verteilten Strukturen zu unterhalten, konzentrieren Mainframe-Anwender viele Anwendungen auf einem einzigen System. Das erleichtert nicht nur die Administration, es senkt auch die Lizenzgebühren für Unternehmenssoftware. Da dieser Obolus an die IBM meist pro Prozessor abgerechnet wird, sprechen die nackten Zahlen gegen verteilte Strukturen mit vielen Servern und noch mehr Prozessoren. Die Verwendung weniger leistungsstarker Prozessoren, wie sie in Großrechnern eingesetzt werden, senkt die Anwendungskosten pro Nutzer.
Besonders Großanwendungen wie Warenwirtschafts- und Verwaltungssysteme kommt diese Eigenschaft zugute. Die Stadt Gelsenkirchen beispielsweise hat vergangenes Jahr ihre SAP-Infrastruktur ausgebaut, gleichzeitig aber ihre Betriebskosten gesenkt. Geschafft hat sie das, indem sie ihre alten z990-Großrechner durch einen Mainframe der System-z10-Serie ersetzt hat. Die Kostenvorteile ergeben sich vor allem dadurch, dass zahlreiche SAP-Module auf virtuellen Maschinen unter Linux laufen. Sowohl diese als auch die Datenbanksoftware DB2 nehmen nicht die Hauptprozessoren, sondern als Specialty Engines bezeichnete Prozessoren in Anspruch. Für die veranschlagt Big Blue wesentlich geringere Lizenzgebühren.