CW: Das IT-Sourcing-Angebot ist heute groß wie nie, es reicht vom klassischen Outsourcing und Application-Management bis hin zu IaaS, SaaS und anderen und Cloud-Diensten. Mit welchen Kundenwünschen sieht sich die IBM in Deutschland hauptsächlich konfrontiert?
Keller: Das ist ein Potpourri aus allen möglichen Anforderungen. Es gibt Kunden, die mit klaren Vorstellungen auf uns zukommen. Einige haben interne IT-Organisationen, die bereits sehr gute IT-Services liefern, die aber eine höhere Flexibilität benötigen oder auch neue Geschäftsmodelle etablieren wollen, die sich nur schwerlich in den laufenden Betrieb integrieren lassen. In diesen Fällen geht es darum, dass wir die bestehende Art und Weise, wie die Unternehmen ihre IT beziehen, gemeinsam neu gestalten.
Manchmal dreht sich auch alles um technische Fragen, wenn Kunden etwa virtualisieren wollen oder ihre Verfügbarkeit verbessern möchten. Andere wiederum kommen mit klaren Sparzielen auf uns zu. Sie wollen von uns Vorschläge hören, wie man intelligent Kosten reduzieren kann, indem man den IT-Betrieb um Leistungen eines externen Partners ergänzt. Hier geht es meistens um Skaleneffekte. Außerdem gibt es viele Anwender, die Probleme haben, gut ausgebildete Arbeitskräfte zu rekrutieren, die sie für ihre IT-Projekte benötigen, und aus diesem Grund zu uns kommen.
Für uns geht es immer darum, zusammen mit dem Kunden zu definieren, wo der Schuh drückt und welche Ursachen dahinter stehen. Auf Basis dieser Analyse können wir gemeinsam entscheiden, welche Art des Sourcing sinnvoll ist.
CW: Welche Dienste werden zurzeit besonders nachgefragt, also wo gibt es aus IBM-Sicht Wachstum? Insgesamt schrumpfen die IT-Budgets- zumindest was die Ausgaben für den IT-Betrieb betrifft.
Keller: Darauf gibt es keine pauschale Antwort. Zwischen dem klassischen Outsourcing und dem Überführen von IT-Leistungen in die Cloud, um einmal zwei Pole im IT-Betrieb zu nennen, verwischen die Grenzen. Durch den Einsatz von Cloud-Technologien lässt sich die IT-Dienstleistung flexibilisieren und günstiger betreiben. Die genaue Ausgestaltung hängt von diversen Faktoren ab, ob etwa der Kunde bislang alles in Eigenregie betrieben hat, ob die IT schon effizient genug ist und ob schnelle, flexiblere oder neue Lösungen gefragt sind.
Ist etwa eine bereits ausgelagerte IT sehr effizient aufgestellt, kann man durch Skaleneffekte noch weitere Einsparungen realisieren. Insgesamt gibt es auch im deutschen Outsourcing-Markt noch viele Geschäftsmöglichkeiten. Der Markt ist noch lange nicht gesättigt, im Gegenteil, wir spüren eine deutlich stärkere Nachfrage nach flexiblen Sourcing-Modellen, da auch das Geschäft vieler unserer Kunden volatiler geworden ist.
CW: Sehen Sie vor allem im Mittelstand Potenzial?
Keller: Sowohl im Mittelstand, als auch in Großunternehmen. Export-orientierte Mittelständler haben schon sehr viel früher angefangen, sich mit diesen Themen auseinander zu setzen, als Unternehmen, die vor allem im Heimatmarkt aktiv sind. Das gilt aber auch für die Großen. Wir sehen in beiden Marktsegmenten noch Potenzial.
Mit Beratung aus der abwärts gerichteten Preisspirale
CW: Ein Blick in den Markt für Betriebsdienste der vergangenen Jahre zeigt einen erheblichen Preisdruck in Folge von Global-Delivery-Modellen. Wie reagieren Sie auf die Stärke indischer Provider?
Keller: Wir haben selbst große Offshore-Delivery-Center in Indien und anderen Ländern. Insbesondere in Zeiten, in denen der Datenschutz eine wichtige Rolle spielt, verlangen viele Kunden Betreuung in lokaler Sprache und Datenhaltung im Inland. Wir bieten Lokalität und können dennoch die Anforderungen globaler Unternehmen nach internationaler Präsenz erfüllen.
Wir setzen uns von den Wettbewerbern auch dadurch ab, dass wir Kunden nicht nur IT-Dienstleistungen anbieten können, sondern ganzheitliche Lösungen inklusive Beratung, Software, Hardware und Betrieb. Nehmen Sie das Beispiel IT-Automatisierung: Wie man einen komplexen IT-Betrieb automatisiert, hat viel mit Business Analytics zu tun. Damit lassen sich zum Beispiel wiederkehrende Muster erkennen, so dass wir Kunden ergänzende Dienste anbieten können.
- Hollerith Tabulator
Diese Tabulatoren wurden von Herrman Hollerith erfunden und für das amerikanische statistische Bundesamt gebaut. Sie wurden in dieser Konstellation erstmals 1890 für eine US-weite Volkszählung eingesetzt. Holleriths Patente kaufte später die Computing Tabulating Recording Co., die wiederum 1924 in International Business Machines (IBM) umfirmierte. - IBMs neues IoT-Hauptquartier
Harriet Green, General Manager Internet of Things (IoT) bei IBM, kündigt Mitte Dezember 2015 in München das neue Watson IoT Hauptquartier an. Rund 1000 Mitarbeiter sollen in der bayerischen Landeshauptstadt an neuen Lösungen für das Internet der Dinge arbeiten. - Erweiterter E-Mail-Client
Mit IBM Verse will das Unternehmen geschäftliche E-Mails neu erfinden. Der Mail-Client erweitert die Optionen bei der Verwaltung von E-Mails, bindet Social Media und andere Kommunikationskanäle ein und liefert weitere nützliche Informationen. So kann der Nutzer sehen, welche Teilnehmer gerade per Mail kommunizieren oder welche Position sie im Unternehmen einnehmen. IBM Verse liefert zudem aktuelle Kontextinformationen zu laufenden Projekten oder dafür zuständigen Teammitgliedern. - Neue Mainframe-Generation
Im Januar 2015 hat IBM mit dem z13 einen neuen Großrechner vorgestellt. Das Mainframe-System ist auf die Anforderungen der Mobile Economy zugeschnitten und soll bis zu 2,5 Milliarden Transaktionen pro Tag verarbeiten. Weitere wichtige Funktionen sind schnelle Echtzeit-Verschlüsselung und integrierte Analytik. Letztere soll dabei helfen, Betrugsversuche bei Geschäftsvorgängen schnell aufzudecken. - Design-Studio in Böblingen eröffnet
In Böblingen arbeiten seit September 2014 Designer und Entwickler gemeinsam nach der IBM Design Thinking Methode an Hard- und Softwaretechnologien des Unternehmens. Hier im Bild Phil Gilbert, General Manager IBM Design und Dirk Wittkopp, Geschäftsführer des IBM Forschungs- und Entwicklungszentrums in Böblingen, bei der Eröffnung des Design Studios. - Cloud-Offensive
Im Jahr 2014 investierte IBM mehr als 1,2 Milliarden US-Dollar in den weiteren Ausbau ihres weltweiten Cloud-Angebotes. Damit können Kunden jetzt auf Cloud-Services zugreifen, die aus 40 lokalen Rechenzentren in 15 Ländern stammen. In Deutschland befindet sich das Cloud-Zentrum in Ehningen. IBM hat sich das Ziel gesetzt, mit ihren Cloud-Angeboten bis 2015 jährlich sieben Milliarden US-Dollar zu erwirtschaften. Dazu wurde 2013 der privat gehaltene IaaS-Spezialist SoftLayer übernommen. - Watson Analytics
Der neue Cloud-Service Watson Analytics basiert auf der kognitiven Computing-Technologie IBM Watson. Nichttechnische Fachkräfte in Marketing, Vertrieb, Finanzen und Personal können damit direkt vom Desktop oder vom mobilen Endgerät über natürliche Sprache auf intelligente Analyse-Werkzeuge zugreifen. - Watson
Mit dieser Maschine schlug die IBM in der US-Quiz-Show Jeopardy zwei menschliche Ratefüchse und bewies damit, wie weit die IBM auf dem Gebiet der entscheidungsunterstützenden Systeme fortgeschritten ist. IBM will die Watson zugrunde liegende Software künftig in ihren Business Intelligence Systemen zur Verfügung stellen. Früher nannte man das auch künstliche Intelligenz, aber der Begriff ist inzwischen aus der Mode gekommen. „Entscheidungsunterstütztend“ klingt auch nicht so gefährlich wie künstliche Intelligenz. Da fragt man sich schließlich sofort, wann die künstliche, die organische überholt hat. - Samual j. Palmisano
Samual J. Palmisano stand der IBM seit 2002 vor. In seiner Amtszeit hat er die Company streng auf Servicekurs gehalten und gleichzeitig kräftig in Software investiert. - Louis V. Gerstner
Louis V. Gerstner übernahm 1993 die Geschäfte vom glücklosen John Akers. Gerstner rettete die IBM. Er teilte sie nicht, wie von Akers geplant, in verschiedene Unternehmen auf, sondern suchte gerade aus dem breiten Portfolio der IBM neue Erfolge zu erzielen. Das schaffte er und richtete die IBM mit einem deutlichen Fokus auf das Servicegeschäft aus. Als er die Führung der IBM in die Hände seines Nachfolgers, Samual J. Palmisano, legte, hatte die IBM ihre existenzbedrohliche Krise längst überwunden. Außerdem war sie durch geschicktes Zugehen auf Partner, Kunden und Öffentlichkeit vom „bad guy“ der IT zum „good boy“ geworden, der sich glaubhaft für offene Standards einsetzte und sich für Opensource-Software einsetzte. - John F. Akers
John F. Akers führte die IBM in die größte Krise ihrer Geschichte. Von seinem Vorgänger übernahm er 1985 ein kraftstrotzendes Unternehmen, das zu seiner Amtsaufgabe 1993 über fünf Milliarden Dollar Verluste machte und kurz vor seiner Zerschlagung stand. - John R. Opel
John R. Opel überstand nur vier Jahre an der Spitze der IBM – von 1981 bis 1985. - Frank T. Cary
Frank T. Cary besetzte den Chefsessel der IBM acht Jahre lang - von 1973 bis 1981. Trotz dieser gegenüber seinem Vorgänger vergleichsweise langen Verweildauer, kann selbst die IBM wenig Bemerkenswertes über ihn erzählen. - T. Vincent Learson
T. Vincent Learson folgte als CEO und Chairman auf Thomas Watson Jr. Er führte die IBM vergleichsweise kurze eineinhalb Jahre von Juni 1971 bis Januar 1973. - Thomas J. Watson Jr.
Watson Jr führte die IBM durch eine Phase stürmischen Wachstums. Unter seiner Ägide wurde aus der IBM nicht nur eine der zwölf größten Unternehmen der Welt, er führte sie auch ins eigentliche Computerzeitalter. Als er 1956 sein Amt antrat, zählte das Unternehmen 72500 Mitarbeiter und erzielte einen Umsatz von 892 Millionen Dollar. Als er 1971 abtrat, beschäftigte Big Blue 270000 Mitarbeiter und machte einen Umsatz von 8.3 Milliarden Dollar. Das Fortune Magazin nannte ihn laut IBM-Quellen sogar "den größten Kapitalisten, der je gelebt hat." - Thomas J. Watson Sr.
Der 1874 geborene Watson wurde 1914 zunächst zum Generalbevollmächtigten und 1915 zum Präsidenten der Computing-Tabulating-Recording Company. Er benannte das Unternehmen 1924 in IBM um. Watsons provisionsbasierender Vertrag sicherte ihm fünf Prozent des Gewinns der IBM (nach Steuern). Das macht ihn später zum bestbezahlten Manager der USA. Watson galt als genialer Verkäufer und großer Mitivator. Er schreckte allerdings auch nicht vor unsauberen Methoden zurück, um die Konkurrenz zu bekämpfen. Das brachte der IBM bereits 1932 ihr erstes Anti-Trust-Verfahren ein. In einem Wikipedia-Beitrag ist genauer nachzulesen, was Watson für die IBM erreicht hat und wie er dabei vorgegangen ist. Er übergab die Führung des Unternehmens 1956 an seinen ältesten Sohn Thomas J. Watson Jr. - Deep Blue
Im ersten Schachturnier (1996) zwischen Mensch (Weltmeister Garry Kasparov) und Computer gewann die Maschine nur ein Spiel von sechs . 1997 gewann Deep Blue das gesamte Turnier gegen Kasparov. Deep Blue basierte auf einer um Spezialhardware erweiterten IBM RS/6000 SP2. Das System konnte 200 Millionen Züge pro Sekunde berechnen oder 50 Milliarden Positionen innerhalb der drei Minuten, in denen ein Schachspieler in einem Turnier ziehen muss. - Think Pad
Die Think Pad Laptopserie wurde 1992 vorgestellt. Sie galt als sehr robust, schlicht, aber schick designed und absolut verlässlich. An dem neuen Trackpoint-Device(der rote Knopf in der Mitte der Tastatur) schieden sich die Geister. Das Butterfly-Modell sorgte wegen seiner beim Aufklappen expandierenden Tastatur für Furore. - PS/1
Der PC wurde im Juni 1990 vorgestellt er stellt IBMs Versuch dar, im Endverbrauchermarkt wieder Fuß zu fassen. Der DOS-kompatible PS/1ließ sich als Rechner für den Privatgebrauch genauso einsetzen wie als Business-Rechner für einen Kleinbetrieb. Er basierte auf der 80286-Prozessortechnologie von Intel, klotzte mit 1 MB Hauptspeicher und wies ein internes Modem auf. Allerdings galten die ersten PS/1 Modelle wegen fehlender ISA-Erweiterungssteckplätze als nur schwer ausbaubar. - System 390
Es handelte sich um die Nachfolgeserie der IBM /370 und wurde 1990 vorgestellt. Die Rechnerfamilie bestand aus acht wassergekühlten und zehn luftgekühlten Mainframes, letzteres ein Novum in der IBM-Welt. - RS/6000 SP2
Nachdem sich die IBM-Nomenklatura lange gegen den Unix- und Workstationtrend gewehrt hatte, kam 1990 endlich der RISC-Rechner RS/60000 unter dem IBM-Unixderivat AIX auf den Markt – zunächst als Workstation, später auch als Server. Bezeichnend für die nachhaltige Macht der Mainframe-Fraktion innerhalb der IBM ist folgende Tatsache: IBM-Forscher hatten das sehr effiziente Reduced Instruction Set Computing bereits in den frühen 70ern entwickelt. Man zeigte 1975 sogar einen experimentellen RISC-Rechner, aber die Innovation wurde quasi totgeschwiegen. - AS/400
Die AS/400 stellte den teilweise erfolgreichen Versuch der IBM dar, das sogenannte Midrange-Geschäft wieder in den Griff zu bekommen. Als die AS/400 1988 auf den Markt kam, wurde sie als leicht bedienbare hochintegrierte Maschine für den Mittelstand positioniert. Gleichzeitig hatte die IBM weltweit Tausende Partner für das System gewonnen, die entsprechende Businss-Software für die AS/400 anboten. Damit war ein funktionierendes Ökosystem geschaffen, das die AS/400 enorm erfolgreich machte. - Personal Computer (IBM 5150)
Im August 1981 stellte IBM den Personal Computer (IBM 5150) vor. Erstmals stammten die meisten Komponenten nicht von der IBM, vor allem die wichtigsten nicht, der Prozessor (8088) kam von Intel und das Betriebssystem (PC-DOS) von einem kleinen, 22 Mann starken Unternehmen – von Microsoft. IBM setzte auf verfügbare Komponenten weil sie schnell ein Pendant zu den Microcomputern brauchte, die erfolgreich verkauft wurde – das war vor allem der Apple II. Geplant war definitiv nicht, ein Standardsystem zu schaffen (IBM-kompatibel), an dem sich andere Hard- und Softwarehersteller orientieren konnten und das die Welt eroberte. So gesehen hat IBM unfreiwillig einen Milliarden-Markt eröffnet ohne selbst davon zu profitieren. Die Monopole von Microsoft und Intel haben ihren Ursprung in IBMs Produktinnovation. - System /34
Bereits 1977 kündigte die IBM das System /34 an, eine - verglichen mit dem Mainframe - preisewerte Maschine für die verteilte Datenverarbeitung. /34 stellt den ersten Ausflug der IBM in die sogenannte mittlere Datentechnik dar, in der sie trotz der Nachfolgesysteme /36, /38 und vor allem der AS/400 nie eine solche Dominanz gewann, wie im Mainframe-Geschäft. Der Erfolg dort war höchstwahrscheinlich auch der Grund für die durchwachsene Bilanz im mittleren Marktsegment. Die Mainframe-Befürworter sahen die Midrange-Maschinen als einen Angriff auf ihre Kundenbasis, den sie mit allem Mitteln versuchten abzuwehren. - IBM Datenbank DB/2
Das Konzept der relationalen Datenbank wird seit 1970 implementiert. In ihnen werden Informationen in leicht interpretierbaren Tabellen organisiert. Die Methode wurde in der IBM Datenbank DB/2 erstmals kommerziell verwendet. - IBM 1800
Das IBM im November 1964 eingeführte IBM 1800 Datenerfassungs- und Kontrollsystem verfügte über eine bahnbrechende Innovation: Ein Speichersystem, das 512 000 Worte pro magnetischer Speicherplatte speichern konnte. Außerdem hatte die 1800 steckbare Schaltkreise, die es Anwendern erlaubten, mit der Maschine Hunderte verschiedener Produktionsprozesse zu überwachen. - Solid Logic Technology (SLT)
Der integrierte Schaltkreis wurde erstmals im System /360 eingesetzt. Die Schaltkreis-Module waren dichter gepackt, schneller und sie verbrauchten weniger Energie als Rechner, die auf Transistoren aufgebaut waren. - System /360
Der Name war Programm: Die Zahl 360 im Produktnamen stand für die 360 Grad eines Kreises, was wiederum als Hinweis auf die universelle Einsetzbarkeit dieses Systems zu verstehen ist. Das im April 1964 eingeführte System /360 stellte die erste Familie kompatibler Universalrechner dar. Das neue Prinzip der Kompatibilität bedeutete, dass die verschiedenen Rechner der Familie, die gleichen Prozessoren und das gleiche Betriebssystem nutzten und so Rechner ausgetauscht werden konnten, ohne wie früher notwendig, sämtliche Peripheriegeräte auszutauschen und sämtliche Programme neu zu schreiben. Für Anwenderunternehmen machte das die Computerei sehr viel billiger und nützlicher als früher. Aber es band sie auch sehr eng an die IBM, die diese Bindung vor allem für ihre Ziele ausnutzte. Schließlich konnten Kunden der IBM sich nur durch hohe zusätzliche Investitionen wieder von IBM-Equipment lösen. Die Einführung der /360 gilt noch heute als einer der bedeutendsten, wenn nicht als der wichtigste Meilenstein in der Entwicklung der IBM. - IBM 7090
Dieser 1959 eingeführte Großrechner war nicht mehr mit Röhren, sondern vollständig mit Transistoren ausgestattet. Mit der 7090 wurden die Mondflüge des Apollo-Programms simuliert. Der Rechner konnte 229000 Berechnungen pro Sekunde durchführen und kostet damals rund 2,9 Millionen Dollar oder 63500 Dollar Miete pro Monat. - NORC
Der Naval Ordnance Research Calculator (NORC) wurde 1954 an die amerikanische Marine ausgeliefert. Er schaffte 15000 arithmetische Berechnungen pro Sekunde und galt damit als der schnellste Supercomputer seiner Zeit. - Lochkarten-Maschinen
Diese Damen und Herrn bedienen elektrische Buchhaltungsmaschinen (frühe 50er Jahre). Die Maschinen auf der linken Seite (IBM 523 gang summary punch) konnte 80 Lochkarten in der Minute verarbeiten, die in der Mitte abgebildeten Hochgeschwindigkeits-Sortierer (IBM 82) brachten es auf eine "Prozessorgeschwindigkeit" von 650 Lochkarten pro Minute. - Elektrische Schreibmaschine
Diese elektrische Schreibmaschine, Model 01 IBM Electric Typewriter kam 1935 auf den Markt. Sie wurde zur ersten erfolgreich verkauften Maschine ihrer Art. Bereits zwei Jahre vorher war die IBM in diesen Geschäftszweig eingestiegen und hatte die Produktionsstätten von Electromatic Tyopewriters Inc übernommen. Im folgenden Jahr steckte IBM die unerhörte Summe von einer Millionen Dollar in das Redisign des Models „Electromatic Typpewriter“ Ergebnis war Model 01 – trotz der vielen Entwicklungsdollars immer noch keine Schönheit, aber erfolgreich.
CW: Gibt es bestimmte IT-Segmente, die sich nicht für eine Verlagerung in die Cloud eignen, etwa weil dem regulatorische Hindernisse entgegenstehen?
Keller: Ich bin felsenfest davon überzeugt, dass die Cloud-Angebote alle Branchen und IT-Segmente durchziehen werden. Entscheidend ist die Ausgestaltung im Einzelnen. Es ist ein Unterschied, ob etwa die öffentliche Hand Projekte startet, oder die Privatwirtschaft, wenngleich es auch dort, etwa im Versicherungs- und Bankenwesen regulatorische Auflagen gibt. Manche IT-Dienste verlangen hohe Sicherheits-standards und on-Premise-Installationen.
Cloud und IT-Betrieb werden hybrid
Wir werden nie eine reine lokale IT-Welt im Eigenbetrieb oder im Outsourcing erleben, sondern zunehmend hybride Sourcing-modelle: Public, Private und hybride Clouds, on-premise und off-premise-Systeme in Mischformen. Jedes Servicemodell bedient unter-schiedliche Anforderungen an Sicherheit, Skalierbarkeit und Flexibilität. Die Cloud-Technologie wird nicht vor bestimmten Kundensegmenten halt machen, es kommt nur auf die Ausgestaltung an.
CW: Gibt es Entwicklungen über das Coud-Thema hinaus, die sich im IT-Betriebsgeschäft als kommender Trend herauskristallisieren?
Keller: Sicher ist, dass wir heute noch nicht abschätzen können, welche Auswirkungen die mit großer Geschwindigkeit auf uns zurollende Big-Data- und Analytics-Welle haben wird. Unternehmen müssen lernen, aus der Datenvielfalt und -menge mithilfe der richtigen Technologien die relevanten Rückschlüsse zu ziehen. Daten-analysetechniken helfen den Unternehmen dabei, Risiken abzuschätzen und neue Geschäftsmodelle entwickeln zu können.
Das hat auch spürbare Auswirkungen auf die Arbeitswelt. Um auf das Thema IT-Betrieb zurückzukommen: Auf der einen Seite fördern Analytics-Technologien die Automatisierung und ersetzen zum Teil administrative Tätigkeiten. Auf der anderen Seite entstehen völlig neue Berufsbilder, wie etwa der Data Scientist. Unsere Aufgabe ist es, Sorge dafür zu tragen, rechtzeitig die erforderlichen Skills dafür auszubilden und vorzuhalten.