Das Stichwort Cloud Computing fällt oft im Zusammenhang mit der Entwicklung neuer Geschäftsmodelle oder der besseren Einbindung von Kunden. Im Zusammenhang mit Monitoring wird die Cloud dagegen selten betrachtet - zu selten. Das finden jedenfalls Wolfgang Schwab, Leiter User Consulting beim Marktforscher Experton, und Detlef Wolf, Senior Certified IT Specialist bei IBM Deutschland. Sie diskutieren diese These in einem Webcast der Computerwoche, Detlef Korus vom Magazin moderiert.
"Die Cloud ist noch ein bisschen unterentwickelt was Monitoring angeht - so lange die Anwendungen laufen, kümmert sich kaum jemand drum", beobachtet Schwab. "Dabei verlagert man seine geschäftskritischen Prozesse zum Teil in die Cloud", ergänzt Wolf.
Dies vor dem Hintergrund, dass niemand mehr für das Thema Cloud Computing an sich Bewusstsein schaffen muss. Dazu hat Analyst Schwab ein paar Zahlen: etwa viereinhalb Milliarden Euro wurden im vergangenen Jahr in Deutschland mit Cloud Services umgesetzt. Für die kommenden fünf Jahre erwartet er ein stetiges Wachstum von knapp über 30 Prozent. "Das ist ordentlich", kommentiert Schwab.
Er betont: Nicht alle Services und Apps sind für alle Cloud-Typen geeignet. "Wir werden also gar nicht darum herum kommen, in Zukunft mehrere Arten von Cloud zu nutzen", sagt der Marktforscher.
Für IBM-Manager Wolf folgt daraus: "Wir benötigen Werkzeuge, die uns ermöglichen, den Geschäftsprozessen zu folgen und dabei beachten, wie sich die Cloud entwickelt." IBM geht davon aus, dass alle Unternehmen in irgendeiner Form die Cloud nutzen. IBM-Bluemix verfügt über einen Monitoring-Service, betont er.
Moderator Korus will von den Webcast-Zuschauern wissen, wie sie Workloads für ihr Unternehmen optimieren. Die Realität einer hybriden Cloud-Umgebung hat sich laut einer Ad-ho-Umfrage unter den Zuschauern noch nicht durchgesetzt, lediglich sieben Prozent nutzen eine solche. Eine große Mehrheit von 60 Prozent nennt die Private Cloud, weitere dreizehn Prozent die Public Cloud. IBM-Mann Wolf findet das "ein bisschen introvertiert" - und schmunzelt: "Dazu neigen wir IT-ler ja eh"…"
Für Wolf zählt künftig nicht mehr die Auslastung der CPU. "Ich brauche Messpunkte, die mir sagen, hier übergebe ich an einen Service, und der Service muss Informationen über seine Performance mitliefern", erklärt er. Damit ist der Service-Provider aufgefordert, darzustellen, dass er performant ist. "Da stecken wir in Deutschland noch ein bisschen in der Entwicklungsphase", überlegt Wolf. Analyst Schwab kommentiert: "Das öffentliche Netzwerk ist immer noch ein bisschen eine Black Box."
Korus will die Zuschauer erneut zu Wort kommen lassen und fragt, worin diese die größten Schwierigkeiten beim Application Performance Management sehen. Immerhin mehr als jeder Zweite - 55 Prozent - erkennt Probleme nicht immer, bevor sie sich auf das Geschäft auswirken. Und: eine große Mehrheit von 82 Prozent der Webcast-Teilnehmer kann das Monitoring der relevanten Systemparameter nur unvollständig durchführen.
Das System selbst muss die Korrelationen zwischen den Messwerten erkennen
Angesichts dieser Ergebnisse muss Wolf ein wenig seufzen. "Hinterher sind sie immer schlauer", murmelt er, "hinterher sagen sie, hätte ich auf diesen Wert geachtet in Korrelation zu jenem Wert, hätte ich den Ausfall verhindern können." Er fordert denn auch, dass das System selbst die Korrelationen aufdeckt. Denn kein Anwender kennt alle Messpunkte. Dazu Schwab: "Das Bewusstsein dafür ist da, wenn auch erst nach schlechter Erfahrung."
IBM-Manager Wolfs Standpunkt: Der IT-Verantwortlicher muss identifizieren können, bei welchem Service Provider es Probleme gibt. Das erreicht nur, wer das Ganze von Ende zu Ende misst. Mit Blick nach vorn erklärt Marktforscher Schwab: "Application Performance Management wird mit steigender Bedeutung der Lösungen auch in Cloud Umgebungen essentiell!"