Manchmal geht es in der IT zu, wie in einer KFZ-Werkstatt: der Kunde stellt ein Klappern am Fahrzeug fest, die Werkstatt entgegnet nüchtern: "bei uns läuft er tadellos". Die Folge: ein verärgerter Kunde, der sich nicht ernst genommen fühlt und beschließt, die Werkstatt nie wieder aufzusuchen. Ähnliches passiert täglich zwischen Endanwender und IT-Service: der eine meldet, dass sein E-Mail Abruf nicht funktioniert. Der andere reagiert gelassen: "bei uns funktioniert alles einwandfrei". Frustriert gibt auch dieser "Kunde" auf und fasst den Entschluss, sich mit seinen Problemen nie wieder an die IT zu wenden. Das Schlimme daran: ist die Spirale der enttäuschten Erwartungen seitens des Endanwenders erst einmal in Gang gesetzt, bekommt die IT ein massives Problem. Der Endanwender hat kein Vertrauen mehr.
Hohe Service-Qualität ist das Ziel
Dabei sollte jede IT genau diese Perspektive verstehen, um die Qualität eines IT-Service überhaupt richtig bemessen zu können. Denn der Endanwender ist die höchste Instanz bei der Qualitätsbeurteilung. Ungeachtet ob es sich um Verfügbarkeit, Geschwindigkeit oder Bedienbarkeit handelt. Dass in punkto Servicequalität aus Endanwendersicht noch mächtig Sand im IT-Getriebe zu sein scheint, bestätigt auch der aktuelle "IT Outsourcing Satisfaction Survey" des Beratungsunternehmens Horvath & Partners. Demnach mussten sich ganze 91 Prozent der Befragten IT Entscheider eingestehen, primär die Servicequalität verbessern zu wollen. Die Studienverfasser betonen auch, dass es weniger die Strategie sei, die über Erfolg oder Misserfolg eines IT-Services entscheidet. Vielmehr liege es an der Qualität der operativen Umsetzung. Und die wird heute längst nicht mehr von der internen IT allein geschultert. Im Gegenteil: Services über Provider abzuwickeln, ist heute eine feste Größe im Management der IT-Infrastruktur. Mehr noch: die Effektivität, mit der die Unternehmens-IT ihre Provider steuert, liefert einen wesentlichen Beitrag dazu, wie effektiv das Gesamtunternehmen agieren kann.
Service-Provider kümmern sich um den kompletten Netzbetrieb, das Mail-System, die Cloud-Dienste oder auch nur Teilservices. Um nun im Sinne des Endanwenders feststellen zu können, welcher Service zu welcher Zeit an welchen Lokationen nicht oder nur eingeschränkt funktioniert, muss die IT die Performance ihrer Provider entsprechend umfassend monitoren. Leichter gesagt, als getan, denn das Wirkungsgeflecht zwischen Provider, IT und Endanwender wird noch einen Tick undurchschaubarer, wenn die Delivery-Art hinzukommt. Handelt es sich um einen Managed Service, eine gehostete Lösung oder einen Cloud Service, aus einer Private oder einer Public Cloud? Jede Art hat ihre Eigenheiten und ist häufig rechtlich anders geregelt.
- Der Cloud-Readiness-Check
Bevor sich CIO und die IT-Abteilung für eine Cloud-Lösung entscheiden, muss sie unter speziellen Gesichtspunkten wie Strategie, Prozesse, Organisation, Technik und Sicherheit genau unter die Lupe genommen werden. - 1. Cloud-Integration prüfen
Im ersten Schritt gilt es zu prüfen, wie sich eine potenzielle Cloud-Lösung in die bereits bestehende IT-Infrastruktur, das Finanz-Management sowie Multivendor-fähige Prozesse einfügt. - 2. Mitarbeiter-Skills verbessern
Mit der Frage nach einer Cloud-Anwendung geht auch die Frage einher, ob Mitarbeiter-Skills auf- oder ausgebaut werden müssen, und ob ein Wandel in der Unternehmenskultur erfolgen sollte. - 3. IT-Kapazitäten ausloten
Im Vorfeld muss vom technologischen Standpunkt aus unbedingt Augenmerk auf Zugriffsmöglichkeiten, abgesicherte Anbindungen sowie auf Kapazitäten und Varianzen der benötigten Rechenleistung gelegt werden. - 4. Rechtliche Aspekte abklären
Der rechtliche Aspekt ist ein wesentlicher und nicht zu vergessender Analysepunkt. Er sollte klare Antworten auf die Fragen nach der Absicherung von Service-Level-Agreements, die Sicherheit vor der Deaktivierung der Cloud-Dienste durch den Anbieter sowie über ausländische Vertragsstrukturen geben. - 5. Transparenz sicherstellen
Wer Cloud-Lösungen anstrebt, muss bereits im Vorfeld die Transparenz hinsichtlich der Speicherungsorte und der Sicherheit in der Datenverarbeitung untersuchen und einfordern.
Messkriterien für effektive Provider-Steuerung
Trotz oder gerade wegen dieser erschwerten Transparenz über die ausgelagerten Services, muss die IT jederzeit in der Lage sein, eine Störung als Performance-, Verfügbarkeits-, oder Qualitätsproblem zu identifzieren. Der emanzipierte Endanwender erwartet heute eine hohe Servicequalität bei jeder einzelnen Interaktion. Und das reicht von fehlerhaften Bildschirmdarstellungen bis hin zum schlechten Verbindungsaufbau.
Dieser Zustand, Servicequalität einerseits ständig verbessern zu müssen, und andererseits ein komplexes Providerumfeld im Auge zu behalten, bereitet vielen IT-Managern dauerhaft Kopfzerbrechen. Dabei sehen sie häufig ihre Provider in der Bringschuld.
Für die Praxis effektiver Provider-Steuerung bedeutet das, auf Basis wirksamer Key Performance Indicators (KPI) zu agieren. Valide Messkriterien, die aus einer eher statischen Service-Verfügbarkeit eine schnell einsehbare Service-Nutzbarkeit machen. Hier hängt viel von der Wahl der richtigen Werkzeuge ab. Ohne Service-Monitoring geht es nicht. Die Frage ist, wie muss diese beschaffen sein, um die Performance von Providern ausreichend zu überprüfen oder gar zu steuern?
Wissen, was beim Endanwender ankommt
Zunächst sollten Unternehmen, die sich professionelle und effiziente Providersteuerung zum Ziel setzen, ihre Herausforderungen strukturieren. Neben dem Anforderungs- und Vertragsmanagement ist besonders das Risikomanagement wichtig. Es untersucht, welche Auswirkungen die systematische Auslagerung von Services auf einen Business-Bereich haben kann. Entsprechende Maturity-Checks beim Provider sowie Daten aus geeigneten Monitoring-Systemen stellen hier bereits eine gute Grundlage dar. Genauer gesagt, spezielle End-to-End-Monitoring-Lösungen leisten hier gute Dienste. Sie machen die vom Provider gelieferten Leistungen transparent und bilden damit die Basis für einen 360 Grad-Blick auf die eingesetzten Services. Ohne solche Daten kann nichts verbessert werden, weil niemand weiß, in welchem Ausmaß und welchem Grad Verbesserung notwendig ist.
- Effektive Informationssicherheit
Unternehmen wollen ihre IT-Security vor allem durch interne Assessments und Audits verbessern. - Top-Prioritäten bei IT-Security
Das IT-Risiko-Management zählt im Gegensatz zu Business Continuity und Disaster Recovery für Unternehmen nicht zu den Top-Prioritäten. - Alexander Hemzal Experton Group
Experton-analyst Alexander Hemzal klagt, dass Unternehmen das IT-Risk-Management, trotz gegenteiliger Bekundungen, vernachlässigen. - 5 Schritte zum IT-Risiko-Management
Die fünf Schritte zum IT-Risiko-Management-System sind: Security-Policies erstellen, Self Assessment durchführen, Anti-Risiko-Strategien entwickeln, Risiko-Management durchführen und Risiko-Maßnahmen verwalten. - IT-Risiko-Management ist Teil von Business Continuity
Laut Experton ist IT-Risiko-Mangement und IT-Service-Continuity wichtige Bestandteile des Business-Continuity-Management.
Monitoring ist nicht gleich Monitoring
Diese Monitoring-Systeme überprüfen, ob und wie performant ein Service des Providers beim Endanwender ankommt, also wie es letztlich um die "End-User-Experience" bestellt ist.
Und das ist nicht trivial, schließlich beeinflussen die Endanwender-Aktivitäten heute gleich mehrere Komponenten in der gesamten IT-Infrastruktur. Angefangen beim Rechner, mobilen Endgerät oder benutztem Drucker, worüber Daten zur Konfiguration, Typ, Modell und Auslastung gesammelt werden.
Weiter geht´s mit der Software-Konfiguration, den Betriebssystemen, Security-Software sowie der Zahl und den Versionen von Applikationen und Softwarepaketen. Darüberhinaus geben diese Tools meist auch an, welches Device über welche Domain angemeldet ist, wann es genutzt wird, und wie lange es dauert, bis es hochgefahren wird. Dank ausgereifter Visualisierungstechniken können gute Systeme damit unter anderem rechtzeitig auf Netzwerk- oder Speicherengpässe hinweisen, bevor sie der Endanwender überhaupt bemerkt. Drohen damit Leistungsindikatoren des Providers unter bestimmte kritische Werte zu fallen, warnen diese Systeme. Sehr fortschrittliche Tools integrieren bereits Web- und Cloud-Anwendungen, und dehnen damit die Transparenz auch auf webbasierte Anwendungen aus.
Ausgereifte End-to-End-Monitoring Systeme aus Nutzerperspektive müssen es auch mit dem Datenschutz genau nehmen. Sie gewährleisten die notwendige Anonymisierung und Pseudonymisierung der Systemprotokolle. Bei denen, die ihren Namen verdienen, lässt sich zudem schnell feststellen, ob der Endanwender vom Unternehmen autorisierte Software einsetzt oder was unautorisierte, dennoch genutzte Services in der Infrastruktur anrichten können. Sie haben auch keine Mühe damit, auf einen Klick ersichtlich zu machen, wenn die Providerleistung fehlerhaft war.
Der Beck et al. Services Partner Nexthink gibt dazu ein Kundenbeispiel: die Endanwender klagten über sehr langsam reagierende Rechner, die teilweise sogar komplett abstürzten. Das Verhalten schien willkürlich. Erst als in der gesamten Client-Population nach Rechnern mit hoher CPU-Auslastung "gefahndet" worden war, trat die Ursache zutage. Ein Agent, der auf den Clients für die Software-Entwicklung zuständig war, wurde falsch konfiguriert und steuerte die Rechner in eine Endlosschleife, die dann immer zum Absturz führte. Auf Basis dieser Analyse konnte dem entsprechenden Provider ein Konfigurationsfehler nachgewiesen werden. Das Alternativszenario wäre gewesen: die Analyse hätte um ein Vielfaches länger gedauert und die Provider hätten sich wahrscheinlich gegenseitig für den Fehler verantwortlich gemacht.
Wichtig ist: um einen Helikopterblick auf die Serviceleistungen der Provider zu erhalten und den Bezug zum Arbeitsplatz des Endanwender zu bekommen, sollte das Monitoring in jedem Fall die End-to-End-Perspektive beinhalten. Teil-Monitoring einzelner Bereiche wie Server oder Netzwerk reichen dafür keinesfalls aus.
- Zehn Tipps, Ihre Applikationen zu verbessern
Wer als IT-Verantwortlicher Kunden und Kollegen optimal betreuen will, muss wissen, wie es um die Service-Qualität an den Endgeräten der Anwender bestellt ist“, erklärt Jacqueline Trouvain, Business Development Manager IT-Management beim Systemintegrator <a href="http://www.controlware.de/" target="_blank">Controlware</a>. Ihre Tipps helfen Unternehmen, die Möglichkeiten ihrer IT-Management-Plattform auszureizen... - Nutzen Sie das Potenzial neuer Technologien
End-to-End-Anwendungsmonitoring ist eine anspruchsvolle Disziplin, die mit klassischen Netzwerk-Monitoring-Systemen allein nicht zu lösen ist. Achten Sie bei der Auswahl Ihrer neuen Lösung darauf, dass die Anwenderperspektive berücksichtigt wird. Innovative Technologien wie die Mess-Roboter- und Bilderkennungsverfahren, die zum Beispiel der Hersteller Servicetrace einsetzt, haben sich in der Praxis vielfach bewährt und liefern sehr gute Ergebnisse. - Integrieren Sie Ihre Web 2.0-Anwendungen
Nahezu alle erfolgreichen Social Media- und Web 2.0-Anwendungen leben davon, dass eine hohe User-Zahl in Echtzeit mit den gleichen Applikationen arbeitet. Dafür ist es entscheidend, dass die Anwendungsperformance durchgehend stabil bleibt und die User Experience selbst in Spitzenzeiten einwandfrei ist. End-to-End-Monitoring ist die perfekte Technologie, um Flaschenhälse und Qualitätseinbrüche frühzeitig zu erkennen und proaktiv zu beheben. - Optimieren Sie die Performance Ihres E-Shops
Überschreiten die Lade- und Wartezeiten in Ihrem Online-Shop einige Sekunden, verlässt ein Großteil der Besucher die Site. Eine zeitgemäße End-to-End-Monitoring-Lösung warnt Sie frühzeitig, wenn lange Wartezeiten und Verbindungsabbrüche drohen, und hilft Ihnen dadurch, Umsatzeinbrüche durch den Verlust von Kunden zu vermeiden. - Nutzen Sie End-to-End-Monitoring als proaktives QM-Tool
Updates und Migrationen tief integrierter Business-Anwendungen – etwa von ERP-, PPS- oder CRM-Lösungen – wirken sich nachhaltig auf die Produktivität des gesamten Unternehmens aus. Wenn Sie den Ablauf solcher Changes mithilfe des Anwendungs-Monitorings vor dem echten Roll-out an einem einzelnen Standort testen, wappnen Sie sich vor unliebsamen Überraschungen. - Achten Sie auf die richtigen Schnittstellen zum Netzwerk-Monitoring
Anwendungs- und Netzwerkmonitoring sind zwei grundverschiedene Technologien. Sie ergänzen sich in der Praxis aber perfekt, etwa wenn es gilt, Anwenderfehler automatisch in der GUI des Netzwerk-Monitoring-Systems zu signalisieren. Prüfen Sie vor der Auswahl Ihrer neuen End-to-End-Monitoring-Lösung, wie gut sie sich in Ihre vorhandene IT-Management-Umgebung einbinden lässt. - Setzen Sie interne und externe Compliance-Vorgaben um
In vielen Unternehmen definieren verbindliche SLA, mit welcher Service-Qualität welche Anwendungen bereitzustellen sind. Ein lückenloses End-to-End-Monitoring liefert Ihnen zuverlässige, validierte Kennzahlen zum Anwendungsbetrieb und ermöglicht es Ihnen so, jederzeit die Einhaltung aller relevanten Compliance-Vorgaben zu dokumentieren. - Es muss nicht immer on-premise sein
Anwendungsmonitoring ist relativ leicht zu implementieren – bei Servicetrace zum Beispiel auf der Basis eines Workflow-Editors – und unterstützt das IT-Team auch im laufenden Betrieb durch intuitive Handhabung. Wenn Sie die entsprechenden Ressourcen trotzdem nicht selbst vorhalten oder aufbauen möchten, bietet sich End-to-End-Monitoring als Managed Service an. Auf diese Weise profitieren Sie von allen Vorteilen dieser State-of-the-Art-Technologie und können budgetschonend mit ihren wichtigsten Applikationen starten. Eine Erweiterung der Lösung ist schrittweise jederzeit möglich. - Validierte Kennzahlen verbessern das Image der IT-Abteilung
Viele IT-Abteilungen tun sich schwer damit, ihre Arbeit und ihre Leistungen intern und extern zu belegen. Validierte Kennzahlen und Monitoring-Reports eignen sich hervorragend, um die erreichte Performance kritischer Anwendungen Kunden und Vorgesetzten gegenüber zu dokumentieren. - Berücksichtigen Sie bei der Produktauswahl auch innovative Newcomer
Der Anwendungsmonitoring-Markt wurde anfangs von wenigen großen Playern dominiert. Inzwischen haben sich in diesem dynamischen Umfeld aber auch einige kleinere Innovatoren einen ausgezeichneten Ruf erworben. Beziehen Sie diese Hersteller in Ihre Marktevaluierung ein! - Bereichsübergreifende Projekte brauchen erfahrene Partner
Anwendungsmonitoring ist ein bereichsübergreifendes Thema, das alle IT-Teildisziplinen im Unternehmen betrifft. Daher sind Sie gut beraten, frühzeitig einen erfahrenen Systemintegrator hinzuzuziehen, der das Projektteam in allen Phasen unterstützt und eine reibungslose Implementierung und einen effizienten Betrieb sicherstellt.
Enduser- und Infrastruktur-Services verheiraten
Je nachdem wie viele Provider zu steuern sind und welche Leistungen sie konkret erbringen, kann es sinnvoll sein, End-to-End-Monitoring mit einem Infrastruktur-Monitoring zu verbinden. Diese Kombination beschert der IT nicht nur einen noch umfassenderen Überblick sondern erleichtert auch die Steuerung zwischen On Premise- und Cloud-Infrastrukturen. Dafür müssen beide Systeme allerdings miteinander "reden" können. Gelingt es Unternehmen, die jeweiligen Funktionen zu bündeln, entsteht ein überaus potentes Monitoring- und Providersteuerungssystem. Dies macht dann nicht mehr auf Server-Ebene halt, sondern prüft nahtlos bis in die Nutzungstiefen des Anwenders, welche Provider-Services in welcher Qualität bei ihm ankommen. Das macht es zu einer zentralen Informationsdrehscheibe für alle Performance-Belange. An ihren Ergebnissen können die Verantwortlichen für die Steuerung der Service-Provider aus den Dashboards des Systems komplette, passgenaue Metriken erstellen und ablesen, wie ihre Provider tatsächlich arbeiten.
Werden Schlechtleistungen festgestellt, können sie - sehr schnell und für jeden transparent - reagieren, weil sie auf einer zu jeder Zeit absolut umfassenden, objektiven Datenbasis arbeiten. Erst wenn alle geschäftskritischen IT-Services durch diese Datenanalysen sichtbar gemacht, Wirkungszusammenhänge rechtzeitig erkannt werden können und businesskonform gehandhabt werden, kann sich Provider-Steuerung zur Königsdisziplin der Wertschöpfung im IT Management entwickeln.
Denn in punkto Servicequalität wird es in Zukunft vor allem darum gehen, zu erfassen, was man nicht kennt - und das gilt für die IT ebenso wie für die KFZ-Werkstatt.
Grundüberlegungen zur Providersteuerung
- Bewusstmachen, dass erst objektive und umfassende Daten-Analysen in die Lage versetzen, zu steuern
- Identifizieren der bottlenecks
- Identifizieren, welche Provider mit ihrer Leistung auf die Service-Nutzbarkeit Einfluss nehmen
- Eignung von bestehenden SLAs prüfen
- unterschiedliche Providerleistungen aufeinander abstimmen (bw)