Zeit ist relativ, heißt es. War zu Zeiten von ISDN-Verbindungen und Modems eine Wartezeit von einigen Minuten für bestimmte digitale Inhalte noch die Regel, kommt heutzutage bereits nach wenigen Sekunden der Verdacht auf, dass etwas mit der Internetverbindung, dem Dienst selbst oder dem Endgerät nicht stimmen könnte. Dabei geht der zugrundeliegende Sachverhalt selbstverständlich über die reine Wartezeit hinaus. Funktionieren die genutzten Anwendungen aufgrund einer schlechten Internetverbindung nicht, so drohen unzufriedene Mitarbeitende, die nicht ihre reguläre Produktivität abliefern können. Auf der anderen Seite führt auch eine schlechte Erreichbarkeit von Unternehmen - etwa im Rahmen eines E-Commerce-Shops - schnell zu verlorenen Kunden und Umsatz. Im schlimmsten Fall drohen langfristiger Reputationsverlust und ausbleibender Geschäftserfolg.
Die Digital Experience wird also immer wichtiger - und zugleich geben Unternehmen immer mehr die Kontrolle darüber ab, welche Erfahrungen ihre Kunden im digitalen Raum mit dem eigenen Angebot machen. Auch in den kommenden Jahren werden Software-as-a-Service (SaaS), Cloud-Dienstleistungen und hybride Arbeitsmodelle weiter an Bedeutung gewinnen. Damit IT-Teams in diesem komplexen Geflecht weiter nahtlos arbeiten können, benötigen sie eine Möglichkeit, alle vorhandenen Dienste zielgenau im Blick zu behalten. Ganz gleich, ob unterschiedliche digitale Ökosysteme, verschiedene Verbindungstypen, oder hybrid arbeitende Mitarbeiterinnen und Mitarbeiter - stets den Überblick zu behalten, ist der Schlüssel zum Erfolg. Dementsprechend sollten sich Entscheider und Verantwortliche intensiv mit dem Thema Digital Experience, der Rolle von digitalen Dienstleistungen und dem eigenen Netzwerk sowie Ende-zu-Ende-Sichtbarkeit auseinandersetzen.
Im Optimalfall unscheinbar - Im Worst Case das digitale Fegefeuer
Nur wenige moderne Phänomene sind so eindeutig auf eine bestimmte Problemstellung konnotiert wie der Umstand, der sich hinter dem Begriff Digital Experience versteckt. Im Optimalfall denken Nutzerinnen und Nutzer nicht darüber nach, wie sie ihre Nutzererfahrung bewerten würden. Gibt es allerdings Probleme - etwa durch längere Wartezeiten, nicht verfügbare Dienste oder Ausfälle, ist die Geduld vieler schnell aufgebraucht.
Es verwundert also nicht, dass sich bereits große IT-Beratungs- und Marktforschungsunternehmen wie Gartner der Herausforderung Digital Experience im vernetzten digitalen Raum angenommen haben und auch mit entsprechenden Begriffen auf die zugrundeliegende Problematik aufmerksam machen. So definiert man Digital Experience Monitoring bei Gartner als die Visualisierung und Überwachung der Nutzerzufriedenheit und als Zurückeroberung der Hoheit über die internen und externen Netzwerkumgebungen von Unternehmen. Während die internen Netzwerke sowieso zumeist dem Unternehmen obliegen, das die entsprechende Kontrolle erringen möchte, gestaltet sich das externe Netzwerk - also das Internet in seiner Gänze - etwas komplexer. Durch die digitale Transformation liegen bei vielen Unternehmen nämlich zentrale Bestandteile, Dienstleistungen und Daten nicht mehr innerhalb der eigenen vier Wände, sondern sind über den gesamten digitalen Raum verteilt.
Kontrolle zurückerlangen und Nutzererfahrungen optimieren
Welche Konsequenzen lassen sich aus der komplexen und undurchsichtigen Struktur des Internets - insbesondere mit Blick auf eine moderne Unternehmens-IT - in Bezug auf die Digital Experience ziehen? Nachdem Unternehmen jenseits des eigenen Netzwerkes kaum Kontrolle über die Ursachen von Problemen und Ausfällen haben, zugleich aber in einem außerordentlich hohen Maße von einer funktionierenden und schnellen Verbindung zu den eigenen Kunden und den genutzten Dienstleistungen abhängig sind, werden die Visualisierung und das Monitoring des Internets zur Pflicht.
Dieser Umstand gewinnt zunehmend auch dadurch an Relevanz, dass die beschriebene Komplexität des Internets weiter zunimmt. Fällt etwa bei der Nutzung einer Cloud-Datenbank ersten Mitarbeitenden auf, dass die Ladezeiten ungewöhnlich lange sind, oder Informationen gar nicht erst abgerufen werden können, dauert die Ursachensuche mitunter Tage oder gar Wochen. Je komplexer die Art und Weise wird, wie wir das Internet nutzen - etwa aufgrund der zunehmenden Konzentration auf SaaS, hybrides Arbeiten und komplizierten Netzwerklösungen und Verbindungen - umso länger dauert auch die Ursachenforschung. Durch ein entsprechendes Monitoring und die Analyse und Visualisierung der Internet- und Datenstruktur wird diese allerdings erleichtert und Ausfälle sowie Fehler können schnell behoben werden. Auf diese Weise wird die Digital Experience ohne Umschweife wieder optimiert und negative Auswirkungen durch Ausfälle bleiben auf ein Minimum begrenzt.
Dem Ernstfall begegnen - Grundkurs Problemlösung
Da die Qualität der Digital Experience für Unternehmen den Unterschied zwischen Geschäftserfolg und massivem Reputationsverlust bedeuten kann, sollten sich IT-Verantwortliche auf alle Eventualitäten vorbereiten. Dies bedeutet, dass für den Ernstfall Protokolle mit Handlungsempfehlungen und Werkzeuge zur Ursachenbekämpfung vorliegen müssen. Dabei sollten die zuständigen Mitarbeitenden zunächst eine Übersicht über alle genutzten SaaS-Lösungen, die unternehmenseigene IT-Infrastruktur und auch alle anderen Services vorbereiten. Zugleich müssen Key Performance Indicators (KPIs) der eigenen Dienste vorliegen und stets im Blick behalten werden, denn auf diese Weise können Mitarbeitende erkennen, ob Nutzer und Kunden beim Abruf der Unternehmensdienste eine negative digitale Erfahrung erleben.
Sollten KPIs plötzlich abfallen oder sollte direktes negatives Feedback vonseiten der Kunden kommen, drängt wie in jedem Notfall die Zeit. IT-Verantwortliche müssen nun schnell handeln und erkennen, wo das Problem liegt. Dabei gilt es zunächst herauszufinden, ob das Problem seine Ursache im Unternehmensnetzwerk hat - und damit intern schnell gelöst werden kann - oder ob der Hintergrund der Störung bei einem externen Anbieter oder einem SaaS-Dienstleister liegt. Dazu muss zeitgleich eine Analyse möglicher interner Fehlerquellen und eine Überprüfung der Internetverbindung des Unternehmens sowie der Abrufbarkeit externer Anbieter stattfinden.
Da die Zeit drängt und jede Sekunde potenzielle enttäuschte Kunden bedeutet, muss die Fehleranalyse gleichzeitig die interne und externe Datenstruktur im Blick behalten. Während dabei die unternehmenseigene IT recht schnell auf Störpotenziale hin untersucht wird (und etwaige Fehler dementsprechend auch gezielt und schnell behoben werden können), ist die externe Fehlersuche aufgrund der Struktur des Internets oftmals eine Herausforderung. Probleme können so etwa bei einzelnen Datenknotenpunkten, Hosting-Services, SaaS-Anbietern oder Telekommunikationsunternehmen liegen.
Kontinuierliches Monitoring und Benchmarking
An dieser Stelle kommen Netzwerkanalyseplattformen und Visualisierungswerkzeuge zum Einsatz. Mithilfe des tiefgreifenden Einblicks in die Struktur des Internets können zielgenau Probleme benannt und so Ursachenforschung betrieben werden. Durch die präzise Visualisierung gewinnen Unternehmen so schnell die Kontrolle über ausgelagerte Dienste zurück und können zugleich gezielt Probleme identifizieren und beheben. Sollten Dienstleister oder Telekommunikationsanbieter sich darüber hinaus weigern, die eigene Verantwortung anzuerkennen, lassen sich mittels der Visualisierung zudem Beweise über die Fehlerquelle erbringen. Statt mehrere Tage mit einer negativen Digital Experience zu kämpfen und keinerlei Kontrolle über die Struktur des eigenen Angebotes zu haben, können auf diese Weise innerhalb weniger Minuten entsprechende Gegenmaßnahmen eingeleitet werden.
Neben akuten Störungen müssen sich Entscheider und Verantwortliche darüber im Klaren sein, dass ein kontinuierliches Monitoring und Benchmarking der Performance aller genutzten Dienste die Grundlage für eine solide Handlungsfähigkeit und die Optimierung der Digital Experience ist. Darüber hinaus ist es durch diese Performance-Indikatoren möglich, von Drittanbietern die Einhaltung der vereinbarten Serviceleistungen zu verlangen. Beim Ziel, Kunden ein optimales Erlebnis bieten zu können, helfen eine Ende-zu-Ende-Transparenz in der gesamten digitalen Wertschöpfungskette sowie die Möglichkeit, Leistung kontinuierlich zu messen, zu bewerten und zu optimieren - immer mit dem Blick darauf, wie sich Veränderungen auf das digitale Erlebnis auswirken. (mb)