Smartphone-Pionier und General-Magic-Gründer Marc Porat prophezeihte schon im Jahr 1976 im Rahmen seiner Dissertation an der Universität Stanford, dass die Zukunft von "Informationsmaschinen, Informationsarbeitern und Informationsunternehmen" bestimmt sein würde. Heute ist allgemeiner Konsens, dass wir in einer "Informationsgesellschaft" leben und einer "Informationswirtschaft" arbeiten.
Das Erstaunliche dabei: Trotz der Informationsdichte, die uns im Digitalzeitalter umgibt (etwa 3,5 Milliarden Suchmaschinenanfragen täglich sprechen eine eindeutige Sprache), sind kaum konkrete Strategien existent, um aus den verfügbaren Informationen Wert zu schöpfen. Dazu müsste der Fokus auf das Informationsmanagement gelegt werden, statt auf die Technologie selbst. Denn die ist nicht gleichbedeutend mit Fortschritt - im Gegensatz dazu, Mehrwert mit Informationen zu generieren.
Wieviel Geld für angesagte, neue Technologien ausgegeben wird, zeigt sich regelmäßig beim Blick in ein beliebiges Executive Briefing. Die Marktforscher von Deep Analysis gehen davon aus, dass alleine der Markt für intelligente Dokumentenverarbeitung bis Ende 2026 rund vier Milliarden Dollar schwer sein könnte. Wieviel dabei eigentlich dafür ausgegeben wird, damit die wichtigen Entscheider auch die Informationen bekommen, die sie benötigen, weiß kaum jemand. Da es inzwischen praktisch keine Kosten mehr verursacht, Informationen zu erzeugen, stellt sich an dieser Stelle die Frage: Wäre es nicht sinnvoller, unseren Fokus in Richtung Wertschöpfungsökonomie zu verschieben - statt uns auf die Kosten der Systeme und Maschinen zu versteifen, die die Informationen erzeugen?
Eine Frage der Informationsstrategie
Wie leicht es ist, Mehrwert durch schlechte Praktiken zu zerstören, zeigt etwa das Beispiel des ehemaligen US-Army-Mitarbeiters Jack Texeira. Er hatte Militärinformationen, die der Geheimhaltung unterliegen, in einer Gaming-Session mit Freunden geteilt und wurde wegen Geheimnisverrats angeklagt. Dieser Vorfall hat die gesamte Legitimität der Prozesse im Zusammenhang mit der Verwaltung sensibler Regierungsinformationen in Frage gestellt. Allerdings betreffen solche Vorgänge nicht nur Regierungsinstitutionen.
Auch im Unternehmenssektor wird der Wert, der durch schlechtes Informationsmanagement vernichtet wird, regelmäßig in Geldstrafen, beziehungsweise gerichtlichen Vergleichen gemessen. Hier geht es auch um die Frage, welche Maßstäbe angelegt werden sollten, um zu beurteilen, ob Unternehmen ihr Informationsmanagement im Griff haben. Wer verwaltet Informationen effektiver - P&G oder Unilever, Coke oder Pepsi, GM oder Ford? Wie lässt sich im Rahmen eines Vorstellungsgesprächs feststellen, ob der potenzielle neue Mitarbeiter auch in Sachen Informationsmanagement fähig ist und verantwortungsbewusst handelt?
Dabei spielt auch eine Rolle, dass Informationen an sich inzwischen eher negativ wahrgenommen werden. Fragt man Wirtschaftshistoriker, war das bis etwa 1990 anders: Bis dahin war Information eine gute Sache. Erst etwa 20 Jahre nach dem Aufkommen des Personal Computer setzte die Wahrnehmung einer überfordernden "Informationsflut" ein. Laut Clay Shirky, Vize-Professor für neue Medien an der New York University, kann davon jedoch keine Rede sein: "Es geht hier nicht um Information Overload, sondern darum, dass die Filter versagen."
Eine Strategie, um aus den zur Verfügung stehenden Datenquellen Mehrwert zu generieren ist demnach unabdingbar. Diese sollte sich mit mehreren grundlegenden Herausforderungen respektive Fragen befassen - insbesondere:
Wie lässt sich vermeiden, dass unsere begrenzte Aufmerksamkeitsspanne mit unerwünschten Informationen überfrachtet wird?
Wie lässt sich verhindern, dass persönliche und sensible Informationen an die Öffentlichkeit gelangen?
- Uta Müller-Werth, All for One Group SE
“In den letzten zehn Jahren hat eigentlich niemand ernsthaft gefragt, wie grün sein Rechenzentrum wäre. Die meisten Entwicklungen, die wir heute sehen, sind primär kostengetrieben – vor allem durch die aktuellen Krisen. Aber natürlich macht das Thema Cloud die Auslagerung wesentlich einfacher.“ - Armin Kuppek, DXC Technology
“Datengestützte Zukunftsszenarien werden eine zunehmend größere Rolle spielen. Mit Digital Twins können Unternehmen simulieren, wie sich verschiedene Strategien und Maßnahmen auf den eigenen ökologischen Footprint auswirken.“ - Matthias Gromann, FNT
“Wir sehen, dass jetzt die Erkenntnis einsetzt, dass es besonders zwischen Nachhaltigkeit und der Kostenseite eine starke Korrelation gibt. Green-IT stellt plötzlich auch eine Kostenoptimierung dar, es gibt also auch wirtschaftliche Incentives für mehr Nachhaltigkeit.” - Alexander Lapp, Matrix Technologies
“ESG wird in Unternehmen häufig anhand zu einfacher Kennzahlen betrachtet, die aber der eigentlichen Komplexität der Thematik nicht gerecht werden.“ - Ulrich Mauch, microfin
“Im Markt gibt es bei den Kunden durchaus großes Interesse daran, ESG-Kriterien beispielsweise für das eigene Rechenzentrum oder auch das Sourcing zu erfüllen. Aber besonders für Unternehmen, die strengen gesetzlichen Regularien bei der Auswahl ihrer Rechenzentren unterliegen, bleibt das Angebot weit hinter der Nachfrage zurück, wenn man zusätzlich spezifische Nachhaltigkeitsanforderungen ansetzt.” - Jürgen Hindler, Oracle
“Für das Sourcing ist eine funktionierende IT-Plattform wesentlich, die unter anderem das Supplier-Screening beispielsweise mithilfe von künstlicher Intelligenz übernimmt, Supplier in die Supply-Chain einbindet und Prozesse und Transaktionen kontinuierlich überwacht und dokumentiert. Somit kann sichergestellt werden, dass sämtliche Supplier auch wirklich die Kriterien, die gesetzlich vorgeschrieben werden, einhalten. Manuell lässt sich das nicht stemmen. ” - Karsten Kümmerlein, Skaylink
“Auch viele kleine Einsparungen machen in der Masse einen gewaltigen Unterschied – gerade hier kann die IT bereits im Kleinen unfassbar viel auslösen.“ - Sascha Giese, SolarWinds
“IT-Abteilungen müssen umdenken, auch gängige Praxis muss regelmäßig auf den Prüfstand. Anders als noch vor einigen Jahren muss es zum Beispiel nichts Schlechtes mehr sein, wenn die CPU-Auslastung regelmäßig bei 80-90% liegt, wenn man beispielsweise mit AI-basierten Orchestrierungslösungen im Rechenzentrum arbeitet.”
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CIO.com.