Das interne Rechnungswesen der Unternehmen wurde/wird immer besser. Es stehen immer bessere Instrumente zur Verfügung, um das Zahlenwerk über die abgelaufenen wirtschaftlichen Vorgänge auszuwerten. Mit 'Big Data' betreten wir sogar eine neue Dimension der Datengenerierung.
Beim Planungsprozess greift man auf diese Datenbasis zurück, um Ziele sowie Maßnahmen und Ressourcen zur Zielerreichung festzulegen. Am Ende der Planperiode liegen neue Ist-Zahlen vor, die man mit den Planzahlen vergleicht. Man analysiert die Abweichungen, lernt daraus und macht bessere Planzahlen für die nächste Periode.
Oft hat die Realität mit "Planung" nur wenig zu tun
So oder ähnlich klingt das Ammenmärchen, das wir uns jeden Tag gegenseitig erzählen. Denn die Realität in vielen Unternehmen hat mit "Planung" nur wenig zu tun. Es mag zwar stimmen, dass man viel Zeit damit verbringt, um Top-down und Bottom-up zu planen. Aber ungeachtet dessen läuft es am Ende auf die simple Formel hinaus: »Lege das Ergebnis beiseite und mache, egal wie, mehr Umsatz im Vergleich zu Vorjahr.«
Übertrifft man die Umsatzzielvorgabe, dann freut man sich. Im Vertrieb werden einige Schultern geklopft und ein paar Euro Boni ausgezahlt. Verfehlt man die Zielvorgabe, dann besinnt man sich gerne darauf, dass die Realität nicht linear-, sondern komplex-kausal ist und 'Umsatz' das Ergebnis einer Kollaboration von mehreren ist. Somit findet jeder die Zahlen und Informationen, die er benötigt, um die Schuld von sich zu weisen und andere für die Verfehlung verantwortlich zu machen.
Ich persönlich erkenne keinen einzigen Vorteil dieses gängigen "Spiels", sondern nur Nachteile. Um einen zu nennen: Übertrifft man die Planzahlen, ist die Ressourcenplanung obsolet. Mal muss man bei der Hausbank vorsprechen, um eine Überziehung der Kreditlinie genehmigt zu bekommen. Mal reichen die Personalkapazitäten nicht aus, um die Aufträge ordentlich abzuarbeiten. Eine Folge: unzufriedene Kunden mit allen daraus zu erwartenden negativen Konsequenzen.
Das operative Geschäft besteht nicht aus Berichtsperioden, sondern aus Einzelprozessen
Auch wenn man sich bei Zielvorgaben an zuvor ermittelte Planzahlen halten würde, stellt sich dennoch die Frage, ob die typische Herangehensweise an Zukunftsplanung einen Mehrwert liefert. Das ist meines Erachtens aus folgendem Grund zu verneinen: Von Marktplanung über Auftragsgenerierung und -abwicklung bis zum Kundendienst, ein Unternehmen ist ein langer Prozess von Einzeltätigkeiten. Irgendwann in diesem Prozess versenden wir eine Rechnung, das heißt wir buchen einen Umsatz. Diesen Zeitpunkt haben wir als Nabel der Welt deklariert. Wir könnten auch den Zeitpunkt des Geldeinganges nehmen (was weitaus mehr Sinn machen würde), aber der Rechnungsversand hat halt das Rennen gemacht.
Ein einzelner Prozess kann vor oder während einer Berichtsperiode beginnen - gleichzeitig auch während oder nach der Periode enden. Erst am Ende eines einzelnen Prozesses entscheidet sich, ob man diesen Prozess mit Plus oder Minus abgeschlossen hat. Dieser an sich simplen Logik zum Trotz legen wir eine Periodenschablone über alle Einzelprozesse mit dem jeweiligen Prozessstand, setzen die aggregierten Zahlenblöcke in Relation zueinander und zum Umsatz und interpretieren das Ergebnis.
Das ist erschreckend nahe an dem, was ein Wahrsager beim Kaffeesatzlesen macht: »Die Zahlen sprechen zu mir. Ich sehe einen 'Gewinn'. Ob er war, ist oder sein wird, kann ich nicht genau sagen«.
Prognosegenauigkeit nimmt zu, wenn man versteht, wie in jeder Prozessstufe ein Wert entsteht
Der Gedanke, dass diese Vorgehensweise nicht der Weisheit letzter Schluss sein kann, ist nicht neu. Der US-Ökonomen Michael E. Porter hatte bereits 1985 den Ansatz formuliert, die Prozesse im Unternehmen als eine Wertschöpfungskette zu betrachten. Es gilt, die einzelnen Prozessstufen zu analysieren, um diese Frage beantworten zu können: Durch welche Variable und wie genau entsteht ein "Wert" in jeder Stufe und in welcher Bandbreite fällt dieser aus?
So kann man nach und nach "Planung" durch "Prognose" ersetzen. Fallen Mitarbeiter aus, kann man die Prozessauswirkungen ausrechnen. Möchte man eine Expansionsstrategie verfolgen, weiß man, in welchen Variablen man wie viel investieren muss.
Das Streben nach Prognosesicherheit haben wir "im Blut"
Einerseits strebt jeder, der sich als Unternehmer oder Selbstständiger in Unsicherheit begibt, intuitiv nach Prognosesicherheit und entwickelt hierfür eigene Faustformeln. Viele Unternehmer, die ich in den 90ern betreuen durfte, führten ihr Unternehmen "aus dem Bauch heraus". Ihr internes Rechnungswesen war teilweise katastrophal, aber auf ihre Prognosen war dennoch Verlass.
Andererseits sind unserer Begabung, Komplexität zu überblicken, natürliche Grenzen gesetzt. Je größer und komplexer ein Unternehmen, desto problematischer wird es für den Unternehmer, sich auf sein Bauchgefühl zu verlassen. Somit wurde im Zuge der BWL-isierung und IT-lisierung der Wirtschaft die alte Führungsmethode nach und nach abgelöst.
Einen Mangel an IT-Lösungen, um Prozesse abzubilden und zu managen, gibt es wahrlich nicht. Warum tun wir uns dann so schwer mit Prozessen und Prognosen? Wir haben es in der Übergangsphase versäumt, das Bauchgefühl des Unternehmers nachzuvollziehen und durch Zahlen, Daten und Fakten abzubilden. Stattdessen wurde der Fokus der Controller und Entscheider auf die Detailanalyse der Vergangenheit verlegt.
Keine Prognosesicherheit ohne Berücksichtigung des "Faktor Mensch"
Neben dem technischen Fortschritt ist zwischenzeitlich eine andere gravierende Wandlung vonstattengegangen, die jedoch schlicht ignoriert wird: Faktor Mensch spielt heute die entscheidende Rolle für eine erfolgreiche Unternehmensführung.
In der Wertschöpfungskette macht sich Faktor Mensch in unterschiedlicher Weise bemerkbar:
Die Produktivitätskennziffern eines motivierten Mitarbeiters sind bei gleichen Bedingungen um ein Vielfaches höher als die eines demotivierten Mitarbeiters.
Der Ausfall des Mitarbeiters wegen Burn-out muss von anderen abgefangen werden. Die Produktivität der Abteilung fällt. Abfindungs-, Headhunter-Zahlungen, oder Ähnliches steigen.
Wenn Person 1 und 2 (oder deren Chefs) gut miteinander können, verläuft die Prozessstufe zwischen ihnen reibungslos und schnell. Wenn nicht, legt der Prozess an dieser Stelle eine Pause ein und spielt eine Runde Pingpong.
Die Flaschenhalsposition eines Managers sorgt für eine Unterbrechung des Prozesses für mehrere Wochen. Die Prozessfinanzierungskosten steigen.
Der neue CEO, der seinen Einstand mit einem Change-Projekt einleitet, hält die vielen betroffenen Mitarbeiter von ihrem Tagesgeschäft ab. Die Produktivität bricht infolge ein.
Der Machtkampf zweier Inhaberfamilien sorgt für Hü-hott-Anweisungen des Top-Managements, was wiederum dafür sorgt, dass die Produktivität sich nicht zielgerichtet entfalten kann.
Der Grund, warum das Thema damals vernachlässigbar war, aber heute eine derart prominente Rolle spielt, hat mit dem veränderten Selbstverständnis der Mitarbeiter zutun, wenn sie mit obigen Themen konfrontiert sind.
- 7 Fehler im Kennzahlen-Management
Kennzahlensysteme sind ein probates Mittel zur Kosten-Nutzen-Analyse in der IT. Leider machen Unternehmen bei der Anwendung gravierende Fehler. - 1. Out of the Box ist trügerisch
Kennzahlen "Out of the Box" sind zweifellos verlockend, und sie kommen überraschend häufig vor. Das starre Korsett mit standardisierten Messpunkten kann jedoch zu einer unreflektierten Sichtweise und Einschätzung führen. Kosten und Leistungen müssen auf Grundlage der bestehenden Struktur gemessen werden. - 2. Irreführende Schätzungen
Der Top-down-Ansatz wird scheitern, wenn das Unternehmen die hierfür vorgesehenen Kennzahlen nicht vernünftig bilden kann. Sind die Basisdaten in der geforderten Form nicht vorhanden, müssen sie entweder geschätzt oder über eine mühsame Implementierung beschafft werden. Das Ergebnis ist entweder ungenau oder aufwendig zu bilden, so dass der Nutzen auf der Strecke bleibt. - 3. Unscharfe Kennzahlen
Häufig kalkulieren Unternehmen mit fragwürdigen Werten, weil sie die benötigten Werte nicht messen können. So lässt sich die Zahl der Hardwaretypen im Windows-Umfeld nur schwer bestimmen, wenn die Geräte in unterschiedlichen Abteilungen eingesetzt werden und kein umfassendes Asset-Management existiert. Der Einfachheit halber wird dann die Kennzahl der unterschiedlichen Windows-Versionen herangezogen, weil diese durch die Softwarelizenzierung bekannt ist. Jedoch ist diese Zahl ein schwächerer Komplexitätstreiber als die Hardwaretypen, weshalb das Abbild der Organisation unscharf wird. - 4. Top-Level-Informationen ohne Basis
Wenn das Projekt vom Vorstand angestoßen wurde, müssen die angeforderten Zahlen geliefert werden. Durch die Verwendung grober Schätzwerte sind Drilldowns zu den tatsächlichen operativen Kennzahlen kaum möglich: Die Ursache-Wirkungs-Kette ist nicht belastbar. Schaltet eine Top-Level-Kennzahl auf Rot, erwartet das Management, dass der Grund hierfür bekannt ist oder zumindest schnell gefunden wird. Deshalb sind die richtigen Basisinformationen viel wichtiger für die Steuerung der Organisation als die Top-Level-Informationen. Ohne die passende Grundlage hängen die Top-Level-Kennzahlen in der Luft. - 5. Verwirrende Komplexität
Kennzahlen berechnen sich nicht automatisch aus komplizierten Formeln. So ist beispielsweise die Zahl der Windows-Server eine reguläre Leistungskennzahl, die zudem für das Asset-Management benötigt wird. Auch bei umfassenden Kennzahlensystemen ist Komplexität kein Grundpfeiler des Erfolgs. Unternehmen müssen die richtige Balance finden zwischen einer realistisch machbaren Vorgehensweise und dem, was einen Leistungs-, Kosten-, Komplexitäts- oder Risikotreiber genau repräsentiert. - 6. Fehlerhafte Umsetzung
Vor der Entwicklung eines Kennzahlensystems steht die Definition, welche Aspekte der IT konkret gesteuert werden sollen. Jeder IT-Verantwortliche hat seine eigene Philosophie und setzt andere Prioritäten: Einer bevorzugt Prozesse und ITIL, ein anderer plädiert für Services und Servicekataloge, der Dritte schließlich bleibt bei klassischen Funktionen wie der Anwendungsentwicklung und der Infrastruktur. Entsprechend müssen die Kennzahlen angeordnet werden. - 7. Falsche Schlüsse
"Normale" Kennzahlen haben einen kleinen Haken: Sie zeigen zumeist nur an, ob die Arbeit richtig gemacht wird - und nicht, ob die richtige Arbeit gemacht wird. So weist etwa Organisation A ein sehr gutes Kostenniveau bei ihren Unix-Servern auf, während Organisation B nur eine unterdurchschnittliche Performance bei ihren Mainframes zeigt. Vergleicht man hingegen die Kosten für den einzelnen Bausparvertrag oder für das einzelne Depot bei beiden Organisationen, kann das Preis-Leistungs-Verhältnis schon ganz anders aussehen. Aus der Perspektive des Topmanagements stellt sich vielleicht die Leistung des relativ schlechten Mainframe-Bereichs besser dar als die Leistung der relativ guten Unix-Abteilung. An den geschäftlichen Stückkosten zeigt sich der Unterschied von Effektivität und Effizienz.
Damals konnte ein Unternehmer plakativ folgendes sagen und kam damit durch: »Wenn Sie Zuwendung wollen, kaufen Sie sich einen Hund und wenn Sie Orientierung wollen, dann gilt: Da, wo ich stehe, ist für Sie immer der Norden.«
Heute treffen mit Babyboomern, und Generation X und Y zeitgleich ganz unterschiedliche Erwartungen auf den Arbeitgeber. Diesen Mitarbeitern gegenüber stehen verständlicherweise überforderte leitende Angestellte, von denen man die Bewältigung dieser Komplexität erwartet, ohne sie je dafür ausgebildet oder adäquat ausgestattet zu haben.
Wie sieht erfolgreiches Prozess-Management mit "Faktor Mensch" aus?
Es ist zunächst sehr auffällig, dass erstaunlich wenig Innovationskraft in die Beantwortung dieser Frage fließt. Nach wie vor klammert man sich an die alte Vorstellung, dass die Manager die primäre Wertschöpfungskette autark organisieren und managen, die sekundären Aktivitäten wie IT, Personal, Finanzen sie dabei unterstützen und die Mitarbeiter sich beanstandungslos in ihre Rolle als 'Ressource' einfügen. Die vielen Projekte, die aufgrund der Blockadehaltung der Mitarbeiter stagnieren und im Sande verlaufen, zeichen jedoch ein gegenteiliges Bild.
Ich plädiere für einen Paradigmenwechsel und empfehle meinen Firmenkunden, sich als Gesamtunternehmen folgenden Fragen zu stellen und ich unterstütze sie bei deren Beantwortung:
1. Welche Voraussetzungen und Rahmenbedingungen müssen gegeben sein, damit ich als operativer Mitarbeiter mich selbst für meine Tätigkeiten, für die Schnittstelle zum Prozessnachbarn und für deren kontinuierlicher Optimierung (alleine) verantwortlich fühle?
2. Woran können andere erkennen, ob ich in meiner Funktion über oder unterdurchschnittlich performe?
3. Was erwarte ich von anderen (Vorgesetzten, Prozess-Lieferanten, Fachexperten), wie sie mich dabei unterstützen können?
Kurz: Die operativen Mitarbeiter selbst organisieren und managen die primäre Wertschöpfungskette. Sie werden dabei unterstützt durch andere Abteilungen wie IT, Finanzen, Controlling, Manager und Führungskräfte.
Damit schlägt man drei Fliegen mit einer Klappe:
1. Die Mitarbeiter selbst sind die Architekten der Lösung und blockieren nicht die Umsetzung.
2. Die Frage, durch welche Variable und wie genau ein 'Wert' entsteht, wird von denen beantwortet, die es am besten wissen: Jeder Mitarbeiter tut dies selbst für seinen eigenen Arbeitsplatz.
3. Da jeder nur die Optimierung seiner direkten Schnittstellen im Blick hat, entstehen keine starren Strukturen und das Unternehmen kann leichter und schneller auf äußere Reize reagieren.
Es handelt sich beim obigen Vorschlag zweifelsfrei um einen anstrengenden Change-Prozess über alle Hierarchiestufen hinweg. Nach meinem Dafürhalten jedoch ein Notwendiger und Überfälliger. Was meinen Sie? (bw)