Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

06.10.1995

Mythos BPR - Versuch einer Entzauberung (Teil 4) Standardpakete: Ungeahnte Kosten fuer fraglichen Nutzen

06.10.1995

Von Friedrich von Loeffelholz*

In einer fuenfteiligen Artikelserie beschaeftigt sich Friedrich von Loeffelholz mit dem Thema Geschaeftsprozess-Re-Engineering. Der erste Teil stellte die Schluesselfragen, die sich aus diesem Schlagwort ergeben. Im zweiten Beitrag wagte der Autor die These, dass es sich dabei lediglich um alten Wein in neuen Schlaeuchen handelt. Der dritte Artikel rueckte den alten Gegensatz zwischen Individual- oder Standardsoftware in ein neues Licht, worauf jetzt im vierten Teil eine Gegenueberstellung von Kosten und Nutzen folgt. Das Geschaeftsprozess-Re-Engineering als Chance zum Lean

Office soll der Gegenstand des fuenften und letzten Beitrags heissen.

Dass eine grosse Zahl von Daten auch ein hohes Mass an Information bedeutet, ist ein weitverbreiteter Irrtum. Gerade die marktgaengigen Standardsoftware-Pakete verlangen meist einen extrem hohen Datenaufwand, ohne dafuer einen adaequaten Informationsgehalt zu liefern. Der Aufwand fuer die Pflege dieser Daten bleibt in den Investitionsplanungen zumeist unberuecksichtigt.

Jeder gewissenhafte Unternehmer stellt vor Investitionen eine Kosten-/Nutzen-Rechnung an. Doch was zumindest bei Investitionsvorhaben in der Produktion die Norm ist, gilt fuer die Verwaltung nur selten. Unterlassen wird der Wirtschaftlichkeitsnachweis insbesondere bei Investitionen in Informationstionssysteme. Offensichtlich gelingt es den Computer- und Softwareherstellern, Hard- und Software zu verkaufen, ohne ihre Produkte vorher einer fundierten Wirtschaftlichkeitsrechnung auszusetzen.

Einfuehrungsaufwand wird oft verschwiegen

Unter dem Hinweis auf Leistungssteigerung bei gleichzeitigem Preisverfall spielen die Hersteller die Kosten geschickt herunter. Auf der anderen Seite werfen sie den Nutzen mit den schillerndsten Farbfolien an die Wand. Kuerzere Durchlaufzeiten, bessere Auslastung, geringere Bestaende und erhoehte Termintreue werden versprochen, ohne dass die Erreichbarkeit dieser Ziele konkret nachgewiesen werden muss.

Die Wirtschaftlichkeitsberechnung von Informationssystemen ist fuer die meisten Anwender ein schwieriges Unterfangen. Fast immer fliessen hier lediglich die unmittelbar berechenbaren Kosten fuer Hard- und Software ein - mithin nur ein kleiner Teil der Gesamtkosten. Der Einfuehrungsaufwand, der meist betraechtliche Hoehe erreicht, wird von den Systemhaeusern im Vorfeld der Investionsentscheidung geflissentlich verschwiegen. Da die Anbieter hauptsaechlich von Beratung, Schulung und Reorganisierung leben, wollen sie ihre kuenftigen Kunden nicht mit dem Hinweis auf hohe Folgekosten verschrecken.

Anpassungskosten fallen immer dann an, wenn das System den Anforderungen der Fachabteilungen nicht gerecht wird und deshalb nachtraeglich fuer die betrieblichen Erfordernisse zurechtgebogen werden muss. Das kommt in fast jedem Einfuehrungsprojekt vor.

Am hoechsten sind jedoch die Kosten, die fuer die Pflege der zahlreichen Daten, also fuer die Bedienung des Systems, aufgewendet werden muessen. Dieses "Einpflegen", wie es ein bekannter Anbieter bezeichnet, findet in den Berechnungen fast nie Beruecksichtigung.

Den Bedienungsaufwand zu vernachlaessigen, ist gleichbedeutend damit, beim Stundensatz einer Maschine den Personalaufwand zu negieren und sich allein auf die Abschreibungskosten zu beschraenken.

Die wahren Verhaeltnisse zwischen den unterschiedlichen Kostenbloecken (Hardware-, Software-, Einfuehrungs-, Anpassungs- und Datenkosten) lassen sich anhand eines simplen Beispiels verdeutlichen, das die Situation im gehobenen Mittelstand annaeherend widerspiegelt.

Hardware macht nur einen Bruchteil der Kosten aus

Die Hardwarekosten einer neuen DV-Investion sind trotz des laufenden Preisverfalls und der staendigen Leistungssteigerung noch am ehesten kalkulierbar. Bei einer Investition in zwei Server und 100 Clients mit entsprechenden Netzkarten, Drukkern etc. ist eine Summe von rund einer Million Mark zu veranschlagen. Aufgrund staendig steigenden Datenvolumens und immer komplexerer Software muss mit einer periodischen Aufruestung gerechnet werden. Dennoch machen die Hardwarekosten nur einen Bruchteil der Gesamtkosten aus.

Ungefaehr ebenso teuer wie die Hardware ist die Software. Lizenzgebuehren und Wartungsvertraege fuer die Betriebssysteme, das Netz, fuer die auf jedem Client installierte Buerosoftware, die Enduser-abhaengige Datenbank sowie die integrierte und modulweise zu erwerbende Anwendung verschlingen wiederum zirka eine Million Mark. Aber auch die Softwarekosten sind recht gut berechenbar.

Beratung taucht in keinem Investitionsplan auf

Mit der Hard- und Software allein ist es jedoch nicht getan. Spaetestens dann, wenn die Software installiert ist, werden die Beratungskosten faellig. Erfahrene Berater sollen fuer die Abwicklung des Einfuehrungsprojekts sorgen, und je komplexer die Software, desto hoeher der Beratungsbedarf. Fuer den Manntag werden derzeit etwa 2500 Mark bezahlt. Nach vier Jahren sind also zwei Millionen Mark fuer Beratungsleistungen aufgewendet worden. Diese Kosten tauchen in keinem Investitionsplan auf, denn eigentlich dachte man, nach der Installation wuerde die Software schon laufen.

Bald stellt das Unternehmen fest, dass die Software angepasst werden muss - trotz aller Anstrengungen, die betriebliche Ablauforganisation auf den Kopf zu stellen. Und dann werden fuer mehrere Jahre die Anpassungsprogrammierer eines Logo-Partners ins Haus geholt. Die Experten kosten - je nach Erfahrung - zwischen 1500 und 2500 Mark am Tag. Oft bedarf es wochenlanger Programmierarbeit, bis kleine Anforderungen in die hochkomplexe Software eingearbeitet sind. In drei Jahren gehen fuer die Anpassung noch einmal zwei Millionen Mark drauf.

Mittlerweile hat das Unternehmen also sechs Millionen Mark in das System gesteckt. Jetzt gibt es kein Zurueck mehr. Die Sache muss durchgezogen werden. Der groesste Kostenblock - fuer die Pflege der Daten und Parameter - wurde bisher jedoch voellig uebersehen. Wegen der hohen Komplexitaet von Standardsystemen hat die von den Programmen vorgegebene Anzahl von Datenfeldern erhebliche Bedeutung. Fuer jeden einzelnen Datensatz, zum Beispiel Teilestammdaten fuer ein Gussteil oder ein Blechstueck, muessen zahllose Daten angelegt werden. Die durchschnittliche Zahl von Datenfeldern pro Datensatz geht in die Hunderte.

Selbstverstaendlich werden nicht alle Datenfelder auch wirklich genutzt, viele bleiben leer. Fuer bestimmte Verarbeitungsfunktionen sind jedoch bestimmte Mussdaten unabaenderlich vorgeschrieben. Und je mehr Funktionen, desto mehr Mussdaten - selbst wenn die Anwender diese Daten fuer ihre Entscheidungsfindung nicht benoetigen.

Die Anzahl der Datenfelder pro Datensatz gibt noch keine Auskunft ueber die Menge der Datensaetze pro Datei. Wichtig ist vor allem, zu wissen, wieviele Datensaetze im Laufe der Zeit angelegt oder "eingepflegt" werden. Ihre Zahl geht oft in die Hunderttausende. Diese Zahl resultiert aus der Notwendigkeit, jeden Vorgang und jedes Objekt zu erfassen, nur um es mit DV-Hilfe verwalten zu koennen. Jedes Teil, das ueber das System disponiert, eingekauft, gefertigt, gelagert oder verkauft werden soll, muss im System gespeichert sein.

Fuer die Datenpflege ist das Verwaltungspersonal zustaendig. Legt man einen Stundensatz von 60 Mark fuer einen qualifizierten Sachbearbeiter zugrunde und stellt dann die Frage, wieviel Datensaetze pro Tag von einem Mitarbeiter bestimmt, angelegt, geaendert, gesucht, ausgewertet und geloescht werden, dann, so wurde in einer repraesentativen Untersuchung ermittelt, kostet die Pflege eines einzigen Datenfeldes innerhalb seiner Lebensspanne bis zu 0,45 Mark.

Multipliziert man nun die Kosten fuer die Pflege eines Datenfeldes mit der Gesamtzahl der Datenfelder, dann ergeben sich die Kosten fuer die Datenpflege pro Datei. Sie gehen in die Millionen. So lassen sich die hohen Gemeinkostenzuschlaege in der Industrie erklaeren. Zuschlagsaetze von 200 bis 300 Prozent sind keine Seltenheit. Verursacht werden sie durch grossen Verwaltungsaufwand fuer oft wenig oder schlecht genutzte Datenbasen. Dadurch betraegt in vielen Betrieben das Verhaeltnis zwischen den Mitarbeitern in der Produktion und in der Vewaltung bereits eins zu eins.

Wenn die Unternehmen schon einen derart hohen Aufwand treiben, dann sollte dem wenigstens ein erklecklicher Nutzen gegenueberstehen. Der versprochene und erwartete Nutzen besteht generell in einem Anwachsen der Information.

Die Begruendungen beschraenken sich also zumeist auf subjektive Allgemeinplaetze: Gefordert werden aktuelle und vollstaendige Informationen ueber alle Vorgaenge im Unternehmen. Man moechte sich am Bildschirm ueber saemtliche Ereignisse informieren koennen. Finanzbuchhaltung, Material- und Warenwirtschaft, Logistik, Einkauf, Produktionsplanung und -steuerung, Qualitaetssicherung, Projekt-Management - alles soll von dem neuen System abgedeckt werden und eng miteinander verzahnt, sprich: integriert, sein.

Aber ist das Ergebnis wirklich noch Information, oder haben wir es oft nicht eher mit einer erheblichen Verwirrung zu tun? Angesichts des grossen Aufwand kann es nicht reichen, den Nutzen der Daten subjektiv zu pauschalisieren. Es muss gelingen, ihn objektiv zu messen.

Im Gegensatz zu der landlaeufigen Meinung, Information sei nicht exakt messbar, laesst sich - anhand einer informationstheoretischen Definition, die von Claude Shannon stammt - der Informationsgehalt von Daten sehr wohl quantitativ bestimmen. Shannon bedient sich bei seiner Definition einer von Max Planck definierten Groesse mit der Bezeichnung Entropie (=Unordnung).

Information ist negative Wahrscheinlichkeit

Nach Shannon ist Information das Gegenteil von Unordnung, oder konkreter: negative Wahrscheinlichkeit. Das macht durchaus Sinn. Denn je wahrscheinlicher ein berichtetes Ereignis ist, desto geringer ist der damit verbundene Informationsgehalt. Die Auskunft: "Sie haben im Lotto verloren!" hat also geringen Informationsgehalt, da ihre Wahrscheinlichkeit hoch ist. Umgekehrt kommt der Aussage: "Sie haben im Lotto sechs Richtige!" hoher Informationsgehalt zu, weil dieses Ereignis sehr unwahrscheinlich ist.

So wie der Informationsgehalt von Ereignissen laesst sich auch der von Daten messen. Hier liegt dem Informationsgehalt die Wahrscheinlichkeit zugrunde, mit der auf die Daten zugegriffen wird. Nach Shaonnon errechnet sich der mittlere Informationsgehalt vieler Daten nach folgender Formel:

Auf Basis dieser theoretischen Grundlage laesst sich auch der Informationsgehalt eines komplexen Datenverarbeitungssystems ermitteln. Um den Nutzen oder anders ausgedrueckt: den Informationsgehalt einer Anwendungssoftware messen zu koennen, muesste nur die Zugriffswahrscheinlichkeit auf die Daten (Datensaetze und Datenfelder) gemessen werden.

Eine solche Messung erfordert allerdings hohen technischen Aufwand. Zur Vereinfachung hat die Informationstheorie die Ebenen der Information eingefuehrt. Die statistische Ebene betrifft die reine Zugriffswahrscheinlichkeit von Signalen beziehungsweise Daten. Die syntaktische Ebene hingegen verlangt schon die Einhaltung grammatischer Regeln. Im Beispiel auf Seite 49 muss es also heissen: WBZ (fuer "Wiederbeschaffungszeit"). Grammatisch richtige Signale haben einen hoeheren Informationsgehalt als rein statistische.

Mehr Datenaufwand als eigentlich noetig

Die semantische Ebene befasst sich mit der Bedeutung der Daten. WBZ heisst Wiederbeschaffungszeit und hat damit fuer den Kenner eine Bedeutung, also noch mehr Informationsgehalt. Auf der pragmatischen Ebene wird erwartet, dass sich aus den Daten Handlungen ableiten lassen - in unserem Beispiel: eine Bestellung. Der Informationsgehalt ist hier wiederum gesteigert.

Die apobetische Ebene von Informationen ist auf Ergebnisse ausgerichtet, beispielsweise auf eine Lieferung. Daten, aus denen Ergebnisse resultieren, haben infolgedessen einen noch hoeheren Informationsgehalt. Schliesslich und endlich fragt die thelostische Ebene nach den mit den Informationen erreichten Zielen. Hier sollten die Daten eine termingerechte Lieferung bewirken, damit sie den vergleichsweise hoechsten Informationsgehalt ausweisen koennen.

Will man nun den Informationsgehalt einer Anwendung errechnen, so sollte man wissen, welche Daten dem Unternehmen helfen, seine Ziele zu erreichen, und welche nicht. Zunaechst sind die Anwender zu fragen, ob sie Datenfelder verstehen. Dann muss entschieden werden, ob die Daten handlungsrelevant, ergebnisorientiert und oder gar zielbeeinflussend sind. Hinsichtlich der Datensaetze wird stichprobenartig untersucht, ob haeufig auf sie zugegriffen wird und ob sie noch aktuell oder bereits veraltet sind.

Daraus lassen sich dann die geschaetzten Zugriffswahrscheinlichkeiten ableiten. Diese Werte werden anhand der Shannonschen Formel zu dem Informationsgehalt fuer einzelne Dateien beziehungsweise das Gesamtsystem verdichtet.

Das hier grob geschilderte Verfahren wurde bereits mehrfach eingesetzt, um den Informationsgehalt von Anwendungssystemen zu berechnen. Dabei traten erstaunliche Ergebnisse zutage. In einem willkuerlich gewaehlten Beispiel wurde fuer die wichtigsten Dateien ein Informationsgehalt von ungefaehr vier ausgeweisen. Waeren die Daten maximal auf die Unternehmensziele ausgerichtet gewesen, haette sich mit demselben Datenvolumen auch ein Gehalt von ungefaehr sieben erreichen lassen. Umgekehrt waere ein Informationsgehalt von vier auch mit sehr viel weniger Daten erzielbar.

Das bedeutet: Im Vergleich zu einem optimierten System wird mit viel mehr Datenaufwand gearbeitet, als eigentlich noetig waere. Die Redundanzfaktoren moderner Informationssysteme gehen in die Hunderte. Besonders bei Standardpaketen erzielen die Unternehmen mit phaenomaenalen Datenvolumen recht bescheidene Ergebnisse.

Die Anhaeufung von immer mehr Daten und Funktionen steigert den Informationsgehalt der Systeme nur marginal. Aufgrund des logarithmischen Verhaltens von Information muesste ein exponentieller Datenaufwand getrieben werden, um ein lineares Wachstum des Informationsgehalts zu erzielen.

Mittelmaessige Werte bei Standardsystemen

Es ist ein weit verbreiteter Irrtum, dass ein hoeherer Datenaufwand zwangslaeufig zu mehr Informationsgehalt fuehren wuerde. Dieser proportionale Zusammenhang gilt allenfalls dann, wenn wirklich alle Daten des Systems auf die Unternehmensziele ausgerichtet sind.

Gerade bei Standardsystemen wird ein extrem hoher Datenaufwand getrieben, um eher mittelmaessige Werte fuer den Informationsgehalt zu erzielen. Dagegen kommen Systeme, die ganz auf die Beduerfnisse und Ziele der Anwender zugeschnitten sind, mit einem Bruchteil der Daten und damit auch der Kosten aus. Bei optimierten Systemen koennte Aufwand in Millionenhoehe eingespart werden.

(wird fortgesetzt)

Tabelle: Ebenen der Information (am Beispiel Wiederbeschaffungszeit)

1. Statistische Ebene, WZB?

2. Syntaktische Ebene, WBZ

3. Semantische Ebene, Wiederbeschaffungszeit

4. Pragmatische Ebene, Beschaffen!

5. Apobetische Ebene, Lieferung

6. Thelostische Ebene, termingerechte Lieferung

* Professor Dr. Friedrich Frhr. v. Loeffelholz lehrt an der Fachhochschule in Wuerzburg/Schweinfurt/Aschaffenburg im Fachbereich Wirtschaftsingenieurwesen. Zudem war er viele Jahre in der Bewertung und Auswahl von PPS-Systemen taetig.