Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

27.06.1997 - 

Total Cost of Ownership (TCO)

Neuer strategischer Ansatz oder viel Aufregung um einen alten Hut?

Es ist insofern richtig, als durch die momentane Auseinandersetzung Network Computer (NC) kontra PC beziehungsweise aufgrund der Kontroverse zwischen Oracle, Sun, und IBM und der Wintel-Connection (Intel/ Microsoft) der TCO-Ermittlung von Computerarbeitsplätzen verstärkte Aufmerksamkeit geschenkt wird. Falsch ist, daß damit der Startschuß zu substantiellem IT-Kosten-Management gefallen sei.

Es gibt seit langem eine IT-Kostenrechnung, meistens basierend auf Mainframe-SMF(System Management Facility)-Werten, die für Leistungsverrechnungen verwandt wurden. Diese Verfahren dienten aber weniger einer analytischen Kostenbetrachtung und schon gar keiner vergleichenden, als vielmehr einer Kostensammlung und -beschreibung.

Die analytisch vergleichende IT-Kostenbetrachtung kam erst sehr viel später auf; und zwar mehr der Not gehorchend als freiwillig. Zwei Faktoren begünstigten dies:

- Die Entwicklung alternativer Plattformen. Ende der 80er Jahre entwickelte sich parallel zur damals dominierenden Host-Plattform das Client-Server-Konzept. Damit entstanden erste Bedürfnisse, beide Plattformen im Hinblick auf die Kosten miteinander zu vergleichen. Zu diesem Zweck waren die Kostenstrukturen beider Technologien zu erfassen und zueinander beziehbar zu machen.

Diese Versuche, Kostentransparenz zu schaffen, löste ähnlich heftige Kontroversen aus, wie dies heute zwischen dem NC- und PC-Lager der Fall ist.

- Outsourcing als Wendepunkt: Die bis Anfang der 90er Jahre kostenmäßig relativ unbehelligt operierenden IT-Oganisationen wurden mit dem Thema "Outsourcing" konfrontiert. Externe Mitbewerber und Dienstleistungsanbieter aller Couleur warteten mit günstigeren Kostenvoranschlägen auf als die existenten IT-Organisationen der Unternehmen.

Unabhängig davon, ob dies stimmte oder nicht, wo immer man Outsourcing ernsthaft in Betracht zog, war die interne IT-Funktion in der Defensive. In der Folge kam es zu einer breit angelegten Aktion der IT-Organisationen, sich bereits im Vorfeld analytisch zu betätigen und den Vergleich nicht zu scheuen.

Immerhin wurden diese Analysen in der Regel auch nach einem Vollkostenprinzip vorgenommen, das dem populären TCO-Verfahren ähnelte.

Generell wirft die TCO-Kontroverse die Frage auf, welchen Wert diese Kostendiskussion für die IT-Organisationen hat.

Es ist dabei sinnvoll, IT-Kosten und Effizienz eines jeden Arbeitsplatzes genau zu ermitteln. Die erforderliche technische Ausstattung ist dann auf die Nutzeranforderungen abzustellen.

Diese Betrachtung sollte aus der Sicht des Anwenders angestellt werden und nicht aus vorwiegend technischen Gesichtspunkten. Auch wenn die von der NC-Connection angeführten Produktivitätsgewinne einer NC-Infrastruktur isoliert gesehen durchaus realistisch sein mögen, können bereits vorhandene Strukturen ja nicht einfach ignoriert werden. Außerdem sind auch die Investitionen in eine NC-Struktur nicht zu unterschätzen.

Genauer unter die Lupe zu nehmen sind Behauptungen, daß ein sogenannter Fat-PC zirka 16000 Mark pro Jahr kostet, ein Thin-PC dagegen nur 4000 Mark. Wir gehen davon aus, daß sich die TCO für Arbeitsplatzcomputer durch eine gezielte Aufwand-Nutzen-Betrachtung um zehn bis 20 Prozent reduzieren lassen. Darüber hinausgehende Versprechungen sollten sehr exakt überprüft werden; am besten durch eine Untersuchung der vorhandenen Installation.

Die nachstehende Matrix enthält Nutzersegmente, die für jede Branche zu definieren sind. Es empfiehlt sich, die Clusterung nicht zu tief vorzunehmen, da der analytische Aufwand sonst zu hoch wird.

Die Darstellung der Nutzersegmente (siehe unten) könnte sich auch an anderen Definitionen orientieren; zum Beispiel an Nutzungsformen wie "Intensität" und "Vielseitigkeit". Folgende Kombinationen sind möglich:

Segment I bewirkt eine Nutzerfunktion mit hoher Intensität und geringer Vielseitigkeit, beispielsweise Datenerfassung, Kontierungen etc. Segment IV stellt eine Nutzergruppe mit geringer Intensität und hoher Vielseitigkeit dar, zum Beispiel Grundlagenforscher, Marktanalytiker etc.

Die Ausstattung mit Arbeitsplatz-Computern ist ebenfalls klar zu definieren. De facto haben die meisten Unternehmen bereits heute eine ähnliche Beschaffungs-Dreiteilung.

Vor diesem Hintergrund machen TCO-Analysen von existenten Client-Server-Strukturen Sinn. Aber diese Überlegung gilt nicht als Ultimo ratio für IT-Anwender, genauso wie suggerierten Effekten mit gebührender Zurückhaltung zu begegnen ist. Ausschlaggebend sind immer die praktischen Anforderungen.

UDM führt seit Jahren thematische Kostenanalysen (TKA) durch, die der reinen TCO-Betrachtung im folgenden ergänzend gegenüberstehen. TKA ist ein Prozeß aus vier Teilschritten:

- Kostenanalyse und Kennziffern,

- Vergleich (Best of Class),

- Projektion und Optimierung sowie

- Zielsetzung.

Eine substantielle Kostenanalyse verlangt eine detaillierte Vollkostenrechnung. Diese kann sich entweder auf IT-Infrastrukturen (Host, Netz, Client-Server) oder auf IT-Verfahren (Gehaltsabrechnung, Buchhaltung, Baugenehmigung, Zahlungsverkehr etc.) beziehen.

Die Datenerfassung muß so einheitlich sein, daß für eine Kennzahlenermittlung gleiche Berechnungsbasen entstehen. Klassische Kennzahlen im Bereich der Infrastruktur sind die Kosten pro MIPS, pro CPU-Stunden für Mainframe-Umgebung oder pro Arbeitsplatz bei Client-Server-Anwendungen.

Bei Verfahrensanalysen wird eine Bezugsgröße gesucht, die sich entweder neutral auf die Kosten für jede Transaktion bezieht oder auf ein mit dem Verfahren erwirktes Produkt, zum Beispiel auf die Gehaltsabrechnung pro Mitarbeiter, Buchung oder Bauantrag. Für die jeweilige Erfassung sind heute Standardverfahren (Kompass, Michels, UDM) verfügbar, die sich in den vergangenen Jahren bewährt haben.

Die Analyse selbst wird zwar in einigen Fällen neue Erkenntnisse über die realen IT-Kostenstrukturen zutage fördern, letztendlich aber keine Maßstäbe für ein gezieltes und effektives Vorgehen setzen können.

Dazu ist ein vergleichbares Kennzahlensystem zu nutzen, das je nach Ziel der TKA zu gestalten ist. Für eine Analyse sind folgende Ziele vorstellbar:

- Interner Kostenvergleich von Konzern-Rechenzentren zur Entwicklung einer Konzentrationsstrategie;

- Vergleich der internen IT-Funktionen mit Outsourcing-Angeboten;

- Projektion der IT-Kostenentwicklung über einen definierten Planungszeitraum unter Berücksichtigung von Konzentrationen;

- Plattformvergleich eines gegebenen Verfahrens (IT-Kosten, Host-Plankosten, Client-Server);

- IuK-Kostenanalyse, Client-Server, Host, Netz, Kommunikation und eine Vier-Jahres-Projektion; Delta-Rechnung und Investitionsprojektion;

- IuK-Analyse von öffentlichen Haushalten, Vergleich und Verbesserungsleitlinien sowie

- Kennzahlenermittlung für IT-Kosten pro Arbeitsplatz.

Der letzte Punkt kommt der TCO-Betrachtung am nächsten.

Für die Beurteilung der IT-Entwicklung stellt der Ist-Vergleich lediglich einen Ausgangspunkt dar. Die enormen Belastungen, die auf einige Branchen (Banken, Versicherungen, Behörden) aufgrund von Euro und der Jahr-2000-Umstellung zukommen, völlig neue IT-unterlegte Prozesse sowie die Entwicklung neuer Anwendungen, seien es Client-Server- oder Java-Corba-Internet-Konzepte.

Das Beispiel 1 zeigt die Projektion der IuK-Kosten, wie sie für die im Planungsbeispiel 2 aufgeführten Institutionen für die kommende Periode gelten.

Für diese Projektion wurden mehrere Prämissen entwickelt, mit jeweils gleicher Berechnungsbasis für die Organisationen. Die ausgewiesenen Grafiken beschreiben die Höhe der zu tätigenden Investitionen in Relation zum bereits vorhandenen technischen Ausstattungsgrad.

Beispiel 2 stellt eine vor drei Jahren vorgenommene UDM-Projektion für den IT-Produktionsbetrieb eines Großanwenders vor, die nach drei Jahren verifiziert wurde. In der Grafik sind die Abweichungen zwischen Prognose und Resultat zu sehen. Dabei scheint das Gesamtergebnis recht genau zu sein, aber die Kostenparameter haben sich deutlich anders entwickelt; die installierten Kapazitäten haben sich deutlich stärker erhöht, gleichzeitig gingen die Kosten pro MIPS stärker zurück als ursprünglich angenommen.

Das Beispiel verdeutlicht aber auch, wie wichtig Nachkalkulationen sind, um die eigenen Schrittlängen realistisch einzuschätzen und in bessere Planungen zu überführen. Das gilt für die externen Institutionen genauso wie für die internen. Man sollte externe Institutionen daher zur gemeinsamen Verifikation solcher Berechnungen nach einer vorher zu definierenden Zeitspanne verpflichten.

Nach den bisherigen Teilschritten liegen in der Regel Informationen über die eigene Position vor. Das Verfahren sollte damit aber noch nicht abgeschlossen sein, selbst wenn man Klassenbester ist. Vielmehr sollte jede Organisation die Ergebnisse in ein realistisches Zielsystem überführen, das jährlich auf seine Vorgabe hin kontrolliert und neu formuliert wird.

Somit sind diese aufwendigen Vorgänge keine einmaligen Aktionen, sondern dienen als Initialzündung für einen produktiven, sich wiederholenden IT-Controlling-Prozeß.

Reine Kostenbetrachtungen sind problematisch, da sie lediglich eine Inputgröße darstellen. Sollen vorschnelle Schlüsse vermieden werden, sind zwei weitere Komponenten zu integrieren: Output und Wirkungsgrad.

Das heißt, die Effizienz einer IT-Organisation läßt sich nur am Verhältnis von Input und Output ablesen und ihre Effektivität nur, wenn ihr Wirkungsgrad an den Unternehmenszielen gemessen werden kann.

Da neben quantitativen Komponenten auch qualitative Resultate eine Rolle spielen, gestaltet sich ein solches Vorhaben deutlich schwieriger als eine TKA- oder TCO-Vorgehensweise.

Ein interessantes Beispiel für ein prozeßorientiertes Benchmarking könnte zun Beispiel der Einsatz von SAP R/3 sein. Folgende Beispielmatrix ist dabei denkbar, die jeweils die Kosten pro IT-Funktion auf die einzelnen SAP-Module umlegt.

Diese Betrachtung kann branchenunabhängig vorgenommen werden. Sobald Module wie SD oder PM hinzukommen, wird man sicher für Handel und Fertigung eine spezifische Zuordnung vornehmen. Benchmarking stellt ein wirkungsvolles Instrumentarium dar, um eine Art konstruktiven Wettbewerb zu starten..

Angeklickt

Die TCO-Diskussion hat der Analyse von IT-Kosten einen Schub gegeben. De facto wurden solche Betrachtungen zwar schon angestellt, seit es IT gibt, oft fehlte aber eine spezifische Thematisierung. Die TCO-Betrachtung bezieht sich auf die Kosten des Computerarbeitsplatzes und praktiziert einen ausgeprägten Vollkostenansatz.

In allen Fällen sollte methodisch so vorgegangen werden, daß sich sinnvolle Vergleiche und wirksame Ziele ableiten lassen. Im Interesse einer unvoreingenommenen Interpretation empfiehlt sich die Zusammenarbeit mit externen Kräften. Dies gilt vor allem für komplexere Benchmarking-Vorhaben, die vor allem bei der Festlegung sinnvoller Vergleichskriterien eine methodische Begleitung erfordern.

TCO ist eine gute Katalyse, sollte aber nicht zum Selbstzweck hochstilisiert werden, sondern Teil eines Prozesses sein, der die zeitgemäße IT-Ausstattung, aber gleichzeitig auch verbesserte Leistungen für den Nutzer zum Ziel hat.

*Ulrich Dickamp ist Geschäftsführer der Unternehmensberatung für Informationstechnologie GmbH in Frankfurt am Main.