Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

25.10.1996 - 

IT-StrategieKosten, Kunden und Konzepte sind in die Planung einzubeziehen

Das IT-Management steht vor gewaltigen Herausforderungen

Das Resultat des Gegensatzes zwischen Simplizität am Arbeitsplatz und Komplexität in den Steuerungsfunktionen wird von Charles Wang in seinem Buch "Techno-Vision" als das "Disconnect" zwischen den Fachbereichen und der IT-Organisation beschrieben. Es handelt sich um die zunehmende Entfremdung von Geschäftsbereichen und IT. Interessanterweise ist dieses Phänomen beiden Seiten bewußt und wird entsprechend beklagt.

In gleichem Maße, wie durch diese Tatsache der dispositive Einfluß von IT im Unternehmen zurückgeht, steigen die Chancen von Outsourcern. Sie profitieren oft mehr von der Unzufriedenheit der Unternehmensleitung mit ihrer eigenen IT-Organisation als von der Wirtschaftlichkeit ihrer Angebote. Manager begründen die Outsourcing-Entscheidung mit der Konzentration auf das Kerngeschäft und denken sich: Es kann nur besser werden - und billiger ist es auch noch.

Im folgenden soll dargelegt werden, daß IT nach wie vor eine substantielle Management-Aufgabe für Unternehmen und Behörden darstellt. Allerdings ist es falsch, die Komplexität vorzuschieben, um den Nutzen des IT-Einsatzes nicht näher erklären zu müssen. IT ist kein Selbstzweck ihr Einsatz erfordert eine intellektuelle unternehmerische Vorgehensweise.

Zweifellos agieren in vielen derartigen Diskussionen die IT-Manager selbst eher als Bremser denn als Förderer. Unterschwellige Rechtfertigungen sind die Regel, eine unvoreingenommene Bereitschaft zur Neuorientierung die Ausnahme. Mit operativen Zwängen wird begründet, warum Veränderungen schwierig oder unmöglich sind.

Soll sich die IT neu orientieren, ist allerdings unbedingte Voraussetzung, daß die Unternehmens- oder Behördenleitung eine mittelfristige Perspektive für die geschäftliche Entwicklung aufzeigt. Diese läßt sich als Zielkomplex für eine entsprechende Transformation von IT verwenden (siehe Abbildung 1, Seite 84).

Die geplante Entwicklung des unternehmerischen Umfeldes muß allen klar sein, wenn die IT die Unternehmensziele stützen soll. Leider ist der umgekehrte Weg der gängigere. Unternehmen erstellen aufwendige Gutachten zur Reorganisation der IT-Funktion. Nicht selten ist dies mit der Überführung in eine eigenständige IT GmbH verbunden - die Umsetzung erfolgt zum Teil mehr schlecht als recht. Der eingangs beschriebene "Disconnect-Effekt" wird damit noch erhöht.

Eine solche IT GmbH wird mit eigenen Zielen und Profitvorgaben belastet, ohne daß der erwartete Nutzen für das Kerngeschäft ausreichend durchdacht wurde. In manchen Fällen kokettieren die Unternehmen damit, eine neue, marktfähige Gesellschaft entstehen zu lassen - leider, ohne daß ausreichende Kenntnisse des IT-Marktes vorhanden sind. Noch selten ist ein solchen IT-Gebilde erfolgreich gewesen, weder nach innen noch nach außen.

IT-Manager sollten sich weniger als eigene Unternehmer profilieren, sondern als brillante Organisationsfachleute. Ihre Aufgabe ist es, die technischen Instrumente für die Optimierung oder Neugestaltung der Geschäftsprozesse bereitzustellen und die Anwender optimal zu versorgen - seien es eigene Mitarbeiter, Lieferanten oder Kunden. Das Ganze hat auf einem nachvollziehbaren Preis-Leistungs-Niveau und einer konzeptionellen Basis stattzufinden, die es ermöglicht, die Technik kontinuierlich an sich wandelnde Aufgaben anzupassen. IT ist nicht Selbstzweck, sondern Mittel zum Zweck. Das oberste Qualitätskriterium ist die Zufriedenheit der Nutzer - mit dem Preis und der Leistung des IT-Versorgers.

Der Kostendruck ist größer geworden

Der Kostendruck hat in den vergangenen Jahren auch die IT-Funktion erfaßt. Nachdem lange Zeit wenig Vergleichsmöglichkeiten für die IT-Kosten bestanden und der Sinn von Ausgaben selten hinterfragt wurde, machen heute verschiedene Verfahren (Compass, Michels, UDM) die kostenorientierte Positionierung möglich. Leider wird diese häufig nicht zum Anlaß substantieller Verbesserungen genommen, sondern für den Aufbau einer Verteidigungsposition mißbraucht. Irgendeine Kostengröße wird es schon zulassen, ein besonders wirtschaftliches Handeln nachzuweisen - und sei es der Aufwand für eine CPU-Stunde oder eine Druckzeile.

Für den Nutzer sind dies relativ unwichtige Belege. Er möchte wissen, was ein bestimmtes IT-Produkt kostet und ob es vergleichbar teuer oder preiswert ist. Die häufig angeführte Leistungsverrechnung hilft den IT-Verantwortlichen nur dabei, Kosten und Leistungseinheiten einander zuzuordnen - es handelt sich also um eine subtilere Form des früher so beliebten Umlageverfahrens. Einfluß auf die Ausgangskosten hat der Nutzer ebensowenig wie Vergleichsmöglichkeiten.

Allerdings beginnen die Anwender, dagegen aufzubegehren. In bestimmten Branchen werden unternehmensübergreifende Preisvergleiche für IT-Produkte immer beliebter. In der Kreditwirtschaft ist beispielsweise der Geschäftsprozeß Zahlungsverkehr mit hohen operativen Kosten belegt. Im Prinzip ist der organisatorische Ablauf in allen Instituten gleich - auch der Grad der technischen Unterstützung. Daher fragt man sich schon mal gegenseitig: "Was kostet bei Euch eine Überweisung?" oder "Wieviel berechnet Eure DV für eine Geldautomaten-Transaktion?" Im behördlichen Umfeld wird bei einer Kfz-Zulassung immer der gleiche Vorgang ausgelöst. Was kostet eine Kfz-Anmeldung hier - was kostet sie dort wie hoch ist der Anteil der IT-Kosten?

Alle Welt schwenkt heute im Bereich kaufmännischer Standardprozesse auf die SAP-Standardsoftware um. Alle Welt wundert sich am Ende auch, wie teuer dieser Schritt ist. Wenn aber die Kostenrechnung künftig überall auf dem gleichen Trägerprodukt basiert, dann kann der Nutzer den Preis eines SAP-Arbeitsplatzes der eigenen IT-Organisation leicht mit dem der Konkurrenz oder dem eines Outsourcers vergleichen.

Es werden also weniger die IT-Verantwortlichen die Kosten des Betriebs ihrer Aggregate diskutieren als vielmehr die Nutzer die Kosten der eingesetzten Produkte. Damit ist in der Praxis ein qualifiziertes IT-Controlling mit folgenden Facetten erforderlich:

1. Industrielle Kostenrechnung Kostenarten-, Kostenstellen-, Kostenträgerrechnung

2. Produktkosten-Ermittlung

3. Gemeinkosten-Handling für eine Vollkostenrechnung

4. Benchmarking für die Überwachung der Produktionskosten

5. Zielsystem für die Kostenentwicklung pro Kostenart Plan-Ist-Vergleich

6. Target-Costing-Ansätze für die Preisfindung

7. Benchmarking Produktpreise

8. Preisstrategie und -transparenz.

Man kann davon ausgehen, daß die ersten vier Aufgaben in den meisten Häusern heute angegangen werden. In den Behörden steht dieser Prozeß allerdings im Zuge der Diskussion des "Neuen Steuerungsmodells" gerade erst am Anfang. Die Erfahrung zeigt, daß die Punkte fünf bis acht in den seltensten Fällen geregelt sind. Sie sollen den dispositiven Teil des aktiven Kosten-Managements ausweisen. Die Analyse allein genügt nicht, ein Zielsystem für die Optimierung der Ausgangskosten-Situation ist unabdingbar (siehe Abbildung 2).

Die Produktpreise sollten nicht das Resultat eines gegebenen Kostenblocks (Leistungsverrechnung) sein, sondern sich am Markt und am Budget der Nutzer orientieren. Die Preise (Target Costing) pro Produkt sind für den Nutzer im Vergleich zu anderen Anbietern auszuweisen - nur so hat der Anwender das Gefühl, korrekt bedient zu werden. Die Preisstrategie ist so anzulegen, daß Reinvestitionen über den Preis abgedeckt sind und die Preise über eine definierte Planungsperiode konstant bleiben. Auch wenn allenthalben ständig über Preissenkungen geredet wird, sollte die IT erst dann darauf reagieren, wenn sich die Kosten einer Kostengruppe um mehr als zehn Prozent in der Vollkosten-Rechnung reduziert haben.

Die Erfahrung zeigt, daß die vollständige Adaption dieser Punkte aufwendig ist, aber zusätzliche Transparenz und höhere Akzeptanz beim Nutzer zur Folge hat. Die Verbrauchskosten sind in der Regel gut ermittelbar - wenn man es nur will. Anders verhält es sich mit Entwicklungsprojekten, wo Preise und Termine nur selten gehalten werden. Um hier die Kosten unter Kontrolle zu bekommen, sollte man sich folgende Anregungen durch den Kopf gehen lassen:

1. Leistungsumfang gemeinsam mit den Geschäftsbereichen entwickeln

2. wenn es geht, den Weg einer Ausschreibung wählen - unter Beteiligung der eigenen Entwicklungsfunktion

3. Angebote neutral bewerten

4. eine kostenpflichtige Vorstudie erarbeiten, anstatt unnötige Risiken bei der Realisierung einzugehen (Reduzierung des Schätzrisikos auf rund 30 Prozent)

5. die Budgetplanung mit dem Nutzer abgleichen und zukünftige Betriebskosten ausweisen (Kosten-Nutzen-Betrachtung, Point-of-Return-Definition)

6. Finanzierungsplan erstellen

7. Generalunternehmer mit Festpreis wählen (entweder intern oder extern)

8. Realisierungsstufen vorziehen, die als Teilschritte vom Nutzer nachvollzogen (Prototyping), abgenommen und beeinflußt werden können aktive und verantwortliche Einbindung der Geschäftsbereiche.

Entwickler neigen zu künstlerischen Verhaltensmustern. Das ist im Prinzip gut so, hat aber einige problematische Konsequenzen. Pläne werden ungern gemacht, Termine nur auf Druck zugesagt, Kostenprobleme auf die kaufmännischen Abteilungen abgewälzt. Jedes Softwarehaus, das so vorginge, wäre schnell pleite. Man muß auch die eigenen Entwickler an ein wirtschaftliches Denken heranführen.

Dies geht um so leichter, je besser ein Vergleich der eigenen Projektlösung mit der von externen Anbietern möglich ist. Daher sollten Entwicklungsprojektionen grundsätzlich so angelegt werden, daß sie ausschreibbar sind. Die Angebote sollten nicht von der IT selbst, sondern möglichst extern validiert werden.

In vielen Fällen ist eine detaillierte Schätzung erst nach dem Grobdesign möglich. Daher macht es Sinn, vor der eigentlichen Realisierung ein detailliertes Pflichtenheft extern erstellen zu lassen. Das Resultat muß so sein, daß es als Ausschreibung für mehrere Anbieter verwendbar ist. Auch den Plan für den Bau eines Hochhauses entwirft im allgemeinen nicht die Bauabteilung, sondern ein freier Architekt und der macht das nicht umsonst.

Damit steigen die Vorlaufkosten für ein Projekt, aber die Praxis zeigt, daß sich dieses Vorgehen für die Gesamtkosten eher kostensenkend auswirkt. Bei einem solchen Verfahren sind dann auch Konventionalstrafen für Terminüberschreitungen seriös einforderbar. Damit wird dem Versuch, die eigenen Schwächen auf externe Anbieter zu verlagern, angemessen begegnet und die Projektentwicklung vollzieht sich für alle Beteiligten in nachvollziehbaren Bahnen.

Die IT bleibt für die Integration des Projektresultates in die Geschäftsprozesse des Unternehmens verantwortlich, muß aber die Entwicklung nicht selbst übernehmen. Die Geschäftsbereiche selbst sind in jeder Phase aktiv involviert.

Die Betrachtung der IT nach Kostenaspekten basiert auf einer Integration in meistens ohnehin vorhandene Controlling-Prozesse des Unternehmens. Die Projektsteuerung wird professionalisiert, die Schnittstelle zum Nutzer in bezug auf Preis und Leistung klar definiert. Wie bereits eingangs erwähnt, ist diese qualitative Ausrichtung unabhängig von der Organisationsform der IT-Funktion zu betrachten.

Nachdrücklich sollte noch einmal betont werden, daß Kosten-Management nicht zum alleinigen Prinzip des Handelns deklariert werden darf. Es soll vielmehr aufspüren, wo die IT-Organisation ineffizient arbeitet. Kosten-Management heißt nicht sparen um jeden Preis, sondern Freiräume für Investitionen aus dem eigenen Budget zu schaffen.

Eine von der OECD veröffentlichte Studie zeigt große Unterschiede zwischen amerikanischen und europäischen Unternehmen, was die Investitionsbereitschaft in IT angeht. Während die Europäer im Schnitt 2,1 Prozent ihres Umsatzes für Informationstechnik ausgeben, investieren die Amerikaner 3,2 Prozent. Das entspricht einer Differenz von fast 50 Prozent und zeigt, welch großer Nachholbedarf hierzulande herrscht (siehe Abbildung 3).

In der Informationsverarbeitung wurde lange Zeit vom "Endbenutzer" gesprochen - dieser Ausdruck läßt erkennen, was die IT vom Nutzer hält. Er wird in erster Linie als technischer Endpunkt gesehen. Aus der Sicht der 70er und 80er Jahre ist diese Definition nachvollziehbar. Der Benutzer stellt topologisch den elektronischen Ausgang eines Computersystems dar man nannte diese Verbindung von Zentralcomputer und elektronischer Endstelle auch völlig zutreffend ein "Master-Slave-Verhältnis".

Diese Definition wurde in dem Maße obsolet, in dem sich PCs und Client-Server-Architekturen durchsetzten. Client heißt Kunde und Server heißt Diener. Mit dieser neuen technischen Verarbeitungsform entwickelte sich das eingangs beschriebene neue Selbstverständnis der Nutzer. Er betrachtet sich zunehmend als Kunden und sieht in der IT-Funktion den entsprechenden Diener.

Für viele DV-Manager der ersten Stunde (auch für einige Hersteller) war mit dieser Wandlung des organisatorischen Kräfteverhältnisses ein größerer Kulturschock verbunden als mit der eigentlichen technischen Entwicklung. Der Übergang vom Master zum Diener führte einige IT-Chefs in eine Identitätskrise, die kaum zu bewältigen war. Schlimme Auswirkungen gab es für Unternehmen, die dieses Problem nicht erkannten. Von dieser Situation profitierten die Outsourcing-Anbieter in erheblichem Ausmaß.

Als Service-Einheit tut sich die IT schwer

Die inhaltlichen Ziele der IT-Abteilungen mußten sich von denen einer zentralen Datenverarbeitung (ZDV) zu einem IT-Dienstleistungszentrum wandeln, das organisatorisch völlig neu ausgerichtet ist. Die IT wurde zum Dienstleister, der Nutzer mutierte vom "elektronischen Endpunkt" zum Kunden. Zwar akzeptieren die IT-Abteilungen diesen Wandel heute in aller Regel, doch an der Umsetzung hapert es. Was eigentlich macht den Status eines Kunden gemeinhin aus? Der Kunde definiert seinen Bedarf, wählt zwischen Angeboten aus, zahlt einen Preis, nutzt das Produkt und ist am Ende mehr oder weniger damit zufrieden.

Ihm stehen normalerweise Anbieter gegenüber, die ein Produkt offerieren, einen Preis definieren und möglichst lukrative Kaufverträge abschließen. Der Anbieter wird versuchen, den Bedarf beim Interessenten so zu wecken, daß sich dieser zum Kauf entschließt. Außerdem möchte er eine langfristige Kundenbindung erwirken, die auch im IT-Umfeld durch sogenannte Post-Sales-Service-Angebote generiert wird.

Stimmen Voraussetzungen wie etwa die Wahlfreiheit des Kunden nicht, kann auch nicht wirklich von einem Kunden-Lieferanten-Verhältnis gesprochen werden. Der Nutzer bleibt ein Abhängiger. Dies war genau die Situation des IT-Nutzers in proprietären DV-Umgebungen. Er hatte keine Wahl, ihm wurden bestimmte Angebote oktroyiert. Heute sind Alternativen vorhanden. Die IT-Lösungen sind offener geworden, man kann die gleichen Ziele auf mehreren technischen Pfaden erreichen.

Den Entwicklungen eigener Verfahren stehen immer mehr Standardlösungen (SAP Bürokommunikation etc.) gegenüber. Sogar die Alternative, die IT-Verarbeitung gänzlich außer Haus zu geben, ist heute im Outsourcing-Verfahren realisierbar. Viele Dienstleistungen (Betreuung des PC-Equipments, User-Helpdesk etc.) werden heute bereits häufiger von externen Firmen als von der eigenen IT wahrgenommen. Der Nutzer kann sich also in der Tat zunehmend als Kunde gegenüber der eigenen IT-Funktionen fühlen.

Für die IT bedeutet das zusätzlichen Aufwand. Verstand man in den 80er Jahren unter dem Begriff "Benutzer-Service-Zentrum" (BSZ) zunächst die zentral organisierte Betreuung dezentraler Nutzer, also einem technisch orientierten User-Helpdesk, so entsteht zunehmend die Verpflichtung, eine "vertriebsorientierte" Kundenbetreuung einzurichten, die vor Ort beim Nutzer präsent ist. Diese den Anwendergruppen fest zugeordneten IT-Betreuer treten weniger als technische Unterstützer denn als verfahrenstechnische Berater auf, die dem Nutzer die Produkt- und Servicepalette der IT-Funktion erläutern, Bedarf wecken und mit den Fachabteilungen Lösungen erarbeiten. Die Bruchstellen zwischen Geschäftsbereichen und IT werden reduziert und in dedizierte Verbindungen überführt.

Für einen IT-Organisatoren besteht der Unterschied zu den 70er und 80er Jahren darin, daß er heute Resultate erzielen muß er muß die Produkte und Dienste der IT "verkaufen", die festgelegten Standards trotz individueller Wünsche der Kunden vertreten und für einen meßbar hohen Zufriedenheitsgrad seiner Nutzergruppe sorgen.

Aus der Anwenderbetreuung wird Kunden-Management. Darunter ist eine sorgfältig konzeptionierte kontinuierliche Betreuung ebenso zu verstehen wie die Definition von Leistungen (auch Betreuungsleistung) und Preisen sowie das Erstellen und Verabschieden von sogenannten Service-Level-Agreements pro Nutzergruppe. Die Kundenzufriedenheit muß regelmäßig überprüft werden. Diese Entwicklung impliziert die Transformation vom technischen Spezialisten zum Prozeß- und kundenorientierten Berater.

Damit muß auch der Begriff "Qualität" kundenorientiert definiert und operativ gestaltet werden. ISO 9000 ist eine Formalität und ein erster Schritt, der aber nur bedingt Aussagen darüber erlaubt, was beim Kunden an Produktqualität ankommt.

Eine zeitgemäße Projektorganisation schließt den Kunden beziehungsweise den entsprechenden Geschäftsbereich eng in die Projektentwicklung ein. Ein zeitgemäßer IT-Betrieb hat seine Kundenorientierung durch die umfängliche Definition von Service-Level-Agreements und eine reaktionsschnelle Betreuung geregelt (siehe Abbildung 4).

Kostenorientiertes Handeln und kundenorientiertes IT-Management sind unabdingbare Voraussetzungen für eine neue Akzeptanz der IT-Funktion. Diese Zielsetzungen erfordern einen neuen Typus von IT-Manager. Der allwissende Guru ist weniger gefragt als der kommunikative Executive, der es versteht, die Technologie in Geschäftsprozesse zu integrieren und eine Know-how-Vermittlung zu seinen Kunden zu praktizieren, egal ob es sich um Vorstände oder Sachbearbeiter handelt.

Dennoch kommt auch die kommunikativste Organisationseinheit nicht ohne Fachwissen aus, und IT ist und bleibt ein technik-orientiertes Gebiet. Dabei werden die technologischen Rahmenbedingungen immer komplexer.

Wir können heute drei Phasen der technologischen Entwicklung erkennen und diese auch zeitlich zuordnen (siehe Abbildung 5). Die Grafik soll ausdrücken, daß mit den jeweils verfügbaren technischen Standards auch die jeweiligen Formen der Nutzung determiniert waren. Phase 1 beinhaltet vornehmlich die Automatisierung der funktionalen Massendatenprozesse in den Unternehmen und Behörden. Sie werden auf den Host-Terminal-Systemen abgewickelt.

Phase 2 brachte die Aktivierung der Nutzer durch den Einsatz der Desktop-Technologie, die dann durch die Entwicklung der lokalen Netze zu Client-Server-Verbünden ausgebaut wurden. Das Grafische Benutzer-Interface (GUI) mit Maustechnik hat die eigentliche nutzerorientierte DV initiiert. Waren zunächst fast ideologische Positionskämpfe zwischen den sogenannten Alteisenkämpfern und den Mikrocomputer-Revolutionären das prägende Bild zum Ende des vergangenen Jahrzehnts, so hat sich die Diskussion dahingehend beruhigt, daß die Technologien nicht mehr als substitutiv, sondern als komplementär verstanden werden.

Die Rückbesinnung auf die Geschäftsprozesse sowie die Kostenbetrachtungen haben dazu geführt, die unterschiedlichen Plattformen im Verbund zu betrachten und Stärken sowie Schwächen nutzengerecht zuzuordnen. Dabei sind die Host-Systeme der aktuellen Generation (CMOS) auf die Server zugekommen und können heute als Konzentratoren für Datenspeicherung und Server-Steuerung betrachtet werden. Die Desktops haben sich nicht zuletzt durch Windows NT zu leistungsfähigen Servern entwickelt.

Die einst getrennten Welten haben sich aufeinander zubewegt - stark unterstützt von der Software-Industrie. Während OS/390 für die Mainframes heute Standard ist, gilt dies zunehmend für Microsoft auf der Client-Server-Seite. Das R/3-System der SAP brachte einen Schub für Client-Server-orientierte Anwendungssoftware. Damit werden die Standardisierungsaspekte immer deutlicher erkennbar. Die große Zahl in Netzen verbundener IT-Geräte erfordert eine homogenere technische Ausstattung als früher. Ansonsten ist ein produktives Handeln dieser Verbünde nicht mehr zu gewährleisten.

Phase 3 steht den IT-Organisationen mittelbar bevor. Waren bisher die IT-Kernprozesse auf die Gestaltung der internen Abläufe ausgerichtet, so wird im Zug der Weiterentwicklung der Telekommunikation diese Barriere schon bald fallen. Das Zauberwort Internet steht für diese Phase als Synonym, obwohl es im professionellen Umfeld eine geringere Bedeutung hat als der Aufbau leistungsfähiger LAN/WAN-Verbünde (inklusive Intranet).

Diese Entwicklung macht es erforderlich, das netzwerkorientierte Computing in die mittelfristige Planung des IT-Bereichs zu integrieren. Anwendungsorientierter Kern dieser Überlegung ist die damit verbundene Öffnung der internen IT-Verfahren zur Außenwelt. Diese kann bereits heute aus identifizierten Nutzergruppen bestehen, also den bekannten Kunden, Zulieferern oder Geschäftspartnern. Künftig sind jedoch ebenso bisher nicht identifizierte Nutzergruppen einzubeziehen.

Für Banken ist diese Vision heute ebenso beginnende Realität wie für Handelsunternehmen - selbst die Verwaltung kommt um die elektronische Bürger-Behörden-Kommunikation nicht herum. Für IT bedeutet dies, daß die technische Komplexität eine neuerliche Erweiterung erfährt. Vernetzung impliziert nicht mehr wie in Phase 2 eine physische Verbindung, sondern wird zu einem inhaltlichen Gestaltungsmerkmal (siehe Abbildung 6). Die Verfügbarkeit des IT-Umfeldes wird damit sichtbar für die Außenwelt und damit zu einem Qualitätskriterium, dem sich das IT-Management konsequent stellen muß.

Für die IT-Organisationen ergibt sich konzeptionell die Schwierigkeit, daß sie die drei Phasen parallel behandeln müssen. Das 20 Jahre alte Host-Computing ist nicht über Nacht veränderbar, im Gegenteil, manche der Alteisenjünger träumen von einer Renaissance des Mainframes. Die Client-Server-Welt bestimmt mit zum Teil noch kaum bewältigten Problemen die Gegenwart, und die Zukunft des netz-orientierten Computings steht vor der Tür. Es wird den guten und erfolgreichen IT-Manager der Zukunft ausmachen, diese Parallelität zu erkennen, vorrangig zu bearbeiten und kundenorientiert zu gestalten.

Angeklickt

Das Client-Server-Paradigma hat dazu geführt, daß Anwender im Unternehmen von den IT-Verantwortlichen nicht mehr als Bediener eines beliebigen Endgeräts, sondern als Kunden zu sehen sind, die kostengerecht und zu ihrer Zufriedenheit bedient werden müssen. Nicht in allen Firmen ist dieser Wandel wirklich verstanden und nachvollzogen worden. Er hat Auswirkungen auf die Unternehmensorganisation, aber auch auf Fragen, die mit IT-Kosten und -Konzepten sowie mit Ressourcen zu tun haben.

*Ulrich Dickamp ist Geschäftsführer der UDM Unternehmensberatung für Informationstechnologie GmbH in Frankfurt am Main.