Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

22.01.1999 - 

Revival im Rechenzentrum?/Keine Rückkehr zu alten IT- Strategien - und die Folgen

Die neue strategische Mitte heißt Wiederbelebung des RZs

Von Alfred Tauchnitz Wie kann etwas wiedergeboren werden, was nicht gestorben ist, mag sich mancher fragen, der von der "Wiedergeburt" der Main- frames hört. Nun, zumindest eine Wahrheit liegt in der Formulierung: Der Mainframe und damit das klassische RZ ist in den Köpfen vieler verantwortlicher (IT-)Manager längst gestorben. Aber es ist noch nicht immer klar, daß es jetzt um etwas anderes geht.

Zu gewaltig war die Aufbruchstimmung Ende der 80er und Anfang der 90er Jahre, als die Fachabteilungen ihre DV-Geschicke selbst in die Hand nahmen und Unabhängigkeit vom zentralen, damals durchaus zentralistischen RZ demonstrierten. Mit Hilfe neuer Möglichkeiten der dezentralen Datenverarbeitung erhielten die Fachabteilungen die Informationen und Anwendungen, die sie benötigten, und damit zugleich die Kontrolle über die Systemadministration ihrer IT-Installationen.

Heute ist nicht zuletzt dank der unermüdlichen Aufklärungsarbeit der Gartner Group bekannt, daß die frühere Rechnung "Ein MIPS auf dem Mainframe kostet 100000 Dollar, auf einer Unix-Maschine 10000 und auf dem PC 1000" nicht mehr gilt. Vielmehr mußten die Verantwortlichen erkennen, daß neben den Hardware- und Lizenzkosten auch Aufwendungen für Support, Systemadministration und Personal anfallen und daher für eine Berechnung der Total Cost of Ownership (TCO) von IT-Installationen zu beachten sind. Deshalb suchen Firmen heute nach einer neuen, zukunftsorientierten IT- Strategie, die nicht nur den Bedürfnissen in Unternehmen entspricht, sondern auch Kosten und Nutzen der Datenverarbeitung gegenüberstellt.

Die Diskussionen über die ideale IT-Strategie wurden in der Vergangenheit stets von extremen Standpunkten aus geführt. Die einen traten für die vollständige Dezentralisierung ein, die anderen galten als Verfechter der vollständigen Zentralisierung von Hard- und Software in den Unternehmen.

Inzwischen geht es nicht mehr um das Entweder-Oder, das Motto lautet "Sowohl als auch". Die ideale Strategie ist nicht generell formulierbar, sondern muß unternehmensindividuell bestimmt werden. Dabei muß jede Firma die auch heute noch existierenden innerbetrieblichen Abgrenzungen überwinden und Fachabteilungen und RZ zusammenbringen.

Eine moderne, zukunftsorientierte IT-Strategie nutzt die Stärken sämtlicher IT-Plattformen, die in einem Unternehmen vorhanden sind. Dabei ist insbesondere das RZ gefordert, denn es gilt, neben der Bereitstellung und Aufrechterhaltung einer funktionierenden IT-Infrastruktur auch ein Serviceverständnis der Fachabteilungen zu entwickeln.

An vorderer Stelle einer innovativen IT-Strategie steht dabei, die IT-Kosten transparent zu gestalten. Klare Abrechnungsmodi für Hard- und Software sowie Service-Level-Agreements für Dienstleistungen verschaffen den Fachabteilungen ein Bild von der Komplexität ihrer Anforderungen und bieten die Möglichkeit, nur betriebswirtschaftlich sinnvolle Projekte anzugehen. Den Fachabteilungen müssen vielversprechende Formen der Informationsbereitstellung wie Data- Warehousing, Data-Mining und Data-Management in aufbereiteter Form angeboten werden.

Eine geeignete transparente Organisation muß Netzwerk-Software und -Server unterstützen. Dazu bedarf es unter anderem einer Inventarisierung von Hard- und Software-Ausstattungen für alle IT- Plattformen, einer kritischen Durchleuchtung nach Redundanzen in Verarbeitungsprozessen und der Datenhaltung sowie einer umfassenden Reorganisation zur Vermeidung dieser Redundanzen.

Die Unternehmen haben eine Dezentralisierung der IT unterschiedlich weit realisiert. Viele werden beim momentanen Stand der Dinge von einer Rezentralisierung in puncto Beschaffung und Verwaltung von Hard- und Softwarekomponenten sowie in Sachen Verantwortung für einen reibungsfreien IT-Betrieb profitieren.

Die Gartner Group kommt zu der Erkenntnis, daß sich über 50 Prozent der großen Unternehmen mit Rezentralisierungsabsichten tragen, McKinsey spricht von 59 und IDC sogar von 70 Prozent.

Dabei stößt die Vorstellung einer Rezentralisierung von Rechnerintelligenz ins RZ aus historischen Gründen immer noch auf größte Skepsis. Zu sehr hat sich das Bild von den undurchsichtigen Machenschaften der RZ-Herrscher über Bits und Bytes in den Köpfen der Verantwortlichen festgesetzt. Man kann es ihnen nicht verdenken.

Allerdings geht es nicht nur um die explosionsartige Entwicklung der Kosten einer dezentralen IT und um die Bindung von Spezialisten in den Fachabteilungen. Inzwischen steht der verteilten Systemumgebung kaum mehr ein adäquater Nutzen durch Vorteile wie beispielsweise einer zusätzlichen Intelligenz am Arbeitsplatz gegenüber.

Unternehmen, die ihre IT-Kosten unter Kontrolle bringen wollen, gehen in verschiedener Weise dazu über, Teile ihrer verteilt existierenden Hard- und Softwarekomponenten wieder in die Verantwortung des zentralen RZ zu stellen. Ein Ansatz stellt in diesem Zusammenhang die Server-Konsolidierung, verstanden als Reduktion der Anzahl der Server durch die Nutzung neuer plattformübergreifend einsetzbarer Main-Server, und damit verbunden auch eine Zentralisierung sämtlicher IT-Anwendungen dar. Ein anderer Weg ist die zentrale Administration weiterhin dezentral existierender Server durch professionelle Systemadministratoren aus dem RZ.

Zwischen diesen beiden Herangehensweisen gibt es verschiedene Ausgestaltungen der Rezentralisierungsbestrebungen. Allen Ansätzen ist gemein, daß sämtliche systemadministrativen Aufgaben wieder DV-Fachleuten obliegen und nicht mehr Mitarbeitern anderer Profession.

Die Vordenker haben ihre extremen Standpunkte bereits verlassen und reden nun einer Wiedergeburt des RZ das Wort. Dabei muß zunächst einmal mit den in Unternehmensleitungen verbreiteten Vorstellungen vom RZ alter Tage aufgeräumt werden, um den Begriff "Wiedergeburt" mit der Schaffung von etwas Neuem zu verbinden.

Eine bedingungslose Servicebereitschaft und ein tiefes Verständnis für die Bedürfnisse der Fachabteilungen müssen das alte Besitzstandsdenken ablösen. Das eigene Produkt- und Dienstleistungsangebot muß zu marktfähigen Preisen offeriert werden. Eine mögliche Konkurrenz von außen und eine Organisationsform in der Art von Profit-Centern positioniert das neue RZ, das sich einen anderen Namen, beispielsweise IT-Service- Center, bei seinen Kunden erst einmal verdienen muß.

Die müssen und werden das Vertrauen in ihren Partner zurückgewinnen, wenn sie sich in ihren Anliegen verstanden fühlen und mit schnellen, mitunter auch unkonventionellen Lösungen rechnen können. Dieses Vertrauen ist die Grundlage für die freiwillige Rückgabe der IT-Verantwortung, die auch die Fachabteilungen maßgeblich von Aufgaben und somit Kosten entlastet.

Unternehmen verfügen heute über ein großes Know-how in puncto IT- Plattformen und Anwendungen. Dieses Wissen ist allerdings genauso verteilt und redundant, wie es die heterogene IT-Landschaft erforderte. Gebündelt und gut strukturiert, läßt sich aus diesem Potential ein schlagfertiges Team bilden, in das jeder seine Erfahrung einbringen kann.

Neben den personellen Kapazitäten stehen heute auch die technischen Möglichkeiten für eine rezentralisierte IT-Landschaft bereit. OS/390 und die CMOS-Technologie aus dem Hause IBM sind dazu prädestiniert, plattformübergreifend und zu einem attraktiven Preis unternehmensweit die IT zu steuern und zu kontrollieren.

Dem Main-Server kommt dabei die Aufgabe zu, dort für Sicherheit, hohe Verfügbarkeit und Zuverlässigkeit zu sorgen, wo es erforderlich ist. Niemand sollte sich mehr Gedankenspielen hingeben, daß sämtliche Geschäftsdaten und Anwendungen auf dem Main-Server laufen. Vielmehr sind nur solche Daten und Anwendungen an eine zentrale Stelle zurückzuholen, die unternehmenskritisch sind und bei denen es sich die Firma nicht erlauben kann, daß der Server durchschnittlich 500 Stunden im Jahr ausfällt, wie es eine IBM-Studie über ein PC-basiertes Client-Server-Konstrukt belegt.

Unternehmen werden auch im IT-Service-Center vermehrt auf Standardsoftware setzen, weil für kosten- und zeitintensive Eigenentwicklungen immer weniger Zeit bleibt. SAP hat in großem Stil gezeigt, wie Unternehmen Vertrauen in interessante, individuell gestaltbare Standardsoftware gewinnen. Gleiche Erfahrungen machen andere mittelständische Softwarehäuser, die mit einem umfassenden Produkt- und Serviceangebot den standardisierten Programmen den Weg ins IT-Service-Center ebnen.

Die Unternehmen profitieren dabei auch von den Erfahrungen solcher Softwarehäuser, die zunehmend firmenweite, plattformübergreifende Lösungen anbieten. Durch eine strukturierte Softwaregestaltung nach neuesten Erkenntnissen der Software-Entwicklung und eine umfassende Dokumentation leisten diese Softwarehäuser einen wesentlichen Beitrag zur Integration sämtlicher Plattformen und zu deren zentraler Kontrolle.

Die Bewegung in der IT-Landschaft kommt denen zugute, die dafür bezahlen: Die Firmen profitieren von der neuen Offenheit im Mainframe-Bereich, der durch OS/390 auf dem Weg zum Main-Server ist. Darüber hinaus profitieren sie von der Aufdeckung der wahren Kosten ihrer dezentralen Datenverarbeitung, die gleichzeitig motiviert, bestehende Strukturen zu ändern.

Die Unternehmen haben ihre Anforderungen an die Hersteller formuliert und wurden bedarfsgerecht bedient. Nun sind sie selbst am Zuge, um die gegebenen Möglichkeiten zu nutzen und eine IT- Landschaft nach ihren Bedürfnissen zu gestalten.

Angeklickt

"Ein MIPS auf dem Mainframe kostet 100000 Dollar, auf einer Unix- Maschine 10000 und auf dem PC 1000 Dollar" - mit dieser Feststellung ist das RZ einmal sehr in Verruf und unternehmensstrategisch ins Abseits geraten. Doch die Alternative einer weitgehend PC-basierten Client-Server-Selbständigkeit der Fachabteilungen steht seit der TCO-Debatte unter Beschuß. Allerdings hat das nicht einfach ein Umschlagen des Pendels in die alte Position zur Folge. Der Autor, ein langjähriger Fürsprecher der Mainframe-Szene, argumentiert für einen Weg in der Mitte.

Alfred Tauchnitz ist Vorstandsmitglied der Beta Systems Software AG in Berlin und zuständig für Strategic Corporate Planning and Communications.