Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

22.10.1993 - 

Downsizing: Ein Ende der Kostenspirale ist in Sicht

Wo der Mainframe ersetzt werden kann, wird am meisten gespart

Client-Server und Downsizing sind Schlagworte, mit denen viele IT- Manager nicht nur die Hoffnung auf eine bessere Verteilung von Informationen und eine insgesamt schnellere, flexiblere und leistungsfaehigere DV verbinden. Unter dem Druck des unternehmensweiten Controlling wollen sie auch ihre Kosten in den Griff bekommen. Das Ziel heisst nunmehr "Downcosting" - ob es realistisch ist, wird laengst nicht mehr nur in den einschlaegigen Seminaren, sondern auch in vielen Companies kontrovers diskutiert. Dabei scheint zumindest in einer Frage weitgehend Konsens zu bestehen: Dort, wo der Grossrechner komplett ersetzt werden kann, sind die Spareffekte am deutlichsten sichtbar.

Nicht den geringsten Zweifel am Kostenvorteil dezentraler Systemumgebungen gibt es fuer William Connor, Corporate Vice- President der Motorola Inc. Mit der kompletten Abloesung der Grossrechnerwelt habe sein Unternehmen die DV-Kosten dramatisch reduziert. In einem Vortrag auf der diesjaehrigen Unix Expo in New York erlaeuterte der Motorola-Manager, wie mit Hilfe eines selbstentwickelten Benchmarks die DV-Ausgaben anderer, Main- frame-orientierter Fertigungsunternehmen errechnet und mit den eigenen Aufwendungen verglichen worden seien.

Die Mitarbeiter beruecksichtigten die Kosten von Grossrechnern, verteilten Systemwelten und PCs sowie von Datenkommunikations- und Personalkosten. Das Ergebnis: Waehrend die DV-Ausgaben bei den untersuchten Fertigungsunternehmen durchschnittlich bei 3,2 Prozent des Gesamtumsatzes liegen, sind sie bei Motorola im Jahr 1991 auf 1,4 Prozent - auf weniger als die Haelfte also - gesenkt worden. Fuer 1993 wird gar die Traumquote eines Umsatzanteils von 1,0 Prozent anvisiert. Hinzu kommt nach Angaben des Konzerns, dass der Software-Entwicklungszyklus auf ein Drittel gekuerzt und die Qualitaet der Anwendungen erheblich verbessert werden konnte.

Analysten: Kostensenkung um 30 Prozent ist menschlich

Mit Extrembeispielen dieser Art wurden Besucher der New Yorker Ausstellung mehrfach konfrontiert. Doch auch hierzulande gibt es laengst eine Reihe von Vorzeigeprojekten. Nachdem sich etwa der Hannoveraner Heise-Verlag von seiner Grossrechnertechnologie getrennt hat, liegen die DV-Kosten angeblich nur noch bei 72 Prozent. Auch die Westfleisch eG und ein Muenchner Verlagshaus konnten ihre DV-Kosten in einer aehnlichen Groessenordnung senken - das zumindest ist dem soeben erschienenen Buch "Client-Server- Strategien" von Wilfried Heinrich (Datacom-Verlag) zu entnehmen.

Zu aehnlich eindeutigen Ergebnissen kommen die Analysten der Yankee Group, die in ihrer Studie "Downsizing: Can You Afford It?" vorrechnen: Ueber einen Zeitraum von fuenf Jahren hinweg betragen die Anschaffungs- und Betriebskosten einer verteilten Architektur rund 73 Prozent der Mainframe-Kosten. Kann auf Software-Re- Engineering-Massnahmen verzichtet werden, betraegt der Anteil sogar nur 66 Prozent.

Dass sich Anwender trotz dieser guenstigen Prognosen nicht reihenweise in Downsizing-Projekte stuerzen, hat einen Grund: In nahezu allen Beispielen ist die komplette Abloesung der Grossrechner-Datenverarbeitung absolute Voraussetzung fuer den Spareffekt. De facto ist aber bis heute hoechst umstritten, ob und wann eine solche Radikalkur sinnvoll ist. Es herrscht - zum Wohlgefallen so mancher Hersteller - allgemein Verunsicherung darueber, unter welchen Umstaenden es preiswerter ist, an der zentralen Mainframe-basierten DV-Infrastruktur festzuhalten und wann ein Unternehmen Kostenvorteile aus einer teilweisen oder vollstaendigen Migration in eine verteilte Client-Server-Landschaft ziehen kann.

Fuer eine komplexe Berechnung plaedieren daher DV-Spezialisten wie Dagmar Meise und Wolfgang Manus von der EDS Deutschland GmbH in Ruesselsheim. In einem Fachbeitrag fuer die COMPUTERWOCHE fordern sie fuer das jeweils betroffene Unternehmen eine umfassende, vernetzte Analyse "bis in die Tiefe der Wertschoepfungskette hinein", um die preiswertere Alternative zu ermitteln. Eine tabellarische Gegenueberstellung von Kosten fuer Hardware, Software, Netzwerke, Pflege der Anwendungen, Training, Benutzersupport etc. reiche nicht aus. Vielmehr muesse vor dem quantitativen Kostenvergleich eine qualitative Beurteilung der Alternativen stehen.

Die EDS-Mitarbeiter stehen mit ihrer Meinung nicht allein. Auch Michael Rudolphi, Geschaeftsbereichsleiter Technologieberatung bei der Diebold Deutschland GmbH, haelt die Addition potentieller Kosten fuer zu einfach. Letztlich sei der qualitative Gewinn das entscheidende Downsizing-Argument. "Allein die DV-Kosten zu betrachten, ist nicht ausreichend. Es geht vielmehr darum herauszufinden, wie sich der Einsatz von Technologie auf das Arbeitsverhalten auswirkt. Es ist leider die Crux, dass die Leute zu den Kosten eine allgemeingueltige Antwort haben wollen - es gibt sie einfach nicht, dazu ist die Materie zu kompliziert."

Immerhin hat der Technologieberater eine Faustregel parat: In Branchen, in denen sehr kurze Transaktionen an der Tagesordnung sind und der einzelne Anwender nur eine geringe CPU-Belastung in Anspruch nimmt, etwa bei Reservierungssystemen, verhaelt sich laut Rudolphi eine auf PCs und Workstations basierende Client-Server- Umgebung im Vergleich zum Grossrechner wenig effizient.

Bis heute liessen sich in verteilten Umgebungen die Einfluesse auf das Antwortzeitverhalten weniger gut vorhersagen als beispielsweise in einer stark gekapselten 3270-Terminal-Umgebung, in der homogene, statistisch verfolgbare Lasten liefen. Natuerlich sei aber unbestritten, dass man einen PC als Endgeraet im Gegensatz zum dummen Terminal zusaetzlich fuer andere Aufgaben nutzen koenne.

Letztendlich, so prophezeit der Berater, duerfte sich die Kostendiskussion schon bald eruebrigen, da die Polarisierung in Grossrechner- und verteilte DV-Umgebungen nicht mehr stattfinden werde. Unter dem Strich verliere der Mainframe an Bedeutung: "Von der inneren Architektur her werden sich die Unterschiede zwischen einem Mainframe, einem Supercomputer und einem High-end-Server verwischen."

Durch die Verlagerung der Applikationen auf entsprechende Server verringere sich der Nutzerkreis fuer den klassischen Mainframe. Er komme in seiner bisherigen Form nur noch dort zum Einsatz, wo simple Transaktionen laufen muessten. Die IBM habe das erkannt und sorge deshalb fuer geringere Produktionskosten, indem sie saemtliche Rechnerwelten mit derselben Prozessorfamilie, der Power- Technologie, ausstatte.

Die Beantwortung der Kostenfrage haelt Rudolphi auch deswegen fuer nahezu unmoeglich, weil in vielen Unternehmen DV-Kosten in den Budgets der Fachbereiche verrechnet wuerden und nicht in denen der IT-Abteilungen. Das gelte nicht nur fuer das Equipment, sondern auch fuer die Ressource Mensch: "Viele Mitarbeiter in den Fachabteilungen rechnen heute schon diverse DV-Taetigkeiten wie selbstverstaendlich zu ihrer taeglichen Arbeit."

EDS und Diebold halten in der Downsizing-Frage einen komplexen und je nach Unternehmensanforderungen individuellen Entscheidungsprozess fuer unumgaenglich. Es gibt aber auch Anbieter und Marktforscher, die das Problem - aehnlich wie einige Unix- Hardliner - extrem vereinfachen. So verkuenden die Analysten der im englischen Berkshire ansaessige Xephon Plc. ungeniert in ihren Seminaren: "Downsizing - auch teilweise - ist fuer die meisten Grossrechnerbenutzer (...) eine kostspielige und eventuell sogar katastrophale Umstellung."

Die Briten reduzieren das Kostenproblem aber nicht nur auf die Umstellungsphase. Dass hier ein voruebergehender Kostenanstieg anfaellt, gilt inzwischen als Binsenweisheit. Die Xephon-Analysten behaupten in ihrer Broschuere auch: "Tatsache ist, dass Grossrechner grundsaetzlich pro Endbenutzer weniger kosten als kleinere Systeme". Konservativen DV-Leitern, die ihr muehsam aufgebautes DV- Imperium verteidigen wollen, wird ein "reines Waffenlager" an "Fakten und Zahlen" versprochen, mit denen sie die Rentabilitaet des Main- frames jetzt und in Zukunft nachweisen koennten.

Doch nicht nur die nach eigener Einschaetzung unabhaengigen Berater, die allerdings schon 1991 in ihrer Studie "The Future of Mainframe Computing" ihre Ergebenheit gegenueber Main- frame-Marktfuehrer IBM unter Beweis gestellt hatten, sind angetreten, den Beweis der Rentabilitaet von Grossrechnerarchitekturen nachzuweisen. Auch Big Blue selbst versuchte noch im letzten Jahr mit Hilfe des hauseigenen transaktionsorientierten "Ramp-C-Benchmarks" zu belegen, dass Mainframe-Computing letztendlich die guenstigere Alternative sei.

IBM rechnete die Aufwendungen fuer Modelle der Rechnerlinien AS/400 (E50), RS/6000 (560) und ES/9000 (9221-130) auf einen Zeitraum von fuenf Jahren hoch und verglich sie anhand eines einzelnen kommerziellen Workloads miteinander. Wenig ueberraschend fiel das Ergebnis aus: Demnach kostet zwar die RS/6000 nur gut ein Drittel, die AS/400 rund zwei Drittel der insgesamt 1,8 Millionen Mark, die fuer den ES/9000-Mainframe aufzubringen seien, doch ein realistisches Bild erhalte man nur, wenn der Grossrechner nicht mit einem, sondern mit mit mehreren RS/6000- beziehungsweise AS/400- Systemen verglichen wuerde. Kurz: Der Mainframe biete unter dem Strich die lukrativste Loesung.

Die Kostenkontrolle ist keineswegs trivial

Kaum waren die Untersuchungsergebnisse veroeffentlicht, hagelte es auch schon Proteste. Der britische Branchendienst "Computergram" monierte unter Berufung auf Untersuchungsergebnisse von Arthur Andersen, dass die Resultate des C-Ramp-Benchmarks ungeeignet fuer Preis-Leistungs-Vergleiche seien. Zudem gab es Zweifel an der Genauigkeit der Ergebnisse, da IBM sich geweigert hatte, saemtliche Test- und Messungsdetails zu veroeffentlichen. So blieb Big Blue etwa Antworten zur Detailkonfiguration der Rechner schuldig.

Skepsis zeigten Insider auch deswegen, weil der Leistungsvergleich nur anhand eines einzigen Kriteriums zustande kam. Ein bestimmter kommerzieller Workload koenne nicht als repraesentativ fuer die breite Palette von Transaktionsverarbeitungs-Programme gelten. Rueckschluesse auf die sogenannten "Costs of Ownership", die Gesamtkosten eines DV-Systems, seien schon ueberhaupt nicht moeglich.

Erschwerend komme die Preispolitik von Big Blue hinzu: Der Konzern lehnt es inzwischen grundsaetzlich ab, Listenpreise fuer seine Grossrechner-Systeme herauszugeben.

"In solchen Untersuchungen wird allein die Rechenleistung fuer die Transaktionsverarbeitung gemessen", kritisiert Manfred Gahr. Der Downsizing-Experte der Fraunhofer-Gesellschaft in Muenchen kommt zu voellig anderen Ergebnissen, was die Kostenentwicklung angeht.

Bei den transaktionsorientierten Untersuchungen, so Gahr, bleibe der "gesamte Wildwuchs an PCs, Druckern, und allem, was noetig ist, um anderen DV-Anspruechen zu genuegen", aussen vor.

Dagegen wuerden mit Client-Server-Installationen auf Workstation- und PC-Basis diese DV-Anforderungen automatisch mit abgedeckt. Korrekte Ergebnisse gebe es daher nur, wenn saemtliche Kosten fuer die vorhandenen DV-Inseln auf die Ausgaben fuer die zentrale Mainframe-Installa- tion addiert wuerden.

Doch selbst, wenn man einen 1:1-Leistungsvergleich anstelle und die Kosten pro Transaktion als Massstab nehme, spreche alles fuer die Unix-Loesung. Als Beispiel laesst sich Gahr auf ein gewagtes Gedankenspiel ein: "Wenn ich unsere gegenwaertige Mainframe- Leistung auf ein Unix-System umbrechen und die gleiche Cobol- Software mit den gleichen ISAM-Dateien und den gleichen Blockmode- Masken auf einem Unix-Rechner laufen lassen wuerde, dann kaeme ich schaetzungsweise auf ein Zwanzigstel der gegenwaertigen Mainframe- Kosten", lautet der Befund des Main- frame-Gegners. Allerdings geht der Projektverantwortliche in seinen Betrachtungen von einer vergleichsweise kleinen Main- frame-Installation mit rund 100 Anwendern aus, deren Kosten er auf etwa drei Millionen Mark veranschlagt. Der Systemberater traut sich zu, fuer rund 100 000 Mark eine vergleichbare Unix-Hardware-Umgebung aufzubauen. Eine Festplatte fuer den Mainframe komme einschliesslich der sogenannten Steuereinheit auf stolze 160 000 Mark. "Im Unix-Bereich bekommen Sie eine vergleichbare Festplatte mit in allen Bereichen besseren technischen Details inklusive der vielgeruehmten Ausfallsicherheit fuer 4000 Mark. So aehnlich verhaelt es sich nach unseren Berechnungen auch mit den Kosten pro Transaktion."

Gahr haelt - wie seine Erklaerungen deutlich machen - vom Grossrechner rein gar nichts (siehe auch Gastkommentar in der CW Nr.9 vom 28. Februar 1992, Seite 8: "Die Maer vom Mainframe als Datenserver"). Benchmark-Ergebnisse, nach denen der Host preiswertere Transaktionsleistungen biete, kommen nach seiner Ansicht zustande, weil die Unix-Systeme wenig intelligent konfiguriert und an der falschen Stelle getuned wuerden. Wo eigentlich eine deutlich hoehere Hauptspeicherkapazitaet benoetigt werde, stellten Unternehmen einen zusaetzlichen Prozessor hin. Damit aber wuerden die Engpaesse, die beim Transport der Daten vom Hauptspeicher in die Mas- senspeicher-Subsysteme entstuenden, nicht beseitigt.

Bei den Platten-I/Os haetten Unix-Workstations heute vergleichbare Durchsatzraten wie Mainframes. Zudem verweist Gahr auf skalierbare Multipro- zessor-Maschinen, die eine hohe Leistung garantierten. Bei der Fraunhofer Gesellschaft, wo gegenwaertig im kommerziellen Bereich ein BS2000-Mainframe von Siemens-Nixdorf sowie VMS-Systeme von Digital Equipment durch HP9000-Workstations abgeloest werden, sei das Resultat denn auch eindeutig: "Wir haben mehrere Benchmarks gefahren, die allerdings nicht so standardisiert waren, dass sie veroeffentlichungsfaehig waeren. Doch sie haben gezeigt: Die Unix-Systeme haben immer besser abgeschnitten als der Mainframe!"

Groesserer Komfort egalisiert Kostenvorteil

Die eigentlichen Kosten von Downsizing-Projekten entstehen nach Erfahrungen des Spezialisten durch das erwartete Mehr an Leistung und Komfort. Wer ein Downsizing-Projekt durchziehen moechte, korrigiere in der Regel gleichzeitig seine Anforderungen an die DV. "Kein Mensch redet mehr vom dummen Blockmode-Bildschirm - die Leute wollen Bitmap fahren", erklaert Gahr. "Dann soll es auch keine ISAM-Datei mehr sein, sondern eine relationale Datenbank. Der Kostenvorteil wird sofort aufgefressen durch ein Mehr an Benutzerkomfort!"

Gahr bilanziert: "Sie koennen heute keine Mainframe-Architektur mehr finanzieren, mit der Sie auch nur annaehernd den Benutzerkomfort erreichen, den Sie in einer ganz normalen Windows- und Unix-Umgebung haben. Wenn ich mir vorstelle, wir muessten einen Mainframe kaufen, auf dem Oracle mit annaehernd der gleichen Performance laufen kann wie unter Unix - die Hardwarekosten wuerden sich in zweistelliger Millionenhoehe bewegen."

Mit der Einschaetzung, dass auf den Mainframe voellig verzichtet werden koenne, steht der Fraunhofer-Mitarbeiter zumindest hierzulande noch ziemlich allein da. Eine kritischere Sicht gegenueber einem "Downsizing aus Kostengruenden" hat beispielsweise Peter Kaps, seit Juli dieses Jahres Geschaeftsfuehrer der Information Builders (Deutschland) GmbH.

Der Muenchner geht im Gegensatz zu Gahr von der Praemisse aus, dass der Mainframe als Datenpool auch kuenftig Bestand haben werde: "Die Unternehmen werden nicht hergehen und den Grossrechner hinauswerfen. Einige haben versucht, die operativen Daten unter Unix zu halten. Ich weiss von Faellen, in denen solche Projekte beinahe ins Auge gegangen waeren."

Bleibt aber der Mainframe im Hause, so kommt es laut Kaps eher zu einer Budgetverschiebung als zu einer -reduktion. Kosten werden insofern gespart, als teure Upgrades von Grossrechneranwendungen mit zunehmender Verlagerung der Applikationen auf kleinere Systeme in Client-Server-Verbuenden nicht mehr noetig seien.

Die Hoffnungen auf Kostenreduzierung wuerden zur Zeit vor allem in den Fachabteilungen gehegt. Dort laute das Argument: Je weniger die CPU des Zentralrechners belastet wird, je mehr Anwendungen also auf den Abteilungsrechnern laufen, desto geringer die intern in Rechnung gestellte Mainframe-CPU-Last. Da der Grossrechner aber als zentrales Datenhaltungssystem in den Unternehmen bleibe, fuehrt diese Haltung der Fachabteilungen laut Kaps lediglich dazu, dass die Verrechnungspauschalen fuer Mainframe-Leistung steigen.

Ein Fortbestehen der Grossrechnerwelt, ohne dass diese weiterhin waechst, sowie die Verlagerung von Anwendungen auf die Abteilungsebene sind fuer den Information-Builders-Chef die Kennzeichen des Downsizing-Trends. Die DV-Kosten wuerden sich in den naechsten Jahren weder nach oben noch nach unten bewegen. Das Ende der Kostenspirale sei in Sicht, und: "Man erhaelt absolut eine deutlich hoehere Effizienz."

Heinrich Vaske