Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

13.11.1981 - 

"Genug Computer für möglichst wenig Geld"

Mit Dr.-Ing. Kornel Terplan, Rolf Klostermann und Michael Weintraub sprach Jochen Ewe

DV-Anwender, die sich mit Fragen der Leistungsmessung, des Tunings und des Rechnerkapazitäts-Managements zu befassen haben, sind nach allgemeinem Verständnis solche, die mittlere oder große EDV-Anlagen fahren. Es gilt nämlich weithin als unbestritten, daß die genannten Verfahren kostspielig sind und demzufolge auch die dadurch erzielten Wirtschaftlichkeitseffekte eine bestimmte absolute Größe erreichen müssen, damit ihr Einsatz überhaupt attraktiv ist. Da nun in aller Regel Anwender mittlere oder große Anlagen betreiben, die nicht an irgendeinem EDV-Ausgangspunkt Null beginnen (können), sondern immer mit einem gewachsenen Bestand an Hard-, Soft- und Orgware fertig zu werden haben, dürften universitäre Theoriemodelle, die ja zumeist eine idealtypische Ausgangposition haben, für Anwender nur bedingt geeignet sein.

CW: Teilen Sie, Herr Klostermann, diese kurz umrissenen Ausgangsthesen?

Klostermann: Die Problematik ist meines Erachtens so gut wie überall existent, vor allem aber im Small-System-Bereich etwa der /3 von IBM oder vergleichbarer Systeme. Hier bietet der Markt dem Anwender noch sehr wenig, und hier wird in den nächsten Jahren auf jeden Fall ein Boom stattfinden; Software-Häuser oder auch Hardware-Hersteller werden da noch einiges zu tun haben. Im Bereich "Large Systems" ab 138, sprich 3031, -32, -33, ist meines Erachtens der eigentliche Hardware-Markt total ausgeschöpft und das Erreichen größerer Effizienz performancemäßig kaum möglich. Wo geschlafen worden ist, ist, die Denkweise der Maschine effizienter zu machen, das heißt, die Software-Entwicklung im Verhältnis zur Hardware-Entwicklung zu forcieren.

CW: Und geschlafen haben alle?

Klostermann: Geschlafen haben letztendlich alle, alldieweil man das Verhältnis Hardware zu Software nicht rechtzeitig erkannt hat.

CW: Weil Sie sagen, der Kreis der /3-Benutzer gehört auch mit in das betrachtete Umfeld: Sollte man überhaupt eine Grenze nach unten ziehen?

Klostermann: Überhaupt keine. Sie können heute eine ganz phantastische Hardware produzieren; nur was Sie unbedingt dazu haben müssen, ist die Sprache beziehungsweise ein Tool, damit diese Hardware auch effizient und produktiv genutzt werden kann. Was gibt es denn heute an solcher Software im Minicomputerbereich? Was gibt es an Mikro-Software? Es ist so gut wie kaum etwas existent, das leicht verständlich und sofort einsetzbar ist für jedermann. Wenn wir also den EDV-Anwender von heute ansehen, der sich in diesem Small-System-Bereich bewegt - erstens hat er die Manpower nicht, um selbst etwas zu entwickeln; er ist auf Standard-Software, Standard-Tools angewiesen. Zweitens muß sie sofort einsetzbar sein, weil er sonst die Maschine nicht nutzen kann. Leider aber gibt es für einigermaßen spezielle standardisierte Anwendungen kaum etwas.

CW: Würden Sie, Herr Dr. Terplan, den von uns angesprochenen Anwenderkreis auch ungefähr so einordnen, wie gerade geschehen, oder würden Sie da Modifikationen vornehmen?

Terplan: Wir könnten vielleicht als Grundlage eine Faustregel nehmen, nämlich: Man darf nicht mehr als drei Prozent des Gesamtinvestments für Effizienzerhöhung ausgeben. Und dadurch ist sicherlich für den Kleinanwender eine Grenze gesetzt, obwohl man gewisse bescheidene Tools auch für diesen Anwenderbereich hat. Bei Großanwendern darf ich vielleicht in diesem Punkt Herrn Klostermann widersprechen. Er meinte, daß alle Möglichkeiten für die Großrechner a la 30XX ausgeschöpft sind. Wir aber haben Fälle festgestellt, wo man überhaupt nicht von einer Ausgewogenheit der Systeme sprechen konnte.

Klostermann: Welche Art von Fällen meinen Sie damit, Herr Dr. Terplan?

Terplan: Zum Beispiel Unausgewogenheit zwischen CPU-Anteilen und Input-/Output-Anteilen. Wenn man dann den CPU-Bereich verläßt und noch die netzorientierte Messung dazunimmt, dann sieht dieses Bild noch ungünstiger aus.

Klostermann: Da gebe ich Ihnen durchaus recht. Der Flaschenhals sind vielfach die Channels. Auf diesem Sektor sollte man unbedingt etwas tun. Nur meine ich, wenn man einen Blick auf das Verhältnis zwischen Gesamtsystem und CPU wirft, daß heute ein gewisses Maximum - technisch gesehen - erreicht ist. Man kann technisch gewiß noch weiter gehen. Ob es sinnvoll ist für den Anwender, das ist eine zweite Frage. Sie können heute auch mit einer 125 noch einiges machen. Und ich kenne Anwender, die mit ihrer 155 heute wesentlich mehr machen als beispielsweise andere mit ihrer 3031. Bei der 3032 - um ein weiteres Beispiel zu nennen - gibt es Anwender, die heute noch mit ihrem alten DOS fahren; das ist ein Schwachsinn.

Terplan: Man kann es auch so sagen: Transparenz fehlt sowohl vor als auch nach der Installation.

Klostermann: Das ist richtig, und von seiten der Lieferanten sprich Hersteller, wird man nicht hingehen und auf höhere Ausnutzung der bestehenden Hardware drängen, zwangsläufig nicht, weil es nicht ins Marketingkonzept hineinpaßt, weil zunächst einmal der Cash-Flow zu erreichen ist, der Hardware-Umlauf. Nur ist heute der Anwender gezwungen, wesentlich kalkulativer zu denken und mit vorhandenen Mitteln das Optimum zu erreichen. Das Mittel dazu ist mit an Sicherheit grenzender Wahrscheinlichkeit nicht immer der Hardware-Austausch.

Terplan: Wenn Sie von Optimum reden, denken Sie dann an einen gewissen Kompromiß zwischen dem Servicegrad in einem Rechenzentrum und der Auslastung einer Anlage?

Klostermann: Ja.

Weintraub: Mir scheint es wichtig, zu unterstreichen, daß die EDV jetzt aus einer untergeordneten über eine symbiotische Rolle in eine dominierende Position im Unternehmen gelangt ist. Das heißt, das Unternehmen hängt von der EDV ab und nicht umgekehrt. Und daher ergeben sich auch neue Erfordernisse für die Messung und Planung der System-Antwortzeiten und des Servicegrades, nicht nur der Funktionen. Hier liegt sowohl für Kleine als auch für Große meistens das Problem.

CW: Und die drei Prozent, von denen Dr. Terplan sprach?

Weintraub: Ich bin da anderer Meinung. Sehen Sie: Die EDV produziert Information, und zwar richtige und rechtzeitige Information, das heißt Funktion und Performance. Wenn Sie beispielsweise ein Röhrenwalzwerk haben, dann meine ich, daß Sie viel mehr als drei Prozent des Wertes der installierten Hardware für die Qualitätssicherung ausgeben.

Ich glaube, diese Zahl tendiert eher gegen zehn Prozent. Ich spreche aber nicht von Zahlen wie zehn oder drei Prozent; das lassen wir dahingestellt. Aber den Qualitätsstandard, den die Industrie hat, den müssen wir auch in der EDV haben. Und dabei spreche ich sowohl von der Qualitätssicherung auf Software-Niveau, sprich Funktionen, als auch von der des Gesamtkomplexes, sprich Performance, Servicegrad und Effizienz. Es hat keinen Sinn, eine sehr gute Software hinzustellen, die alle möglichen Funktionswünsche befriedigt, wenn sie im Durchschnitt eine halbe Stunde Antwortzelt benötigt. Und daher meine ich, daß wir hier eigentlich nicht unterscheiden dürfen. Es wird auch dann an der Sache nichts ändern, wenn die CPU 50 Mark kostet. Im Kern kann es nur darum gehen, die EDV auf Funktion und Performance gleichzeitig zu trimmen. Und das Schlüsselwort dazu ist Planung.

CW: Wird diese Äußerung als Problemdefinition akzeptiert?

Klostermann: Ich habe hier einen Auszug aus einem Artikel der COMPUTERWORLD von 1978, der die Möglichkeiten der Verbesserung des Preis-/Leistungsverhältnisses der Hardware im letzten Viertel unseres Jahrhunderts behandelt, wo als Faktor der Leistungssteigerung der Hardware eine Million genannt wird und im gleichen Zeitraum die Programmierproduktivität lediglich um das Zwei- bis Dreifache steigt. Dort liegt das Problem. Die Hersteller haben sich auf die Hardware konzentriert, aber auch der Anwender hat sich keinerlei Gedanken gemacht. Er ist von der Lochkartenmaschine hergekommen und ist trotz der vielen schönen neuen Maschinen auf dem alten Niveau mehr oder minder stehengeblieben. Das ist - etwas überspitzt gesagt - der Markt, in dem wir uns bewegen.

Weintraub: Bloß das, was Herr Terplan gesagt hat, ist ein bißchen anders. Das ganze EDV-System muß ausgewogen sein. Es hat in der Tat keinen Sinn, wenn Sie noch so effiziente Programmierer haben, wenn Ihre Planung der ganzen Konfiguration (nicht der CPU alleine!) nicht Schritt hält mit der Entwicklung. Es muß eine Funktion, die vom Anwender gewünscht wird, gegeben sein; und es muß eine Performance, die dem Anwender gerecht wird, gegeben sein. Und das bedeutet für mich ein einziges Wort: Planung.

CW: Planung, um Ausgewogenheit zu erreichen? Was aber Ausgewogenheit ist, wann sie gegeben ist, entscheidet sich nur im Einzelfall . . .

Weintraub: Das entscheidet sich als eine Funktion der Anzahl der täglichen Anrufe, die Sie als Hardware-Planer von den Kollegen im Betrieb wegen schlechter Performance bekommen. Es ist sehr einfach: Wenn Ihr Telefon nicht klingelt, haben Sie keine schlechte Performance. Das bedeutet noch nicht, daß Sie Effizienz haben. Ausgewogenheit ist - ganz kurz gesagt - die Kunst, immer genug Computer zu haben für möglichst wenig Geld. Mit Computer meine ich Funktion und Performance.

CW: Aus ökonomischer Sicht ist die Forderung nach Ausgewogenheit nicht eben neu . . .

Weintraub: Gewiß, aber es war bisher sehr schwierig zu "checken", ob man mit einer kostengünstigeren Konfiguration, Software und Hardware, nicht genausogut oder besser fahren kann. Wir haben alle in unserem Erfahrungsschatz einige Fälle, in denen wir - ob nun gezielt beauftragt oder nicht - bei Anwendern auf Gegebenheiten stießen, die ohne weiteres um den Faktor 5 bis 10 verbesserungsfähig waren. Ich habe mindestens zwei solche.

Klostermann: Ich würde sogar noch so weit gehen zu sagen: Jeder von uns wäre heute ein reicher Mann, wenn wir auf der Basis arbeiten würden, daß wir von dem, was

wir effizient an einem Großrechenzentrum machen können, zehn Prozent bekämen. Da könnten wir alle ein paar größere Firmen nennen. Unter diesen Konditionen bräuchten wir nur noch zwei Jahre zu arbeiten.

Terplan: Vielleicht ist das Wort "effizient" gefährlich in diesem Zusammenhang. Wir haben heute schon den Begriff "Servicegrad" verwendet, den ich auch weiterhin empfehlen möchte. Wenn Sie den Manager eines Computerzentrums fragen wird er antworten, ihn interessiere die Auslastung seiner Anlagen. Wenn Sie den Anwender fragen, sagt er, für ihn sei es bedeutungslos, wie viele Computer und wie effizient sie laufen. Der Anwender zieht den Servicegrad vor, während einige Manager im Rechenzentrum die sogenannte Effizienz im Auge haben.

Weintraub: Damit hat Herr Terplan einen sehr wichtigen Punkt angesprochen. Ich möchte es noch einmal wiederholen: Die EDV ist ein Werkzeug und muß sich den Anwendern untergeordnet fühlen. Das heißt, wenn ein Manager sagt, er habe nur zwanzig Prozent Auslastung von Box A, ist das nur eine Aussage über das Geld, das hinausgeworfen wird.

CW: Das widerspricht, Herr Weintraub, ein wenig Ihrer Eingangsbemerkung, daß die EDV inzwischen einen so bedeutenden Stand erreicht hat, daß ein Betrieb von ihr abhängt

Weintraub: Der Betrieb hängt an ihr, aber sie ist immer noch untergeordnet in dem Sinne, daß sie für sich selbst nicht arbeitet. Sie arbeitet nur für den Anwender.

CW: Nun sagten Sie, es besteht die Möglichkeit, daß der Anwender "checkt", an welcher Stelle er etwas verbessern kann oder soll. Gibt es da Checklisten? Und wie kann der Anwender sicherstellen, daß er sich nur diejenige Unterstützung verschafft und bezahlt, die er auch wirklich benötigt?

Weintraub: Das ist die Frage nach der Transparenz. Der Anwender draußen hat zwar nicht die detaillierten Kenntnisse und die Sprache, um mit dem Spezialisten zu sprechen - leider; er kann aber und sollte auch verlangen, daß man ihm diese Transparenz seitens der EDV in verständlicher Sprache liefert. Und das bedeutet für mich wieder: Planung.

CW: Seine EDV soll ihm diese Transparenz liefern?

Weintraub: Oder externe Berater, das ist auch eine Möglichkeit. Es ist in manchen Fällen viel günstiger, wenn ein externer Mensch so ein Gutachten liefert, weil er nicht von der internen Politik des Unternehmens abhängig ist. Er ist also transparenter sozusagen.

Terplan: Es gibt in der betrieblichen Praxis vor allem eine Verständigungsschwierigkeit: Der Anwender verlangt einen angemessenen Servicegrad, der DV-Planer verlangt eine transparente Spezifikation bestehender und künftiger Anwendungen. Und heutzutage fehlt noch die planerische Grundlage für den Ressourcenbedarf künftiger Anwendungen.

Weintraub: Ich glaube, daß eine solche Methodik langsam auf den Markt kommt.

CW: Damit meinen Sie ein von Ihnen vertriebenes Produkt?!

Weintraub: Ja, es ist eine Methode, die die Wirtschafts- oder Unternehmensplanung, die ja seit Jahren existiert und ziemlich gut eingefahren ist, gewissermaßen übersetzt. Wir haben es hier zu tun mit einer Projizierung davon auf einen Ausschnitt des ganzen Unternehmens, die EDV. Das ganze ist - im übertragenen Sinne - ein Sprachproblem: Wenn Sie nicht explizit sagen können, daß eine gewisse Anzahl neuer Terminals eine genau spezifizierte Änderung des Servicegrades mit sich bringt, können Sie im Prinzip Ihre EDV nicht planen.

CW: Dazu muß ich beispielsweise Nutzeffekte quantifizieren.

Weintraub: Sie müssen die Effekte der Veränderung Ihrer Geschäftssituation auf die EDV einschätzen, so daß sie Schritt halten kann mit ihren Funktionen und ihrer Performance.

Terplan: Denken Sie an eine Metasprache?

Weintraub: Nein, sondern an eine Methodik, wie wir sie mit dem Produkt "Best/1" aufbieten und wie sie mit "Software-Physics" angefangen hat. Software-Physics ist eine von Ken Kolence vom Institute for Software Engineering in Kalifornien entwickelte Kapazitätsmanagement-Methode. Was man braucht, ist eine Methode, ein Tool, das die Servicegradveränderung als eine Funktion der Lastenveränderung angibt. Analytische Modellierung nach dem . Best/ 1-Verfahren tut dies. Wir können auch Performance von noch nicht existierenden Applikationen schätzen, der zweiten Quelle von Lastenveränderungen.

Eine Bank beispielsweise kann ungefähr sagen, daß in den nächsten zwei, drei Jahren soundso viele neue Konten eröffnet werden. Daraus wissen dann die Geschäftsplaner, was für projizierte Bewegungen da ungefähr herauskommen werden. Und dann ist es die Aufgabe der EDV, das in die notwendigen Hard- und Software-Konfigurationen zu übersetzen. Software-Physics und Analytisches Modellieren mittels Best/1 gemeinsam oder separat, beide Methoden sind okay - liefern Ihnen die notwendigen Aussagen. Ich glaube, wir haben es da mit einem technologischen Durchbruch zu tun.

Terplan: Nach meiner Ansicht fehlt, hier immer noch eine ausreichende Berücksichtigung von Netzwerken, denn es besteht zwischen den Anwendern und der CPU öfters ein Netz, in dem mehrere hundert Leitungen und Tausende von Terminals eine enorme Komplexität mit sich bringen.

Weintraub: Diese Komplexität wird von diesen Tools noch nicht ganz beherrscht, das ist wahr.

Terplan: Es gibt in den USA immerhin einige Modelle zur kostenoptimalen Leitungsführung, aber sie geben keine Antwort auf den künftigen Servicegrad in einem sehr komplexen Netz.

CW: Das ist also einer der Schwachpunkte.

Terplan: Vielleicht der Schwachpunkt bei diesen Modellen.

Klostermann: Und das Problem ergibt sich ja zwangsläufig bei einer Steigerung von zirka 30 bis 40 Prozent, was die Anforderungen an die Datenverarbeitung betrifft.

Weintraub: Es gibt Projektionen, die sagen daß allein an gespeicherten Daten 70 Prozent Zuwachs zu erwarten sind.

CW: Pro Jahr?

Weintraub: Ja.

Klostermann: Ja, ich möchte dazu nur darauf hinweisen, daß die DV neben den ohnehin bekannten Problemen wie Anwendungsstau und Transparenzmangel auch noch solche Dinge zu bewältigen hat wie Vorausplanung menschlicher Kapazitäten und menschlichen Begreifens von Zusammenhängen. Und das sind ganz andere Anforderungen, als sie einmal vor fünf oder zehn Jahren gestellt worden sind. Darin liegt das Problem begründet.

Weintraub: Vor allem müssen die Leiter der Unternehmen es auf eine verständliche Art und Weise erklärt bekommen. Denn sie sind ja letzten Endes diejenigen, die die Schecks unterschreiben.

Klostermann: Und wenn diese Mission erfüllt ist, kommt das nächste Problem, das Personalproblem. Da ist zum Beispiel eine prognostizierte Gehaltssteigerung von rund 100 Prozent bei EDV-Leuten im Zeitraum bis 1995. An solchen Zahlen kann keine Planung vorbeigehen. Anderen Untersuchungen zufolge kommt es 1990 zu einem Bedarf an Systemanalytikern und Programmierern, der von heutiger Basis aus gerechnet einer Steigerung von mehr als 110 Prozent entspricht.

Weintraub: Ich würde den Zuwachs noch höher schätzen. Denn wir sehen im Moment ein enormes Wachstum der EDV bei den kleineren Unternehmen.

CW: Die EDV expandiert also im kleinunternehmerischen Bereich?

Weintraub: ..., wo eine enorme Masse an neuen EDV-Anwendern heranwächst. Heutzutage kann ein Unternehmen von zehn bis 20 Leuten ohne EDV nicht mehr lange leben. Wir werden auch einen sehr großen Zuwachs bei Software-Häusern sehen, die die entsprechende Software liefern werden, da der kleine Anwender sie nicht selbst zu schreiben vermag.

CW: Bedeutet dieser Zuwachs an EDV denn auch automatisch einen Zuwachs des Bedarfs an Tuning Kapazitätsmanagement oder Qualitätssicherung?

Weintraub: Es kommt zwangsläufig dazu. Sie können Ihr Unternehmen nicht dadurch riskieren, daß Sie ungeplant wachsen

CW: Das heißt, es gibt vielleicht schon heute den Beruf des DV-Kapazitätsmanagers?!

Weintraub: Wenn Sie sich die Anzeigen der COMPUTERWOCHE im letzten Jahr einmal anschauen, gibt es mindestens zehn, die explizit den Titel "Kapazitätsplaner" benutzen. Und das war im Jahr zuvor noch nicht der Fall; das wird im nächsten Jahr noch mehr der Fall sein. Vor allem die größeren Unternehmen können es sich natürlich leisten, dafür spezielle Gruppen zu bilden; sie müssen es machen.

Klostermann: Sie machen es heute schon und nicht nur in der EDV, wie ein Beispiel aus unserem eigenen Hause zeigt: Bei uns hat es sich als rentabel erwiesen, alle Reiseaktivitäten zentral zu steuern und nicht etwa über ein externes Reisebüro. Wichtig ist in jedem Falle ein Abwägen zwischen den Vorteilen der Kenntnis interner Betriebsvorgänge und der Unvoreingenommenheit des externen Spezialisten. Gerade was diese Objektivität angeht, kenne ich manchen Unternehmer, der darauf das größere Gewicht legt und externe Häuser deshalb beauftragt, weil sie total unbeleckt und emotionslos an die Sache herangehen können. Das ist unser Job. Ich nehme da gerne das Beispiel der non-prozeduralen Sprachen in ihrem Verhältnis etwa zu Cobol oder PL/ 1: Es gibt sicherlich Programmiersprachen, wo man wesentlich schneller, effizienter programmieren kann als bei den letztgenannten. Will man diese modernen Sprachen aber im Unternehmen einführen, so trifft man auf die bekannten Widerstände, die ich mit Statusdenken und Parkschutz umschreiben will. Möglich sind diese Erscheinungen, weil das Unternehmen starr geworden, die Mitarbeiter unkündbar geworden sind wegen der notwendigen Pflege und Wartung bestehender Programme. Ich könnte noch eine Reihe anders gelagerter Fälle aus der Praxis aufzählen; ich brauche da nur an das Phänomen der verstopften Informationskanäle zu erinnern. Daß in allen solchen Fällen der Einsatz eines Hardware-Planers oder -Koordinators auf jeden Fall zu 100 Prozent gerechtfertigt ist, möchte ich betonen.

Weintraub: Absolut.

Klostermann: Und das ist absolut und zwingend notwendig. Die Unternehmer bedienen sich, wie wir sehen, sehr gerne externer Häuser, die sie oft zu einer bestehenden eigenen Gruppe hinzuziehen, um so von außen in Erfahrung zu bringen:" Wo liegen meine Fehler, die ich zwar an mir vermute, aber nicht genau erkenne?" Es ist sehr schwierig geworden, diesen Problemen auf den Grund zu gehen. (Wird fortgesetzt)

Michael Weintraub

(33) repräsentiert sei. März 1981 BGS Systems Inc., München, im deutschsprachigen Raum. Er war vorher Systemprogrammierer und Performance-Berater, zuletzt bei einem namhaften Hersteller. Seine speziellen Interessen sind seit langem Kapazitätsmanagement und -planung.

Rolf Klostermann

(35) ist Geschäftsführer der Informatics Deutschland GmbH in Düsseldorf sowie General Manager der Informatics Central Europe. Für das Haus Informatics tätig ist Klostermann seit Juni 1980. Vorher sammelte er zehn Jahre EDV-Erfahrung bei den Herstellern Memorex und Datasaab.

Dr.-Ing. Kornel Terplan

(37) ist für Computer Sciences International, München, tätig als Project Manager auf den Gebieten der Netzanalyse, des Netzdesign und der Performance-Messung. Er veröffentlichte über 90 Fachaufsätze, hielt über 60 Referate und verfaßte drei Bücher zu dem behandelten Themenkreis.