Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

13.11.1981 - 

Fallende Hardware-Preise werden Queuing-Spezialisten nicht überflüssig machen:

Kapazitätsplanung auch in Zukunft bedeutend

Software-Monitore kosten bares Geld. Hardware-Monitore sind sehr teuer und Tuning-Spezialisten gar nicht mehr zu bezahlen. Hat Leistungsmessung heute noch einen Sinn und morgen noch Zukunft?

Mitte der 60er Jahre gab es die IBM 360er Serie. Dort lag der Engpaß in dem zu kleinen Hauptspeicher und der anfälligen Peripherie. Das Betriebssystem steckte voller Routinen, die im besten Fall undurchschaubar waren, schlimmer jedoch knappe Rechnerzyklen sinnlos verschenkten.

So wurde damals die Berufssparte der Messungs- und Tuning-Spezialisten geboren. Man fing an, oft an der Konsole per Hand zu messen. Das Ziel war weitgehend, die Funktionsweise der Hard- und Software zu verstehen. Aus dieser Pionierarbeit wurden SW-Monitore entwickelt, die das Aufspüren der Engpässe erleichterten und Systemdaten auch den Nicht-Spezialisten zugänglich machten.

Hardware-Monitore wurden entwickelt, um den durch die Software schwer meßbaren Zuständen leichter und präziser auf die Spur zu kommen. Diese Monitore haben den Vorteil, daß sie den zu messenden Zustand nicht gleichzeitig beeinträchtigen und keine der teuren Ressourcen beanspruchen. Dafür sind HW-Monitore entsprechend teurer in der Anschaffung und erfordern mehr Ausbildung und Zeitaufwand. Hardware- und Software-Monitore dienen beide dazu, durch Messung Engpässe in der Hardware-Konfiguration und Betriebssoftware aufzuspüren.

Etwa Mitte der 70er Jahre kamen all diese Aktivitäten unter dem Begriff CPE - Computer Performance Evaluation - zusammen. Die Ziele setzte man jetzt höher: volle Auslastung der vorhandenen Ressourcen bei gleichzeitiger Verbesserung der Benutzerantwortzeiten. Dazu kamen raffinierte Analyseverfahren und Darstellungsmethoden, wie Kiviat-Graphik und Figures-of-Merit. Der klassische Tuning-Spezialist stand auf seinem Höhepunkt.

Gegen Ende der 70er Jahre verbreitete sich die Lehre von Software Physics. Warteschlangenmodelle für kommerzielle EDV-Installationen kamen auf den Markt. Der weitaus größte Fortschritt dieser Zeit war aber die Erkenntnis des EDV-Managements, daß EDV-Kapazitäten insgesamt erfaßt und kontrolliert werden müßten, um den Anwendern kostengünstig eine akzeptable Dienstleistung anbieten zu können. Diese Einsicht, zusammen mit den ausgereiften Methoden und Modellen führte zum heutigen "State of the Art" unter dem Schlagwort Capacity Management and Planing - CPM.

Kapazitäts-Management hat als Ziel, durch die Kontrolle aller EDV-Ressourcen das Leistungsangebot gegenüber den Kosten zu optimieren. Kapazitäts-Planung will zur rechten Zeit kostengünstige Hardware, Software und sogar "Peopleware" zur Verfügung stellen, um künftige EDV-Anforderungen erfüllen zu können.

Kurz: Management heute und Planung für morgen.

Zurückblickend sieht man eine rasche und kontinuierliche Weiterentwicklung dieses Berufszweiges. Die Tätigkeiten sind ständig umfassender geworden.

Wohin führt nun diese Entwicklung? Stellen fallende Hardware-Preise die Queuing-Spezialisten in die Wartenschlangen vor dem Arbeitsamt? Wohl kaum. So wie es heute den einzelkämpfenden "Bitfieseler" kaum noch gibt, werden morgen die Spezialisten sich ständig neuen Aufgaben anpassen müssen.

Man kann sich ohne Mühe einige neue Betätigungsfelder für die nächsten Jahre vorstellen. Die Performance der großen Datenbaken-Systeme läßt wohl bei vielen Anwendern etwas zu wünschen übrig. Wie wird es denn mit verteilten Datenbanken, die durch ein Netz miteinander verbunden sind, aussehen? Die Zukunft gehört auch lokalen und öffentlichen Netzen; hier wird die Kapazitätsplanung eine große Rolle spielen. Der verteilten Datenverarbeitung mit 4300er (kompatiblen) Rechnern wird eine rosige Zukunft vorausgesagt. Doch es geht auch hier darum, die Kapazitäten der verteilten Ressourcen zu koordinieren.

Das Management und die Planung der gesamten EDV-Kapazitäten (Hardware, Software und Peopleware) sind zunehmend notwendige Teile der EDV-Führungsaufgabe.

*William Schmidt, Systemunterstützung, National Advanced Systems GmbH, Geschäftsstelle München.