Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

23.09.1988 - 

Kostensparende Vorschläge für künftige System-Erweiterungen ergeben sich als Abfallprodukt:

Engpässe im RZ müssen frühzeitig lokalisiert werden

Jürgen H. Koch ist freier Journalist in München.

Mit wachsenden Leistungsanforderungen wird auch das Management von Rechenzentren immer schwieriger. Software-Pakete zur Performance-Messung liefern Ergebnisse, die wesentlich zur Systemoptimierung beitragen und die Auslastung der Ressourcen verbessern.

Im Laufe der Jahre ist die Datenverarbeitung für die Unternehmen zur lebenswichtigen Informationsbasis geworden. Dieser Sachverhalt schlägt sich auch in den wachsenden Kosten nieder, die in den Firmenbudgets für Datenverarbeitung veranschlagt werden. Kaum verwunderlich, daß auch das Interesse an Softwarepaketen, mit denen sich die Arbeitsabläufe im Rechenzentrum überwachen und optimieren lassen, stark zugenommen hat.

Einerseits liegen oft Ressourcen brach, während auf der anderen Seite die wachsende Anwendungsvielfalt den Rechner sprichwörtlich "dicht macht". Um Klarheit über die

gesamten Arbeitsabläufe zu erhalten, setzt man immer häufiger Werkzeuge ein, die über einen längeren Zeitraum den RZ-Betrieb messen und analysieren.

Auf diese Weise erhält man Angaben, ob es beispielsweise ratsam ist, einzelne Anwendungen zu optimieren beziehungsweise zu tunen, oder ob man sinnvollerweise an einen Austausch der vorhandenen gegen neue Systeme denken sollte. Gleiches gilt für die Hardware. Auch hier liefern Softwarepakete Antworten auf die Frage, ob es angebracht ist, die installierten Geräte aufzustocken oder durch neue, leistungsfähigere Einheiten zu ersetzen.

Vielfach zeigen die Ergebnisse derartiger Untersuchungen, daß bereits die Optimierung der vorhandenen Hard- und Software-Ressourcen zu den gewünschten Ergebnissen führen kann. In derartigen Fällen kann man sogar ganz auf Hardware-Erweiterungen oder einen kompletten Austausch verzichten. So läßt sich unter anderem bereits durch den Einsatz von Programmen zur Produktionssteuerung und Ressourcenverwaltung der Arbeitsdurchsatz erhöhen, ohne daß Hardware oder Personalbestand erweitert werden müßten.

Bei der Messung und Überwachung der Hard- und Software-Ressourcen stehen im allgemeinen eine Reihe von Überlegungen im Vordergrund. Zunächst einmal will man Angaben über die Nutzung des Prozessors beziehungsweise der Prozessoren sammeln. Direkt damit verbunden ist auch der Bedarf an Informationen über den Ressourcenverbrauch der einzelnen Prozesse im System. Hinzu kommt der Wunsch, Daten über die Hauptspeicherbelegung sowie Auswertungen über die Lastverteilung der angeschlossenen Magnetplatten und -bänder zu erhalten. Und last not least geht es um möglichst genaue Meßwerte über die Netzwerkbelastung.

Für DV-Manager, die Computernutzung analysieren und aus den Ergebnissen Schlüsse für die Vorausplanung ziehen müssen, gibt es auf dem Markt eine Reihe von Werkzeugen. Zu den Aufgaben der Softwarepakete gehört das Sammeln von Daten, Vorhersagen über die Jobabwicklung und das Erarbeiten umfassender alternativen Konfigurationen sowie das Erstellen von Reports.

Der Benutzer gelangt schnell zu handlungsorientierenden Schlußfolgerungen. Durch eine kontinuierliche Leistungsüberwachung wird es DV-Managern möglich, sich stärker den Ausbau-Alternativen und Strategien zu widmen. So errechnen die Tools die Computerauslastung und führen Analysen durch.

Darüber hinaus sind zum Teil in den Softwarewerkzeugen Expertensysteme enthalten, die es dem Benutzer erlauben aus einem einmal angelegten Wissensfundus zu schöpfen. All diese Eigenschaften eröffnen Möglichkeiten der Vorhersage von Ausrüstungs- und Ausbauerfordernissen auf Grundlage der zu erwartenden Geschäftsentwicklung bei gleichzeitiger Berücksichtigung der technologischen Veränderungen.

Die Merkmale derartiger Programme lassen sich wie folgt zusammenfassen:

Sammlung von Daten aus dem Online- und Batch-Betrieb,

Analyse des Datenmaterials und Erstellung von Reports unter anderem über Computermeßdaten wie SMF-, RMF- und CMF-Datensätze.

Diese Aktivitäten tragen sehr zur Reduzierung der Kosten und der Prozessorzeit bei.

In der Regel geben die Programme flexible Parameter zum Auswählen und Zuteilen von Jobs, Anwendungsprogrammen und Transaktionen entsprechend dem Auslastungsgrad wider und erlauben das Erstellen von Reports über Systemnutzung und Auslastungsprofilen. Vor allem die Zeit zum Sammeln, Analysieren und Erstellen von Reports wird durch den Einsatz derartiger Systeme drastisch reduziert.

Performance-Messung im Zuge des Job-Accounting

Rechnerleistung und Kosteneffizienz stehen in unmittelbarem Zusammenhang. Naturgemäß werden Job-Accounting-Daten direkt zur Überwachung der RZ-Kosten eingesetzt. Leistungsfähige Systeme dienen auch gleichzeitig als Performance-Meßinstrumente. Man kann sogar davon ausgehen, daß der überwiegende Teil der Anwender von Job-Accounting-Programmen ihre Systeme schwerpunktmäßig zur Performance-Messung einsetzt.

Das Ziel des Einsatzes von Job-Accounting Programmen ist es, die notwendigen Informationen zu liefern, mit denen sämtliche Systeme im Rechenzentrum kontrolliert werden können, die viele Ressourcen verbrauchen. Anfänglich war das nur bei Batch-Systemen der Fall. Heute gehen die DV-Anforderungen jedoch über das Batchverfahren hinaus. Zum Teil haben Online-Systeme einen weit höheren Ressourcenverbrauch. Die Anwender von TSO, ROSCOE oder CICS kennen die Auswirkungen, die jedes dieser Systeme auf das Betriebssystem haben kann. Vollständige Statistiken über den Ressourcenverbrauch werden daher immer wichtiger.

So ist auch die Überwachung der Netzwerk-Performance zu einem zentralen Thema in modernen Rechenzentren geworden, was bis vor wenigen Jahren keinen entscheidenden Faktor darstellte. Netzwerke waren relativ klein, die Benutzer bedienten sich nur für einige spezifische Anwendungen des Netzwerks, und Terminals waren eine Variante des 3270-Standards.

Inzwischen sieht die Situation anders aus. Netzwerke sind einer wahren Wachstumsexplosion ausgesetzt. Immer mehr Benutzer greifen auf immer mehr Anwendungen über eine große Anzahl von Workstations zu. Naturgemäß führt das zu einer ständig wachsenden Komplexität der Netzwerke und zu einem verstärkten Antwort-Zeitdruck. Logischerweise steigt hiermit die Notwendigkeit eines effizienten Netzwerk-Performance-Managements.

Je größer das Netzwerk ist, desto komplexen werden auch die Probleme, die mit seinem Management verbunden sind. Greifen mehr Benutzer auf, ein stark beanspruchtes Netzwerk zu, kommt es zwangsläufig zu Engpässen und damit zum Benutzer-Frust. Die ständigen Beschwerden über das langsame Antwortzeit-Verhalten führen zu der Forderung einer Problemerkennung und Lokalisierung.

Allerdings machen unzulängliche Leistungsdaten diese Lokalisierung schwierig, oft sogar unmöglich. Widersprüchliche Performance-Auswertungen nicht aufeinander abgestimmter Produkte machen die Verwirrung dann perfekt. Selbst wenn ein Problem lokalisiert und temporär gelöst werden konnte, tauchen dieselben oder neue Probleme in Folge von fehlenden Planungsdaten bald wieder auf, und der Kreislauf beginnt von vorne.

Gefragt sind umfassende Reports

Es gibt eine Reihe von Anforderungen an ein Performance-Management-Produkt, um die angesprochenen Probleme zu lösen. Dazu zählen unter anderem eine durchgängige Verbesserung der Antwortzeiten für den Endbenutzer und eine ständige Verfügbarkeit des Netzwerks, um die Unterschiede zwischen den verschiedenen Abteilungen - die einen mit überlasteten Ressourcen, die anderen mit selten benutzten Ressourcen - zu eliminieren.

Weitere Forderungen bestehen darin, über aussagekräftige Performance-Daten zu verfügen, um die Service-Level-Absprachen kontrollieren zu können und umfassende Statistiken über die Benutzung zu erhalten. Nur so ist es möglich, eine genaue Berechnung der Netzwerk-Auslastung zu gewährleisten. Detaillierte Hilfestellung bei der Problem-Erkennung und Lokalisierung und daraus folgend eine schnellere Antwort auf Netzwerk-Probleme ist eine weitere Forderung.

Von Programmen zur Performance-Messung wird ferner verlangt, daß sie die End-Benutzer-Antwortzeiten messen und sie verursacherbezogen in Host- und Netzwerk-Komponenten aufsplitten. Zudem sollen sie in der Lage sein, Netzwerk-Leistungsdaten für jede Meldung, die über das Netzwerk geht, zu sammeln. Schließlich müssen sie die Daten zusammenfassen und Auswertungen sowohl im Online- als auch im Batch-Betrieb zulassen.

Die Liste an Erfordernissen ließe sich noch weiter fortsetzen. Doch bereits die wenigen Beispiele dürften deutlich gemacht haben, welche entscheidende Rolle eine konsequent durchgeführte Leistungsmessung im Rahmen des RZ-Managements spielt. Softwarepakete zur Performance-Überwachung können der Leitung des Rechenzentrums dabei helfen, die Informationsverarbeitung wesentlich zu verbessern.

Zusätzlich zum effektiveren Einsatz der Hard- und Softwareumgebung sorgen sie auch dafür, daß kostensparende Vorschläge für künftige System-Erweiterungen gemacht werden. Die wesentlichen Vorteile lassen sich wie folgt zusammenfassen: geschäftliche Entwicklungen und organisatorische Veränderungen zum Bedarf an Rechnerleistung in Beziehung zu setzen, das automatische Auffinden und Beheben von Engstellen im System und das Entdecken von Möglichkeiten zur Performance-Steigerung sowie eine optimalere Handhabung der laufenden Operationen durch ständiges Messen und Verfolgen der Ressourcennutzung.