Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

28.05.1999 - 

Jahrestagung des System-Management-Forums CECMG

Mit Meßverfahren die IT-Systeme durchleuchten

BREMEN (jha) - Wenn IT-Manager die Leistung ihrer DV bewerten wollen, stehen sie vor einem ernsthaften Problem. In einer Client-Server-Welt haben die Meßverfahren der Großrechnerära keinen Bestand mehr, und durchgängige Lösungen für heterogene Umgebungen gibt es kaum. Der IT-Abteilung, die sich zu einem internen Dienstleister gewandelt hat, fehlt somit ein wichtiger Bestandteil des System-Managements. Sie kann ihre mit den Fachabteilungen vereinbarten Service-Level-Agreements nicht kontrollieren und dokumentieren.

Der Wandel ist vollzogen. "Das Rechenzentrum alter Prägung ist tot", verkündete Jürgen Steiner, Berater bei der Systems Management Consulting GmbH (Sys MC), Hallbergmoos bei München, auf der Jahrestagung der Central Europe Computer Measurement Group e.V. (CECMG). Eine zentrale, voll durchorganisierte DV-Abteilung mit MVS-Boliden, SNA-Netzen und 3270-Endgeräten gebe es nicht mehr, sie sei dem hohen Innovationsdruck zum Opfer gefallen.

Eine zeitgemäße IT-Abteilung bezeichnet der Berater als "Computing-Center". Es verantwortet den Betrieb sämtlicher Computersysteme sowie aller Kommunikationsnetze und betreut Systemplattformen jeglicher Couleur. Drei Faktoren beeinflussen den Erfolg eines Computing-Centers: Die IT-Mitarbeiter treiben als Innovatoren neue Dienste voran, machen Informationen für das Unternehmen verfügbar und liefern einen wesentlichen Beitrag zum Erreichen der Unternehmensziele.

Doch Steiner meidet die Darstellung einer schönen neuen IT-Welt, denn kaum jemandem dürften die Schattenseiten des Client-Server-Computings entgangen sein. So wurde etwa die weitgehende und erfolgreiche Automatisierung der Mainframe-Ära zurückgeschraubt. In der heutigen Client-Server-Welt "versuchen wir zu implementieren, was wir zu Mainframe-Zeiten schon hatten", so Steiner.

Lösungen für das System- und Performance-Management sowie ausgefeilte Sicherheitsfunktionen sollen die Client-Server-Welt an das in diesen Disziplinen hohe Qualitätsniveau der reinen Großrechnerumgebung heranführen, doch gelungen ist dies bislang noch nicht. Das gleiche Bild präsentiert sich dem Betrachter, wenn es um die Leistungserfassung der IT-Umgebung geht. Das Benchmarking, Performance- und Antwortzeiten-Management funktionierten im Host-Umfeld gut. Diese Methoden müssen nun in der Client-Server-Welt neu erfunden werden.

Dabei ist das Messen nicht Selbstzweck oder gar Instrument zur Selbstbeweihräucherung der IT-Abteilung, sondern bildet die Basis für weitreichende Entscheidungen: "Letztendlich wollen wir eine Vergleichbarkeit auf Kostenebene. Warum ist ein Vorgang in der Firma A billiger als in der Firma B", erklärte Jürgen Wengorz von der SAS Institute GmbH und Verantwortlicher der Arbeitsgruppe Benchmarking bei der CECMG.

Das Computing-Center, das als Dienstleister innerhalb des Unternehmens arbeitet, sieht sich aber nicht allein dem finanziellen Druck ausgesetzt. Wenn es, wie von Sys-MC-Manager Steiner gefordert, als Innovator auftreten will, müssen Zukunftspläne geschmiedet und die Infrastruktur vorbereitet werden. Meßdaten über das Nutzungsverhalten liefern Rückschlüsse über künftige Anforderungen. "Wir können nur steuern, was wir auch messen können", erklärt Michael Pieper, bei dem Beratungshaus ICG GmbH, Salzgitter, für das Performance-Management zuständig.

Zudem müßten die mit den Fachabteilungen beispielsweise beim User-Helpdesk vereinbarten Service-Level-Agreements (SLAs) überprüft und dokumentiert werden.

Neben dem Helpdesk ist das Antwortzeitverhalten für die Beziehung zwischen Fach- und IT-Abteilung besonders wichtig - und oft auch umstritten. Gemeint ist damit die Zeit, die zwischen dem Drükken der Enter-Taste durch den Anwender und der Präsentation des Ergebnisses auf dem Bildschirm verstreicht. Je kürzer das Intervall, desto höher ist die Akzeptanz der IT durch die Mitarbeiter und das Ansehen der IT-Abteilung. Auch die Messung dieser Zeitspanne (Response Time Measurement) ist jetzt schwieriger als in der Großrechnerära, als einfach die Reaktionszeit vom 3270-Terminal-Anwender über einen Controller zum Host und zurück gemessen werden mußte. Ein von einem PC-Anwender auf die Reise geschicktes Datenpaket kann heute beispielsweise die CPU des Desktops, das LAN und WAN, den Applikations- sowie Datenbank-Server und den Host passieren. In jedem der beteiligten Geräte wird die Anfrage kurzfristig verweilen, bis das Ergebnis schließlich zurück zum Mitarbeiter gelangt.

"Für den Anwender spielt es keine Rolle, wie viele Komponenten eine Anfrage durchlaufen muß", beschreibt René Nef das Problem der Client-Server-Welt. Zuständig für das Perfomance-Management beim Schweizer Geldinstitut Credit Suisse, verläßt sich Nef auf zwei Werkzeuge. Zum einen erfaßt eine hauseigene, aber dem ARM-Standard ähnliche Lösung das Antwortzeitverhalten (ARM = Application Response Measurement, siehe Kasten). Dieses Verfahren wird in den Schweizer Filialen flächendeckend eingesetzt. Die hauseigenen Software-Entwickler implementierten die Methode selbst, die das Verhalten der selbstgeschriebenen Anwendungen transparent machen soll. Zum zweiten baut die Credit Suisse auf die Lösung "Rob IT", die das Nutzerverhalten der PC-Anwender simuliert. Entsprechende Meß-PCs werden in den Fachabteilungen installiert.

Mit den beiden Lösungen hofft Nef, "die Lücke zwischen den theoretischen Meßwerten und den tatsächlichen, von den Anwendern registrierten Antwortzeiten zu schließen. Denn nicht immer spiegeln unsere Statistiken die Benutzersicht wider." Die IT-Abteilung der Credit Suisse hat sich daher einer transparenten Informationspolitik verschrieben. Sie erlaubt es den Anwendern, jederzeit die Leistungsdaten abzurufen und anhand der Rob-IT-Installation selbst zu messen. Die Rufe nach schnelleren Rechnern und höheren Leistungskapazitäten ertönen seitdem immer seltener.

Ein weiterer positiver Aspekt ist das gezieltere Tuning. Da die interne Leistungsabrechnung zunehmend auf den Service-Level-Agreements (SLAs) aufbaut, läßt sich die Erweiterung der Infrastruktur an den gewonnenen Meßdaten orientieren und damit überflüssige Kosten sparen. "Es bringt nichts, aus den Systemen immer mehr herauszuholen, wenn die Benutzer schon zufrieden sind", sagt Nef.

So können die Meßdaten zu einem wichtigen Baustein werden, mit dem sich das Rechenzentrum zu dem von Steiner geforderten Computing-Center umbauen läßt. "Der Anwender in den Fachabteilungen ist nicht mehr wie einst ein lästiger Abnehmer von IT-Leistungen, sondern ein gleichberechtigter und mündiger Partner, der überzeugt werden will", beschreibt der Sys-MC-Manager die Rolle des Computing-Centers. Ein gutes Image der IT-Abteilung ist nicht zu unterschätzen, sehen sich die internen Dienstleister doch zunehmend dem Konkurrenzdruck von externen Service-Unternehmen ausgesetzt.

Verfahren für das Response Time Measurement

Für die Messung von Antwortzeiten (Response Time Measurement) einer Applikation gibt es intrusive und non-intrusive Verfahren. Intrusive bedeutet in diesem Zusammenhang, daß in die zu messende Applikation eingegriffen wird. Zur dieser Gattung zählt der Industrie-Standard Application Response Measurement (ARM), der mittlerweile in der Version 2.0 vorliegt. Um mit Hilfe des ARM-Verfahrens etwa die Reaktionszeiten messen zu können, müssen die Entwickler in die Anwendungen ARM-konforme Meßroutinen (als Start-Stop-Befehle) einflechten. ARM-Agenten registrieren die Verweildauer der Datenpakete in den an einer Kommunikation beteiligten Komponenten und melden sie einer zentralen Stelle.

Die Vorgehensweise verdeutlicht zugleich die Nachteile dieses Verfahrens: Die Applikation wird verändert, so daß das Meßergebnis verfälscht werden könnte. Dennoch ruhen große Hoffnungen in ARM, da das Verfahren seitens Hersteller wie Hewlett-Packard und Tivoli stark gefördert wird und es sich gerade als eine Art Industriestandard etabliert.

Zu der Gruppe der Non-intrusive-Lösungen, bei der nicht in die Applikation eingegriffen wird, zählen die Verfahren Client Capture, Network X-Ray und Capture/ Playback. Client Capture wird implementiert, indem jeder Desktop mit einem Agenten ausgestattet wird, der die Antwortzeit mißt und dokumentiert. Das Verfahren ist Applikations-unabhängig, generiert allerdings ein großen Datenvolumen mit schwankender Aussagekraft.

Network X-Ray basiert auf Probes (Tastköpfe) in den Netzgeräten. Sie lesen die Datenpakete, die das Netz passieren, und schreiben die Ergebnisse in eine Wissendatenbank. Dort lassen sich durchschnittliche, maximale und geringste Antwortzeiten errechnen. Dieses Verfahren macht einerseits den Netzverkehr transparent, gestaltet den Bezug zu geschäftlichen Applikationen jedoch schwierig. Zudem ist das Verfahren in sehr großen Unternehmensnetzen schwer zu installieren.

Die größten Aussichten auf Erfolg hat laut Expertenmeinung die Vorgehensweise Capture/Playback. Dieses Verfahren mißt die Antwortzeiten von einem dedizierten Meßplatz aus. Es spiegelt die Anwendersicht wider, läßt sich schnell implementieren und ist flexibel. Allerdings ist Capture/Playback nur eine Simulation.