Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

31.10.1975

Leistungsanalyse - Fingerspitzengefühl reicht nicht - Mehr Monitor-Messungen

Mit Dipl.-Ing. Gerd Vallbracht, Leitender Systemanalytiker bei der Industrie-Anlagen-Betriebs-GmbH. (IABG), Ottobrunn, Chairman der Second European User Conference on Computer Performance Evaluation (Tesdata User Group), sprach CW-Chef Redakteur Dr. Gerhard Maurer.

- Alles spricht hier in München auf ihrer Anwender-Konferenz über System-Leistungsmessung und -Leistungsanalyse. Wird nur gesprochen oder gibt es das auch tatsächlich?

Die Entwicklung von Verfahrensmethoden zur Durchführung von Leistungsanalysen von Rechnersystemen durch den Computer-Anwender ist ein relativ neues Gebiet. Zweifellos wurden Leistungsanalysen schon seit langer Zeit bei den Herstellern, eben den großen Computerfirmen, durchgeführt. Aber wir wollen das Schwergewicht auf die Durchführung von Leistungsanalysen durch den Anwender legen.

- Zuvor noch mal, was verstehen Sie unter Leistungsanalyse?

Leistungsanalysen können grundsätzlich in zwei unterschiedliche Verfahren eingeteilt werden: Einmal handelt es sich um analytische theoretische Verfahren, und zum anderen handelt es sich um experimentelle Leistungsanalysen. Auf dem Sektor der experimentellen Messungen kommen Verfahren wie Hardware-Monitoring und Software-Monitoring zur Anwendung, im Bereich der theoretischen Analysen verwenden wir überwiegend Simulationsverfahren.

- Muß denn der, Anwender nun selber diese Leistungsanalyse durchführen - vielleicht gar, weil den Angaben der Hardware-Hersteller nicht zu trauen ist?

Die Notwendigkeit der Durchführung von Leistungsanalysen ergibt sich aus den Aufgabenstellungen der jeweiligen Anwender. Das vom Hersteller gelieferte System ist so zu tunen und so zu optimieren, daß für den Anwender optimale Verhältnisse entstehen.

- Sie gehen also davon aus, daß das in der Regel der Fall ist.

In der Regel sicher nicht.

- Wie ist Ihre Analyse des Ist-Zustandes?

Die Vergangenheit hat gezeigt, daß beim Anwender das Wissen aber die eigentliche Leistungsfähigkeit ihrer Rechenanlagen, nicht immer ausreichend war. Das führte sehr oft dazu, daß herstellerseitig überdimensionierte Systeme angeboten wurden und der Anwender in gutem Glauben sich zu große Kapazitäten zulegte.

- Die These vom allgemeinen Overselling stimmt also?

Diese Tendenz hat bestanden. Aber mit zunehmender Selbständigkeit der Anwender auf der einen Seite und auf der anderen Seite durch die Entwicklung geeigneter Verfahreit zur Leistungsanalyse auf der Anwenderseite wird dies in Zukunft sicher stark eingeschränkt sein. Natürlich gab es immer schon tüchtige Anwender, die sich gegenüber den Versuchen, überdimensionierte Anlagen "verkauft zu, bekommen", zu wehren wußten. Vielfach fielen die Entscheidungen ja auch in den Vorstands-Etagen und weniger in der EDV-Abteilung.

- Mangelnde Systemleistung hängt nun aber auch mit der Software zusammen, und solche Effizienz wäre ja vom Anwender zu vertreten?

Das Instrumentarium der Leistungsanalysen erlaubt es, keineswegs nur Hardwareleistungs-Messungen durchzuführen, sondern auch die Leistungsfähigkeit und Effizienz von Software-Komponenten zu prüfen. Dazu gehört einmal die Komponente, Betriebssysteme, deren Leistungsfähigkeit der Hersteller zu ,verantworten hat. Zum zweiten gehört hierher die Komponente Anwendersystem, deren Effektivität der Benutzer zu verantworten hat.

- Unterstellen wir einmal, ein Anwender mit einem Computersystem der Mittelklasse beschließt, etwas für die Leistungsverbesserung zu tun. Welche Vorgehensweise würden Sie ihm raten?

Der Ausgangspunkt für jede Leistungsoptimierung ist zunächst einmal die Erfassung des Ist-Zustandes. Hier muß festgestellt werden, wie stark die Auslastung der einzelnen Rechnerkomponenten ist, wie hoch die Anforderungen auf der Aufgabenseite sind und wie stark die Auslastungen der Zentraleinheit und der sonstigen peripheren Anlagen sind.

- Klingt gut, aber wie macht man das?

Wenn wir davon ausgehen, daß eine Anlage verbessert werden soll, die bereits den Betrieb aufgenommen hat, dann bietet sich die Möglichkeit einer experimentellen Ist-Analyse an - in Form einer Software-Monitor-Messung oder in Form einer Hardware-Monitor-Messung.

- Welche Hilfsmittel stehen dafür zur Verfügung und wie teuer ist das?

Die Anwendung eines Software-Monitors kann als kostengünstiger angesehen werden im Vergleich zum Einsatz eines Hardware-Monitors. Dieser Preisvorteil wird allerdings erkauft auf Kosten einiger anderer Nachteile, zum Beispiel dadurch, daß der Software-Monitor ganz speziell zugeschnitten sein muß auf ein spezielles Betriebssystem. Man kann sogar sagen, daß ein Software-Monitor im gewissen Sinn eine Erweiterung des Betriebssystems darstellt. Da die Entwicklung eines Software-Monitors relativ aufwendig ist, liegt es nahe, daß Software-Monitore nur für solche Systeme angeboten werden, die entsprechend stark auf dem Markt vertreten sind.

- Also der IBM-Kunde hat es wieder einmal besser?

Bei den Software-Monitoren dominieren zur Zeit die Entwicklungen von Bool & Babbage, die hierzulande von CAP Gemini vertrieben werden. Diese Systeme sind tatsächlich für IBM maßgeschneidert. Ähnliche Entwicklungen für andere Anwender sind mir nicht bekannt geworden.

- Das macht Jahreskosten von jährlich immerhin etwa rund 20 000 Mark Lizenzgebühr für dieses Standard-Paket und ist sicherlich billiger als der Hardware-Monitor. Braucht man ihn überhaupt?

Ja. Software-Monitoren stehen nur für wenige Systemfamilien zur Verfügung. Der Hardware-Monitor hat den großen Vorteil, daß seine Arbeitsweise völlig unabhängig ist von der jeweiligen Struktur des Großrechners. Mit einen Hardware-Monitor kann nahezu jedes Rechnersystem leistungsmäßig vermessen werden.

- Was wird da eigentlich gemessen und wie sehen die Ausweitungen aus?

Die Meßfunktion eines Hardware-Monitors beruht auf der Erfassung und Ableitung elektrischer Signale im Rechnersystem. Diese Signale sind repräsentativ für bestimmte Systemzustände, beispielsweise für CPU-Bitsy, CPU-Wait, CPU-Supervisor-State, CPU-Problem-State. Weiter gibt es Signale beziehungsweise Signal-Kombinationen über die Auslastung von Kanaleinheiten und Steuereinheiten. Und es gibt Signale, die identifizieren wie groß, der Anteil der Simultanarbeit ist und so weiter.

- Welche Auswertungen werden aus solchen Messungen gemacht?

Die einzelnen elektrischen Signale; werden zunächst über Kollektor-Einheiten gesammelt und können dann noch mit Hilfe spezieller logischer Schaltungen miteinander verknüpft, werden. Diese Signale werden dann mit Hilfe eines Minicomputers, der Bestandteil des Hardware-Monitors ist, aufbereitet und auf eine Magnetbandeinheit - ebenfalls Bestandteil des Monitors - geschrieben. Die Auswertung der Meßwert-Aufzeichnungen des Bandes erfolgt nun in der Regel auf dem Host-Computer. Mit Hilfe spezieller Analyser-Software, die von den Hardware-Monitor-Herstellern geliefert wird, besteht nun die Möglichkeit, über verschiedene Report-Formate die Analysen so aufzubereiten, daß der Analytiker den Ist-Zustand erkennen kann und daraus ableitend gewisse Optimierungsmaßnahmen oder Rekonfigurations-Vorschläge erarbeiten kann.

- Kann man mit Hardware-Monitoren auch Software-Tuning machen?

Das Software-Tuning ist ein Schwerpunkt, der vielfach das Hardware-Tuning noch an Bedeutung übertrifft. Software-Tuning ist ebenfalls mit Hilfe eines Hardware-Monitors möglich: Durch Methoden des Kernspeicher-Mapping ist es zum Beispiel möglich, Bereiche in Anwenderprogrammen zu identifizieren, die ineffektiv arbeiten - einerseits zeitlich gesehen und auch von der Hauptspeicher-Benutzung her. Hier ergeben sich Ansatzpunkte zu einer Verbesserung der Software.

- Ob sich ein Programm wiederholt in ineffizienten Schleifen verweilt, läßt sich doch wohl nur mit dem Software-Monitor feststellen.

Voraussetzung für eine solche Analyse ist das Herstellen einer Korrelation zwischen den aktuellen Programmen und den Meßwerten. Idealerweise wird man diese Instrumente zur Durchführung von Leistungsanalysen kombiniert einsetzen und nicht isoliert, so daß die Möglichkeit besteht, die besonderen Vorteile der beiden Meßverfahren zu kombinieren.

- Das wäre ja alles nun nicht so ganz billig. Ist Leistunganalyse und Tuning nur etwas für die Großanwender?

Keineswegs. Eine vernünftige untere Grenze wäre ab System 370/135 aufwärts oder ab entsprechenden ähnichen Systemgrößen.

- Also durchaus die ganze Mittelklasse. Würden Sie auf Grund der Erfahrung Ihres Hauses und der der vielen Tuning-Spezialisten, mit denen Sie zusammen hier in München tagen, einen Prozentsatz nennen, der angibt, was man für dieserlei Dinge ausgeben sollte?

Ich möchte keine Zahlen nennen. Üblicherweise ist es so, daß ein Systemanalytiker fulltime mit der Durchführung von Leistungsanalysen beschäftigt sein sollte. Dazu kommen die jeweiligen Kosten für die Anmietung oder den Ankauf des Instrumentariums.

- Rechnen wir einmal die Kosten durch: Ein Mannjahr kostet 100 000 Mark, 20 000 Mark für den Software-Monitor im Jahr und ein mittelgroßer Hardware-Monitor über die Abschreibungszeit gemittelt weitere 60 000 Mark jährlich. Das sind dann schon 180 000 Mark pro Jahr. Geht es nicht auch billiger?

Diesen Aufwand, auch wenn er jetzt auf den ersten Blick etwas hoch erscheint, halte ich für jedes größere Rechenzentrum für durchaus angemessen auch die Möglichkeit, diese Leistungsanalysen in Form von Studien durchführen zu lassen.

- Gibt es einen Mittelwert, um wieviel im Durchschnitt die Effizienz gesteigert werden kann?

Der Begriff der Effizienz erfordert eine Präzisierung. Einmal kann die Kostenseite als Maßstab für die Effizienz herangezogen werden. Kostenmäßige Einsparungen wurden in letzter Zeit verschiedentlich veröffentlicht, so daß ich auf diese Veröffentlichungen verweisen kann - allerdings mit der Einschränkung, daß ich die Kostenseite keineswegs als alleiniges Kriterium für die Effizienz eines Systems betrachten möchte. Es gehört hier auch dazu die Verbesserung der Mensch-Maschine-Schnittstelle - etwa die Vergrößerung des Benutzer-Konforts durch eine verkürzung der Reaktionszeiten.

- Könnten Sie sich doch mit Zahlen präziser werden?

Eine typische Fragestellung der Rechenzentren ist vielfach: Haben wir die Möglichkeit, noch weitere Anwendungen auf unsere Anlage zu nehmen? Das führt dann zwangsläufig auch zu der Frage: Können wir abmieten? Oder - was natürlich genauso denkbar ist: Wo können wir den größten Gewinn an Kapazität erzielen mit dem kleinsten Aufwand an Installations-Mehrkosten. Mir persönlich sind Fälle bekannt, bei denen bereits wenige Wochen nach Vorliegen der Leistungsanalysen Komponenten abgemietet werden konnten und dadurch eine spürbare Verringerung der monatlichen Mietbelastung erreicht wurde, die erheblich über den Kosten für diese Ermittlungen lagert. Es ist durchaus bekannt geworden, daß in Rechenzentren Leistungsreserven vorhanden waren, die eine Übernahme einer fast doppelt so großen Arbeitslast erlaubt hätten. Der Schwerpunkt der Konfigurations-Änderungen auf Grund der Leistungsanalyse liegt dann jedoch im Bereich der Peripherie-Systeme - weil in der Regel für die CPU ein erwartet wird. Die Erfahrung hat gezeigt, daß das sogenannte "Fingerspitzengefühl" auch sehr erfahrener Rechenzentrumsleiter und EDV-Chefs nicht immer mit den physikalischen Meßergebnissen übereinstimmte. -m-

Dipl.-Ing. Gerd Vallbracht (36) hat als Gruppenleiter bei der Industrie-Anlagen-Betriebsgesellschaft mbH. 12 Mitarbeiter für die Planung und Entwicklungs-Unterstützung von Informationssystemen im Bereich der öffentlichen Hand vornehmlich Führungssysteme im Verteidigungsbereich. Die geheimnisumwitterte ABG in Ottobrunn bei München hat Systeme CDC 6500, CDC 1700, IBM 370/135 installiert und verfügt über einen Hardware-Monitor Tesdata 1185, den - bis auf die Systems-Messeneuheiten - größten "Computer für den Computer". Allerdings "Die eigenen Anlagen haben wir bisher sträflich vernachlässigt." Monitoring, Tuning und Leistungsoptimierung werden vornehmlich auf Systemen der "Kunden" durchgeführt.

Dabei gewonnene Erfahrungen qualifizierten Vollbracht, die Organisation und die Leitung der Second European User Conference on Computer Performance Evaluation zu übernehmen, auf der - bewußt während der Systems 75 - im Münchener Hilton-Hotel 100 Teilnehmer und 16 Referenten drei Tage lang Erfahrungen über den Einsatz von Tesdata-Hardware-Monitoren austauschten. Konferenzsprache: English Only. Durchschnittsalter der Teilnehmer: Weit unter 30 Jahren. Selbstverständlich des neuen Spezialisten-Typs: Wenn man nur wüßte wie sehr man uns braucht.