Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

20.05.1977

"Die meisten Rechner sind nicht optimal getuned"

Mit Ecoma-Präsident Scott N. Yasler sprach CW-Redakteur Udo Kellerbach

-Was ist unter Software-Monitoring zu verstehen?

Software-Monitoring wird durch geführt, indem ein oder mehrere Programme gleichzeitig im Kernspeicher laufen. Dabei werden Stichproben von Daten hinsichtlich der Leistung des Systems oder dem Vorkommen verschiedenartiger Ereignisse zusammengefaßt und evaluiert. An Hand dieser Meßresultate sind Fachleute in der Lage, die Leistung des Systems wirkungsvoll zu erhöhen.

- Welche Arten von Software-Monitoren gibt es und welche Funktionen können sie übernehmen?

Es bestehen grundsätzlich drei Arten von Software-Monitoren: Passive Monitore sind in erster Linie für die Speicherung verschiedener interner Ereignisse in der CPU vorgesehen und funktionieren in der Regel nur dann, wenn sie von einem Signal angesprochen werden. Im Gegensatz dazu führen aktive Monitore in bestimmten Zeitabständen Anfragen über den Status der verschiedenen Konfigurationsteile durch. Dritter Typ sind die interaktiven Monitore, die in der Regel - neben den Funktionen der passiven und aktiven Monitore - Kontrollen übernehmen und weitere Meßexperimente auslösen.

- Können mit Software-Monitoren System-Software- und Hardware-Messungen durchgeführt werden?

Software-Monitore werden für die Messung, Evaluation und Optimierung vieler Arbeitsvorgänge verwendet. Beispielsweise können Bereiche der System-Software untersucht werden, um Daten über die CPU-Zeit der Betriebssystem-Routinen zu erhalten. Das Ergebnis dieser Untersuchung kann zur Entscheidung bringen, welche Routinen transient oder resident gemacht werden sollten, um das Paging und die I/O-Zeit zu reduzieren. Monitore können auch dazu verwendet werden, um optimales Hardware-Design zu produzieren. So besteht die Möglichkeit, die Konfiguration zu verändern, indem Dual-Channel-Controllers hinzugefügt oder weggelassen, Eigenschaften wie "Rotational Position Sensing" angegliedert, Erweiterungen des Speichers (Kern-, Buffer- oder Extended-) vorgenommen oder Peripheriegeräte neu zugeordnet werden.

- Welche Möglichkeiten bestehen bei Applikationsprogrammen?

Auch Applikationsprogramme können erfolgreich evaluiert und optimiert werden. Auf Grund der Meßresultate wird beschlossen, ob gewisse Programmteile neu geschrieben werden müssen, um dadurch eine bessere Verteilung des "Working Set" zu erhalten. Damit kann die Paging-Time durch den High Speed Buffer auf ein absolutes Minimum beschränkt werden. Es können auch Paragraph Sizes angepaßt werden - je nach aufgezeigter übermäßiger Benutzung gewisser Coding-Modules.

- Welche Vorteile hat SWM gegenüber Hardware-Monitoring?

Die Hardwaremessung wird üblicherweise durch folgende Kriterien charakterisiert:

- Die HWM-Grundkosten liegen in der Regel höher als bei SWM und der Einsatz erfordert einen größeren Planungsaufwand. HWM-Projekte müssen - je nach den individuellen Erfordernissen des Rechenzentrums - oft neu bearbeitet werden.

- Für HWM benötigt das Personal mehr Schulung in der Benutzung des Monitors und es sind bessere Kenntnisse des zu messenden Systems erforderlich.

- HWM-Experimente müssen besser überwacht werden und erfordern mehr Betreuung als SWM.

- Sie finden kein Haar in der SWM-Suppe?

Die SWM-Programme benötigen eigene CPU-Zyklen und unter Umständen sogar Peripherie. Dies beansprucht Kapazität des Systems und hat gleichzeitig nicht meßbare Auswirkungen auf die SWM-Ergebnisse selbst. So haben wir beispielsweise keinerlei Möglichkeit, festzustellen, wieviel Kapazität beansprucht worden wäre, wenn der SWM nicht gelaufen wäre. In diesem Fall hätten andere Benutzerprogramme in den vom Software-Monitor nicht gebrauchten Kernspeicher eingelesen und die freigegebenen CPU-Zyklen benützt werden können. Und gewisse Vorfälle sind mittels SWM überhaupt nicht meßbar. Wenn beispielsweise zwei CPUs gleichzeitig zum gleichen Plattenspeicher Zugriff wünschen, gibt es mit SWM keine Möglichkeit, diese Kontention zu messen (das heißt wie lange die eine CPU warten muß, weil die andere von der Disk beansprucht wird).

- Wenn man es unter dem Kosten/Leistungs-Aspekt betrachtet, welche Meß-Methode ist dann vorzuziehen?

Auf einer reinen Kosten/Leistungsbasis ist es schwierig zu behaupten, daß eine der beiden Meßmethoden immer die bessere für eine gewisse Art von Messungen sei. Für einige Meß-Applikationen ist es durchaus möglich, durch die Implementierung eines kleinen SWM-Projektes bedeutende finanzielle Einsparungen zu erzielen. Andererseits kann ein Benützer eines HWM später feststellen, daß er damit nur relativ wenig Kosten einspart. Ganz generell kann man sagen: Je weniger ein System "getuned" ist, desto höhere Einsparungen können von einem funktionsfähigen SWM-Tool erwartet werden.

- Wie weit haben sich Computermessungen durchgesetzt und wie sollte ein "Meß-Neuling" an die Problematik herangehen?

Die meisten Computersysteme sind weit davon entfernt, optimal "getuned" zu sein. Das heißt, daß die von den Meßmethoden zu erwartenden Einsparungen sehr hoch sind. Vorausgesetzt, daß funktionsfähige Meßmethoden projektgerecht angewendet werden.

- Abschließend: Wie muß Leistungsmessung im Rechenzentrum geplant werden, welcher Nutzen, welche Kosteneinsparungen sind davon zu erwarten?

Um die Beantwortung dieser Frage zu erleichtern und "um den Informationsaustausch hinsichtlich der Benutzung von Hardware-Monitoring- und Software-Monitoring-Methoden in jeder Hinsicht zu fördern", wurde im Jahre 1976 die ECOMA (European Computer Measurement Association) ins Leben gerufen.

- In welche Richtung geht der Trend beim Leistungs-Messen?

Obwohl es stets gewagt ist, Voraussagen zu machen - insbesondere auf einem sich derart rasch veränderndem Gebiet, wie dies die Leistungsmeßtechniken sind - , riskiere ich eine solche. Ich bin der Ansicht, daß wir innerhalb der nächsten 5 - 7 Jahre die totale Verschmelzung des Hybrid-Monitoring und des Interaktiven Software-Monitoring zu einem völlig in die Zentraleinheit integrierten Monitorsystem, erleben werden. Der Hardware Monitor wird dann serienmäßig eingebaut und vollständig in den Hauptrechner integriert sein. Eine große Anzahl verschiedenartiger Meßpunkte wird fest verdrahtet sein. Der Software Monitor wird Permanent resident im Kernspeicher verbleiben und laufend Stichproben und Zusammenfassungen von Meßergebnissen durchführen. Auftretende Probleme werden sofort identifiziert und spezielle Meßexperimente werden automatisch durch das Betriebssystem, zusammen mit einem Simulationspaket, für die Evaluation der alternativen Lösungen eingeleitet.

- Würden Sie eine Prognose wagen, wie die Meß-Instrumente in etwa 5 Jahren aussehen werden?

Diese Lösungen werden auf einem interaktiven Terminal erscheinen, so daß der EDV/Operationsleiter die nötigen Maßnahmen zur Korrektur der Probleme ohne weitere Abklärungen an die Hand nehmen kann. Sämtliche Meßergebnisse werden sofort auf den History/Statistic-Files gespeichert, analysiert und nachgeführt, um rechtzeitig Managements-Reports für Kosten, Budgetierung, Forecasting, Kontrolle, etc. zu produzieren. Bei größeren Multi-Site-Installationen werden Meßausrüstungen bei den Satelliten-Anlagen direkt vom Hauptrechenzentrum überwacht. Verschiedene, schlüsselfertige Projekte werden bei Bedarf initialisiert und die vorgesehenen Ergebnisse mit den effektiven Ergebnissen verglichen, um die verschiedenen Simulations-Algorithmen zu verbessern. Durch den laufenden Feedback-Prozeß wird es dem EDV-Manager mittels des interaktiven, integrierten Meß-Systems wesentlich erleichtert, die Kontrolle und Optimalisierung seiner Rechneranlagen rechtzeitig vorzunehmen und die notwendigen Maßnahmen zu treffen.

Scott N. Yasler (39)

studierte Ökonomie (Bachelor Degree) und Sozialwissenschaften (Master Degree) an den Universitäten Columbia in New York und California in Los Angeles. Nach dreijährigem "Soldatendasein" als Leutnant bei der amerikanischen Marine fing er l964 bei General Motors an, wo er für die Abrechnung der EDV-Systeme zuständig war. 1966 avancierte er zum Technischen Direktor für Europa bei Comten (früher Comress) und war dort beteiligt an der Entwicklung von Scert (Simulationsprogramm zur Bestimmung der optimalen Hardware-Konfiguration) und Dynaprobe (Hardware-Monitor). Seit Anfang 1973 ist er als Leiter der Leistungsmessungs-Gruppe bei der Schweizerischen Bankgesellschaft in Zürich beschäftigt.