Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

20.09.1991

Komfortable Arbeitsumgebungen sind heute ein "Muß"

Der Trend geht in Richtung Downsizing und Visualisierung

Eine Performance-Datenbank und eine komfortable Benutzeroberfläche gehören heute bereits zum Stand der Technik. Zu den neueren Trends hingegen zählen die explorative Datenanalyse sowie die Auslagerung bestimmter Daten vom Host auf die Workstation. Wolf Lichtenstein* gibt einen Überblick über Vergangenheit, Gegenwart und Zukunft des Performance-Managements.

Wer erinnert sich nicht gerne an die "guten alten Zeiten", in denen Computer nur einen Job nach dem anderen abarbeiten konnten! Performance-Management konnte damals mit einer Armbanduhr durchgeführt werden, manchmal sogar mit einem Kalender.

Die Zeiten haben sich leider geändert. Mittlerweile tragen die Versuche, die Performance eines großen DV-Systems zu managen, Züge einer Sisyphus-Arbeit Wenn man die Veröffentlichungen über Performance-Management und verwandte Bereiche (Kapazitätsmanagement, Accounting) sichtet, so wird augenfällig, daß nirgendwo ein Satz fehlt, der die zunehmende Komplexität der vorhandenen DV beschreibt oder gar beklagt.

Kostenminimierung ist nicht immer der Punkt

Das führt zur Frage nach dem Wesen des Performance-Managements, also seiner Definition. Performance-Management ist in allgemeinster Form das Bewerkstelligen des optimalen Leistungs- und Systemverhaltens von Computersystemen. Aber was genau soll bewerkstelligt werden? Diese Frage weist auf ein Grundproblem bei der Definition vom Performance-Management hin: das Herausfiltern allgemeingültiger Ziele.

Am häufigsten wird zwar von Kostenminimierung der DV beziehungsweise Maximierung der Ressourcenauslastung gesprochen, doch diese Sichtweise ist sehr eingeengt. Im Rahmen der sicherlich als übergeordnet anzusiedelnden Unternehmensziele ist es vorstellbar, daß für ein bestimmtes Projekt DV-Ressourcen nur eine untergeordnete Rolle spielen: Der Zweck heiligt die Mittel.

Das Organisieren und Bereitstellen von Service und Leistung geschieht also nicht nur in einem technischen, sondern auch in einem betriebswirtschaftlichen Kontext. Beide wiederum stehen in Abhängigkeit zueinander.

Das Wesen dieses Umfeldes ist wohl am zutreffendsten mit dem Begriff Wandel zu charakterisieren. Somit ergibt sich als Konsequenz für das Performance-Management die Notwendigkeit, schnell und flexibel t auf sich verändernde Situationen (technische oder soziale) reagieren zu können. Wie sieht also konkret die Situation des Performance-Managers (Systemtechnikers, Rechenzentrums Mitarbeiters etc ) aus, und welche Techniken stehen ihm zur Bewältigung seiner Aufgaben zur Verfügung? Bevor Performance gemanagt werden kann, muß sie erst einmal ermittelt werden Meßdaten hierfür stehen im Überfluß zur Verfügung. Produziert werden sie durch das System selbst beziehungsweise durch seine Subsysteme oder/ und durch eigens hierfür angeschaffte Tools (Monitore).

Die Bereitstellung dieser Daten findet allerdings oftmals in sehr unkomfortabler Weise statt. Es handelt sich um Datenmengen, die in ihrer Rohform aufgrund komplizierter Formate und fehlender logischer Strukturen menschlicher Rezeption oft nicht zugänglich sind.

Mußte in früheren Zeiten der Spezialist selbst diesen Datenwust in lesbare Information umwandeln - es ist durchaus sinnvoll, hier von Decodierung zu sprechen -und sich dabei auch noch von vornherein auf einen Ausschnitt beschränken - alles zu decodieren, wäre zur Lebensaufgabe entartet -, so stehen ihm heute Tools zur Verfügung, die die Decodierung aller vorstellbaren Datenquellen für ihn erledigen. Der Fachmann braucht nur noch den interessierenden Datenbereich auszuwählen und kann sich auf die Analyse lesbarer logisch geordneter Strukturen konzentrieren.

Die Fragen nach den Antwortzeiten

Doch neben diesem Input aus seinem System sind weitere Faktoren zu berücksichtigen. Zu den alltäglichen gehören zum Beispiel die immer wieder auftretenden Nachfragen von Usern über die Antwortzeiten oder die Berichte gegenüber dem DV-Management und/oder der Unternehmensleitung.

Nicht alltäglich - aber dennoch nicht außergewöhnlich - sind dann noch Ereignisse wie Hardware-Upgrades und Betriebssystemwechsel. All dies unter Berücksichtigung von chronischer Zeit- und Personalknappheit stellt wohl die typische Situation des Performance-Managers dar.

Wie sieht es nun mit den verfügbaren Techniken aus? Einige davon wurden schon angedeutet. Neben der Bereitstellung von Meßdaten durch das DV-System kann der Performance-Manager zusätzliche Daten durch den Einsatz von Monitoren generieren. Darüber hinaus werden Tools auf dem Markt angeboten, die in der Lage sind, die entsprechenden Meßdaten zu decodieren und sie dann in verdichteter und systematischer Form in eine sogenannte Performance-Datenbank (PDB) zu überstellen. Daraus ergibt sich als Konsequenz daß der Aufbau der PDB zentrale Bedeutung für ein erfolgreiches Performance-Management hat.

Die Forderungen an eine PDB sind heutzutage:

1. Ressourcensparsamkeit, das heißt wenig Overhead, wenig Speicherbedarf und geringe CPU-Belastung beim Aufbau der PDB: Man stelle sich vor, was passiert, wenn das zum Managen von Performance eingesetzte Tool selbst einen beträchtlichen Teil der Ressourcen konsumieren würde.

2. Erweiterbarkeit: Neue Datenquellen wie zum Beispiel ein neu angeschaffter Monitor sollten mühelos integrierbar sein.

3. Flexible Abfragemöglichkeiten: Es muß möglich sein, sowohl sehr unterschiedliche Abfragen zu generieren als auch Abfragen unabhängig von der Datenstruktur vorzunehmen.

Soll-Werte lassen sich aus der Analyse kaum ableiten

Die beschriebenen Forderungen werden durch die Technik der relationalen Datenbanken erfüllt, und tatsächlich findet sich heute in zahlreichen Rechenzentren eine relationale PDB. Mit einer solchermaßen organisierten PDB ist der Performance-Manager schon in der Lage, sich ein recht genaues Bild von dem Zustand des Rechners zu machen.

Was noch fehlt, sind mathematische beziehungsweise statistische Verfahren, mit denen die Art und Weise der Beziehungen zwischen verschiedenen Meßgrößen hergestellt werden kann. Ist es dann noch möglich, die so ermittelten Ist-Werte in der PDB mit entsprechenden Soll-Werten automatisch zu vergleichen, so besitzt man ein Regelwerk für das erwünschte Funktionieren der Informationsverarbeitung.

Komfortable Tools für den Performance Manager

Die Definition von Soll-Werten kann allerdings nur zum Teil aus der Analyse der Meßwerte abgeleitet werden. Zum einen müssen hierfür Service-Levels mit den Anwendern vereinbart werden (diese Service-Levels stellen immer einen Kompromiß zwischen dem technisch Machbaren und den Anwenderwünschen dar), zum anderen müssen die relevanten Unternehmensziele berücksichtigt werden. Die Erbringung von Leistungen steht also immer in Beziehung zu ihrem unternehmerischen Nutzen.

Übrigens muß die Flexibilität die von dem Performance-Manager erwartet wird, durch entsprechend komfortable Tools unterstützt werden. Auch der flexibelste Mensch würde, hätte er nur einen Hammer, die Welt als Nagel betrachten.

Nachdem nun die heute bereits vorhandenen Techniken innerhalb des Performance-Managements vorgestellt wurden soll auch auf weniger verbreitete, relativ neue Trends hingewiesen werden: Performance-Management ist klassischerweise im Rechenzentrum beziehungsweise in der Systemprogrammierung beheimatet. Die Anwendungen im Performance-Management werden also durchgeführt von Menschen mit hohem DV-Kenntnisstand.

Schulungen kosten Geld und Zeit

Dieser Umstand ist dafür verantwortlich, daß die entsprechenden Arbeitsumgebungen dieser Anwendungen auf Nichtprogrammierer einen recht spartanischen Eindruck machen Dagegen ist prinzipiell auch nichts einzuwenden, es sind wie bereits erwähnt, Profis, die am Bildschirm sitzen.

Es gibt aber eine immer größere Anzahl von Applikationen, die mit dem Performance-Management und den verwandten Bereichen eingesetzt werden. Wurde man früher im Rechenzentrum vom Datenchaos erschlagen, so sind es nun immer mehr die Anwendungen.

Eine Vielzahl von Schulungen für verschiedene Produkte bei ein und derselben Person kostet Zeit und Geld. Der Spezialist von heute ist deshalb mit Recht immer weniger bereit, unkomfortable Arbeitsumgebungen selbst bei ausreichender Funktionalität zu akzeptieren.

Natürlich soll eine komfortable Oberfläche ihre unbestreitbaren Vorzüge nicht damit erzielen, daß sie nur noch schwer oder - schlimmer- gar nicht verändert werden kann. Einige Hersteller von systemnaher Software beziehungsweise Tools für Rechenzentren und Systemtechnik haben auf diese Situation bereits reagiert, indem sie ihre Oberflächen mehr oder weniger CUA-konform gestalten. Ein sicherlich richtiger und wichtiger Trend.

Darüber hinaus sind auch Tools verfügbar, die neben dieser Eigenschaft weitere Vorteile bieten, nämlich die Möglichkeit, "Point and-click"-Oberflächen über die verschiedenen Anwendungen zu legen. Dadurch werden die Einstiegsschwelle und der Einarbeitungsaufwand drastisch reduziert.

Ein weiterer Nutzen liegt dabei sicherlich darin, daß der Online-Zugriff auf Systeminformationen dem gehobenen Management erleichtert wird. Das umständliche Generieren zahlreicher Berichte, die selten alle gelesen werden, würde entfallen.

Zu guter Letzt eröffnet sich mit solchen Oberflächen die Chance, DV-Informationen in ein unternehmensweites Informationssystem einzubinden. Ein wachsendes Verständnis für DV-Belange durch die Unternehmensführung bahnt sich an.

Daß hierdurch wichtige Teile des Systemview-Konzeptes der IBM realisiert werden würden, sei nur am Rande erwähnt: Die gemeinsame Datenbasis für Aufgaben im Rechenzentrum wäre durch die relationale PDB gegeben, CUA-konforme Oberflächen würden die homogene Benutzerschnittstelle darstellen.

Neben diesen eher ergonomisch orientierten Entwicklungen sei noch auf einen anderen Trend verwiesen, der aus der Statistik kommt: die explorative Datenanalyse. Sie gehört sicherlich zum aktuellsten Trend innerhalb der statistischen Forschung. Noch neuer ist der Versuch, diese Technik im Rahmen des Performance-Managements nutzbar zu machen.

Das Ziel bei der explorativen Datenanalyse (EDA) ist, festzustellen, welche Variablen zueinander in Beziehung stehen und welcher Art die festgestellten Beziehungen sind Die hierfür sinnvollen statistischen Verfahren reichen von Mittelwerten und Quadratwurzeln über Standardabweichungen bis zu Regressionen.

Interessanter als das Aufzeigen der Abhängigkeiten (Interdependenzen) ist jedoch die Möglichkeit der Visualisierung im EDA-Konzept: Von Punktewolken bis zur dreidimensionalen Darstellung von Variablen, die in beliebiger Richtung rotieren können, reichen hier die Variationen.

Die Vorteile liegen auf der Hand: Der ständig wachsenden Flut von neuen Variablen könnte man mit solchen Verfahren quasi spielerisch oder - seriöser formuliert - experimentell Herr werden.

Denn mit dieser Technik lassen sich Hypothesen über die Beziehungen der Variablen untereinander generieren, die wiederum helfen, die Transparenz des DV-Systems deutlich zu machen.

Solche Anwendungen im Performance-Management sind natürlich erst dadurch möglich, daß entsprechende Daten auf eine leistungsfähige Workstation transportiert werden können, um dort die Visualisierung beziehungsweise das Experimentieren durchzuführen (man stelle sich das Gesicht eines Systemprogrammierers beim Blick auf den CPU-Verbrauch vor, wenn das auf dem Host passieren würde).

Eine solche Anwendung setzt darüber hinaus geeignete Kommunikations- und Interaktionsfähigkeit zwischen Host- und PC-Software voraus. Auch diese Technologie ist heute verfügbar. Sie muß lediglich genutzt werden.