Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

25.08.2000 - 

Kapazitätsplanung von IT-Systemen

Wer braucht künftig was, und wieviel kostet es?

MÜNCHEN (jha) - Beim Ausbau einer IT-Infrastruktur gehen schnell einige Millionen Mark über den Ladentisch. Verständlich, dass die Verantwortlichen bei derartigen Summen feuchte Hände bekommen und sich gerne rückversichern, dass die Investitionen auch an den richtigen Stellen getätigt werden. Hinweise liefern Kapazitäts-Planungs-Verfahren, deren Einsatz allerdings wiederum aufwändig und teuer sein kann.

Wohl dem IT-Administrator, der eine Windows-Installation zu verantworten hat. Bei allen Problemen, die das Microsoft-Betriebssystem ansonsten mit sich bringt - im Bereich der Kapazitätsplanung und des Performance-Managements kann es sich der IT-Verantwortliche im Vergleich zu seinen Kollegen aus der Unix- und Mainframe-Welt recht leicht machen. Klemmt die Leistung an irgendeiner Stelle, wird einfach Hardware hinzugekauft.

"Nachschiebe-Mentalität" nennen Experten wie Klaus Hirsch diese Vorgehensweise. Der Kopf der Expertengruppe IT-Resource-Management innerhalb des Bereichs System-Integration bei Siemens Business Services (SBS) leitet ein Team, das im Kundenauftrag Schwachstellen und Engpässe in komplexen IT-Systemen aufspürt und Prognosen über den künftigen Ressourcenbedarf erstellt. NT-Kunden zählen selten zu seiner Klientel, eben wegen der besagten Nachschiebe-Mentalität. Denn die Beratungsleistung der SBS-Truppe kann durchaus einige zehntausend Mark kosten. Für NT-Maschinen rechnet sich ein derartiger Service häufig nicht - es sein denn, sie beherbergen unternehmenskritische Applikationen.

In der Regel laufen für das Kerngeschäft wichtige Applikationen jedoch in einer Unix- und Großrechnerumgebung, und diese Geräte wollen mit steigender Anwenderzahl und zunehmend intensiveren Nutzung regelmäßig aufgerüstet werden.

Dabei entscheiden die IT-Verantwortlichen über Beträge, die im Mainframe-Umfeld die Millionen-Mark-Grenze übersteigen. "Bei einer Hardwareaufrüstung reden wir über Summen im siebenstelligen Bereich", vermittelt Siegfried Globisch von R+V Versicherung einen Eindruck von den Investitionsvolumina. "Das dicke Ende kommt jedoch mit den Softwarekosten, die sich auf das Zehnfache der Ausgaben für die Hardware belaufen können", weiß der Messexperte, der bei dem Versicherungskonzern das Kapazitäts- und Performance-Management für die hausinternen Anwendungen betreut. Denn unabhängig davon, ob die auf dem Großrechner eingesetzten Tools von der Aufrüstung betroffen sind oder nicht: Der Lieferant hält aufgrund der CPU-abhängigen Lizenzierung die Hand auf.

Die Änderungen in der IT-Installation wollen demnach gut überlegt sein - doch auf Hilfestellung seitens der Hardwarehersteller können sich die Anwender nicht verlassen. Übereinstimmend stellen Globisch und Hirsch den für die Client-Server-Plattformen mitgelieferten Standard-Mess-Tools ein Armutszeugnis aus. Zwar sind diese Verfahren für ein Online-Monitoring ausgelegt. Sie liefern aber häufig nicht die präzisen Aussagen, die man sich wünscht.

Gerade aus Applikationssicht zeigen die Werkzeuge unübersehbare Schwächen. "Die Messsysteme stellen vielfach nur eine geringe Analogie zu den abgewickelten Geschäftsprozessen her", bemängelt SBS-Manager Hirsch. Dieser Zustand ist für den Spezialisten der R+V Globisch besonders ärgerlich, da bei der Versicherung das Kerngeschäft fast ausschließlich IT-basierend betrieben wird. Der Blick in die Applikationslogik bleibt den für die Qualitätssicherung verantwortlichen IT-Experten hingegen verwehrt. Für die Kapazitätsplanung müssen die IT-Administratoren daher auf andere Verfahren ausweichen.

"Über den dicken Daumen", so Hirsch und Globisch unisono, ist die einfachste, billigste aber auch ungenaueste Methode der Performance-Prognose. Sie kommt häufig bei IT-Systemen mit unkritischen Anwendungen zum Einsatz. Wenn dort etwa das Antwortzeitverhalten nicht mehr stimmt, werden zusätzliche Prozessoren und Hauptspeicher eingeschoben oder die Plattenkapazität erhöht, in der Hoffnung, die sich abzeichnenden Probleme damit zu beseitigen. Eine weitere relativ kostengünstige Möglichkeit ist der Rückgriff auf vorhandenen Erfahrungsschatz. Will der Anwender beispielsweise eine neue Anwendung einführen und hat eine ähnliche Applikation bereits im Haus, lässt sich aufgrund der Analogie zwischen neuer und vorhandener Anwendung der Ressourcenbedarf zumindest annähernd abschätzen.

Beide Methoden sind für unternehmenskritische Systeme mit hohem Stellenwert nicht empfehlenswert. Hier sind ausgefeiltere Ansätze gefragt, die aber allesamt eine gute Kenntnis der installierten DV sowie des aktuellen und erwarteten Nutzungsverhaltens voraussetzen. Gemeinsames Ziel der anspruchsvolleren Prognoseverfahren ist es, Engpässe und Überkapazitäten bei den zu tätigenden Hardwareinvestitionen gleichermaßen zu vermeiden. Letzteres kann sehr teuer werden und rechtfertigt unterm Strich die Aufwände für eine genauere Vorgehensweise.

Eine weit verbreitete, sehr effiziente Methode der vorausschauenden Planung ist die der analytischen Modellierung. Die dabei verwendeten Berechnungsverfahren müssen der Anforderung genügen, bei Änderungen der Last- und Hardwarestruktur zuverlässige Aussagen zum veränderten Systemverhalten zu liefern.

Um die Genauigkeit eines Modells zu kontrollieren, wird die Ist-Situation anhand von Messwerten erfasst und mit den Ergebnisdaten des analytischen Modells verglichen. Wenn die Auslastungswerte und das Antwortzeitverhalten des reellen und des nachgebildeten Systems übereinstimmen, ist der nächste Schritt fällig.

In Kenntnis der künftigen Nutzung lassen sich im Modell dann die Lastparameter variieren. Wenn die Fachabteilung beispielsweise weiß, dass künftig auf Applikation A 400 und auf die Applikation B 50 Anwender zugreifen werden, das Verhältnis bislang jedoch 200 zu 100 betrug, können solche Angaben bei der analytischen Modellierung berücksichtigt werden. "Es lassen sich Lastparameter verändern und Hardwarebausteine ersetzen, um die Leistungsfähigkeit zu modifizieren. So ergeben sich Aussagen darüber, wie die IT-Installation in einem halben oder einem Jahr auszusehen hat, damit sie mit dem prognostizierten Nutzungsaufkommen zurechtkommt", erläutert Hirsch.

Verfahren erfordern umfangreiches Know-howUnter der Leitung von Hirsch wird im Hause Siemens ein entsprechendes Produkt entwickelt und auch verkauft. Als Kunden kommen in erster Linie Firmen in Frage, für die es sich aufgrund der Größe der eigenen IT-Landschaft lohnt, "das Kapazitäts-Management von spezialisierten Mitarbeitern aus den eigenen Reihen vornehmen zu lassen", so der SBS-Manager. Meistens erledigen Hirsch und seine Mitarbeiter derartige Bedarfsprognosen als Dienstleister für solche Unternehmen. Denn der Umgang mit analytischen Modellierungsverfahren erfordert profundes Know-how, insbesondere aber auch die Kenntnis darüber, wann es notwendig wird, beispielsweise einen User-Benchmark den genannten Ansätzen vorzuziehen.

Bei der R+V Versicherung gibt es zwar einen Expertenstamm für die Kapazitätsplanung. Analytische Modelle kommen aber noch wenig zum Einsatz. Dort verwendet man für Last- und Performance-Tests von Anwendungen zunächst User-Benchmarks, ein Verfahren, das sich als eine synthetische Nachbildung eines definierten Lastaufkommens auf der Zielhardware, also einem realen System, beschreiben lässt. Um aussagekräftige Daten zu erhalten, sollte das Testsystem sämtliche repräsentative Datenbestände und vergleichbare Applikationen in einem funktionierenden Wirkungsgefüge umfassen.

Ein User-Benchmark ist zumeist kein Tagesgeschäft und kann sich zudem in Verbindung mit darauf aufbauenden Performance-Modellierungen laut R+V-Experte Globisch über einige Monate hinziehen. Die Dauer des Testszenarios und die Verwendung eines tatsächlichen Abbilds des Produktivsystems macht diese Form der Kapazitätsplanung zu einer teuren Variante, die aber laut Hirsch in der Regel sehr gute Ergebnisse liefert.

Doch bevor es so weit ist, müssen weitere Vorbereitungen getroffen werden, die sich in der Hirsch-Terminologie unter der Bezeichnung "Drehbuch" subsumieren lassen. Konkret heißt dies, dass Scripts erstellt werden, die die Tätigkeiten und Zugriffe der Benutzer auf das Produktivsystem nachbilden. "Analog dazu könnte man natürlich auch 1000 Benutzer mit Stoppuhr und persönlichem Ablaufplan vor ihre Terminals setzen, die nach einem definierten Muster Eingaben und Anfragen durchspielen", veranschaulicht Hirsch die Ablauflogik eines solchen Projekts.

Das Drehbuch entsteht in Zusammenarbeit mit den Fachabteilungen, denn die müssen die relevanten Geschäftsprozesse und die zuordenbaren Applikationen identifizieren und typische Anwendungsszenarien entwickeln. Sinn und Zweck des so erstellten Testablaufs ist aber nicht allein die möglichst genaue Abbildung der realen IT-Nutzung, sondern auch die Reproduzierbarkeit einzelner Lastsituationen unter veränderten Rahmenbedingungen. Denn die im User-Benchmark ermittelten Kenngrößen wie Antwortzeitverhalten, Ein- und Ausgabeverkehr sowie CPU-Belastung müssen sich einer definierten, nachgestellten Lastsituation zuordnen lassen. Ein wesentlicher Vorteil dieses Verfahrens ist zudem, dass es im Vergleich zum analytischen Modell Aussagen über ein mögliches, ansonsten nicht vorhersehbares Sperrverhalten von Applikationen und systemnaher Software liefern kann.

Eine Alternative, die man von Aussagekraft und Aufwand her zwischen analytischem Modell und User-Benchmark einordnen kann, sind simulative Verfahren. Hier werden die in einem realen IT-System ablaufenden Vorgänge nicht mehr durch Algorithmen, sondern durch analoge Modellereignisse nachvollzogen. Mit Simulationsmethoden können insbesondere statistische Werte in Bezug auf die untersuchten Leistungsgrößen gewonnen werden. Ein Beispiel hierfür sind so genannte Antwortzeitquantilen. Der Nachteil: Während die Berechnung eines analytische Modells wenige Sekunden benötigt, kann der gleiche Rechner bei der Simulation eines vergleichbaren Szenarios durchaus einige Tage mit seiner Rechenaufgabe beschäftigt sein.

Bei Hirsch und seinen Mitarbeitern kommt dieses Verfahren nicht zum Einsatz, und auch Globisch von der R+V Versicherung lehnt es ab, aus einem einfachen Grund: "Viel zu teuer", urteilt er, "das können sich nur Hersteller leisten." Hirsch schätzt, dass derartige Simulationen bis zu 50-mal teurer sein können als Berechnungen mit dem analytischen Modell.

Aus diesem Grund, aber auch weil die SBS-Experten sehr viel Erfahrung mit diesen Verfahren haben, nutzen Hirsch und seine Mitarbeiter in einer Vielzahl von Projekten zur Performance-Prognose die Vorgehensweise anhand des analytischen Modells, wie auch den User-Benchmark. Die Kapazitäts-Management-Mannschaft der R+V Versicherung verwendet hingegen zunächst einfache Formen von User-Benchmarks, wenn sie derartige Vorhaben stemmen wollen. In jedem Fall sind aber Produkte erforderlich, die die benötigten Messwerte in einer Mainframe- und Client-Server-Umgebung erheben. Zufrieden ist Globisch mit den Angeboten der Hersteller aber nicht.

Im Client-Server-Umfeld, so seine Kritik, liefern derartige Tools nur die Basisdaten des Systems, zwar besser aufbereitet, aber nicht detaillierter. Benutzerbezogene Messwerte fehlen zumeist völlig. Mess-Tools für den Großrechner und den Unix-Bereich tragen häufig die gleiche Bezeichnung, kommunizieren untereinander aber nicht.

Anwender formulieren ihre ForderungenDiese generell unbefriedigende Situation hat den SBS-Experten Hirsch veranlasst, zusammen mit einer Reihe von gleichgesinnten Partnern aktiv zu werden. Neben Kollegen aus diversen Siemens-Bereichen sind der Fachbereich Informatik der Universität Essen sowie ein mittelständisches Unternehmen beteiligt. Im Rahmen eines beim Bundesministerium für Bildung und Forschung (BMBF) und der DLR in Berlin verankerten Förderprojektes wird die Thematik des Kapazitäts-Managements in heterogenen, verteilten IT-Systemen unter die Lupe genommen und nach methodischen Lösungsansätzen gesucht, die für den IT-Anwender und-Betreiber in diesem Umfeld nützlich und hilfreich sind.

Auch Globisch hat gehandelt und diese Themen unter dem Dach der Central Europe Computer Measurement Group (CMG) in den Arbeitsgruppen "Messgrößen im Client-Server-Umfeld" sowie "Kapazitäts- und Performance-Management" aufgegriffen. Auf einer gemeinsam mit der Arbeitgruppe "Planung und Modellierung" geplanten Tagung Ende November in Münster sollen Forderungen an die Hersteller formuliert werden. Ob die mögliche Vorschläge aufgreifen werden, ist ungewiss. Zumindest möchte der R+V-Performance-Spezialist versuchen, dieses Thema auch auf europäischer Ebene der CMG zur Sprache zur bringen, um sich so Gehör bei den Anbietern zu verschaffen.

Abb.1: Performance-Prognose

Billige Kapazitätsplanungs-verfahren taugen allenfalls für unkritische Installationen. Quelle: SBS

Abb.2: Ressourcen-Planung

Um möglichst wenig Ressourcen zu verschenken sollten sich die Linien der Hardware-Kapazität und des Lastaufkommens möglichst annähern. Quelle: SBS

Abb.3: Das ausgewogene System

Ein effektiv designtes IT-System verkraftet hohe Lastsituationen unbeschadet und hält kaum brachliegende IT-Ressourcen vor. Quelle: SBS