Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

25.04.2003 - 

Server-Strategien/Selbstverwaltungsfunktionen als Kostenkiller beim IT-Betrieb

Server auf dem Weg in die Autonomie

MÜNCHEN (CW) - Der anhaltende Druck auf das IT-Budget hat bei vielen DV-Verantwortlichen den Fokus auf die Reduzierung der Betriebskosten gelenkt. Eine Vielzahl von Produkten und Konzepten unter dem Stichwort "Autonomic Computing" sollen den Systembetrieb vereinfachen und stärker automatisieren.Von Frank Reichart*

Als Vorbild für das autonome Computing dient die automatische Reaktion eines lebenden Organismus auf Veränderungen in der Umwelt. Übertragen auf die Informationstechnik bedeutet dies die Entwicklung von Funktionen, die Systemen die Selbstverwaltung ermöglichen. Das umfasst zum einen die "Selbstkonfigurierung", sprich: die automatische Anpassung einer Konfiguration an sich verändernde Anforderungen, und die "Selbstoptimierung", die die automatische bedarfsgerechte Anpassung der Systemressourcen in unternehmensweiten Netzen vorsieht. Im Zuge der "Selbstheilung" wiederum werden Fehler in Eigenregie erkannt und korrigiert, während Systeme mit so genannten Selbstschutzfunktionen den Ressourcenzugriff kontrollieren und unberechtigten Zugriffen vorbauen.

Neue Funktionen

Primäres Ziel des autonomen Computing ist, die Anzahl manueller Eingriffe zu reduzieren, um damit den IT-Betrieb effizienter zu gestalten. Die entsprechenden Konzepte haben viele Namen - unter anderem Eliza (IBM), N1 (Sun Microsystems) oder Sysframe (Fujitsu-Siemens Computers). Handelte es sich dabei anfangs teilweise noch um alten Wein in neuen Schläuchen, sind inzwischen erste Ergebnisse tatsächlicher Neuentwicklungen verfügbar geworden.

Neben Neuerungen zum automatisierten Systembetrieb (Autonomic Systems) werden in einer zweiten Stufe auch selbstverwaltende Konfigurationen angeboten (Autonomic Infrastructures), die über die Ebene des Einzelsystems hinausgehen. Im Klartext handelt es sich dabei um im Labor vorgetestete Konfigurationen aus Servern, Storage, Connectivity und Middleware für bestimmte Anwendungsbereiche mit der Zielsetzung, die Betriebskosten - beispielsweise einer SAP- oder Microsoft-Exchange-Infrastruktur - zu senken. Da-raus entstehen Blaupausen inklusive Dimensionierungs- und Installationsanleitungen, die eine schnelle Implementierung ermöglichen.

Folgende Beispiele zeigen einige typische Einsatzgebiete von Funktionen für das autonome Computing.

Die Selbstkonfigurierung

Speziell im Bereich großer und wachsender Server-Farmen ist die effiziente Installation zusätzlicher Systeme bei steigenden Lastanforderungen ein wichtiges Thema geworden. Im Hinblick auf die Hardware diente die Blade-Server-Technologie als Lösung. Diese Architektur hat zudem einen Schub an Tools hervorgebracht, mit denen die zentral gesteuerte Betankung eines Rechnerknotens mit einer Softwarekonfiguration möglich wird. Der nächste Schritt ist nun, die Installation zusätzlicher Rechnerknoten automatisch auszulösen, wenn Lastspitzen auftreten. Das lässt sich mit Hilfe von sich selbst regulierenden Konfigurationen erreichen. Ein Beispiel: Die Lastverteilungssoftware einer Citrix-Terminal-Server-Farm, basierend auf Blade-Servern, stellt fest, dass zu viele Anwender auf bestehende Ressourcen zugreifen. Über ein Deployment-Tool wird die Installation weiterer Server-Blades ausgelöst, die daraufhin in den Lastverbund aufgenommen werden.

Im Gegensatz zu Server-Farmen in der Frontend-Tier des Rechenzentrums wird die Selbstkonfigurierung bei großen Risc-basierenden Unix-Servern innerhalb des Systems realisiert. Benötigt eine Anwendung mehr Ressourcen, lassen sich diese über dynamische Partitionierung im laufenden Betrieb bereitstellen. Auch zusätzliche Prozessoren können auf diese Weise aktiviert werden.

Die Selbstoptimierung

Eindeutiger Verbesserungsbedarf in der IT-Infrastruktur besteht hinsichtlich der Server-Auslastung. Ein Daumenwert besagt, dass durchschnittlich 40 Prozent aller eingesetzten Systeme nicht ausgelastet werden. Ein typisches Beispiel aus der Praxis sind SAP-Installationen: Für SAP-Services werden meist dedizierte Server verwendet, die jeweils auf Spitzenlasten ausgelegt sind. Das hat zur Folge, dass viele Ressourcen nur selten genutzt werden oder gar brachliegen. Mit Hilfe selbstoptimierender Konfigurationen lassen sich diesbezüglich Kosteneinsparungen von bis zu 60 Prozent erzielen. Grundprinzip hierbei ist, einen SAP-Service erst dann zu starten, wenn er tatsächlich gebraucht wird - und zwar dynamisch auf einer beliebigen freien Hardwareressource. Eine Kontrollinstanz überwacht, welche SAP-Services benötigt werden.

Wurde ein aktuell benötigter Dienst noch nicht gestartet oder reichen die bisherigen Ressourcen dafür nicht mehr aus, wird ein zusätzlicher Server aktiviert. Dieser bootet von einem Network-Attached-Storage-(NAS-)System, auf dem sich auch die SAP-Software befindet, das Betriebssystem und startet danach den Service. Ebenso werden nicht mehr benötigte Server wieder deaktiviert. Als Datenbanksysteme eignen sich Intel- oder Risc-Unix-Maschinen, während Intel-basierende (Blade-) Server unter Linux als Plattform für die Kontrollinstanz und die SAP-Services dienen. Der Vorteil einer autonomen Infrastruktur liegt in der drastischen Reduktion nicht ausgelasteter Server (selbstoptimierend), sowie in vereinfachter Installation (selbstkonfigurierend) und einem vereinfachten Betrieb. Willkommener Nebeneffekt ist das gleichzeitige Plus an Verfügbarkeit: Wenn ein Knoten ausfällt, wird der Service automatisch auf einem anderen Knoten neu gestartet (selbstheilend).

Ressourcenoptimierung im System

Während die Ressourcenoptimierung bei Intel-Servern durch so genannte Scale-out-Konzeptionen, sprich: das Hinzufügen von Rechnerknoten, gelöst wird, bieten Unix-Enterprise-Server umfassende Optimierungsfunktionen innerhalb eines Systems. Ein möglicher Ansatz ist die physikalische Partitionierung. Dabei stellt jede Partition einen eigenständigen Server mit eigener Betriebssystem-Instanz dar. Da die einzelnen Partitionen "wasserdicht" voneinander abgeschottet sind, ist das Gesamtsystem sehr robust und hochverfügbar. Die Administration der Partitionen erfolgt von einem Punkt aus. Mit Hilfe einer dynamischen Partitionierung und Rekonfiguration können System-Boards oder Teile davon von einer Partition in die andere verlagert werden. Auf diese Weise lassen sich Ressourcen dort bereitstellen, wo sie gerade benötigt werden.

Darüber hinaus stehen Ressource-Management-Tools zur Verfügung, die freie Ressourcen etwa eines Servers oder einer Partition optimieren. Anwendungen teilen sich diese Ressourcen (Sharing), wobei die Nutzung beispielsweise von Prozessorzyklen und Hauptspeicher garantiert werden kann. Die Zuweisung von Ressourcen an die jeweilige Applikation erfolgt im laufenden Betrieb - nach vordefinierten Richtlinien oder situationsabhängig dynamisch.

Nicht nur im Rechenzentrum, sondern auch im Endanwenderbereich wurden hinsichtlich des autonomen Computing Fortschritte erzielt. Deutlich wird das am Beispiel Mobile Computing: Immer mehr Anwender greifen über mobile Endgeräte drahtlos auf Mail-Systeme oder betriebswirtschaftliche Anwendungen wie Auftragsabwicklung und Customer-Relationship-Management zu. Die typischen Probleme: Bei Endgeräten, die unterschiedliche Verbindungstechniken - etwa GSM, WLAN oder GPRS - unterstützen, soll die hinsichtlich Kosten und verfügbarer Bandbreite jeweils günstigste Technik zum Tragen kommen. Ebenso ist die Benutzeroberfläche der Zielanwendung an die Display-Größe des Notebooks, PDA oder Tablet-PC anzupassen. Mittlerweile gibt es Lösungen, bei denen die optimale Verbindung automatisch ausgewählt wird. Auch Software-Tools zur automatischen Anpassung der Benutzeroberfläche sind inzwischen verfügbar.

Die Selbstheilung

Bei bestimmten Anwendungen reichen die Hochverfügbarkeitsfunktionen einzelner Systeme jedoch nicht aus. Selbst der kurzzeitige Ausfall einer Komponente in einer Datenbankkonfiguration kann eine längere Unterbrechung in der Verfügbarkeit zur Folge haben, da die Applikation für die Wiederherstellung eines konsistenten Zustands eventuell mehrere Stunden benötigt. Eine Autonomic Infrastructure kann das vermeiden. Zu diesem Zweck werden Rechner im Cluster-Verbund, redundante Verbindungen zwischen Server und Speicher sowie die Spiegelung der Daten auf zwei unabhängigen Storage-Systemen - gesteuert über eine spezielle Software - zu einer ausfallsicheren Umgebung kombiniert. Ist eine zuvor schwächelnde Komponente wieder verfügbar, so wird die Redundanz automatisch wiederhergestellt. (kf)

*Frank Reichart ist Director Marketing Enterprise Products Operation bei Fujitsu-Siemens Computers in Bad Homburg.

Angeklickt

- Der Zwang, die Betriebskosten zu senken, hat IT-Hersteller dazu motiviert, Konzepte und Produkte für das autonome Computing zu entwickeln.

- Erste Funktionen für Server und Speichersysteme - etwa Selbstkonfigurierung, -optimierung, -heilung und -schutz - sind bereits verfügbar.

- Einsatzgebiete beschränken sich nicht auf das Rechenzentrum, sondern umfassen mittlerweile auch den Endanwenderbereich.

- In einem zweiten Schritt entwickelte, sich selbst verwaltende, vorgetestete und dokumentierte Konfigurationen bieten weitere Einsparpotenziale.

Abb: Selbstoptimierendes SAP-System

Quelle: Fujitsu-Siemens Computers (FSC)