Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

22.02.2002 - 

Differenzierung über Management-Funktionen

Intel-Systeme mit Mainframe-Attributen

MÜNCHEN (kf) - Unter dem Oberbegriff "Autonomic Computing" sollen bislang vorrangig Mainframe-typische Attribute wie Hochverfügbarkeit, Manageability und Sicherheit nun auch das Segment Intel-basierender Server aufwerten. Was nach einem Qualitätssprung klingt, ist nach Meinung von Experten jedoch eher eine inkrementelle Verbesserung.

Als nächste große Herausforderung an die IT-Industrie hat IBM im vergangenen Jahr anlässlich der Vorstellung seines Forschungsprojekts Eliza die Entwicklung von Systemen definiert, die sich ohne menschliches Eingreifen weitgehend im Alleingang betreuen. Hervorgerufen werde der Bedarf an Servern, die sich selbst konfigurieren, heilen, optimieren und schützen, insbesondere von der stetig wachsenden Zahl an Systemen sowie der zunehmenden Unfähigkeit des IT-Personals, derartiger Mammutszenarien Herr zu werden. Zwar gehören Selbstheilungsmechanismen laut Gartner derzeit noch nicht zu den von den Firmen priorisierten Systemzutaten, dennoch, so die Marktexperten, wird deren Bedeutung bis zum Jahr 2006 zunehmen. Innerhalb dieses Zeitraums würden nicht nur die Kosten für das IT-Know-how in Sachen Systembetreuung explodieren, angesichts der wachsenden Komplexität in den Rechenzentren sei auch eine Steigerung der durchschnittlichen System-Downtime zu erwarten. Nimmt sich IBMs Eliza-Projekt zunächst eher als Versuch aus, sich von Wettbewerbern wie Sun, HP, Compaq und Microsoft abzugrenzen, so beinhaltet es nach Meinung der Marktforscher doch genügend Potenzial, um in etwa zwei Jahren Kaufentscheidungen zu beeinflussen.

Senkung der IT-Personalkosten"Unsere Intel-Server müssen schon allein deshalb absolut zuverlässig sein, weil sie mit unseren Midrange- und Großrechnersystemen verbunden sind", erklärt Tikiri Wanduragala, Senior Server Consultant Emea für IBMs Intel-basierende "E-Server X-Series". Mit mehr Rechenleistung könne man die zumeist gut ausgestatteten Kunden heute kaum noch locken, wohl aber mit Vorrichtungen, die dazu beitragen, die Personalkosten zu senken. "Wenn es gelingt, den Power-Überschuss in den Maschinen dahingehend zu nutzen, die Anforderungen an das teure Know-how etwa in Sachen Wartung zu reduzieren, dann entsteht dem Kunden ein enormer Vorteil", behauptet der IBM-Consultant.

Mit einem Seitenhieb insbesondere gegen Dell haben die Armonker im Januar neue Selbst-Management-Technologien angekündigt, die ihre E-Server X-Series in Sachen Betriebskosten sowie Ausfallsicherheit über die Wettbewerbsprodukte heben sollen. Bezugnehmend auf Benchmark-Daten von Gartner will IBM diesbezüglich eine 80-prozentige Überlegenheit der hauseigenen PC-Server gegenüber vergleichbaren Dell-Systemen ermittelt haben. Verantwortlich für diesen Vorsprung sind Firmenangaben zufolge eine Reihe von Technologien, die den Eliza-Forschungslabors des Herstellers entsprungen sind.

Zu den so genannten Self-Protecting-Funktionen der X-Series zählt IBM die altbekannte, auf Hardwareebene realisierte Predictive Failure Analysis (PFA), einen Frühwarnmechanismus, der periodische Messungen sowohl an Festplatten, Netzteilen und Lüftern als auch an Prozessoren und Hauptspeichern vornimmt. Wird der definierte Grenzwert einer dieser Komponenten überschritten, schickt dieser eine Warnung, die einen Austausch noch vor dem Ausfall ermöglichen soll. Eine mögliche Serviceoption: Anstatt an den Systemadministrator geht die Warnung direkt an Big Blue, Servicetechniker tauschen die ausfallverdächtige Komponente dann innerhalb einer Stunde aus. Unter der Kategorie Selbstheilung ordnet IBM den "Integrated System Management Processor" (ISMP) ein. Als "Rechner im Rechner" übernimmt der Chip die kontinuierliche Systemüberwachung und informiert über potenzielle Schwachstellen oder Veränderungen. Darüber hinaus weist der ISMP im Zusammenspiel mit der System-Management-Software "IBM Director 3.1" auf Probleme etwa in Sachen Temperatur und Stromspannung hin. Auch das Konfigurations-Management soll er durch Fähigkeiten wie Remote-Firmware-Updates, Remote Power Control sowie den Automatic Server Restart (ASR) erleichtern. IBMs "Light Path Diagnostics" wiederum weist dem Techniker via LED schnell den Weg zur schwächelnden Komponente. Zudem sollen sich Schlüsselkomponenten wie PCI- und PCI-X-Adapter, Festplattentreiber, Netzteile und Lüfter während des Server-Betriebs wechseln oder hinzufügen lassen.

Compaq: Verwaltung der GesamtinfrastrukturAber Big Blues Konkurrenz schläft nicht und bietet - allerdings mit etwas leiseren Tönen - in vieler Hinsicht Vergleichbares. Compaqs im Dezember 2001 vorgestellte "Adaptive Infrastructure" umfasst vier Kernbereiche: Sie beinhaltet ferngesteuertes Monitoring, Funktionen für die rasche Implementierung von Applikations- und Infrastruktur-Servern, einen intelligenten Fehlertoleranz- und Frühwarnmechanismus sowie die dynamische Zuteilung und Skalierung von Server-Ressourcen.

Nach Angaben von Gartner befinden sich bei Compaqs Ansatz viele Elemente noch im Frühstadium. Auch lasse sich die Adaptive Infrastructure nur schrittweise umsetzen, da sie Veränderungen sowohl auf Hard- und Software- als auch auf Administrationsebene erfordere. "Bei der Adaptive Infrastructure handelt es sich nicht in erster Linie um den einzelnen Server, der ausfallsicher konzipiert wurde, sondern um die automatisierte Verwaltung der Gesamtinfrastruktur", beschreibt Compaq-Unternehmenssprecher Herbert Wenk. Management und Flexibilisierung der Hardware-Infrastruktur sei die dahinter stehende Idee. "Für den Manager draußen müssen etwa 250 Einzelsysteme genauso einfach zu handhaben sein wie ein Rechenzentrum mit 250 virtuellen Unix-Systemen", so der Compaq-Sprecher. Zu den bereits verfügbaren Funktionen zählt der bekannte "Remote-Insight-Lights-Out"-Prozessor, der ähnlich wie IBMs ISMP im Zusammenspiel mit der Compaq-Insight-Manager-Software die Monitoring-Funktion übernimmt. Firmenangaben zufolge erlaubt die im Jahr 2000 eingeführte Lights-Out-Technik die Systemkontrolle via Fernzugriff über einen Standard-Web-Browser - unabhängig vom Zustand des Betriebssystems oder des Servers selbst. Das Server-Blade-Konzept eröffnet laut Wenk weitere Ansatzmöglichkeiten für Adaptive-Infrastructure-Funktionen. So ist beispielsweise die erweiterte Lights-Out-Technik bei den Ende Januar vorgestellten, speziell auf Compaqs Adaptive Computing ausgelegten Server-Blades bereits in die Hardware integriert, was zusätzliche Fähigkeiten in Sachen virtuelle Präsenz und Management ermöglichen soll.

Für HP stellt das Server-Selbst-Management eine komplette Lösungsstrategie im Highend-Umfeld dar. Hinter dem "Always-on"-Konzept des Herstellers stecken Komplettpakete aus Hardware, Software und Support- beziehungsweise Hochverfügbarkeitsverträgen. Erklärte Priorität im Intel-Server-Bereich hat auch für HP das Monitoring und zwar überall dort, wo Mechanik im Spiel ist - etwa Harddisks, Netzteile oder Lüfter.

Redundanz alias SelbstheilungDie HP-Software "Top-Tools" visualisiert die aus der kontinuierlichen Komponentenüberwachung generierten Befindlichkeitsprotokolle für den Administrator, der die Informationen am Server-Front-Panel abrufen, sich diese mit Hilfe der "Top-Tools-Remote-Control"-Karte aber auch per E-Mail, SMS oder Pager zuschicken lassen kann. Wie IBM und Compaq bietet HP an, die Hardwareüberwachung im Kundenauftrag zu übernehmen.

Nach Meinung von Markus Hoffmann, HP-Produkt-Manager für Intel-Server, läuft der so genannte Selbstheilungsprozess jedoch nach wie vor auf eine sehr hohe Redundanz hinaus. "Dabei kann man sich natürlich streiten, ob es sich dann noch um ein einzelnes System oder ein geclustertes System im System handelt", gibt der HP-Manager zu bedenken. Grundsätzlich wolle man als Unix-Anbieter schon allein in Anbetracht der nächsten Itanium-Generation im Intel-Umfeld ähnliche Szenarien schaffen wie im Unix-Segment. Garantierte Verfügbarkeit für Intel-Server verspricht HPs rein hardwarebasierende Lösung "Assured Availability". Hierbei arbeiten vier jeweils redundant ausgelegte Server als virtuelles Array zusammen, deren 100-prozentig synchrones Arbeiten laut Hoffmann jegliche Failover-Time vermeidet. Assured Availability sei zwar eine Hochverfügbarkeitslösung, als Selbstheilungprozess per se sei dies allerdings noch nicht zu bezeichnen, relativiert der HP-Manager.

Dells Open-Manage-PortfolioDell hat sein entsprechendes Angebot unter dem Namen "Open Manage" zusammengefasst. "Einen zusätzlichen schicken Programmnamen gibt es nicht", erklärt Susanne Schütz, Produkt-Managerin bei Dell. Zu den Funktionen gehört der "Open Manage Server Assistant", der die automatische Erkennung der Server-Konfiguration sowie die Betriebssystem-Installation enthält. Die Systemüberwachung übernimmt der "IT-Assistant", über Unpässlichkeiten wird der Administrator per E-Mail, Pager oder SMS informiert. Auf Hardwareebene sollen Dell-Server über Frühwarnsysteme sowie redundante, hot-plug-fähige Netzteile, Lüfter und Festplatten verfügen, aber auch Funktionen zur Online-Diagnose bieten. Anders als beim Wettbewerb handele es sich bei Dells Angebot nicht um ein "Zukunftskonzept mit geschätzten Daten", stichelt Schütz gegen Konkurrent IBM. Vieles sei bereits implementiert, und das, was derzeit erwiesenermaßen funktioniere, werde auch von Dell-Tools abgedeckt.

Abweichend vom Selbstlob der Hersteller handelt es sich nach Meinung von Experten bei den diesbezüglichen Ankündigungen eher um eine schrittweise Qualitätsverbesserung als um einen revolutionären Durchbruch. "Ich halte das nicht für einen großen Industrietrend, sondern für eine normale, qualitative Fortentwicklung", kommentiert Unternehmensberater Henrik Klagges. Spannend sei diese, weil sie einen Teil des allgemeinen Industrietrends hin zu Intel-Servern darstelle. "Das ist die nächste Bastion, in der PC-Server besser werden, wodurch sich aber auch der Abstand zu einem Unix-System weiter verringert."

Die geballte Konzentration auf den Intel-Server-Bereich begründet er zudem mit der aktuellen Wirtschaftslage. "Viele Unternehmen, die SAP-Rechenzentren betreiben, stehen unter Kostendruck", erklärt Klagges. Viele große Server müssten derzeit kleineren und preiswerteren Intel-Systemen weichen. Nach Meinung des Beraters versuchen die Hersteller, sich in diesem Massenmarkt mittels Sonder-Tools zu differenzieren. "Ansonsten sind Intel-Server ja so vergleichbar wie Kartoffeln mit Kartoffeln", erläutert Klagges. Und wenn das Kilo bei Dell billiger sei, dann kaufe man eben dort.