Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

04.08.2000 - 

Network-Services

Den Qualitätsanspruch in Bahnen lenken

Quality of Services (QoS) wird zum Gebot der Stunde. Kunden, die Kommunikationsdienste beziehen, fordern sie von ihren Lieferanten ein. Die Anbieter müssen sie wiederum kontrollieren und sich entsprechende Management-Werkzeuge ins Haus holen. Berthold Wesseler* hat sich in diesem Markt umgeschaut. Er beschreibt Anforderungen und Angebote.

Die 13. Jahrestagung der Central Europe Computer Measurement Group (Cecmg) untermauert die Bedeutung der Quality of Services: "Gerade beim Aufbau von E-Business-Infrastrukturen spielen Systemeigenschaften wie Zuverlässigkeit, Sicherheit, Performance und Verfügbarkeit wieder die Hauptrolle", erläutert Cecmg-Vorstandssprecher Wolfram Greis die zunehmende Rezentralisierung insbesondere bei den Management-Funktionen. Das allein reicht jedoch nicht. "E-Business-Applikationen unterscheiden sich in ihren Verwaltungsanforderungen deutlich von unternehmensinternen Anwendungen", macht Ovum-Analyst Craig Wentworth auf ein bisher unterschätztes Problemfeld aufmerksam.

Der Coautor der Studie "Service Management for E-Business Applications" weist auf die Komplexität hin, die dadurch entsteht, dass meist viele Unternehmen in eine E-Business-Applikation und sogar in eine einzige Transaktion involviert sind. Das führe zu Management-Szenarien, die sowohl auf der Service- als auch auf der Anwendungsebene den Willen zur Zusammenarbeit zwischen den Partnern erfordere. "Auf diese unternehmensübergreifende Kooperation sind die Werkzeughersteller nicht vorbereitet", so ein ernüchterndes Fazit aus Wentworths Studie.

"Die größten Herausforderungen ergeben sich im Extranet-Umfeld, weil sich die dort angesiedelten Ressourcen dem Zugriff des eigenen IT-Managements entziehen", erklärt Michael Santifaller, Vorstand der Santix AG, Unterschleißheim. "Ein direkter Zugriff auf Endgeräte des Geschäftspartners ist ja meist nicht möglich." Die Implementierung von unternehmensübergreifenden Kontrollmechanismen bedingt eine Kommunikation der Management-Agenten über die Firewalls hinweg, ohne dass dadurch Sicherheitslücken entstehen. Die Kommunikationsfähigkeit der unterschiedlichen Management-Systeme wird dabei stillschweigend vorausgesetzt, ist aber in der Regel nicht implementiert.

Diese Trends führen zu einem Umdenken im System-Management. Neu ist laut Unternehmensberater Jürgen Suppan von Comconsult in Aachen vor allem die vollständige Konzentration auf das eigentliche Kernziel jeder Management-Lösung, "die Sicherstellung einer definierten Qualität und Leistung am Arbeitsplatz des Benutzers". Die logische Konsequenz, so Suppan auf dem letzten Netzwerk- und System-Management-Forum der Comconsult-Akademie: "Netzwerk- und System-Management wandeln sich damit vom komplizierten Werkzeug zur zielorientierten Servicelösung".

Diesen Trend haben mittlerweile auch einige Dienstleister aufgegriffen. Sie versprechen, geschäftsprozessorientierte Services im Kundenauftrag auf ihre Einhaltung zu überwachen. Ein Beispiel für ein derartiges Serviceunternehmen ist die Firma Clariteam. "Heute werden Service-Level-Agreements aus der Perspektive des Providers gemessen, in Zukunft wird dies aus der Sicht der Anwender geschehen", erläutert Nikolas Kourim, Präsident und CIO bei Clariteam.

SLAs werden vereinbart, aber nicht kontrolliertAusgereifte Werkzeuge für ein Service-Level-Management (SLM) gibt es zwar im Server- und Mainframe-Umfeld, in Kommunikationsnetzen sind sie jedoch Mangelware. Das Fehlen von solchen Tools rührt daher, dass das SLM in lokalen Netzen bislang nicht erforderlich war. Wird das Intranet jedoch über den LAN-Bereich hinweg auf externe Netze ausgedehnt, fallen Kosten an, die nur durch konsequentes SLM und verursachergerechte Verrechnung in den Griff zu bekommen sind.

Die Problematik machte jetzt eine Umfrage des Marktforschungsinstituts IDC unter 300 europäischen Großunternehmen deutlich: Zwar haben 87 Prozent der befragten Firmen Service-Level-Agreements etabliert, doch nur 35 Prozent messen auch deren Einhaltung. Die Situation verschärft sich, weil für die Application-Service-Provider (ASPs) und E-Commerce-Anbieter, aber auch für unternehmensweite virtuelle private Netze (VPNs) die Gesetze des Internet-Zeitalters gelten: Geschwindigkeit in der Umsetzung neuer Anforderungen ist oberstes Gebot, Fehler dürfen dennoch nicht vorkommen.

Für Kundenzufriedenheit und Kundenbindung muss der Anbieter stets auf dem aktuellen Stand der Technik sein und selbstverständlich den vereinbarten oder eingekauften Servicegrad in Form von Antwortzeiten, Verfügbarkeit, Durchsatz und ähnlichen Messgrößen gewährleisten. Jeder Kunde beziehungsweise Fachbereich kann im Prinzip individuelle Service-Levels vereinbaren, je nach Anspruch in puncto Sicherheit, Verfügbarkeit und Performance - und natürlich abhängig vom Preis, den er dafür zu zahlen bereit ist.

Wirtschaftlich lässt sich indes eine solche Umgebung nur dann betreiben, wenn nicht mehr Service bereitgestellt als bezahlt wird. Also wird ein Regelkreis von Kapazitätsplanung über Performance-Management bis hin zur Verrechnung beziehungsweise Verhandlung neuer Services oder Service-Levels notwendig. Aufwendig wird der Regelkreis dann, wenn zeit-, standort- oder kundenabhängig unterschiedliche Servicequalitäten vereinbart werden. Die Anforderungen steigen etwa, wenn Kunden saisonal oder am Wochenende geringere Verfügbarkeiten oder Antwortzeiten benötigen als an normalen Werktagen und diese in gesonderten und natürlich günstigeren Leistungsvereinbarungen festhalten wollen.

Kleine, dynamische Anbieter wie Bluetail, Ganymede, INS (mittlerweile von Lucent gekauft), Micromuse oder Netcare haben den daraus resultierenden Bedarf an Werkzeugen laut Comconsult-Manager Suppan rechtzeitig erkannt. Hersteller wie Computer Associates (CA), Hewlett-Packard (HP) und Tivoli ziehen mit ihren mächtigen Management-Suites zumindest in diesem Bereich den Kürzeren.

Aber auch Marktgrößen schlafen natürlich nicht. Candle (beispielsweise mit dem "EBA Servicemonitor") und Compuware (mit den "ECO-Tools") haben bereits reagiert, und BMC Software hat mit dem Kauf von BGS Systems ausgefeilte Analyse- und Simulationstechnologien erworben, die jetzt in die Patrol-Suite integriert werden. Sie dürften vor allem auch der "Intelligenz" der Agenten zugute kommen.

Der Data-Warehouse-Anbieter SAS Institute, einer der Pioniere des Service-Level-Managements für Mainframe- und Client-Server-Systeme, hat eine erweiterte Version von "IT Service Vision" vorgestellt, um die Verfügbarkeit von Web-Diensten rund um die Uhr zu garantieren. Dabei werden sämtliche Performance- und Auslastungsdaten der eingesetzten Web-Server in ein Data Warehouse überspielt. In Kombination mit der Candle-Lösung und anderen Tools liefert das SAS-Produkt exakte Informationen über die Auslastung der Server. So lassen sich Engpässe im Datenverkehr erkennen und analysieren - eine wesentliche Voraussetzung dafür, wachsende Anforderungen an Bandbreite und Server-Kapazität rechtzeitig zu planen und ein Service-Level-Management zu betreiben.

Doch zurzeit haben gerade beim SLM noch die Newcomer die Nase vorn. So eroberte sich die Ettlinger Geyer & Weinig GmbH, eine seit Firmengründung 1989 auf Standardsoftware für den Einsatz in großen heterogenen Netzwerkumgebungen spezialisierte Technologieschmiede, mit "GW-Tel Infra-XS" die Marktführerschaft bei kundenorientiertem SLM, auch dank der Integrationsfähigkeit des Produkts in System-Management-Frameworks.

Als Alternative zu solchen Werkzeugen empfiehlt Santix-Vorstand Santifaller die - allerdings aufwändige - Instrumentierung. Das heißt: Schon bei der Anwendungsentwicklung werden Überwachungsfunktionen eingebaut, die später im Betrieb Daten über den Zustand liefern. Die Computer Measurement Group hat für diesen Zweck das Standard Application Response Monitoring (ARM) entwickelt, das die Qualität und Interpretationsfähigkeit der Messdaten sicher- stellt.

Noch läuft die "ARMierung" von Anwendungen und Tools nur schleppend, die Stand-alone-Tools beherrschen die Szene. So will auch die Ratinger Firma Sitara Networks die Qualität von Netzdiensten mit separaten, einfach zu bedienenden All-in-one-Produkten sichern helfen. Dazu lassen sich mehrere QoS-Tools wie Policy-Management, Web-Caching, Anwendungsklassifizierung, Datenverkehrs-Überwachung und -Management in einer Lösung kombinieren. Der Hauptvorteil: Die Tools wenden automatisch auf jeden Datenverkehrstyp das geeignete QoS-Werkzeug an und erhöhen so Anwendungsleistung und Bandbreitenausnutzung.

Micromuse, Spezialist für SLM in Kommunikationsnetzen, hat seine Produktlinie "Netcool" speziell auf die Sammlung und Koordinierung von Ereignisinformationen aus heterogenen Netzwerk-Management-Umgebungen ausgerichtet. Die Software basiert auf einem Objekt-Server als speicherresidente aktive Datenbank, die Ereignisse aus mehr als 150 Management-Systemen sammelt und in Echtzeit darstellt.

"Trinity" von B&M Europe erlaubt dank so genannter Business-Service-Views das Service-Management von E-Business-Systemen. Dabei verfügt B&M durch eine Partnerschaft mit Visual Networks auch über Agenten für OS/390-Mainframes und Web-Server. Ein Olap-basiertes Reporting (Online Analytical Processing) hilft beim Abgleich zwischen SLAs und der realen Performance, so dass Handlungsbedarf direkt offensichtlich wird.

Noch einen Schritt weiter geht Fortel. Der Hersteller liefert drei für den Schnellstart in den Anwendungsfeldern Web-Hosting, Online-Store und B-to-B-Commerce vorkonfigurierte Applikationen der Service-Level-Assurance-Suite "Sightline". Dabei sind die wichtigsten Service-Level-Indikatoren mit Schwellwerten, automatisierter Korrelation beziehungsweise Ursachenforschung bei Abweichungen vorkonfiguriert.

Speziell dem Bandbreiten-Management der Netzwerke hat sich die Firma Packeteer mit der "Packetshaper"-Familie gewidmet, die die Verkehrsmuster analysiert, Antwortzeiten misst und Policy-basierende Bandbreitenverteilungen sowie SLA implementiert. Um im Fall der Fälle den Servicegrad sicherzustellen, begrenzt Packeteer die Netzkapazität für andere, weniger wichtige Applikationen. Entsprechende Reports dokumentieren das Verhalten der Applikationen.

Im Mai haben die Performance-Spezialisten von Netscout Systems ihre Produktlinie "Ngenius" vorgestellt. Sie soll Administratoren einen vollständigen Überblick über die gesamte Infrastruktur liefern. Schon länger am Markt ist die "E-Health"-Suite von Concord Communications. Die Sammlung umfasst vier Tools für das Service-, Anwendungs-, System- und Netzwerk-Management und erlaubt damit Einblicke in Leistung und Antwortzeiten von E-Business-Systemen. Anhand von End-User-Angaben wertet "Service Health" die Verfügbarkeit der Applikationen und die Laufzeiten von Anfragen aus. Anfang Juli gesellte sich "Live Health" dazu. Diese Software erkennt und diagnostiziert die Auswirkungen von Fehlern und potenziellen Ausfällen im Netzwerk sowie von so genannten Brownouts (sehr langsam arbeitenden Systemen oder Anwendungen).

Dem spezialisierten Ansatz der Newcomer treten die Etablierten der Branche mit Kombinationen entgegen. So vertritt CA die Meinung, sowohl hoch integrierte Komplettlösungen wie "Unicenter TNG" als auch gezielte, integrationsfähige Punktlösungen seien erforderlich. CA beliefert diesen Markt mit dem Werkzeug "Network IT 2.0", das aktuell um zwei Optionen erweitert wurde. Der "Quality of Service Manager" und der "Service Level Manager" sollen dabei helfen, im Rahmen entsprechender Verträge garantierte Netzwerk- und Application-Service-Levels bereitzustellen. Der QoS-Manager dient dazu, die IP-Bandbreiten effizient zu verwalten und kritischen Netzverkehr mit Priorität durchzuschleusen. Die SLM-Option erlaubt es dem Administrator, mit Hilfe Web-basierter Tools alle Ressourcen, die gemeinsam einen Service für einen bestimmten Kunden erbringen, zu definieren, zu überwachen und zu steuern.

Branchengrößen setzen auf KombinationenAuch Hewlett-Packard erweitert jetzt das "HP-Openview"-Portfolio um neue Funktionen für das Service-Management. Dazu wurden Allianzen mit Dirig Software, Fastlane Technologies und Keynote Systems angekündigt. Man erweiterte aber auch "HP Openview Vantagepoint" so, dass es den Anwender über die Ursachen von Verzögerungen im Internet informiert. Der Ansatz: Simulierte und echte Verzögerungszeiten werden mit Infrastrukturinformationen zu einer Transaktions-Management-Plattform mit gemeinsamer Schnittstelle, Konfiguration und Datenhaltung kombiniert.

Nicht zuletzt hat Tivoli mit "Service Desk" als Schlüsselkomponente die bisherige "Customer Service Assurance" der IBM-Tochter erweitert. Die Software erlaubt nun die Abstimmung von SLAs auf Geschäftsprozesse und betriebsspezifische Anforderungen. Das Hauptaugenmerk liegt dabei auf der Unterstützung von Unternehmen bei der Darstellung und Kontrolle von Service-Level-Verträgen. Integriert werden jetzt die Komponenten Problem-, Asset- und Change-Management.

Genau wie die Global-Player im System-Management entwickeln auch die Hersteller von Netzkomponenten wie Cisco Systems, 3Com oder Cabletron ihre Netz-Management-Tools in Richtung QoS-Management. So hat jetzt Lucent mit dem Release 7.1 der "Vitalsuite" das BusinessTransaction-Management-System (BTMS) vorgestellt, um kundenspezifische Geschäftsabläufe sowie die Aktivität des Netzes und der darin laufenden Anwendungen zu definieren, zu identifizieren und aufzuzeichnen. Das funktioniert auch für Geschäftsprozesse zwischen unterschiedlichen Unternehmen. Mit "Vitalagent" verfolgt der Anwender eine Transaktion vom Browser über die gesamte Netzinfrastruktur bis zum Bestimmungspunkt im anderen Unternehmen und zurück.

Da kann Nortel nicht zurückstehen. Gemeinsam mit Microsoft entwarfen die Kanadier eine Lösung, die Quality of Services in IP-Netzen garantiert. Allerdings ist das Gemeinschaftsprodukt auf homogene Windows-2000-Netze beschränkt. Dort überträgt die Kombination aus Nortels "Optivity Policy Services", Microsofts Windows 2000 sowie "Netmeeting" Sprache, Bilder und auch Daten mit einer garantierten Qualität und einer Zuverlässigkeit, die man bisher nur von reinen Telefonnetzen kannte.

Doch eine Homogenität in der Netz- und Systemlandschaft gibt es selten. Für die Anwender ist es unabdingbar, Herstellerangebote genau unter die Lupe zu nehmen und Trends früh zu erahnen. Idealerweise geschieht dies, bevor die Management-Strategien in Software gegossen sind. Ein wenig Trost spendet Comconsult-Experte Suppan: Im Zuge des Trends zum Service-Level-Management werde sich die Komplexität heutiger Framework-basierender Systeme verringern, so sein fester Glaube.

*Berthold Wesseler ist freier Journalist in Brühl/Rheinland.

Abb.1: Das Verfahren

Für das Service-Level-Management werden definierte Parameter über den gesamten Weg einer IT-Infrastruktur aufgenommen. Auswertung und Präsentation erfolgen an einer zentralen Konsole. Quelle: Wesseler

Abb.2: Service-Level-Management

Die interne Qualitätssicherung der IT-Infrastruktur scheitert oftmals an inneren Strukturen und durch den Mangel an Fachkräften. Quelle: IDC