Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Viele Probleme werden erst durch Management-Systeme verursacht


08.01.1993 - 

Verwaltung heterogener Netze ueberfordert Netz und Anwender

Die Installation heterogener Netze ist ohne Zweifel in den letzten Jahren einfacher geworden - sie werden also entsprechend oft verkauft und eingesetzt. Dem oftmals verbluefften Anwender zeigt sich allerdings erst beim Betrieb der Systeme, welchen zusaetzlichen Aufwand er sich "erkauft" hat. Die Verwaltung sowie Erhaltung der Betriebsbereitschaft verlangen oft schon bei einem Netz mittlerer Groessenordnung ein erhebliches Mass an Aufwand.

Dies erweist sich vor allem fuer kleinere und mittlere Unternehmen als problematisch, die sich entsprechend ausgebildetes Fachpersonal nicht leisten koennen. Aber auch hier wissen die Hersteller von Netzwerken schnelle Abhilfe; kaum ein Anbieter, der nicht ein leistungsfaehiges, einfach zu bedienendes sowie absolut problemloses Netzwerk-Management-System in seinem Produktportfolio fuehrt und bei dessen Einsatz die Loesung aller Probleme verspricht.

Management-Loesungen sind unabdingbar

Soweit die Werbeprospekte. In der Tat ist es heute so, dass schon ein mittleres Netz nicht mehr sinnvoll ohne eine entsprechende Management-Loesung betrieben werden kann. Allerdings ergeben sich durch den Einsatz dieses "Problemloesers" haeufig auch neue Schwierigkeiten. Um diese zu beschreiben, ist zunaechst einmal die Frage nach dem Aufbau eines Netzwerk-Management-Systems zu stellen.

Prinzipiell lassen sich drei Bereiche identifizieren: Zunaechst einmal muessen in den einzelnen Netzkomponenten kleine Softwaremodule implementiert sein, die die Funktion dieser Komponente ueberwachen und steuern sowie statistische Daten sammeln. Dies betrifft jede einzelne an der Datenuebertragung beteiligte Hardware, also nicht nur Endgeraete und Grossrechner, sondern auch Geraete wie Sternkoppler, Ringleitungsverteiler, Modems etc. Je mehr dieser Komponenten mit Softwaremodulen - auch Agents genannt - ausgestattet sind, um so lueckenloser ist das Bild der Arbeitssituation des Netzes.

Die Leistungsfaehigkeit der Agents ist je nach System unterschiedlich. So sind diese oftmals passiv, das heisst sie koennen Fehler zwar erkennen, aber nichts zu ihrer Behebung unternehmen. Da die Agents in den einzelnen Endgeraeten untergebracht sind, muss fuer den Netzadministrator eine koordinierte Kommunikations-Moeglichkeit geschaffen werden. Dabei ist eine Oberflaeche zweckmaessig, die die Moeglichkeit bietet, die Informationen mehrerer Agents zu verdichten und gleichzeitig darzustellen. Dies fuehrt dazu, dass in jedem Management-System auch ein "Front-end", die sogenannte Management-Station, enthalten ist. Damit nun Front-end und Agent miteinander kommunizieren koennen, bedarf es eines gemeinsamen Mediums; in der Regel ist dies das zu verwaltende Netz.

Tritt ein Totalausfall ein, faellt dann allerdings auch das Netzwerk-Management-System aus. Manche Systeme bieten fuer derartige Katastrophenfaelle Hilfsmoeglichkeiten, etwa die Einwahl ueber ein Modem, an, andere nutzen gar ein eigenes Netz fuer die Uebertragung der Management-Informationen. Betrachtet man den Systemaufbau, so ist festzustellen, dass hier zunaechst ein "ganz normales" Kommunikationssystem vorhanden ist, mit allen bekannten Problemen - vor allem in puncto Kompatibilitaet. Leider ist es heute noch nicht so, dass ein Front-end des Herstellers X mit einem Agent des Herstellers Y ueber ein Protokoll des Anbieters Z kommunizieren kann. Vielmehr haben wir es mit einer Anzahl von Standards zu tun, und zwar koennen nur Systeme, die auf der Basis desselben Standards arbeiten, miteinander kommunizieren.

Noch immer fehlt ein einheitlicher Standard

Natuerlich hat sich auch hier wiederum eine Menge herstellerspezifische Standards gebildet, und die grossen, internationalen Normierungsgremien haben obendrein nichts unversucht gelassen, die DV-Welt mit ihren eigenen Standards zu begluecken. Mittlerweile haben sicherlich viele dieser Standards an Bedeutung verloren; vor allem hat aber ein "positiver Konzentrationstrend" eingesetzt. Denn wie immer, wenn viele Standards existieren, gibt es in Wirklichkeit keinen Standard.

Da ist zum einen Netview von IBM. Dieser urspruenglich hausinterne Standard wurde offengelegt und wird heute auch von Drittanbietern unterstuetzt. Er hat seine Wurzeln eindeutig in der Grossrechnerwelt und ist auch heute noch primaer in diesem Umfeld anzusiedeln. Im Hinblick auf das - neuerdings auch von Big Blue - unterstuetzte Peer-to-peer-Networking sowie den von der IBM forcierten Token Ring wird Netview jedoch auch im PC-Bereich zunehmen interessant - zumindest in Konfigurationen mit einem IBM-Host.

Eine weitere, im Markt im verbreitetere Loesung ist das Simple Network Management Protocol (SNMP). Dieser De-facto- Industriestandard enthaelt Vorgaben, die es ermoeglichen sollen, dass beliebige Front-ends mit beliebigen Agents kommunizieren koennen. Leider gibt es zwischenzeitlich eine Menge herstellerspezifischer Erweiterungen zu SNMP, so dass eine uneingeschraenkte Kommunikationsfaehigkeit nicht immer gegeben ist. Darueber hinaus ist SNMP kein sehr leistungsfaehiges Protokoll, den darauf aufbauenden Systemen sind daher naturgemaess Grenzen gesetzt. Dennoch bietet SNMP derzeit die wohl besten Integrationsmoeglichkeiten fuer heterogene Systeme, insbesondere im Unix-Bereich.

SNMP soll in absehbarer Zeit vom OSI-Managementmodell CMIP (Common Management Information Protocol) der Internationalen Standardisierungsorganisation ISO abgeloest werden. Waehrend SNMP nur geringe Moeglichkeiten speziell, fuer die Netzwerksteuerung bietet, verfuegt das ISO-Protokoll ueber sehr umfassende Moeglichkeiten. Insgesamt bietet CMIP ein erhebliches Mehr an Leistungsfaehigkeit. Allerdings sind Systeme auf CMIP-Basis derzeit so gut wie nicht verfuegbar. Erste Implementierungen entstehen, aber bis zu einer wirklichen Verbreitung werden die Anwender noch einige Jahre warten muessen. Abzuwarten bleibt ferner die Akzeptanz der Norm. Gegenwaertig ist das ISO-Protokoll leider nur eine von vielen Alternativen, die weitere Inkompatibilitaeten beschert.

Die Frage, was an solchen Systemen zu kritisieren ist, muss jedoch auch grundlegend gestellt werden. Ist es nicht als ueberaus positiv zu betrachten, Management-Systeme verschiedener Hersteller nutzen zu koennen? Jedes spezialisiert auf seinen Einsatzzweck? Klingt es nicht merkwuerdig, hier fuer ein kleineres und ueberschaubareres Angebot zu plaedieren?

Management-System für den globalen Ueberblick

Die erste Antwort heisst zunaechst uneingeschraenkt: Ja. Um diesen scheinbaren Widerspruch aufzuklaeren, muss man zur Ausgangsproblematik fuer den Einsatz von Management-Systemen zurueckkehren. Da lautet die Definition ganz eindeutig: Sie sollen den Netzadministrator bei der Verwaltung des Netzes unterstuetzen, seine Arbeit schneller und fehlerfreier gestalten sowie die Analyse von Netzproblemen aktiv unterstuetzen. Dies alles bei moeglichst geringen (negativen) Auswirkungen auf das Netz.

Der Netzadministrator sollte einen moeglichst globalen Ueberblick ueber das gesamte Netz haben. Neben aktuellen Messdaten ueber den Netzzustand (zum Beispiel Auslastung) geht es dabei auch um grundsaetzliche, hauptsaechlich konstante Informationen. Dazu zaehlen beispielsweise die Hardware- und Softwarekonfigurationen der Geraete sowie die physikalische Struktur des Netzes. All diese Informationen sollten aktuell einheitlich (konsistent) und leicht zugaenglich sein. Dabei ist es von Vorteil, wenn das Netzwerk- Management-System eigenstaendig Informationen filtern und analysieren kann, so dass der Administrator von entsprechenden Routinearbeiten entlastet wird.

Ein weiteres Argument fuer die Notwendigkeit eines globalen Ueberblicks ist die Netzwerkplanung. Gerade hier ist es erforderlich, Informationen ueber saemtliche Teilkomponenten zu besitzen, da nur so moegliche Alternativen durchdacht werden koennen. Eine aehnliche Situation ist bei der Konsistenz der Management-Informationen gegeben. Auch hier ist letztlich eine ganzheitliche Betrachtungsweise gefordert, da die Erfassung und Bereitstellung der Management-Informationen typischerweise im Front-end-Bereich erfolgt, wobei das Abspeicherungsformat fuer die Datenbasis im Regelfall nicht genormt ist. Ein Datenaustausch zwischen verschiedenen Formaten ist also nicht oder nur unter grossem Aufwand moeglich.

Muessen unterschiedliche Datenbasen unterhalten werden, so ist deren Integritaet hochgradig gefaehrdet. Beim (manuellen) Abgleich der Datenbasen werden Informationen falsch oder gar nicht erfasst. Haeufig ist es so, dass nur Teile der eigentlich erfassbaren Informationen hinterlegt werden, um beim Erfassungs- und Pflegeaufwand zu sparen. Eine solche Entscheidung bietet darueber hinaus als positiven Nebeneffekt eine bessere Konsistenz (weil weniger Redundanz), wird aber mit einem geringeren Informationsgehalt erkauft.

Zurueck zur Ausgangsfrage: Weshalb bedeuten aus Sicht des Administrators weniger Standards mehr? Die Antwort ist nun relativ einfach. Zielsetzung des Administrators ist eine ganzheitliche Sicht. Je mehr unterschiedliche Systeme vorhanden sind, um so eingeschraenkter wird aber die Faehigkeit zum Ueberblick. Informationen koennen nicht mehr gemeinsam angezeigt und analysiert, mehrere Datenbasen muessen gefuehrt werden. Je mehr Teilsysteme aber eingesetzt werden, um so geringer wird deren Nutzen bis hin zu einer Situation, in der der direkte Anwendungsvorteil vom erforderlichen Verwaltungsaufwand uebertroffen wird - eine Konstellation, die immer haeufiger in der Praxis zu beobachten ist.

Doch damit nicht genug der Argumente. Man muss in diesem Zusammenhang nur die zweite Kernanforderung an ein Netzwerk- Management-System betrachten, naemlich die einer moeglichst geringen (negativenAuswirkung auf das Netz selbst. Dabei muss sich der Betrachter ins Gedaechtnis zurueckrufen, dass jede Kontrollfunktion den Prozess, den sie ueberwacht, auch gleichzeitig beeinflusst.

In der Praxis werden die Management-Informationen im Regelfall auf dem zu verwaltenden Netz transportiert. Das System benoetigt also selbst einen Teil der Uebertragungskapazitaet des Netzes. Das Nachrichtenaufkommen ist zwar einerseits so gestaltet, dass eine Leistungsminderung nicht spuerbar wird, beziehungsweise auch objektiv nicht auftritt, zu beachten ist allerdings auch, dass mit Zunahme der ueberwachten Komponenten auch die Menge der zu uebertragenden Verwaltungsinformationen oft auch ueberproportional ueberhandnimmt. Gleiches gilt fuer haeufige Aktualisierungen, fuer die immer ein Preis in Form von Uebertragungskapazitaet zu entrichten ist. In Extremfaellen mit vielen zu verwaltenden Komponenten und haeufigem Datenaustausch kann es daher vorkommen, dass die gesamte Uebertragungskapazitaet des Netzes nur fuer das Netzwerk-Management- System benutzt wird.

Endgeraete mit zu wenig Speicherkapazitaet

Entsprechende Faelle von Beeinflussung lassen sich aber nicht nur in bezug auf das Netz selbst aufzeigen. Ein in der Praxis ebenso haeufig auftretendes Problem liegt in der Nutzung der Endgeraeteressourcen. Die dort implementierten Agents sind Software - Programme, die Ressourcen, vor allem Rechenzeit und Hauptspeicher benoetigen. Das wiederum ist problematisch fuer viele Endgeraete, vor allem fuer die PCs. Eine der heute "kritischsten" Ressourcen ist das "Conventional Memory", das heisst die unmittelbar adressierbaren 640 KB des unteren Hauptspeicherbereiches. Bedenkt man, dass zum Beispiel ein SNMP- Agent durchaus zwischen 50 und 100 KB dieser Rechnerkapazitaet beanspruchen kann, wird die Problematik deutlich.

Will man auf einem PC mehrere Agents einsetzen, sind die Anforderungen an den Hauptspeicher entsprechend zu erhoehen. Hier wird nun in der Praxis bereits haeufig eine Grenze erreicht, ab der der sinnvolle Betrieb des PCs nicht mehr moeglich ist, da die Agents weite Teile des Conventional Memory belegen, so dass eine technische Betriebsbereitschaft nicht mehr gegeben ist.

Im Lichte dieser Beeinflussungsfaktoren gilt es also, nochmals die Forderung nach Verringerung der Protokollvielfalt zu betrachten. Viele Protokolle bedingen quasi zwangslaeufig ein Ansteigen der zu uebertragenden Verwaltungsinformationen. Ausserdem muessen in den Endgeraeten mehrere Agents eingesetzt werden. Wenngleich sich bei geschickter Planung auch beide Effekte abschwaechen lassen, zeigt sich dennoch, dass sich die Protokollvielfalt gegenueber der urspruenglichen Forderung nach geringer Beeinflussung des Netzes durch das Netzwerk-Management- System kontraproduktiv verhaelt.

Hersteller fuerchten eine Standardisierung

Zusammenfassend laesst sich also festhalten, dass die Reduzierung der Vielfalt an Loesungen sowohl aus Sicht des Administrators als auch aus rein technischer Sicht wuenschenswert waere. Denn die Spezialisierung heutiger Systeme auf bestimmte Teilbereiche bedeutet in Wirklichkeit Inkompatibilitaet und fuehrt somit zu den beschriebenen Problemen. Die Verfuegbarkeit eines allgemein akzeptierten Systemes laege somit sicherlich im Interesse vieler Anwender.

Letztlich auch im Interesse der Hersteller, wird doch der sinnvolle Einsatz von Netwzerk-Management-Systemen sehr oft durch die genannten Schwierigkeiten be- und verhindert. Leider gibt es immer noch eine Reihe von Herstellern, die dies offensichtlich anders sehen. Standardisierung bedeutet eben eine gewisse, grundsaetzliche Austauschbarkeit und wird daher von vielen Herstellern auch heute noch gefuerchtet.

Was bleibt nun aber dem Anwender, der heute nach einer Problemloesung sucht? In dieser Situation kann momentan nur das Ausweichen auf integrierende Systeme empfohlen werden. Dies gilt in besonderem Masse fuer den Front-end-Bereich. Ein gutes integrierendes Front-end-System kann sehr viele der oben angesprochenen Probleme loesen, selbst unterschiedliche Systemansaetze auf den ersten Blick als einheitlich erscheinen lassen. Mit der unterschiedlichen Leistungsfaehigkeit der Einzelkomponenten konfrontiert, wird dem Netzadministrator jedoch in der taeglichen Praxis sehr schnell bewusst werden, dass er mit unterschiedlichen

Systemen arbeitet.

Daher ist es eine wichtige und notwendige Aufgabe des Administrators, die Anzahl der unterschiedlichen Protokolle und Systeme in seinem Verantwortungsbereich auf das absolut notwendige Mindestmass zu reduzieren.

An diesem Punkt laesst sich dann auch der Bogen zu den Herstellern schliessen. Tritt die Standardkonformitaet immer haeufiger im Pflichtenheft der Administratoren auf, werden auch die Hersteller umdenken muessen.

* Rainer Gerhards ist Leiter des Rechenzentrums und Benutzerservice der Doerries GmbH, Dueren, und Partner der KLV Unternehmensberatung und Softwareentwicklung GmbH, Koeln.