Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

06.09.1991 - 

Eindämmung von Unterhaltskosten als ein Hauptziel

Große Netze erfordern ein wirkungsvolles Analysewerkzeug

Vor kurzem reichten noch herkömmliche Diagnosegeräte aus, um die sensiblen Punkte eines Netzwerkes zu testen. Die Informationslandschaft in den Unternehmen hat sich jedoch geändert und ist dabei, immer komplexere Formen anzunehmen. Dadurch ergeben sich auch neue Anforderungen an das Netzwerk-Management.

Längst ist an die Stelle eines Herstellersystems ein heterogener Informationsverbund getreten, dessen Systemteile über eine Vielzahl unterschiedlicher Protokolle ineinandergreifen. Selbst auf der physikalischen Ebene hat sich einiges gewandelt. Hier geht es zusehends darum, verschiedene Topologien wie Ring, Bus und Stern zusammenzuführen, will man flexibel auf die Vorzüge des jeweils geeigneten Mediums zurückgreifen.

Hardware ist keine unbegrenzte Ressource

Hat sich die Vorgehensweise der Unternehmen bisher vorrangig auf die Installation der geeigneten Rechner und Kommunikationsstrukturen konzentriert, muß es jetzt verstärkt darum gehen, diese Investitionen zu schützen und das gesamte Netzwerk unter dem Aspekt des Kosten-Leistungs-Verhältnisses zu betreiben. Der stetige Preisverfall auf der Hardwareseite mag viele Verantwortliche dazu verleitet haben, Rechner und Peripherie als unbegrenzte Ressource zu betrachten.

Jetzt gilt es für den Netz-Manager, eine Vielzahl an Diensten zu integrieren sowie vielfältige Kommunikationswege zu schaffen. Diese Entwicklung belastet das Unternehmensbudget stark, insbesondere dann, wenn es um den Einsatz eines Weitverkehrsnetzes geht und teure Bandbreiten in Anspruch genommen werden müssen. In dieser Konstellation sind es nicht mehr nur die Einstiegsinvestitionen, die sich auf das Budget auswirken. In den Vordergrund rücken zusehends die ständigen Kosten, die durch den Betrieb des Netzwerkes entstehen, und damit im Umkehrschluß auch die Kosten, die der Ausfall des Netzwerkes mit sich bringt. Nach einer Studie von Infonet aus den USA wurden in unternehmensweiten US-Netzen 1990 im Durchschnitt jeweils 23,6 Netzwerkausfälle registriert. Auf das Jahr umgerechnet, entsprach das einer Ausfallzeit von nahezu sechs Prozent. Dies ist eine erschreckende Zahl, bedenkt man, daß in den 1000 größten US-Unternehmen ein einstündiger Netzwerkausfall rund 30 000 Dollar an entgangener Produktivität ausmacht. Oft sind es Protokollfehler, fehlerhafte Anwendungen oder überlastete Leitungswege, die nicht nur das Teilnetz in die Knie zwingen. Da die einzelnen Segmente des Netzwerkes heute zumeist über Brücken gekoppelt sind - also nur ein logisches Netzwerk besteht -, ziehen Fehler in kurzer Zeit Kreise, und schnell ist das gesamte Netzwerk betroffen. Aber nicht nur die direkten Kosten des Netzausfalls gilt es zu bedenken. In einem Markt, in dem die Unternehmen auf die schnelle Informationsweitergabe zwischen den einzelnen Abteilungen und Niederlassungen angewiesen sind, ist jeder längere Zusammenbruch des Netzes auch ein erheblicher Wettbewerbsnachteil. Der Netzausfall bringt die Kosten und Nachteile offen zu Tage. Weniger offensichtlich ist bei laufendem Betrieb die permanente Vergeudung von Bandbreiten sowie der Kapazitätsverlust in den Rechnern durch fehlerhafte Anwendungen und Protokolle.

Die Meinung, daß, solange das Netzwerk laufe, alle Protokolle und Anwendungen optimal aufeinander abgestimmt seien, muß neu überdacht werden. Heute noch tolerierte Protokoll- und Anwendungsfehler könnte das Netzwerk bei einer weiteren Expansion schnell "krumm nehmen". Die Behebung der Fehler kann dann um so aufwendiger sein; im schlimmsten Fall stellt sich die Art der Erweiterung sogar als Sackgasse heraus.

Die frühzeitige Kenntnis der Schwachstellen hätte hingegen zu einem besser durchdachten Planungsprozeß und damit zu einer zukunftssicheren Installation geführt. Ähnlich gravierend kann sich die unnötige Vergeudung von Leitungswegen auswirken. Leider ist heute noch die teure Bandbreite allzuoft Ursache für ineffektive Anwendungen und Protokolle.

Der Verfahrensweg, solchen Engpässen mit dem Zukauf von Bandbreiten und dem Einsatz zusätzlicher Brücken, Router oder Server zu begegnen mag durchaus eine - wenn auch teure - Alternative sein. Die genaue Kenntnis über Leitung und das Wissen um die Transferrate und Dateninhalte könnten in vielen Fällen dazu verhelfen, die Investitionen zu optimieren und zudem den Blick für zukünftige Netzerweiterungen zu schärfen. Auch kann sich die Unkenntnis über die tatsächlichen Übertragungsmengen mittel- und langfristig als Zeitbombe erweisen. Konsequenzen hat dies beispielsweise dann, wenn man zur Koppelung der Teilnetze weiterhin Brücken einsetzt, anstatt das Gesamtnetz mit Routern in logische Teilnetze zu trennen und die Übertragungslast lokal zu halten. Mit dem Einsatz von Router-Systemen könnte der Broadcast in den lokalen Segmenten gehalten, wesentliche Bandbreiten an den Verbindungsstellen im Netzwerk eingespart und damit das Risiko eines Broadcast-Sturms vermieden werden.

Vor allem die Fähigkeit, das exakte Wissen um die Vorgänge im Netz für zukünftige Erweiterungen zu nutzen, kann nicht hoch genug eingeschätzt werden. Das Wissen um die Transferrate an den Schnittstellen heute ist der Garant für wirkungsvolle, kostensparende und sichere Verbindungen für morgen. Darüber hinaus wird es für den Netzwerkbetreiber mit der Vielzahl der Protokolle immer dringlicher, die einzelnen Verarbeitungsprozesse sowie deren Auswirkungen auf die Netzwerkkomponenten zu verfolgen, um so die einzelnen Netzteile auf den unterschiedlichen Ebenen wirkungsvoll zusammenzuführen.

Die bloße Kenntnis der Auswirkungen im jeweiligen Teilnetz ist hier nicht mehr ausreichend. Der Netzverantwortliche muß, falls erforderlich, den Verarbeitungsprozessen auf allen Schichten des Netzwerkes und bis jenseits des Postnetzes folgen können. Nur so ist er in der Lage den eigentlichen Fehlerursachen auf die Spur zu kommen. Die Entwickler von Netzwerkanalyse-Systemen haben diese Notwendigkeit bereits erkannt und bieten mittlerweile leistungsfähige Systeme am Markt.

Insbesondere der Sniffer von Network General, ein Analysesystem, das alle sieben Schichten des Netzwerks untersucht, leistet gute Dienste. Sniffer-Überwachungs- und -Analysesysteme sind für die gängigen LAN-Versionen wie Ethernet, Token Ring, Localtalk und Arcnet verfügbar. Die Funktionalität des Sniffer schließt darüber hinaus die simultane Analyse von Weitverkehrsverbindungen mit ein. Die weltweit wohl größte Bibliothek von 120 Protokollen gewährleistet, daß dabei kein maßgebliches Protokoll unerkannt bleibt. Damit selbst in komplexen Netzwerken der Überblick nie verlorengeht und in der Zentrale nur die aussagekräftigen Informationen auflaufen, stehen mittlerweile verteilte Analysesysteme wie Distributed Sniffer zur Verfügung. Jedes Segment wird durch Anschluß eines Servers permanent überwacht und analysiert. Sozusagen hautnah am Krisenherd zu sein und trotzdem von der Schaltzentrale aus das gesamte Netzwerk zu überwachen, das gilt als Devise für die Zukunft.