Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

23.09.1988 - 

Ein wenig Vorsicht ist beim Einsatz der Daten aus Software-Monitoren geboten:

Netzwerk-Optimierung bereits im planerischen Umfeld

23.09.1988

Paul Hoffmann ist Geschäftsführer der Datakom Gesellschaft für Datenkommunikation mbH, Ismaning

Ein sorgfältig geplantes und optimiertes Datenleitungsnetz erspart unnötige Kosten, vermeidbaren Ärger und schützt weitgehend vor unliebsamen Überraschungen. Optimierung und Planung bedeuten aber auch den Status quo ermitteln. Woher aber diese Ist-Daten nehmen? Paul Hoffmann beschreibt praxiserprobte Vorgehensweisen.

Nicht selten besteht die Antwort auf die Frage "Wer kommuniziert im Unternehmen über Datenleitungen eigentlich mit wem und vor allem mit weichen Endgeräten wie lange und zu welchem Preis?" aus Schweigen, oder es folgen äußerst vage Schätzungen. Das Argument "Eine Befragung der Anwender oder Messungen bringen sowieso nichts, denn morgen ist ja ohnehin schon alles wieder anders!' ist zwar sehr beliebt, paßt aber mehr in die Glücksspielszene als in den DV-Bereich.

Dort belehrt man ja gerne den Anwender mit dem Spruch "Schlechter Input ergibt immer schlechten Output." Wer es nur einmal testet, wird erstaunt sein. Die Fragen "Mit welchen Endgeräten kommunizieren Sie wie oft? Wie lange? Zu welchem Zweck?" vermitteln dem Fragenden viele neue Erkenntnisse (und oft auch dem Befragten selbst). Ganz nebenbei taucht so manches "schwarze", "getarnte" oder einfach vergessene Equipment auf.

Als Datenkollektor können standardisierte Fragebögen eine wertvolle Hilfe sein. So entstehen aus diesen Rohdaten eine Datenbank und nützliche Kuchen- und sonstige Diagramme zum Thema Verkehrsströme heute und morgen. Mit etwas Geschick verfügt man so ganz nebenbei über eine Dokumentation, gegliedert nach Netzverbindungen und Kommunikationsbereichen.

Nach diesem Überblick lohnt es sich fast immer, die so gewonnenen Ergebnisse mit stichprobenartigen Messungen zu verifizieren. Wer ohnehin eine kontinuierliche Performance-Messung mit Hard- oder Software-Monitoren durchführt, ist an dieser Stelle besser dran und kann aus dem vollen schöpfen. Ein wenig Vorsicht ist beim Einsatz der Daten aus Software-Monitoren geboten.

Besonders im Host installierte Tools verschweigen gerne die für die Netzwerk-Optimierung so dringend erforderlichen Overhead-Anteile wie Polling, Modemumschaltzeiten, Blockwiederholungen auf fehlerhaften Leitungen, Verzögerungen durch private oder posteigene Multiplexer etc. Messungen direkt auf der Leitung sind dank der mit genauem Zeitstempel versehenen Userdaten und Protokollanteile oft aussagefähiger.

Dazu bieten sich Datenanalysatoren, im Idealfall mit Performance-Analyse-Funktionen, an. Geräte auf der Basis von Hard-/Software für PCs vereinfachen die Weiterverarbeitung nach dem "Einfangen" der Daten, da dies in jedem zum Beispiel DOS-kompatiblen PC geschehen kann.

In der Praxis kann das bedeuten, daß die Netzwerk-Troubleshooting-Gruppe, in Ausnahmefällen auch der mit einem portablen PC oder Laptop ausgerüstete Anwender (zum Beispiel wenn es sich um eine weit entfernte Remote Location handelt), während bestimmter Transaktionen Aufzeichnungen macht, die dann im Rahmen der Planung mit jedem beliebigen kompatiblen PC gesichtet und gegebenenfalls auch weiterverarbeitet werden.

Schon ein Blick auf einen solchen Overall Report, ganz abgesehen von den Detailinformationen, die ein gutes Performance-Tool liefert, zeigt rausgeworfenes Geld in Form von schlecht gefällten Leitungen, aber auch Engpässe und die meistens daraus resultierenden schlechten Antwortzeiten. Es ist immer wieder verblüffend, wieviele wertvolle Informationen sogar ein absoluter Laie erhält, wenn er zum Beispiel mehrere Traces mit ähnlichen Anwendungen und Übertragungsgeschwindigkeiten vergleicht.

Eine der Leitungen zeigt beispielsweise zu große Polling-Wait-Werte. Der falsch gesetzte Parameter im NCP (Programm zur Steuerung des Vorrechners) erklärt warum. Erschreckend hohe Polling-Latency-Ergebnisse entlarven die träge Steuereinheit des Herstellers XY, und ein in Zeitperioden gegliederter Utilisation-Schnappschuß macht zu lange Leitungsaufbauphasen transparent. "Tuning on the Job", könnte man das Ganze nennen, denn vielleicht wollte man eigentlich nur Ist-Daten für die Berechnung des günstigsten Weges durch den Leitungskostendschungel der Deutschen Bundespost sammeln und nicht unbedingt Schwachpunkte im Netz aufdecken.

Besonders für eine Gebührenberechnung und für die Auswahl des für die jeweilige Anwendung am besten geeigneten Postdienstes sind folgende Werte von Bedeutung: Durchschaltzeiten bei Wählleitungen (Leitungsauf- und -abbau), Transaktionszeit, Volumen der übertragenen Informationen. Für die Kapazitätsauslastung dagegen benötigt man beispielsweise Angaben über die Antwortzeit, Übertragungszeit oder Gerätebelegungszeit.

Bild 1 zeigt eine solche Anwendungsanalyse am Beispiel einer Stapelübertragung über das Datex-P-Netz, erstellt und gespeichert mit einem Anwendungsanalyse-Tool, das die Übernahme der Ergebnisse in ein Postleitungs-Gebührenprogramm (ebenfalls auf PCs lauffähig) ermöglicht. Auch während dieser Tätigkeit wird so manche Vermutung zur Gewißheit: "Ach ja, deshalb also hat unser Mitbewerb schon vor zwei Jahren von Postdienst A auf Postdienst B umgestellt. Die Durchschaltzeiten sind ja viel zu lang."

Und hoffentlich ergibt der nächste Schritt, die Gebührenberechnung, nicht auch noch, daß das Ganze, verglichen mit dem Postdienst B, viel zu teuer ist. Wo doch der eigene Chef ab und zu Direktor Meier vom Mitbewerb am Stammtisch trifft, an dem so gerne über die ständig steigenden Kosten diskutiert wird.

Gerade hat man sich an die vielen und im Vergleich zu den kurzen, prägnanten amerikanischen Bezeichnungen doch so umständlichen Begriffe wie etwa die zahlreichen Beschreibungen für ein Modem (Anschaltgerät, Fernschaltgerät, Basisbandgerät etc.) gewöhnt, plötzlich ist vieles wieder ganz anders bei der Post. Daneben brachte das neue Mammutwerk "Telekommunikationsordnung" (TKO) der deutschen Bundespost auch viele Veränderungen im Bereich der Kostenstrukturen.

TKO: Mehr als viele neue Begriffe

Wer da nicht weiß, was wann wie teuer ist oder wird, kann selbst, wenn das Datenleitungsnetz nicht sonderlich groß ist, leicht ein paar tausend Mark im Jahr verschenken. Warum die Methode "Never touch a running system" noch immer so viele Anhänger hat, wird einem erst dann richtig bewußt, wenn man einmal die bestehenden Leitungsverbindungen per Hand oder mit dem Taschenrechner gemäß der TKO für das Heute und für die darauffolgenden Jahre in tagelanger Kleinarbeit durchgerechnet hat, um das Ganze dann ein paar Tage, Wochen oder Monate später mit neuen Gebührenwerten noch einmal von vorne zu beginnen.

Auch hier kann ein "Werkzeug" wertvolle Hilfestellung geben. Bild 2 erläutert den Aufbau eines Gebührenberechnungsprogramms für öffentliche Datennetze. Die in Form von Dateien gespeicherten festen Werte wie die Entfernungen zwischen zwei Anschaltpunkten mit unterschiedlicher Ortsnetzkennzahl, die Gebührendateien für die verschiedenen Postdienste, vervollständigt mit den eigenen Eingaben der Netztopologie, der Datenmengen und der Benutzungszeiten, resultieren in archivierbaren Verbindungs- und Ergebnisdateien.

Einmal gespeicherte Verbindungen oder ganze Netze können so in Sekundenschnelle mit unterschiedlichen Gebührenständen oder diversen Postdiensten wie festgeschalteten Leitungen (HfD), Datex-P, ISDN etc. neu kalkuliert werden. Auch hier kann als "Abfallprodukt" sozusagen eine Dokumentation für öffentliche Leitungen entstehen, die alle Angaben inklusive Fernmeldenummer, interner Rechnungs- oder Kostenstellennummer, Bezeichnung der Anwendung, Leitungsgeschwindigkeit, Art des Postdienstes, Art und Bezeichnung der angemieteten Modems, Netzknoten etc. enthält. Und Antwort auf die Frage "Was ist denn das nun wieder für ein TKO-Begriff? gibt der PC auch noch.

Für die Planung und Optimierung von lokalen Netzen gelten etwas andere "Spielregeln" als im WAN-Bereich. Vieles vom vorstehend Gesagten hat jedoch auch hier uneingeschränkt Gültigkeit, allem voran die Ist-Analyse mit anschließender Verifizierung der Daten, die man durch Befragung und/oder mittels Studium eventuell vorhandener, wahrscheinlich aber veralteter Dokumentation gesammelt hat. An die Stelle von Analyse-Tools für serielle WAN-Schnittstellen treten hier lediglich Performance-Monitore für Ethernet, Token Ring oder sonstige Verbindungen.