Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

05.08.1988

Der Anwender hat künftig mehr AuswahlmöglichkeitenTrends beim Test-Equipment: Der PC ist auf dem Vormarsch

Der Markt der traditionellen Datenanalysatoren ist im Umbruch: Grund sind auch hier die PCs, vor allem deren neue Generation, die preiswerte und multifunktionale Test-Werkzeuge ermöglichen. Paul Hoffmann zeigt den Trend auf und skizziert anhand einiger Beispiele die Einsatzmöglichkeiten der Kraftzwerge.

Es gibt sie noch, die gute alte V.24-Schnittstelle, obwohl neuere Standards wie X.21, V.35/V.36, der So-Bus des ISDN-Konzepts oder aber die vielen Direct-Connections von Endgeräten an gelbe oder andersfarbige LAN-Kabel sie immer mehr verdrängen. Was für die Anwender Vorteile bringt, etwa höhere Geschwindigkeiten, kann für die mit der Installation oder der Entstörung des Netzes verantwortlichen Techniker zum echten Problem werden. Dann taucht nämlich die Frage auf: Welches Meßgerät für welchen Problemfall muß ich zur richtigen Zeit an der richtigen Stelle parat haben?

Gegen Ende der 60er Jahre kam zum ersten Mal ein Gerät auf den Markt, das die Vorgänge auf Datenleitungen, damals meist V.24- Verbindungen, auf einem von der Größe her gesehen gewaltigen Bildschirm dargestellt hat. Übertragungsdaten inklusive der sonst für den Anwender unsichtbaren Steuercodes wurden damit transparent gemacht. Eine Aussage über den Zustand der Schnittstellensignale gab es damals jedoch nur in Form von Leuchtanzeigen. Datascope, so nannte sich das ganze sinngemäß, wog mehr als 20 Kilogramm und sah aus wie ein zu groß geratener tragbarer Fernseher.

Neue Leistungsmerkmale führen zum Datenanalysator

Später waren solche Geräte nur noch halb so "gewichtig" und mit zusätzlichen Leistungen ausgestattet. Eingebaute Aufzeichnungsgeräte (Band oder Diskette), aber auch Programmlogik zur Fehlersuche unter Programmkontrolle sowie zum Simulationsbetrieb kamen hinzu. Daher stammt auch die heute noch verwendete Bezeichnung Datenanalysator beziehungsweise -simulator oder gar beides.

Zwei Dinge allerdings waren es vor allem die den Anwender damals und bei einigen Produkten auch heute noch stören:

Zum einen der hohe Preis. Die Skala reicht von 10 000 Mark für einen komfortablen Monitor bis hin zu 100 000 Mark für einen programmierbaren Analysator.

Zum zweiten gab und gibt es heute noch keine universellen Geräte, die sowohl bei der Fehlersuche an seriellen Schnittstellen aber auch an LANs oder neueren Netztypen wie eben dem So-Bus, als auch bei der Performance-Analyse (Antwortzeiten und Durchsatz auf Datenleitungen) einsetzbar sind.

Der Techniker war somit immer auch zugleich Gepäckträger: Mehrere Geräte für die verschiedenen Schnittstellen, Geschwindigkeiten und Protokolle, dazu noch der Werkzeugkoffer inklusive ausreichender Dokumentation machen ihm im wahrsten Sinne des Wortes das Leben schwer.

Portable Laptops ersetzen teure und schwere Meßgeräte

Ob die vorgenannten Preise für diese speziellen Datenleitungstester auf die hohen Entwicklungskosten, die geringen Produktzahlen oder aber auf die hohen Margen der Hersteller und Anbieter zurückzuführen sind, soll hier nicht analysiert werden. Verwunderlich ist jedenfalls, daß erst vor zirka drei Jahren die ersten Hard-/Softwarepakete auf den Markt kamen, die PCs, Portables und Laptops in Datenanalysatoren/ -simulatoren umfunktionierten. Die "normalen" Fähigkeiten des PCs bleiben dem Anwender dabei auch weiterhin erhalten. Erstaunlich schon allein deshalb, weil vor rund zehn Jahren moderne Datenanalysatoren exakt aus den gleichen Baugruppen wie der PC bestanden, nämlich CPU, Bildschirm, Tastatur, Arbeits- und Massenspeicher. Viel Hard-/Software ist jedenfalls nicht nötig, um einen PC entsprechend umzufunktionieren.

Am Anfang gab es zwar noch Probleme mit der Geschwindigkeit, denn ein Datenanalysator ist eben nur so gut oder so schnell wie es sein Prozessor ist:

Vor einigen Jahren bedeutete dies noch, daß ein 8088-Prozessor und eine Taktrate von 4,77 MHz die Geschwindigkeit beim Monitoring beziehungsweise der Analyse auf etwa 19 200 bis 38 400 Bit pro Sekundebeschränkten (immerhin aber doppelt so schnell wie die V.24 gemäß CCITT-Normung). Für 64 Kbit pro Sekunde waren sie allerdings hie und da doch nicht schnell genug, es sei denn, es wurde ein zusätzlicher Prozessor vorgeschaltet.

Heute gibt es Desktops, Portables und Laptops mit 80286- und 80386 Prozessoren sowie Taktraten bis zu 20 MHz. Geschwindigkeiten von 64 Kbit pro Sekunde und mehr sind seitdem kein Problem mehr, wobei gleichzeitig umfangreiche Analyse- oder Simulationsprogramme im Hintergrund mitlaufen können.

Reicht die Geschwindigkeit des internen Prozessors immer noch nicht aus (zum Beispiel für Messungen an LAN-Schnittstellen), so verfügt die Hardware, also die PC-Karte, zusätzlich über einen oder mehrere Prozessoren, die nötigen Buffergrößen und geeignete Interface-Chips. Die LAN-analyzer-Karte von Excelan ist hierfür ein gutes Beispiel.

Die restliche notwendige "Infrastruktur" - Iiefert der in großen Stückzahlen produzierte PC, Portable oder Laptop - und das zu vernünftigen Preisen.

Das Konzept "PC als Datenanalysator" kann noch weitere Vorteile aufweisen, als Abfallprodukt sozusagen. Die aufgezeichneten Leitungsdaten werden im PC- beziehungsweise MS-DOS-Format auf Diskette oder Platte gespeichert. Diese Daten lassen sich auf jedem kompatiblen PC mit anderen Programmen lesen und weiterverarbeiten. Hierzu ein Anwendungsbeispiel: Ein Performance-Analyse-Programm, entweder vom Anwender selbst entwickelt oder vom Hersteller des Datenanalysators bezogen, erzeugt aus einer Aufzeichnung aussagefähige Statistiken im Hinblick auf Leitungsdurchsatz und Antwortzeiten für das Management oder die Planungsgruppe (Bild 1). Dazu können auch Standard-Werkzeuge wie Tabellen-Kalkulationen, Grafiksoftware etc. benutzt werden.

Die eierlegende Wollmilchsau ist keine Zukunftsmusik mehr

Man rüstet einen portablen PC mit Plasma-Display, gerade neun Kilogramm schwer, mit einer Hard-/Software für das Monitoring beziehungsweise die Analyse von seriellen Schnittstellen (V.24, X.2 1, V.35/ V.36 ...) aus und nimmt sich ein SO-Bus-Interface sowie Hard- /Software für die LAN-Diagnose von Ethernet oder Token Ring oder gar beides dazu. Die Aufzeichnungen und statistischen Auswertungen aus diesem PC dienen als Input für Performance-Analysen oder auch zur Weiterverarbeitung in PC-Programmen, die zum Beispiel den günstigsten Übertragungsbedarf für die Übertragung in Postnetzen ermitteln. Darüber hinaus werden die selben Daten auch für Planungszwecke wie etwa zur Berechnung des künftigen Kommunikationsbedarfs herangezogen. Wie ein solches Konzept aussieht, zeigt Bild 2.

Die Weichen für den Erfolg stellen die Anwender selbst

Selbstverständlich gibt eine Industrie, die es jahrelang verstanden hat, Diagnosegeräte zu guten Preisen zu vermarkten, das Feld nicht kampflos auf. Argumente wie "Der Service-Techniker bevorzugt noch immer speziell für die jeweilige Applikation entwickelte Geräte anstelle von universell einsetzbaren PC-Lösungen", sind an der Tagesordnung. Auch die Aussage, "PCs verleiten zum Spielen anstatt zum Arbeiten" ist sehr beliebt. Wenn überhaupt warum eigentlich nicht spielen, wenn dies in der ohnehin knappen Freizeit des vielbeschäftigten Netzwerk-Technikers erfolgt. Daß eine solche spielerische Beschäftigung ganz nebenbei die Akzeptanz des Arbeitsgeräts erhöht, wird natürlich bewußt verschwiegen. Wie dieser gesunde Wettbewerb ausgeht, bestimmt Gott sei Dank der Anwender.

In einer erst kürzlich in einer amerikanischen Fachzeitschrift veröffentlichten Anwenderumfrage zum Thema Datenanalysatoren rutschte doch tatsächlich ein solches PC-Produkt ("Feline" des US- Herstellers Frederick Engineering) ganz an die Spitze, und dies auch gleich noch zweimal, nämlich in puncto höchste Performance und beste Bedienerfreundlichkeit.

Vielleicht bewirkt dies bei Herstellern herkömmlicher Diagnosegeräte daß sie über die Entwicklung und Produktion preiswerter und multifunktional einsetzbarer Tools nachdenken. Oder aber, man zieht sich - wie schon in einigen Fällen erfolgt - in den High-End-Bereich zurück, sprich die Vermarktung von Geräten, wie sie für die Entwicklung von Interfaces und Protokollen benötigt werden. Dort werden auch heute noch hohe Preise akzeptiert, und die Umrüstung auf PCs ist aufgrund der in diesem Bereich erforderlichen Mehr-Prozessor- beziehungsweise Multibus-Architektur schwer realisierbar und auch wirtschaftlich nicht interessant - es sei denn, die neue Generation von PCs mit Hochleistungs- Prozessoren verhilft den Anbietern von Hard-/Softwarepaketen für PCs dazu, auch in diese Bereiche einzudringen.

Paul Hoffmann ist Geschäftsführer der Datakom Gesellschaft für Datenkommunikation mbH, in Ismaning.