Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

18.05.1990 - 

Mangelnde Ausrichtung auf Datagramme und Netzmanagement

ISO-Einseitigkeit beim Transport erschwert Multivendor-Vernetzung

Eine wesentliche Rolle im Rahmen einer Multivendor-Vernetzung spielt die Integration von lokalen Netzen. ISO-Produkte führen hier bisher jedoch nur bedingt zum Ziel, da sie sich auf der Transportebene an verbindungsorientierten Verfahren ausrichten und nicht wie beispielsweise das Network File System (NFS) auf Datagramme zurückgreifen.

Zu Beginn der Rechnervernetzung war die Produktlandschaft vom Gegenteil der Kompatibilität offener Vernetzung geprägt Viele Firmen boten ihren Kunden eigene Vernetzungskonzepte inklusive Verkabelung, Protokollen und Anwendungen an, nicht zuletzt, um sich vom Mitbewerb zu differenzieren. Dies führte zu erheblichen Einschränkungen in der Entscheidungsfreiheit für die Anwender, falls sie einmal ein System ausgewählt hatten und dies erweitern oder verändern wollten.

Zur Realisierung herstellerübergreifender Datenkommunikations-Netze gibt es einerseits definierte Standards, die Herstellervereinigungen und Normierungsbehörden festlegen, und andererseits allgemein am Markt akzeptierte Techniken. Ideal für den Anwender ist das Feld, wo die allgemein akzeptierten Techniken auf international Festgelegten Normen basieren. Hier wird ihm neben der vorgeschriebenen Kompatibilität auch ein breites Angebotsspektrum garantiert.

Multinet-Netze nehmen Vorreiterstellung ein

Um die Marktakzeptanz von vereinbarten Rechner-Kommunikations-Verfahren zu zeigen, werden zu Demonstrationszwecken große Multivendor-Netze aufgebaut. Die Multinet-Netze nehmen hier eine Vorreiterstellung ein. Beginnend im Jahre 1987, wurden im Rahmen der Multinet-Veranstaltungen den Messebesuchern komplexe Netzwerktechniken und -anwendungen in einem funktionsfähigen Netz präsentiert, in dem Systeme verschiedener Hersteller miteinander kommunizierten.

Die teilnehmenden Firmen, Hersteller und Anbieter von offenen Kommunikationssystemen müssen, bevor das gemeinsame Netz dem Messepublikum gezeigt wird, beweisen, daß von jedem Gerät aus mit jedem Rechner des gemeinsamen Netzes kommuniziert werden kann. In diesem Jahr lag der Schwerpunkt zum einen bei der Vorführung einer neuen Netztechnik (FDDI), zum anderen im Bereich der Kommunikationsanwendungen in der Darstellung verteilter Systeme.

Diese Veranstaltung ist möglich aufgrund des Einsatzes der international geltenden Kommunikationsstandards. Werden sie eingehalten, klappt die Abstimmung der Systeme aufeinander; Adressenfestlegungen beispielsweise sind nur noch Nebensache.

Die Grundlage des Kommunikationssystems ist das Übertragungsmedium und die -technik. Eine sinnvolle Planung der Infrastruktur des Rechnernetzes versucht einerseits die bereits vorhandenen Verkabelungen weitestgehend zu nutzen und andererseits bei Neuverkabelung eine Infrastruktur zu schaffen, die für verschiedene Übertragungsarten genutzt werden kann. Diese basieren auf verdrillten Kupferleitungen und Lichtwellenleitern.

Die Übertragungsarten mit der größten Marktakzeptanz liegen im Inhouse-Bereich, das heißt bei der lokalen Vernetzung: Ethernet und Token-Ring. Ethernet ist eine Übertragungstechnik für lokale Netze mit Busstruktur und gleichberechtigtem Zugriff aller angeschlossenen Systeme auf das Kabel. Ethernet entspricht dem Standard IEEE 802.3. Token-King bezeichnet ein Übertragungssystem für Ring-Strukturen. Im Token-Ring wird die Zugriffsberechtigung reihum von angeschlossener Station zu Station weitergereicht. Dies entspricht IEEE-Standard 802.5.

Im standortübergreifenden Verkehr werden die Dienste der Deutschen Bundespost Telekom, im wesentlichen X.25 und HfD (Hauptanschluß für Direktruf), genutzt. In Zukunft schafft es vielleicht auch ISDN auf beiden Gebieten, das heißt im Bereich lokaler und weiter Vernetzung, eine weitere Möglichkeit für die herstellerübergreifende Kommunikation zu realisieren.

Auf dem Gebiet der Kommunikationsprotokolle ist unstrittig, daß der Zug in Richtung ISO-konforme Netze nicht mehr aufzuhalten ist. Die International Standardization Organisation ist international anerkannt als das Gremium, das Schnittstellen und Protokolle für sämtliche Kommunikationsaufgaben festlegt.

Wann sich jedoch die ISO-Normen auf dem Markt durchsetzen werden, ist aufgrund der heute noch geringeren Anzahl von Anwendungen und der geringen Implementierungsbreite nicht abzusehen. Deshalb hält sich mit zunehmender Hartnäckigkeit die als Übergangszustand deklarierte TCP/IP-Protokoll-Familie.

Vielzahl von eingeführten Anwendungen für TCP/IP

Ein Grund für die große Akzeptanz von TCP/IP liegt vielleicht in der Tatsache, daß diese Protokollwelt von einem Anbieter festgeschrieben wurde und zu günstigen Konditionen für alle Interessenten zur Verfügung steht. Viele Anwender nutzen auch die Tatsache, daß mittlerweile für jeden Rechner eine Implementierung für TCP/IP vorhanden ist und eine Vielzahl von eingeführten Anwendungen angeboten werden. Diese günstigen Bedingungen sorgen sicher vorläufig noch für die weitere Verbreitung dieser Protokollwelt.

Ein weiterer Aspekt bei TCP/IP ist die Integration heterogener lokaler Netze, wie zum Beispiel Novell oder Apple Talk, in die großen Kommunikationswelten, beispielsweise in SNA von IBM, Transdata von Siemens und andere. Für den Anwender wird so die Möglichkeit geschaffen, seine alte zentrale Kommunikationsstruktur beizubehalten und seine neuen Anforderungen dennoch zu lösen. Er kann damit in Ruhe abwarten, bis akzeptable Lösungen auf Basis der ISO-Protokolle angeboten werden.

Ein in der Diskussion TCP/IP versus ISO meist vernachlässigtes Thema sind die sogenannten Datagramme, insbesondere die mit Broadcast-Adresse. Datagramme sind Datenpakete, die alle Informationen zum Transport einer Nachricht durch das Netz beinhalten und damit unabhängig voneinander ohne Verbindungsauf- und -abbau zum Ziel gelangen können. Diese Art der Übertragung ist natürlich erheblich schneller als verbindungsorientierte Kommunikation. Wesentliche Kommunikationsanwendungen, zum Beispiel NFS (Network File System), ein verteiltes Dateisystem, nutzen Datagramme zum Datentransport und gewährleisten damit schnellen Zugriff auf Daten anderer Rechner. Heute verfügbare ISO-Produkte können mit ihrer Ausrichtung auf verbindungsorientierte Kommunikation auf Transportebene dies nicht bieten.

Broadcast-Adressen bei Ethernet und Token-Ring

Ein weiterer Unterschied liegt in der Nutzung von Broadcast-Adressen In einem lokalen Netz (Ethernet und Token-Ring) ist das Übertragungsverfahren so geregelt, daß das Datenpaket bei jedem Teilnehmer des Teilnetzes vorbeikommt. Wenn nun statt einer eindeutigen Zieladresse eine Adresse mit der Bedeutung "An alle (= Broadcast) in dem Datagramm verwendet wird, so kann mit geringem Aufwand eine Nachricht an alle Teilnehmer gesendet werden. Die Nachricht wird nur einmal gesendet. In einem verbindungsorientiert betriebenen Netz muß zu jedem einzelnen Teilnehmer eine Verbindung aufgebaut und die Nachricht an jeden Teilnehmer übertragen werden. Dies belastet das Netz zusätzlich.

Datagramme und Datagramme mit Broadcasts werden direkt von Anwendungen genutzt und sind daher einer der Gründe für das Fehlen von bestimmten Anwendungen in der ISO-Welt. Hier wird heute von den Anbietern meist neben dem Mail-Paket nach X.400 ein Filetransfer nach FTAM angeboten. Wo diese Anwendungen ausreichen, ist der Anwender gut beraten, diese bereits mit ISO-konformen Produkten zu realisieren.

Bei aller Begeisterung für herstellerübergreifende Kommunikation ist jedoch zum Abschluß noch auf einen Mangel hinzuweisen: fehlendes Produktangebot für komfortables Netzwerk-Management.

Netzwerk-Management wird zwar von vielen Anbietern angepriesen, wäre jedoch meist mit Network-Monitoring richtiger umschrieben. Die im Rahmen von Multinet vorgestellten Netzanalyse-Geräte hatten einen sehr großen Leistungsumfang und erlaubten auch sehr feine Untersuchungen des Datenverkehrs, allerdings nur in einem Teilnetz.

Über Brücken und Router hinweg in andere Teilnetze können diese Geräte nicht mehr eingesetzt werden. Hier sind dann spezielle Protokolle zum Network-Management gefragt. Das Angebot auf dem Markt ist noch recht dürftig.

Von seiten der Standardisierung gibt es auch hier wieder zwei Entwicklungen:

- CMIP (Common Management Information Protocol) und CMIS (Common Management Information Services) für die ISO-Welt,

- SNMP (Simple Network Management Protocol) für die ICP/IP-Welt.

Beide Linien weisen Gemeinsamkeiten auf: Die Strukturen der zu übertragenden Informationen basieren auf dem Modell der Management Information Base (MIB) und enthalten Einträge mit der Notation ASN.1 (Abstract Syntax Notation).

Implementierungen nicht einsatzfähig

Ein Hauptunterschied liegt in der Vorgangsweise: Bei CMIP und CMIS wird zuerst studiert, welche Events wie administriert werden sollen, zum Beispiel berücksichtigte man bereits das Software-Management wie Verteilung etc. Allerdings gibt es noch keine einsatzfähigen Implementierungen.

Für SNMP wurden maximal 100 Events festgelegt, die administriert werden. Die Erfahrungen, inwieweit diese ausreichen, sollen dann mittels erster. Testimplementierungen gesammelt werden, die auch schon im Einsatz sind.

Verfügbarkeit via Fenstertechnik

Ein Beispiel für eine solche Implementierung zeigte die IBM auf der letzten Multinet-Veranstaltung anläßlich der CeBIT '9O. Hier konnte sich der Anwender mit Fenstertechnik die Verfügbarkeit einzelner Rechner auf einem Bildschirm anzeigen lassen, obwohl diese Rechner über verschiedenste Teilnetze verbunden waren (lokal: Ethernet und Token-Ring, remote: SNA). Übrigens stellte die IBM ebenfalls eine Anwendung vor, die es erlaubte, von Workstations auf 3270-Anwendungen über das Netz zuzugreifen. Es wurde gezeigt, wie Rechner mit verschiedensten Architekturen und von unterschiedlichsten Anbietern mittels eines einheitlichen Kommunikationsprotokolls miteinander Informationen austauschen können.

Diese integrierende Funktion wird den beiden Kommunikationsprotokollen TCP/IP (heute) und ISO (zukünftig) auch weiterhin die entscheidende Rolle in Multivendor-Netzen zuweisen. Ein interessanter Wegbegleiter für die Darstellung offener Systeme bleibt weiterhin die Multinet-Veranstaltung, in deren Rahmen der Anwender stets den aktuellen Überblick über die Verfügbarkeit von Produkten erhält.

*Hubert Martens ist Geschäftsführer der Multinet Services Gesellschaft für Tele- und Datenkommunikation mbH, Grassbrunn.