Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Übertragungstechniken im LAN/Gigabit Ethernet höchstens als Übergangslösung


01.05.1998 - 

Fragwürdig: Mehr Daten über immer weniger Leitungen transportieren

Wir leben in einer Zeit des Umbruchs. Neue Techniken erobern den Markt, und die Anwender fragen zu Recht: Was davon erfüllt meine Bedürfnisse? Als Kandidaten kommen Gigabit Ethernet, ATM und Fibre Channel (Hardware) sowie virtuelle LANs in Betracht. Regelmäßig verengt die Öffentlichkeit die Diskussion auf das alte Bandbreitenproblem: Die Anwender haben Druck auf der Datenleitung und suchen Abhilfe. Das Summieren von Megabit pro Sekunde aber hilft allein nicht weiter. Eine bedarfsgerechte Migration muß die Wechselwirkungen beachten, die es zwischen der gegebenen Arbeitsorganisation einerseits und der Übertragungs- und Vermittlungstechnik andererseits gibt.

In den 80er Jahren wuchsen die LANs als reine Abteilungsnetze heran. Diese verband ein zusätzliches, nur eben räumlich weiter ausgedehntes LAN-Segment, das Backbone (Rückgrat) heißt. Die Kopplung erfolgte damals über LAN-Bridges. Mit der Wende zu den 90er Jahren - genauer: mit der Einführung von Lichtwellenleitern und Twisted-Pair-Kabeln wurden dann die Abteilungs-LANs bis ins Rechenzentrum (RZ) gezogen, um dort auf einen zentralen, aktiven Verteiler (Hub) gelegt zu werden. Dieser Hub war früher ein Multiport-Repeater, später dann auch Multiport- Bridge, Router, Switch.

Alle Kabelwege führen ins RZ. Dieses war insbesondere bei Ethernet aus Gründen der physikalischen Sicherheit wichtig (ein die Abteilungen durchlaufender Koax-Bus ist zu störanfällig). Daher kam auch die englische Bezeichnung Collapsed Backbone: die auf den Rückwand-Bus des Hubs "geschrumpfte Steigleitung". Heute aber beginnt diese zentralisierte Struktur fragwürdig zu werden. Denn das Collapsed Backbone macht sich die sogenannte strukturierte Gebäude- verkabelung zu eigen, und diese ist nun einmal strikt hierarchisch. Alle Datenströme verdichten sich immer mehr, je näher sie dem zentralen Schaltschrank kommen. Daher wird der Bedarf an durchsatzstarken Teilstrecken mit 100 Mbit/s oder mehr immer größer.

Hier setzt das Angebot von Gigabit Ethernet an: Wo die 100-Mbit/s-Hierarchiestufe nicht mehr ausreicht, lassen sich extreme Datenbündelungen mit Gigabit-Strecken erreichen. Hier steht grundsätzlich zur Debatte: Kann es richtig sein, immer mehr Daten über immer weniger Leitungen laufen zu lassen? Um nur einen herausragenden Punkt zu nennen: Die Abwesenheit eines angemessenen Spanning-Tree-Nachfolgers läßt Gigabit-Ethernet-Inseln ohne jede echte Redundanz entstehen, denn das Spanning-Tree-Protokoll kann nicht unter zehn Sekunden Umschaltzeit reagieren - und das ist für Echtzeitprozesse (Maschinensteuerung etc.) völlig unzureichend.

Bei Ethernet konzentriert sich der gesamte Datenverkehr eines Ethernet-LANs auf eine letzte, überlastete Teilstrecke innerhalb der hierarchischen Struktur; bei ATM aber taucht dieser Engpaß erst gar nicht auf. ATM besitzt die Fähigkeit, auf der Struktur eines vermaschten Netzes zu arbeiten. Die Kabelwege eines ATM-Netzes können - im Gegensatz zu Ethernet - Dreiecke beziehungsweise Ringe bilden. Nicht zuletzt ist eine solche vermaschte Struktur deutlich weniger gefährdet, wegen des Ausfalls einer Teilstrecke oder eines einzelnen Vermittlungsknotens vollständig auszufallen - sie ist in sich redundant. Im Idealfall teilt sich dann auch die Datenlast auf die verschiedenen Wege auf.

Doch nicht nur bei der Alternative Gigabit Ethernet und ATM besteht ein Zusammenhang zwischen Arbeitsorganisation und der Übertragungs- und Vermittlungstechnik, sondern auch bei virtuellen LANs. Bis vor kurzem stand eine IP-Subnetz-Adresse immer für ein physikalisches LAN-Segment. Damit war Kommunikation seitens der Vermittlungstechnik immer auf den Ort bezogen, nicht aber auf die Funktion eines PCs oder eines Mitarbeiters.

Kundenorientiert arbeitende Betriebe insbesondere im produzierenden Gewerbe (Maschinenbau) sind immer stärker darauf angewiesen, den Wettbewerb über den Faktor Zeit zu gewinnen. Wo früher mehrere Abteilungen einen Entwicklungsauftrag nach dem anderen abgearbeitet hatten (wobei immer einige Abteilungen auf andere warten mußten), wird heute in Projektgruppen gearbeitet. Mitarbeiter verschiedener Abteilungen gehören zu einer Projektgruppe. Das hat auch Auswirkungen auf die Netzwerktechnik.

In Zukunft spielt der physikalische Ort eines IP-Rechners keine Rolle mehr. Intelligente ATM-Netze (LANE = LAN-Emulation, MPOA = Multiprotocol over ATM) erkennen selbständig, in welchen angeschlossenen Teilnetzen gerade wer mit welcher IP-Adresse tätig ist; die Endgeräte ihrerseits unterstützen mehrere IP-Adressen in einem PC. Es bilden sich sogenannte VLANs - virtuelle LANs, die nur als logisches Netz im "Gedächtnis" des ATM-Backbone-Netzes bestehen, nicht aber als eigenes physikalisches Segment.

Ein Techniker, der von Niederlassung zu Niederlassung fährt, muß niemals mehr die IP-Adresse seines Laptops der IP-Adreß-Struktur der aktuellen Niederlassung anpassen. Er schaltet einfach seinen Rechner ein, und kann sofort mit allen kommunizieren, so wie alle anderen ihn sofort erreichen können, weil sich das Netz "merkt", wo er sich zur Zeit aufhält.

Ganz abgesehen davon, daß Gigabit-Ethernet zur WAN-Vernetzung nicht taugt, stellt sich die Frage: Will ich weiter mit zentralisierenden, verengenden, statischen Systemen arbeiten (Ethernet), die mir ein Übermaß an Unbeweglichkeit abverlangen? Wohl kaum. Daher zeichnet sich ab: Die Anwendersegmente können und werden noch sehr lange Shared-Media-LANs sein (Ethernet, Token Ring); aber das Backbone wird ein vermaschtes ATM-Netz sein, das mit seinen logischen Fähigkeiten das Netzwerk-Management vereinfacht und dem Unternehmen mit seiner spezifischen Form der Arbeitsteilung weit näher kommt als ein Collapsed Backbone.

Auch im Hardwarebereich stehen Veränderungen ins Haus: Wir haben uns längst daran gewöhnt, daß Drucker mitsamt einem Print-Server-Modul direkt ans Netzwerk angeschlossen werden. Warum eigentlich machen wir das mit den Daten nicht genauso? Warum vermindern wir die Leistung der Client-PCs willkürlich dadurch, daß die (meisten!) Server nur mäßige Antwortzeiten zustande bringen? Warum zentralisieren wir die Daten innerhalb des Collapsed Backbone in einer Server-Farm, die nur über stark ausfallgefährdete und überlastete Kabelwege erreichbar ist?

Mit Fibre Channel (FC; seit 1994 bereits ANSI-Standard für 1,06 Gigabit/s. Vollduplex) wird sich das mittelfristig ändern. Fibre Channel unterstützt Protokolle wie TCP/IP, SPX/IPX, Ethernet (Gigabit Ethernet ist ein FC-Derivat), aber auch Peripherieprotokolle wie SCSI. Schon heute gibt es FC-Festplatten, die mehr als 100 MB/s schreiben beziehungsweise lesen können.

In einigen Jahren wird folgendes möglich sein: Nur noch wenige File-Server prüfen die Authentizität des Benutzers, geben bei bestätigter Berechtigung einen Code sowohl an den Anwender als auch an die nunmehr direkt ans Netz angeschlossene Festplatte zurück. Daraufhin wendet sich der Anwender direkt an die Festplatte, die nur noch den vom Anwender gesendeten Zugriffscode mit dem vergleichen muß, den sie selbst vom File-Server erhalten hat.

Schon in absehbarer Zeit könnten sich mehrere Windows-NT- und Unix-Server denselben FC-Festplattenturm teilen, was aufwendige NFS-Lösungen etc. in der Hardware überflüssig machen wird. Die US-Industrie arbeitet mit Hochdruck an solchen Lösungen. Die Zahl der Server dürfte sich drastisch verringern: Es müßten nicht immer wieder neue Server aufgestellt werden, wenn wieder 200 neue Benutzer eingegliedert oder ein weiteres Terabyte an Plattenplatz installiert werden muß.

Server, Plattenstapel (Disk Arrays), Tape Streamer in Jukeboxen, Scanner etc. - alle Geräte, die datenintensiv arbeiten, werden direkt am FC-Switch hängen. Unternehmen, die die Datensicherung mit herkömmlicher LAN-Technik nicht mehr zwischen Freitagabend und Montagmorgen übers Netz ziehen konnten, erledigen das via Fibre Channel bequem an einem Nachmittag.

Wenn sich Fibre Channel erst einmal durchgesetzt hat, wird noch eine andere Entwicklung kommen, die in den USA mächtige Marktteilnehmer wie Sun, AT&T und IBM vorbereiten: die Daten gar nicht mehr im eigenen Haus zu halten. Die allerorten wachsenden City-Carrier werden jeweils im Stadtgebiet gigantische Speicherzentren aufbauen und dort die Daten der Unternehmen preiswerter und sicherer lagern. Diese Entwicklung kann nur auf FC aufbauen, weil sich ausschließlich damit die notwendigen kurzen Antwortzeiten erreichen lassen. Die Konzentration der Datenströme beim Data-Provider statt im eigenen Haus erhöht die Fragwürdigkeit des Collapsed-Backbone-Konzepts zusätzlich.

Fazit: Gigabit Ethernet ist eine (durchaus taugliche, aber begrenzte) Technik für lokale Insellösungen, um dem gewachsenen Collapsed Backbone noch einmal über die Runden zu helfen. Die unmittelbare Berechtigung für Gigabit Ethernet liegt in zwei Bedingungen: Gigabit Ethernet ist die natürliche Weiterentwicklung von 10- und 100-Mbit/s-Ethernet und damit voll abwärtskompatibel. Zudem wird es bis zum Herbst 1998 standardisiert sein, während bei ATM immer noch wichtige Spezifikationen auf sich warten lassen. ATM ist jedoch unabdingbar, sobald eine Campusvernetzung oder die Vernetzung mehrerer Betriebsstätten in einem Corporate Network vorliegt - sofern Merkmale wie VLAN-Fähigkeit gewünscht sind. ATM wird VLANs unterstützen wie keine andere Technik.

In großen Unternehmens-Backbones hat Ethernet alsbald nichts mehr zu suchen. Auch die Entwicklung von IPv6 mit aller Rücksichtnahme auf die Ethernet-Probleme kommt nicht um die mißlichen Einschränkungen der Collapsed-Backbone-Struktur herum. Die bei ständig steigender Datenlast zunehmende Konzentration der Datenströme auf einen zentralen Verteiler ist schlichtweg aufgrund des mangelnden Datendurchsatzes und der mangelnden Redundanz unerträglich.

Angeklickt

Die Anwender haben ein Bandbreitenproblem, doch auf die Bandbreite allein sollte die Diskussion nicht hinauslaufen. Auch die Wechselwirkung zwischen Arbeitsorganisation und Übertragungs- beziehungsweise Vermittlungstechnik spielt eine Rolle. Grundsätzlich stellt sich die Frage, ob immer mehr Daten über immer weniger Leitungen transportiert werden sollen. Ethernet-Netze auf Basis strukturierter Verkabelung haben eine zentralistische Struktur. Die Datenströme verdichten sich immer mehr, je näher sie dem zentralen Schaltschrank kommen. Außerdem gibt es, so der Autor, keinen angemessenen Spanning-Tree-Nachfolger und somit auch keine echte Redundanz. ATM dagegen kann auf der Struktur eines vermaschten Netzes arbeiten und ermöglicht so sowohl Redundanz als auch eine Aufteilung der Datenlast. Der Autor diskutiert darüber hinaus Virtuelle LANs und Fibre Channel.

Frank Walther ist Inhaber der Unternehmensberatung Synapse in Bonn.