Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

04.06.1993

Dem Internet gehen die Adressen aus Routing-Mechanismen von TCP/IP stossen an ihre Leistungsgrenzen

Waren die 80er Jahre das Zeitalter der Rechnervernetzung, so stehen die 90er fuer die globale Vernetzung lokaler Netze - das Internetworking. Obwohl die Auguren schon das Ende der vermeintlich kurzen TCP/IP-Bluetezeit prophezeiten, ist das Internetworking auch in der Internet-Gemeinde zu einem existentiellen Faktor geworden, den Frank Raudszus* beschreibt.

Trotz der Vorhersagen in den achtziger Jahren, TCP/IP werde bald von der Bildflaeche verschwinden, erfreuen sich die TCP/IP- Protokolle einer ungebrochenen Nachfrage. Der immer noch steigende Bedarf laesst Zweifel zu, ob sich die OSI-Protokolle zumindest auf den Schichten 3 bis 6 je durchsetzen werden. Selbst Anbieter proprietaerer Netzkonzepte wie IBM (SNA), DEC (Decnet) und Novell (IPX/SPX) unterstuetzen immer ungenierter auch in strategischen Netzen TCP/IP, sind jedoch OSI gegenueber sehr zurueckhaltend.

Wie sieht die Netzwerklandschaft im TCP/IP-Umfeld aus? Derzeit sind laut Uniforum etwa 120 Laender mit ueber 10 000 Netzen an das weltweite TCP/IP-Netz angebunden, und ueber zwei Millionen Hosts erlauben etwa 15 bis 20 Millionen Anwendern eine weltweite Kommunikation. Gegenwaertig verdoppelt sich der Gesamtumfang jaehrlich.

Anwender erkennen den

Wert oeffentlicher Netze

Wo liegen die Gruende fuer dieses explosionsartige Wachstum? Einerseits traegt die Anbindung einer Flut von frueher isoliert betriebenen PCs erheblich dazu bei, andererseits foerdert der weltweite Trend zum Downsizing die Tendenz, statt eines Netzwerkknotens mit einer Adresse und vielen Benutzern (Mainframe, Minicomputermehrere Knoten mit je einer Adresse und einem oder wenigen Benutzern einzusetzen (Workstations).

Darueber hinaus hat natuerlich der Siegeszug von TCP/IP selbst das Tor zur weltweiten Vernetzung aufgestossen. Solange verschiedene Organisationen unterschiedliche proprietaere Netze betrieben, und in der Vergangenheit gab es deren mehr als die oben erwaehnten Platzhirsche, sahen die meisten Betreiber lokaler Netze wenig Moeglichkeiten nationaler und internationaler Kommunikation. Heute jedoch verfuegt nahezu jedes groessere Unternehmen ueber ein TCP/IP- faehiges System, das die Anbindung an das weltweite Internet gestattet.

In letzter Zeit haben daher die Anwender zunehmend den Wert eines internationalen Verbunds erkannt, sei er firmenintern oder oeffentlich. Die zunehmend beliebtere elektronische Post, zum Beispiel ueber Eunet, kann man zwar auch ueber simple UUCP- Anbindungen nutzen, das heisst ohne explizite Kopplung lokaler TCP/IP-Netze. Alle anspruchsvolleren Dienste wie zum Beispiel Dateitransfer, Online-Zugriff oder gar verteilte Dateisysteme (NFS) erfordern jedoch ein professionelles Internetworking.

Der Online-Zugriff gewinnt besonders an Bedeutung durch moderne Client-Server-Anwendungen. Jedes Unternehmen ist bemueht, alle Daten und unter Umstaenden auch Funktionen auf einem oder wenigen Servern zu zentralisieren. Bei Daten liegt der Grund auf der Hand, da Konsistenz nur bei einer Single Source gewaehrleistet

ist. Bei den Funktions-Servern besteht die Ursache in der kostenguenstigeren Konzentration allgemein genutzter Dienste wie Fax oder E-Mail auf einem Server.

In Zukunft werden zunehmend dedizierte Server jeweils einen Dienst anstelle mehrerer unkorrelierter Anwendungen anbieten. Dies hat mehrere Vorteile: Einerseits lassen sich als Server kleinere, preiswertere und standardisierte Unix-PCs einsetzen, andererseits ist beim Ausfall eines Servers dessen Anwendung leicht auf einen anderen, gleichartigen Server zu uebertragen, sofern dieser Fallback vorher konfiguriert wurde. Dabei wird man die jeweiligen Server am Ort des jeweils groeten Know-hows (Anwendungen),

der Datenquelle (Datenbankenoder der groessten Knotenanzahl (E-Mail) implementieren.

Dieser Trend wird ebenfalls zur wachsenden Zahl intelligenter Netzknoten im Internet beitragen. Der Zugriff auf die jeweilige Server-Funktion erfolgt dann von den Clients aus online, das heisst, der Anwendungs-Client tauscht mit dem

Anwendungs-Server unterschiedlich grosse Datenmengen in Echtzeit aus. Gerade der letztere Aspekt wird sich ausserordentlich auf den Datenverkehr im Netz und auf die Durchsatzanforderungen auswirken, die bei einer WAN-Kopplung durchaus eine kritische Groesse darstellen koennen.

Koppelt man zwei Ethernet-Netze, das heisst Segmente, durch einen Repeater, so erscheint auf jedem Teilsegment des neuen Netzes die Verkehrssumme der Einzelsegmente. Da diese Belastung sich schnell durchsatzmindernd auswirken kann, wird man Netze soweit moeglich in voneinander entkoppelte Subnetze aufteilen, zum Beispiel ueber Bridges. Weil erfahrungsgemaess 90 Prozent des Verkehrs in deutlich definierbaren Bereichen verbleiben (Abteilung, Stockwerk, Gebaeude etc.), laesst sich diese Entkopplung auch organisatorisch einfach durchfuehren. Natuerlich benoetigt jedes Subnetz eine eigene Adressumgebung.

Ein weiterer Grund fuer die rasche Vermehrung von Subnetzen ist der Sicherheitsaspekt. Zwar soll zum Beispiel die Buchhaltung ein eigenes Netz erhalten, aber nicht jeder Knoten im Unternehmen darf darauf zugreifen koennen. Auch dies laesst sich gut mit einem eigenen Subnetz loesen, das ueber eine Bridge oder einen Router an das Corporate Network angeschlossen wird.

In jedem Fall stoesst ein Netzplaner bei der Einfuehrung eines unternehmensweiten Netzwerkes an den einzelnen Orten auf bereits existierende Netze. Ob diese untereinander kompatibel sind oder nicht, spielt prinzipiell keine Rolle, sie alle muessen jedoch eigene Adressen im Sinne des Internets erhalten. Ging man noch vor gar nicht langer Zeit in ein typisches Unternehmen, das ein TCP/IP-Netz betrieb, so waren die Internet-Adressen oft identisch, da entweder 89.x.x.x (Berkeley), 192.x.x.x oder eine andere wiederkehrende Struktur vorhanden war. Dabei wussten die wenigsten, dass diese Adressen bereits seit Jahren offiziell in bestimmten Netzen in den USA benutzt wurden.

NIC und Eunet vergeben weltweit Internet-Nummern

Die US-Amerikaner jedoch hatten dieses Problem durch ihr weitverzweigtes ARPA-Netz schon viel frueher erkannt. In Stanford arbeitet schon seit Jahren das Network Information Center (NIC), das weltweit eindeutige Nummern vergibt, wobei sich die Adressstruktur nach Firmengroesse und Adressen richtet. In Deutschland versieht die Eunet GmbH diesen Dienst in Abstimmung mit dem NIC. Wer sich also heute einen solchen Adressraum zuweisen laesst, ist weltweit im Internet vor Doppelgaengern geschuetzt.

Diese Ausfuehrungen koennten ausser zustimmendem Kopfnicken lediglich eine indifferente Fortsetzung der heutigen Vorgehensweise bewirken, waeren da nicht die natuerlichen Grenzen dieser Technologie. TCP/IP wurde vor zwanzig Jahren fuer den Verbund weniger Rechnersysteme im Verteidigungsbereich der USA aus der Taufe gehoben. Niemand dachte an sechs- und siebenstellige Knotenzahlen. Noch Ende der 80er Jahre entschied ein Konsortium einer Interoperability-Konferenz im kalifornischen Monterey, TCP/IP nicht explizit um neue Funktionen und Technologien zu erweitern, da

- dies unter Umstaenden den Grad der De-facto-Standardisierung (FTP, Telnet/VT100, SMTP) infolge unterschiedlicher und unvollstaendiger Implementierungen verringern wuerde und

- die OSI-Protokolle sowieso in wenigen Jahren im gesamten Netzwerkbereich dominieren wuerden.

Das erste Argument hat einiges fuer sich, gilt beim nochmaligen Hinsehen jedoch nur im Zusammenhang mit dem zweiten. Sonst koennte man jede Weiterentwicklung eines Produkts mit dem Hinweis auf die Stabilitaet der vorhandenen Version abwuergen. Steht jedoch eine neue, bessere und umfassendere Technologie vor der Tuer, so sollte man das Vorgaengerprodukt natuerlich auf Eis legen.

Zu komplexe Protokolle

behindern OSI-Aufschwung

Leider hat sich der OSI-Markt in den letzten Jahren nicht so entwickelt wie prophezeit. Die Gruende sind: Zu komplexe Protokolle, zu viele Kombinationsmoeglichkeiten, Flops wie Inkompatibilitaet zwischen Cons (Connection Oriented Servicesund CNLS (Connectionless Services) und deshalb immer noch erhebliche Interoperabilitaetsprobleme. Darueber hinaus enthalten alle Unix- Systeme die TCP/IP-Protokolle und ARPA-Dienste, so dass sich viele Anwender fragen: Warum fuer OSI extra zahlen, wenn wir TCP/IP umsonst bekommen? Natuerlich hat TCP/IP auch im Unix-Umfeld seinen Preis, ist jedoch haeufig mit dem Betriebssystem gebuendelt.

Waehrend all diese Probleme ihrer langsamen Loesung harren, verstreicht die Zeit nicht ungenutzt: TCP/IP verbreitet sich ungebremst. Was koennte dieses Wachstum empfindlich stoeren? Die Adressstruktur ist die Achillesferse von TCP/IP. Schon heute werden die Adressen knapp, vor allem wenn man an die Zahl der Subnetze denkt. Da helfen die theoretischen vier Milliarden Adressen (32 Bit) wenig, wenn durch die Strukturierung in den Subadressen teilweise nur noch 8 Bit, das heisst 256 Adressen, zur Verfuegung stehen. Da ein konsequentes Internetworking keine privaten Clones von Adressraeumen mehr erlaubt, droht zukuenftigen Internet- Aspiranten die Verweigerung.

TCP/IP- und OSI-Lager

arbeiten jetzt zusammen

Diesem Missstand versuchen die internationalen Gremien neuerdings durch eine beispiellose, pragmatische Zusammenarbeit der verfeindeten Lager TCP/IP und OSI abzuhelfen. Dafuer bieten sich sowohl erweiterte Adresskonzepte aus dem OSI- Bereich (Tuba) wie auch einige neue Ansaetze aus dem TCP/IP-Umfeld (SIP, PIP) an. Erfreulich ist, dass ARPA-Pragmatiker und OSI- Protagonisten mit ausgestreckten Haenden statt mit geballten Faeusten aufeinander zugehen.

Ein anderes Problem liegt in den unzureichenden Routing- Mechanismen von TCP/IP, das heisst schlicht und einfach, die entsprechenden Mechanismen sind nicht fuer die gegenwaertigen und zukuenftigen Groessenordnungen ausgelegt. Auch hier sucht man nach Loesungen aus dem OSI-Bereich. Aehnliches gilt bei Ueberwachungsmechanismen fuer Nachrichten, die heute nicht im ausreichenden Masse im TCP/IP-Netz zur Verfuegung stehen.

Eines der schwerwiegendsten Probleme beim Internetworking stellt heute jedoch die LAN-Kopplung ueber WANs (Wide Area Networks) dar. Waehrend LANs durchgehend mit 10 Mbit/s (Ethernet) oder gar 16 Mbit/s (Token Ring) betrieben werden, bieten die WAN-Dienste ueberwiegend maximal 64 Kbit/s an (Datex-P, ISDN). Zwar lassen sich mehrere solcher Kanaele zu einem logischen Kanal groesserer Bandbreite zusammenfassen, jedoch ist dies derzeit sinnvoll nur in leitungsgebundenen Netzen wie ISDN moeglich und erfordert dort auch erheblichen Aufwand auf beiden Seiten fuer das Re-Assembly der Datenpakete.

Internetworking treibt

Technologieprozess voran

Wer jedoch im internationalen Bereich auf X.25 angewiesen ist, muss sich oftmals aus Kostengruenden sogar mit 9.6 Kbit/s zufriedengeben. Selbst 64 Kbit/s sind aber fuer die intensive Nutzung von Client-Server-Anwendungen ueber raeumlich verteilte Netze nicht ausreichend. Hier koennen nur MANs (Metropolitan Area Networks) mit FDDI oder DQDB sowie neue Technologien wie Frame Relay oder ATM helfen. Die Anforderungen des Internetworkings sind deshalb auch eine wesentliche Triebfeder fuer die Entwicklung dieser neuen Kommunikationstechnologien.

Bleibt das Problem des Netzwerk-Managements. Auch hier sind wir noch am Anfang, und die Anbieter von entsprechenden Produkten kommen kaum hinter den Anforderungen und Problemen der lawinenartig anwachsenden Netzwerk-Kopplungen her. Zwei Netze ueber einen Router oder eine Bridge zusammenzuschliessen ist schnell getan.

Stoerfaelle, Lastschwankungen sowie den Ausfall ganzer Teilnetze und neuralgischer Knoten wie Router und Bridges rechtzeitig zu erkennen und die Folgen im Griff zu behalten, erfordert jedoch noch wesentlich leistungsstaerkere Management-Werkzeuge, die nicht nur alle sieben Ebenen des Schichtenmodells einschliesslich Hardware und Anwendung abdecken, sondern auch automatisch eingreifen, wo Aufnahme- und Reaktionsfaehigkeit des Netzadministrators ueberfordert sind. Bis dahin vergeht jedoch noch einige Zeit, und die heisst es mit unvollstaendigen Tools und rudimentaerem Verstaendnis in expandierenden Netzen zu ueberstehen.

*Frank Raudszus ist Geschaeftsstellenleiter der Danet GmbH, Darmstadt.