Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

16.08.1991 - 

Anwender können herstellerunabhängig und kostengünstig kalkulieren

OSI-Standards nehmen auf geleistete Investitionen Bezug

16.08.1991
Sieben Schichten hat das „Open Systems Interconnection Model“, mit dem die Kommunikation über unterschiedliche technische Systeme hinweg ermöglicht und deren Weiterentwicklung begünstigt werden soll.

Mehr und mehr wurde bei den Anwendern aber der Ruf nach systemübergreifenden Protokollen laut, die letztlich unter dem Dach der ISO auf Basis des Referenzmodells entwickelt werden. Horst Meiser skizziert Entwicklung und Probleme von OSI.

Foto: International Organization for Standardization

Die proprietären Verbindungsschemen zwangen die Kunden dazu, genau bei "ihrem" Hersteller zu kaufen und hielten sie davon ab, sich auf dem Markt nach der kostengünstigsten Lösung für ihre DV-Bedürfnisse umzusehen. Sogar Computerhersteller, die einzelne Komponenten zur Integration in ihre Systeme auf dem Markt einkaufen wollten, scheiterten an dieser Barriere.

Standardbedarf wurde frühzeitig artikuliert

Schon vor langer Zeit wurde deshalb der Bedarf an Standards in der Computerindustrie festgestellt. Anfänglich wurden sie an verschiedenen Enden der DV-Hierarchie entwickelt: Am unteren Ende entstanden Standards wie RS-232C, die die physikalische Verbindung zwischen Geräten beschreiben. Diese vereinfachten das Problem des "Mischens" von Computergeräten. Am oberen Ende entstanden Standards für Programmiersprachen. Damit hatten fortan Sprachen wie "Fortran-77" oder "Cobol-85" bei verschiedenen Anbietern die gleiche Bedeutung.

Verschiedene Standardgerüste wurden von unterschiedlichen Gruppen entwickelt und verwaltet. Viele dieser Organisationen existierten schon lange bevor die Computerindustrie entstand und sie in die Entwicklung dieser Computerstandards mit einbezog. Die elektronischen Standards kamen von technischen Gesellschaften wie dem Institute of Electrical and Electronic Engineers (IEEE), dem International Electronical Committee (IEC) und der Electronic Industries Association (EIA). Die Programmiersprachen, die bereits von den Herstellern und an den Universitäten entwickelt wurden, kamen unter die Schirmherrschaft von ANSI, dem American National Standards Institute.

In der Welt der Telekommunikation hatte zu dieser Zeit der gleiche Standardisierungsprozeß in großem Umfang begonnen. Die PTTs erkannten schnell, wie bedeutsam es für die einzelnen Länder ist, eine Übereinkunft über die Art und Weise der Verbindungen zu haben. Nur so konnte ein länderübergreifender Telefon- und Telexverkehr funktionieren.

Als die DV begann sich der Telekommunikation zu bedienen wurden die Standardisierungsorganisationen der Telekommunikation in die Erarbeitung der Datenkommunikationsstandards mit einbezogen. Dies geschah vor allem in Europa, da hier die öffentlichen Telefongesellschaften (PTTs) sowohl die Telephon- als auch Datennetze kontrollieren. Das CCITT (International Telephone and Telegraph Consultative Committee), die Organisation der öffentlichen Telekommunikationsgesellschaften, die in Europa ansässig ist, veröffentlichte einige Standards bezüglich digitaler Netzwerke.

Standards, die von verschiedenen Organisationen auf der ganzen Welt entwickelt und formuliert werden, sind der ISO untergeordnet und können so eventuell zu internationalen Standards (IS) werden. Neben den internationalen Standards, die durch die verschiedenen Standardorganisationen entwickelt wurden und von deren Mitgliedern weltweit beachtet werden, existieren auch De-facto-Standards. Dabei handelt es sich um Protokolle und Architekturen, die durch eine allgemeine Übereinstimmung oder Verwendung zum Standard werden. In der Computerindustrie werden die meisten De-facto-Standards durch die Dominanz von IBM-Produkten gesetzt. Beispiel für einen nicht durch IBM gesetzten De-facto-Standard ist TCP/IP, das in den 70er Jahren vom US Department of Defense definiert wurde. Einen neueren De-facto-Standard stellt Suns Network Filing System (NFS) dar.

Die heutigen Netzwerke basieren größtenteils auf standardisierten Low-level-Protokollen für Local Area Networks (LAN) wie Ethernet, Token-Ring oder X.25. Aufgrund dieser Standardprotokolle können Computer unterschiedlicher Hersteller an das gleiche Netzwerk angeschlossen werden.

Dieser Grad an Connectivity schließt jedoch nicht das Zusammenwirken der Systeme ein. Wie bereits mit ihren proprietären Netzwerken wollen die Anwender Applikationen, Informationen und Ressourcen im gesamten Netzwerk nutzen. Das Ziel der Open Systems Interconnection (OSI) ist die Bereitstellung solcher Möglichkeiten der Zusammenarbeit beziehungsweise des Zusammenwirkens in Netzwerkumgebungen mit mehreren Herstellern durch eine Sammlung von Standards, die durch die International Standard Organisation (ISO) verbreitet werden.

1984 veröffentlichte ISO das Referenzmodell für Open Systems Interconnection.

Das OSI-Modell beschreibt sieben Datenkommunikationsschichten oder Funktionen, die den Prozeß der Datenübertragung zwischen zwei Systemen wiedergeben. Jede Schicht hat eine spezifische Aufgabe und arbeitet unabhängig von den anderen Schichten. Die oberen Schichten können so zwischen zwei Systemen innerhalb eines LAN oder WAN kommunizieren. Jede Schicht stellt der dar überliegenden Dienste zur Verfügung und bedient sich andererseits der Dienste der darunterliegenden.

In jeder Schicht des sendenden Knotens werden, von der Anwendungsschicht nach unten, verschiedene Informationen zu den Daten hinzugefügt. Die verpackten Daten werden dann von der entsprechenden Schicht der Gegenseite (empfangender Knoten) ausgepackt, um so die gesendeten Daten wieder zu erlangen.

Die erste Schicht für die Bitübertragung definiert den Kanal, über den die Daten übertragen werden, sowie die physikalischen Signale. Die RS-232C-Schnittstelle, die Starlan-Topologie und der Token-Ring-LAN sind Beispiele für die Bitübertragung. Die LAN-Topologien bestehen aus Schicht eins und einem Teil der Schicht zwei.

Die Sicherungsschicht zwei stellt die Synchronisation und die Fehlerkontrolle für die Daten auf allen Teilen des Übertragungswegs zur Verfügung. Sie sichert die Datenintegrität auf dem Übertragungsweg.

Die Vermittlungsschicht drei ist für das Routing und die Wahl des Pfades, den die Daten nehmen werden, zuständig. Sie entscheidet, ob ein empfangenes Datenpaket sein endgültiges Ziel erreicht hat oder wohin das Paket weitergeleitet wird.

Die Transportschicht vier sorgt für die End-zu-End-Zuverlässigkeit durch die Sicherstellung der Datenintegrität entlang des gesamtem (routed) Pfads. Da verschiedene Netzwerktypen eine unterschiedliche Zuverlässigkeit aufweisen, sorgen unterschiedliche Transportklassen für einen angepaßten Grad an Fehlerprüfung. Abhängig von der Zuverlässigkeit des Netzwerks kann der Anwender eine Transportklasse wählen, die entweder eine geringe oder sehr ausgedehnte Fehlerprüfung vornimmt. Die Schicht vier übernimmt auch Aufgaben wie Multiplexing und Packen der Daten zur Gewährleistung einer effizienten Nutzung des Netzwerks.

Die Kommunikationssteuerung der Schicht fünf kontrolliert und synchronisiert den Dialog zwischen den kommunizierenden Anwendungsprozessen, während die Darstellungsschicht sechs Daten ver- und entschlüsselt. Die Konvertierung wird über eine allgemeine Sprache beziehungsweise Zeichensatz durchgeführt. So wird zum Beispiel in DG/X.400 eine Konvertierung vom DGI (Data General International) Zeichensatz hin zum IA5 oder ISO 6937 vorgenommen .

Schicht 7 enthält keine kompletten Anwendungen

Die Anwendungsschicht sieben ist eigentlich falsch benannt. Diese Schicht enthält anwendungsorientierte Funktionen wie Dateitransfer, -zugriff und -Management (FTAM) und Virtual Terminal (VT), also nicht zwangsläufig vollständige Endanwendungen.

Momentan ist die Schicht sieben die höchste Schicht des OSI-Modells. Es gibt allerdings einige Stimmen, die sieben Schichten für nicht ausreichend halten. Deren Vorstellung geht dahin, einige der bestehenden Schichten zu unterteilen, oder oben Schichten hinzuzufügen, die eine Datenschnittstelle auf einer höheren Ebene darstellen sollen. Es ist durchaus möglich, daß das Modell in Zukunft erweitert wird. Im Augenblick stellt es die Basis für eine Zusammenarbeit/ein Zusammenwirken mehrerer Hersteller dar, womit Systeme, die den gleichen Sieben-Schichten-Protokollstack verwenden, transparent Daten austauschen können. Dies ist dann völlig unabhängig vom Namen der Hardware oder dem Typ des Betriebssystems. Diese Transparenz ist eine der wichtigsten Vorteile von OSI oder offenen Systemen.

Aktivitäten sind heute auf Anwendung gerichtet

Es wurden bereits Protokolle auf allen sieben Schichten des OSI-Modells definiert. Anwender tauschen schon seit längerer Zeit mittels X.400 und FTAM Daten und Informationen aus. All dies spielt sich in der Regel zwischen "ungleichen" Systemen ab. Die unteren Schichten des OSI-Modells sind normalerweise von neueren Aktivitäten nicht betroffen. Die primären Aktivitäten sind die Entwicklung und Fertigstellung von neuen Protokollen innerhalb der Applikationsschicht sieben. Darüber hinaus wird einige Arbeit in die "Cross-Layer" Funktionsbereiche, das Netzwerk-Management, OSI-Sicherheit und den Bereich der High-Speed-Netzwerkunterstützung investiert. Ein generelles Modell für ein "Distributed Processing" wird ebenfalls diskutiert.

Ein Standardprotokoll muß sich, bevor es zu einem kommerziellen Produkt wird, einem ziemlich langwierigen Prozeß unterwerfen. Zuerst wird durch das ISO Standardverfahren eine erste Formulierung (Draft Proposal oder DP) erstellt, die dann zu einem Entwurf eines internationalen Standards (Draft International Standard oder DNI) und schließlich zur Endform einem internationalen Standard (IS) wird. Dies ist allerdings keine geeignete Vorgehensweise für die Entwicklung von kommerziell genutzten Produkten.

Die ISO-Standards sind sehr umfassend definiert und formuliert, damit sie der Vielfalt der Herstellerbedürfnisse entsprechen. Aus diesem Grunde müssen die einzelnen Hersteller normalerweise Teilbereiche dieser Gesamtfunktionalitäten implementieren. Solange sie nicht die gleichen Teilbereiche integrieren, können keine kommerziellen Produkte, die dem neuen ISO-Standard entsprechen, entwickelt werden.

Das X.400-Protokoll wurde 1984 fertiggestellt, ernstzunehmende Produkte waren allerdings nicht vor 1987 auf dem Markt. Gegenwärtig wird nur ein Teil der X.400- und FTAM-Möglichkeiten genutzt, es ist jedoch in den nächsten Jahren mit einer Ausdehnung dieser Funktionalitäten zu rechnen. Der Hauptgrund für eine weitere Verbreitung von X.400 liegt in den durch die PTTs durchgeführten Konformitätstests wie zum Beispiel dem Projekt Roland der Telekom. Mit bestandenem Test ist die Zusammenarbeit mit allen anderen Produkten, die diesen Test erfolgreich durchlaufen haben, sichergestellt.

Unix-Boom festigt die starke Position von TCP/IP

Die nächsten Anwendungen die eine weitere Verbreitung erfahren werden, sind Virtual Terminal (VT) und der X.500 Directory Service. Standards für Transaktion Processing oder Remote Datenbankzugriffe, die momentan auftauchen, werden noch einige Jahre benötigen, bis sie so stabil sind, daß die Entwicklung von entsprechenden Produkten und deren Einsatz Sinn macht.

In der Zwischenzeit werden bestehende Anwendungen um Funktionalitäten zum Netzwerk-Management und zur Sicherheit erweitert werden.

OSI ist eine Netzwerkarchitektur, die spezifiziert, wie Systeme miteinander kommunizieren können. Sie ist allerdings lediglich eine von vielen solcher Architekturen. Fast jeder größere Hersteller definierte seine eigene private Netzwerkarchitektur, bevor die Vorzüge von OSI deutlich wurden. Darüber hinaus hat sich TCP/IP zu einer De-facto-Standard-Netzwerkarchitektur entwickelt.

Data Generals Xodiac, Digital Equipments Decnet oder IBMs SNA sind Beispiele für private Netzwerkarchitekturen. Kurzfristig wird OSI diese Architekturen mit den darauf aufgebauten Anwendungen nicht ablösen können. Es wird in der DV wohl immer genügend Freiraum existieren, der solchen Architekturen eine Daseinsberechtigung gibt. Solange es keine einheitliche Standardarchitektur gibt, können die Hersteller ihre eigene Architektur nutzen, um ihre Betriebssysteme optimal auszuschöpfen.

Die Diskussion bezüglich der Zukunft von OSI, aufgrund der zunehmenden Verbreitung von TCP/IP, hält unvermindert an. TCP/IP hat einige vorübergehende Vorteile gegenüber OSI. Da TCP/IP schon wesentlich länger auf dem Markt ist als OSI, hat es einem Vorsprung bezüglich der Anwendungen, die auf dieser Basis entwickelt wurden. Darüber hinaus ist die Verbreitung in den letzten Jahren vor allem durch den sprunghaften Anstieg an Unix-Systemen zu erklären.

Fast alle Unix-Systeme werden zusammen mit TCP/IP angeboten, weil es in diesem Bereich zum De-facto-Standard geworden ist. Man sollte allerdings nicht vergessen, daß TCP/IP kein internationaler Standard ist. Unterdessen kommen auch immer mehr Interoperabilitäts-Tools für TCP/IP und OSI kommen auf den Markt, die sowohl ein Nebeneinander als auch eine Migration von TCP/IP nach OSI ermöglichen.

Jeder, der zum Beispiel schon einmal einen Drucker an einen PC angeschlossen hat, weiß die Existenz von Standards zu schätzen. Ohne Standards wie RS-232C wären die Möglichkeiten der Konfiguration eines Computersystems stark eingeschränkt.

Aus der Sicht des Anwenders eröffnet die Entscheidung für eine auf Standards basierende Kommunikationssoftware die Möglichkeit der Auswahl zwischen mehreren Herstellern und einen Schutz der getätigten Investitionen. Er ist fortan nicht mehr an einen Hersteller oder eine bestimmte Anwendung gebunden und kann damit das beste Preis-Leistungs-Angebot wahrnehmen. Für die Hersteller bedeutet dies, daß sie künftig in der Lage sind, sich einfach und problemlos in eine bestehende Umgebung zu integrieren.