Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

16.03.1990 - 

Noch sind "offene" Standards Mangelware

Unix allein macht noch lange keine offenen Systeme

Das Schlagwort des Jahres 1989 hieß ganz klar Unix. Doch dieses Betriebssystem ist nur das Symbol für eine Idee, die weit darüber hinaus zielt: Offene Systeme. Offenheit bedeutet Unabhängigkeit von den Herstellern. Ein Ziel, das, so Jürgen Dippe*, ohne Standards nicht zu erreichen ist.

Seit den Gründertagen ist der Markt für Computersysteme, für informationstechnologische Produkte, im ständigen Wandel begriffen. Spätestens seit dem Siegeszug der Personal Computer wächst er sich zu einer regelrechten Revolution aus. In der Folge werden die Grenzen zwischen den bisher definierten Systemklassen immer weiter abgebaut. Inzwischen erreichen die Desktop-Mikrocomputer-Systeme bereits die Leistung bisheriger Minis und werden diese in nicht allzuferner Zukunft übertreffen.

Heute spricht alle Welt davon, daß offenen Systemen die Zukunft gehöre, und daran ist ja auch tatsächlich kaum mehr zu zweifeln. Möglich wurde dieser revolutionäre Fortschritt durch das immense Innovationstempo in der Informationstechnik. Den größten Vorteil konnten die Anwender daraus ziehen, denn letztendlich dienten alle diese Bemühungen dem einen Ziel, Bedürfnisse und Anforderungen der Kunden immer besser zu bedienen.

Der Markt hat sich in den letzten Jahren verändert. Ein Wandel, mit dem vor allem die Anbieter im informationstechnischen Markt zu kämpfen haben, denn, so ein Betroffener: "When technology drives competition, you can`t compete in technology."

Das nicht erkannt zu haben, hat schon für manchen Computer-Hersteller bittere Folgen gezeitigt. Die Lehre daraus hat nicht nur den derzeitigen Unix-Boom mitbewirkt, sondern auch die Tatsache, daß die generelle Verfügbarkeit der Funktionen "offener Systeme" auf Rechnern aller Systemklassen nicht nur diskutiert, sondern vielmehr gefordert wird.

Konkret wird immer wieder verlangt, daß es ein einheitliches Unix vom PC bis zum Mainframe geben sollte, Entsprochen hat man dieser Forderung bisher jedoch nicht, denn dafür sind Voraussetzungen nötig, die weit über das Unix hinaus reichen. Tatsächlich geht es um die Möglichkeiten "offener Systeme" insgesamt und nicht nur um das Unix-Betriebssystem im speziellen.

Es geht dabei um die Suche nach einem Betriebssystem und seiner Umgebung sowie nach Softwaretechniken, die in der Lage sind, dem raschen technologischen Wandel informationstechnischer Produkte folgen zu können. Dafür gibt es folgende Kriterien:

-Offenheit bedeutet die Kombination von Hard- und Software unterschiedlicher Hersteller zur Zusammenarbeit in einer integrierten Anwendungsumgebung.

- Portabilität ist die Möglichkeit, Software auf einfachste Weise auf die Rechner verschiedener Hersteller zu übertragen.

- Hardware-Unabhängigkeit bedeutet Portabilität von Anwendungssoftware innerhalb einer großen Varianz von Computersystemen.

- Interoperability heißt, daß die Hardware verschiedener Hersteller kommunikativ zusammenarbeiten kann.

- Scalability wird als Möglichkeit verstanden, die gleiche Software (Betriebssystem-Umgebung, Mensch-Maschine-Schnittstelle) bruchlos auf den verschiedenen Klassen von Systemen verwenden zu können, also vom PC bis zum Mainframe.

Unix war bisher das einzige Betriebssystem, das jedem an offenen Systemen interessierten Anwender zugänglich war. Es hat internationale Bedeutung erlangt, weil es auf den verschiedensten Hardwarearchitekturen

- vom PC bis zum Mainframe

- implementiert ist. Die Zeit bleibt doch nicht stehen.

Heute geht es um Herstellerunabhängige Betriebssysteme, die die Vorteile von Unix bewahren, und darüber hinaus um neue Konzepte, die in einen offenen Prozeß einbezogen werden können. Die Funktionen "offener Systeme" sollen künftig auf Computern aller Systemklassen zu nutzen sein. Die Realisierung solcher Forderungen zahlt sich für den Anwender durch eine Reihe von Features aus:

- grafische, objekt- und fensterorientierte Bedienoberflächen

- Dialog-Manager

- Desktop Publishing

- Sicherheits-Features

- On-line Transaction Processing (OLTP)

- langfristiger Investitionsschutz für Anwendungssoftware

- Client-Server-Rechnerarchitekturen

Funktionen offener Systeme können nur auf international vereinbarten und akzeptierten Standards beruhen. Dazu gehören sowohl offizielle Normen als auch die sogenannten Defacto-Standards, die im Markt der offenen Systeme ausgehandelt wurden. Ein Träger solcher Bemühungen ist die X/Open-Gruppe.

In Abstimmung mit den Anwendern

Mit der Dokumentation "The Open Systems Directive" hat X/Open die Grundlagen offener Systeme und Programme beschrieben, mit denen sie diese Systeme durchsetzen will. Wesentlich ist, daß "The Open Systems Directive" in Abstimmung mit Anwendern und unabhängigen Softwareproduzenten entstand. Dies schafft Gewißheit, daß die Anforderungen dieser Gruppen darin berücksichtigt sind.

Standards für offene Systeme müssen nach wie vor von den internationalen Normierungsgremien wie ISO, IEEE, CEN/Cenelec oder CCITT festgeschrieben werden, sollen sie Verbindlichkeit erlangen. Unumgänglich ist dabei jedoch die Kooperation dieser Gremien mit den Gruppen, die im Unix-Markt und in dem für "offene Systeme" arbeiten. Erste Erfolge zu folgenden Punkten sind bereits in Sicht:

- Wichtigste Forderung ist die Unabhängigkeit des Betriebssystems von verschiedenen Klassen der Computer-Systeme. Zugleich sollen neue Technologien und Methoden unverzüglich einbezogen werden. Zusätzlich werden Standards für "Logging and Recovery" und "Checkpoint and Restart" gefordert.

- Der Bedarf für die Integration von Sicherheitsstandards wächst stetig. Besonders wichtig sind Standards für ein "Distributed Application Environment".

- Als Folge der Forderung nach "Interoperability" in einem "Multivendor-System-Environment" ist die Verfügbarkeit einer standardisierten System-Administration geradezu vordringlich geworden.

- Alle Welt spricht von den Vorteilen einer grafischen Bedienoberfläche, welche einen grafischen Bildschirm voraussetzt. Nun haben NIST und ANSI den Normungsprozeß hierfür in Gang gesetzt.

Grundsätzlich bleibt noch eine ganze Reihe von Aufgaben offen. So bekommen offene Systeme erst Leben durch ihre Kommunikationsfunktionen. Hier gibt es noch große Lücken, was die Standardisierung betrifft. Vier der wichtigsten Bereiche seien hier genannt:

- Zusammenarbeit im Netz mit Personal Workstations, die unter DOS, OS/2, dem Mac-Betriebssystem, VMS oder Unix arbeiten,

- Network Management,

- Sicherheits-Standards für Netze,

- Koexistenz mit SNA.

Standards für Netze müssen in Zukunft den Austausch von normalen Texten, Mischdokumenten, Geschäftsgrafiken, Konstruktionsdaten und formatierten kommerziellen Informationen ermöglichen. Sinkende Hardwarekosten, verbesserte Kommunikations- und Netzfunktionen machen die Implementierung "verteilter" Anwendungen immer einfacher und kostengünstiger.

Heute werden solche Anwendungen über "Inter Process Communication" und "Remote Procedure Calls" realisiert. Ein Standard für die Skalabilität von Anwendungskomponenten in einer heterogenen Umgebung liegt ebenfalls noch in der Zukunft.

Der Ruf nach einem einheitlichen "Open Systems Environment" erfordert darüber hinaus eine computerunterstützte Entwicklungsumgebung (CASE). Deshalb sind Anwendungs-Entwicklungswerkzeuge und Programmiersprachen über Schnittstellen untereinander kompatibel zu machen.

Eine grundlegende Methode des Daten-Managements ist die Integration der Datenquellen. Die Bereitstellung von "Up-to-date-Daten" am richtigen Platz zur richtigen Zeit ist besonders wichtig für deren Effektivität. Auch hier braucht es Standards, um einerseits Daten von Anwendungen zu entkoppeln und andererseits den Zugriff auf verteilte Daten zu ermöglichen.

Mehr als zehn Arbeitsgruppen

Hilfreich bei der Erstellung von Standards sind neben X/Open auch Interessensgruppen wie die Open Software Foundation. Diese Organisation kümmert sich um Bereiche wie Kompilierformate (Architecture Neutral Distribution Format, kurz ANDF), computerunterstütztes Software-Engineering, Datenbank-Management, Internationalisierung der Software, Parallelverarbeitung und Benutzeroberflächen. Dabei wird durch die Mitgliedschaft in X/Open erreicht, daß die Bemühungen der OSF mit denen anderer Organisationen koordiniert werden.

Das Unix-Betriebssystem war ursprünglich für General-purpose-Minicomputer entwickelt worden. Neben der Mehrplatzfähigkeit werden aber auch Echtzeitverarbeitung sowie symmetrische Parallelverarbeitung, Sicherheitsstufe B2 und ein Virtual-File-System verlangt. Inzwischen hat IEEE mehr als zehn Arbeitsgruppen eingerichtet, die versuchen, den Standardisierungs-Prozeß voranzutreiben.

Durch diese Schilderung der Problematik kristallisiert sich heraus, daß es nicht reicht, nur Unix in allen Systemklassen zur Verfügung zu stellen. Vielmehr ist es zugunsten der Anwender erforderlich, alle Systeme den Kriterien für offene Systeme zu unterwerfen.

Es gibt verschiedene Ansätze, wie dies möglich gemacht werden könnte. Gerade im Hinblick auf Mainframe-Architekturen wird das Client-Server-Modell diskutiert.

Noch besser ist ein anderes Modell geeignet, die oben beschriebenen Anforderungen der Anwender in vollem Umfang zu erfüllen: die "lntegrated Applications Architectures".

Das proprietäre und damit nicht offene SAA-Konzept der IBM kann trotz der ähnlichen Bezeichnung nicht in dieser Reihe genannt werden. Offenheit ist schließlich Voraussetzung für ein solches Modell. Weitere Komponenten sind die X/Open-Standards und -Schnittstellen, die Posix-Richtlinien, OSF-Konzepte wie ANDF und Motif sowie die OSI-Kommunikation-Standards.