Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

11.09.1987 - 

Offenheit für neue Tendenzen ist unerläßlich, aber:

Zu starker Separatismus schwächt Portabilitätsidee

In der DV-Branche hat sich Unix den Ruf eines "lebendigen" Systems erworben: Seine Definition ist also nicht festgeschrieben, und es muß permanent neuen Erkenntnissen aus dem Hard- und Softwarebereich angepaßt werden. Gleichzeitig jedoch dürfen die einzelnen Entwicklungszweige kein zu starkes Eigenleben führen. Ausgehend vom historischen Unix-Background, schildert Jürgen Gulbins* die jüngsten Trends in diesem Szenario.

Die zahlreichen von Unix abgeleiteten Systeme unterliegen einer ganzen Reihe von Einflüssen. Ins Gewicht fallen beispielsweise Firmeninteressen der Anbieter, die Zielhardware, die Bedürfnisse spezieller Kundenkreise und allgemeine Markttrends. Vor allem letztere sind zunehmend von Standardisierungsbestrebungen oder, genereller gesprochen, von Bestrebungen zur Vereinheitlichung eines festgelegten Kerns der Systeme bestimmt. Damit wird erstmals ernstlich versucht, den schon lange erhobenen Anspruch von Unix zu erfüllen: nämlich den der weitgehenden Einheitlichkeit und der leichten Portierbarkeit der für ein Unix-System beschriebenen Programme.

Unix entstand 1969 bei Bell Laboratories, einem gemeinsamen Forschungslabor von AT&T und Western Electric. Ziel der zunächst keineswegs kommerziellen Entwicklung war es, ein System zu schaffen, mit dem mehrere Programmierer im Dialog mit dem Rechner arbeiten, Programme entwickeln, korrigieren und dokumentieren können, ohne von einem Großrechner mit allen seinen damaligen Restriktionen abhängig zu sein. Als geistiger Vater dieser Entwicklung gilt Ken Thompsen. Geschrieben war das erste System in Assembler.

Zu dem Zeitpunkt, da Dennis Ritchie zu dem Team stieß, entstand die Programmiersprache "C", und das System wurde komplett für die PDP-11 von Digital-Equipment umgeschrieben. Danach wurde es nur entwicklungsintern verwendet, jedoch zusammen mit den Quellen sehr preiswert an Universitäten weitergegeben. Die durch die Sprache C erreichte Maschinenunabhängigkeit stimulierte die Übertragung des Systems auf zahlreiche weitere Rechner. Unter Unix-System versteht man dabei den eigentlichen Betriebssystemkern, aber auch einen Nukleus von heute zirca 250 Dienstprogrammen.

AT&T hat kommerzielle Vermarktung verschlafen

Die einsetzende Entwicklung ist in der Abbildung auf Seite 39 dargestellt. Unix Version 6, die erste Version, die auch außerhalb der USA eine nennenswerte Verbreitung fand, entstand 1974. Ihr folgte fünf Jahre später die Version 7.

Korrekt müßten diese Systeme eigentlich die Bezeichnung Unix I Version 6 beziehungsweise Unix I Version 7 tragen. Bis zu diesem Zeitpunkt lief das Betriebssystem primär auf den PDP-11-Maschinen und wurde von AT&T immer noch nicht im kommerziellen Sinne vertrieben.

Unix Version 7 entwickelte sich nun zur Ausgangsbasis für zahlreiche weitere Portierungen auf andere Maschinen. Der Ursprung der meisten heute angebotenen Systeme hat seine Wurzeln in dieser Basis. Selbst als AT&T 1981 Unix System III herausbrachte, blieb die Version 7 Basis für viele Portierungen, da sie stabiler und fehlerfreier war als System III. Es ist zu bedenken, daß bis dahin AT&T für Unix zwar Lizenzgebühren für die Quellen und Binärlizenzen verlangte, das Produkt Unix aber immer noch nicht kommerziell vermarktete oder unterstützte.

Die Abbildung versucht zu verdeutlichen, daß ausgehend von Version 7 nicht nur sehr viele Portierungen begannen, sondern daß auch ein gewisses Auseinanderlaufen der einzelnen Entwicklungen stattfand - es entstanden neue Unix-Systeme mit teilweise sehr unterschiedlicher Intention, Funktionalität und damit verbunden gewollte und nicht gewollte Inkompatibilität.

Ziel von Xenix der Firma Microsoft war es zum Beispiel, ein kompaktes und stabiles primär für Mikrorechner der 16-Bit-Welt geeignetes System zu schaffen. Darüber hinaus wurden hier recht früh einige Bedürfnisse des kommerziellen Bereichs, zum Beispiel Record-Locking, berücksichtigt. Im Gegensatz dazu zielte das System, welches an der Universität von Kalifornien in Berkeley entwickelt wurde - Berkeley Unix oder BSD für "Berkeley System Distribution" - darauf, neue Ideen zu erproben und ein virtuelles System zu schaffen, welches die Eigenschaften der VAX von DEC ausnutzt.

Erst 1983 betrat AT&T mit Unix System V die kommerzielle Arena, indem es erklärte, Schulungen, Support und Wartung für Unix zu geben. Zugleich deklarierte der amerikanische Kommunikationsgigant Unix System V als "den Unix-Standard", der fortan als "echtes Unix" gelten sollte. Mit der Freigabe von Unix System V Version 2 (1984) erschien 1985 zu dieser Standardisierungsproklamation auch die entsprechende schriftliche Definition in Form des Buches "Unix System V Interface Definition" (SVID). Damit entstanden natürlich Diskussionen und Rivalitäten darüber, was als "das echte Unix" gelten dürfe:

- Unix Version 7 als gemeinsame Ausgangsbasis;

- Unix System V als Standard von AT&T definiert;

- Xenix, da es durch die Mikros die größte Stückzahl verkauft hat;

- das Berkeley-Unix-System, da es funktional mächtiger war als System V;

- die Systeme der vielen anderen Anbieter, da sie doch dicht an dem einen oder anderen System lagen;

- oder keines von allen, da jeweils ein zu starkes Eigeninteresse einer speziellen Gruppe vorlag.

Zu dieser Zeit etwa begannen zwei weitere, relativ unabhängige Gruppen, sich mit der Definition eines Unix-Standards zu beschäftigen. Dies waren in den USA ein Arbeitskreis von "/usr/group" und in Europa die Bison-Gruppe, ein Arbeitskreis einiger europäischer Unix-Anbieter, der später zur X/Open-Group erweitert wurde. Diese Gruppen begannen nun - teilweise in Kooperation, teilweise in Konkurrenz - an einem Unix-Standard zu arbeiten. In einem gewissen Umfang gilt diese Konstellation bis heute - auch wenn inzwischen doch erfreulicherweise eine deutliche Konvergenz der einzelnen Definitionen zu erkennen ist.

Hier nun ein kurzer Überblick über die einzelnen Entwicklungszweige des Betriebssystems: AT&T begann 1983 damit, Unix System V Version 0 kommerziell zu vermarkten, das heißt, Schulung, Support und entsprechende Dokumentation bereitzustellen. Durch viel Werbung und Verhandlungen mit großen potentiellen Anbietern wie DEC, Motorola und Intel versuchte AT&T, dieses System V als den Unix-Standard zu etablieren. Die von AT&T selbst vertriebene Version war zunächst nur für die VAX ausgelegt, später kam die von AT&T sowie Olivetti vertriebene 3B2-Linie hinzu. Entgegen früheren Ankündigungen ließ AT&T 1986 die VAX-Linie ganz fallen und lieferte - offensichtlich, um den Verkauf der eigenen Rechner zu forcieren - nur noch Quellen für die 3B2-Linie.

Der Version 0 folgte Version 2 (Version 1 fand nur eine sehr geringe Verbreitung), welche als neue Funktionen die Interprozeß-Kommunikationsmechanismen der Semaphore, der Messages und des Shared Memory bot. Im Jahre 1985 wurde System V Version 2 Release 2 freigegeben. Dieses AT&T-Release unterstützte erstmals ein virtuelles System und kam der Forderung kommerzieller Systeme nach, indem es Funktionen zum Sperren ganzer Dateien oder einzelner Bereiche (Sätze) verfügbar machte.

Erfolgreicher Test reicht nicht für den Namen Unix

Seit 1986 stellt AT&T einen Satz von Testsoftware zur Verfügung, der es erlaubt, die Einhaltung der System V Interface Definition zu überprüfen. Dies ist die System V Interface Definition Test Suite. Sie wird Unix-Anbietern zum Preis von 25 000 Dollar offeriert, berechtigt bei erfolgreicher Abnahme jedoch noch nicht dazu, das getestete System "Unix" nennen zu dürfen.

Ende 1986 wurde Unix System V.3 Version 0 freigegeben. Damit unterstützte AT&T erstmals mit RFS (Remote File System) eine transparente Vernetzung von Unix-Rechnern. Weitere Neuheiten waren der Stream-Mechanismus, Shared Libraries, ein an BSD 4.2 angelehnter Signalmechanismus und eine Menüoberfläche für viele Unix-Kommandos. Geänderte Lizenzverträge veranlaßten viele Lizenznehmer, gegenüber V.3 zunächst sehr zurückhaltend zu sein.

Der Lizenznehmer muß sich zum Beispiel verpflichten, daß sein auf V.3 aufbauendes Produkt vollständig der System V Interfacedefinition entspricht. Das Lizenzabkommen schreibt darüber hinaus dem Lizenznehmer bestimmte Softwarepaketierungen bei der Weitergabe vor und berechnet für die Dokumentation weitere Gebühren. So sind bis heute nur recht wenig V.3-Systeme angekündigt.

Xenix ist ein Produkt der Firma Microsoft. Das ursprünglich von Unix Version 7 ausgehende Produkt wurde zunächst für die Restriktionen kleiner Hardwaresysteme der 16-Bit-Welt (kleiner Adreßraum, kleiner Hauptspeicher, kleiner Plattenspeicher) adaptiert und den Anforderungen kleiner kommerzieller Systeme (zum Beispiel Record Locking, visuell orientierte Shell) entsprechend erweitert. Unter den Unix-Systemen ist Xenix von der Zahl der Installationen her das Produkt mit der größten Installationsbasis.

Einheitslösung durch Verträge besiegelt

Zu der großen Anzahl von Systemen kommt es durch die frühe Verfügbarkeit stabiler Versionen, den relativ niedrigen Preis der Lizenzen und die frühe Berücksichtigung der Belange von kleinen kommerziellen Systemen. Der niedrige Preis der Hardware selbst, auf der Xenix in der Regel angeboten wird - zumeist 8086-, 80186- und 80286-Systeme - tut ein übriges dazu. Mit etwas Zeitversatz wurde auch Xenix um die in neuen Unix-Versionen (System III und System V) anzutreffenden Zusatzfunktionen erweitert. Vor zwei Jahren schlossen AT&T und Microsoft ein Abkommen, in dem Microsoft sich zur Kompatibilität gegenüber Unix System V verpflichtete. Dieser Stand wurde dann 1986 mit Xenix 5.0 erreicht.

Mit der Verfügbarkeit des Intel 80386 wurde 1987 eine Neuportierung von Xenix notwendig, um die neuen Eigenschaften des 32-Bit-Chip sinnvoll zu nutzen. Hierzu schlossen Microsoft und AT&T einen Vertrag, der vorsieht, daß es nur eine gemeinsame Unix-Version für den 386 geben soll, die unter dem Namen Unix laufen und Anfang 1988 zur Verfügung stehen wird. Microsoft läßt damit den Namen Xenix fallen und AT&T gibt damit erstmals offiziell das Markenzeichen Unix an eine andere Firma weiter.

Unter dem Berkeley-Unix-System ist zunächst die Unix-Implementierung der Universität Kalifornien in Berkeley zu verstehen. Dieses Unix-System trägt auch die Kurzbezeichnung BSD (für Berkeley System Distribution) oder UCB (für University of California at Berkeley). Obwohl es hier auch Portierungen für die PDP-11 gab, ist mit BSD zunächst meist die Portierung für die VAX von DEC gemeint. Ausgangsbasis der Portierung war Unix System III. Während jedoch die AT&T-eigene Unix-Version bis zu Unix System V Release 2 ein reines Swapping-System war, bot das UCB-System als erstes verbreitetes Produkt ein virtuelles Unix-Konzept an. Darüber hinaus wurde das System sehr stark funktionell erweitert - sowohl im Betriebssystemkern selbst als auch im Bereich der Bibliotheksfunktionen und Dienstprogramme.

Verteidigungsministerium fungiert als Sponsor

Diesen Funktionen folgte recht früh die Möglichkeit der Rechnervernetzung mit den neuen Mechanismen der "sockets" zur Kommunikation zwischen Programmen und Implementierungen der TCP/IP-Systeme, welche eine Kommunikation über das ARPA-Netz erlaubten. Eine weitere wesentliche Neuerung von BSD 4.2 stellte eine Neu-Implementierung des Datensystems dar, welche die Plattenzugriffe wesentlich beschleunigte (Fast File System). All diese Aktivitäten waren unter anderem durch eine starke Unterstützung (Finanzierung) dieser Projekte durch das amerikanische Verteidigungsministerium möglich.

Die Vermarktung des Berkeley-Systeme erfolgte bisher auf eine nicht kommerziell orientierte Art. Voraussetzung zum Erhalt einer Quellcode-Lizenz ist der Besitz einer entsprechenden AT&T-Lizenz. Darüber hinaus werden die Quellen zu einem minimalen Preis von zirka 800 Dollar abgegeben. Es erfolgt jedoch - im Gegensatz zu AT&T - auch keine entsprechende Unterstützung des Produkts durch regelmäßige Updates oder einen Softwaresupport.

Die erste weitere Verbreitung auch in Europa erfuhr die Version BSD 4.0. Ihr folgten bald BSD 4.2 und 1986 dann BSD 4.3. Ab 1983 portierten eine ganze Reihe von Firmen und die Universität selbst das System auf weitere Rechner, deren Hardware ein virtuelles System erlaubte. Die bekanntesten Implementierungen, die auf BSD basieren, sind das Sun Operating System der Firma Sun und Ultrix-32 von DEC.

Kommerzielle Systeme enthalten BSD-Funktionen

Fast alle kommerziell angebotenen Systeme haben jedoch inzwischen Funktionen aus dem BSD-System übernommen. Dies schlägt sich in den Produktbeschreibungen als "Berkeley-Enhancements" nieder und reicht von der Übernahme des Termcap-Mechanismus und des vi-Editors - auch AT&T hat diese beiden Komponenten inzwischen in Standard-Unix-Linien integriert - bis hin zur Übernahme der virtuellen Implementierung oder des Fast-File-Systems.

Primäres Ziel der Entwicklungen in Berkeley ist das Entwickeln und Erproben neuer Ideen und Funktionen; Kompatibilität und Standardisierung sind hierbei nicht sehr wichtig. So wurden bei der Umstellung von BSD 4.2 auf BSD 4.3 in einer ganzen Reihe von Programmen Änderungen notwendig. Von den verbreiteten Systemen stellt deshalb das Berkeley-Unix-System die stärkste Abweichung von der AT&T-eigenen Unix-Linie dar.

Da inzwischen der von AT&T propagierte Standard Unix System V jedoch ein wesentliches Marketing-Argument geworden ist, bietet eine Reihe von Herstellern Doppelimplementierungen an. Dabei kann jeder Benutzer dieser Systeme selbst entscheiden, ob er im AT&T-Modus oder im Berkeley-Modus arbeiten will, und es ist dort auch möglich, zwischen diesen beiden Modi zu wechseln.

Ein anderer Ansatz ist die Integration beider Linien zu einem einzigen System. Dieser Ansatz wird zum Beispiel längerfristig von Sun verfolgt. Da einige Implementierungsdetails der beiden Systeme unverträglich sind, stellt dies einen längerfristigen Prozeß dar, bei dem noch viele Einzelheiten zu klären sind.

Der Einfluß des Berkeley-Unix-Systems besteht in seiner frühen hohen Funktionalität. Die Entwicklung darf kommerziell betrachtet heute als weitgehend abgeschlossen betrachtet werden. Es ist zwar noch geplant, eine Version BSD 4.4 freizugeben doch will die Universität danach das Produkt - des hohen Verwaltungsaufwands wegen - nicht mehr in dem Umfang verteilen wie bisher.

Ein weiterer Grund für den Rückgang der bisher dynamischen Entwicklung des Systems ist darin zu sehen, daß die DoD-Finanzierung inzwischen beendet wurde und nun dem Mach-System zufließt. Eine Weiterentwicklung wird somit wahrscheinlich stärker extern erfolgen, zum Beispiel bei Sun. Digital Equipment, die ihr Ultrix-32 ursprünglich von BSD ableitete, ist inzwischen auf die AT&T-Linie eingeschwenkt und wird ihr System konform zur System V Interface Definition ausrichten. Wesentliche Teile der Berkeley-Konzepte sind inzwischen in die AT&T-Version eingeflossen - teilweise sogar in verbesserter Form.

Mach ist ein seit 1985 laufendes Projekt an der Carnegie Mellon University (CMU) in Pittsburgh/Pennsylvania mit dem Arbeitsziel "A New Kernel Foundation for Unix Development". Das System wird in starkem Maße vom DoD (Department of Defence) beziehungsweise DARPA (Defense Advanced Research Projects Agency) unterstützt und hat damit im Bereich Unix die Stelle eingenommen, die früher Berkeley hatte. Es wird darin - unter Beibehaltung der heutigen BSD-4.3-Schnittstellen - ein neues Konzept für ein Betriebssystem erstellt und implementiert, wobei neue Trends und Technologien wie Rechnervernetzung und Multiprozessortechnik im Mittelpunkt stehen. Folgende Erweiterungen zu BSD sind neu:

Unterstützung von Mehrprozessortechnik

- Unterstützung von eng und lose gekoppelten Mehrprozessorsystemen.

- Ein Prozeß wird in Tasks und Threads abgebildet.

Neues, stark abstrahiertes Modell zur Speicherverwaltung mit

- großem, nicht dicht besetztem virtuellen Adreßraum;

- virtuellen Kopieroperationen mit copy-on-write;

- Dateien, die im virtuellen Speicher liegen (memory mapped files);

- Speicherobjekte und Speicherverwaltungsmoduln, die vom Benutzer zur Verfügung gestellt werden können.

Neue Mechanismen zur Interprozeßkommunikation

- Die Mechanismen sind transparent im Netzwerk und bewahren auch im Netz konsistent ihre Schutzmechanismen und capabilities;

- ein in das virtuelle Speichersystem integrierter Mechanismus, der den Austausch großer Datenmengen mit copy-on-write erlaubt.

Eine Reihe von unterstützenden Werkzeugen, wie

- eine in den Kern eingebaute Testhilfe (ähnlich dem adb),

- Unterstützung für einen transparenten Zugriff auf die Dateien anderer Rechner über ein Netzwerk (remote file access),

- Unterstützung für Remote Procedure calls für die Sprachen C, Pascal und Common Lisp.

Durch das frühzeitig festgelegte Ziel hoher Portabilität und die konsequente Einführung von Abstraktionsstufen dürfte das Mach-System einfacher als BSD portierbar sein. Es läuft bereits heute auf unterschiedlichen Maschinen wie VAX und IBM RT PC. Trotz dieser Abstraktionsstufen scheint die Leistung des Mach-Systems der von BSD 4.3 zu entsprechen. Die neuen Mechanismen zur Interprozeßkommunikation dürften

Vorteile bei der effizienten Implementierung von Datenbanken bringen, die transparente Vernetzung einer heute stark propagierten Dezentralisierung unterstützen. Die Möglichkeit von Mach zur Mehrprozessorfähigkeit wird voraussichtlich der Diskussion über Vor- und Nachteile neue Argumente liefern. Die mögliche Abbildung von Dateien auf den virtuellen Speicher steigert die Performance vieler kommerzieller Programme mit sehr vielen kleinen Dateien spürbar.

Sicher befindet sich das Mach-System heute noch in einer recht frühen Phase, jedoch sind die bisher gemachten Erfahrungen so positiv, daß man erwarten kann, zahlreiche der neuen Konzepte und Ideen des Mach-Systems in absehbarer Zeit auch in Standard-Unix-Systemen wiederzufinden. Durch die bereits heute existierende Binärkompatibilität von Mach und BSD kann Mach relativ kurzfristig im universitären Bereich die Position erreichen, die heute das BSD-System einnimmt.

Die Zahl der inzwischen auf dem Markt angebotenen Unix-Systeme ist also sehr gering - soweit sie überhaupt versuchen, einen solchen Einfluß zu nehmen. Die überwiegende Zahl der Produkte lehnt sich heute sehr stark entweder an die Berkeley-Version oder an die AT&T-eigene System V Interface Definition an. Der Versuch einiger Hersteller, echtzeitfähige Unix-Varianten anzubieten, darf bisher als global gescheitert betrachtet werden, denn keines der Systeme hat eine größere Verbreitung gefunden.

Während im technischen Bereich das Berkeley-System oder eine Gleichzeitigkeit beider Systeme noch gewisse Vorteile bietet, zeichnet sich für den kommerziell orientierten Sektor eindeutig eine Präferenz für die AT&T-Linie beziehungsweise der davon abgeleiteten Definitionen wie Posix oder X/Open ab. Auf dieser Linie fährt zumindest bisher auch IBM auf einem teilweise sehr undurchsichtigen Kurs. Der wirklich sichtbare Einfluß von Mach mit seinen neueren und moderneren Konzepten dürfte erst in etwa zwei Jahren sichtbar werden - zunächst im universitären Bereich, später jedoch auch im technisch-wissenschaftlichen und danach im kommerziellen Sektor. Vorteile werden sich hier dann bei transparenten Vernetzungen und bei Mehrprozessorsystemen ergeben.

Normierungsversuche auf breite Basis stellen

In der bisherigen Betrachtung bezogen sich die Versuche der Standardisierung hauptsächlich auf den Betriebssystemkern und die systemnahen Bibliotheksfunktionen. Darüber hinaus verlangen moderne Rechnersysteme heute jedoch, sofern man Portabilität auch komplexer Anwendungssysteme erreichen will, nach Verfahren und Festlegungen, die darüber hinausgehen - sei es im Bereich der Rechnervernetzung, der Grafik, der Benutzerschnittstelle sowie von Datenformaten zum Austausch von Daten zwischen unterschiedlichen Anwendungspaketen. Die hier stattfindenden Normierungsversuche verlaufen noch wesentlich langsamer und sind teilweise Unix-unabhängig.

Im Bereich der Vernetzung von Unix-Rechnern bildet inzwischen das von Sun entwickelte NFS (Network File System) einen weitverbreiteten Quasi-Standard. AT&T versucht dem mit RFS (Remote File System) einen anderen Vorschlag entgegenzusetzen. RFS bietet zwar mehr Transparenz in der Unix-Welt; bisher jedoch haben nur wenige Anbieter diesen Ansatz übernommen. Beide Netze ermöglichen bisher nur die Verbindung im lokalen Bereich, obwohl beide Systeme behaupten, auch überregionale Verbindungen unterstützen zu können. Der Vorteil von RFS liegt - neben der bisher besseren Unix-Transparenz - darin, daß sich dieses Netz durch seinen Mechanismus des Transport Interface, einer Trennung der Netzfunktionen von dem eigentlichen Datentransport, einfacher auf die gerade entstehenden Normen entsprechend dem ISO-OSI-Modell abbilden läßt.

Allgemein akzeptierter Standard ist das Ziel

Betrachtet man die hier vorgestellten Fakten, so mag das Bild recht verwirrend erscheinen und eine Konvergenz nicht erkennbar sein. Zum Glück haben jedoch die Hauptmitwirkenden AT&T, IEEE, X/Open, neben den eigenen Interessen das zentrale Anliegen, einen möglichst breit anerkannten Standard zu schaffen. Für die P1003-Gruppe des IEEE mit Posix ist dies die einzige Forderung. X/Open möchte daneben primär die Möglichkeit der Mehrsprachigkeit des Unix-Systems sowie gewisse Anforderungen aus dem kommerziellen Bereich erfüllt sehen. AT&T versucht einen Kurs zu fahren, bei dem es die Kontrolle über Unix behält. Alle diese Beteiligten haben deshalb bisher Kompromißbereitschaft und Flexibilität gezeigt; Annäherungen sind so von Ausgabe zu Ausgabe der Beschreibungen und von Release zu Release der Software zu erkennen. Die noch vorhandenen Unterschiede scheinen bereits heute sehr gering.

So dürfte nach der endgültigen Verabschiedung von Posix - etwa Ende 1987 - diese Definition einen Minimalkern für Unix-Systeme darstellen. Die X/Open-Definition wir voraussichtlich eine Obermenge dazu bilden und über Posix hinaus Festlegungen für die Unterstützung der Mehrsprachigkeit von ISAM und einer minimalen Datenbankschnittstelle liefern. Die Unix-Definition von AT&T wird sich wahrscheinlich dazwischen bewegen.

Aufwärtskompatibilität muß erhalten bleiben

Für die vielen Anbieter von Unix-Systemen wird wahrscheinlich in den USA die AT&T-Definition den minimalen Implementierungsumfang vorgeben, in Europa die weitergehende Beschreibung von X/Open. Alle werden genug Spielraum behalten, um eigenständige Erweiterungen und Optimierungen in ihrem System anzubieten.

Es ist zu erwarten, daß schneller als bei anderen Standards neu überarbeitete Versionen von Unix-Definitionen verabschiedet werden müssen. Solange eine Aufwärtskompatibilität der vorhandenen Applikationsprogramme erhalten bleibt, dürfte ein solches Vorgehen ein gangbarer Weg sein.

Im Grafikbereich wird sowohl bei AT&T als auch bei X/Open unter der Rubrik "Zukünftige Entwicklungen" von GKS als Kandidat gesprochen. Betrachtet man jedoch die in Applikationen bisher sehr geringe Verbreitung von GKS und die Unfähigkeit von GKS, effizient mit Rastersichtgeräten und Rasteroperationen umzugehen, so muß man hinter diese Aussage doch ein dickes Fragezeichen stellen. Modernere und für die Interaktion besser ausgelegte Systeme wie Phigs scheinen momentan eine größere Chance zu haben.

Was den Bereich der Window-Systeme betrifft, so ist heute - gemessen an der Zahl der Unix-Anbieter, die sich für so ein System entschieden haben - das X-Window-Konzept eindeutig der Marktführer. Dieses System bietet auch eine Reihe grafischer Funktionen, läßt jedoch den wesentlichen Bereich des Metafiles aus.

*Jürgen Gulbins ist Leiter der PCS-Entwicklungsstelle in Karlsruhe.