Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

03.11.1989 - 

Ab einer gewissen Größe fahrt kein Weg an Unix vorbei

Unix: Arbeitsplatz-Intelligenz und Chance für die Unternehmen

Der Dialog mit Kunden zeigt eine eindeutige Tendenz: An Unix führt ab einer bestimmten Größenordnung des Unternehmens kein Weg vorbei. Trotzdem haftet dem Betriebssystem-Oldie in Diskussionen immer noch der Geruch schwerer Handhabbarkeit an. "Nur für technische Anwendungen" winken einige ab. Doch grafisch orientierte Oberflächen-Standards setzen sich bei Unix durch. Damit gewinnt es auch immer mehr an Momentum und stellt jeden ernstzunehmenden Systemlieferanten vor die Frage, wie er es hält mit dem Multiuser-Betriebssystem.

Für HP ist die Beantwortung der Frage nach dem Multiuser-Betriebssystem deshalb relativ einfach, weil hier schon früh die Entwicklung von CAD-Systemen auf die Basis von Unix, implementiert auf Motorola-Prozessoren, abgestellt wurde Gerade die Verbreitung dieser Prozessoren hat maßgeblich zur Akzeptanz von Unix beigetragen. Und als ursprünglich ideales Betriebssystem für technische Anwendungen ist es heute zum Defakto-Standard in allen Bereichen des CAE geworden. Gerade dort ist der Kostendruck für die Unternehmen besonders groß, und die rasante Entwicklung immer neuerer, immer schnellerer Workstations, die sich zudem noch leicht in das lokale Netzwerk einbinden lassen erhöht die Reaktionsgeschwindigkeit und damit die Produktivität von Unternehmen.

Unterschiedliche Betrachtungsweisen

Aus dieser Entwicklung ergeben sich zwei unterschiedliche Betrachtungsweisen, wie Unix-Systeme die DV-Struktur stützen und verändern werden. Einerseits als Workstations, andererseits als vernetzte Abteilungssysteme oder als Ressourcen-Server. Dabei prägen Standards die Einsatzmöglichkeiten von Unix, erst sie begründen die eigentlichen Perspektiven für die Zukunft. Standards haben sich gebildet, weil der Druck der Anwender in Richtung einheitlicher Schnittstellen bei Hardware und Software sich stetig verstärkt hat. Unix selbst hat sich so zum Standard entwickelt. Und Standard-Gremien wie Posix für den Bereich des Betriebssystems und der Benutzerschnittstellen, ANSI für Sprachen und Tools, OSI für den Netzwerkbereich und X/Open und OSF für Applikationen, sind mit nichts anderem beschäftigt, als weitverbreitete Benutzeranforderungen zu Industrie- und De-facto-Standards zu machen. Und die Einhaltung dieser Standards von seiten der Hersteller sorgt dann für Portabilität der Anwendung und die Integration von Systemen in das Unternehmens-Netzwerk. Die Betrachtung gilt zunächst den technischen Workstations. Die sind mit sehr hohen Prozessorleistungen, oft auch mit Grafik-Acceleratoren ausgestattet. Sie bringen die Macht früherer Supercomputer an den Arbeitsplatz. Sie bieten im Gegensatz zu den herkömmlichen Time-Share-Konzepten - mit unkalkulierbaren Antwortzeiten - einen Einzelarbeitsplatz. Der ist, bei gleicher Aufgabenstellung gleiche Antwortzeiten garantierend, jederzeit von verfügbar.

Jedem einzelnen Anwender solche Möglichkeiten zu bieten, ist selbstverständlich auch eine Frage der Kosten in Vergleich zum Nutzen. Ein rapider Preisverfall sorgt damit nicht nur für die Verbreitung der Workstations, sondern auch des Betriebssystems Unix, unter dem die zumeist technischen Anwendungen laufen.

Workstations werden von mehreren Hardwareherstellern angeboten, und in der Frage, für welches System die Entscheidung fallen soll, spielen mehr und mehr Prozessoren eine wesentliche Rolle. So arbeitet die HP RISC-Implementation HP Precision Architecture zusätzlich mit optimierenden Compilern und angepaßten Datenbanken, und hält dabei die erwähnten Standards ein.

An diesen Punkten bemißt sich der tatsächliche Nutzen der Systeme für ein Unternehmen, und hier unterscheiden sich die Hersteller voneinander. Und der Nutzen wächst in dem Maße, in dem sich die Hardware-Entwicklung weiter vollzieht. Solche Systeme bringen heute schon bis zu 164 MIPS zustande, und nach oben scheint keine Limitation zu bestehen. Bei HP wird diese Leistung mit zusätzlichen Prozessoren realisiert, von denen wiederum jeder einer Weiterentwicklung unterliegt.

Perspektiven für das Wachstum der Leistung ergeben sich aus der intensiven Forschung und Entwicklung sowie der wirtschaftlichen Produktion neuer Technologien, getrieben vom Verlangen des Markts nach immer mehr Computerpower.

Ein anschauliches Beispiel bieten hier vor allem die grafischen Workstations. Die System-Prozessor-Einheit erledigt das Datenbankmanagement, beheimatet die Applikation und das I/O-Handling. Verstärkt werden diese Fähigkeiten dann durch spezielle Grafikprozessoren und hochauflösende Bildschirme. Damit bietet die Workstation heute für die 2D- und 3D-Verarbeitung in der Hardware implementierte Routinen für schnellste Pixel- und Blockumsetzungen, Transformationen oder Berechnungen verdeckter Flächen, bei denen die Prozessoren der CPU allein überfordert wären. Auch die Bildqualität hat erhebliche Fortschritte gemacht.

Realistische Darstellungen sind ohne weiteres möglich, ermüden den Anwender in erheblich geringerem Maße und bringen ihm ein besseres Verständnis für die Bearbeitung von Problemen, so bei der Entwicklung von Prototypen, bei denen oft viel abstraktes Denk- und Vorstellungsvermögen vonnöten ist. Hier unterstützen besonders Lichteffekte, akkurate Schattierungen oder besondere Oberflächen-Darstellungen die kreative Arbeit.

Obwohl der Preisverfall bei diesen Hochleistungssystemen schon dramatisch ist, wird die Frage nach noch preiswerteren Einstiegssystemen gestellt. Vielen scheint da die Intel-Welt, die ja ebenfalls sehr schnelle Prozessoren bietet, eine Alternative zu sein. Es wird sich sicherlich einiges bewegen, wenn man etwa an die Erledigung einfacherer Arbeitsgänge denkt: Rechnen. Zeichnen, Schreiben. Hier braucht man keine Höchstgeschwindigkeiten, sondern Standardwerkzeuge, die die Arbeit erleichtern. Das bietet die Intel-Welt bekanntermaßen in ausgeprägter Form vor allem unter DOS.

Aber die Arbeiten, die beispielsweise bei Simulationen oder 3D-CAD erledigt werden müssen, können hier momentan noch nicht effektiv genug erledigt werden.

Die Ausbreitung von Unix ist nicht aufzuhalten

Dies hat vor allen Dingen auch etwas mit der Speicherfähigkeit der Systeme zu tun. Komplexe Anwendungen erfordern interne Speicherkapazitäten, die in riesige Megabyte-Größenordnungen gehen, um die erforderlichen Geschwindigkeiten zu realisieren. Und Unix, das sich längst dem Vernetzungs- und damit dem Standard-Bedarf der Unternehmen angepaßt hat, genießt unter der Intel-Chiparchitektur noch nicht den Grad an Standardisierung und Entwicklung, der heute einen ernstzunehmenden Wettbewerb zu hochkomplexen Anwendungen darstellen würde. Das hat den historischen Grund, daß sich die Entwicklung von Unix zum Standard vornehmlich unter Motorola vollzogen hat und daß dabei einige Eigenschaften von Unix quasi nebenbei auf diesen Prozessor abgestimmt wurden.

Doch die Ausbreitung von Unix ist nicht aufzuhalten, und deshalb könnten schon allein aus Preisgründen Entscheidungen zugunsten von Intel ausfallen Beim Einstieg in die Unix-Welt für kleinere Benutzergruppen oder Workstations mag sich hier bald ein neues Bild ergeben. Dies gilt besonders dann, wenn die Unternehmensgrösse eine enge Integration in die vorhandene EDV noch nicht zwingend macht.

Die intensive Verarbeitung von Daten und deren Generierung wirft natürlich die Frage auf, wie denn Workstations - aber auch kleinere Mehrplatzsysteme - sich in die Informationsstruktur der Unternehmen einbinden lassen. Viel stärker noch als das Betriebssystem Unix selbst haben die parallel dazu entstandenen Netzwerkstandards für dessen Verbreitungsgrad gesorgt. Doch je mehr diese gefordert waren, hat sich Unix eindeutiger in Richtung der Anforderungen der bestehenden EDV weiterentwickelt und bietet dieser wiederum die Möglichkeit der Integration abteilungsbezogen arbeitender Unix-Systeme oder Workstations. Die Akzeptanz von Unix in dieser Umgebung rührt vor allem daher, daß Unix vier wesentliche Grundforderungen der EDV erfüllt:

- Einhaltung von Industrie- und De-facto-Standards,

- Kommunikationsplattform in heterogenen Netzen,

- Portabilität der Anwendungen,

- Einheitliche Benutzerschnittstellen

Hier liegt die Erklärung für die Frage, warum Unix eine neue Hoffnung für kostengebeutelte, einem wachsenden Konkurrenzdruck ausgesetzte Unternehmen geworden ist. Diese erkennen mehr und mehr, daß nur ein weitgehend Standards unterliegender Einsatz von DV-Systemen Entlastung und neue Chancen für Rationalisierung bringen kann. Denn mit Hilfe von Unix und den darunter angebotenen Netzwerkdiensten können die Systeme verschiedenster Hersteller miteinander kommunizieren - ohne die Scheuklappen herstellereigener Protokolle. Verdeutlicht wird dieser Trend durch die Tatsache, daß bei einigen Messeveranstaltungen die Kommunikation über Herstellergrenzen hinweg eindrucksvoll demonstriert wurde. Damit kann sich heute kein Hersteller mehr hinter seinen hauseigenen Protokollen verstecken. Der Markt verlangt offene Kommunikation auf der Basis von Standards!

Hier mögen Netzwerkdienste wie ARPA, NFS, NCS oder der LAN/Manager von HP angesprochen sein, die transparent die Integration verschiedenster Systeme in das Unternehmens-Netzwerk gestatten. Dies gilt auch und vor allem für Unix-Systeme, selbst die bislang recht abgesetzt arbeitende MS-DOS-Welt kann so einbezogen werden, wie es dem Wunsch der von dieser Problematik gepeinigten EDV-Leiter entspricht. Zentrale Verwaltung von Daten und Applikationen und die gemeinsame Nutzung teurer Ressourcen wird über das Netz ermöglicht.

Server-Modell von Hewlett-Packard

Zur Verdeutlichung mag ein kürzlich bei HP vorgestelltes Server-Modell dienen, das abteilungsbezogene Daten halten kann und die Kommunikation über das Netz zu weiteren Datenbeständen oder auch die Kommunikation über die Unternehmensgrenzen hinweg besorgt. Es ermöglicht sowohl die zentrale Verwaltung, Pflege und Distribution von Software, als auch den Zugriff auf Anwendungen, die sich physikalisch auf anderen Systemen befinden.

Bezeichnend ist: Auch der Server arbeitet unter Unix. Er kann dabei nicht nur Workstations, sondern auch Unix-Mehrplatzsysteme und die DOS-Welt integrieren, wobei dem Anwender die volle Funktionalität seines Systems erhalten bleibt. Aber erst im Netz kann einem Grundbedürfnis der Unternehmen von entsprochen werden: Unabhängigkeit von der Hardware bei Verfügbarkeit optimaler Lösungen und gleichzeitiger, vollständiger Integration in die vorhandene DV-Welt.

Im besonderen erfüllt Unix die Forderungen der Anwender nach Portabilität der Applikationen. Unzählige, am Markt verfügbare Lösungen, die unabhängig von einer Hardwareplattform geboten werden, bieten den Zugriff auf die jeweils beste Software, wobei sich der Hardware-Hersteller mit den Kommunikationsmöglichkeiten und einer optimalen Unix-Integration auf seinen Systemen zu beschäftigen hat. Er kann dazu noch Tools liefern, die das System optimieren. Auch dort werden Standard-Institutionen vereinheitlichend auf das Marktgeschehen wirken.

Daraus folgt, daß Hardware allein in der Zukunft weniger kaufentscheidend sein wird. Sie muß - als Grundvoraussetzung - leistungsfähig sein. Der Hersteller muß neben der Implementierung aller verfügbaren Standards Hilfsmittel wie künstliche Intelligenz, CASE-Entwicklungswerkzeuge und optimierte Standard-Datenbanken anbieten, um im Konzert der wichtigen Anbieter mitzuspielen. Letztlich werden Qualität der Hardware und der Dienstleistungen das Angebot des Herstellers abrunden.

HP sieht CCE als langfristige Perspektive

Einen in seiner Computer-Strategie wesentlichen Begriff prägt HP mit dem Kürzel "CCE" - Cooperative Computing Environment. Für HP drückt das Kürzel CCE: eine langfristige Perspektive aus, eine Vision der einheitlichen, integrierten Umgebung für Benutzer, Anwendungsentwickler und Systemmanager. Ziel der vollständigen Integration ist es, dem einzelnen Arbeitsplatz buchstäblich jede Ressource im Unternehmen zugänglich zu machen, ganz gleichgültig, wie komplex der Vernetzungsgrad ist und ohne Kenntnis über die physikalische Speicherung von Daten und deren Herkunft. Hierzu dient ihm eine intelligente Workstation quasi als Fenster in das Netzwerk und damit in seinen Arbeitsbereich. Und es spielt auch keine Rolle, mit welchem Betriebssystem die Quelle arbeitet und wie man sich verhalten muß, um Daten zu erhalten und abzugeben.

Für diese in die Zukunft gerichtete Konzeption werden neben den Netzwerkdiensten gerade auch die Benutzerschnittstellen eine entscheidende Rolle, spielen. Denn gleichgültig, wo Arbeiten erledigt werden, ob in der Konstruktion, im Qualitätswesen, in der Verwaltung oder der Fertigung - Daten müssen aus verschiedenen Quellen zusammengestellt oder diesen zur Verfügung gestellt werden.

Mit der Anwendungsumgebung NewWave wird dem Benutzer ein Umfeld zur Verfügung gestellt, das seinerseits wieder auf Standards basiert ( MS-Windows, Presentation Manager und OSF/Motif ). Diese Umgebung erlaubt es den Anwendern, routinemäßige Arbeiten automatisch mit Hilfe künstlicher Intelligenz zeit- oder ereignisgesteuert erledigen zu lassen, ohne die komplizierten Zusammenhänge in der Informationsverarbeitung kennen zu müssen.

Die Verbreitung von Unix entstammt den Standardisierungsbestrebungen vor allen der Entwicklungsabteilungen vieler Unternehmen. In Zukunft wird sich Unix auf Basis weiterer Standards auch in die nicht technischen Bereiche hineinentwickeln. Es bietet damit letztlich unternehmensweit die Chance, zu kalkulierbaren Kosten und Risiken eine Basis für qualifizierte Entscheidungen auf allen Ebenen der Informationsverarbeitung zu erhalten. Dies wird zur Vergrößerung von Flexibilität, Verkürzung der Entscheidungszeiträume und damit zur Steigerung der Wettbewerbsfähigkeit führen. Damit wird es aber auch zum unbedingten Muß für die Unternehmen und damit auch zum Zwang und zur Herausforderung für die Systemhersteller.

Für Entwicklungs- und nichttechnische Bereiche wächst so die Chance für Wachstum und Profitabilität. Beide werden sie erfolgreich wahrnehmen, wenn sie es verstehen, ihre Interessen gemeinsam zu definieren und sie gemeinsam zu realisieren. Eine andere Chance haben sie wohl auch nicht.

Peter Alef ist bei der Hewlett-Packard GmbH., Böblingen, verantwortlich für den Bereich Strategisches Marketing und Großkunden.