Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

10.02.1978 - 

The Waves of Change

Distributed ProcessingDas IBM-Konzept

In der Frage "Zentralisierung oder Dezentralisierung der Datenverarbeitung?" hält IBM Distributed Processing für die beste Lösung. Stellt man sich die DV-Zentrale eines Unternehmens und deren Endbenutzer als zwei getrennte Bereiche vor, so bedeutet der IBM-Approach etwa folgendes: Mehr Freiheit für die Endbenutzer bei der Wahl und Entwicklung ihrer Systeme unter Beibehaltung einer zentralen Kontrolle der Benutzer-Aktivitäten.

Konzepte und neuere Produkte (System Network Architecture, das intelligente Terminalsystem 3790 und die

Serie 1-Minicomputer) lassen diesen IBM-Standpunkt erkennen. Nicht alle Kunden stimmen mit der IBM-Beurteilung des Distributed Processing überein - dies könnte sich jedoch ändern, wenn das Unternehmen erst einmal sein gesamtes DP-Produktangebot offengelegt hat.

IBM hat nämlich keineswegs die Absicht, den attraktiven Minicomputer-Markt und andere Bereiche der dezentralen DV der Konkurrenz zu überlassen.

Im Gegenteil: Für viele unabhängige Hersteller im Geschäft mit Minicomputern und intelligenten Terminals wäre es höchst ratsam, sich IBM's Produktstrategien einmal genauer anzusehen. Versäumnisse in dieser Richtung könnten sonst schmerzliche Konsequenzen haben.

Der Hauptunterschied zwischen IBM's DP-Approach und den Netzwerk-Konzepten der wichtigsten Mainframer-Konkurrenten (Univac, Honeywell, Burroughs, CDC etc.) und Minicomputerhersteller (hier ist vor allem DEC zu nennen) läßt sich klar erkennen: Die IBM-Konzeption sieht eine zentrale Host-Kontrolle des Netzwerksystems vor, während die anderen Hersteller eine Dezentralisierung der Kontrolle im System befürworten.

Honeywell vertritt eine ähnliche Position wie IBM. Aber was noch wichtiger ist: Honeywells Konzeption könnte der ideale Kompromiß zwischen beiden Extremen sein. Ein genaues Verständnis der unterschiedlichen Konzeption ist daher besonders wichtig. IBM ist aus wirtschaftlichen Erwägungen ganz klar gegen eine Dezentralisierung der Kontrolle". Angelpunkt des IBM-Konzepts ist eine wechselseitige Integration sämtlicher Systemkomponenten und damit letztlich die Abhängigkeit alle Subsysteme vom zentralen Hostrechner. Dies gilt gleichermaßen für Front-end-Prozessoren, Netzrechner Multiplexer und Konzentratoren, für intelligente Controller, Satellitenrechner und Terminals.

Diese Strategie hat zwei wichtige Konsequenzen: Zum einen macht sie es kleineren Herstellern von steckerkompatiblen Subsystemen nahezu unmöglich, ihre Produkte an IBM-Kunden zu verkaufen. Zum anderen garantiert sie eine vollständige Systemkontrolle, steigert Datensicherheit und System-lntegrität - und damit auch natürlich den IBM-Umsatz.

Andere Hersteller dagegen können sich eine derart konsequente Haltung kaum leisten. In der Tabelle (CW Nr. 6 vom 3. Februar 1977, Seite 6) sind die wichtigsten Merkmale zentraler und dezentraler DV aufgelistet. Aufgrund der bereits geschilderten Zusammenhänge ist jedoch eine eindeutige Abgrenzung nicht in allen Fällen möglich. Die letzte Antwort auf die Frage "zentrale oder dezentrale DV?" liegt vielleicht in der paradoxen Situation; in der ein modernes DV-Topmanagement heute bestehen muß: Das Gleichgewicht zu halten zwischen zwei Alternativen, die sich gegenseitig ausschließen und doch nebeneinander existieren.

Kapitel II

Entwicklungstendenzen Hardware/Software

In der Vergangenheit hat man der Hardware eine Schlüsselfunktion zugeschrieben und ihre Bedeutung für die Entwicklung der Computerindustrie häufig überschätzt.

Von entscheidender Bedeutung für die Erschließung neuer Anwendungen und den Verkauf von Computersystemen sind indes nicht mehr bestimmte Hardware-Technologien. Ihnen haben anspruchsvolle Neuentwicklungen im Bereich der Systemsoftware-Entwicklung den Rang abgelaufen. Dies gilt vor allem für den Wettbewerb im mittleren und oberen Leistungsbereich. Die führenden Hersteller tragen dieser Situation (und ihren wirtschaftlichen Folgen) in zunehmendem Maße Rechnung - ein

wichtiger Grund dafür, daß sich heute die Grenzen zwischen Anbietern von Hardware, Software und Systemservice immer mehr verwischen.

Dieser Trend zur "Überlappung" verschiedener Bereiche wird immer mehr die Regel, und dies nicht nur in Hinblick auf die besseren Marktchancen der Hersteller (natürlich kommt diesen wirtschaftlichen Überlegungen immer eine Schlüsselrolle zu). Was hier deutlich wird, ist das Bemühen der Hersteller, neuen Anwenderprioritäten gerecht zu werden: Die Kaufentscheidungen der Benutzer werden in zunehmendem Maße von Software-Überlegungen bestimmt.

Dieser Prioritätsumschwung verschafft Hardware-Herstellern, die mit einer Software aufwarten können, die ihr System benutzerfreundlich und leicht wartbar macht, einen klaren Wettbewerbsvorteil.

Dafür lassen sich mehrere Gründe angeben:

- Die Entwicklung neuer Applikations-Software ist immer noch sehr teuer. Ein komplettes Programmpaket aus 20000 Instruktionen für die Lohnabrechnung zum Beispiel kostet heute fast 160000 Dollar (nur zum Vergleich: 1959 kostete das gleiche Programmpaket ganze 90000 Dollar).

Charles P. Lecht ist Gründer und Vorsitzender der Advanced Computer Techniques Corporation (ACT).

Übersetzung: Reinhold Falkner