Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

03.10.1986 - 

Zentralistische Computerlösungen sind nur scheinbar wirtschaftlicher, doch:

Verteilte Systeme sind noch unvollkommen

Die Wirtschaftlichkeit zentralisierter Systeme wird häufig noch auf der Basis des Gesetzes von Grosch kalkuliert. Daß dies nicht so einfach ist, zeigt Gottfried Wollboldt* in seinem folgenden Beitrag auf. Der Autor gibt ferner zu bedenken, daß dezentrale Systeme anders als zentrale bewertet werden müssen.

Eine amerikanische Untersuchung (1,2)* macht Furore: Nach der Auswertung von Statistiken der Bundesbehörde kommen die Analysten zu dem erstaunlichen Ergebnis, daß trotz erheblicher Bemühungen, die Produktivität im Bereich der Schreibtischarbeit mit Hilfe des Einsatzes von Bürocomputern zu steigern, seit den 60er Jahren keine wesentliche Zunahme der Büroproduktivität erkennbar ist. Dies ist um so überraschender, als doch die Umstellung von manueller auf computerisierte Arbeitsweise in den 60er Jahren erhebliche Produktivitätszuwachse brachte. Ist die oft proklamierte These von der Steuerung der Büroproduktivität durch Computerisierung zur Illusion geworden?

Mit Sicherheit ließe sich eine Vielzahl von Beispielen finden, bei denen durch Einsatz von Bürocomputern die Schreibtischproduktivität um ein Mehrfaches gesteigert werden konnte. Allerdings wurde in diesen Fällen den Mitarbeitern nicht einfach ein neuer Computer auf den Schreibtisch gestellt, sondern die gesamten Arbeitsabläufe wurden der dezentralisierten Computerisierung angepaßt, ähnlich wie in den 60er Jahren, als die manuellen Arbeitsabläufe der zentralisierten Computerisierung angeglichen wurden. Mit der bloßen Einführung von Computern ist es noch nicht getan.

Schon in den 40er Jahren wurde über die Frage nachgedacht, ob es wirtschaftlich günstiger sei, die notwendige Rechnerkapazität zentralisiert in einem großen Computer oder verteilt in vielen kleinen zur Verfügung zu stellen. Man vermutete damals, daß auch für Computer gültig sei, was sich für andere technische Machwerke als gültig erwiesen hatte: Je größer die Anlage, um so besser das Preis-Leistungs-Verhältnis.

Herbert Grosch kleidete diese Erkenntnis in eine mathematische Formel, die später als das Gesetz von Grosch bekannt wurde. Die Formel besagt, daß ein Computer, welcher doppelt so teuer ist wie ein Bezugscomputer, nicht nur die doppelte, sondern sogar die vierfache Leistung erbringt.

Üblicherweise wird die Aussage von Grosch für das Preis-Leistungs-Verhältnis formuliert. Mit zunehmender Rechnerleistung ergibt sich offenbar ein günstigeres Preis-Leistungs-Verhältnis.

Zunächst mag das Gesetz von Grosch suggerieren, daß bei der Beschaffung eines Rechners nach der Regel zu verfahren ist: Je größer desto besser. Sind also die Käufer von Kleinrechnern Ignoranten, die gegen wirtschaftliche Vernunft handeln? Nein, beides hat seine Vernunft, das Gesetz von Grosch und der Kauf von Kleinrechnern! Das Gesetz von Grosch gibt ja keine umfassende Beziehung zwischen Preis und Leistung eines Rechners an, eine Beziehung, die alle nur denkbaren Einflußgrößen berücksichtigt. Das Gesetz beschreibt nur den Einfluß der "Wirtschaftlichkeit der Größe" auf das Preis-Leistungs-Verhältnis, aber nicht - um ein Beispiel zu nennen - den Einfluß von technologischen Fortschritten, dank derer etwa alle drei Jahre mit doppelter Rechnerleistung für den gleichen Preis gerechnet werden kann.

Die Überprüfung des Gesetzes von Grosch wirft zwei Probleme auf, deren Lösung bis heute nicht voll befriedigend gelungen ist:

1. Wie bestimmt man die Leistungsfähigkeit eines Rechners?

2. Wie trennt man den Einfluß der "Wirtschaftlichkeit der Größe" von den Einflüssen des technologischen Fortschritts auf das Preis-Leistungs-Verhältnis eines Rechners?

Eine kurze Antwort zur ersten Frage ist diese: Die Leistungsfähigkeit eines Rechners, wie sie von den Herstellern in Mips (Million instructions per second) angegeben wird, ist mit der "wahren" Leistungsfähigkeit eng korreliert. Die zweite Frage kann wie folgt beantworten werden: Man vergleiche nur solche Rechner miteinander, die der gleichen Technologiestufe angehören.

Die letzte veröffentlichte Überprüfung des Gesetzes von Grosch stammt von Philip Ein-Dor (4) und ist von der Auseinandersetzung mit der eingangs beschriebenen Studie (1,2) in besonderer Weise geprägt. Sie bestätigt wiederum die Gültigkeit des Gesetzes von Grosch, stellt aber andererseits fest, daß die technologische Entwicklung seit Einführung der Mini- und Mikrorechner es nicht länger erlaubt, Computer als einheitliche Gattung zu betrachten; vielmehr sei es angebracht, die Gattung "Computer" in fünf verschiedene Klassen einzuteilen:

Während innerhalb einer Klasse das Gesetz von Grosch Gültigkeit findet, zeigt sich beim Übergang von einer zur anderen Klasse das Gegenteil: Mit zunehmender Mächtigkeit wird das Preis-Leistungs-Verhältnis deutlich ungünstiger.

Für die Unternehmenspraxis ist es demnach ratsam, sich für eine Rechnerfamilie zu entscheiden, deren Systeme für das vorgegebene Anwendungsprofil adäquat dimensioniert sind. Aufgrund des Gesetzes von Grosch - aber auch in Anbetracht eventuell neu hinzukommender Anwendungen liegt es nahe, innerhalb der in Frage kommenden Rechnergattung den größten Rechner auszuwählen.

Verteilte Systeme

Die bisherigen Überlegungen gelten für Einzelpersonen (zentralistische Lösung). Es stellt sich nun die Frage nach der Wirtschaftlichkeit verteilter Systeme (5) - seien sie eng oder auch nur lose gekoppelt. Zwei gleichermaßen leistungsstarke Prozessoren können, wenn sie gekoppelt werden, zusammen nur (etwa) doppelt soviel Leistung erbringen wie jeder Einzelprozessor. Würde man aber das gleiche Geld ausgeben für einen doppelt so teuren Einzelprozessor (zentralistische Lösung) so hätte man entsprechend dem Gesetz von Grosch die vierfache Leistung verfügbar. Dies ist eine Argumentationsspitze der "Zentralisten" gegen ihre "Widersacher", die sich für verteilte Systeme einsetzen.

Lange Antwortzeiten bei hohem Durchsatz

Ein weiterer Aspekt ist von Bedeutung: In verteilten Systemen können die gekoppelten Einzelprozessoren nicht mit ihrer jeweils theoretisch möglichen Maximalleistung gefahren werden, denn dies hätte unerträgliche Anwortzeiten zufolge. Je höher der aus Wirtschaftlichkeitsgründen anzustrebende Durchsatz ist, um so länger sind die Antwortzeiten.

Die Optimierung von Antwortzeiten und Durchsatz erfordert Flußkontrolle und andere Kontrollmechanismen, die entweder in zentralisierter oder in verteilter Form implementiert werden können. Während die zentralisierten Kontrollalgorithmen in der Regel keine Schwierigkeiten mehr darstellen, ist dies anders bei den verteilten Kontrollalgorithmen - letztere sind Gegenstand von Forschungsarbeiten.

Das Bild, das Kleinrock (5) von verteilten Systemen entworfen hat, ist sonnig für Forscher, aber düster für Anwender und deren Geldgeber. Auch John Leslie King (6), der die Frage der Zentralisierung oder Dezentralisierung von Computern mehr von der organisatorischen und Managementseite untersucht, gibt keine befriedigende Antwort.

Die bisherigen Ausführungen mögen den Eindruck erwecken, daß verteilte Systeme - was die Wirtschaftlichkeit betrifft - den zentralistischen Systemen eindeutig unterlegen sind.

Wegen des von Ein-Dor modifizierten Gesetzes von Grosch ist dies allerdings nur bedingt richtig. Wirtschaftlichkeit ist nicht das einzige Kriterium für die Bewertung veteilter Systeme, sondern auch Dinge wie Funktionsverbund, Lastverbund, freizügige Kommunikationsfähigkeit und höhere Verfügbarkeit des Gesamtsystems müssen in Betracht gezogen werden.

Die heute im Einsatz befindlichen verteilten Systeme stellen noch recht unvollkommene Realisierungen dar. Standardisierte Software, die den Anwendern gestattet, Bürocomputer über LANs zusammenzuschalten und sie als verteilte Systeme zu nutzen, ist noch nicht lange verfügbar. Daher ist es auch nicht verwunderlich, daß eine signifikante Erhöhung der Büroproduktivität bislang nicht festgestellt werden konnte.

Verteilte Systeme müssen besser verstanden werden

Die Frage ist nicht: "Verteilte Systeme - ja oder nein"; verteilte Systeme sind erstrebenswerte Wunschvorstellungen. Die Frage ist vielmehr: "Muß man sie erträumen, oder kann man sie realisieren?" Zur Zeit jedenfalls ist eine Realisierung auf breiter Basis, die unmittelbar Nutzen stiften würde, nicht möglich. Verteilte Systeme müssen besser verstanden werden - sowohl was ihre Konstruktion als auch ihre Nutzungsmöglichkeiten angeht.

Das folgende Beispiel soll dazu beitragen, zwei unterschiedliche Typen von verteilten Systemen sichtbar zu machen: Eine Gemeinschaft von Menschen ist ein verteiltes System, aber auch die Organe eines menschlichen Körpers in ihrer Gesamtheit stellen ein verteiltes System dar.

Im ersten Fall handelt es sich um voneinander unabhängige Ganzheiten, die miteinander kommunizieren, jedoch eigenverantwortlich handeln; im zweiten um Teile eines Systems, die untereinander kommunizieren, die aber erst zusammen eine Ganzheit ergeben.

Das hat Auswirkungen auf die Art der Kommunikation, die zwischen den Partizipanten stattfindet. So ist im ersten Fall (Kommunikation zwischen ganzheitlichen Elementen) das volle semantische Spektrum an Kommunikationsinhalten möglich, das für menschliche Kommunikation charakteristisch ist. Im zweiten Fall dagegen ist es eingeschränkt:

Die Leber meldet dem Gehirn keine audiovisuellen Eindrücke, sondern lediglich ganz spezielle Informationen über den Insulin- oder Adrenalinspiegel und dergleichen.

Voraussetzung für Kommunikation ist die Existenz einer gemeinsamen Kommunikationssprache für alle Partizipanten. Im ersten Fall (volles semantisches Spektrum) kann sie entsprechend einfach gehalten sein.

Größerer Aufwand bei der Synchronisation

Umgekehrt verhält es sich mit den Synchronisierungsmechanismen, die für diese beiden Typen von verteilten Systemen erforderlich sind. Im ersten Fall (Kommunikation zwischen Ganzheiten) ist offensichtlich ein Minimum an Synchronisation erforderlich, da alle Elemente in eigener Verantwortung agieren. Im zweiten Fall (Kommunikation zwischen Teilsystemen) müssen Teilaktionen zu einer Gesamtaktion zusammengefügt werden, was offensichtlich einen größeren Aufwand bei der Synchronisation erfordert.

Die in (7) und (8) beschriebenen verteilten Systeme unterstützen - gemessen am gegenwärtigen Stand der Technik - auf vorbildliche Weise eine ganzheitliche Kommunikation. Die Elemente dieser verteilten Systeme sind Arbeitsplatzrechner auf der Basis von Mikroprozessoren der 32-Bit-Klasse mit Bit-Map-Display-Technologie, die genügend Kapazität haben, um ihre Basisarbeit selbständig erledigen zu können. Es handelt sich um ganzheitliche, autarke Elemente, die lokal (zum Beispiel innerhalb eines Gebäudes) über ein lokales Netz (LAN) miteinander verbunden sind. Mehrere LANs sind wiederum über ein Backbone-LAN miteinander verbunden, das in der Regel aus Glasfaserleitungen besteht, die zwischen den Gebäuden eines Geländes ausgelegt sind. Vom Backbone-LAN aus kann über Gateways der Zugang zu Großrechnern sowie öffentlichen Diensten und Netzen erfolgen.

Es muß davor gewarnt werden, zentralistischen Computerlösungen den Vorzug vor den dezentralen Lösungsansätzen zu geben, nur weil es scheinbar wirtschaftlicher ist. So wie sich Leistung und Kreativität einzelner Menschen bei ihrem Zusammenschluß zur Gruppe, zum Team oder gar zur menschlichen Gesellschaft potenzieren, so sollte man auch verteilte Computersysteme bewerten.

*Gottfried Wollboldt, Standard Elektrik Lorenz AG, Stuttgart