Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Distributed Processing:

Chance und Risiko einer künftigen Datenverarbeitungsinfrastruktur

18.11.1977

Die Auswirkungen der IC-Revolution verändern die grundsätzlichen Strukturen der Datenverarbeitung: Vor siebzehn Jahren, vor der Revolution der integrierten Schaltung, hätte ein einfacher Minicomputer etwa 10 000 diskrete Transistoren erfordert, jeder einzelne aus einem Silizium-Chip gefertigt.

Bereits 1968 waren integrierte Schaltungen mit 100 Transistoren per Chip zu vernünftigen Preisen verfügbar. Mit wachsenden Geschwindigkeiten und steigender

Zuverlässigkeit der Schaltungen begann der Markt der Kleinrechner zu wachsen. Die Minicomputer übernahmen Arbeiten, die früher große Rechner erforderten.

Dieser Prozeß ist noch lange nicht abgeschlossen. Heute werden Schaltungen mit mehr als 20 000 Elementen genauso in Massenfertigung hergestellt wie 1960 die diskreten Elemente. Sowohl Größe wie Dichte der Chips wachsen. Für 1980 werden Massenfertigungen von 100 000 Elementen per Chip erwartet. Neue Fertigungstechniken versprechen sogar eine noch höhere Integration von Schaltelementen.

Die Entwicklung in der Halbleiter-Industrie ist von Innovationen gekennzeichnet. Sie verläuft so stürmisch, daß die große Masse der EDV-Fachleute Schwierigkeiten hat, mit dem Wandel der Terminologien, der Technologien und der Wertmaßstäbe Schritt zu halten.

Eines der bedeutendsten Ergebnisse dieser IC-Revolution sind die Klein- und Kleinstrechner (Mini- und Mikrocomputer). Für den Einsatz dieser neuen Generation von kleinen Universalrechnern, im engeren Sinn in der kommerziellen Datenverarbeitung, hat sich das Synonym "Distributed Processing" verbreitet.

Verglichen mit den großen Produktivitätssteigerungen in der Hardware nehmen sich die Fortschritte in der Softwareentwicklung bescheiden aus. Die Fortschritte in der Entwicklung von Anwendungssystemen bleiben aber noch hinter denen der Softwareentwicklung zurück. Das hat ernste Implikationen für die effektive Nutzung der Kleinrechner.

Für geschäftliche Unternehmen stellt sich die Frage, wie man die wirtschaftlichen Vorteile aus der technologischen Entwicklung bestmöglich nutzen kann. Die technologischen Neuerungen treffen die gesamte Industrie, den Handel und die öffentlichen Verwaltungen, weil sowohl für die kommerzielle wie für die technisch-wissenschaftliche Datenverarbeitung die Kosten-Nutzen-Relationen in Bewegung geraten sind.

Mit der breiten Verfügbarkeit preisgünstiger Kleinrechner nehmen die Wahlmöglichkeiten des Managements zu. Ebenso aber wachsen die mit den Entscheidungen verbundenen Risiken. Kleinrechnersysteme bieten wirtschaftliche Vorteile, wenn es um die Lösung abgegrenzter Aufgaben geht. Bei einer einseitigen Orientierung auf solche Lösungen begünstigt man jedoch die Neigung, wegen kurzfristiger Vorteile langfristige Nachteile hinzunehmen.

Lex Grosch außer Kraft gesetzt

Über etwa 15 Jahre hinweg hat das Management mit dem Paradoxon zu leben gelernt, daß die Computerleistung um so billiger wird, je teurer der Computer ist (sogenanntes "Groschsches Gesetz"). Diese grobe Regel gilt nicht mehr uneingeschränkt.

Gewisse Datenverarbeitungstechniken, wie Online-Verarbeitung, Dialog- oder Datenbankverarbeitung erforderten in der Regel mindestens mittelgroße Universalrechner. Die Größe der Rechner wuchs schnell an, wenn zur Stapelverarbeitung auch noch eine Vielzahl von Benutzern gleichzeitig über Terminals um Rechenkapazität oder Daten nachsuchten. Auch diese Regel hat sich grundsätzlich verändert.

Die Hersteller großer Universalrechner prägten Ende der 60er Jahre die Marketing-Konzeptionen der "Verteilten Intelligenz" oder der "Computer Utility", also dem "Rechner aus der Steckdose". Hier ging es um die Nutzung großer zentraler Rechner durch eine beliebig verteilte Benutzergemeinde.

Dieses für die Hersteller großer Rechner sehr erfolgreiche Marketing-Konzept hat tiefe Spuren in den Organisationen hinterlassen. Große zentrale Rechner förderten die organisatorische Zentralisierung. Mit der Ausschöpfung der wirtschaftlichen Vorteile der Zentralisierung kam es nicht selten zu einer einseitigen Gewichtsverlagerung von Managementfunktionen aus den Betrieben in die zentralen Verwaltungen.

Das Konzept der "Distributed Intelligence" war nicht gerade befruchtend auf die Entwicklung von Software. Betriebssysteme für Stapelverarbeitung auf den großen zentralen Rechnern induzierten ihre "Master-Slave"-Architektur in den Prozeduren der Betriebe. Nicht selten wurden die Betriebe als eigentliche Zentren der geschäftlichen Wertschöpfung zu Zulieferern und Empfängern von Daten degradiert.

Herausforderung an das Management

"Distributed Processing" dagegen tritt mit der Devise an, daß der Rechner an den Arbeitsplatz geht und nicht die Arbeit an den Rechnerplatz. Mit diesem Rollenwechsel zwischen Arbeits- und Maschinenplatz ist eine der wesentlichsten Eigenschaften des "Distributed Processing" charakterisiert. Diese Eigenschaft kann große organisatorische Implikationen haben, weil sich dieser Rollenwechsel mit dem Versprechen nach größerer Wirtschaftlichkeit vollzieht.

Das Management ist zu einer kritischen Überprüfung ihrer Geschäftspolitik in der Datenverarbeitung herausgefordert. Weil sich "Distributed Proeessing" in seinen organisatorischen Konsequenzen als eine Form von Liberalisierung stark zentralisierter Organisationsstrukturen darstellt, ist über nichts Geringeres zu entscheiden als über eine möglicherweise neue Rollenverteilung in der Lösung geschäftlicher Aufgaben.

Die Komplexität betrieblicher Datenverarbeitung macht es dem Management nicht leicht, die Konsequenzen des rapiden technologischen Fortschritts für die eigene Organisation richtig einzuschätzen. Hier geht es nicht in erster Linie darum, ob eine Fakturierung und Buchhaltung weiterhin zentral oder dezentral ausgeführt werden soll oder ob die Materialwirtschaft oder Fertigungssteuerung in die unmittelbare Nähe des Betriebsgeschehens rückt oder nicht. Hier geht es um die langfristige Nutzung der wettbewerblichen Vorteile einer neuen Technologie, um die effektive Nutzung der geschäftlichen Ressourcen für die Ergebnisse von morgen.

Die Entwicklungen von gestern wiederholen sich auf einem wesentlich höheren Stand der Technik in immer kürzeren Zeitabschnitten. Schon sind ganze Familien neuer kompatibler Kleinrechner zu erkennen, deren Leistungsspektren weit in die großer Universalrechner hineinreichen. Mit ständig fallenden Kosten ergeben sich neue Möglichkeiten für die geschäftliche Nutzung der Kleinrechner.

Die für die vorteilhafte Nutzung der Kleinrechner entscheidenden Parameter liegen aber nicht im technischen Bereich, sondern in den sozialen und menschlichen Gegebenheiten innerhalb der Organisationen. Der geschäftliche Vorteil aus der Nutzung der interaktiven Kleinrechner muß nach wie vor in jedem Einzelfall errungen werden.

Die institutionelle Reife der Organisationen wird zum Angelpunkt für die wirtschaftliche Nutzung der neuen Techniken. Es werden Eigenschaften erforderlich, die für den effektiven Einsatz der Kleinrechner von ausschlaggebender Bedeutung sind.

* Hans J. Drucks ist General Manager Systems and Data Processing Schmalbach-Lubeca GmbH, Braunschweig