Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

07.05.1976 - 

IBM-Glaubensbekenntnis auf einer Hannover-Messe-Pressekonferenz:

Dezentralisation hat ihre Grenzen

Zum Thema "Zentral - Dezentral: Trends in der Datenverarbeitung" sprach auf einer IBM-Pressekonferenz am 1.5.1976 Cornelius Schulz-Wolfgramm, Verkaufsleiter für Datenverarbeitung der IBM Deutschland, immerhin Nummer Eins der IBM-Sales-Linie. Die für IBM-Öffentlichkeitsarbeit ungewöhnlich deutliche Sprache wurde von den Fachjournalisten zwar begrüßt, andererseits aber stier der Ausschließlichkeitsanspruch, mit dem der Marktführer ein "quasi-alleinseligmachendes Dogma" verkündete, auf schärfsten Widerspruch. Vielfach - wohl etwas voreilig - wurde als Angriff gegen die Minis gewertet, was IBM als Abgrenzung gegenüber der Leistungsfähigkeit von Groß-Systemen verstanden wissen wollte. COMPUTERWOCHE bringt die auch im weiteren Messeverlauf heftig diskutierten Thesen in Kurzform durch Abdruck der wichtigsten Passagen aus dem Schulz-Wolfgramm-Referat. de

Boom bei Minis, Stagnation bei Großsystemen - das etwa ist der Kern eines nicht unbedeutenden Teils der publizierten Meinungen.

Mit Verwunderung bemerken es, denn erstens ist die Aussage falsch, zweitens kann es die vielfach unterstellte Alternative im Ernst nicht geben.

Richtig ist: Die Miniaturisierung der Schaltkreise und schließlich ganzer logischer Einheiten hat zu einer großartigen Entwicklung an der Basis der Datenverarbeitungspyramide geführt ...

Gänzlich unzutreffend jedoch ist die nicht selten gehörte Meinung, die "Minis" seien das Ergebnis einer technischen Entwicklung, von der die "große DV" - mit- unter schon als "konventionelle Datenverarbeitung" bezeichnet - überholt worden sei. Das Gegenteil trifft zu ...

Es kann keine Rede davon sein, daß die Entwicklungsdynamik von der "großen DV" auf "die Minis" übergegangen sei. Von Stagnation und Altersabbau im Bereich der "großen Datenverarbeitung" fehlt jede Spur, und dies gilt sowohl für die Entwicklung der technischen Grundlagen, für die Funktionen wie auch für die geschäftliche Situation ...

Endgültig ist der Zustand überwunden, in dem es diskutabel erschien, Computersysteme bestimmten Anwendungsbereichen und bestimmten Nutzungsformen fest zuzuordnen - etwa eigene

Systeme für Stapelverarbeitung und für die verschiedenen Formen des Dialogverkehrs oder anderer Formen der Datenfernverarbeitung zu unterhalten ...

In vielen Fällen ist es durchaus denkbar, daß große Aufgabenpakete und Aufgabenzusammenhänge in Einzelteile zertrennt und dann in Einzelportionen einer automatischen Verarbeitung zugeführt werden. Nur bleibt damit eine Aufgabe - die entscheidende - ungelöst. Die Aufgabe, den Zusammenhang (der Daten wie der Funktionen) herzustellen, der erst den wesentlichen - integrierenden - Effekt der Informationsverarbeitung, den großen Sinn und ihren möglichen großen Nutzen ergibt. Wohl kann der Zusammenhang außerhalb des Systems mit den bekannten klassischen Organisationsmitteln hergestellt werden. Soll dies aber der Weg sein, nachdem sich die Lösung der Aufgabe im System abzeichnet?

Der Weg in die Zukunft weist in die entgegengesetzte Richtung: Zur vollen Entwicklung der zentralen Verarbeitungs-, Steuerungs- und Kommunikationskapazität mit dem Ziel, Funktionen und Leistungen immer dort, wo das Mindestmaß praktisch notwendiger Integrität nicht unterschritten wird, so weit wie möglich an den Ort des Geschehens zu bringen. Das bedeutet, Funktionen dann zu dezentralisieren, wenn sie unter der dadurch eingeschränkten oder nur noch indirekt gegebenen Integrität der Daten und Leistungen nicht leiden (oder eine Einbuße zumindest hingenommen werden kann). Eine so verstandene Dezentralisation von Verarbeitungs- und Service-Funktionen aber wird desto breiter und wirkungsvoller werden können, je straffer, je geordneter, je zuverlässiger die zentralen Integrations- und Kommunikations-Funktionen sind.

Nirgendwo kann diese produktive gegenseitige Abhängigkeit von Zentralisation und Dezentralisation deutlicher werden als bei der Herstellung der Datenintegrität durch große zentral geführte Datenbanken einerseits und deren "Ausbeute" über die neuen - auf größte Dezentralität der Nutzfunktionen hin ausgelegten - Systeme interaktiver Datenkommunikation andererseits ...

Der Computer als Datenverarbeitungsaggregat, als Verarbeitungsmaschine für Datenmaterial, wie es im Unternehmen "anfällt", oder aber: Der Computer Hard- und Software-Grundlage für ein Informationssystem, das die vielfältigen wechselseitig abhängigen Entscheidungsbeziehungen immer wirkungsvoller aufnimmt - das ist die Kreuzwegsituation in der wir uns sehen.

Auf der ersten Stufe der Datenverarbeitung bildete der Computer die Verarbeitungsstation für Datenmaterial, das nacheinander oder auch parallel (Multiprogramming) festen programmierten Verarbeitungsprozeduren unterworfen wurde. Hier mag man diskutieren und auch streiten, ob ein Großsystem oder fünfzig oder hundert Kleinsysteme mehr oder, weniger billiger oder teurer zum Zuge kommen.

Etwas anderes ist, es aber, gleichzeitig, eine Vielzahl von unterschiedlichen Service- und Abwicklungsfunktionen so ablaufen zu lassen, daß die benötigten und die erzeugten Daten in einer geplanten Zeitrelation so zusammenfließen, daß daraus andere neue Verarbeitungsvorgänge versorgt und gesteuert werden können. Für das Datenverarbeitungssystem ergibt, sich daraus die Forderung nach definierbarer, gesteuerter (wenn auch abgestufter) Informationspräsenz, die ihrerseits aus der Verbindung ebenfalls definierter, abgestufter Daten- und Funktionspräsenz ("Anwendungsbereitschaft") folgt ...

Der Streit zwischen Zentralisation und Dezentralisation erscheint vor diesem Hintergrund als Modetorheit. Wie könnte die dezentrale Präsenz der informationsverarbeitenden Funktionen denn gesichert werden ohne das zentrale Auffangen. In-Beziehung-Setzen, Präsenthalten dieser Information? Wie könnte umgekehrt etwa ein mächtiges zentrales System seine Funktion aktiv präsentieren, wenn es nicht die Möglichkeit hätte, seine Leistung dezentral, nämlich dort, wo sie ständig gebraucht wird, anzubieten und erreichbar zu halten? Es ist völlig offensichtlich, daß die Kontroverse zwischen "zentral" und "dezentral" die tatsächliche Entwicklungsaufgabe nur verdunkeln kann und von der eigentlichen Qualität der neuen Stufe der Informationsverarbeitung, die wir gerade jetzt erreichen, ablenkt. Viele Gefechte im Nebel werden hier ausgefochten, während in der Entscheidungssituation, die wir jetzt erreicht haben, doch wohl nichts wichtiger ist als Klarheit.