Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

13.07.1984 - 

Informationsverarbeitung vor allem von technologiefremden Einflüssen geprägt:

Das Anwenderverhalten bestimmt die DV-Zukunft

KÖLN - Aussagen über die Datenverarbeitung in den 90er Jahren erinnern häufiger an apokalyptische Visionen als an sachlich fundierte Hypothesen. Dies gilt besonders, meint Carl D. Hast von der Honeywell Bull AG, Köln, wenn die Entwicklung nicht aus statischen Trendanalysen abgeleitet und hochgerechnet werden kann, weil entweder die Vergangenheitswerte fehlen oder aber die Entstehungsgeschichte sprunghaft verläuft. Visionen aber, so Hast, können schnell Makulatur werden.

Dies beweist die jüngste Vergangenheit. Die Hoffnungen, in überschaubarer Zeit Computer verfügbar zu haben, die auf der Basis des Josephson-Effektes Quantensprünge in Erhöhung der Leistung und Verminderung des Platzbedarfes versprachen, ist seit der Einstellung der einschlägigen Projekte in den Laboratorien bedeutender Anbieter in weite Ferne gerückt. Selbst der vergleichsweise konventionelle Ansatz von G. Amdahls Trilogy, eine existente Architektur auf eine neue Wafer-Scale-Integration genannte Technologie zu projizieren, ist bis auf weiteres gescheitert.

Auch die Beschränkung mancher Diskussionsbeiträge auf die ausschließliche Betrachtung der technologischen Entwicklung führt leicht in die falsche Richtung. Die Zukunft der Informationsverarbeitung wird wahrscheinlich weitaus stärker von technologiefremden Einflüssen geprägt werden, als in den meisten Prognosen zum Ausdruck kommt. Als die wichtigsten Determinanten für Produktkonzepte der 90er Jahre sind zu berücksichtigen neben der Technik das Anwenderverhalten, gesellschaftspolitische und wirtschaftspolitische Wertvorstellungen sowie die Fähigkeit der Beteiligten, traditionell parallel agierende Industrien in ein ganzheitliches Konzept zu integrieren.

Letzteres gilt besonders für die Nachrichten- und die konventionellen bürotechnische Industrie.

Auch der marktbeherrschende Einfluß bestimmter Anbieter kann aus sachfremden Gründen gelegentlich den Entwicklungsprozeß beeinträchtigen. Die Informationsverarbeitung ist viel zu fundamental für die Zukunft unserer wirtschaftlichen und menschlichen Existenz, als daß sie ausschließlich aus der technokratischen Sicht der Datenverarbeitung gelöst werden kann.

Die Idee des DDP ist ein Irrweg

So gehen die erkennbaren Produktkonzeptionen der Anbieter heute weitgehend von der bereits vor einigen Jahren von Mebold und anderen skizzierten Dreiteilung der technischen Infrastruktur aus: Ansatzpunkt für die Gestaltung der Informationssysteme ist die Schnittstelle Mensch-Maschine zum Beispiel am Arbeitsplatz, Mittelpunkt ist das Kommunikationssystem und im Hintergrund stehen dem Benutzer spezialisierte, technische Geräte zur Verfügung, beispielsweise für extrem rechenintensive Anwendungen (Number-crunching), als Datenbankrechner oder als Archivsystem für Daten, Texte oder Faksimile.

Diese Gliederung läßt offen, in wieviel Ebenen das Informationssystem technisch und organisatorisch aufgeschlüsselt wird. In einem kleinen Gewerbebetrieb wird sich die Hardware auf einen Rechner konzentrieren, der über die öffentlichen Dienste mit

externen Partnern kommuniziert. In einem großen Unternehmen wird es neben Arbeitsplatzrechner auch Abteilungsrechner, Bereichs- und Zentralrechner geben.

Kriterium für die Aufschlüsselung, welche Informationen auf welcher Ebene wie zu behandeln sind, wird sicher nicht die Verarbeitung - das Processing - sein. In diesem Kontext ist die Idee des Distributed Processing ein Irrweg. Viel wesentlicher ist die Frage, wer wo welche Informationen benötigt. Wenn man das Prinzip der Redundanzfreiheit bejaht -, und es ist formallogisch optimal - ergibt sich die organisatorische Frage nach dem sinnvollen Standort für die Informationsspeicherung als Optimierungsproblem.

Der Wunsch, die Informationen dort zu speichern, wo der für die Anwendung Verantwortliche seinen Standort hat - das bedeutet die weitgehende Dezentralisation - und die Zahl der notwendigen Schnittstellen zu den potentiellen Benutzern dieser Information möglichst klein zu halten - und das spricht für Zentralisation - sind divergierende Zielvorstellungen.

Das Optimum zwischen Zentralisation und Dezentralisation ist abhängig von den Wertvorstellungen der potentiellen Anwender. In kommerziellen Anwendungen wird zumeist Wirtschaftlichkeit als Optimierungskriterium herangezogen werden, während in anderen Umfeldern auch Datenschutz-, Datensicherheits- oder Verfügbarkeitsanforderungen dominieren können.

Vor diesem Hintergrund wird deutlich, daß die bestimmenden Einflüsse für die Gestaltung zukünftiger Hardwarekomplexe von der Natur der Informationen ausgehen, die zu speichern und zu verarbeiten sind. Der Datenbankrechner mit assoziativen Zugriffs- und Verarbeitungsmechanismen, die die bereits bekannten, heute softwaremäßig realisierten Zugriffsmethoden wirksam unterstützen, wird an die Stelle des heute omnipräsenten Universalrechners (General Purpose Computer) treten. Letzterer wird wahrscheinlich nicht völlig zurückgedrängt werden, sein Einsatzgebiet aber reduziert sich auf die Fälle, für die spezialisierte Geräte noch nicht oder nicht wirtschaftlich bereitgestellt werden können. Der Datenbankrechner wird - verteilt oder zentral - den Kern operativer Informationssysteme bilden.

Wenn für die Abwicklung der Routinevorgänge die Speicherung und Manipulation der Daten im Vordergrund steht, erfordert die Unterstützung von qualitativen Entscheidungsprozessen andere Konzepte. Diese werden heute meist unter dem Stichwort der künstlichen Intelligenz zusammengefaßt. Mit derartigen Systemen sollen aus vergleichsweise geringvolumigen Eingangsinformationen durch Einbringung von gespeichertem qualitativem Wissen Folgerungen entwickelt werden. Derartige Systeme, an denen heute unter der Vorstellung der fünften Generation in vielen Laboratorien gearbeitet wird, kann man auch als Datenbankrechner bezeichnen.

Keine Lösung mit dem Mikro

Hauptproblem ist es, das Expertenwissen (Knowledge) zu speichern und im geeigneten Moment verfügbar zu machen. Welche Lösung ist die beste für das bearbeitete Problem?

Das ist genau die Fragestellung der Individuellen Datenverarbeitung die man heute und wahrscheinlich auch noch in diesem Jahrzehnt weitgehend vergeblich mit dem Mikrocomputer zu lösen versucht. Der Arbeitsplatzrechner der neunziger Jahre wird viele der heute postulierten Merkmale der fünften Generation aufweisen.

Eine spezielle Kategorie von Datenbankrechnern ist notwendig für die Behandlung von Dokumenten. Hierunter ist die Gesamtzeit aller unformatierten Texte zu verstehen, die heute in Form von Briefen, Zeitungen, Dokumenten, Büchern etc. konventionell verbreitet und archiviert werden. Diese Dokumente werden entweder in Faksimile oder in erfaßter beziehungsweise gleichzeitig in beiden Entscheidungsformen gespeichert und verarbeitet. Recherchen innerhalb der Dokumente lassen sich sowohl vom Benutzer veranlassen als auch automatisch von anderen Rechnern anstoßen.

Näher am Bedarf

Die geschilderten und andere spezialisierte Teilsysteme werden über ein digitales Kommunikationsnetz untereinander mit den Anwendern und mit externen Systemen zusammenhängen. Es ist wahrscheinlich, daß alle Rechnertypen - Datenbankrechner, Knowledge-Rechner, Dokumentenrechner etc. - für ein breites, quantitatives Spektrum angeboten werden. Dabei treibt heute nicht mehr - wie in den ersten Jahrzehnten der elektronischen Datenverarbeitung - die Technologie die Systementwicklung, sondern die Systementwicklung fordert zunehmend, welche Ergebnisse sie von der Technologie erwartet.

Das läßt erwarten, daß die zukünftigen Systeme sich näher an dem tatsächlichen Bedarf des Anwenders orientieren werden.