Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

25.10.1991 - 

Trotz Downsizing-Trend und verteilter DV

Viele Funktionen bleiben dem Mainframe vorbehalten

25.10.1991

Die Rolle des Mainframes in der unternehmensweiten Informationsverarbeitung hat sich im Zuge des Downsizing-Trends und der Verbreitung von Client-Server-Architekturen gewandelt. Volker Zdunnek* sieht künftige Aufgabenfelder unter anderem in Online-Transaktionverarbeitung und Datenbankverwaltung, Performance- und Kapazitäts-Management, Netzwerk-Management sowie nicht zuletzt im Einsatz als Anwendungsentwicklungs-Server.

In den 60er Jahren kamen fast ausschließlich Großrechner zum Einsatz. Diese Systeme erfüllen bis in unsere heutige Zeit immer noch überwiegend zentrale DV-Aufgaben in einem operationalen Routinebetrieb. Schon bald erkannten vor allem die nachfragenden Fachabteilungen eine Reihe von Nachteilen. Dazu zählen lange Wartezeiten auf die gewünschten Informationen sowie die fehlende Flexibilität der Systeme, die den Anforderungen seitens der Endbenutzer in den Fachabteilungen nicht gerecht werden konnten. Nicht zuletzt aufgrund dieser Mängel konnte der Einzug von sogenannten Minicomputern in die Fachabteilungen stattfinden. Dies war ein erster Schritt in Richtung Anpassung des Rechners an fachbereichs- oder abteilungsspezifische Bedürfnisse. Nicht zuletzt der vergleichsweise geringe Preis ist dafür verantwortlich, daß diese Minis auch heute noch vielfach verwendet werden.

Mit den PCs kam in den 80er Jahren eine neue Computerklasse für die individuelle Datenverarbeitung (IDV) am Arbeitsplatz in Mode. Diese Systeme wurden meistens ohne Wissen oder Zutun der zentralen DV-Abteilung benutzt. Die Vorteile eines PC sind hinreichend bekannt: niedriger Preis, Computerleistung vor Ort, Standardsoftware für nahezu alle Anwendungen, leichte Erlernbarkeit und benutzerfreundliche Handhabung. Ein wichtiges Nutzenargument war und ist die Erhöhung der individuellen Produktivität am Arbeitsplatz.

Großanwender stehen heute vor der Situation, nicht nur verschiedene Arten von Computern vorzufinden, sondern auch mit inkompatiblen Maschinen und Betriebssystemen sowie herstellerabhängigen Kommunikationsnetzwerken arbeiten zu müssen. Darüber hinaus sind die Rechner meistens auf geographisch weit voneinander entfernte Standorte verteilt.

Hohe Investitionen in Material und Ausbildung

Aus Anwendersicht entstehen hohe Investitionen in Hardware, Anwendungssoftware und Mitarbeiterausbildung, die es zu schützen gilt. Hersteller von Computern und Kommunikationsnetzen sehen dagegen in der oben beschriebenen Situation eine wesentliche Herausforderung und Aufgabenstellung, Lösungen zum Schutz der Kundeninvestitionen zu bieten und neue unternehmensweite Anwendungsfelder zu erschließen. Sie wollen den Computer für unternehmerische Entscheidungsprozesse nutzbar machen, ihn ergänzend zu bestehenden Applikationen weiterentwickeln und anbieten.

Befragungen von Großanwendern lassen immer wieder auf folgende Grundbedürfnisse schließen:

- Eine Computeranbindung der verschiedenen Typen und Klassen im Rahmen eines Kommunikationsnetzwerkes muß der kundenspezifischen Situation entsprechen. Dabei ist den getätigten Investitionen sowohl hinsichtlich der eingesetzten Hard- und Software als auch der Mitarbeiterausbildung Rechnung zu tragen. Zum Beispiel sollten vorhandene PCs, Mehrplatz-Systeme und Abteilungsrechner in das bestehende DV-Netz mit Zugriff auf das Hauptsystem integriert werden.

- Alle Anwendungen müssen im Rahmen eines Kommunikationsnetzes entsprechend den Endbenutzeraufgaben auf Abteilungs- beziehungsweise Arbeitsplatz-Ebene zugänglich sein.

- Unerläßlich ist die Gewährleistung von Datensicherheit und der Schutz vor unberechtigtem Zugriff im gesamten Netz.

- Geographisch verteilte Systeme sind über nationale wie internationale Netze mit lokalen Netzwerken zur unternehmensweiten Nutzung zu integrieren und mit Geschäftspartnern über Standardschnittstellen und Protokolle zu verbinden.

- Künftige Netzwerkänderungen und -erweiterungen sollten komplikationslos und herstellerunabhängig durchführbar sein, ohne Störung des laufenden Betriebs.

- Der Anwender sollte in der Lage sein, Netzwerksteuerung, -administration und -dienste einfach zu handhaben, und zwar unabhängig von Größe und Komplexität der Netze. Der Zugriff auf Netzdienste muß ohne Kenntnis des Orts, der Ressourcen und der Zugriffswege möglich sein. Von zentraler und von entfernter Stelle aus ist das System-Management unternehmensweiter Netze zu gewährleisten.

-Zentral wie dezentral sollten Programmentwicklung und -pflege durchführbar sein. Dies kann zum Beispiel auf PC-beziehungsweise Workstation-Ebene geschehen, wobei unterstützend entsprechende Entwicklungswerkzeuge unter Berücksichtigung des Software-Lebenszyklus zum Einsatz kommen.

Wollen Informationssysteme-Anbieter zukünftig eine wettbewerbsfähige Rolle im Markt spielen, so sind sie angesichts dieser Benutzer- und Marktanforderungen herausgefordert, als System- und Netzwerkintegratoren die erforderlichen Produkte, Dienste und Beratungsleistungen bereitzustellen. Die genannten Bedürfnisse und Forderungen der Großanwender implizieren eine weite Öffnung der traditionellen DV hin zu offenen standardisierten Systemen und Architekturen unter Einbeziehung und Schutz der getätigten Investitionen.

Dieser Prozeß wird seit einigen Jahren durch Organisationen wie dem X/Open-Konsortium (1984) oder der Open Software Foundation (OSF, 1988) energisch vorangetrieben. Von einigen Mitgliedern und Aktivpartnern dieser Organisationen werden die Ergebnisse der Standardisierungsbemühungen in Form von konkreten Produkten und integrierten Lösungen angeboten. Dieses Angebot umfaßt unter anderem insbesondere für traditionelle Mainframe-Anwender die Anbindung von Unix-Standardsystemen und Netzwerken (TCP/IP) mit dem Ziel, den besten kundenspezifischen Nutzen aus beiden Anwendungsbereichen, den herstellerspezifischen und den standardorientierten Systemen, zu ziehen.

Doch mit dieser Koexistenz und Kooperation von proprietären und Standardsystemen verändert sich die traditionelle Rolle des Zentralrechners (Mainframe) dramatisch. Dem Großanwender stellt sich die Frage, welche Rolle der Zentralrechner zukünftig im Verbund der Systeme und im Rahmen von unternehmensweiten integrierten Netzwerken spielen wird, wo doch PCs, Mehrplatz-Systeme und Abteilungsrechner so offensichtlich immer mehr Bedeutung bekommen.

Mainframe als Datentresor

Der Markt und auch die einschlägige Fachpresse beschäftigen sich fast ausschließlich mit der PC- und Unix-Welt. Informationstechnologie und DV-Markt entwickeln sich in Richtung verteilter Systeme und Anwendungen unter Verwendung der Standard-Betriebssysteme Unix und MS-DOS und einheitlicher Netzwerkarchitekturen (OSI, TCP/IP, OSF/DCE). Die traditionelle Rolle des Zentralrechners im Rechenzentrum wird obsolet, statt dessen wächst das Angebot an Verbindungslösungen, mit denen PCs, Workstations, Mehrplatz-Systemen (Workgroups) und Abteilungsrechner an den Zentralrechner angeschlossen werden können.

Stellungnahmen von Marktbeobachtern und Unternehmensberatern geben Aufschluß über den Funktionswandel des Mainframes. So ließ die Gartner Group im April 1990 verlauten: "Die Rolle des Mainframe wird sich wandeln in die eines Daten-, Kommunikations-Managers und Rechen-Servers." In den IDC White Papers von 1990 war zu lesen: "Der Mainframe von 1995 wird charakterisiert sein als Datentresor oder Speicherlager des Unternehmens. Dieser mächtige Versorger mit Services wird die Kommunikation steuern, Sicherheit bereitstellen, Datenzugriffe und den Durchsatz für ein System von verknüpften Datenbanken verwalten." Unternehmensberater James Martin im April letzten Jahres: Unternehmenssysteme bleiben das "Herz des Geschäfts".

Die Architekten von Informationssystemen haben über die Vernetzung der unterschiedlichen Computerklassen nachgedacht und neue Konzepte für eine integrierte Informationsverarbeitung entwickelt. Da gibt es einen Ansatz, der sich augenscheinlich durchsetzt und daher besondere Aufmerksamkeit verdient: das sogenannte Client-Server-Konzept.

Die dahinter stehenden Überlegungen sind nicht neu. Auf vielen Ebenen unserer Gesellschaft werden Dienstleistungen aufgrund von Bedürfnissen erbracht. Wir nehmen zum Beispiel die Dienste eines Anwalts oder Arztes in der Rolle eines Klienten beziehungsweise Patienten in Anspruch. Andererseits stehen wir als Architekten, Unternehmensberater, Fachleute oder sonstige Dienstleister dem Markt als Anbieter von Dienstleistungen (Server) zur Verfügung. Die Rollen des Dienstleisters und Klienten sind je nach der zu erbringenden beziehungsweise gewünschten Dienstleistung austauschbar.

Wendet man dieses Konzept analog auf lokale beziehungsweise geographisch weitgespannte Netzwerke kommunizierender Computersysteme unterschiedlicher Größen an, so können die beteiligten Rechner die Rolle eines Servers beziehungsweise die eines Clients einnehmen. Computer erbringen Dienstleistungen für die Informationsverarbeitung und -gewinnung in Unternehmen und öffentlichen Verwaltungen.

Wenn dies zusammenhängend auf allen hierarchischen Ebenen eines Unternehmens erfolgen soll, ist das Client-Server-Konzept gemäß der Unternehmensstruktur auf die Computer und Netzwerkumgebung abzubilden, um ein effizientes Informations-Management zu gewährleisten. Das heißt: Die verschiedenen Informationsbedürfnisse in Unternehmensbereichen mit operationalen, dispositiven und strategischen Aufgabenstellungen sollten durch entsprechende computergestützte Serviceleistungen "am Ort des Geschehens" erfüllt werden. Die Serviceleistungen des herkömmlichen Rechenzentrums, meist umgeben von einem "Spinnennetz" von Endgeräten und Terminals, konzentrieren sich jedoch im wesentlichen auf operationale Aufgaben - darunter fallen zum Beispiel Betriebsdatenerfassung, Lohn- und Gehaltsabrechnung, Finanz- und Rechnungswesen, Auftragsbearbeitung und Lieferwesen - sowie zunehmend auf dispositive Verarbeitungsprozesse. Hierunter sind unter anderem Fertigungsplanung und -steuerung, Lieferplanung oder Lagerbewirtschaftung zu fassen.

Für die Lösung strategischer Aufgaben in den Bereichen Marketing und Vertrieb sowie für unternehmerische Entscheidungsprozesse ist das traditionelle Rechenzentrum der Großanwender nicht ausgelegt. Daher wird Informationsbedürfnissen von Sachbearbeitern und Fachabteilungen oft nicht durch die herkömmlichen RZ-Aktivitäten nachgekommen. Insellösungen, bestehend aus PCs, Mehrplatz-Systemen und Abteilungsrechner, sollten hier Abhilfe schaffen. Der nötige Zugriff auf die operationellen Unternehmensdaten (Datenbanken des Zentralrechners) für die unternehmerische Planung und Entscheidung erfolgt mehr oder weniger umständlich durch Analyse von Computerlisten oder durch zeitaufwendige Datenbankabfragen, mit denen das Rechenzentrum beauftragt wird. Ein Informationsservice direkt am Arbeitsplatz ist gefragt, der auch dann funktioniert, wenn unter zeitkritischen Bedingungen gearbeitet wird.

Soll diese Form der strategischen unternehmensweiten Informationsgewinnung realisiert werden, so muß das traditionelle Rechenzentrum um neue Verarbeitungsdimensionen wie Büroautomation und strategisches Informations Management (Decision Support) erweitert werden. Zum Schutz vorhandener und zukünftiger Investitionen in Informationstechnologien sind standardkonforme PCs, Workstations, Mehrplatz-Systeme und Abteilungsrechner mit Zugriff auf den Zentralrechner als Unternehmens-Server anzubinden.

Die hohe Konzentration von Anwendungen auf dem Zentralsystem wird aufgelöst und gemäß den Anforderungen von Unternehmensbereichen, Abteilungen und Arbeitsplätzen auf untergeordnete Einheiten verlagert.

Service-Aufgaben für den Zentralrechner

Somit können zentrale und dezentrale Informationsverarbeitungs-Prozesse des Unternehmens in einem integrierten Informationssystem parallel - der Betriebspraxis entsprechend - ablaufen. Eine Überlastung des Zentralrechners wird vermieden, und durch Computerleistung vor Ort kann zeitkritischen Informationsbedürfnissen, insbesondere im strategischen Bereich, Rechnung getragen werden.

Die zukünftigen Aufgaben des Zentralrechners als Unternehmens-Server ergeben sich konsequenterweise aus dem Verbund mit Standardsystemen auf Abteilungs- und Arbeitsplatz-Ebene. Zur Sicherstellung eines unternehmensweiten Betriebes des Kommunikationsnetzes fallen dem Zentralrechner in seiner neuen Rolle folgende Service-Aufgaben zu:

- Online-Transaktionsverarbeitung (OLTP) und Datenbank-Management sowohl wie bisher - für die operationale Geschäftsabwicklung als auch zunehmend für das dispositive und strategische Informations-Management;

- Performance- und Kapazitäts-Management zur Bereit- und Sicherstellung der erforderlichen Leistungen im Rahmen eines unternehmensweiten Rechnerverbundes und Kommunikationsnetzwerkes (zum Beispiel Bewältigung von Durchsatz und Übertragungsanforderungen);

- Netzwerk-Management zur einheitlichen und unternehmensweiten Integration, Überwachung und Steuerung des gesamten Kommunikationsnetzes, unabhängig davon, ob es sich dabei um lokale oder geographisch verteilte Netze oder um unterschiedliche Computertypen im Verbund handelt;

- Sicherheits-Management zur Gewährleistung von Datenintegrität, -sicherheit und -schutz sowohl bei Datenzugriffen als auch bei Verarbeitungsprozessen und Datenübertragungen im gesamten Netzwerk;

- Anwendungsentwicklungs-Server zur Unterstützung einer PC- oder Workstation-gestützten Anwendungsentwicklung hinsichtlich Integration in das gesamte Anwendungsumfeld, das heißt Berücksichtigung eines unternehmensweiten Datenmodells (Repository), Nutzung von CASE-Produkten für den gesamten Software-Lebenszyklus, Einsatz von Qualitätssicherungsmaßnahmen und Verwendung von Testmethoden und Ressourcen zur vollständigen Abdeckung aller Programmstrukturen sowie des Gesamtsystems unter Einbeziehung einer automatischen Verifikation der Abweichungen (alt/ neu), bezogen auf Sourceprogramme und Daten.

Die Investitionen sollen geschützt werden

Um DV-Anwender in die Lage zu versetzen, ihre bestehende herstellergebundene (proprietäre) Systemumgebung nahtlos in eine verteilte Informationsverarbeitung mit offenen Systemen zu integrieren, hat die Gruppe Bull erstmals auf der CeBIT 1991 dem internationalen Fachpublikum ihr "Bull Distributed Computing Model" (BDCM) vorgestellt. Ausgangspunkt ist der Benutzer, der über seinen Arbeitsplatzcomputer Zugriff auf alle für ihn relevanten Informationen im Unternehmen bekommt, gleichgültig, auf welchem System oder an welchem Ort sie physisch verarbeitet werden.

Durch die konsequente Berücksichtigung internationaler Standards sollen getätigte Investitionen geschätzt und der Aufbau offener Systeme gefördert werden. Das Bull-Modell ist der erste Schritt eines umfangreichen Forschungs- und Entwicklungsprogramms für offene Systeme und steckt den Rahmen für die Entwicklung eines Gesamtangebots ab, das die Stärken und Vorteile der proprietären mit den standardbasierten PC- beziehungsweise Unix-Systemen vereinigt.