Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

24.12.1993

Mainframe-Comeback versus Client-Server-Revolution Von Bruce Leighty, Datenbankadministrator und Software-Entwickler, Frankfurt

Mainframe-Preise werden innerhalb der naechsten drei Jahre laut "Wall Street Journal" auf zirka zehn Prozent des jetzigen Standes fallen. Dieser Preissturz bedeutet einen Quantensprung fuer die DV- Branche: Die Migration der Grossrechner-Datenbankfunktion auf Klein-Server wird nicht nur gestoppt, nein, der Mainframe wird seine zentrale Bedeutung als Datentraeger kraeftig ausbauen koennen.

Die Rueckkehr des Mainframes erfolgt rechtzeitig. Hinter dem Trend, den sie aufhaelt, verbergen sich Risiken, die man bis jetzt nicht wahrgenommen hatte, denn die Datenbanken der kleinen Server muessen einzeln und durch Abteilungspersonal betreut werden, das nicht auf dem gleichen Niveau agieren kann wie die zentrale Datenbankadministration.

Aber noch wichtiger als diese Effizienzfrage ist die Tatsache, dass Mainframes sich als ein wichtiges Werkzeug der Integration ueber Jahre hinweg entwickelt haben. Firmen werden jetzt neu strukturiert und in ihren Funktionen dezentralisiert, aber integriert bleiben das Datenkonzept und die Daten selbst, weil diese in der Regel keine Abteilungsgrenzen haben.

Das Verwalten von Daten schliesst die folgenden Funktionen ein:

- Beschreiben der Datenbegriffe in einem Data-Dictionary,

- Definieren der einzelnen User-Sichten der Daten,

- Integrieren dieser User-Sichten in das globale Datenkonzept,

- Uebertragen der User-Sichten in eine physische Datendefinition,

- Verwalten von Zugriffsberechtigungen,

- Erfassen und Aktualisieren der Daten durch die Anwendungen,

- regelmaessiges Reorganisieren und Optimieren der Daten sowie

- regelmaessiges Sichern der Daten.

Diese Funktionen sind nicht selbstverstaendlich, nur weil man sich einen Abteilungsrechner samt Software angeschafft hat. Falls die Datenadministration nicht funktioniert, kann man nicht erwarten, dass man Daten von Qualitaet erhaelt. Je Datenbank ist es ein aufwendiges Unternehmen, die Daten zu pflegen. Die Abteilungen koennen bestimmt die Daten erfassen und eventuell manche Anwendungen entwickeln, aber die anderen Funktionen werden meist unterschaetzt, weil sie intransparent oder langweilig sind.

Was macht man, wenn die Datenbank kaputtgeht - ja, Panik! Oder vielleicht laufen die Anwendungen zu langsam. Was ist zu tun, falls die gekaufte Anlage nicht ueber genuegend Kapazitaet verfuegt? Wie schuetzt man sich gegen unbefugte Benutzung der Daten? Gibt es Unterstuetzung in der Organisation, wenn ein faules Konzept wieder in Ordnung zu bringen ist? Wie in der Chaostheorie entwickelt, waechst mit der Zahl der verwendeten Einheiten - in unserem Falle Server - geometrisch die Haeufigkeit der von ihnen verursachten Probleme.

Es ist unwahrscheinlich, dass die einzelnen Abteilungen eines Unternehmens im Schnitt die Kompetenz und die Disziplin haben, die Daten zuverlaessig zu verwalten und dass Datenbeziehungen zwischen den Abteilungen gepflegt werden. Der Abteilungsegoismus gewinnt die Oberhand, und ein Pfeiler der Unternehmensintegration faellt dadurch weg.

Da die Hardwarekosten auch bei Mainframes rasch sinken, werden Datensicherheit und Datenqualitaet als entscheidende Faktoren zurueckkehren. Grossrechner und die zentrale Datenadministration haben erhebliche organisatorische Vorteile gegenueber diversen Servern. Hier liegt der Kern der Argumentation: Zentrale Datenbankadministration kann die Datenressourcen einer Firma einfach kostenguenstiger und professioneller pflegen.

Die ueberwiegende Anzahl von MIPS in der gewerblichen Datenverarbeitung (kleine PC-DOS-Systeme ausgenommen) ist Mainframe-basiert. Durch den Preisrutsch der Mainframes mit ihren bekanntlich enormen Kapazitaeten wird die Zahl der verwalteten Daten und Datenbanken in bisher nicht zu erwartendem Umfang wachsen.

Die Mainframes werden in den grossen Unternehmen staerker gebuendelt, damit sie auf gemeinsame Ressourcen wie Speicher und Spezialisten zurueckgreifen koennen. Verteilte Datenbanken in den Filialen werden mit kleinen, preisguenstigen Mainframes bedient, damit man es mit genormten Betriebssystemen (wie MVS) und Codesets (EBCDIC) zu tun hat. Darueber hinaus aber koennen die verteilten Datenbanken auch besser gepflegt und in das globale Datenkonzept der Firma integriert werden.

Vertreter der Client-Server-Bewegung sind in erster Linie an geringeren Kosten und zweitens an den moderneren Benutzeroberflaechen interessiert. Der Preisvorteil von Servern (man muss auch an die Software denken) faellt demnaechst weg. Die modernere Oberflaeche des PCs kann als Benutzer-Interface zu den Daten auf den Mainframes zum Teil immer noch benutzt werden.

PCs koennen Mainframe-Daten erfassen und auswerten, und PC- Anwendungen koennen durch File-Transfers vom Host mit Mainframe- Daten bedient werden, die sich dann in den PC-Fenstern mit Standardsoftware (Lotus, Word etc.) bearbeiten lassen. Auf der anderen Seite koennen Mainframe-Daten hier erfasst und gesammelt werden, bevor sie zum Mainframe zur Verarbeitung uebertragen werden. Die Vorteile dieses Verfahrens: PCs sind anwenderfreundlich und leicht zugaenglich, die Standardsoftware ist gut und vielfaeltig, und die Mainframe-Anwendungen werden betraechtlich entlastet.

Was fuer eine Rolle spielt also der Klein-Server? Ausser als Hauptrechner fuer kleinere Firmen und als Backup-Rechner fuer kritische Anwendungen ist er im Netz als Vermittler von Mainframe- Daten fuer die PCs der Abteilung ideal. Auszuege der abteilungsbezogenen Daten werden vom Mainframe zum Klein-Server uebertragen, wo die PCs die Daten ansprechen koennen. Online lassen sich die Produktionsdatenbanken auf dem Mainframe ungestoert aktualisieren, waehrend die Anwender mit ihren Daten effizient auf den PCs arbeiten koennen. Da Auszuege relativ unkompliziert und schnell erfolgen, koennen die Daten auf dem kleinen Server relativ aktuell gehalten werden.

Die zentralisierte DV entsprach einer lange aufrechterhaltenen Vision von IBM. Sie beruhte auf einem Konzept, das seit 1960 die Evolution der DV in den groessten Firmen der Welt gepraegt hat. Zentrale, integrierte Datenstrukturen entstanden, die sich nicht von heute auf morgen ersetzen lassen. Dass die PC-Revolution die zentrale DV geschuettelt hat, ist eine wunderbare Sache. Sie fuehrte dazu, dass die etablierte Mainframe-Welt sich verbessern musste. Die Grossrechnerwelt reformiert sich notgedrungen. Die zentrale Datenstruktur der Firmen, die sich selbst nicht veraendert hat, kann sich mit neuer Kraft weiterentwickeln.

In der letzten CW des Jahres 1993 soll ein Verfechter des Mainframe-Computings zu Wort kommen; die Nummer 1/1994 wird an gleicher Stelle eine Entgegnung bringen.