Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

04.08.1995 - 

Gastkommentar

"Virtueller Mainframe" als neuer Leitstand des DV-Verantwortlichen

04.08.1995

Albert Goehring, Supervisor Open Systems Products, BMC Software GmbH, Frankfurt am Main.

Wem geht es heutzutage an den Kragen, wenn alle Raeder stillstehen und 5000 Mitarbeiter Daeumchen drehen, nur weil irgendein Puzzleteil im DV-Gesamtsystem Ermuedungserscheinungen zeigt und just die Arbeit niedergelegt hat? In der guten alten Mainframe- Zeit war es einfach, einen Verantwortlichen zu finden. Der Mainframe-Operator musste alles unter Kontrolle haben. Er kannte seinen Patienten, den Grossrechner, in- und auswendig wie ein Hausarzt. Er konnte aus den Zahlen, in denen sich der Rechner auf dem Bildschirm offenbarte, dessen Zustand bis ins kleinste ablesen.

Und heute? An jedem Netzwerk, an jeder Datenbank und an jedem Grossrechner sitzt ein Experte. Aber auch wenn die Standardwerkzeuge immer ausgefeilter und immer besser zu bedienen sind und immer mehr Moeglichkeiten zulassen: An der Kernfrage "Wer hat eigentlich den Ueberblick?" aendert sich nichts. Und die Gewaehr, dass ein zusammengenetztes IT-System auch fehlerfrei funktioniert, kann letztlich niemand geben. Nicht dass das Chaos herrscht in den DV-Abteilungen. Nur braucht der bunte Zoo von Hardware, Betriebssystemen, Datenbanken und Anwendungssoftware einen ebensolchen Zoo von Experten - und die sind rar, teuer und nur auf ihren eigenen Bereich spezialisiert.

Die Rueckkehr in die geordnete proprietaere Welt eines Anbieters strebt dennoch kaum jemand an. Ein alter Hase bringt es auf den Punkt: "Wenn man mehr als ein Datenbanksystem einsetzt, sind die Datenbankanbieter weniger arrogant." Recht hat er, aber die Arbeit der Datenbankadministratoren macht das nicht leichter. In einem Rechenzentrum durchschnittlicher Machart halten rund 150 Mitarbeiter den Laden am Laufen und kaempfen mit den Tuecken der IT. Viel zuviel, wenn man glauben darf, was in einer neuen Untersuchung geschrieben steht: 35 Leute muessten ausreichen. Freilich: Dann muss ueber neue Verantwortlichkeiten geredet werden, und die werden logischerweise weiter gespannt sein. Ausserdem muessen die zur Verfuegung stehenden Werkzeuge mehr koennen.

Der schlaue Kopf, der heutzutage das komplexe IT-Gesamtsystem eines Grossunternehmens ueberblickt, muss erst noch geboren werden. Kein einzelner kann die Masse der heterogenen Systeme noch ueberschauen. Das wirkt sich nicht gerade positiv aus. Wie sonst laesst sich erklaeren, dass sich ein amerikanischer Chief Information Officer im Durchschnitt nicht laenger als 15 Monate in diesem Job haelt? Ideal waere der "virtuelle Mainframe", also eine Arbeitsumgebung, die auch noch so komplexe, verteilte und heterogene Systeme an einem Arbeitsplatz zusammenfasst und eine uebersichtliche Ueberwachung und Steuerung zulaesst, wie das noch vor 20 Jahren der Fall war. Dann wuerde sich die Kraut-und-Rueben- Ansammlung von Informationssystemen fuer den Chief Information Officer wie ein uebersichtlicher Grossrechner praesentieren - auch wenn dahinter PCs, Netzwerke, Workstations, diverse Betriebssysteme, Anwendungen und Datenbanken stehen. Der virtuelle Mainframe sollte der zukuenftige Arbeitsplatz des DV- Verantwortlichen sein.

So neu ist der Gedanke gar nicht: Schon einmal hat man versucht, den Grossrechner in kleine Stueckchen zu zerschneiden. Die Idee dazu stammt aus den 80er Jahren. Ausloeser waren die CAD-Programme, die mit der zugeteilten Rechnerleistung kaum vernuenftig arbeiten konnten.

Bedenkt man, dass in der Prozessorentwicklung erst 1978 die Schallmauer von einem MIPS (Millionen Instruktionen pro Sekunde) durchbrochen wurde, kann man sich ausrechnen, was uebrigblieb, wenn sich 100 Konstrukteure dieses eine MIPS teilen mussten - auf jeden Fall zuwenig.

Also - so die Grundidee - sollte jeder seinen eigenen Prozessor und seine eigene Speichereinheit erhalten. Ein verteiltes Betriebssystem sollte die vielen Austauschvorgaenge zwischen den einzelnen Arbeitsplaetzen und Peripheriegeraeten regeln, wobei sich das Ganze weiterhin so einfach handhaben lassen sollte wie ein normaler Mainframe. Das einzige Betriebssystem, das jemals diesen Stand erreichte, hatte den schoenen Namen "Aegis". Damit ist die Geschichte der verteilten Betriebssysteme eigentlich schon zu Ende, denn durchgesetzt hat der Newcomer sich nicht, und Anfang der 80er Jahre begann dann der unaufhaltsame Aufstieg von PCs und Unix-Workstations.

Aber ein Denkmodell fuer die Zukunft ist der virtuelle Mainframe allemal. Von einer zentralen Stelle aus koennten sich alle Ressourcen in verteilten, heterogenen Systemen von einer intelligenten Software ueberwachen und steuern lassen. Vor diesem Gebilde kann dann auch getrost ein Chief Information Officer Platz nehmen - laenger als 15 Monate.