Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

23.08.1991 - 

Automationslösungen werden überlebenswichtig:

Effizienz des herkömmlichen RZ immer häufiger in Frage gestellt

Die Schlagworts für die Zukunft des Rechenzentrums sind bekannt: Automation, künstliche Intelligenz, neue Entwicklungsumgebungen

und Architekturen, Performance- und Kapazitäts-Management, verteilte Verarbeitung, globale Informationsdienste, Systemintegration etc. und das mit weniger Personal, in unternehmensweiten Netzen mit zunehmend heterogener Hard- und Software-Umgebung.

Der Trend in Richtung integrierter Gesamtlösungen, inklusive Mittlerer Datentechnik und dem verstärkten Einsatz von PCs, ist nicht umkehrbar. Ein modularer Aufbau und das reibungslose Zusammenwirken der einzelnen Bausteine werden dabei eine wichtige Rolle spielen. Die schnell wachsende Komplexität in allen Bereichen, Vernetzung durch modernste Glasfasertechnik und immer höhere Transaktionsvolumina stellen die Verantwortlichen im Rechenzentrum vor schwierige Aufgaben.

Voraussetzungen für die zukünftige Wettbewerbsfähigkeit müssen deshalb schon jetzt geschaffen werden. Dazu gehört auch die Ausstattung mit Tools, die modular in eine Gesamtlösung integriert werden können und über eine einheitliche grafische Bedieneroberfläche verfügen. IBMs CUA-Strategie weist den Weg. Neue Applikationen sollten netzunabhängig auf Application Programming Interfaces (API) aufgesetzt werden. Wie das Rechenzentrum der Zukunft aussehen wird, ist schon heute an einigen Entwicklungen deutlich zu erkennen.

Desktops werden immer mehr an Bedeutung gewinnen. Schon heute werden mehr MIPS auf PCs verarbeitet als auf traditionellen Mainframes. Diesen Teil der unternehmensweiten, Datenverarbeitung effizient zu managen wird eine der Hauptaufgaben von RZ-Verantwortlichen sein. Speicher-Management, Datensicherheit, Wiederherstellung und Backup oder Datenintegrität sind nur einige der kommenden Probleme.

Auch sind unternehmensweite Verarbeitung, verteilte Daten und Client-Server-Applikationen eindeutig auf dem Vormarsch. Denn die Informationstechnologie wird zum Herzstück der globalen Unternehmensstrategie und entscheidet über den Fortbestand des Unternehmens und den Erhalt der Wettbewerbsfähigkeit. Über Informationen - und nicht nur Daten - an jedem Ort in Echtzeit zu verfügen ist die Forderung der 90er Jahre. Zwangsläufig wird sich der Schwerpunkt im RZ von zentralen, host-gestützten Anwendungen hin zur weit verteilten Daten- und zur Netzwerkverarbeitung verändern. Wobei die Netzwerke sich dabei durch zunehmende Heterogenität auszeichnen. Hard- und Software verschiedener Hersteller und unterschiedliche integrierte Architekturen wie IBMs SAA oder DECs NAS müssen verwaltet werden.

"Totgesagte leben länger" das trifft besonders auf die Rolle der Mainframes im Rechenzentrum zu. Sie werden in den nächsten Jahren weiterhin eine zentrale Stelle im Rechnerverbund einnehmen. Das belegen auch verschiedene Studien führender Marktforschungsunternehmen. Zwar verlagert sich die Anwendungsentwicklung langsam vom Mainframe auf den Arbeitsplatz-Rechner, der Großteil der Anwendungen bleibt jedoch auf absehbare Zeit Mainframe basiert.

Gleichwohl werden sich die Aufgaben der Mainframes wandeln. System-Management und Systemintegration dürften zur Hauptaufgabe der zentralen EDV werden. Dem Mainframe kommen dann neue Aufgaben zu, mit deren Bewältigung er, allen Unkenrufen zum Trotz, überleben wird. Informations-, System- und Massenspeicher-Management, Informationsverteilung oder die Rolle als unternehmensweiter Datenserver, Netzschalter und Mehrwertdienst-Anbieter sind nur einige Beispiele.

Dazu müssen natürlich neue Anwendungen realisiert werden, die der Herausforderung des System-Managements effektiv begegnen können. Das bedeutet, Mainframes, Netze und verteilte Systeme zu kontrollieren sowie der wachsenden Bedeutung von Kapazitäts- und Performance-Management Rechnung zu tragen.

Die enstehenden Märkte im Osten Europas und in den neuen deutschen Bundesländern zeigen zudem, daß die RZ-Verantwortlichen dort an der Bedeutung der Mainframes überhaupt keinen Zweifel aufkommen lassen. Schließlich mußten sie jahrzentelang mit nicht vorhandenen Ressourcen leben (Zitat eines RZ-Leiters: "Wir haben wie überall in der DDR den Mangel verwaltet und immer neu verteilt!"), als daß sie sich jetzt mit gering dimensionierten Rechnern einlassen, beziehungsweise mit niedriger Performance kämpfen wollen.

Grundsätzlich wird in den Rechenzentren die Bedeutung des automatisierten Performance Managements durchaus gesehen, die notwendige Priorität jedoch noch nicht überall eingeräumt. Das ist verwunderlich, muß und wird sich aber in den nächsten Jahren grundlegend ändern. Noch ähnelt die Situation der auf unseren Straßen: Jeder wünscht sich eigentlich schnelles Vorankommen auf freien Strecken, aber keiner ist bereit, die Kosten dafür zu tragen.

Performance-Management heutiger Prägung wird sich in Zukunft sehr stark wandeln müssen, um mit kommenden RZ-Generationen Schritt zu halten. Die Rolle der "Feuerwehr" wird bald nicht mehr ausreichen. Seit den Anfangstagen hat sich bereits ein drastischer Wandel vom einfachen Monitor zum ausgefeilten Werkzeug für die Erkennung und Lösung komplexer Systemprobleme vollzogen.

Am Ende der nächsten Entwicklungsphase wird das vollautomatisierte Performance-Management stehen: Erkennung, Analyse und Behebung von Service-Level-Problemen, ganz ohne menschliche Intervention. Um Mißverständnissen vorzubeugen - das RZ wird in der Zukunft nicht menschenleer sein. Im Gegenteil, es dürften sogar mehr Mitarbeiter dort tätig sein. Allerdings werden sich die Aufgaben des RZ-Personals grundlegend ändern, weg vom Performance-Management, hin zum Performance-Engineering sowie weitgehende Tätigkeit im Benutzerservice. Die Systeme werden automatisch arbeiten, denn wissensbasierte Systeme (Stichwort künstliche Intelligenz) lassen den Programmierer zum System-Manager werden. Routineaufgaben wie Handling, Kontrolle oder Dokumentation sind weitgehend automatisiert.

Die existentielle Bedeutung der Automation für die Zukunft des Rechenzentrums steht mittlerweile ohnehin nicht mehr zur Debatte. Die rasante Entwicklung im Hard- und Softwarebereich, in der Datenübertragung, der Netzwerktechnologie oder bei den verteilten Systemen ist kaum mehr nachzuvollziehen. Der menschliche Faktor wird immer öfter zum Risiko, Automationslösungen sind überlebenswichtig. Und: Automation und Performance-Management lassen sich nicht getrennt betreiben, sondern müssen eng zusammenwirken.

Die Integration unterschiedlicher Produkte mit ihren jeweiligen Datenbanken und Schnittstellen über unterschiedliche Hard- und Software-Produktlinien bedeuten einen erheblichen technologischen Wandel. Lösungsansätze wie IBMs Systemview bieten eine Architekturplattform, auf die der Anwender mit entsprechenden Produkten von Third-Party-Anbietern aufsetzen kann.

Der menschliche Faktor wird oft zum Risiko

Schlagworte wie Downsizing oder Outsourcing und wachsende Kostenzwänge lassen viele Unternehmen die Effizienz ihres Rechenzentrums zunehmend mit kritischen Augen sehen. Zusammen mit den sich künftig verändern den Marktgegebenheiten (gemeinsamer Markt in Europa, Abbau von Handelsbarrieren zwischen USA, Kanada und Mexiko) ergibt sich ein steigender Druck für die Unternehmen. Effizienz bedeutet Wettbewerbsfähigkeit, Automation ist einer der Schlüssel dazu.

Die Herausforderungen für die DV-Verantwortlichen in den kommenden Jahren sind klar umrissen: Kostenerhöhung und damit untrennbar verbunden, Kostenkontrolle bei gleichzeitiger Produktivitätssteigerung, nicht nur in der EDV, sondern im gesamten Unternehmen. Kurz gesagt: weniger Personal, geringere finanzielle Mittel und weiter steigende Arbeitsbelastung.

Um diese Situation in den Griff zu bekommen, müssen Produktivität und Qualität erhöht, Kosten und Fehlerquoten deutlich gesenkt werden. Dazu bedarf es eines effektiven System-Managements, einer Restrukturierung der zentralen Datenverarbeitung, verbesserter Prozeßeffizienz und einer Reduzierung der Anwendungslasten.

Das Rechenzentrum der Zukunft wird dem Anwender einen Service bieten müssen, der heute noch gar nicht vorstellbar ist. Die gestellten Anforderungen dürfen jedoch nicht nur erfüllt, sondern müssen sogar noch übertroffen werden. Nur dann können Rechenzentren auch im nächsten Jahrhundert ihren Stellenwert im Unternehmen behalten.