Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

02.07.1999 - 

Konsolidierungsprojekte schwieriger als erwartet

Der steinige Weg zum Rechenzentrum der Zukunft

FRANKFURT/M. (wh) - Konsolidierung, Systemintegration und Kostenkontrolle zählen zu den größten Herausforderungen, denen sich RZ-Verantwortliche im 21. Jahrhundert stellen müssen. Doch der Weg zum Datenzentrum der Zukunft ist steinig. Ein Drittel aller Konsolidierungsvorhaben scheitert, sagt der Meta-Group-Analyst Rakesh Kumar.

Nach den Erfahrungen der Meta Group gehen IT-Verantwortliche Konsolidierungsvorhaben oft schon in der Vorbereitung falsch an. Kumar: "Wenn Unternehmen nicht schon zu Beginn genau festlegen, welche Kosten sie einsparen wollen, läßt sich hinterher auch nicht bemessen, ob das Projekt ein Erfolg war oder nicht." So ein Ziel könne beispielsweise lauten, fünf Prozent des jährlichen IT-Budgets zu sparen. "Das klingt banal, aber viele Anwender versäumen diese Vorarbeiten." Teilweise entstehe der Eindruck, Projekte würden nur deshalb aufgesetzt, weil "es sich einfach gut anhört, so etwas zu tun".

Ein weiterer Grund für das Scheitern von Konsolidierungsvorhaben liegt laut Kumar darin, daß die Projekte zu groß angesetzt würden und der Zeitrahmen zu knapp bemessen sei: "Den Unternehmen fehlt es sowohl an Know-how als auch an dem benötigten Personal." Im Lauf der Zeit nähmen Umfang und Komplexität der Projekte erfahrungsgemäß stark zu und wüchsen den Verantwortlichen schließlich über den Kopf. Kumar: "Die Folge ist häufig, daß das Projekt eingestellt wird."

Die Meta Group empfiehlt ihren Kunden, Konsolidierungspläne mit einem kleinen Projekt zu beginnen. Ein typisches Vorgehen sei etwa die räumliche Zusammenlegung von NT-Servern. Danach sollte überlegt werden, inwieweit auch Speichersysteme lokal zusammengefaßt werden könnten.

Im OS/390-Umfeld sei es ratsam, mit der Konsolidierung von Notes-basierten Mail-Systemen (Domino Server) auf dem Großrechner zu beginnen.

In einem zweiten Schritt könnten File- und Print-Server-Funktionen auf dem Host zusammengefaßt werden. Laut Angaben der Meta Group konnten etliche Unternehmen allein durch die letztgenannten Maßnahmen sechsstellige Beträge sparen. An die weitaus komplexere Konsolidierung von unternehmenskritischen Anwendungen, beispielsweise Enterprise-Resource-Planning-(ERP-) Systemen von SAP oder Baan, sollten sich IT-Verantwortliche erst nach Abschluß der vorangegangenen Phasen wagen.

Erfolgsentscheidend ist es nach Auffassung Kumars, von Anfang an ein dediziertes Konsolidierungsteam aufzubauen. Es könne nach und nach Erfahrungen sammeln, um später auch komplexere Projekte zu realisieren. In einer typischen RZ-Besetzung mit Systemprogrammierern, Anwendungsentwicklern und weiterem Personal sollte mindestens ein Mitarbeiter dem Konsolidierungsteam fest zugeordnet sein. "Konsolidierung wird ein kontinuierlicher Prozeß werden", meint der Berater, ebenso wie Kapazitätsplanung oder System-Management.

Einen Trend zur Konsolidierung sieht Kumar insbesondere auch im Bereich der Speichersysteme und des Speicher-Managements. Hinsichtlich der Auswahl entsprechender Hardware empfiehlt er Anwendern, die Anzahl der Lieferanten auf zwei zu reduzieren. Wie bei anderen IT-Investitionen auch, sei es andererseits nicht ratsam, sich auf nur eine Plattform, etwa EMCs "Symmetrix"-Maschinen, zu verlassen.

Bei der Bewältigung künftiger Speicher-Management-Aufgaben komme es nicht darauf an, eine vollständige Zentralisierung anzustreben. Wichtig sei zunächst der Aufbau von IT-Strukturen, die eine zentrale Verwaltung der Speicherressourcen zulassen. Die von den Herstellern in diesem Zusammenhang vielgepriesenen Storage Area Networks (SANs) beurteilt Kumar kritisch: "SAN ist eines der am stärksten überstrapazierten Schlagwörter." Zwar seien etliche Kunden der Meta Group dabei, SAN-taugliche Produkte wie Fibre-Channel-Switches und entsprechende Netzkonfigurationen zu testen. Kein einziges dieser Unternehmen habe bislang aber ein voll ausgebautes Speichernetz in Betrieb genommen. Dies werde noch mindestens 18 Monate dauern. Vor allem Softwareprobleme und die unzureichende Netzbandbreite erwiesen sich als Hindernisse.

"Um ein unternehmensweites Speichernetz aufbauen zu können, benötigt man auch entsprechende Management-Werkzeuge", so der Analyst. Diese seien noch längst nicht in Sicht. Das Versprechen einiger Hersteller etwa, unternehmensweit einsetzbare und einheitliche Datensicherungs- und Wiederherstellungs-Mechanismen (Backup and Recovery) zur Verfügung zu stellen, lasse sich frühestens in einem Jahr einlösen.

Auch in puncto Data-Sharing klafft nach Meinung des Marktforschers eine Lücke zwischen dem Anspruch der Hersteller und der Wirklichkeit in den Unternehmen. "Echtes Data-Sharing bedeutet, daß sämtliche Rechner über Plattformgrenzen hinweg auf eine Datenkopie auf einem physikalischen Datenträger zugreifen können. Diese Vision ist noch mindestens vier bis fünf Jahre weit weg." Dazu fehle sowohl Software und Hardware als auch die beispielsweise für Datenbankzugriffe erforderliche Middleware.

Die Einbindung von Legacy-Datenbeständen in moderne IT-Strukturen wird Unternehmen auch künftig Probleme bereiten. Die Integration von Mainframe-, Unix- und Windows-NT-Plattformen zählt für Kumar zu den schwierigsten Aufgaben, die RZ-Verantwortliche im 21. Jahrhundert übernehmen müßten. In diesem Zusammenhang stelle sich für immer mehr Unternehmen die Frage, wie Anwender künftig über das Web auf Legacy-Daten auf dem Mainframe zugreifen können.

Im Datenzentrum der Zukunft hat der Mainframe nach Einschätzung der Meta Group einen festen Platz, wenn auch mit veränderten Aufgaben. Die im Jahr 1998 ausgelieferte Menge an Mainframe-MIPS hat nach Berechnungen der Analysten im Vergleich zum Vorjahr um 55 Prozent zugenommen. Für das laufende Jahr sei mit einem Wachstum in gleicher Höhe zu rechnen (siehe Grafik "S/390-Mainframes"), wobei die Zahl der eingesetzten Maschinen eher stagniere.

Gemessen am wachsenden IT-Budget für Rechenzentren würden S/390-Systeme bis zum Jahr 2003 zwar die dominierende Plattform bleiben. Die Bedeutung alternativer Systeme nehme aber zu. Im Jahr 2003 hielten dieser Prognose zufolge Unix-basierte Rechner einen wertmäßigen Anteil von 30 Prozent, NT-Systeme kämen auf 20 Prozent. Wegen der sich verbessernden Verwaltbarkeit und Anwendungs-Skalierbarkeit von Unix- und NT-Plattformen verlören die bislang vorhandenen Vorteile der Big Irons hinsichtlich der gesamten Betriebskosten (Total Cost of Ownership) an Bedeutung. Nur noch die größten Mainframe-zentrierten Installationen würden dann noch nennenswerte Vorteile bringen.

Die Zukunft des ehemaligen Digital-Betriebssystems Open VMS steht für Kumar nach den jüngsten Turbulenzen bei Compaq mehr denn je in den Sternen. Er empfiehlt seinen Kunden, nicht neu in diese Plattformen zu investieren. "Pfeiffer (der entlassene Chef Compaqs, Anm. d. Red.) hat etwas geschafft, was sonst nur die Zauberkünstler in Las Vegas vollbringen", bilanziert der Analyst. "Er hat ein Multimilliarden-Dollar-Unternehmen mit all seinen Technologien einfach verschwinden lassen.