Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

12.12.1997 - 

Die Zukunft der Rechenzentren/Storage-Management in verteilten Umgebungen

Mit zentraler Kontrolle und Speichertransparenz zum Profit-Center

Ziel einer effizienten Speicherverwaltung muß sein, den wachsenden Speicherplatz so zu verwalten, daß keine zusätzlichen Verwaltungskosten und Mehrkosten für zugekaufte Speicher- und Prozessorleistung anfallen. Die Speicheradministration in verteilten Umgebungen entwickelt sich dabei in Richtung eines plattformübergreifenden zentralen Monitoring. Auf dem Weg zum Profit-Center gewinnt bei den Systemadministratoren die erhöhte Speichertransparenz bei einem gleichzeitig verbesserten Kostenniveau ständig an Bedeutung.

In großen Datennetzen aus nicht selten Hunderten von NT-, Netware- und Unix-Servern mit zu verwaltenden Datenmengen im Terabyte-Bereich liegt der Anteil aktiv genutzter Daten bei rund 20 Prozent. Effiziente Speicherverwaltung wird um so dringlicher, wenn man Prognosen führender Marktforschungsinstitute mit in Betracht zieht. Sie gehen davon aus, daß sich das durchschnittliche Speichervolumen in Großunternehmen von derzeit knapp 30 Terabyte schon bis zur Jahrtausendwende auf rund 400 Terabyte ausweiten wird. Bei durchschnittlichen Verwaltungskosten von etwa zehn Mark pro MB Plattenplatz wird deutlich, daß die kontinuierliche Speicheraufrüstung in kurzer Zeit für Unternehmen zu einer nicht mehr tragbaren Kostenexplosion führen wird. Vor diesem Hintergund stellt sich die Frage: Wie können die tatsächlich genutzten Datenmengen wirkungsvoll gefiltert werden, ohne überflüssige Aufwendungen in der Datensicherung und -verwaltung zu verursachen?

Derzeit gibt es verschiedene Daten-Management- und Backup-Syteme, die sich mit dem sicheren Handling und mit der Speicherverwaltung dieser wichtigen Unternehmensdaten beschäftigen. Dies reicht von dem MVS-Konzept systemverwalteter Speicher (SMS) bis zur Auslagerung inaktiver Daten auf kostengünstigere Medien über HSM- Systeme (Hierarchical Storage Management). Da diese Systeme aber zumeist plattformorientiert laufen und größtenteils dezentral gesteuert werden, stoßen sie aufgrund des rasanten Datenwachstums insbesondere in verteilten Welten schnell an ihre Leistungsgrenzen.

Um auch in diesen verteilten Systemumgebungen ein effizientes Daten-Management sicherzustellen, gehen daher zahlreiche Unternehmen den Weg, die Verantwortung hierfür wieder zurück in die Zuständigkeit ihrer zentralen DV-Abteilungen zu legen. Dabei werden die jeweiligen Speicheradministratoren oder Client-Server-Spezialisten mit der Aufgabe betraut, die zusätzlichen Plattformen ebenfalls zu verwalten. Diese Umverteilung ist nicht zuletzt oft mit weiteren Transparenzverlusten in der gesamten Speicherverwaltung verbunden: Denn entweder sind die Verantwortlichen nicht ausreichend mit den Besonderheiten der jeweiligen Plattform vertraut oder es fehlt ihnen spezifisches Know-how im Storage-Management.

Aus diesen Problemstellungen heraus erwachsen Anforderungen für eine neue Generation an Speicherverwaltungssoftware: Diese sollte mit Hilfe eines dezidierten Servers die Überwachung verschiedener Systemplattformen von einem zentralen Monitor aus ermöglichen. Ein solches neues plattformübergreifendes Storage-Tool wie zum Beispiel "Sams Vantage DP" (Distributed Platforms) von Sterling Software zeigt auf, wo Dateien gespeichert sind und wer sie wie und wann nutzt. Die Software übernimmt eine Art Mittlerrolle zwischen traditioneller plattformspezifischer Backup-Software von Arcserve oder "Adstar Distributed Storage Manager" (ADSM) von IBM und vorhandenen System-Management- Frameworks wie von Tivoli.

Dabei werden in einer zentralen Daten-Administration nicht nur plattformübergreifend die Server- und Plattenauslastung beziehungsweise der Speicherverbrauch angezeigt, sondern auch korrektive Elemente eingebracht. Diese reichen von interaktiven Berichten über aussagekräftige Auswertungen, Trendanalysen zur Kapazitätsauslastung bis hin zu historischen Grafiken. Um alle hierfür notwendigen Informationen zu erfassen, können die entsprechenden Dateien nach verschiedenen Gesichtspunkten klassifiziert und gleichzeitig die ermittelten Speichervolumina abgerufen werden. Der Anwender kann Schwellenwerte festlegen, bei deren Überschreitung nicht nur automatisch eine E-Mail- beziehungsweise SNMP-Trap-Funktion initiiert wird, sondern auch verschiedene Abhilfemechanismen in Gang kommen.

Die optimale Auslastung der vorhandenen Speicherressourcen ist letztlich der entscheidende Maßstab beim zentralen Speicher-Management in verteilten Systemen, da die unkontrollierte Zunahme des Speicherverbrauchs ganz unmittelbar zu einer gewaltigen Kostensteigerung führt. Untersuchungen der Budgets im Client-Server-Bereich von Unternehmen haben gezeigt, daß bereits mehr als 65 Prozent der Kosten allein auf zusätzlich benötigte Speichermedien und Prozessorleistung sowie auf die dazugehörige Verwaltung entfallen. Genau hier setzt ein entsprechend strukturiertes Storage-Management-System an: Es spart Kosten, da es plattformübergreifend die gesamte Speicherausnutzung optimiert.

Die plattformübergreifende Speicherverwaltung und -kontrolle stellt aber nur eine Vorstufe auf dem Weg zum Profit-Center dar. Um in Zukunft Kapazitäten im Storage- Management noch effizienter ausschöpfen zu können, arbeiten Hersteller daran, Speicher nicht nur zwischen verschiedenen Plattformen zu teilen, sondern auch systemübergreifend zur Verfügung zu stellen. Der Speicher als Betriebssystem-unabhängiges Information-Warehouse - das ist der nächste Schritt zum Speicher-Management im Rechenzentren der Zukunft.

Angeklickt

In verteilten Systemumgebungen sollte das Daten-Management genauso sichergestellt sein wie in herkömmlichen zentralen Strukturen; sehr häufig ist es das nicht. Viele Unternehmen gehen deshalb wieder dazu über, die Verantwortung hierfür zurück in die Zuständigkeit ihrer noch oder wieder zentralen DV-Abteilung zu legen. Dann aber machen die zusätzlich zu verwaltenden Plattformen natürlich Probleme, und die Transparenz nimmt erst einmal ab. Dezidierte Server mit spezieller Software können diese Schwierigkeiten beheben helfen.

*Stefan Koch ist Autor in München.