Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

29.11.2002 - 

Neue Standards lassen Fragen offen

Speicher-Management bleibt lückenhaft

MÜNCHEN (ave) - Ordnung im Speicherchaos! Anwender fordern Möglichkeiten, um ihre heterogenen Storage-Welten übergreifend zu administrieren. Neue Standards wie "Bluefin" sollen dafür wichtige Voraussetzungen schaffen und proprietäre Schnittstellen ablösen. Bis dahin ist es jedoch noch ein weiter Weg.

Unternehmen stehen vor einem Problem: Wie sollen die jährlich wachsenden Datenberge möglichst effektiv gespeichert und verwaltet werden? Mit einer Vielzahl von unterschiedlichen Speichermedien, darunter Festplatteneinheiten, Tapelibraries, Jukeboxen oder Backup-Roboter, versuchen Administratoren, die Datenflut unter Kontrolle zu halten. Kai-Uwe Klein, Storage Development Owner bei Computer Associates, warnt, dass sich Speicherprobleme allein über die Anschaffung neuer Hardware nur selten lösen lassen. Der Spezialist berichtet, dass "gerade in der heterogenen Welt die Subsysteme oftmals nur zu etwa 30 oder 40 Prozent ausgelastet sind".

Solche Überhänge sind effektiv nur mit einer umfassenden Administration der Speicherlandschaft zu beseitigen. Doch das Management ist sehr kompliziert und verursacht weitaus höhere Kosten als die Anschaffung zusätzlicher Hardware. So weisen die Analysten der Meta Group in ihrer Studie "Storage Networks - Lösungen und Services in Deutschland 2002" darauf hin, dass das Management der Daten in Unternehmen "bereits heute ein Vielfaches der reinen Storage-Anschaffungskosten" ausmacht, "Tendenz weiter steigend". Schätzungen zufolge ist das Verwalten des Speicherplatzes um etwa den Faktor sieben teurer als der für die Speicherhardware bezahlte Preis.

Technische Ansätze wie Storage Area Network (SAN) oder Network Attached Storage (NAS) sollen Abhilfe schaffen und die vorhandenen Speicherressourcen zu einem Pool zusammenfassen, der leichter zu konfigurieren, einfacher erweiterbar ist und vor allem den administrativen Overhead reduziert. Im Idealfall bedeutet das unter anderem: Vielfältige Speichersysteme im Unternehmen lassen sich von den Administratoren über eine einzige Konsole verwalten. Nicht nur das Monitoring, sondern auch das aktive Konfigurieren ist dabei möglich. Neue Hardware wird nach der Installation automatisch erkannt, das von ihr bereitgestellte Speichervolumen kann dynamisch beliebigen Applikationen zugeordnet werden.

Visionen und Realität

Leider sind solche Szenarien vorerst noch Zukunftsmusik. Zu den Grundvoraussetzungen für ihre Umsetzung gehört, dass die angeschlossene Hardware untereinander kompatibel ist und sich in eine übergreifende Management-Lösung einbinden lässt. Genau hier liegt momentan noch einiges im Argen, wie der Storage-Consultant Dirk Pelzer aus München erzählt. Nach Meinung des Spezialisten können Anwender mit heute verfügbaren Management-Lösungen wie "Sanpoint Control" von Veritas oder "SAN-Navigator" von Macdata "zwar schon eine ganze Menge anfangen". Dazu gehört etwa, Informationen aus Management Information Databases (MIBs) auszulesen oder das Erkennen von logischen Einheiten, die in bestimmten Storage-Devices vorhanden sind. Er beklagt jedoch das Fehlen von "Standards, um ein SAN sinnvoll und in seiner Gesamtheit verwalten zu können".

Mark Bregman, Executive Vice President Product Operations bei Veritas Software, fügt hinzu: "Anwender, die in den letzten zwölf bis 18 Monaten versucht haben, Speichernetze zu implementieren, mussten feststellen, dass die Realität nicht ganz an das Versprechen heranreicht. Speichernetze sind auf dem Papier sehr überzeugend, aber in Wirklichkeit eher kompliziert, was vor allem mit der Interoperabilität zusammenhängt."

Um die Kompatibilität ihrer Lösungen mit denen der Konkurrenz herzustellen, setzen die Hersteller momentan auf den Austausch von Programmier-Schnittstellen (Application Programming Interfaces = APIs) für ihre jeweiligen Produkte. Doch das reicht nach Meinung von Berater Pelzer nicht aus, er fordert eine übergreifende, offene Lösung. Über publizierte APIs lassen sich meist nur Teilbereiche der Administration vereinfachen, außerdem klammern die Storage-Anbieter spezielle Funktionen ihrer Hardware von solchen Vereinbarungen ohnehin gerne aus, um ihren Wettbewerbsvorteil nicht zu verlieren.

Ein wirklich übergreifendes Speicher-Management ist über den bisher gängigen Austausch der APIs aber ohnehin kaum zu erreichen. Dazu müssten die Hersteller nicht nur alle Schnittstellen sämtlicher Konkurrenten in die von ihnen entwickelten Lösungen integrieren, sondern zudem ihre eigenen APIs offen legen und natürlich pflegen. Dieses Prozedere ist kompliziert, langwierig und teuer.

Daher beschränkt sich das Gros der Anbieter darauf, nur die APIs der ihrer Meinung nach wichtigsten Hersteller zu integrieren. Grundlage für den dabei stattfindenden Schnittstellen-Austausch sind etliche Kooperationen unter den Playern im Storage-Bereich. Dabei entsteht ein Wust von Verflechtungen, der nur schwer zu durchschauen ist. Klemens Poschke, IT-Architekt für Storage Management der IBM Software Group kritisiert beispielsweise: "Manche arbeiten eben sehr gerne miteinander, andere nicht. Da fehlt einfach die große Klammer, und die kann nur ein offener Standard darstellen."

Begrenzte Offenheit

Selbst wenn Vereinbarungen über den Austausch von Schnittstellen bestehen, sind Probleme nicht auszuschließen. So kann es durchaus vorkommen, dass zwei Partner ihre APIs füreinander geöffnet haben, bestimmte Storage-Komponenten dabei aber ausgespart bleiben. Bei der Anschaffung entsprechender Hardware sollten Anwender diesem Punkt unbedingt Beachtung schenken.

Fehlt das API, dann ist auch kein echtes übergreifendes Management möglich. Hersteller von Management-Tools wie Tivoli oder CA zeigen solche Komponenten dann zwar in ihrer Konsole an. Will der Administrator aber darauf zugreifen, kann er das nicht direkt aus dem Programm tun - stattdessen wird die geräteeigene Management-Software aufgerufen. Immerhin hat das den Vorteil, dass der IT-Spezialist nicht an einen anderen Rechner gehen muss, ist aber laut Poschke "nicht sehr elegant" und bietet nicht die Vorzüge einer echten Integration. Die sehen Experten beispielsweise darin, flexibler auf Speicheranforderungen einzelner Mitarbeiter oder Anwendungen reagieren zu können oder Automatismen beziehungsweise Regeln einzusetzen, nach denen Speicherplatz bei Bedarf dynamisch verändert werden kann.

Der universelle Ansatz

Doch es gibt Hoffnung: Abhilfe für derlei Probleme könnte ein neuer Standard bringen, den die Storage Networking Industry Association (SNIA) vorantreibt. Unter dem Codenamen Bluefin hat die Herstellervereinigung in diesem Jahr die Entwicklung der Storage Management Initiative (SMI) gestartet. SMI soll - basierend auf Standards wie dem von der Desktop Management Task Force (DMTF) entwickelten Web-based Enterprise Management (WBEM) oder dem objektorientierten Common Information Model (CIM) - eine herstellerneutrale Lösung bieten, um über einen gemeinsamen Kommunikationsweg zuverlässig sowohl physische als auch logische Speicherelemente innerhalb von SANs zu entdecken, zu überwachen und zu verwalten. Die Spezifikation nutzt dabei das Managed Object Format (MOF), um vorhandene Systemressourcen auf Basis von CIM zu beschreiben. Erklärtes Ziel ist, irgendwann proprietäre APIs komplett zu ersetzen.

Wie Berater Pelzer erklärt, sollen mit Hilfe der von SMI bereitgestellten, einheitlichen Programmier- oder Daten-Schnittstellen Management-Frameworks in der Lage sein, auf Informationen innerhalb von spezifischen Speicherkomponenten zuzugreifen. In einem ersten Schritt könnten Administratoren so zum Beispiel einfache Konfigurationen vornehmen, etwa ein Raid-Set (Raid = Redundant Array of Independent Disks) auf einem Storage-System anzulegen, was laut Pelzer "heute de facto nicht geht". Er vermisst im Augenblick den "echten universellen Ansatz", der erst mit SMI möglich wird.

Nach Meinung von Malte Rademacher, Regional Marketing Manager Deutschland, Osteuropa, Mittlerer Osten und Südafrika bei EMC Deutschland und außerdem Chairman des German Committee der SNIA Europe, "kann man mit SMI schon eine ganze Menge machen": Der Experte nennt das Management von Arrays und die Zuordnung von Ressourcen in einem SAN als Beispiele. Ob der hehre Wunsch der SNIA ("Im Jahr 2005 alle Speichermedien über die SMI-Schnittstelle managen") Realität wird, scheint jedoch fraglich. Einige wichtige Bausteine fehlen noch, um das Bild zu vervollständigen: Die Spezifikation wird frühestens im zweiten Quartal 2003 abgeschlossen. Mit einer breiten Auslieferung dazu konformer Produkte ist nicht vor dem darauf folgenden Dezember zu rechnen.

Alles wie gehabt?

Erschwerend kommt hinzu, dass die Hersteller sich zwar bereits mit Ankündigungen im Hinblick auf eine kommende Unterstützung von Bluefin/CIM hervortun, aber trotzdem wohl auch in Zukunft ihr eigenes Süppchen kochen werden. EMC-Mann Rademacher sieht das nicht problematisch: "CIM/Bluefin sind nur Richtlinien, es kommt letztendlich auf den jeweiligen Hersteller an, wie er damit umgeht." Seiner Ansicht nach bietet die "Cleverness, mit der die Schnittstellen in der jeweiligen Software genutzt werden", den Herstellern genug Spielraum, um sich von der Konkurrenz zu differenzieren.

Im ungünstigsten Fall könnte sich nach der erfolgreichen Definition der SMI-Spezifikation eine Situation ergeben, die der heutigen nicht unähnlich ist. Die Hersteller implementieren dann zwar einen Standard, der eine gewisse Interoperabilität sicherstellt und zudem Forschungs- und Entwicklungskosten reduzieren hilft, die für das Bereitstellen eigener und das Integrieren fremder Schnittstellen fällig wären. Bei Spezialfunktionen kämen dann jedoch wiederum proprietäre Erweiterungen zum Einsatz. Geräteübergreifend wären diese jedoch nicht zu managen, es sei denn, die Hersteller ringen sich erneut zu einer Kooperation durch.

Olaf Swantee, General Manager und Vice President Network Storage Solutions, Enterprise Systems Group, bei Hewlett-Packard, ist sich jedoch sicher, dass "der Markt in Richtung offene Systeme geht". Bluefin stellt für den Hersteller daher einen wichtigen Standard innerhalb seiner Strategie dar. HP hat auf Basis des Standards bereits eine neue Firmware für seine Speicherprodukte entwickelt.

Sollte sich ein offener Standard tatsächlich durchsetzen, wird es möglich sein, auch bereits installierte Speicherkomponenten via Bluefin/SMI zu managen. Wenn ein Software-Upgrade nicht möglich ist, kann eine Art Proxy entweder direkt auf dem Gerät oder aber als Appliance zusätzlich installiert werden. Diese Lösung stellt dann für andere Speicherhardware und Management-Tools die CIM-Schnittstelle zur Verfügung, spricht zum Gerät hin aber die herstellerspezifische Schnittstelle an. Nach Aussagen von Malte Rademacher will EMC beispielsweise seine Middleware "Widesky" nutzen, um die beim Kunden installierte Storage-Basis mit den neuen Standards kompatibel zu machen.

Anwender, die momentan mit der Anschaffung neuer Storage-Komponenten liebäugeln, sollten nicht abwarten, bis der Standard verabschiedet ist. Moderne Geräte lassen sich in der Regel per Software-Upgrade auf neue technische Spezifikationen aufrüsten. Consultant Pelzer empfiehlt jedoch, sich vom Hersteller sicherheitshalber schriftlich bestätigen zu lassen, dass ein späteres Upgrade auch tatsächlich möglich ist. (ave)