Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

10.01.1997 - 

Speichersysteme und -Management/Mit speziellen Datei-Servern gegen die Informationsflut

Vernetzte Umgebungen erfordern intelligentes Speicher-Management

Die durch Client-Server-DV gewonnene Freiheit führt bei den Speichersystemen häufig zu einer gegenläufigen Entwicklung. Denn durch die parallele Nutzung von Mainframes, Unix- und NT-Servern sowie PC-LANs schotten sich die Bereiche voneinander ab. Die Folge sind letztendlich höhere Kosten auf allen Ebenen sowie ein ineffizientes und ineffektives Informations-Management.

Die Ergebnisse einer Umfrage unter 700 IT-Verantwortlichen in Europa, Japan und den USA, die das US-amerikanische Marktforschungsunternehmen Find/SVP kürzlich im Rahmen der Studie "Managing Information Across the Enterprise" veröffentlichte, illustrieren den Schwachpunkt Datenspeicherung in verteilten, heterogenen IT-Infrastrukturen. So geht der überwiegende Teil der DV-Verantwortlichen davon aus, daß in den nächsten zwei Jahren die Anzahl der zu verwaltenden Server um bis zu 35 Prozent steigen wird. Daraus resultierend würden die erforderlichen Speicherkapazitäten um durchschnittlich 52 Prozent anwachsen.

"Die Dezentralisierung der Rechenleistung zieht beinahe zwangsläufig eine Dezentralisierung der Daten und Dateien nach sich", so Professor Gerhard Schneider vom Rechenzentrum der Universität Karlsruhe. Sein Urteil entspricht den Ergebnissen der Find/SVP-Untersuchung.

So gaben 75 Prozent der Befragten an, daß sie noch heute die Daten auf Speichersystemen, die an individuellen Servern angeschlossen sind, managen müssen. Immer stärker, so ein weiteres wichtiges Ergebnis der Studie, wird deshalb der Wunsch nach einem zentralen Speicherpool, um ein möglichst effektives Informations-Management in heterogenen Rechnerarchitekturen zu schaffen.

Mit dieser Konzeption will man den Management-Problemen gegensteuern, die die Downsizing-Wellen der 80er Jahre mit sich brachten. Hieraus darf aber keinesfalls ein Revival des gerade erst abgelegten Zentralismus eines Rechenzentrums abgeleitet werden. Denn, so der Karlsruher Wissenschaftler: "Kein Benutzer ist heute mehr bereit, einen durch Zentralismus bedingten Ausfall zu akzeptieren."

Um ein gleichermaßen zentrales wie offenes Informations-Management zu realisieren, stehen zwei sich ergänzende Konzepte zur Verfügung, die je nach Anwendungsfall ihre Stärken einbringen können: einerseits die als Informa- tion-Sharing bezeichnete gemeinsame Nutzung von Information über mehrere Betriebssysteme und Server hinweg und andererseits die direkte Integration von Speichersystemen in das Netzwerk.

Bei der erstgenannten Lösung steht die Unterstützung heterogener Hardwaresysteme über schnelle Kanalverbindungen im Vordergrund. Speziell bei der Übertragung großer Datenmengen zwischen unterschiedlichen Anwendungssystemen oder bei gemeinsamer Nutzung der Daten durch verschiedene Systeme können Plattenspeicherlösungen, die für den Datenverkehr den "alternativen" Kanalweg nutzen, das Netzwerk entlasten. Zudem lassen sich hier unterschiedliche DV-Welten unter den Hut einer einheitlichen Backup-Lösung bringen.

In großen vernetzten Umgebungen wie in Workstation-Clustern herrschen dagegen etwas andere Gesetzmäßigkeiten. Der Anwender verlangt hier ständige Zugriffsmöglichkeiten auf seinen Dateiraum.

Speziell für die Arbeit in Konstruktionsabteilungen und im wissenschaftlichen Umfeld ist außerdem die gemeinsame Nutzung von Daten und Dateien unerläßlich. Entsprechend hoch ist der Datenaustausch zwischen den einzelnen Arbeitsplätzen. Unzureichende Performance oder fehlende Zugriffsmöglichkeiten finden hier wenig Gegenliebe.

Mit dem Network File System (NFS) steht aus Softwaresicht für diese Anforderung eine Lösung zur Verfügung, die weithin als Standard akzeptiert wird. NFS simuliert dem Anwender stets das Vorhandensein der Datei auf einer lokalen Platte - ganz gleich, wo die Dateien im Netzwerk angesiedelt sind.

Allerdings wird der Betrieb mit steigender Rechnerzahl immer unübersichtlicher. Neben der fehlenden Skalierungseigenschaft sind es vornehmlich Management-Themen wie Rechteverwaltung, Datensicherung etc., die Schwierigkeiten bereiten. Hinzu kommen unkontrollierbare Performance-Einbrüche, wenn beispielsweise das Einloggen des Nutzers, die Verfügbarkeit der Daten und der Ablauf des Programms auf jeweils unterschiedlichen Rechnern erfolgen.

Seit Beginn der 90er Jahre versucht man deshalb im NFS-Umfeld, dieser Entwicklung mit dem Konzept des zentralen Datei-Servers zu begegnen. Dabei handelt es sich um ein dediziertes Rechnersystem, das ausschließlich der Dateiverwaltung dient. In der prinzipiellen Funktion ist ein solcher Datei-Server durchaus mit gewöhnlichen Speichersystemen vergleichbar. Nur tritt das LAN in diesem Fall an den Platz des ansonsten direkt angeschlossenen Rechners.

Der reibungslose Betrieb eines LANs beziehungsweise die Arbeit der Nutzer hängen damit entscheidend vom zentralen Datei-Server ab. Entsprechend hoch sind die Anforderungen an Verfügbarkeit der Daten (Ausfallsicherheit), dem Datendurchsatz (Performance) und der Skalierbarkeit.

In der Praxis erweisen sich die häufig als Datei-Server eingesetzten Standard-Workstations als wenig tauglich. Performance und Ausfallschutz der entfernt installierten Rechner sind, wenn nur eine CPU den Betrieb steuert, meist nicht gegeben. Dabei stellt noch nicht einmal das eingesetzte Rechnersystem die einzige Hauptfehlerquelle dar. Die kleineren Raid-Systeme sowie die Platten allgemein entpuppen sich als zu leistungsschwach.

Wie schon erwähnt, unterscheiden sich die Aufgabenstellungen an das Informations- und Speicher-Management im LAN im Grunde kaum von der aus dem Rechenzentrumsbetrieb gewohnten Funktionalität. Anstatt einen Standardrechner zum Datei-Server zu machen, stellt der Ausbau erprobter Speichersysteme zum Netzwerk-Datei-Server deshalb sicherlich eine erfolgversprechende Alternative dar.

So erwies sich bei ersten Tests an der Universität Karlsruhe die Konzeption Symmetrix Network File Storage als "im NFS-Bereich zuverlässig und flexibel". Über FDDI ließ sich ein Durchsatz pro Server-Datei-Anforderung von 4 GB/s erreichen. Damit unterscheidet sich die Geschwindigkeit kaum mehr von der einer direkt am Server angeschlossenen lokalen Platte.

Zusätzlich bieten solche Ansätze dem Anwender den Vorteil, daß zuvor getätigte Investitionen geschützt sind. Beispielsweise ergänzte das Forschungs- und Ingenieurzentrum von BMW die vorhandenen Speichersysteme und plant, künftig rund 600 in einem FDDI-Ring angeschlossenen Workstations mit den erforderlichen CAD/NFS-File-Services zu versorgen. Bernhard Otto vom BMW-Rechenzentrum zeigt sich unter anderem von der einfachen Administrationsmöglichkeit des Netzwerk-Datei-Servers von einem gängigen PC oder einer Workstation aus mit Standard-WWW-Browser angetan.

Angeklickt

Man könnte eine der Folgen falschverstandenen Client-Server-Computings auch als "DV-technische Kleinstaaterei" bezeichnen. Um einen Server herum oder mit den Grenzen eines lokalen Netzes sind Nutzergruppen entstanden, die auch auf autonome Datenhaltung Wert legen. Das ist kostenträchtig, ineffizient und ineffektiv. Dem stehen die Konzepte der gemeinsamen Datennutzung über Systemgrenzen hinweg oder der direkten Integration der Speicher in das Netzwerk gegenüber. Mit dem letztgenannten Ansatz haben BMW und die Universität Karlsruhe positive Erfahrungen gesammelt.

*Malte Rademacher ist Leiter Marketing bei der EMC Computer Systems Deutschland GmbH in Eschborn.