Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

07.03.2003 - 

Kostengünstige Alternativen zum Fibre-Channel-Netz

Beim Speichern sparen

MÜNCHEN (kk) - Vorhandene Speicher bieten meist Optimierungsmöglichkeiten. Sind diese ausgeschöpft, sollten auch kleinere Unternehmen aus Kostengründen die Datenhaltung von den Servern trennen. Dazu taugen insbesondere Techniken wie NAS oder iSCSI, die auf dem herkömmlichen Ethernet aufbauen.

Für das IT-Management lohnt es sich, einen Blick auf bereits vorhandene Systeme zu werfen und sich folgende Fragen zu stellen: Kann durch Umschichtung und Auslagerung von Daten auf Sekundär- und Tertiärspeicher knappe Festplattenkapazität gewonnen werden? Lassen sich wiederkehrende Prozeduren wie das Backup automatisieren? Kann die Hochverfügbarkeit durch Datenreplizierung erreicht werden? Als Antwort auf diese und andere Fragestellungen bietet die Industrie eine Reihe von Softwarepaketen an, die auf den vorhandenen Systemen Platz schaffen - etwa der "Storage Manager" von Fujitsu-Softek - und bei der Verwaltung helfen.

Vorhandenes optimieren

Schon lange bekannt ist, dass Speichersysteme oft schlecht ausgenutzt werden, das heißt, die angeschafften Speicher werden immer weniger dicht mit Daten belegt. Unternehmen verfügen also über freie Ressourcen, wissen dies aber nicht. Abhilfe schaffen spezielle Softwareprogramme, die die Festplattensysteme auf ungenutzte Ressourcen durchforsten und dabei oft erstaunliche Ergebnisse erzielen: Fujitsu-Softek beispielsweise garantiert beim Einsatz seines Storage Managers eine Steigerung der Speichernutzung um mindestens 25 Prozent. Wird dieser Wert unterschritten, verzichtet der Hersteller ein Jahr lang auf die Lizenzgebühr für das Programm.

Die Archivierung von E-Mails dürfte die Applikation sein, die in den vergangenen Jahren den meisten Speicherbedarf kreiert hat. Arbeitsplatzrechner, E-Mail-Server und in der Folge die Backup-Systeme werden von der Datenflut oftmals in die Knie gezwungen. Nicht selten wird ein und dieselbe Information auf vielen Einzelplatzsystemen abgelegt und auch beim Backup mehrfach gesichert. Hinzu kommt die gesetzliche Aufbewahrungspflicht für E-Mails, die auch kleinere Unternehmen zur Archivierung verpflichtet.

Einen Ausweg aus diesem Dilemma bieten hier ebenfalls Softwareprogramme, etwa der "Email-X-Tender" von Legato. Das Programm kopiert automatisch jede E-Mail inklusive Anhang in einen zentralen "Enterprise Message Center". Zugleich wird ein Index über alle Informationen und Anhänge erstellt, damit die Daten wieder aufzufinden sind. Die positiven Folgen der zentralen Datenhaltung: Persönliche Archive werden überflüssig und die Backup-Zeiten für die E-Mail-Server reduzieren sich. Außerdem kann Geld gespart werden, weil die elektronischen Nachrichten auf kostengünstigere Sekundärspeicher ausgelagert werden.

Doch mit der effizienteren Speicherauslastung alleine ist es in der Regel nicht getan. Jeder IT-Manager kämpft mit den stetig anwachsenden Datenbergen von jährlich bis zu 80 Prozent. Oft behelfen sich die Administratoren damit, Zug um Zug die Festplattenkapazitäten im Server zu erhöhen oder zusätzliche Raid-Systeme (Raid = Redundant Array of Independent Disks) anzuschaffen. In Zeiten sinkender Preise für die Hardware erscheint das auf den ersten Blick auch als ein probates Mittel. So war beispielsweise 2002 ein Jahr, in dem trotz gestiegener Datenmengen der Markt für Speichersysteme um rund zehn Prozent schrumpfte.

Das könnte sich jetzt ändern, schenkt man den Marktforschern von IDC Glauben. Die Analysten erwarten, anders als in der Vergangenheit, keine dramatische Erhöhung der Datendichte (Density) auf den Festplatten. Damit verlängert sich der Lebenszyklus der Speicher, der Preisverfall verlangsamt sich. Hinzu kommt die Marktbereinigung unter den Herstellern, die deren Konkurrenzsituation verbessert hat. Mit IBM und Quantum gaben in den vergangenen zwei Jahren zwei namhafte Produzenten die Fertigung von Festplatten auf. Anwender sollten deshalb lieber nicht damit rechnen, dass Festplattensysteme weiterhin billiger werden.

Sparpotenzial Konsolidierung

Von diesen Preisüberlegungen einmal abgesehen, birgt der ungeordnete Ausbau der Speicherkapazitäten langfristig eine Kostenfalle: Die Speichersysteme müssen nämlich administriert werden. Steigt die Anzahl der Arrays, sollte auch das Verwaltungspersonal dafür erhöht werden, was in der Praxis aber meist nicht realisiert wird. IDC schätzt, dass Speicherverwalter ihre Effizienz jährlich um 60 Prozent steigern müssen, um mit den Datenbergen Schritt zu halten. Nach Berechnungen des Softwareherstellers Fujitsu-Softek entfällt von zehn Dollar, die in Storage investiert werden, knapp ein Dollar auf die Verwaltung. 2002 lag nach Informationen des US-Beratungsunternehmens Horison Information Strategies, das sich auf IDC-Zahlen stützt, der weltweite Umsatz mit Speicherverwaltungsprogrammen bei rund 5,2 Milliarden Dollar. In zwei Jahren soll sich dieser Wert verdoppeln. Zusätzlicher Speicher schafft also auch mehr Verwaltungsaufgaben und die Kosten dafür. Nicht nur im oberen Preissegment argumentieren die Hersteller deshalb seit neuestem mit einem Schlagwort, das aus der Rechnerwelt bekannt ist: Konsolidierung.

Im unteren und mittleren Leistungsbereich bedeutet die Forderung nach Konsolidierung der Speicherlandschaft zunächst die Entkoppelung von Server und Subsystem. Reicht der Speicherplatz nicht mehr aus, soll nach herrschender Meinung nicht in "Direct Attached Storage Drives" (DASD), sondern in ein vernetztes, von mehreren Servern zugängliches Speichersystem investiert werden. Darunter fallen die Konzepte Network Attached Storage (NAS) und Storage Area Network (SAN). Letzteres nutzt meist die noch teure Fibre-Channel-(FC-)Technik auf Basis von Glasfaserkabel. Deshalb wurden eine Reihe von neuen Datentransfermodi entwickelt, die das Internet Protocol (IP) nutzen: Internet Fibre Channel Protocol (iFCP), Fibre Channel over TCP/IP (FCIP) und vor allem Internet SCSI (iSCSI).

Spielarten zentraler Datenhaltung

Alle Lösungen, die auf dem Speicherprotokoll Fibre Channel aufbauen, dürften für den mittleren Leistungsbedarf zu teuer und zu kompliziert sein. Bei einem FC-SAN muss nämlich eine eigene Netzinfrastruktur aufgebaut und verwaltet werden. FCIP und iFCP dienen hauptsächlich der Verbindung von schon bestehenden FC-Speichernetzen. Für kleinere Unternehmen eignen sich eher NAS-Systeme und seit neuestem iSCSI-Lösungen. Dabei wird entweder direkt das hauseigene LAN genutzt (NAS) oder doch zumindest das Know-how darüber (iSCSI).

Die Idee des NAS ist nicht neu. Zum Beispiel hat Auspex schon vor Jahren den "Netz-Server" als Speichergattung eingeführt. Der für File-Services konzipierte Speicher verfügt über große Plattenkapazitäten und wird als Network Attached Storage in das lokale Netz (LAN) eingeklinkt. NAS-Speicher eignen sich für den zentralen Zugriff von Servern und Desktop-Clients auf Daten-Files, die sonst im DASD-Speicher abgelegt sind. Ein Pluspunkt solcher Lösungen ist die Verwaltung der Systeme: Das NAS-Gerät wird wie jedes andere System im LAN behandelt, es muss also kein zusätzliches Wissen aufgebaut werden.

Einen anderen Vorteil dieses Konzepts nutzt Helmut Bockelbrink, Leiter Sachgebiet Informationsverarbeitung im Referat Gesundheit und Umwelt der bayerischen Landeshauptstadt München: "Wir können damit auf einer Plattform NT- und Unix-Daten speichern und verwalten." Derzeit greifen 530 NT-Clients und vier Unix-Server auf den Auspex-Filer zu. Das Gerät verfügt über eine installierte Bruttokapazität von 1 TB, wovon 700 GB in einer Raid-Konfiguration nutzbar sind. Die Hälfte davon ist schon belegt, dennoch bleibt Platz für Wachstum: Der Speicher-Server lässt sich auf 4 TB (brutto) erweitern.

Seit neuestem hat auch Microsoft den lukrativen NAS-Markt für sich entdeckt. Tatsächlich hat die Softwareschmiede schon vor einem Jahr eine eigene Speicherabteilung gegründet, die mit der Initiative "Windows Powered NAS" derzeit für einigen Wirbel sorgt. Microsoft bietet auf Basis von Windows 2000 Server (und für die Cluster-Lösung Windows Advanced Server) eine NAS-Lösung an, die nach Ansicht von Norbert Deuschle, Analyst der Meta Group, ein gewisses Maß an Sicherheit bietet, sich einfach installieren, verwalten und in die Unternehmensinfrastruktur einbinden lässt und zudem den Geldbeutel schonen soll. Die Softwareschmiede überträgt es ihren internationalen OEM-Kunden wie IBM, HP, Dell, Fujitsu, NEC, Iomega oder MTI und den nationalen Lizenznehmern - in Deutschland sind das bislang Transtec, Rombus, Crane und Wortmann -, die das Konzept in verkaufbare Produkte umzusetzen.

Block- oder File-Daten

Generell gilt es zu beachten, dass die Vorteile der NAS-Architektur zugleich auch ihre Schwachstelle darstellen: Die Daten werden über das LAN transportiert und strapazieren dabei die Bandbreite. Für viele Zugriffe oder große Datenbewegungen empfiehlt es sich daher, dedizierte Speichernetze (SANs) aufzubauen, die das LAN entlasten. Im Gegensatz zum File-basierenden Transfer bei NAS ist ein SAN für die Übertragung von Datenblöcken, etwa aus Datenbanken, gedacht.

In kleineren und mittelgroßen Firmen spielen SANs, die normalerweise auf dem Fibre-Channel-Protokoll aufbauen, bislang kaum eine Rolle. Laut IDC haben knapp 70 Prozent der Unternehmen mit bis zu 999 Mitarbeitern keine entsprechenden Pläne, und weniger als zehn Prozent nutzen eine solche Lösung.

Der neue Standard: iSCSI

Etwas anders stellt sich die Situation bei NAS-Geräten dar, wo immerhin fast 20 Prozent der Firmen einen File-Server einsetzen und weitere 20 Prozent den Einsatz planen oder entsprechende Installationen testen. Trotz der in der Vergangenheit ausgefochtenen Grabenkämpfe um die bessere Lösung herrscht unter beiden Lagern zumindest Einigkeit darüber, dass die Datenhaltung von den Servern abgekoppelt und zentral erfolgen soll.

Dieser Forderung genügt auch das kürzlich als Standard verabschiedete Protokoll iSCSI, mit dem sich in Zukunft kostengünstige Speichernetze aufbauen lassen, hoffen zumindest Teile der Industrie. Das jetzt von der Internet Engineering Task Force (IETF) standardisierte iSCSI setzt das parallele SCSI-Protokoll - die bekannte Schnittstelle für Speicherperipherie - nahezu unverändert auf TCP/IP auf. Allerdings ist die Zerlegung der SCSI-Blockdaten in TCP/IP-Pakete komplex und rechnerintensiv. Um die Server-CPU zu entlasten, wurden deshalb "TCP/IP Offload Engines" (TOEs) entwickelt. Das sind Netzkarten oder Host-Bus-Adapter mit einem Koprozessor, der die Speicherdatenblöcke de- und reassembliert. Ein weiterer Nachteil entsteht dadurch, dass TCP die Befehls-Blockgrenzen nicht erkennt und iSCSI-Daten mit drei Headern - für SCSI, TCP und IP - versehen werden müssen, was die Transfergeschwindigkeit verlangsamt. Schnelle Netze, etwa 10-Gigabit-Ethernet, in Zusammenarbeit mit leistungsstarken TOEs sind für Übertragungsraten größer als 30 MB/s auch in Zukunft notwendig.

Tony Prigmore, Analyst der Enterprise Storage Group, beurteilt die Verabschiedung von iSCSI allerdings positiv: "Ab sofort läuft Phase zwei in der Verbreitung von iSCSI. Jetzt haben auch kleinere Anwender, die traditionell ihre am Server angeflanschten Speicher ausbauten, eine akzeptable Alternative für ein Speichernetz, das relativ kostengünstig und einfach aufzubauen ist." Insbesondere im Microsoft-Umfeld wird seiner Meinung nach iSCSI zum Zuge kommen. Prigmore erwartet, dass heuer für diesen Markt zahlreiche Produkte angeboten werden. Dabei dürften für die Kunden die einfache Handhabung und die Verwaltung der Speicher im Vordergrund stehen. Microsoft hat bereits Kompatibilität zu iSCSI für die Betriebssysteme Windows 2000, XP und Windows Server 2003 angekündigt: Innerhalb von 90 Tagen nach Verabschiedung des Standards will die Softwareschmiede entsprechende Treiber anbieten.

Cisco und IBM entwicken schon seit 1999 an entsprechenden iSCSI-Lösungen. Cisco sorgte im vergangenen Jahr für Furore, als der Branchenprimus in den Markt für SANs einstieg. Als erstes Produkt für den neuen Geschäftszweig brachte der Hersteller mit dem "MDS 9000" einen Multiprotokoll-Switch auf den Markt, der außer dem Fibre Channel auch die neuen Speichernetzprotokolle FCIP und iSCSI unterstützt. IBM hat mit dem "Totalstorage 200i" seit dem vergangenen Jahr ein Speichersubsystem mit nativer iSCSI-Unterstützung im Portfolio. Nun haben auch HP, Hitachi und andere solche Produkte angekündigt. EMC wird vermutlich zunächst die Mittelklassespeicher aus der "Clariion"-Familie damit ausstatten. Der Erfolg von iSCSI im Rechenzentrum ist allerdings nur dann gewährleistet, wenn sich die Geräte auch mit den vorhandenen Verwaltungsprogrammen managen lassen. Dass im Laufe der Zeit iSCSI auch für Großunternehmen interesssant sein wird, erwartet John Webster, Analyst der Data Mobility Group. Er glaubt, dass sie iSCSI für die kostengünstige Speicherung weniger kritischer Daten einsetzen werden.

Angeklickt

Auch kleinere Firmen können beim Speichern sparen, wenn sie:

- vorhandene Ressourcen per Software optimieren und die Verwaltung vereinfachen,

- beim Ausbau der Speicherinfrastruktur auf die Trennung von Servern und Speichern achten, statt weiter in direkt am Rechner angeschlossene Arrays investieren,

- sich für eine NAS-Lösung entscheiden, weil sie nicht zu viele Datenbewegungen verzeichnen beziehungsweise hauptsächlich File-Daten transferieren,

- ihr vorhandenes LAN-Wissen nutzen und mit iSCSI ein Speichernetz aufbauen.