Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Clustering/Linux-Cluster sind schon Realität


19.11.1999 - 

Supercomputer-Leistung zum Discountpreis

Das Freeware-Betriebssystem Linux, zumeist für wenig Geld von Distributoren vertrieben, kommt nicht nur in Einzelplatzrechnern und Servern, sondern zunehmend auch in Clustern zum Einsatz.

Die Nürnberger Suse GmbH hat anders als etablierte Linux-Distributoren wie Red Hat und Caldera neben Software auch Hardware im Programm: den Cluster "Salt" (Suse Advanced Linux Technology), der nahezu beliebig mit Knotenrechnern bestückt werden kann. Salt ist ein Cluster der "Beowulf"-Klasse, mithin kompatibel mit dem Stammvater aller Linux-Cluster, dem vor einigen Jahren von der Nasa konfigurierten Beowulf.

Hauptkomponenten von Salt sind mit jeweils zwei Prozessoren ausgestattete Rechnerknoten, hinter denen sich normale Intel-basierte PCs verbergen (es könnten auch Alpha-PCs sein, denn Linux unterstützt diese Compaq-Hardware ebenfalls). Die einzelnen Knoten arbeiten die jeweils anstehenden Aufgaben gemeinsam ab. Sie kommunizieren über Fast Ethernet (100 Mbit/s), lassen sich aber auch mit Gigabyte-schnellen Scalable-Coherent-Interface- (SCI-) oder "Myrinet"-Karten ausrüsten.

Während die ersten Cluster, die vor rund vier Jahren über Message Passing Interface (MPI) oder Parallel Virtual Machine (PVM) zusammengeschaltet wurden, aus einer relativ geringen Anzahl handelsüblicher Desktop- oder Tower-PCs bestanden, sind heute schon Linux-Cluster in Produktion, in denen 1000 Prozessoren zusammenwirken. "Und die US-Administration baut derzeit Cluster mit mehr als 1000 Knoten", ergänzt Anas Nashif, Cluster-Spezialist von Suse. Um derartige PC-Flotten überhaupt räumlich unterzubringen, werden die einzelnen Knoten in Racks aufgetürmt und dort miteinander verkabelt, so auch im Falle des Salt-Clusters.

In der kleinsten Ausführung besteht ein Salt-Cluster aus drei oder vier Knoten, "doch wenn ein Kunde kommt, der 500 oder 1000 Knoten braucht, dann machen wir das natürlich auch - ebenso schlüsselfertig wie bei den gängigen Clustern, das heißt auch in diesem Fall wären Linux und die Beowulf-Software vorinstalliert", versichert Nashif. Die Frage, ob Suse als Cluster-Lieferant auch Geld verdiene, bejaht er: "Letzte Woche erst habe ich zwei Cluster konfiguriert und ausgeliefert." Auf der Kundenliste der Nürnberger stehen Namen wie GMD, Siemens (selbst auch Linux-Cluster-Anbieter) und die Max-Planck-Gesellschaft.

Linux-Cluster ähneln massiv-parallelen Systemen

Linux-Cluster und massiv-parallele Rechner wie IBMs SP2 unterscheiden sich nach Nashifs Ansicht nicht grundsätzlich, "wenn man davon absieht, daß IBM ein leicht modifiziertes MPI verwendet. Großrechner und Supercomputer wie der SP2 oder auch der von Silicon Graphics sind nichts anderes als Cluster. Die Architektur ist dieselbe wie bei Salt; nur die Prozessoren sind manchmal andere". Linux-Cluster befänden sich völlig zu Recht in der Top-500-Liste der Supercomputer, so der Suse-Mitarbeiter. "Und sie werden, wie ich gehört habe, in der kommenden aktualisierten Liste noch mehr Plätze besetzen."

Nashif beurteilt den Erfolg von Linux-Clustern als stabilen Trend - weit entfernt von einem Hype, der morgen schon vorbei sein könnte. Hinter dieser Annahme stehen wirtschaftliche Überlegungen: Der "Avalon"-Cluster der US-Regierung beispielsweise, der in der mittlerweile erweiterten Version zu den ersten 150 der Top-500-Liste zählt, hat lediglich 200000 Dollar gekostet; angesichts dieses Discountpreises stehen nach Nashifs Worten auch in Deutschland "viele Universitäten und Forschungsinstitute vor der Frage: ,Kaufen wir jetzt einen Hitachi- oder Fujitsu- oder SGI-Supercomputer, oder kaufen wir lieber so einen Cluster?''"

Die Uni Mannheim zum Beispiel habe vor einigen Jahren einen Superrechner installiert, der aufgrund eines Kurzschlusses oder eines ähnlichen Defekts nicht mehr lauffähig und auch nicht mehr reparabel gewesen sei. Hätte sie einen Cluster à la Beowulf gehabt, wäre das defekte Teil leicht und billig auszuwechseln gewesen. Überhaupt, sagt Nashif, bietet ein Cluster die größeren Vorteile. So könne der Ausbau sukzessive erfolgen, das heißt, leistungsfähigere PCs träten nach und nach an die Stelle von Altgeräten und könnten mit den verbleibenden Alt-PCs ohne weiteres kommunizieren. Das Aufrüsten eines Supercomputers sei unvergleichlich teurer. Nashif räumt ein, daß in Deutschland nicht nur Suse zu den Anbietern von Linux-Cluster-Hardware gehört, sondern neben vielen amerikanischen Firmen beispielsweise auch Siemens. Doch dies sei für die Entwicklung des Marktes eher förderlich: Viele Anbieter erzeugten mehr Vertrauen in eine neue Produktgattung als ein einzelner.

Die Grenzen des Betriebssystems Linux sind nach den Worten Nashifs weitestgehend temporärer Art. Die Entwicklung werde verschiedene Hürden erst noch zu nehmen haben, tue dies aber sehr zügig. Das Shared-Memory-Konzept, also der Zugriff aller Knoten auf einen gemeinsamen Datenbestand, sei augenblicklich noch problembehaftet. Auch die Größe des adressierbaren Hauptspeichers sei mit 4 GB derzeit noch unzulänglich. Aber, so Nashif, "wenn ich 15 Nodes habe, und in jedem steckt 1 GB, dann darf ich das auch zusammenrechnen und sagen: Mein Cluster hat 15 GB. Die Applikationen werden ja schließlich über die Knoten verteilt".

Im übrigen sei die Speicherlimitierung nicht von Linux, sondern von den 32-Bit-Intel-Prozessoren zu verantworten. Alpha-Prozessoren seien in dieser Hinsicht deutlich im Vorteil, doch ändere auch dies nichts daran, daß normale PC-Hardware keinen Platz für Terabyte-Arbeitsspeicher biete und bieten werde. Nashif: "Aber niemand hindert mich, noch mehr Knoten zu kaufen." High-Performance-Computing wird sich auf einer solchen Cluster-Basis mithin durchführen lassen, große kommerzielle Anwendungen à la SAP R/3, Olap oder Data-Warehouse eher nicht.

Nashif betrachtet dies nicht als Schwachpunkt des Linux-Clusters, sondern als selbstverständliche Konsequenz aus der Tatsache, daß Gleitkommaoperationen etwas anderes als kommerzielle Transaktionen sind. Immerhin: "Wenn Oracle & Co. eines Tages Clustering auf Linux unterstützen, kann man Salt auch als Server für eine parallele Datenbank benutzen." Möglich wäre auch schon heute, daß ein R/3-Anwender den einen Knoten im Cluster als Applikations-Server, den anderen als Datenbank-Server etc. nutzt. Dazu bräuchte er die Knoten lediglich mit Festplatten auszustatten.

Der Markt für Linux-Cluster wird schon bald kein Nischenmarkt mehr sein, glaubt Nashif-Kollege Jürgen Bräunlein. Die Gründe sieht er in Linux-typischen Merkmalen wie Skalierbarkeit, Stabilität und Wartungsfreundlichkeit und darin, daß die Forschungseinrichtungen, die diese Eigenschaften schätzen, dankbar den Preisvorteil wahrnehmen werden, den Linux ihnen verschafft. Und wie steht es um den Support für Kunden, die nicht in einem der Ballungsgebiete Deutschlands ansässig sind? Kein Problem, sagt Bräunlein. "Wenn ihm ein Netzteil im Cluster ausfällt, ruft er bei uns an. Wir schicken ihm ein neues, und das kann er bei laufendem Betrieb einsetzen. Im Softwarebereich bieten wir einen Support, der dem anderer Softwarehäuser in nichts nachsteht."

AngeklicktIm technisch-wissenschaftlichen Umfeld sind Cluster unter dem Open-Source-Betriebssystem Linux schon Realität. Für solche Rechnerverbünde sprechen nach Ansicht der Protagonisten insbesondere Preisvorteile durch die Verwendung handelsüblicher Standardhardware. Für kommerzielle Anwendungen in Linux-Clustern fehlt derzeit noch die Unterstützung der Softwarehersteller.

*Jochen Ewe ist freier Journalist in Flintsbach am Inn.