Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

10.04.1998 - 

Cluster-Lösungen im Vergleich (Teil 4)

Den optimalen Rechnerverbund gibt es nicht einmal auf dem Papier

TBR handelt diese Fragestellung unter dem Begriff Connectivity ab. Gemeint ist, ob die verschiedenen Cluster Ethernet-TCP/IP-, SCSI- , FDDI- oder andere Hochgeschwindigkeits-Verbindungen unterstützen. Die Analysten vergaben dann die höchste Punktzahl, wenn eine Cluster-Topologie in der Lage ist, einen Mix aus diesen Technologien in einem Cluster zu bedienen.

Grundsätzlich gilt nämlich: Bei der Beurteilung der Verbindungs- und Kommunikationstechnologien in Clustern gibt es nicht das optimale System. Vielmehr muß man immer zwischen Vor- und Nachteilen abwägen, die sich aus der Entscheidung entweder für ein möglichst schnelles Gesamtsystems, für möglichst niedrige Kosten oder für ein System mit hoher Flexibilität ergeben.

So können Anwender einerseits eine bereits existierende Verkabelung für ihre Cluster benutzen. Wollen sie andererseits eine möglichst geringe Latenzzeit zwischen den Rechnerknoten, so kann man in Cluster-Konfigurationen oft nicht auf industrieweit benutzte Standardentwicklungen zurückgreifen. Vielmehr müssen spezifische, proprietäre Verbindungstechnologien zum Einsatz kommen. Die Latenzzeit ist übrigens, grob gesagt, die Laufzeit, die ein Datenpaket in einem Netz vom Sender zum Empfänger unterwegs ist.

Proprietär ist nicht grundsätzlich schlecht

Ideal wäre es deshalb, so die TBR-Analysten, wenn in Cluster-Konfigurationen Standardtechnologien wie Ethernet-TCP/IP- oder SCSI-Verbindungen im Mix mit leistungsfähigeren, dafür aber herstellereigenen Produkten genutzt werden könnten. Das heißt, immer dort, wo es nicht darauf ankommt, Daten extrem schnell weiterzutransportieren, müßten Standardverbindungen verwendet werden können.

In den getesteten Cluster-Konzepten kommt die ganze Spannweite der genannten Optionen zum Tragen. Anwender von IBMs Parallel-Sysplex-Konzept sind auf Big Blues eigenentwickelte Hochgeschwindigkeits-Verbindungen angewiesen. Wer hingegen mit DECs Open- VMS- oder IBMs Unix-basierter HACMP-Lösung (HACMP = High-Availability Cluster-Multi-Processing) liebäugelt, hat die Wahl: Beide Cluster-Konzepte bieten zum einen Verbindungstechnologien, die sehr niedrige Latenzzeiten zwischen Speichersystemen gewährleisten, zum anderen aber auch FDDI-, 10/100Mbit/s-Ethernet- oder SCSI-Technologien, die als homo- oder heterogene Verbindungsstruktur ausgelegt sein können.

HPs "X-Class"-Cluster-Konzept kennt nur die Coherent-Toroidal-Interconnect-(CTI-)Technologie, um einzelne Rechnerknoten miteinander kommunizieren zu lassen. CTI ist eine Mitgift von Convex, einem Mini-Supercomputerhersteller früherer Tage, den HP 1995 gekauft hatte. Convex hatte für seine massiv-parallelen "Exemplar"-Hochleistungsrechner seinerzeit eine sogenannte Crossbar-Architektur und als deren Teil auch CTI-Modifikationen entwickelt. Kern dessen ist eine gitterartige Struktur, in der Rechnerknoten neben einem globalen auch einen lokalen Speicher besitzen, auf den jeder Prozessor zugreifen kann. Die Crossbar-Technologie von Convex hat den Vorteil einer niedrigen Latenzzeit. Die TBR-Experten sprechen zudem von einer Durchsatzrate von 61,4 GB/s. Ethernet wird darüber hinaus bei HPs X-Systemen nur für die Verbindung zum Netzwerk benutzt, nicht jedoch für die Koppelung von Rechnerknoten. (wird fortgesetzt)