Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

02.02.1996 - 

14 Hosts fuer Data-Warehouse-Konzepte untersucht (Teil 3)

Bloor Research Group nimmt SMP/MPP-Server unter die Lupe

Nur zoegerlich war die IBM auf den Zug der Parallelverarbeitung aufgesprungen. Sieht man einmal von ihren Mehrwege-Mainframes ab, war SMP/MPP fuer den blauen Computerriesen sehr lange kein Thema. Zwar handelt es sich bei ihren Grossrechnern auch schon um Parallelsysteme. In diesen Mehrwegesystemen arbeiten bis zu zehn in Bipolar-Technologie ausgelegte Zentralprozessoren, sogenannte Thermal Conduction Modules (TCMs). Deren Produktion ist allerdings extrem aufwendig, zudem muessen diese Prozessorkomplexe - zumindest zum Teil - fluessiggekuehlt werden. Dies wiederum verlangt nach einer erheblichen Infrastruktur.

Mit ihren Scalable Power Parallel Systems, Version 1 ("SP1"), debuetierte IBM Anfang 1993. Auf der CeBIT 1994 praesentierte Big Blue das Nachfolgemodell "SP2". Kennzeichen beider Architekturen: CMOS-Prozessoren. Mittlerweile heisst dieser Rechner "RS/6000 SP".

Beim Vergleich der 14 Anbieter von SMP/MPP-Systemen machen die Autoren der Bloor-Studie bei der IBM einen gewichtigen Pluspunkt aus: Ihre enormen Ressourcen fuer Forschung und Entwicklung. Diesbezueglich stehen die Yorktown Heights Research Laboratories in einem besonders guten Ruf. Deren Ingenieure haben auch die fuer MPP-Systeme so wichtige Verbindungs- beziehungsweise Kommunika- tionstechnologie fuer die RS/6000-SP-Maschinen entwickelt. Bei dieser firmenintern "Vulcan" genannten Punkt-zu-Punkt-Verbindung fuer die einzelnen Prozessorknoten handelt es sich um einen Hochleistungs-Switch.

Interessanterweise arbeitete die IBM auch fuer ihre Mainframes ein MPP-Konzept aus, die seit Jahren unter der Bezeichnung Sysplex bekannte Methode, IBM-Grossrechner zu einem System zusammenzuschliessen.

Daneben bietet Big Blue auch Spezialrechner auf Parallelprozessorbasis an, sogenannte Query- und Transaction- Server, die System/390-Mainframes vorgeschaltet werden und ueber diese auf zentrale Datenbestaende zugreifen.

Die Bloor-Analysten meinen, dass die IBM Mainframe-Anwendern mit der Sysplex-Technologie relativ einfache Wachstumspfade hin zu MPP-Komplexen bietet, ohne dass sie auf offene Rechnerarchitekturen wechseln muessen.

Allerdings macht Bloor ein Problem aus, das bei der IBM mittlerweile sattsam bekannt ist: den Kannibalisierungseffekt. Sysplex offeriere naemlich einerseits eine preiswertere Moeglichkeit, Grossrechneranlagen auszubauen. Andererseits komme Sysplex aber immer noch teurer als die RS/6000-SP-Option. Insofern habe Big Blue ein Positionierungsproblem fuer die CMOS-MPP-Rechner: Wie kann die IBM, fragen die Autoren, erfolgreich ihre RS/6000-SP- Modelle vermarkten, ohne damit die eigene Mainframe-Basis zu gefaehrden?

Bei Sysplex und RS/6000 SP handelt es sich aber um grundsaetzlich unterschiedliche Hardware-Architekturen mit anderen Betriebssystemen (RS/6000 SP = AIX). Bloor glaubt, dass RS/6000-SP- Maschinen fuer Data-Warehouse-Applikationen besser geeignet sind als Sysplex-Rechnerverbuende.

Die Bloor-Autoren werten das RS/6000-SP-System als Allround- Maschine ohne wesentliche Defizite. Bei Kaufentscheidungen bezueglich eines MPP-Rechners, der gewissen Offenheitskriterien genuegen soll, duerfte sie wohl immer in die engere Wahl gezogen werden.

Die einzelnen Rechnerknoten der RS/6000 SP - auf jeder der maximal 512 CPUs laeuft eine Uni-Prozessor-Version von AIX/ 6000 - bestehen aus jeweils einer Power-2-CPU und einem Kommunikations- Koprozessor. Die Knoten kommunizieren ueber die als Crossbar ausgelegte Vulcan-Verbindung miteinander. Aehnliche Konzepte verfolgen Meiko, ICL und AT&T. Die Bandbreite der Verbindungen erhoeht sich mit der Knotenanzahl mindestens linear. Diesbezueglich verhaelt sich Big Blues Punkt-zu-Punkt-Verbindung (Bandbreite momentan allerdings nur 40 MB/s) aehnlich einem Hypercube.

IBM plant, in Zukunft in den MPP-Maschinen Power-PC-Chips einzusetzen. Ausserdem geht Bloor davon aus, dass Big Blue die Erweiterungsmoeglichkeiten des Systems durch Mehr-Prozessor-Knoten ausbauen wird.

Arbeitsspeicher (von 64 MB bis 2 GB) und Massenspeicher werden ueber die Hochleistungs-Switches nicht direkt gemeinsam genutzt. An jeden Knoten lassen sich zwar prinzipiell unbegrenzt viele Platten anschliessen, in ein Modellgehaeuse passen jedoch nur neun. Fuer jeden Knoten stehen verschiedene I/O-Adapter zur Verfuegung wie Ethernet, ATM, Hippi, FDDI, Token Ring, Escon und Block Multiplex.

Der Hochleistungs-Switch bietet fuer jedes Knotenpaar vier Datenrouten. Faellt eine aus, leitet der Switch die Daten automatisch auf einen anderen Pfad um. Bloor betont, verschiedene Konkurrenzmodelle boeten das Mehr-Weg-Konzept zwischen Knoten zwar auch an. Bei ihnen muesse der Anwender im Falle einer Havarie das System aber erst neu hochfahren, um alternative Datenpfade zu nutzen.

Ausserdem koennen weitere Knoten waehrend des Betriebs hinzugefuegt werden. Platten und Kommunikationsadapter besitzen mehrere Ports. Das heisst, sie lassen sich von anderen Prozessoren ansteuern, auch wenn die eigene Knoten-CPU ausfaellt.

IBM liefert mit den RS/6000-SP-Maschinen unter dem Namen "AIX Parallel System Support Program" eine ganze Kollektion an Administrations-Werkzeugen.

Der Anwender des IBM-MPP-Systems kann einzelne Dateien zu Gruppen zusammenschliessen. So lassen sich Knoten gezielt bestimmten Aufgaben zuordnen.

Bloor stuft das RS/6000-SP-System als Allzweckmaschine ein, auf der verschiedene Datenbankprodukte gleichzeitig laufen koennen. Auch der parallele Betrieb von OLTP- und Data-Warehouse- Anwendungen auf einer Maschine ist moeglich.

Momentan sind fuer das IBM-System "Oracle Parallel Query" und "Parallel Server" frei, "DB2/ 6000 Parallel Edition" limitiert, "Informix DSA" sowie "Sybase Navigation Server" hingegen erst als Betaversion verfuegbar.

Ebenfalls erhaeltlich sind die TP-Monitore "Tuxedo Encina", "Topend" sowie "CICS" und das "Prism"-Management-Tool.

Nicht ganz so positiv faellt die Bewertung der Bloor-Analysten bezueglich der "Goldrush"-MPP-Maschine von ICL aus. Zwar sei auch dies ein konkurrenzfaehiges System. Um aber etwa im zunehmend florierenden Markt der Data-Warehouse-Applikationen zu reuessieren, beduerfe es noch weiterer Entwicklungsanstrengungen.

Der Goldrush-"Megaserver" ist eine dedizierte Datenbankmaschine, der unter ICLs "Goldrush/NX", einer SVR4-konformen Unix-Variante, laeuft. Diese setzt auf dem Mikrokernel von Chorus auf. Pro Rechnerknoten setzt ICL zwei Hypersparc-CPUs ein. Einer davon zeichnet verantwortlich fuer das Betriebssystem und die jeweils eingesetzte Datenbank.

Der andere koordiniert die Kommunikation, er bildet zudem die Schnittstelle zwischen der CPU und dem proprietaeren Multi-Stage- Switch. Bei ICL ist diese Kommunikationstopologie zwischen den Knoten als "Delta-Net" bekannt. Der Megaserver ist von fuenf bis 64 Knoten skalierbar.

Im Goldrush-System sind den Knoten drei unterschiedliche Aufgaben zugewiesen: Einige erledigen die eigentliche Rechen- beziehungsweise Datenverarbeitungs-Leistung; andere erfuellen Kommunikationsaufgaben. Ein weiterer Knoten ist zustaendig fuer System-Management-Funktionen.

Anwender koennen den Megaserver ausbauen, indem sie die Anzahl sowie den Mix der Knoten erhoehen und veraendern. Dieses an sich alte Designkonzept vereinfacht den Aufwand, der noetig ist, um ein System zu erweitern.

Jeder Knoten ist auf 256 MB Speicher festgelegt. Bloor merkt an, die ICL-Systeme seien in puncto Konfigurationsoptionen nur begrenzt flexibel. Allerdings gebe es Konkurrenzmodelle, die - insbesondere bezueglich einsetzbarer Massenspeicher - noch weniger Optionen boeten. Jeder Goldrush-Knoten kann bis zu zwoelf Platten (1 oder 4 GB gross), jeder Kommunikationsknoten bis zu sechs Platten nutzen. Maximal ergibt sich so eine Speicherkapazitaet von insgesamt 2,9 TB.

Wegen des unterstuetzten SVR-4.2-Standards kann das Goldrush/NX- Betriebssystem allerdings nur Dateigroessen und Platten-Partitionen bis zu 2 GB verwalten. Die Handhabung einer TB grossen Datenbank koennte da Probleme bereiten, argumentieren die Bloor-Autoren.

Das ICL-System ist nur eingeschraenkt skalierbar. Die Anzahl der reinen Rechen-CPUs ist auf 64 begrenzt, was ICL aber als mehr als ausreichend ansieht.

Bloor bemaekelt ferner, ICL verwende zwar einen Multi-Stage-Switch, der den Stand der Technik fuer MPP-Kommunikationsverbindungen repraesentiere und den die IBM oder etwa Meiko auch nutzten. Die Bandbreite von 25 MB/s liege aber weit unter den heutzutage bei Punkt-zu-Punkt-Kommunikationen in der Regel erzielbaren 100 MB/s. Einige hieraus resultierende Defizite mache jedoch der dedizierte Kommunikationsprozessor wieder wett.

Beim Fehlertoleranzverhalten kritisiert Bloor, dass es bei den Goldrush-Systemen nicht moeglich ist, waehrend des Betriebes von einem havarierten Datenweg zwischen den Knoten auf einen anderen umzuschalten. Gleiches gilt auch fuer defekte Knoten. Platten allerdings koennen knotenuebergreifend angesprochen beziehungsweise bei Problemen auch umgangen werden.

ICLs System-Management erhaelt gute Noten

ICL, so Bloor, biete aber ein fehlertolerantes Plattenspeicherkonzept. Ihre Loesung lautet Raid 1, also komplette Plattenspiegelung, was erhebliche Speicherressourcen verschlingt. Da ICL den Disk-Volume-Manager von Veritas benutzt, ist es moeglich, im Falle einer Havarie automatisch Daten auf einem Remote-System zu spiegeln.

Ein grosses Kompliment spricht Bloor den Goldrush-Systemen bezueglich der System-Management-Optionen aus. Saemtliche Komponenten wie CPUs und Kommunikations- sowie Speichersubsysteme lassen sich gezielt bestimmten Applikationen oder Datenbankanwendungen zuordnen. Der Anwender kann die Goldrush- Maschinen aber auch als heterogenen Gesamtkomplex verwalten. ICLs Management-Konzept sei viel ausgekluegelter als das der Konkurrenz, schreibt Bloor, die ihre MPP-Systeme ueblicherweise nur in physikalisch voneinander getrennte Prozessorsets aufteilt, auf denen Datenbanken oder Anwendungen laufen.

Goldrush ist ein Datenbank-Server, den ICL in lupenreiner Client- Server-Topologie ausgelegt hat. Es ist nicht moeglich, Applikationscode auf dem System laufen zu lassen. Hingegen koennen auf einer Goldrush-Maschine OLTP-Anwendungen zusammen mit komplexen Queries oder OLTP- und Entscheidungsfindungs- Applikationen laufen.

Goldrush-Systeme unterstuetzen FDDI, Ethernet, ATM und Token Ring. Auf ihnen laeuft Informix 8.0, Oracle 7.1 (sowohl der Parallel als auch der Query Server), und "Open Ingres" in der Version 1.1 von CA. Allerdings unterscheidet sich, merkt Bloor an, ICLs Open- Ingres-Variante von Versionen, die auf anderen MPP-Plattformen laufen. (wird fortgesetzt)

*Der Report "Parallel Database Technology - An Evaluation and Comparison of Scalable Systems" von der Bloor Research Group wird in Deutschland fuer 1950 Mark von der Genias GmbH, Neutraubling, vertrieben.