Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

25.02.1994

Vor allem fuer kommerzielle Aufgaben interessant Die MPP-Rechner und Cluster gewinnen bei Unix an Bedeutung

MUENCHEN (jm) - Im Sinne des Paradigmenwechsels, der peu e peu in den Rechenzentren Einzug haelt, werden nicht nur Mainframes durch Client-Server-Strukturen abgeloest. Immer haeufiger nutzen DV- Zentren auch das Hoechstleistungssystemen eigene gewaltige Rechenvermoegen, wie es massiv-parallele oder Cluster-Systeme bieten.

Zumindest in den USA laesst sich ein Trend beobachten, fuer das Umwaelzen riesiger Datenbestaende Zahlenfresser zu nutzen. Interessanterweise halten dementsprechend Supercomputer oder MPP- Maschinen (Massively-parallel processing) Einzug auch in Unternehmen, die traditionell bislang auf die Rechenkraft von Mainframes setzten. Hierzu zaehlen Handelsketten, Finanzdienstleister oder Transportfirmen.

Vor allem MPP-Systeme scheinen den Rechenleistungs-Beduerfnissen von Unternehmen entgegenzukommen, die staendig riesige Datenbankbestaende durchforsten muessen. Irving Wladawsky, General Manager von IBMs Power Parallel Systems Division, weiss von vielen in kommerziellen Taetigkeitsfeldern operierenden Kunden zu berichten, die taeglich Datenmassen in Terabyte-Groesse bearbeiten.

Zur Akzeptanz der bislang nur in technisch-wissenschaftlichen Umfeldern zu findenden hochspezialisierten Rechner bei DV- Anwendern traegt auch das Umdenken bei Anbietern konventioneller Systeme bei: Unternehmen wie IBM, Unisys, Hewlett-Packard (HP) und AT&T Global Information Solutions (GIS), wie NCR jetzt heisst, nehmen sich verstaerkt der ehedem lediglich als Nischenprodukte positionierten MPP-Rechner an.

Anbieter konventioneller Systeme mit von der Partie

IBM etwa will noch dieses Jahr die ersten zwei Huerden zur Metamorphose ihrer proprietaeren MVS-Mainframes zu hochparallelen Systemen bewaeltigen: Nach dem offiziellen Zeitplan sollen sowohl der "Parallel Query Server" als auch der "Parallel Transaction Server" noch 1994 das Licht der DV-Welt erblicken. Als Vorschaltrechner zu installierten MVS-Maschinen stellen sie allerdings nur Zwitterloesungen dar. Erst mit der vierten Stufe will IBM ein lupenreines Parallelsystem als Nachfolgegeneration der /370- und /390-Welt praesentieren.

HP arbeitet gemeinsam mit Convex an einer MPP-Box auf Basis der HP-PA-RISC-Prozessoren. Auch diese soll 1994 auf den Markt kommen. ICL stieg vergangenen Herbst mit dem "Goldrush"-Parallelsystem auf Sparc-Basis in die MPP-Szene ein.

AT&T GIS verspricht mit den 3600- und 3700-Systemen (Intel-CPUs) den nahtlosen Uebergang von moderat- auf massiv-parallele Rechner. Die Siemens-Nixdorf Informationssysteme AG (SNI) ging schon 1992 eine Vertriebskooperation mit der Kendall Square Research Inc.(KSR) ein und vermarktet deren massiv-parallele KSR-1- und KSR-2-Modelle in Deutschland. Eine andere Hardwaretopologie scheint darueber hinaus zunehmend an Bedeutung zu gewinnen: Bekannt unter dem Terminus technicus Cluster, erfreut sie sich vor allem in Unix-Umgebungen zunehmender Beachtung durch die Hersteller.

Zu diesem Ergebnis kommt zumindest Analyst John Morrell vom Marktforschungsunternehmen International Data Corp. (IDC) in seinem juengst erschienenen Report "Commercial Unix Clustering Technologies and Strategies".

Unix-Anwender, so Morrell, wuerden Cluster-Konfigurationen vor allem nutzen, um einen moeglichst unterbrechungsfreien Rechenbetrieb zu garantieren. Ausserdem lasse sich durch lose gekoppelte Hardwaresysteme der Datendurchsatz signifikant steigern. Dies sei vor allem bei zeitkritischen kommerziellen Anwendungen von hoechster Prioritaet.

Schon im April 1983 kam die Digital Equipment Corp. (DEC) auf die Idee, die Rechenleistung ihrer erstmals im Oktober 1977 vorgestellten VAX-Systeme zu steigern, indem sie mehrere VAX- Prozessoren lose koppelte.

Der Clou der Cluster-Technologie besteht darin, dass verschiedene CPUs beziehungsweise mehrere Rechner auf einen gemeinsamen Datenbestand zugreifen koennen. Auf jedem der Systeme liegt zudem eine Betriebssystem-Kopie. Das ist vorteilhaft, koennen so doch die einzelnen Rechnerkomplexe so unabhaengig wie noetig voneinander arbeiten und im Fall der Havarie eines der Systeme somit auch nur begrenzt Schaeden verursachen.

Um zu verhindern, dass sich zwischen unterschiedlichen Systemen, die etwa auf gleiche Datensaetze Anspruch anmelden, ein Kompetenzgerangel entwickelt, sind fuer Cluster-Systeme entsprechende Abschottungsmechanismen erforderlich. Diese als Distributed Lock Manager (DLM) bezeichneten Dateiobservateure regeln den konfliktfreien Zugriff auf gemeinsame Datenbestaende.

Mittlerweile offerieren verschiedene Hardwarehersteller DLMs, die vor allem auch in ausufernden Datenbankumgebungen die Koppelung mehrerer Rechner zu einem funktionierenden Gesamtsystem garantieren sollen. Zu diesen Anbietern gehoeren die beiden Spezialisten fuer symmetrische Multiprozessor-Maschinen (SMP) Sequent Computer Systems Inc. und Pyramid Technology Corp. Aber auch die IBM verfuegt fuer ihre RS/6000-Cluster ueber eine DLM- Option, gleiches gilt fuer die Data-General-Rechner der Aviion- Serie.

Auch HP will 1994 mit einem Cluster-System Flagge zeigen. HPs harter Konkurrent Sun Microsystems ging dieses Thema bereits auf der Unix-Expo im September 1993 an. Allerdings handelt es sich bei dem seinerzeit vorgestellten Sparc-Cluster eigentlich um einen optimierten NFS-Fileserver, eine Kritik, mit der Analysten Sun damals in New York sofort konfrontierten. Die McNealy-Firma will aber noch dieses Jahr ein reifes Datenbankprodukt auf Basis von Oracle praesentieren, das Datenvolumen von vielen GB unterstuetzen koennen soll.

Cluster-Systeme lassen sich besser auslasten

Ein weiteres Argument fuer Cluster-Systeme stellt laut IDC-Mann Morrell die bessere Auslastung von Rechnerkomplexen dar: "Eine SMP-Box eignet sich sicherlich gut fuer die graduelle Skalierbarkeit von Einzelanwendungen und in Massen auch von mehreren Applikationen." Doch Mor- rell schraenkt ein, dass mehrere Anwendungen - auf einem einzigen SMP-System installiert - zu Interferenzproblemen fuehren koennen. Gegen solche Schwierigkeiten seien Cluster-Konfigurationen resistent.

Darueber hinaus schlafen auch die Datenbankanbieter nicht, geht es um die Einsetzbarkeit ihrer Produkte sowohl in MPP- als auch in Cluster-Umgebungen. Nicht von ungefaehr kommt das Interesse von Oracle-CEO Larry Ellison an Ncube, einem Anbieter massiv- paralleler Systeme. Ellison haelt dort die Aktienmehrheit.

Oracle sieht sich in Sachen Parallelverarbeitung gerne als Speerspitze der Branche und am weitesten fortgeschritten in den Bemuehungen, seine Datenbank auf die Erfordernisse von Parallelsystemen abzustimmen. Angeblich im Fruehjahr 1994 soll Oracle 7.1 mit MPP-Erweiterungen verfuegbar sein, der "Oracle 7 Parallel Server" wird bereits von einigen Hardware-Architekturen unterstuetzt.

Auch Konkurrent Sybase Inc. scheint in Kuerze mit dem "Navigation Server" ein fuer die Anfordernisse von Parallelmaschinen ausgelegtes Datenbankmodul anbieten zu koennen. Ebenso moechte Ingres, Tochter der Ask Group Inc., im Geschaeft der Cluster- Rechner mitbieten.