Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

10.11.1989 - 

Supercomputer - Die Wandlung der zahlenfressenden Monster (Teil 2)

Exotische Geflechte aus Hunderten von Prozessoren

Die herkömmlichen Methoden, Computer schneller zu machen - höhere Taktfrequenzen, kürzere Schaltzeiteng breitere Datenbusse - stoßen langsam an physikalische Grenzen. Weitere Leistungssteigerungen sind nur noch über neue Rechnerarchitekturen zu erreichen.

Daß Maschinen dieser flexiblen und beliebig erweiterbaren Machart nicht nur etwas für Ingenieure und Wissenschaftler mit hochgradig arithmetiklastigen Problemstellungen sein müssen, demonstriert seit kurzem betont optimistisch die amerikanische Firma Ncube aus Beaverton im US-Bundesstaat Oregon, einem Ort übrigens, der unter Kennern den Ruf eines ausgesprochenen Super- und Parallelcomputer-Zentrums genießt, haben dort doch mehrere einschlägig aktive Unternehmen ihren Sitz beziehungsweise wichtige Labors oder Produktionsstätten, so etwa Floating Point Systems, die Intel-Supercomputer-Abteilung und Sequent.

Der neue Ncube 2 wird expressis verbis als "Business Supercomputer" angepriesen, der nicht nur ausschließlich das Freiheit schaffende Betriebssystem Unix benutzt, sondern auch das relationale Oracle-Datenbanksystem betreiben kann. Er soll es im Maximalausbau mit immerhin 8192 Prozessor-Knoten pro Sekunde auf 100 Milliarden Befehle beziehungsweise auf 27 Milliarden Gleitkomma. Operationen bringen können - vorausgesetzt, alle Einheiten können gleichzeitig mit voller Leistung arbeiten.

Diese Maschine mit der internen Topologie eines sogenannten "Hyperkubus" der Dimension von maximal 13 baut auf innovative VLSI-Chips auf, die jeweils einen kompletten, dank 64 Bit Wortbreite besonders schnellen Prozessor einschließlich Gleitkommaeinheit, fehlerkorrigierender Speicherverwaltungstechnik, Kommunikationslogik und Ein-Ausgabe-Prozessoren enthalten. Übrigens: Ein gewöhnlicher Würfel mit seinen acht Ecken (Knoten) repräsentiert exakt einen Hyperkubus der Dimension 3 (2 hoch 3 gleich 8), dessen wichtigste Eigenschaft hier die ist, daß jeder Knoten mit exakt drei anderen direkt verbunden ist, jedoch nicht etwa mit sämtlichen anderen. Stellt man zwei derartige Würfel nebeneinander und verbindet dann jeden einzelnen 11 Knoten des einen mit jeweils dem gleichartig positionierten Knoten des anderen, so hat man am Ende einen 16-Knoten-Hyperkubus der Dimension 4 (2 hoch 4 gleich 16) bei dem nun jeder Knoten mit exakt vier anderen direkt verbunden ist. Dementsprechend sind beim Knoten der Dimension 13 besagte 8192 Knoten (2 hoch 13 gleich 8129) vorhanden, von denen jeder für sich exakt 13 andere Knoten direkt ansprechen kann.

Die Klientel weitet sich aus

Die Tatsache, daß ein derart exotisch anmutendes Geflecht von Hunderten oder gar Tausenden einzelner Prozessor-Knoten neuerdings eine Standard-Datenbank wie das weitverbreitete Oracle unterstützen wird, dürfte sich in den Augen traditionsbewußter, auf herkömmliche Universal-Großrechner fixierter Rechenzentrums-Manager fast wie eine Art Zeitenwende ausnehmen. Dennoch sind die Oracle- wie auch die Ncube-Manager bester Hoffnung, daß schon bald erfahrene, traditionell Supercomputer einsetzende Käufer wie etwa Erdölkonzerne und Rüstungsgiganten, aber vielleicht auch Krankenhaus-Gesellschaften, Speditionen oder Finanzinstitute wie Banken und Broker zum Kreis der Parallelrechner-Kunden zählen.

Daß diese Erwartung nicht von der Hand zu weisen ist, macht ein kurzer Blick in die Vergangenheit deutlich. Computer aller Art sind immer erst von Militärs, Wissenschaftlern und Ingenieuren benutzt und dabei zur Reife entwickelt worden, ehe sie später in Rechenzentren mit kaufmännisch-administrativer Zielsetzung auftauchten. So war beispielsweise auch die VAX-Serie von DEC jahrelang eher ein Werkzeug für fortschrittsfreudige und leistungshungrige, finanziell aber eher knapp gehaltene Wissenschaftler und Techniker denn ein Instrument konservativer Buchhalter. Am Ende eroberte sie sich dann doch einen ganz ordentlichen Platz im Kreise der Letztgenannten.

Kundige Beobachter der technischen Entwicklung wissen schon seit langem, daß es auch im Bereich der kaufmännischadministrativen Datenverarbeitung eine ganze Reihe von Problemstellungen gibt, die sich mit hochgradig parallelisierten Programmen effizient abhandeln lassen. Dies belegt das Beispiel des Hauses Teradata aus Los Angeles, das auf der Basis von immerhin 268 einzelnen Prozessoren einen Supercomputer speziell für das Managen von Datenbanken baut - und dessen Systeme vor allem für die maschinell unterstützte Entscheidungsfindung (decision support) eingesetzt werden; und das nicht etwa nur wieder einmal im Bereich der Militärs, sondern auch bei Unternehmen wie der Citibank, dem AT&T-Konzern und der Supermarkt-Kette K-Mart. Laut Teradata werden die Rechner überall dort genutzt, wo es um wichtige Aufgaben geht, die "auf andere Weise ganz einfach nicht gelöst werden können".

Daß paralleles Vorgehen sich gerade beim Durchsuchen großer Datenvolumina anbietet, verdeutlichen Teradata-Manager gern am Beispiel eines Kartenspiels mit 52 Blatt: Will man aus ihm beispielsweise alle Zweier heraussuchen, mag dies wohl knapp eine nute dauern, während vier Mann das Gleiche - mit nur noch je 13 zu durchsuchenden Karten - binnen Sekunden ledigen könnten, und 52 Mann sogar im Nu fertig wären.

Exot unter Exoten, also quasi das Schwarze Einhorn innerhalb der Spezies der raren Einhörner, ist unter Paralielrechnern immer noch die bekannt Connection Machine der Firma Thinking Machines aus Cambridge, Massachussets, mit nicht weniger als 65 000 Prozessor-Knoten, Wenn man nun hört, daß ausgerechnet dieses aufsehenerregende System ebenfalls anfängt, aus den Gefilden von Wissenschaft und Technik die Welt der Banken und Versicherungen vorzudringen dann ist zweifelsfrei klar: Die Welt der Datenverabeitung beginnt einmal mehr, sich grünlich zu wandeln.

Parallelzugriff auf Wirtschaftsinformationen

Beträchtlichen Nutzen von ihren zwei frisch georderten Connection Machines erhofft sich derzeit die Gesellschaft Dow Jones & Company, die bekanntlich auch das Wallstreet-Barometer Dow Jones Index "produziert". Sie will auf Basis der beiden Hyper-Parallelmaschinen

ein Informationsgewinnungs-System namens Dow Quest aufbauen, das selbst ungeübten Anfragern extrem schnellen Zugriff auf eine Fülle von Informationen gewähren soll und das einen so immensen Rechenaufwand erfordert, daß sequentielle Maschinen eindeutig überfordert wären, wie Danny Hillis, Gründer und Chef-Wissenschaftler der Firma Thinking Machines, findet, und er betont weiter, bei neuen Anwendungen wie dieser sei auch die Frage des Konvertierens alter, sequentieller Programme in eine neue, parallele Form kein Thema; hier müsse sowieso alles von Grund auf neu entwickelt werden.

Das im Bereich bestimmter Anwendungsfelder parallele Systeme ganz offensichtlich eine Zukunft haben, meint auch der Intel-Parallelrechner-Fachmann Justin Rattner Zum einen gebe es in den Gefilden von Finanz und Wirtschaft erstaunlich viele Problemstellungen, die eigentlich eher dem Bereich des Technisch-Wissenschaftlichen zugeordnet werden müßten, wollte man sie mathematisch-algorithmisch korrekt klassifizieren, und damit eignen sie sich schon von Haus aus für die Bearbeitung durch - auch parallele Supercomputer. Beispiele wären die Erstellung und Berechnung komplizierter finanztheoretischer Modelle, die Banken und Versicherungen zu ihrem täglichen Brot verhelfen.

Zum anderen sind gerade parallele Architekturen mit Hunderten und Tausenden von Prozessoren überall dort von großem Nutzen, meint Rattner, wo höchst komplexe Abfragen gefordert werden, mit denen bisher selbst größte Mainframes oft über Stunden beschäftigt waren. Dies weiß auch Prof. David DeWitt von der Universität Wisconsin zu bestätigen, der als Informatiker klar sieht: Seit kurzem ist es nicht nur möglich, sondern auch wirtschaftlich sinnvoll geworden, Datenbank-Systeme auf Parallelrechner zu portieren, und er ergänzt, neben den Spezialisten für ausfallsichere, fehlertolerante Systeme soll nun auch schon IBM dabei sein, sein Großrechner-Datenbanksystem DB2 in Richtung Parallelität zu entwickeln.

Parallele Rechner im kaufmännischen Sektor - müssen nicht immer gleich Systeme mit 268, 8192 oder gar über 65 000 Prozessoren sein, denn auch Sequent beispielsweise mit seinen höchstens nur 32 Prozessoren umfassenden Maschinen spielt in diesem Konzert inzwischen kräftig mit. Dies zeigt etwa ein Blick auf die amerikanische Steuerverwaltung, die Sequent-Systeme zusammen mit Oracle- zur Beantwortung der Anfragen leidgeprüfter Steuerzahler benutzen soll, oder auch die Hotelkette Radisson, die mit Mehrprozessormaschinen die Reservierung über 200 Herbergen hinweg koordiniert.

Doch zurück nochmals zu den Parallelarchitekturen mit mehr als nur ein paar Dutzend Prozessoren. Hier ließ neuerdings die Nachricht aufhorchen, IBM habe nicht nur sein altbekanntes Superrechner-Forschungsprojekt RP3 in Arbeit, sondern unter anderem auch ein massiv paralleles System unter der Bezeichnung GFI 1, das schon 11,5 Milliarden Gleitkomma-Operationen erreicht haben soll (im Dauerbetrieb durchschnittlich an die zehn Milliarden). Und außerdem unterstützt Big Blue ja bekanntlich die Firma Supercomputer Systems Inc. (SS0 des Ex-Cray-Mannes Steve Chen, aus der - in etwa vier Jahren, wie Beobachter spekulieren ein 64-Prozessor-System mit etwa der hundertfachen Leistung eines konventionellen Cray-X-MP-Vektorrechners hervorgehen soll.

Parallele Rechnerstrukturen, so teilte vor kurzem ergänzend die Stuttgarter IBM-Filiale mit, sind im übrigen auch das Ziel eines gemeinsamen Projekts der Genfer Teilchenphysiker vom europäischen Laboratorium CERN und der Böblinger IBM-Laboratorien. Die Genfer erhofften sich von parallelen Rechnern ein Werkzeug, das die immensen Mengen an Meßdaten, die bei den Kollisionen subatomarer Teilchen anfallen, effektiv und kostensparend verarbeiten und aufbereiten kann und zwar insbesondere billiger als typische Großrechner, wie sie - laut IBM - "üblicherweise" zur Bearbeitung von "Massendaten" eingesetzt würden.

IBM hat bei diesen gemeinsamen Arbeiten insbesondere einen Parallelrechner im Visier, der "Verbindungsmöglichkeiten mit vorhandenen Rechnern der IBM-370-Architektur sowie die leichte Portierbarkeit der Programme" bieten soll. Für ihn wurde bereits ein Mikroprozessor als Knotenrechner entwickelt sowie, zum Zwecke der internen Kommunikation zwischen den Knoten, "ein sehr schnelles Schalt-Netzwerk" und eine besondere Steuerlogik.

Diese Technik soll es erlauben, 32 Mikroprozessoren beziehungsweise ein Vielfaches dieser Menge "sehr schnell" miteinander sowie mit einem steuernden Wirts-Rechner kommunizieren zu lassen, wobei für die "frühen 90er Jahren dann Systeme vorstellbar sein sollen, die "einige Milliarden Instruktionen pro Sekunde" erreichen dürften.

In Böblingen, so kann man von Labor-Leiter Herbert Kircher erfahren, werden unter anderem CMOS-Mikroprozessoren auf Basis der bekannten 370er-Architektur entwickelt, die mit speziellen, das Tempo beschleunigenden Gleitkomma-Prozessoren versehen sind. Diese Chips sollen auch, erweitert um jeweils einen eigenen, lokalen Arbeitsspeicher, als Knotenrechner in der mit CERN zu entwickelnden Maschine dienen. Doch während IBM mit Blick auf diese Chips bereits von einem "an CERN gelieferten Prototypen" spricht, ist für die Zukunft gar schon absehbar: Eine spätere Variante dieses CERN-Parallerechners wird mit dem heutigen System wohl nur noch die "jetzt entwickelte, parallele Systemstruktur" sowie das Schalt-Netzwerk gemein haben, während es bei den Knoten-Prozessoren selber allerhand Neues geben dürfte: Versionen, die dann Sechs- bis zwölfmal so schnell wie die jetzigen arbeiten sollen.

Gleiche Detenzätze für beide Systeme

Bemerkenswert ist mit Blick auf IBMs Interesse an hochgradig parallelen Architekturen aber auch, daß inzwischen schon Entwicklungsarbeiten laufen, die der besseren Programmierung der neuen Strukturen dienen sollen. Sie gelten vor allem dem Ziel, "Anwendungsprogramme mit den gleichen Datensätzen sowohl auf Universalrechnern als auch auf Parallelrechner-Strukturen ausführen" zu können. wird fortgesetzt