Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

13.03.1992 - 

Massiv-parallele Systeme vor dem Durchbruch

Auch Europäer im Rennen um künftige Teraflops-Rechner

Die großen Supercomputerhersteller ändern ihre Strategie. Massiv-parallele Systeme - aus zahlreichen einfachen Mikroprozessoren aufgebaute Rechner - sollen die nötige Rechenleistung zur Bewältigung der "großen Herausforderungen" in der Wissenschaft bringen. Das Wettrennen um den Bau eines Supercomputers hat begonnen, der eine Leistung von 1 Billion Instruktionen pro Sekunde ausführen kann. Wolfgang Müller* beleuchtet den Stand der Dinge.

Falk D. Kübler muß lächeln, wenn er an frühere Supercomputer-Messen denkt. "Da saßen wir bei solchen Gelegenheiten am Katzentisch", berichtet der Gründer des Aachener Parallelrechner-Herstellers Parsytec GmbH. Doch spätestens seit der diesjährigen "Supercomputing Europe", die im Februar in Paris stattfand, ist alles anders. Kübler befindet sich mit seinen massiv-parallelen Systemen, von denen er angibt, inzwischen weltweit über 800 verkauft zu haben, im Trend der Numbercruncher-Branche. Denn John Rollwagen, Chef des Supercomputer-Marktführers Cray Research Corp. aus Eagan in Minnesota, nutzte seinen Eröffnungsvortrag in Paris zur Ankündigung eines massiv-parallelen Systems aus dem Hause Cray. Basis wird der neue Alpha-Prozessor (21064-AA) von Digital Equipment sein. Einen Tag später kündigte in Paris auch IBM einen massiv-parallelen Supercomputer an, der bereits in diesem Jahr ausgeliefert werden soll.

Das Tool für die "großen Herausforderungen"

Aufgebaut wird er mit den eigenen Power-RISC-Chips von Big Blue, die auch in den RS/6000-Workstations eingesetzt werden. In Kingston (New York) hat der Branchenriese ein neues Forschungszentrum für das massiv-parallele Supercomputing geschaffen. Auch die großen japanischen Computer-Hersteller NEC, Toshiba, Fujitsu und Matsushita Electric arbeiten an neuen Superrechnern aus vielen parallel arbeitenden Prozessoren. Schließlich setzt Digital Equipment (DEC) mittlerweile ebenfalls auf die Paralelverarbeitung. In Verbindung mit der MasPar Computer Corp., an der DEC beteiligt ist, kommt die neues Systemserie DECmpp 12000 auf den Markt.

"In den massiv-parallelen Architekturen sehen heute übereinstimmend alle Fachleute das nötige Potential zur Lösung der anstehenden Aufgaben", begründet Jochen Krebs, Marketing-Verantwortlicher für High-end-Systeme bei DEC Deutschland, den Schwenk. Aus der Wissenschaft wird der Ruf nach höherer Rechenleistung - jenseits heutiger Supercomputer - immer lauter. Besonders die Physiker im Bereich der Quantenchromodynamik (QCD), die sich mit den Strukturen im Inneren eines Nukleons beschäftigen, benötigen für ihre Simulationen eine Rechenleistung, die etwa um den Faktor 1000 über dem Angebot heutiger Supercomputer liegt. Bereits 1982 hatte der amerikanische Physik-Nobelpreisträger Kenneth Wilson eine Liste "großer Herausforderungen" ("Grand Challenges") aufgestellt, bei deren Lösung heutige Computer nur unbefriedigend oder noch gar nicht helfen können. Dazu gehört die Entschlüsselung des menschlichen Genoms, die längerfristige Klimavorhersage, sowie Aufgaben in der Astrophysik, der Elementarteilchenphysik, im Molekulardesign, in der Ökosystemforschung und in der Strömungsmechanik.

Um eine akzeptable Laufzeit der notwendigen Berechnungen bei diesen Problemen zu erreichen, kommt nur ein Computer mit einer Mindestleistung von einer Billion Flops ("Floating point operations" = Gleitkomma-Operationen pro Sekunde) in Frage.

ETI: die europäische Teraflops-Initiative

Der schnellstmögliche Bau eines solchen Teraflops-Rechners ist das Ziel einer im vorletzten Jahr gegründeten europäischen Teraflops-Initiative (ETI). Diese Arbeitsgruppe von Forschern aus europäischen Großforschungseinrichtungen - in den USA gibt es eine ähnliche "High Performance Computing"-Initiative - hat in den vergangenen Monaten mit verschiedenen Firmen über die Realisierbarkeit des Projektes gesprochen. Etwa ein Dutzend Computerhersteller arbeitet weltweit an Plänen für solche Höchstleistungsrechner der nächsten Generation. Einvernehmen besteht darüber, daß eine Teraflops-Rechenleistung nicht mehr mit dem traditionellen Prinzip des seriellen Computers erreichbar ist. Auch wesentlich schneller arbeitende Galliumarsenid-Chips anstelle der heutigen Silizium-Bausteine werden den benötigten Leistungssprung wohl nicht schaffen.

Von den geforderten Teraflops-Leistungen sind die heutigen Supercomputer jedoch noch weit entfernt. Das jüngste Paradepferd von Cray Research, die Cray Y-MP C90 mit bis zu 16 Prozessoren, hat nur eine Spitzenleistung von 16 Gigaflops. Im Normalbetrieb wird vielleicht gerade ein Prozent eines Teraflops erreicht. Selbst der "schnellste Supercomputer der Welt" NEC SX-3, den der japanische Hersteller für Ende September dieses Jahres angekündigt hat, wird nur eine Leistung von 25,6 Gigaflops haben.

Um die geforderte Rechenleistung erbringen zu können, wenden sich die Entwickler zunehmend der Parallelverarbeitung zu. Massiv-parallele Systeme sollen den Sprung zur nächsten Rechnergeneration garantieren. Sie erreichen ihre Arbeitsgeschwindigkeit, indem sie eine große Anzahl - mehrere hundert oder tausend - von Mikroprozessoren koordinieren. Die Tatsache, daß jeder einzelne dieser Intel i860-, Motorola 88000-, Sparc-, Mips-, Alpha-, Power- oder Transputer-Chips sehr viel langsamer als ein herkömmliches Supercomputer-Herzstück ist, wird durch ihre große Zahl mehr als wettgemacht.

Im wesentlichen haben sich zwei Parallelrechnerarchitekturen als erfolgversprechend herausgestellt. Zum einen das SIMD-Prinzip ("single instruction, multiple data"), bei dem alle Prozessoren zur gleichen Zeit identische Befehle von der zentralen Steuereinheit erhalten und diese mit ihren jeweils eigenen Daten ausfahren. Zum anderen die MIMD-Architektur ("multiple instruction, multiple data"), bei der die Prozessoren unabhängig voneinander jeweils eigene Programme abarbeiten. Das MIMD-Prinzip ist flexibler, aber auch komplizierter als SIMD. "SIMD-Rechner sind aufgrund ihres Organisationsprinzips nur für ganz bestimmte Aufgaben, zum Beispiel in der Bildverarbeitung, einsetzbar und als Universalrechner nur bedingt tauglich", glaubt allerdings Thomas Bemmerl vom neugegründeten Europäischen Supercomputer Entwicklungszentrum (ESDC) von Intel in München. Ein typischer SIMD-Rechner ist die Connection Machine (CM) der US-Firma Thinking Machines.

Bei den MIMD-Rechnern müssen zwei Klassen unterschieden werden. Auf der einen Seite stehen Multiprozessorsysteme mit einem gemeinsamen Speicher ("shared memory"), bei denen alle Prozessoren über ein Verbindungsnetzwerk auf eine separate Speichereinheit zugreifen. Vertreter einer solchen Architektur sind Rechner wie die Alliant FX/2800 oder Sequent Symmetry. Auf der anderen Seite stehen die Systeme mit verteiltem Speicher ("distributed memory"), in denen jeder Prozessor einen eigenen lokalen Speicher hat, auf den nur er zugreifen kann. Dazu zählen unter anderem die Intel iPSC-Rechner, die nCube 2, die Rechner der britischen Firma Meiko und die SuperCluster und GC-Systeme der Aachener Parsytec.

Die Beteiligten am Wettlauf um den ersten Teraflops-Rechner der Welt geben sich alle selbstsicher. "Wir werden dieses Rennen gewinnen", meint etwa Justin Rattner von der Supercomputing Division des amerikanischen Chip-Produzenten Intel. Das Touchstone-Projekt soll Intel bis Mitte der 90er Jahre den Bau eines Teraflops-Computers ermöglichen.

Thinking-Machines-Chef Dennis Hillis sieht mit seiner Connection-Machine 5 (CM-5), die Ende letzten Jahres vorgestellt wurde, bereits "die Tür zur Teraflops-Region aufgestoßen". Denn theoretisch lassen sich 64 dieser Superrechner zu einer Teraflops-Maschine zusammenschalten.

Wolfgang Kroj, Marketingleiter der Münchener Cray Research GmbH, geht ebenfalls davon aus, daß vom Superrechner-Primus "in der zweiten Hälfte der 90er Jahre ein Teraflops-Rechner verfügbar sein wird". In einem Dreiphasen-Programm, das in den ersten drei Jahren von der US-Verteidigungsagentur "Darpa" mit 12,7 Millionen Dollar gefördert wird, soll der Rechner auf Basis des gelobten Alpha-Chips von DEC Wirklichkeit werden. Bereits 1993 will Cray ein System mit noch mehr als 100 Gigaflops ausliefern.

Aber auch die IBM rechnet sich Chancen aus. "Architektur und Entwurf des neuen Parallelrechners sind so ausgelegt, daß Leistungen im Teraflops-Bereich erreicht werden können", heißt es bei Big Blue lapidar.

Hoffnungen macht sich auch der Aachener Parallelrechnerpionier Parsytec, der bei seiner neuen Gigacube-Systemfamilie (GC) wieder auf die Transputer der Britischen SGS-Thomson-Tochter Inmos Ltd. setzt. Von 1 Gigaflops Leistung eines 64-Prozessor-Systems bis zum Spitzenmodell mit 16 384 T9000-Transputern und einer Rechenleistung von 400 Gigaflops sind die GC-Rechner skalierbar. "Das Preis-Leistungs-Verhältnis der Systeme liegt auf einer völlig neuen Ebene", betont Firmengründer Kübler.

Deutsche machen sich berechtigte Hoffnungen

Die Krönung der MIMD-Rechnerfamilie soll der europäische Teraflops-Computer werden. In einem "Letter of Intent" an die Europäische Teraflops-Initiative erklärte sich Parsytec bereit, diesen Rechner bis 1993 als Non-Profit-Projekt zu realisieren. "Das Projekt ist rein europäisch", hebt Kübler hervor, "wir wollen aus 65536 modifizierten T9000-Transputern ein supermassiv paralleles System bauen, dessen Leistung auf eine Peak Performance von 1,6 Teraflops konzipiert ist". Allerdings können die Lieferschwierigkeiten von Inmos, die ihren T9000-Transputer vermutlich erst im Herbst dieses Jahres in Stückzahlen anbieten kann, den ehrgeizigen Aachener Computerbauern einen Strich durch die Rechnung machen. Bisher gibt man sich bei Parsytec allerdings noch gelassen, die Systeme werden derzeit mit dem T805-Transputer ausgeliefert. Ist dann der Nachfolger verfügbar, genügt ein einfacher Austausch der Prozessoren. In der kürzlich vereinbarten Lieferung eines GC-Systems an die Gesellschaft für Mathematik und Datenverarbeitung (GMD) in St. Augustin sehen die Aachener einen wichtigen Schritt hin zum europäischen Teraflops-Rechner. Die GMD will den Parallelrechner in einem neuen Initiativzentrum für "High Performance Computing" nutzen. Ziel der strategischen Kooperation mit Parsytec ist unter anderem auch die Softwareentwicklung für den Teraflops-Rechner.

Im Rücken hat Parsytec bei seinen ehrgeizigen Plänen auch die "Europäische Industrie-Initiative Innovation" (EI3). Zu diesem Konsortium gehören neben dem Transputerhersteller Inmos Ltd. unter anderem die Konstanzer AEG Electrocom, die Daimler-Benz AG, die Friedrichshafener Dornier GmbH, die Deutsche Forschungsgesellschaft für Luft- und Raumfahrt, das spanische Luftfahrtunternehmen CASA und die Softwarehäuser CAP Gemini und Hitec. Die Kooperation dieser europäischen Firmen, die als führende Spezialisten auf ihren jeweiligen Gebieten gelten, soll von Anfang an sicherstellen, daß für den europäischen Teraflops-Rechner auch im industriellen Bereich ein möglichst breites Anwendungsfeld erschlossen wird.