Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

19.07.1991 - 

An Hard- und Software werden immer höhere Ansprüche gestellt (Teil 3)

Parallelen Systemen gehört die Zukunft bei den Superrechnern

Im abschließenden Beitrag seines Berichtes über die Mannheimer

Supercomputertage (die ersten beiden in CW Nr. 27 und 28) geht Dieter Martin auf Probleme der Par allelrechner und die Planungen einzelner Hersteller ein.

Provokativ war der Titel des Vortrags von Andreas Reuter zum Thema "Parallelrechner geschenkt zu teuer?" Zunächst entwarf er einen Teraflops-Rechner:

- Wie groß ist das zu lösende Problem?

- Ist genug Geld vorhanden?

- Will man auch Millionenbeträge ausgeben?

- Wie hoch ist der Parallelitätsgrad in der geplanten Anwendung?

- Wie hoch ist der tatsächliche Parallelitätsgrad im Problem?

- Wie ist der Speicherzugriff der Prozesessorkommunikation aufgebaut?

- Wie kann die parallele Ausführung organisiert werden?

Amdahis Gesetz zur Parallelverarbeitung

Alle diese Fragen muß man beantworten, bevor man sich an die Erstellung eines Parallelrechner-Systems wagt. Nach einigen optimistischen Bemerkungen zur Parallelverarbeitung wies er nicht zu Unrecht auf Amdahls Gesetz zur Parallelverarbeitung hin: Der sequentielle Anteil bestimmt die Gesamtleistung des parallelen Systems. Die Hochglanzbroschüren mancher Hersteller widersprechen bei genauem Betrachten den Tatsachen. Ein weiteres noch ungelöstes Problem ist die Lastverteilung zwischen Prozessoren. Der Anwender muß sich noch Gedanken machen, wie er alle Prozessoren gleichmäßig auslastet. Zum Schluß gab Reuter noch Hinweise, wie man parallele Programme schreiben sollte. Er wies darauf hin, daß im Bereich der Transaktionen die Parallelverarbeitung schon seit Jahren effektiv genutzt wird.

Schließlich folgte ein Überblick darüber, was einzelne Hersteller in nächster Zeit konkret vorhaben. BBN plant im Projekt Coral 1992 einen Parallelrechner mit 2000 Prozessoren und

200 Gflops Leistung (64 Bit). Über ein Butterfly-Netzwerk sind die Prozessoren wie bisher verbunden. Nach BBN-Aussagen schlagen die Killer-Micros die Supercomputer spätestens 1995 in Sachen Preis/Leistung.

Convex zeigte die unterschiedlichen Leistungsstärken und Ausbaumöglichkeiten seiner C-3-Serie mit drei Familien. Bis zu acht Prozessoren mit einer Leistung von fast 1 Gflops (2 Gflops bei 32 Bit).

Über den SIMD-Rechner Maspar wurde schon von Anwendern berichtet. Das System kann aber nur mit einem DEC-Vorrechner betrieben werden, da die Firma ein Spin-off von DEC ist. So plant also auch DEC, neben seinen Vektorzusätzen massiv-parallele Rechner anzubieten, zunächst auf Maspar-Basis. DEC will in wenigen Monaten einen Vektorprozessor mit rund 170 Mflops liefern. Das für 1993/94 geplante Nachfolgemodell soll sogar 250 Mflops schaffen, als High-end System dann insgesamt 1 Gflops. Auf einer Hypercube-Architektur beruht auch der Ncube und ist dementsprechend beliebig ausbaubar .

Auch Floating Point Systems ist aus der Versenkung wieder aufgetaucht: Skalar-, Vektor- und Matrixprozessoren werden in einem System angeboten. Alliant setzt auf Intel und die Nachfolgemikros des i860, von den 2800-Rechnern sollen mehr als 100 weltweit verkauft sein.

Durch Pressekampagnen und Hochglanzbroschüren läßt Parsytec auflhorchen, das Unternehmen nimmt an der europäischen Teraflops-Initiative teil. Mit 65 536 T9000-Prozessoren, die wohl Anfang 1992 verfügbar sind, will man 400 Gflops (64 Bit) erreichen. Derzeit sind 700 Super-Cluster installiert, 500 im Realtime-Bereich und 200 für das Number-Crunching.

Was gibt es neues von Cray? Die C90 und der Einstieg in die massiv-parallelen Systeme und Minisupercomputer sind bekannt. Durch Verknüpfung von 28 Cray-Prozessoren der C90 zu einem Super-Cluster gelang Cray eine Beschleunigung um den Faktor 32 - bei Hochleistungsnetzen eine interessante Alternative, denn dann könnte man immer dort produktiv rechnen, wo gerade Nacht ist.

NEC wird noch 1991 seine erste Vierprozessor-Maschine in Kanada am metereologischen Zentrum installieren, nach Lugano kommt ein Zweiprozessor-System. An der Uni Köln wurde ein europäisches Unterstützungszentrum eingerichtet. Siemens hat einen Rechner beim Institut Francais Petrolier in Paris installiert. Interessant sicherlich, daß das Unix- und das IBM-ähnliche Betriebssystem VSP/S gleichzeitig auf dem Rechner laufen können.

Ultra Network scheint sich inzwischen als Standard für Höchstleistungsnetzwerke herauszuschälen. An vielen Hochschulen laufen entsprechende Projekte. Nach so viel Hardware übersah man fast, daß auch in Deutschland eine softwaremäßige Unterstützung bei der Parallelverarbeitung erhältlich ist.

So bietet die Pallas GmbH aus Bonn, die Software-Truppe von Suprenum portable Software an. Derzeit vertreibt sie noch Meiko-Rechner, will sich aber davon lösen. Sie bietet im wesentlichen Tools und die Kommunikationsbibliothek an, die sie auch auf andere Rechner portieren will. Die Mannschaft besteht inzwischen aus zwölf Mitarbeitern .

Netzgenerator für das Hermes-Raumfahrzeug

Einen anderen Ansatz versucht die Genias GmbH: Hier sollen Produktionsprogramme auf Parallelrechner übertragen werden. In Zusammenarbeit mit der ESA wird gerade ein Netzgenerator für das Hermes-Raumfahrzeug für massiv-parallele Systeme vom Typ Intel IPSC, 860 und Ncube programmiert. Daneben wird ein Benchmark für Parallelrechner erstellt, den das BMFT fördert.

Eine Podiumsdiskussion am letzten Tag hatte das "Supercomputing 1995 und darüber hinaus" zum Thema Convex, Intel, Cray, Fujitsu, Alliant, Thinking Machines und die Hochschule Karlsruhe waren vertreten Wichtigste Aussage: Parallel- und Vektorrechner dürften nebeneinander bestehen und sogar wie bei Cray kombiniert werden. Die Software hat hohen Anforderungen gerecht zu werden. Die Compilertechnologie, die Tools zum Testen und zur Leistungsüberprüfung müssen erheblich verbessert werden. Große Herausforderungen stehen bevor, da die Software- mit der Hardware-Entwicklung nicht mehr Schritt hält.