Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

11.07.1997 - 

Deutschland ist gut ausgestattet

Kongreß beleuchtet Supercomputer-Landschaft

Im Vordergrund der Veranstaltung stand allerdings die "Top-500"-Liste der weltschnellsten Superrechner, die zweimal jährlich publiziert wird. Die Parallel- und Vektorrechner müssen sich dazu dem "Linpack"-Benchmark unterziehen, bei dem es ein möglichst großes lineares Gleichungssystem zu lösen gilt. Der schnellste Number-Crucher löste dabei eine Rechenaufgabe mit sage und schreibe 215000 Unbekannten. Es handelt sich um den auf Intel-Chips basierenden "ASCI-Red"-Rechner am Sandia National Laboratory in den USA. Er gehört zu den Projekten der Accelerated Strategic Computing Initiative (ASCI) des US-Verteidigungs- und Energieministeriums, die bis zum Jahr 2002 mit mehr als 200 Millionen Dollar jährlichen Fördermitteln einen 100-Teraflops-Rechner entwickeln soll.

ASCI Red bestand Ende letzten Jahres aus 7264 Pentium-Pro-Prozessoren, von denen jeweils zwei zu einer Einheit (Node) zusammengefaßt sind. Er schaffte bereits in dieser Ausbaustufe mehr als ein Teraflops (Billionen Rechenoperationen pro Sekunde). Mittlerweile hat Sandia diese Marke auf 1,388 Teraflops hochgeschraubt, denn das inzwischen vollausgebaute System besteht aus 9200 Prozessoren. Diese greifen auf mehr als ein halbes TB Arbeitsspeicher zu. Der Rechner wird vor allem zur Simulation von Atombombenexplosionen genutzt.

Auf den nächsten Plätzen folgen ein Spezialrechner für Quantenchromodynamik, ein Gemeinschaftsprojekt von Hitachi und der Universität Tsukuba mit 2048 Prozessoren und einer Leistung von 368 Gigaflops. Drittschnellster Rechner ist der mit 696 Prozessoren bestückte "Cray T3E" beim Britischen Wetterdienst, der auf 265 Gigaflops kommt. Auf Platz vier liegt ein Fujitsu-System mit 167 Prozessoren und 230 Gigaflops, das bei der japanischen Raumfahrtbehörde einen Windkanal simuliert.

Insgesamt schafften sieben neue Systeme den Sprung in die Top 10. Allein sechs davon sind Cray-T3Es. Der "schwächste" Rechner, die Nummer 500 der Top-Liste, erreicht immer noch 7,7 Gigaflops.

Die Gesamtleistung der 500 Rechner hat in den vergangenen Jahren geradezu explosionsartig zugenommen: 1996 führte Professor Hans Meuer, Leiter der Mannheimer Veranstaltung und deutscher "Supercomputer-Papst", noch 5,9 Teraflops Gesamtleistung an, in diesem Jahr sind es bereits 13,1 Teraflops.

Spitzenreiter bei den Herstellern ist SGI/Cray. Das Unternehmen konnte 204 Rechner in der Top-500-Liste plazieren. Es folgt die IBM mit 70 und Hewlett-Packard/Convex mit 67 Systemen. Diesen Erfolg verdankt HP vor allem der "Exemplar"-Serie. Sun Microsystems hat gleich mit 60 Rechnern den Sprung in die Liste geschafft und darf sich jetzt zur High-Performance-Society rechnen. Am häufigsten vertretene Modelle: SGIs "Origin 2000" mit 81, IBMs "RS6000-SP" mit 70 und die HP/Convex "S/X"-Klasse mit 65 Installationen.

Deutschland: Weniger Systeme, mehr Leistung

In Deutschland ist die Zahl der Rechner von 51 auf 45 gesunken. Im Juni 1993 standen noch 59 der leistungsstärksten Supercomputer auf deutschem Boden. Die Gesamtleistung der Systeme hierzulande wuchs allerdings von 629 Gflops auf 1244 Gflops. Auch in der Top-500-Liste hat Deutschland einen Sprung nach vorne gemacht. Dies ist unter anderem Cray zu verdanken, die alle bestellten T3Es auf 512 Prozessoren erweiterten. Außerdem wurde im Münchner Leibniz-Rechenzentrum von der Siemens-Nixdorf Informationssysteme AG (SNI) ein "VPP700"-Vektorrechner mit 34 Prozessoren neu installiert. Auf den Plätzen sechs bis elf finden sich mit dem Kernforschungszentrum Jülich, der Max-Planck-Gesellschaft in Garching und der Universität Stuttgart drei deutsche Rechenzentren. Insgesamt arbeiten acht der schnellsten 100 Systeme in Deutschland, und bis Platz 200 verzeichnet die Liste weitere zwölf hiesige Superrechner.

Die Forschungseinrichtungen haben im letzten halben Jahr kräftig zugelegt und bringen nun 510 Gflops an ihre Kunden (zuvor: 336 Gflops). Ihr Nachholbedarf sollte damit vorerst gedeckt sein. Die Kapazität ballt sich an einigen wenigen Stellen: Das Forschungszentrum Jülich führt mit fast 200 Gflops (38 Prozent des Forschungsbereichs), gefolgt von der Max-Planck-Gesellschaft mit knapp 180 Gflops (35 Prozent). Die nächstgrößte Anstalt ist dann bereits die Deutsche Forschungsgesellschaft für Luft- und Raumfahrt (DLR) mit nurmehr 30 Gflops (sechs Prozent). Aus dem Rahmen fällt das Forschungszentrum Karlsruhe, das gemeinsam mit der dortigen Universität je eine IBM RS6000-SP mit 256 Prozessoren und einen parallelen Vektorrechner "VPP300" mit 16 Prozessoren von SNI/Fujitsu betreibt. Schlägt man den VPP300 dem Forschungszentrum zu, liegt es knapp vor der DLR.

Im letzten halben Jahr haben auch die Hochschulen nachgezogen. Die Zahl der Rechner stieg von 18 auf 25, die Kapazität hat sich von 200 Gflops im November auf 650 im Juni verdreifacht. Neben den großen Hochschul-RZs wie dem Konrad-Zuse Zentrum in Berlin (deckt allein mit einem Cray T3E und einem Cray "T3D" 13 Prozent der insgesamt an deutschen Hochschulen verfügbaren Kapazität ab) und dem Leibniz-RZ in München (elf Prozent der Hochschulrechenleistung) haben sich viele kleinere Hochschulen mit leistungsfähigen, mittleren Rechnern ausgestattet. Dabei kommt laut Top-500-Liste eine Vielzahl von Rechnertypen und Architekturen zum Einsatz: Kleinere T3Es und Origin 2000s, Hewlett-Packards Exemplar-Rechner, VPP-Systeme von SNI/ Fukitsu sowie IBM SP2s und Suns "Ultra-HPC"-Server.

Eine Sonderrolle nimmt die "Höchstleistungsrechner für Wissenschaft und Wirtschaft Betriebsgesellschaft" (HWW) ein. Sie wird von den Rechenzentren Stuttgart, Karlsruhe und dem Land Baden-Württemberg mit zusammen 50 Prozent Anteilen, der Debis Systemhaus AG (40 Prozent) sowie der Porsche AG (zehn Prozent) als Gesellschaftern betrieben. Im HWW stehen mit dem massiv-parallelen Cray T3E mit 512 Prozessoren, einer IBM SP2 mit 256 CPU sowie einem NEC "SX-4"-Vektorrechner (32 Prozessoren) mit gemeinsamem und einer SNI VPP300 (16 Prozessoren) mit verteiltem Speicher unterschiedliche Rechnerarchitekturen bereit. Dieses Zentrum belegt nach den Sandia Labs (1211 Gflops) und der Universität Tsukuba (368 Gflops) mit 315 Gflop/s den dritten Platz weltweit.

Die deutsche Industrie hingegen gerät laut Top-500-Liste ins Hintertreffen. Nachdem im November noch 13 Rechner mit zusammen 100 Gflops verzeichnet waren, reduziert sich jetzt deren Zahl auf sieben (72 Gflops). SGIs "Powerchallenge", Arbeitspferd in der Automobilindustrie, ist aus Leistungsgründen herausgefallen. Die Automobilindustrie ist überhaupt nur noch mit drei Installationen vertreten: Volkswagen (NEC "SX-3/3", 15 Gflops), BMW (SGI "Origin 2000/32", 10 Gflops) und Ford (SGI/Cray "C90/12", 10 Gflops). Allerdings darf man nicht vergessen, daß im HWW und in Jülich auch für die Industrie große Kapazitäten bereitstehen. Die Kosten sind bei beiden etwa gleich und liegen pro Prozessor auf der NEC SX-4 oder der Cray T90 unter 500 Mark die Stunde.

Die anderen Superrechner der Industrie werden nicht zum Number-Crunching eingesetzt, sondern für Datenbankanwendungen "zweckentfremdet". Hier betreibt die Deutsche Telekom eine "IBM SP/2 50" mit 10 Gflop/s. Die Deutsche Bahn AG macht sich die Rechenleistung von zwei "Ultra-HPC-6000/20"-Systemen von Sun zunutze, SAP in Walldorf greift auf eine dieser Maschinen zurück (8 Gflops).

In der Industrie werden also vermehrt kleinere Rechner verwendet. Weltweit beschränken sich die industriellen Anwendungsgebiete für Superrechner zunehmend auf die Exploration, den Automobil- und Flugzeugbau sowie auf Datenbanken und Finanzwesen.

Kooperation

-Stellt bundesweit für genehmigte Forschungsprojekte kostenlose Rechenleistung zur Verfügung-Hochschulen und Industrie kooperieren-Porsche deckt seinen eigenen Bedarf-Debis gibt Leistung an den Daimler-Benz-Konzern ab-Debis vermarktet die kostengünstige Rechenzeit in der Industrie.

Super-Verbindung

Wissenschaftlern in Stuttgart und Pittsburgh ist es gelungen, ihre zwei Hochleistungsrechner vom Typ "Cray T3E" mit je 512 CPUs in einem Pilotversuch zu einem System zu verbinden. Über einen von der Firma Teleglobe International Corp. zur Verfügung gestellten Hochgeschwindigkeits-Backbone entstand dabei jeweils kurzfristig ein virtueller Rechner mit 1024 Prozessoren und einer theoretischen Rechenleistung von 675 Milliarden Fließkomma-Operationen in der Sekunde.

Praktisch wurden allerdings bislang erst 64 Prozessoren gemeinsam zum Einsatz gebracht. Dabei zeigte sich, daß die getestete Software noch angepaßt werden muß. Michael Resch, Projektkoordinator in Stuttgart, erläuterte: "Man kann nicht einfach die Leistung des Codes verdoppeln, indem man ihn auf einem doppelt so großen Rechner ablaufen läßt." Nach Anpassung der Software wollen die Forscher jedenfalls als dritten Superrechner den Intel-basierten ASCI-Red des Sandia National Laboratory in das Projekt einbinden.

Alternativen

Professor Djamshid Tavangarian von der Universität Rostock hat ein "Hypercomputing"-Projekt gestartet, das Alternativen zu Supercomputern aufzeigen soll. Dabei wird über das Internet auf Workstation-Pools an unterschiedlichen Standorten zugegriffen. Jeder Teilnehmer kann idealerweise allzeit freie Kapazitäten nutzen, die innerhalb des Verbunds als verteilte Ressourcen eingesetzt werden. Beteiligt sind beispielsweise die Universitäten in Kiel, Lübeck, Rostock, Magdeburg, Berlin, Hannover, Frankfurt, Mannheim und Stuttgart. Tavangarian rechnete hoch: "Wir haben in Rostock 200 Workstations zur Verfügung, wenn man das mit 40 bis 50 Universitäten multipliziert, steht eine immense Rechenleistung bereit." Im Rahmen des Projektes werden Betriebswerkzeuge, die Systemorganisation und -administration, Lastverteilung und Applikationen untersucht. Die abschließenden Ergebnisse sollen auf der ARCS 97 im September in Rostock vorgestellt werden.

*Uwe Harms ist freier Journalist in München.