Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

01.03.1996 - 

Supercomputing/Fuer Zahlenfresser gibt es noch reichlich Futter

Supercomputer oder Power aus vielen kleinen Buechsen?

Vor zehn Jahren war die Welt noch in Ordnung und ueberschaubar. Die millionenschweren Supercomputer standen gut gekuehlt und von stolzen Operateuren betreut in den Rechenzentren.

Weltweit gab es etwa 200 derartige Systeme, die vornehmlich in den USA von Control Data Corp. und Cray Research gebaut wurden. Nur 15 dieser Vektorrechner waren in Deutschland installiert. Das beruehmteste System war die "Cray-1" mit 160 Millionen Gleitkomma- Operationen pro Sekunde (Mflops).

Zu jener Zeit hatten hauptsaechlich Grossforschungseinrichtungen und Hochschulen Supercomputer beschafft. Sie wurden in der Grundlagenforschung beispielsweise in der Hochenergiephysik oder der Kernphysik eingesetzt. So entstand an der Kernforschungsanlage in Juelich ein Hoechstleistungs-Rechenzentrum, desssen sich die deutsche Physikergemeinde fuer Grossprojekte bediente.

Auch die theoretischen Chemiker greifen gerne und unersaettlich auf die CPU-Zyklen der Groesstrechner zu. Sie untersuchen mit ihrer Hilfe zum Beispiel Strukturen und Eigenschaften von Molekuelen. Auch in der Arzneimittelentwicklung lassen sich die ein bis drei Jahre des Synthetisierens und die Simulation verkuerzen. Wenig erfolgversprechende Zusammensetzungen scheiden aus den weiteren Untersuchungen gleich aus; frueher haette man Sackgassen in der Forschung erst in der spaeteren Versuchsphase erkannt.

Klassische industrielle Anwendungsbereiche fuer Supercomputer sind die Luft- und Raumfahrt und die Automobilindustrie. Nahezu jeder Flugzeughersteller berechnet mit eigenen Superrechnern die Umstroemung von Fluegeln oder Flugzeugen.

Da auch das Gewicht den Treibstoffverbrauch beeinflusst, berechnen Optimierungsverfahren die guenstigste Balance zwischen ihm und der notwendigen Festigkeit. Beim Seitenleitwerk des Airbus liess sich so das Gewicht um 25 Prozent reduzieren. Diese Rechenergebnisse muessen dann aber noch im Versuch verifiziert werden. Inzwischen koppeln die Konstrukteure schon Stroemungs- und Festigkeitsberechnungen, um ein globaleres Optimum zu bestimmen. Die ersten Ergebnisse sind sehr vielversprechend.

Die Hauptanwendungen sind Simulationen

Die Automobilindustrie setzt Hochleistungsrechner inzwischen fuer eine Vielzahl von Anwendungen ein. Dazu gehoeren beispielsweise die Crash-Analyse, die Festigkeitsberechnung, die Aussen- und die Innenstroemung, die elektromagnetische Vertraeglichkeit, die Simulation der Verbrennung im Motor oder der Schwingung der Karosserie. Der Entwurfszyklus in der japanischen Automobilindustrie hat sich durch Simulationsrechnungen seit 1980 drastisch verkuerzt (vgl. Tabelle).

Weitere, spektakulaere Beispiele der Vektorrechnernutzung waren die Simulation des Grossfeuers vom 18. November 1987 in der U-Bahn- Station Kings Cross in London und das Heraussprengen der Rettungskapsel beim Hermes-Raumfahrzeug.

Beim Feuer wurde durch die numerische Simulation der Stroemung ein wichtiges und unerwartetes Verhalten gefunden, der Grabeneffekt. Das Feuer entwickelte sich nicht wie zuvor angenommen entlang der Seitenwaende der Rolltreppe, sondern floss im "Graben" - sprich auf dem Boden - zwischen den Handlaeufen. Unter anderem durch diesen Kamineffekt krochen die Flammen im Graben hoch, um oben in der Schalterhalle foermlich zu explodieren. Ein spaeter durchgefuehrter Modellversuch bestaetigte die Ergebnisse der Computersimulation.

Im anderen Beispiel wurde aus dem nichtexistenten Raumfahrzeug Hermes in fast jedem Flugzustand im Rechner die Rettungskapsel herausgesprengt - man wollte so eine Wiederholung des Challenger- Ungluecks vermeiden. Die Kapsel flog aber so instabil davon, dass es die Besatzung nicht ueberleben wuerde. Mit Hilfe des Supercomputers liess sich eine voreingestellte Schubvektorduese berechnen, die die abgetrennte Kapsel schon nach 200 Millisekunden entscheidend stabilisiert.

Den Rechenaufwand fuer diese Simulation schaetzt der Projektleiter auf 1,3 Monate beim Vektorrechner "Fujitsu/SNI VP200", auf zwei Jahre bei einem Skalarrechner und auf 200 Jahre bei einem durchschnittlichen Privat-PC.

Solche Simulationen waren einst den Vektor-"Number-Crunchern" (Zahlenfressern) vorbehalten. Heute ist die Welt der Hoechstleistungs-Rechnerarchitekturen kompliziert, der Markt fast unueberschaubar. Eine Vielzahl von Loesungen - ob preiswert oder teuer - wartet auf den Anwender.

In die Klasse der "millionenschweren" Systeme gehoeren beispielsweise die Rechner "T90" oder "J90" von Cray Research oder die "Convex C4". Die T90 bringt es im Vollausbau auf 32 Prozessoren - und einen so stolzen Preis, dass nur grosse Rechenzentren sie einsetzen.

Hier kontern japanische Hersteller mit preisguenstigen, aber proprietaeren CMOS-Vektorrechnerzwittern, die in die Kategorie von Parallelrechnern mit lokalem Speicher fallen. NEC tritt mit der "SX4", Fujitsu/Siemens-Nixdorf mit der "VPP300" an. SNI beispielsweise will den Rechner VPP300 in der Ein-Prozessor- Version mit 2,2 Gflop Leistung fuer etwa 700000 Mark an Abteilungen verkaufen, die ihn wie eine Workstation in die Ecke stellen koennen.

Viele Workstations in einem Chassis

Als Parallelrechner mit mehr als 40 VPP300-Prozessoren, ueber ein Crossbar verknuepft, soll er beim Europaeischen Wetterzentrum im englischen Reading fuer bessere Wettervorhersagen sorgen. In Stuttgart konnte NEC beim Hoechstleistungs-Rechenzentrum von Industrie und Forschung ein 32-Prozessor-System absetzen. Hier haben also die oft verschrienen Dinosaurier Terrain zurueckerobert.

Ihre Gegner sind die Killer-Mikros, mit Hochleistungs-RISC- Prozessoren bestueckte Workstations. Mehr als 600 Mflops Spitzenleistung verspricht Digital Equipment. Bei Rechnern dieser Klasse greifen mehrere Prozessoren ueber einen Bus auf den gemeinsamen Speicher zu, man spricht von symmetrischem Multi- Processing (SMP). Es handelt sich sozusagen um "mehrere Workstations in einem Chassis".

Schwaeche: Mangel in Parallelsoftware

Hier ringen neben Digital unter anderem auch Hewlett- Packard/Convex, IBM sowie besonders erfolgreich Silicon Graphics und Sun um Marktanteile. Als Abteilungsrechner erfreuen sich diese Systeme besonderer Beliebtheit, sie sind leistungsfaehig und man ist autark - weit weg vom ungeliebten Rechenzentrum.

Nun darf man die Parallelrechner nicht vergessen. Massiv- paralleles Processing (MPP) war vor Jahren in, doch die einst grosse Euphorie hat sich gelegt. Es mangelt an Software. Europaeische Projekte wie "Europort" haben inzwischen die Parallelisierung der Programme vorangetrieben. Da solche Software meistens portabel ist, laesst sie sich auf verschiedenen Hardwareplattformen oder Architekturen einsetzen.

Cray verkauft den neuen Parallelrechner "T3E" sehr gut - in Deutschland ueberraschenderweise entweder grosse 512-Prozessor- Systeme oder sehr kleine mit 16 bis 32 Chips. Auch die IBM kann ihr "SP2"-System erstaunlich gut absetzen.

Dabei handelt es sich bei solchen Parallelrechnern nicht mehr um Abteilungssysteme. Sie gehoeren ins Rechenzentrum - zur Freude der RZ-Leiter.

Die Beduerftigen schliesslich, die Hoechstrechnerleistung benoetigen, aber nicht besitzen, greifen zur Notloesung: Workstation-Cluster, vernetzte Workstations. Eine Job-Management-Software wie beispielsweise "LSF" von Science + Computing aus Tuebingen verteilt die Batch-Jobs und lastet die Workstations gleichmaessig und ohne Unterbrechung aus.

Die Management-Software verteilt Jobs oder Programmpakete entsprechend deren Anforderungen an Ressourcen automatisch auf die geeigneten Rechner. Auch Parallelverarbeitung ist moeglich, aber nur unter eingeschraenkten Bedingungen: Der Datenaustausch erfolgt ueber schwache Netze und zieht dann die Gesamtleistung merklich herunter.

Wer sich nur eine kleine Workstation leisten kann und sporadisch grossen Bedarf hat, der kauft sich Hoechstleistungs-Rechenzeit. So hat Debis dem Deutschen Supercomputing-Zentrum in Stuttgart Rechenzeit auf den Crays T90, C90, J90 und kuenftigen Rechnern wie Cray T3E oder "NEC SX4" angeboten. Da auch eine breite Softwarepalette bereitsteht, sicherlich keine schlechte Loesung - wenn die Preise guenstig sind.

Inzwischen haben die SMP-Maschinen und die Local-memory- Parallelrechner den technisch-wissenschaftlichen Markt verlassen und sind auch im kommerziellen Umfeld anzutreffen. Bei einigen SAP/R3-Anwendungen und massiven Datenbankzugriffen zum Beispiel im Data-Warehouse sind parallele Prozessoren von Vorteil.

Wachstum vor allem im kommerziellen Markt

Marktauguren sagen ihnen ein hoeheres Wachstum als im technisch- wissenschaftlichen Markt voraus. Vornehmlich werden SMP-Geraete eingesetzt. Der US-Analyst Gary Smaby erwartet einen Anstieg von heute 1,5 Milliarden auf 3,5 Milliarden Dollar im Jahre 1999. Hier heissen die Marktfuehrer Tandem und NCR, gefolgt von Unisys.

Inzwischen kaempfen unter anderem auch Cray Business Server, Digital, Hewlett-Packard, Pyramid (SNI), SGI und Sun um Anteile an den neuen Zukunftsmaerkten. Da die wichtigsten Datenbankanbieter Versionen fuer Parallelrechner anbieten, gibt es im Gegensatz zur technisch-wissenschaftlichen Welt keine Umstiegsprobleme.

Wie geht es weiter? Die Mikroprozessoren attackieren inzwischen die RISC-Prozessoren. Architekturschwaechen wie die Speicherbandbreite und die Ein- und Ausgabegeschwindigkeiten werden beseitigt, die Leistung steigt weiter. Vektorprozessoren muessen sich gegen RISC-Systeme wehren.

Der Markt fuer Groesstrechner wird aufgrund der knappen Budgets der oeffentlichen Haende und der Industrie immer kleiner. Daher haben jene Rechnerlinien gute Aussichten, die sowohl die DV-Abteilung als auch das grosse Rechenzentrum zufriedenstellen.

Kurz & buendig

Bei Berechnungen von Vorgaengen, die sich nur in riesigen Zahlen mengen darstellen lassen, sind Number-Cruncher gefragt. Klassische Anwendungsbeispiele kommen aus dem Bereich der Simulation von komplexen Situationen und Reaktionen. Supercomputer sind suendhaft teuer, finden aber immer noch Kaeufer, denn bestimmte Berechnungen waeren mit anderen Mitteln ueberhaupt nicht oder nur noch kostspieliger durchzufuehren. Der Einsatz dieser Spezialrechner beschraenkt sich jedoch immer auf den Bereich, der zur jeweiligen Zeit die Obergrenze des Rechenaufwands bildet. Alle anderen Aufgaben erledigen immer leistungsstaerkere Rechner mit symmetrischer und massiv-paralleler Architektur oder Workstation- Cluster.

CAE-Zyklus in der japanischen Automobilindustrie

1980: Preprocessing 1 bis 20 Tage; Mainprocessing 4 bis 80 Tage; Postprocessing 1 bis 2 Tage

1990: Preprocessing 1 bis 40 Tage; Mainprocessing 1 bis 20 Stunden; Postprocessing 1 bis 2 Tage

2000: Preprocessing 1 bis 10 Tage; Mainprocessing mehrere Minuten; Postprocessing mehrere Stunden

*Uwe Harms ist Autor und Supercomputer-Berater in Muenchen.