Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

24.08.1990 - 

Bericht von der "Supercomputer '90" in Mannheim

Rechnerarchitektur: Was ist los in der Supercomputerindustrie?

*Uwe Jehnsen ist freier Mitarbeiter der CW.

Auf der diesjährigen Supercomputer-Tagung in Mannheim mußten die Anwesenden feststellen, daß gerade im industriellen Bereich noch viel Aufklärungsarbeit zu leisten ist, um die Vorteile der numerischen Simulation mit Hilfe von Supercomputern zu verdeutlichen. Von den etwa 170 Teilnehmern, die Professor Hans Meuer vom Mannheimer Rechenzentrum begrüßen konnte, stellten nämlich die Hersteller mit fast 50 Prozent der Tagungsbesucher den Löwenanteil, 35 Prozent kamen von den Hochschulen oder den Großforschungs-Einrichtungen. Nur rund jeder siebte Gast war den industriellen Anwendern zuzurechnen.

In seiner Einführung gab Meuer einen Überblick über den aktuellen Stand im Supercomputing: Von 1989 bis 1990 konnte die Branche weltweit nur ein Wachstum von zwei Prozent verzeichnen, das heißt von etwa 400 Rechnern auf 413. In der Bundesrepublik dagegen war ein ungefähr 13prozentiger Anstieg der Superrechner-Installationen zu beobachten, von 24 Systemen auf 27. Inzwischen sind es jedoch lediglich 26, da Daimler nur noch eine Cray Y-MP/2 in seinem Rechenzentrum einsetzt.

Die Rechenleistung auf Basis von Supercomputern konnte in der Bundesrepublik durch den Einsatz leistungsfähigerer Prozessoren und von Systemen mit einer höheren Anzahl von CPUs gesteigert werden. Im industriellen Bereich etwa rüsteten VW und Daimler von Ein- auf Zweiprozessor-Anlagen auf. Bemerkenswert ist der Trend zu mehr Prozessoren: 1987 arbeiteten rund 25 Cray-Zentraleinheiten in elf Rechnern, in diesem Jahr sind es bei 18 Rechnern immerhin schon 51 CPUs.

Schwer wird der Vergleich eines Landes - zum Beispiel der Bundesrepublik - mit anderen Ländern. Vor allem in Deutschland veränderte der Ausstieg von CDC mit ihren ETA-Rechnern aus dem Supercomputing-Geschäft einiges. Der Gewinner war Siemens mit den Fujitsu-Größtrechnern.

Alte CDC-Hochburgen, wie das Regionale Rechenzentrum für Niedersachsen in Hannover und die RWTH Aachen, konnten von Siemens mit der Fujitsu-VP-Serie genommen werden. Der Deutsche Wetterdienst in Offenbach dagegen hat sich für eine Cray Y-MP entschieden.

Sicherlich hat das Anwachsen der Minisupercomputer den weltweiten Umsatz an Jumbos stark beeinflußt nach der Devise: jedem Anwender eine eigene Maschine. Den 26 Vektorrechnern in Deutschland stehen schon etwa 100 Minisupercomputer gegenüber. Zirka zwölf stammen von Alliant, etwa 70 von Convex und 19 sind aus der Serie der GEI-Trace-Rechner, die inzwischen eingestellt wurde. Dagegen hat die IBM nur 25 Installationen mit Vektorzusätzen für die 3090 ausstatten können.

Meurer gab in seinem Vortrag noch einen kurzen Ausblick auf die zukünftigen Cray-Rechner - bei den Japanern herrscht ja bezüglich künftiger Entwicklungen immer Funkstille. Er rechnet noch im Jahr 1990 mit der Cray 3, einem 16-Prozessor-System mit nur zwei Nanosekunden Taktzeit, womit sich eine Spitzenleistung von 16 Gflops erzielen lasse. Der Anwender kann auf 4 GB Hauptspeicher zugreifen.

Bei der Cray 3 dürfte es sich um den ersten Rechner handeln, der in einer ECL-Galliumarsenid-Technologie ausgelegt ist. Da die Fachwelt schon seit einigen Jahren auf den Rechner wartet, scheint jedoch die Frage berechtigt, ob dieser Supercomputer überhaupt noch kommt. Für 1993 wird mit dem Nachfolger der Cray Y-MP - der C90 - gerechnet. Der Unterschied in den technischen Daten zur Cray 3 ist nicht so gewaltig. Auch dieses System wird im Maximalausbau mit 16 Prozessoren geliefert. Die Zykluszeit beträgt vier Nanosekunden, als Spitzenleistung werden 24 Gflops erwartet. Im Gegensatz zur bisherigen Modellpolitik ist die Hauptspeichergröße identisch mit der Cray 3, nämlich maximal 4 GB. Der Rechner wird jedoch noch in konventioneller ECL-Technologie gebaut werden.

Schließlich ist noch die Cray 4 zu erwähnen, die 1994 erwartet wird. In ihr werden 64 Prozessoren gekoppelt sein. Die Zykluszeit beträgt nur noch eine Nanosekunde und soll damit zu einer Spitzengeschwindigkeit von 128 Gflops beitragen. Ein Hauptspeicher mit 32 GB Kapazität wird dem Anwender Zur Verfügung stehen. Auch bei der Cray 4 ist wieder eine Mischung aus ECL- und Galliumarsenid-Technologie geplant.

Ulrich Seiffert, Vorstandsmitglied und verantwortlich für Forschung und Entwicklung bei der Volkswagen AG, berichtete nach Meuer über die unterschiedlichen Einsatzgebiete von Supercomputern in der Automobilindustrie. Computer Aided Engineering (CAE) ohne Supercomputer Sei in diesem Bereich inzwischen undenkbar. Ausgehend vom Gesamtfahrzeug werden Aerodynamik und Fahrdynamik untersucht. Bei der Karosserie sind Steifigkeit, Schwingungsanalyse, Innenraum-Akustik sowie Strukturoptimierung, das heißt möglichst geringes Gewicht bei gleicher Festigkeit, Bereiche, zu deren Berechnung Supercomputer eingesetzt werden.

Auch in der Fahrzeugsicherheit stellt die Crash-Simulation eine bekannte Anwendung dar, neu sind jedoch computergestützte Untersuchungen der Vorgänge, die für Insassen bei einem Aufprall relevant werden. Als Ziel für die nächsten Jahre wird die Simulation der Struktur und des Insassenverhaltens in einem Modell angestrebt. Neue Aufgaben finden sich ferner in der Simulation der Blechumformung. Der sogenannten Tiefziehprozess erfordert jedoch noch eingehendere Modelle und bessere Software.

Auch bei der Motorkonstruktion, zur Berechnung des Kurbelgehäuses, der Festigkeit und der Funktionsfähigkeit, der Schallabstrahlung und der Verbrennungsvorgänge sind Supercomputer wichtige Hilfsmittel. Seiffert zufolge ist die Integration von Berechnung, Konstruktion und Versuch geplant. Forciert man den Rechnereinsatz auf diesen Gebieten, kann die erforderliche experimentelle Arbeit noch zielstrebiger, wirtschaftlicher und schneller vorangetrieben werden - besonders wichtig unter dem Aspekt des härteren Wettbewerbs. Seifferts Beitrag machte deutlich, welche Auswirkungen der Einsatz moderner und schneller Rechner auf die technologischen und wirtschaftlichen Möglichkeiten eines Industrieunternehmens hat.

In die aktuelle öffentliche Diskussion paßte der Vortrag von Mojib Latif vom Max-Planck-Institut für Metereologie über die Simulation des Treibhauseffektes mit dreidimensionalen Klimamodellen. Weitere Vorträge behandelten die Berechnung von Strömungen um Raumfähren in großen Höhen - bis zu 7,5 Stunden Rechenzeit - sowie die numerische Simulation inkompressibler Strömungen. Bei letzterem Problem wurden gerade parallele Algorithmen und Rechner berücksichtigt. Auch in der Astrophysik, bei der Berechnung des Verhaltens von Neutronensternen, sind Supercomputer unerläßlich.

Hinsichtlich der Computeranimation scheiden sich inzwischen die Geister, ob der Einsatz von Supercomputern wirklich sinnvoll ist. Sicherlich bieten kleinere Rechner, die für solche Anwendungen konzipiert wurden, leistungsmäßig und finanziell eine interessante Alternative. Einige neue, aber auch bekannte Videos verdeutlichten den hohen Stand, den die Computeranimation inzwischen erreicht hat.

Einen Schwerpunkt im Tagungsprogramm bildeten die Parallelrechner: Auf dem Podium diskutierten Vertreter von Parsytec, Falk Kübler , iP-Systems, Wolfgang Wöst, Intel, Peter Schuller und Suprenum, Ulrich Trottenberg, unterschiedliche Aspekte dieser Superrechner-Kategorie bezüglich deren Architektur, Chips, Leistung, Betriebssystem und Anwendersoftware sowie Bedienerfreundlichkeit.

Suprenum stand natürlich im Mittelpunkt: Die Rechnerabnahme bei der Gesellschaft für Mathematik und Datenverarbeitung (GMD) hatte sich auf Grind großer Fehler am Rechner stark verzögert, ist inzwischen aber vollzogen. Trottenberg wies mit Nachdruck darauf hin, daß dieser Rechner am Anfang seiner Laufbahn stünde. Jeder neue Rechner hat, angefangen von der Hardware bis hin zur Software und dem Zusammenspiel der Komponenten, Fehler und Schwächen, die sich erst im praktischen Betrieb zeigen.

Weitere Systeme sind inzwischen an der Uni Erlangen, der KFA Jülich, der Uni Liverpool, bei Suprenum selbst und bei weiteren Partnern installiert. Die Rechner müssen sich erst noch bewähren. Trotz der 200 Millionen Mark Förderung sollte man allerdings nicht erwarten, in wenigen Jahren der Expertise, dem Know-how und den finanziellen Mitteln der Amerikaner und Japaner Paroli bieten zu können.

Bedauerlich wirkt sich allerdings aus, daß in diesem Projekt auf manchen Gebieten gewonnenes Wissen, daß heißt die Mitarbeiter nicht gehalten werden konnten - das Bundesministerium für Forschung und Technologie (BMFT) hat seine Förderung bekanntlich eingestellt. Nach Ablauf der Förderung sind noch 50 Mitarbeiter für Suprenum tätig. Längerfristig wird man zu den preisgünstigeren und leistungsfähigeren 860-Prozessoren übergehen, wobei dieser Chip-Wechsel natürlich Konsequenzen auf unterster Ebene nach sich zieht - etwa ein Jahr rechnet man für die Umstellung.

In Konkurrenz dazu steht Parsytec mit der "Supercluster-Serie" von T800-Transputern, von denen 16 Elemente ein Computing-Cluster bilden. Vier davon lassen sich zu einem Supercluster von insgesamt 64 Prozessoren zusammenschließen. Das System ist beliebig erweiterbar. Weltweit hat Parsytec etwa 70 Mitarbeiter. Die Anzahl der Anwender von Parsytec-Rechnern wird auf etwa 700 geschätzt. Seit Mai 1990 gibt es eine Tochterfirma in der DDR. Laut Geschäftsführer Kübler soll es auch in Zukunft bei der nächsten Transputer-Generation keine Vektorisierung geben.

Ein weiterer Konkurrent in der Parallelrechner-Szene ist der "TX3" von iP-Systems, die inzwischen nach Kiel umgezogen sind. Dieser Rechner mit Baumstruktur soll Ende dieses Jahres auf den Markt kommen, nachdem man schon seit Jahren auf ihn wartete. Die Architektur des Rechners wurde schon am Vorgänger "TX2" erprobt. Er stellt eine interessante Alternative zu Suprenum dar, was besonders auch bezüglich der öffentlichen und privaten Förderungen gilt, die um einiges niedriger als bei Suprenum sind.

Bewährt hat sich die Hypercube-Architektur von Intel - trotz der Kommunikationsschwäche -, die inzwischen mit den 860-Chips ausgestattet ist. Nach Schuller gibt es weltweit mehr als 200 Installationen, acht davon in der Bundesrepublik und insgesamt 25 in Europa. Mit Darpa-Fördergeldern soll ein 150-Gflop-Rechner entwickelt werden, der 1991 auf den Markt käme. Schuller wies darauf hin, daß der Nachfolgeprozessor 870 zusätzliche Optionen hinsichtlich der Unterstützung der Parallelverarbeitung haben wird.

Eine interessante Entwicklung im Bereich der Programmpakete für die lineare Algebra diskutierte Christian Bischof vom Argonne National Laboratorium in Argonne.

"Lapack" heißt eine portable, allgemein verfügbare (Public domain) Programmbibliothek, die auf die neuen Rechnerarchitekturen zugeschnitten ist. Dort werden in den Grundroutinen die LeveI-3-BLAS (Basic Linear Algebra Subroutines) benutzt, in denen Matrix-Matrix-Multiplikationen zum Einsatz kommen.

In der Linpack-Programmbibliothek werden an dieser Stelle immer Vektoroperationen eingesetzt. Das Verhältnis der Speicherzugriffe zu den Rechenoperationen ist bei Linpack 3:2, bei Lapack dagegen 1,5:n, wobei n die Dimension der Matrizen ist. Diese Relation spielt eine große Rolle, da Speicherzugriffe immer dann kritisch sind, wenn ihnen nicht genügend Rechenoperationen gegenüberstehen.

Die Mannheimer Supercomputer '90 bot natürlich auch Firmenpräsentationen, von denen hier einige erwähnt sein sollen:

Die Gesellschaft für numerisch-intensive Anwendungen und Supercomputing (Genias) wurde von Prof. Wolfgang Gentzsch in Neutraubling gegründet. Er ist durch seine Benchmark-Aktivitäten bekannt geworden, bei denen er fast jeden Parallel- und Vektorrechner testete. Das Unternehmen will bei numerisch intensiven Anwendungen und Supercomputing beraten sowie Software entwickeln, die neueste Algorithmen für die jeweiligen Architekturen beinhaltet. Daneben soll Altsoftware optimiert, vektorisiert und sogar paraldie Kommerzialisierung wissenschaftlicher Software und das Training von Anwendern hat Gentzsch sich auf die Fahnen geschrieben. Es ist sicherlich interessant zu beobachten, wie die deutsche und europäische Industrie auf dieses Angebot reagiert.

Oracle konnte berichten, daß sein Datenbankprodukt inzwischen auf einem Ncube-2-Parallelrechner installiert ist.

Im regionalen Rechenzentrum der Universität Köln wird wohl ein Supercomputer von NEC aus der SX3-Serie installiert, nachdem schon eine ETA, bestellt worden war.

Derek Robb von der Cray Research berichtete über die neue "CRAY Y-MP2E". Interessanter war die Aussage, daß die Y-MP auch mit speziellen Prozessoren ausgestattet werden kann, die existierende Funktionseinheiten ersetzen. So wurde beispielsweise eine Bit-Matrix-Multiplikationseinheit gebaut. Unicos und auch der Compiler unterstützen dann diese spezielle Funktionseinheit.

Rüdiger Rohrbach von Siemens stellte das lang erwartete Mehrprozessor-System von Fujitsu vor, allerdings handelte es sich lediglich um zwei Vektorprozessoren. Die "S600" als größtes Modell soll eine Spitzenleistung von 5 Gflops erreichen, der Hauptspeicher kann bis auf 2 GB ausgebaut werden. Diese Rechner dürften wohl im nächsten Jahr an der Rheinisch-Westfälischen Technischen Hochschule (RWTH) in Aachen und beim Regionalen RZ für Niedersachsen RRZN an der Universität Hannover die jetzigen VP200-EX-Rechner ablösen.

James Almond von der Universität Texas in Austin sprach über Planungs- und Beschaffungskriterien, wobei er darauf hinwies, daß sich der Wert eines Rechners schnell reduziere. Nach seiner Meinung beträgt die Halbwertzeit eines Rechners 1,5 Jahre. Schlußfolgerung: Forscher arbeiten immer mit veralteten Rechnern.

Der Zentralisierung der Rechnerressourcen stehen die "Killer-Mikros" auf dem Schreibtisch oder in der Abteilung gegenüber. Deren Benutzerschnittstelle ist oft besser, die

Verweilzeit von Jobs geringer. Das bedeutet für zentrale Großrechen-Anlagenbetreiber, zukünftig große Anstrengungen zu unternehmen, nicht nur die Verweilzeiten von Jobs zu reduzieren, sondern zusätzliche Dienstleistungen anzubieten. "Killer-Mikros" und Workstations müssen in ein schnelles Netz integriert werden, damit für die jeweilige Anwendung der richtige Rechner zur Verfügung steht.

Martin Bürkle von der Universität Kaiserslautern berichtete über die Anwenderschulung in seinem Rechenzentrum. Ein Anwender, der Rechenleistung in hohem Maße von derart teuren Geräten nutzt, muß Zeit investieren, seine Programme zu optimieren. In das Ausbildungsprogramm gehören Themen wie:

Rechnerzugang über Netze, Kommandosprache, Datenhaltung, Compilersteuerung, Rechnerarchitektur mit ihren Engpässen und Möglichkeiten, Speicherhierarchien, Vektorisierungsmöglichkeit von Hard- und Software,

Datenflußanalyse und Vektorisierungstools.

Große Probleme bereiten "alte Schinken" - mit strukturierten Programmen werden die Compiler immer besser fertig. Es sei zu überlegen, ob es nicht sinnvoller ist, den Benutzer algorithmisch zu schulen und nicht auf eine Spezialhardware umzustellen. Effiziente Implementierungen von Programmbibliotheken bringen oft - ohne wesentliche Änderungen der Programme - erhebliche Geschwindigkeitssteigerungen von Programmen.

Die Probleme der Basis- und Anwendersoftware beleuchtete Uwe Harms von der IABG in Ottobrunn, die einen Supercomputer VP200 betrieb, denn in einem Nebensatz erwähnte er, daß das Rechenzentrum der IABG vom Debis-Systemhaus zum 1. Juli 1990 übernommen wurde.

Bei der Anwendersoftware wird einmal zwischen Blackbox-Programmen unterschieden, die entweder der Hersteller als optimierte Programmbibliothek (beispielsweise "Scilib" von Cray) oder Softwarehäuser ("Nastran" oder "Marc" etc.) dem Anwender zur Verfügung stellen. Hier hat der Kunde keine Möglichkeit, die Software zu verbessern - er ist dem Lieferanten ausgeliefert.

Bei eigenen Programmen sieht Harms gute Möglichkeiten zur Leistungssteigerung. So ist es dem Team in der IABG gelungen, ein Anwenderprogramm vom Faktor 3 zur Skalareinheit des VP200 (vergleichbar mit einer skalaren IBM 3090) bis zum Faktor 30 zu verbessern. Bei einer solchen Optimierung zahlt sich der Architekturvorteil der Supercomputer und damit auch deren Wirtschaftlichkeit erst richtig aus.

Die Bereitstellung der Rechnerleistungen ist jedoch eine Sache, die Deutsche Bundespost eine andere. Für Datenleitungen mit Mbit-Raten werden dem Kunden immense Kosten in Rechnung gestellt, die einen Zugriff zu Supercomputer-Zentren behindern - da lohnt sich dann schon ein Minisupercomputer vor Ort. Außerdem stellt sich das Problem der langen Wartezeiten bis zur Installation derartiger Leitungen - in Fachkreisen spricht man von fast einem halben Jahr.