Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

22.02.1991

Viel Information, obwohl einige wichtige Hersteller fehlten Die Superrechner-Szene suchte in Stuttgart den Weg in die Zukunft

Hebt jetzt das Supercomputing völlig ab? Diese Frage stellte sich dem Besucher der Messe- und Vortragsveranstaltung "Supercomputing Europe '91" in Stuttgart. Es wurde nämlich jeder - wie auf dem Flughafen - einer Personenkontrolle unterzogen. Jedes "piepsende" Fünfmarkstück mußte vorgezeigt werden, sogar Kabinen waren aufgestellt.

Solche Hindernisse ignorierten die rund 1500 Messebesucher schlichtweg. Am Tagungsprogramm selbst nahmen etwa 900 Interessenten teil. Auch hier zeigten sich weitere Einflüsse des Golflkrieges, einige Vorträge wurden kurzfristig ohne Begründung abgesagt. So saßen am Donnerstag um 9 Uhr etliche Zuhörer im Tagungsraum, um von Silicon Graphics Vizepräsidenten Forest Baskett zukünftige Trends bei Superworkstations vorgestellt zu bekommen. Erst einige Zeit später kam die Entschuldigung, aber war es nicht möglich, rechtzeitig Ersatz zu bekommen?

In der Szene ist es schon seit Beginn des Golfkrieges bekannt, daß beispielsweise bei Cray oder Convex Flugverbote bestehen. Auch Intel schickte seine Zuhörer am Freitag früher in die Mittagspause. Andere Hersteller zeigten da mehr Flexibilität.

Was gab's nun Neues im Vortragsprogramm, von den 26 Beiträgen sollen hier nur einige Highlights aufgeführt werden. Dr. Bopp vom Baden-Württembergischen Wissenschaftsministerium berichtete über die Vorbereitungen an der Universität Stuttgart, einen Nachfolger für die Cray 2 für 1993 zu beschaffen. Er sprach auch die Kosten an. Nach seiner Meinung verdoppeln sich die Kosten der Superrechner pro Generation, eine Schmerzgrenze für die öffentliche Hand sei schon jetzt erreicht. Das steht eigentlich im Widerspruch zur sonst üblichen Erfahrung in der Computerbranche, daß zwar die Leistung, aber kaum die Preise steigen.

Von Cray Research war John Rollwagen, Chairman und CEO angekündigt - auch er durfte nicht nach Europa fliegen. So wurde eine Videokonferenz via Satellitenverbindung eingerichtet, die auch Steve Nelson später nutzte. Rollwagen sprach die Änderungen in der Welt an, die sich durch das jetzige Informationszeitalter ergeben. Die Kultur und die Aufgaben der Menschen ändern sich, und die Supersomputer-Spezialisten stehen an der Spitze dieser Entwicklung.

Das Supercomputing mit der numerischen Simulation hat sich inzwischen als dritte Wissenschaftskraft neben Theorie und Experiment durchgesetzt. Die numerische Simulation ist oft realer als "real life", war ein Statement von Rollwagen. Ein weiterer Wunsch von ihm wurde plakativ formuliert, Bilder hinein in den Rechner und Bilder wieder hinaus. In diese Richtung weist das Paket Unichem für die Computational Chemistry, ein Visualisierungs- und Simulationshilfsmittel, das übrigens in Stuttgart seine Premiere hatte.

Als weiterer Sprecher von Cray Research zeigte Steve Nelson, Leiter des Projektes massiv paralleler Rechner, die Überlegungen seines Unternehmens zu Teraflop-Leistungen auf. So wird auch bei Cray eine massivparallele Rechnerarchitektur entwickelt, die im Gegensatz zur bekannten Produktlinie für Spezialanwendungen eingesetzt werden soll. Probleme hier sind die Prozessorleistung, Speichergröße und Kosten für Verbindungen und Prozessoren. Nach seiner Meinung ist die Parallelverarbeitung im wesentlichen ein Softwareproblem. Dann stellte er noch Pro und Contra von SIMD- (Single Instruction Multiple Data) und MIMD- (Multiple Instruction Multiple Data) Strukturen bei massiver Paralelität gegenüber SIMS heißt einfache parallele Programmierung, aber hohe Synchronisationskosten - warten auf den letzten Prozessor statische Aufteilung und Schwierigkeiten bei Verzweigungsoperationen. MIMD kann dagegen gut Verzweigungen abarbeiten Befehlsparallelitäten ausnutzen dynamisch das System und die Betriebsmittel aufteilen und günstig vollständige synchronisation einsetzen.

Demgegenüber sind MIMD-Rechner komplexer zu programmieren und lokal zu synchronisieren, auch müssen die Prozessoren komplizierter sein - man denke da nur an lokale Speicher und Kommunikationsmöglichkeiten. Als Architektur sieht er eine Vielzahl von Prozessoren mit lokalem Speicher, die über ein Netzwerk verbunden sind. Projektziele sollen unter anderen sein: die enge Koppelung von Vektorrechner und massiv parallelem Rechner, die Integration in eine echte Produktionsumgebung sowie die Einbindung der bisherigen Erfahrungen in Programmanalyse und Compilations-Know-how. Auch die Kundenwünsche und Anforderungen sollen in das Projekt einfließen.

Die Überlegungen von Steve Nelson zur Parallelverarbeitung wurden hier etwas breiter ausgeführt, da sie grundsätzlicher Art und daher eigentlich unabhängig von Cray sind.

Nun noch ein paar Sätze zur C90 oder Cray Y-MP/19, wie sie jetzt heißt. Wie schon manchem bekannt ist, verfügt sie über 16 Prozessoren, von denen jeder l mindestens 128 MB adressieren kann, doppelt ausgelegte Vektor-Pipelines, Registerspeicher mit 128 Worten, vier Ports zum Speicher doppelt ausgelegt, Speicher mit mehr als 2 GB, 1024 Speicherbänke, Spitzenleistung 16 Gflops. Vermutlich wird diese Maschine Mitte bis Ende dieses Jahres angekündigt. Auch die Cray YMS als Minisupercomputer (Nachfolger der XMS -Supertek-Maschine), binärkompatibel zur Cray Y-MP wird sicherlich zur gleichen Zeit vorgestellt werden.

Geclusterte Mainframes arbeiten an einem Problem

Von der japanischen Konkurrenz NEC zeigte Akihiro Iwaya einige Entwicklungen bei Parallelrechnern auf. Problematisch wird auch in der Zukunft der semantische Graben zwischen existierenden Programmen und den Vektor-Parallelrechnern sein. NEC wird in Kürze sein Vier Prozessor-Vektorrechnersystem der SX-3-Serie mit der Spitzenleistung von 22 Gflops in Betrieb nehmen. Als Betriebssystem ist Super UX vorgesehen, auf der Basis von AT&Ts Unix System V sowie mit den 4.3-BSD-Funktionen. An der Universität Köln ist ja seit Ende letzten Jahres ein System SX-3/1L mit - nach Herstellerangaben - 680 Mflops in Betrieb, das möglicherweise sogar mehr als 1 Gflops leistet.

Eines der Parallelrechnersysteme Cenju erinnerte stark an die Suprenum-Architektur, wo mehrere Prozessorelemente in einem Cluster über einen Cluster-Bus verbunden sind. Auch wurden Motorola- und Weitek-Chips benutzt. Das System wird zur Schaltkreis-Simulation benutzt. TIP4 ist ein Datenflußrechner mit acht Prozessoren pro Cluster für die Bildverarbeitung, HAL wird für die logische Simulation eingesetzt und besteht aus 128 Prozessoren.

Auffallend viele Anbieter von Parallelrechnern

Inzwischen hat IBMs EASI (European Academic Supercomputer Initiative) schon 18 Universitäten und Forschungseinrichtungen mit Großrechnern ausgestattet, nun auch die Hochschulen in Prag, Budapest und Warschau. Mit einer ähnlichen Initiative wird jetzt auch die Industrie angegangen. Sie soll ermutigt werden, IBM-Supercomputer (besser: Vektorzusätze) zu nutzen. Vom alten 3090-Vektorzusatz sollen laut Janßen weltweit etwa 500 Prozessoren installiert sein.

Siemens Nixdorf bieten ja bekanntlich die Vektorrechner von Fujitsu an. Eric Schnepf ging besonders auf das Zwei-Prozessor-Vektorrechnersystem ein, das mit vier Skalarprozessoren ausgestattet werden kann.

Für IBM stelle Dr. Janßen vom ISAM (Institut für Supercomputing und angewandte Mathematik) die Grundarchitektur der neuen IBM-390-Serie vor. Auch auf die neue, RS16000 RISC-Workstation ging er ein . Ein interessanter Aspekt ist die Cluster-Bildung von großen IBM-Rechnern (3090 oder 390), derzeit können bis zu 24 Prozessoren verknüpft werden und an einem Programm arbeiten. So kann man sicherlich bald über WANs (Wide Area Networks) von dieser Art der Parallelverarbeitung profitieren. Man denke an eine Nutzung der Hochschulrechner in Aachen, Braunschweig und Wien für ein Programm. Auch das "clustered Fortran" unterstützt solche Lösungen. Diese können dann abwechselnd die Vektorprozessoren nutzen. Die Spitzenleistung soll bei 5 Gflops liegen. Im Sommer dieses Jahres wird wohl UPX/M, das Unix Betriebssystem für die Vektorrechnerserie, freigegeben, das die üblichen Erweiterungen enthält. Ende dieses Jahres sollen übrigens die Parallel-Vektorrechner hier in Deutschland installiert werden.

Bei Convex wartet die Fachwelt noch auf die C3xx sowie deren Architektur- und Leistungsdaten. Über das Open Supercomputing wurde schon des öfteren geschrieben. Alliant hatte schon vor einem Jahr die FX2800 auf der Basis von Intel 860-Chips angekündigt, also auch nichts Neues. Was auffiel, waren die vielen Parallelrechner-Anbieter, die sowohl im Tagungsprogramm als auch auf der Messe vertreten waren: Maspar, Thinking Machines, Ncube, FPS, BBN.

Auch Hochgeschwindigkeitsnetzwerke unter anderem von Ultra Network waren Vortragsthemen. Diese gewinnen immer größere Bedeutung, da Frankreich für Ende 1991 ein nationales Projekt startet, in dem 34 bis 100-Mbit/s Übertragungen realisiert werden sollen. Auch Großbritannien leitet ähnliche Aktivitäten ein. Dort wird ein Ansatz mit üblichen Vektorrechnern und massiv parallelen Systemen in einem Forschungszentrum (Atlas Center, Rutherford) geplant.

Einige Anwenderberichte aus dem Gebiet der Flüsse in technischen Systemen und der laminar turbulenten Strömungen unterstrichen sehr deutlich die These von John Rollwagen, daß die numerische Simulation als dritter Weg in der Forschung nicht wegzudenken ist.

Am Freitag sorgte schließlich Professor Andreas Reuter, Direktor des Instituts für parallele und verteilte Höchstleistungsrechnersysteme der Universität Stuttgart, für Aufregung. Er ritt eine heftige Attacke gegen die Parallelverarbeitung, nach seiner Meinung steht man bei diesen Rechnern noch im Assembler-Zeitalter. Große Leistungseinbrüche sind normal. So müssen vorgegebene Programme auf die Prozessoren abgebildet werden, die Geometrie der Prozessoren, die Kommunikation und die Dekomposition müssen berücksichtigt werden. An einigen sehr einfachen Beispielen bewies er seine These, aber die Welt ist nach Meinung anderer Experten komplexer. Eine offene Frage scheint noch zu sein, was passiert, wenn bei einem parallelen Programm einer der 1000 Prozessoren ausfällt. Noch lange hinterher wurden seine Thesen bei den Parallelrechner-Herstellern und auch Nutzern sehr kontrovers diskutiert - er leitet schließlich ein Parallelrechner-Institut und dort ist schließlich ein Maspar MP-1 Parallelrechner installiert.

Nach dieser Betrachtung der Vortragsveranstaltung nun ein Besuch der Messe. Was gleich auffiel, waren die Firmen, die durch Abwesenheit glänzten. So wurden unter anderem Hitachi mit seinen Supercomputern - wollen sie nicht mehr auf dem europäischen Markt anbieten, in Utrecht vor zwei Jahren waren sie noch dabei -, Digital Equipment mit seinem Vektorzusätzen der 6000- und 9000-Serie, Intel mit seinem Hypercube IPSC/860, Thinking Machines, die wenigstens zwei Vorträge beisteuerten, Sequent, Concurrent und Suprenum vermißt.

Ruhmloses Ende eines deutschen Projektes

Doch die Suprenum-Mitarbeiter fand man unter neuer Flagge auf dem Meiko-Stand; 19 von ihnen arbeiten jetzt unter Leitung von Ulrich Trottenberg in einem neuen Unternehmen, Pallas - Gesellschaft für Parallele Anwendungen und Systeme. Die Firma wird am 1. März 1991 ihre volle Geschäftstätigkeit aufnehmen. Ein Rest von etwa zehn Mitarbeitern verbleibt bei Suprenum, um die vier ausgelieferten Systeme zu betreuen - leider ein ruhmloses, mehr sang- und klangloses Ende eines großen deutschen Projektes. Wahrscheinlich sind auf Jahre hinaus für derartige innovative Projekte keine Gelder mehr vom Bundesministerium für Forschung und Technologie erhältlich.

Auf die Meiko-Rechner hat Pallas übrigens schon einige Bibliotheken, unter anderem Slap für die lineare Algebra mit Level 1-, 2- und 3-Blas ( Basic Linear Algebra Subroutines) portiert. Pallas bietet Dienstleistungen auf dem Gebiet der parallelen Software, Schulung, Beratung und Meiko-Parallelrechner an. Mal sehen, ob Trottenberg mit dieser Firma ein glücklicheres Händchen als mit Suprenum hat - vielleicht eine Konkurrenz für Genias, die Gesellschaft für numerisch intensive Anwendungen und Supercomputing von Wolfgang Gentzsch aus Regensburg?

Bisher hat Wolfgang Wöst mit IP Systems (Integrated Parallel Systems KG Wöst) durchgehalten, in Stuttgart präsentierten er und seine Mannschaft den TX3, einen Baumrechner mit Intel-860-Prozessoren. Kurz vor der Messe war das erste Acht-Prozessor-System fertiggestellt worden.

Diese Entwicklung stand immer im Schatten von Suprenum und wurde mit Hilfe von Venture-Capital-Gesellschaften und zum Teil Förderprogrammen von Bundesländern unterstützt. Darum ist IP Systems auch von Karlsruhe nach Kiel umgezogen. Sicherlich ist erheblich weniger Kapital in dieses Projekt geflossen, das aus einer Informatik-Diplomarbeit entstand. Zwei Rechner sollen inzwischen in Kiel verkauft worden sein, einer an die Universität, der andere an ein Unternehmen dort. Ein weiterer wird wohl an die Universität Stuttgart gehen. Nun muß das Unternehmen beweisen, daß Architektur, Hardware, Kommunikation, Betriebssystem, Compiler und Anwendersoftware hinreichend gut, zuverlässig und ausgewogen sind - schließlich hatte auch Suprenum schon Rechner ausgeliefert. Aber erst der "harte" Einsatz zeigt die wahre Leistungsfähigkeit. Vielleicht werden solche Projekte auch einmal in Deutschland von wirtschaftlichem Erfolg gekrönt werden - nicht alles, was aus den USA kommt, ist perfekt.

Weitere Anbieter von massiv parallelen Rechnern auf der Supercomputing '91 waren BBN mit einem Stand-alone-System, bei dem bis zu 512 Prozessoren durch einen leistungsfähigen Butterfly-Switch verbunden sind. FPS bot das System 500 an, ein System, in dem bis zu acht Sparc-Skalarprozessoren, zwei Vektorprozessoren und ein Matrix-Koprozessor (860-Prozessoren) integriert sind. Maspar präsentierte die MP-1 Familie, von 1024 bis zu 16384 Prozessoren, Meiko mit dem Computing Surface auf der Basis des 860-Prozessors von zwei bis zu einer unbeschränkten Anzahl. Weiterhin ist Ncube zu erwähnen, wo zwischen acht und 8192 eigene Prozessoren verknüpft werden können. Parsytec aus Aachen zeigte ein nahezu unbeschränktes Transputernetzwerk.

Was gab es sonst noch Interessantes? Auf dem Siemens-Nixdorf-Stand fand der Besucher auch Mitarbeiter von Fujitsu Deutschland. Sicher war dies eine Überraschung, nachdem ja Fujitsu in München eine eigene Supercomputer-Mannschaft aufbaute - dauerhafte oder nur zeitweilige Kooperation?

Supercomputing '91 brachte keine großen Überraschungen bei den etablierten Herstellern. In die massiv parallele Welt gehen nahezu alle Supercomputer-Unternehmen, auch wenn es vielleicht noch nicht so offiziell wie bei Cray ist.

Massiv parallel ist in, obwohl noch die Programmiererfahrung und die Software fehlen. Auch leisten Compiler noch nicht das, was in der Vektorverarbeitung möglich ist. Mit parallelen Spracherweiterungen, die nicht standardisiert sind, hilft man sich derzeit noch über die Runden.

Massive Parallelität noch nicht universell

Programmpakete aus der guten alten sequentiellen Zeit fehlen noch völlig. Bietet sich dadurch die Chance, alte, unwirtschaftliche und bezüglich der mathematischen Verfahren überholte Software auf den Müll zu werfen? Läßt sich so die Softwarekrise im technisch-wissenschaftlichen Bereich überwinden? Massive Parallelverarbeitung ist noch nicht General Purpose, also universell anwendbar, da werden wir noch einige Jahre warten müssen. Die nächste Supercomputing Europe jedenfalls findet in rund einem Jahr in Paris statt.