Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

12.07.1991 - 

Japaner setzen bei Number-Crunchern auf Unix

Supercomputer-Anwender benötigen mehr Software und bessere Netze

In der ersten Folge seines Berichtes von den Mannheimer Supercomputer-Tagen (CW Nr. 27 vom 5. Juli 1991, Seite 23: "In Mannheim...) berichtete Dieter Martin* von der aktuellen Lage bei Anwendern von Supercomputern und wohin die technische Entwicklung geht. Im folgenden werden die zukunftsweisenden Großprojekte diverser internationaler Unternehmen beschrieben.

Sverre Jarp von Cern, Genf, berichtete von der Supercomputer-Szene in Japan. Die meisten Supercomputer sind dort installiert und werden im Gegensatz zu Europa überwiegend produktiv im Industriebereich eingesetzt. Auch hat die eigene Computerindustrie sehr leistungsfähige Systeme entwickelt und nutzt den heimischen Markt. Die Mentalität der Japaner und ihr Gruppenverhalten spielen eine große Rolle. Man muß die Mitarbeiter in den Unternehmen sehen, dann die DV-Unternehmen in Gruppen, diese Gruppen wiederum gegenüber dem japanischen Handelsministerium Miti - alle ziehen an einem Strang. Man kann das auch daran erkennen, daß nun die Ergebnisse eines Highspeed-Projektes des Miti von den verschiedenen Herstellern vermarktet werden - sprich: Parallelrechner von NEC und Fujitsu.

Die japanischen Hersteller haben sich für Unix als Betriebssystem entschieden und sehen es nun als Hebel für den Exportmarkt. Die IBM-Kompatibilität ist nicht mehr so wichtig. Das beeinflußt natürlich auch den Mainframe-Markt.

Ein weiteres strategisches Ziel ist die Verfügbarkeit und optimale Implementierung von Third-Party-Programmen. Bisher führt auf diesem Gebiet Cray mit weitem Abstand. So hat die japanische Automobilindustrie Cray-Rechner gekauft, weil dort "Pamcrash" optimiert verfügbar ist. Nissan hat beispielsweise eine Cray X-MP 1, eine X-MP 4 und eine Y-MP 6 installiert. Die japanischen Rechnerhersteller versuchen, durch den Aufbau von Support-Zentren in den USA und Europa die Anwendersoftware auf ihre Systeme zu portieren.

Auch Japaner investieren in massiv-parallele Rechner

Für 1993 erwartet Jarp einen NEC-Rechner mit 8 Prozessoren und 60 Gflops und einen Hitachi-Rechner mit 50 Gflops. Bei Fujitsu stehen mindesten 10 bis 20 Gflops an. Auch die Japaner investieren wie Cray in die massiv-parallelen Rechner, insbesondere in die Softwareunterstützung. Vielleicht werden diese Rechner schon für 1994 angekündigt. Zusammengefaßt ist die japanische Computerindustrie stark, verfügt über eine breite Palette und hat einen gesunden heimischen Markt. Die Supercomputer und die Mainframes entsprechen dem technischen Stand.

Für Europa fordert Jarp, daß die Rechnerdichte erheblich erhöht werden muß und man sich auf die Software- und die Netzwerktechnologie konzentrieren sollte. Portable State-of-the-art-Software ist gefragt, insbesondere bei parallelen Algorithmen. Auch die Systemintegration von PCs über Supercomputer bis zum massiv-parallelen Tflop-Rechner wäre ein interessantes und wichtiges Aufgabengebiet. Erschreckend für die technologische Entwicklung in Europa ist, daß die Japaner mit Hilfe der Supercomputer ihre Produktionszyklen erheblich verkürzen und noch konkurrenzfähiger werden.

In seinem Vortrag "Vektorrechner und Parallelrechner: Gemeinsamkeiten und Unterschiede" arbeitete Friedrich Hertweck vom Institut für Plasmaphysik in Garching heraus, daß bezüglich der Programmierung ähnliche Techniken angewendet werden müssen. So sollten Rechenvorgänge und Datenkommunikation immer überlappt ablaufen. Parallele Programme werden länger, komplexer und sind aufwendiger zu programmieren. Auf seinen Transputer-Systemen ist ihm die Sprache Occam keine Hilfe, leistungsfähige Fortran- und C-Compiler werden gefordert.

Nach Hertwecks Meinung führt der Weg zum parallelen Programm zunächst über die Analyse des technischen Problems bezüglich Parallelität. Dann muß der parallele Algorithmus konstruiert werden, hier ist Innovation notwendig. Im Programm sollte der Parallelismus noch deutlich erkennbar sein. Es muß nämlich noch an die unterschiedlichen Rechner angepaßt und für sie optimiert werden. Nach seiner Meinung können die Parallelrechner die Vektorrechner innerhalb der nächsten zehn Jahre nicht ersetzen.

Hans-Martin Wacker von der GMD, Sankt Augustin, fragte, ob die Vektorrechner die Saurier von morgen sind. In einer Kostenrechnung verglich er eine 25prozentige Nutzung einer Cray Y-MP 2 mit dem Einsatz von zehn IBM-RISC-Workstations. Er kam zu dem Schluß, daß man für ein Viertel des Geldes bei den Workstations die vierfache Leistung erhält.

Entwicklungen bei den Architekturen

Er ging dann noch auf künftige Entwicklungen bei den Spercomputer-Architekturen ein: In den Rechnern, die Cray, Fujitsu, NEC, IBM und Alliant bis 1993 herausbringen wollen, sind unterschiedliche Speicherkonzepte realisiert: gemeinsamer Speicher ohne Cache, lokale Speicher als gemeinsamer virtueller Speicher, gemeinsamer Speicher mit Cache, gemeinsamer Speicher ohne Cache für jeweils vier Prozessoren und lokale sowie ein gemeinsamer Speicher.

Die massiv-parallelen Systeme stehen vor einem großen Aufschwung, sind aber noch nicht allgemein nutzbar. Minisupercomputer werden sicherlich Marktanteile an die Mikros verlieren - so soll eine Convex C2 mit vier Prozessoren langsamer als eine Workstation gewesen sein. Gerade bei den Workstations muß man sorgfältig die Anwendung diskutieren.

Suprenum 256 hat Probleme mit der Stabilität

Weitere Erfahrungen mit Parallelrechnern, insbesondere mit Suprenum 256 und der Connection Machine CM 2, trugen Thomas Brandes und Ottmar Krämer-Fuhrmann vom Parallelrechner-Labor der GMD vor. Insbesonders beim Suprenum-Rechner gibt es noch Probleme bezüglich Stabilität und Leistung. So beträgt die durchschnittliche Standzeit des Systems im Dauerbetrieb rund drei bis fünf Stunden. Auch der Suprenum-Bus ist noch nicht als doppelte Matrixschaltung realisiert, sondern liegt in Ringform vor. Dadurch ergeben sich Wartezeiten bei der Kommunikation zwischen Clustern. Die CM 2 hat sich als stabil erwiesen, Probleme gibt es im Timesharing-Betrieb, der Overhead wird dann sehr groß. Auch bei der Umstellung von einfacher (32 Bit) auf doppelte Genauigkeit (64 Bit) wird die Maschine um den Faktor 20 langsamer. Nur kurz wurde auf die Alliant FX 2816 und den Supercluster eingegangen. Beide Rechner laufen stabil und werden intensiv genutzt.

Auch Thomas Bemmerl von der TU München stellte fest, daß Parallelrechner heute noch isolierte Spezialrechner sind. Die Rechner müssen in Netze eingebunden werden. Die heute noch große Kluft zwischen der Rechnerarchitektur mit lokalem und mit gemeinsamen Speicher dürfte verschwinden. Schon jetzt bewegen sie sich durch das Konzept des virtuellen gemeinsamen Speichers aufeinander zu. Weiterhin werden Standardmikroprozessoren zum Einsatz kommen. Schließlich ist noch ein Standardbetriebssystem für alle Parallelrechner zwingend erforderlich. Heute sind die Parallelrechner noch schwierig zu nutzen und zu programmieren. Das Münchner Institut setzt eine Alliant FX 2800 mit acht Prozessoren und Intel Hypercubes, nämlich IPSC/2 mit 32 Knoten und IPSC 860 mit 16 Knoten ein. Es wird die integrierte Anwendung von verschiedenen Architekturen untersucht. Geplant ist, die Alliant als Host für die Hypercubes zu nutzen. Über ein Netz sind unterschiedliche Rechner eingebunden. So ist es auch möglich, die unterschiedlichen Hypercubes am selben Programm arbeiten zu lassen. Die Rechner werden in diesem Sonderforschungsbereich auch für praktische Probleme der Hochschule und der Industrie genutzt.

Ein wesentlicher Arbeitsschwerpunkt liegt aber in der Entwicklung und Pflege der Software-Umgebung "Topsys" (Tools for Parallel Sytems). Diese integrierte Werkzeugumgebung dient der Nutzung und Programmierung paralleler Strukturen, dazu gehören ein Programmiermodell, ein Debugger, die Leistungsanalyse und die Visualisierung.

Über Erfahrungen mit den so gerühmten Transputer-Systemen verfügt Georg Bader von der Universität Heidelberg. Er stellte fest, daß sich die Kommunikation viel zu langsam realisieren läßt. So entspricht eine Kommunikation etwa 1000 Floating Point Operations, die Start-up-Zeit beträgt nämlich eine Millisekunde. Deshalb heißt die Strategie: "Compute and send ahead". Auch in der Rechenleistung überzeugen Transputer nicht, 1,5 Mflops stehen reale 0,4 Mflops bei Programmen in C oder Fortran gegenüber.

Auch beim Maspar MP-1 ist eine automatische Parallelisierung- wie bei allen SIMD (Single instruction multiple data) nicht möglich. "Dusty decks" oder "Spaghetti-Codes" haben hier keine Chance, meinte Thomas Bräunl von der Universität Stuttgart.

Als Programmiersprache steht neben Fortran und C Parallaxis, eine Erweiterung von Modula-2, zur Verfügung. SIMD-Simulator, Debugger und Visualisierungs-Tools werden bereitgestellt. Da das System erst seit kurzer Zeit im Institut installiert ist, konnten noch keine grundlegenden und allgemeingültigen Erfahrungen vorgestellt werden.