Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

15.07.1988 - 

Seminar über Höchstleistungsrechner an der Uni Mannheim:

Parallel-Supercomputer zeigen Schwächen

MANNHEIM (CW) - Mehr ab 110 Supercomputerfans pilgerten auch in diesem Jahr wieder nach Mannheim, um spektakuläre Ergebnisse von Anwendern oder brandheiße Informationen von den Herstellern zu erhalten. Leider scheint sich aber diese Tagung immer mehr zu einem Herstellerforum zu entwickeln.

Weltweit sind derzeit mehr als 300 Supercomputer installiert, erläuterte Seminar-Organisator Hans Meurer in seinem Szene-Überblick. Marktführer ist danach Cray mit einem Anteil von knapp 60 Prozent, gefolgt von Fujitsu mit der VP-Serie (19 Prozent). Control Data/Eta bringen es auf etwa 15 Prozent und Hitachi sowie NEC zusammen auf 7 Prozent. In der Länderstatistik liegen die USA mit 48 Prozent aller Systeme auf Platz 1, das Hochtechnologieland Japan verfügt über 26 Prozent der Superrechner, während sich die Bundesrepublik, Großbritannien und Frankreich mit jeweils 7 Prozent begnügen.

Interessant ist die Entwicklung in der Bundesrepublik: Gegenüber 16 Systemen im Vorjahr sind jetzt 21 Höchstleistungsrechner in Betrieb. Besonders die Automobilindustrie hat auf diesem prestigeträchtigen Gebiet gleichgezogen.

Der Deutsche Wetterdienst in Offenbach hatte im vergangenen Oktober eine Eta 10 installiert. Aufmerksam wurde registriert, daß niemand von dieser Institution an dem Mannheimer Seminar teilnahm, sind doch eine Reihe von Fragen zur Funktion der Eta 10 für das Auditorium von hohem Interesse. Gerüchteweise verlautete nämlich, das CDC-System würde die Anforderungen nur unzureichend erfüllen und sei vom Wetterdienst auch noch nicht abgenommen.

40 Mini-Supercomputer in der Bundesrepublik

Stark angewachsen ist jetzt auch in der Bundesrepublik die Zahl der installierten Mini-Supercomputer: Mehr als 40 haben inzwischen ihren Weg zu den Kunden gefunden. Ein Geheimnis der Hersteller bleibt indes, wie viele davon auch tatsächlich verkauft wurden.

Den Markt teilen sich im wesentlichen Convex, Alliant, GEI und Floating Point Systems. Weitere Anbieter wollen mitmischen, doch ist noch offen, wer sich hier durchsetzen kann. Betriebssoftware, Compiler, Anwendersoftware und nicht zuletzt der technische- und Software-Support in Deutschland entscheiden über Umsatz und Existenz.

In Schweigen über die installierten Vektorzusätze für die 3090-Systeme hüllte sich IBM auch auf dieser Veranstaltung. Nach der Diebold-Statistik sollen in der Bundesrepublik zwar etwa 270 Systeme der 3090, aber nur 15 Vektorzusätze verkauft sein. Das ist, verglichen mit dem Marketing, sehr wenig. Auch hört man mitunter, daß die Möglichkeit der Vektorverarbeitung nicht wie erforderlich genutzt wird und der Zusatz ohnehin kaum mehr als die doppelte Leistung gegenüber der skalaren 3090 bringen soll.

Neue Perspektiven im Supercomputing, um Länder- und Institutionsgrenzen zu überschreiten, entwickelte Adolf Schreiner von der Universität Karlsruhe in seinem Referat. So sind die Rechner der Kernforschungsanlage Karlsruhe (Siemens VP 50), der Universität Kaiserslautern (Siemens VP 100), der Universität Stuttgart (Cray 2) und der Universität Karlsruhe (derzeit Cyber 205, demnächst VP 400 EX) miteinander verbunden, die beiden letztgenannten durch ein Hochgeschwindigkeits-Glasfasernetz .

Aufmerksamkeit erregte die These, daß eine Verdoppelung des Hauptspeichers zu größeren Produktionssteigerungen führt als die Verdoppelung der Vektorpipeline, also der Rechenleistung. Dieses wurde am Beispiel der Cyber 205 deutlich: Einem Zuwachs von 47 Prozent stehen nur 22 Prozent bei der Steigerung der Arithmetikleistung gegenüber.

Als neues Anwendungsgebiet für das Vektorrechnen stellte Jürg Grossmann, von der Ecofin Forschungs- und Beratungs-AG in Zürich, das Information Retrieval vor. Dabei ist noch intensive Forschungsarbeit bis zur praktischen Einsatzfähigkeit zu leisten. Texte und Literaturstellen können dann unter Berücksichtigung eines Vektormodells in natürlicher Sprache formuliert werden. Die Dokumente werden als Vektoren repräsentiert, jeder Deskriptor spannt eine Dimension des Vektorraumes auf. Bei einer Abfrage wird die Ähnlichkeit zwischen Dokument und Abfrage berechnet. Aus einer hohen Ähnlichkeit wird dann auf eine große Relevanz des Dokuments geschlossen. Diese Ahnlichkeitsberechnungen sind gut vektorisierbar. Laut Grossmann können Beschleunigungsfaktoren von etwa 10 erreicht werden.

Die Vorträge von Kenichi Miura (Fujitsu) und Hugh Walsh (IBM) erfüllten nicht die Erwartungen der Teilnehmer, über aktuelle Pläne und Vorhaben der beiden Unternehmen informiert zu werden. Dagegen zeigte Denis W. Duke von der Florida State University, daß Eta noch sehr viel tun muß, um das Multitasking auf den Eta-10-Systemen zu ermöglichen. Beachtet wurde die Aussage, daß die Multitasking-Experimente der Universität ohne Unterstützung des Betriebssystems durchgeführt wurden.

So modifizierte die Universität auch den FTN200-Compiler (von der Cyber 205 bekannt) derart, daß der gemeinsame Speicher und die Kommunikationspuffer über die "berühmten" Q8-Befehle angesprochen werden konnten. Die Eta-Multitasking-Bibliothek und die Direktiven sollen im dritten Quartal 1988 freigegeben werden. Die Direktiven werden als Kommentarkarten in den Fortran-Quellcode eingestreut, wie es auch schon von anderen Herstellern bekannt ist.

Weitere Themen waren die Computeranimation, realisiert in Fortran auf einem Alliant-Minisupercomputer, die regionale Klima- und Umweltforschung auf dem Vektorrechner der DFVLR - es wurde die Schadstoffverteilung und die Windrichtung im Rhein-Main-Gebiet untersucht - sowie die Anforderungen der Aerodynamiker an Supercomputer für den Entwurf von Flugzeugen.

Hier sprengt der Bedarf an Zentralspeicher und Rechenzeit selbst bei optimalen Programmen alle Reserven: Eine Navier-Stokes-Flugzeugsimulation mit 2 Millionen Gitterpunkten braucht in doppelter Genauigkeit fast 500 Megabyte Speicher bei 160 Stunden Rechenzeit auf einem Supercomputer VP200, obwohl das Programm stark vektorisiert ist und etwa 25mal schneller sein soll als auf einer üblichen IBM 3090. Auch beim rechnerunterstützten Entwurf integrierter Schaltungen lassen sich die derzeitigen Supercomputer effektiv einsetzen.

Am sogenannten Industrienachmittag stellten 14 Hersteller ihre neuesten Produkte vor - Spektakuläres fehlte. Mit großem Interesse wurden die Ankündigungen der beiden deutschen Supercomputerentwickler erwartet. Nachdem im letzten Jahr iP-Systems aufhorchen ließ, erwartete man in diesem Jahr die ersten Ergebnisse des TX3. Doch leider ist das System noch nicht in voller Ausbaustufe verfügbar. An 16-Prozessor-Systemen liefen bereits Tests, doch die Programme waren in Pascal geschrieben. Der Fortran-Compiler ist offensichtlich noch nicht marktreif.

Ein erster TX3 soll nach Herstellerangaben voraussichtlich Ende dieses Jahres im Rechenzentrum der Universität Stuttgart installiert werden, um parallele Architekturen und Algorithmen zu untersuchen. Der Preis für ein System mit mehr als 500 Prozessoren wird dem Vernehmen nach rund vier Millionen Mark betragen, mit leistungssteigernder Numerikoption kommen noch zwei Millionen hinzu. Bei diesen Preisen fragten sich die Fachleute, wer die potentiellen Käufer sein könnten.

Ähnliche Informationen gab es von Suprenum. Auch hier ist nur ein Teil eines Clusters von 16 Prozessoren realisiert. Ein erstes, vollständiges Cluster soll im nächsten Jahr fertig sein. Über die hardwaremäßige Verknüpfung mehrerer Cluster zum echten Suprenum-Rechner herrscht noch Unklarheit. Insgesamt wirkt es nach außen, als seien noch eine ganze Reihe technischer Fragen offen.

Die Euphorie, mit der man vor Jahren angetreten ist, scheint inzwischen verflogen. Die Fachwelt wartet nun auf meßbare Ergebnisse und nicht auf Hochglanzbroschüren.