Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

18.10.1991 - 

Ergebnisse einer Podiumsdiskussion

Supercomputer: Der Weg geht in Richtung massiv-paralleler Systeme

MANNHEIM - In einer Podiumsdiskussion anläßlich des Kongresses Supercomputer '91 in Mannheim stellten die Vertreter der beiden Hauptströmungen bei Supercomputern ihre Einsehätzung der künftigen Entwicklungen vor.

Auf der einen Seite waren Befürworter der Shared-Memory-Systeme mit moderater Parallelität, zu denen Cray, Fujitsu, Convex und Alliant gehören. Die massiv-parallelen Systeme mit lokalem Speicher auf der anderen Seite von Intel und Thinking Machines hatten ebenfalls Fürsprecher. Durch die Darstellung der Sichtweisen beider Seiten wurden die unterschiedlichen Entwicklungsrichtungen, aber auch der Weg hin zu massiver Parallelität für Spezialanwendungen aufgezeigt.

Der Anwender will keine neuen Sprachen mehr lernen

Steven Wallach von Convex überließ die Entscheidung über den richtigen Parallelrechner dem Anwender: "Es wird die Rechnerarchitektur gewinnen die einfacher zu programmieren ist." Er stellte sich auf den Standpunkt des Nutzers, der keine neue Programmiersprachen lernen möchte, für den Portabilität zwischen Parallelrechner-Architekturen wichtig ist. Auch die "Dusty-decks", sprich: der Fortran-Spaghetti-Code, müsse vom Compiler optimal umgesetzt werden. Für Wallach ist die Leistungsfähigkeit des Compilers besonders wichtig. Eine globale Abhängigkeitsanalyse erfordere zwar große Aufwendungen, sei aber bei den modernen Architekturen unumgänglich. Auch Convex will ein massiv-paralleles System anbieten und in die konventionellen Rechner eng integrieren. Diese Architektur ließe sich dann relativ einfach auf Tflops-Rechnerleistungen erweitern. Beachtenswert ist seine Überlegung, was optimaler ist: 10 000 Prozessoren mit jeweils 1 MIPS, also 10 000 MIPS, oder 100 Prozessoren mit jeweils 100 MIPS was auch 10 000 MIPS ergibt. Er klassifizierte die Parallelrechner von "moderat" mit vier Prozessoren über "modest", "massiv" bis hin zu "masochistisch" mit 4096 Prozessoren. Für ihn werden im Jahr 2000 TB und Tflops erreichbar sein. Das Betriebssystem solle Unix sein mit Fortran und C als wesentlichen Programmiersprachen.

Für Justin Rattner von Intel haben nur massiv-parallele Systeme eine Zukunft. Schon 75 Intel-IPSC-860 Hypercube-Rechner wurden bislang weltweit verkauft. Er erwartet, daß der Nachfolger des i860 etwa die Spitzengeschwindigkeit eines Prozessors der Cray Y-MP erreichen wird. Dieses "Touchstone-Projekt" soll Ende des Jahres realisiert sein. Die ersten "Sigma"-Rechner würden noch in diesem Jahre intern getestet, Beta-Versionen der Produktionsrechner sollen Mitte 1992 installiert werden. Er erwartet eine Spitzenleistung von 150 Gflops bei einer 64-Bit-Arithmetik. Die Speicherkapazität soll dann insgesamt 64 GB betragen. Mit dem Sigma-Rechner will Intel die erste skalierbare und parallele Version des Unix-Betriebssystem als Knotenbetriebssystem einsetzen. Pro Rechnergeneration erwartet Rattner eine Leistungssteigerung um den Faktor vier. Mitte der 90er Jahre will man 1 Tflops als Spitzenleistung erreichen, im Jahr 2000 etwa 10 Tflops.

Carl Diem von Cray Research erwartet, daß zur Jahrtausendwende 2 Tflops "sustained" - also in einem realen Programm - erreichbar sind. Für 1993 sieht er 8 bis 9 Gflops und für 1995 80 Gflops als realistische Leistung an. Auch in Zukunft werde Cray an den Universalrechnern mit geringer Parallelität (32 bis 256 Prozessoren) festhalten, die Taktzeiten betrügen 1 bis 2 Nanosekunden. Auf den gemeinsamen Speicher müsse mit einer hohen Bandbreite und geringer Verzögerungszeit zugegriffen werden, bei der C90 würden 8 GB Speicher zur Verfügung stehen. Der Nachfolger der C90, die "Triton", soll eine Spitzenleistung von 64 Gflops erreichen. Dessen Nachfolger, die Triton X, soll bis zu 200 Gflops schaffen.

Neben diesem System arbeitet Cray an einem massiv-parallelen mit mehr als 1000 Prozessoren, 6 bis 12 Nanosekunden Taktzeit, großer verteilter (distributed) Speicher, der aber global adressierbar ist. Der Supercomputer hat für diese Entwicklung Fast" (Future Architecture Study Team) eingesetzt. Weiterhin soll sich das System in die Triton X integrieren lassen. Mit den Erfahrungen aus der Fast-Architektur soll mit einem Spezialprozessor schließlich 1 Tflops sustained geschafft werden. Auch Diem sieht die Probleme bei massiv-parallelen Systemen in der Software, nicht in der Hardware.

Nach Kenichi Miura von Fujitsu besitzt das japanische Unternehmen Erfahrungen sowohl in der Vektorverarbeitung als auch in der massiv-parallelen Vorgehensweise. Er berichtete vom "AP1000", einem zellularen Feld mit 1024 Prozessoren in MIMD-Architektur. Die Kommunikation erfolgt über Message-Passing. Auch Fujitsu will einen höheren Grad von Parallelität in neuen Supercomputern realisieren Offen blieb, ob es zwei Serien geben oder ob das massiv-parallele System in die Vektorrechner integriert wird. Für die Zukunft sieht Kenichi Miura eine hierarchische Struktur mit Vektorprozessoren an unterster und MIMD-Parallelrechnern auf höchster Stufe. Die Architektur allein entscheide nicht über die Führerschaft im Supercomputing, auch Schaltkreistechnologie, Packungsdichte und Kühlungstechnologien wirkten sich aus. Diese Elemente bestimmten die Leistungsfähigkeit des einzelnen Prozessors und die Anzahl der Prozessoren in einem Rechnersystem.

Craig Mundie von Alliant sieht für die Rechnerhersteller eine schwere Aufgabe darin massiv-parallele Systeme und die derzeitigen Supercomputer-Architekturen zu verbinden. Das Schwergewicht werde auf der Compiler-Technologie liegen. Er wies auch auf die Gesetze des parallelen Supercomputing hin (Amdahls Gesetz und Latency-Gesetz). Die Speicherbandbreite sei heute nicht das Problem, sondern die Speicher-Latency. So hat Alliant eine sehr tief gestaffelte Speicherhierarchie bei der FX 2800 vorgesehen: Register, On-chip-Cache, On-board-Cache, Global-Cache, Local-DRAM, geplant sind Remote-DRAM und Network-DRAM.

"Parallelitat ist unerläßlich"

Thinking Machines wurde durch Guy Steele vertreten. "Parallelität ist unerläßlich, der Welt leistungsfahigste Rechner sind parallele Systeme", waren die Kernelemente seiner Aussagen. Auch die "Glaubensfrage" SIMD (Single Instruction Multiple Data) versus MIMD (Multiple Instruction Multiple Data) sprach er an. Dieser Kampf werde sicherlich auf dem Markt entschieden. Es komme darauf an, wie einfach die Systeme zu programmieren und wie teuer sie sind. Heute fehle noch das richtige Softwaremodell für Parallelrechner, denn wichtige Elemente, wie die Lokalität, seien noch nicht richtig definiert. Schließlich könnten Kommunikationskosten die Rechenkosten erheblich übersteigen. Daher sei es sehr wichtig, Daten nur dort zu halten, wo sie benötigt werden. Datenparallele Programmierung von heute entspreche der strukturierten Programmierung der 70er Jahre. Weiterhin sind für Steele gute Compiler und Benutzerschnittstellen zwingend erforderlich. Interessant war der Ansatz, einen Benchmark zum Messen der Benutzerfreundlichkeit aufzustellen: neben Whetstone einen "Softstone".

Auch die Europäer müssen investieren

Für Andreas Reuter von der Universität Stuttgart müssen auch die Europäer in das Supercomputing investieren, sonst sei man aus dem Geschäft heraus. Dazu müsse auch eine Infrastruktur für die Chip-Herstellung geschaffen werden. Eine ausschließliche Konzentration auf das Erstellen paralleler Software und Vernchlässigen von Hardware unsl AtSektur hält er für gefährlich. Bei o rsonalkosten für die Softwar~stellung lägen Wil' heute schon sehr hoch, da könne man in Korea preisgünstiger programmieren lassen. Die Hersteller sähen hier aber gute Chancen für Europa: Die Investitionen insbesondere in die Software seien so hoch, so daß hier eine Arbeitsteilung möglich und nötig sei.

Steele hat weitere Arbeitsfelder in Netzwerken ausgemacht. Hier fehlten Standards für das Verschicken von Batchjobs an irgendeinen Teil der Erde. Dies müsse für den Anwender so einfach werden wie Telefonieren.

Als weitere wichtige Arbeitsgebiete im Zusammenhang mit dem Supercomputing müsse die Ankoppelung von Workstations an die Großrechner und das einfache Zusammenspiel realisiert werden. Statt Daten dürften in Zukunft wohl Bilder an die Workstation übertragen werden - das Ergebnis soll eine Art "Multimedia-Desktop" sein. Das Software-Umfeld von den parallelen Sprachen (Fortran, C) über Tools bis hin zur Kommunikation habe man noch zu realisieren. Durch ein Softwaremodell für die Parallelrechner und dessen Normierung könne dem Anwender geholfen werden, denn dann sei ein Rahmen für die Programmierung festgelegt. Die heutigen Software-Investitionen seien damit auch für die Zukunft gesichert. Eine Aussage war bei allen Herstellern eindeutig: Es geht in Richtung massive Parallelverarbeitung, ob als Spezialprozessorsystem bei den konventionellen Vektorrechner-Herstellern oder als ausschließliches. Auch bei der Speicherstruktur lassen sich Tendenzen erkennen. Die einzelnen lokalen Speicher im Prozessor stellen sich als ein globaler Speicher dar. Die Verwaltung und den Datenaustausch übernehmen dann Compiler und Betriebssystem.