Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

27.02.1987 - 

Deutliche Fortschritte bei Parallelrechnern:

Entwickler nähern sich dem 1000-Gigaflop-Ziel

27.02.1987

Jahrelang existierten Parallelrechner mit 100 oder mehr Prozessoren nur in den Köpfen von Wissenschaftlern und auf dem Papier der Designer. Jetzt kann man solche Superrechner auch kaufen. Felix Weber, Wissenschaftsjournalist aus Dielsdorf/Schweiz, beschreibt im folgenden Beitrag einige neuere Entwicklungen auf diesem Gebiet.

Schon der Großvater des Computers, Charles Babbage, soll sich gewünscht haben, daß seine "Analytische Maschine" so gesteuert werden könne, daß sie mehrere Resultate gleichzeitig ausspucken und so den Rechenvorgang abkürzen könne. Auch John von Neumann, der 1947 den ersten wirklich programmierbaren Computer entwarf, kannte die Vorteile der Parallelverarbeitung sehr wohl. Was ihn von der Realisierung abhielt, waren die damit verbundenen hohen Gerätekosten.

Die Möglichkeit der gleichzeitigen Verarbeitung von Instruktionen in mehreren Prozessoren gibt es in den sogenannten Vektorrechnern, welche die Daten in langen Listen - eben Vektoren - anordnen und dann die gewünschte Operation am ganzen Vektor gleichzeitig ausführen. Das Problem ist dabei, daß sich längst nicht alle Aufgaben für eine Vektorisierung eignen. Die Computerbauer möchten sich aber das Prinzip der Parallelverarbeitung allgemein zunutze machen.

Bei der heutigen Miniaturisierung ist es kein Problem mehr, ein paar Dutzend oder auch ein paar tausend Prozessoren auf engem Raum unterzubringen. Schwierig ist es hingegen, all die vielen Prozessoren zu koordinieren und dafür zu sorgen, daß Daten und Instruktionen nicht unnötig herumgeschoben werden. Das beginnt schon

bei der Architektur des Rechners: Sollen die einzelnen Prozessoren individuelle Speicher haben -oder auf einen gemeinsamen Großspeicher zugreifen? Dürfen sie nur mit ihrem unmittelbaren Nachbar-Prozessor kommunizieren oder quer durchs ganze System hindurch?

Dazu gesellen sich Fragen der Programmierung: Sie muß so erfolgen, daß die Prozessoren möglichst gut ausgenutzt werden und nicht einen großen Teil der Zeit arbeitslos sind.

Bis vor wenigen Jahren sah es ganz so aus, als ob man die vielfältigen Anforderungen nie unter einen Hut bringen könnte. Die Verfechter des Parallel Processing - meist Computerspezialisten an Universitäten diskutierten zwar endlos über ihre Traummaschinen, aber weil es diese ja noch gar nicht gab, glichen die Diskussionen jenen mittelalterlichen Debatten, bei denen darüber spekuliert wurde, wie viele Engel denn auf einer Nadelspitze tanzen könnten.

In der Zwischenzeit haben die Entwickler von Parallelcomputern im Zuge von Großprojekten wie der amerikanischen Verteidigungsinitiative SDI und Japans "Fünfter Generation" allerdings gewaltige Fortschritte gemacht und verschiedene gangbare Lösungen gefunden:

- Großes im Sinn haben David Shaw und seine Kollegen von der Columbia University: Ihr Parallelrechner, behaupten sie, könnte im Endausbau bis zu einer Million Prozessoren aufweisen; vorläufig existiert allerdings erst ein Prototyp mit 63 baumförmig verbundenen Prozessoren.

- Allan Gottlieb von der New York University leitet den Entwurf eines

"Ultracomputers" mit 4096 Prozessoren, die alle simultan auf den gleichen Speicher zugreifen können.

- Praktische Erfahrungen mit Parallelrechnern hat man am California Institute of Technology: Der "Cosmic Cube" mit seinen 64 Prozessoren ist dort schon seit drei Jahren im Einsatz.

- Das Goddard Space Flight Center der Nasa setzt für Spezialaufgaben den MPP-Computer von Goodyear Aerospace ein, in dem über 16 000 Prozessoren integriert sind.

- David Kuck und seine Mitarbeiter von der University of Illinois arbeiten an "Cedar", einem Parallelrechner mit Blöcken von je acht Prozessoren, der in seinem Vollausbau gegen Ende des Jahrzehnts 1000 Milliarden Gleitkomma-Operationen pro Sekunde erledigen soll. Dieses Ziel will Kucks Team vor allem mit einer raffinierten Software namens "Parafrase" erreichen, die normale Fortran-Programme so auseinandernimmt und umstrukturiert, daß sie sich so parallel wie möglich verarbeiten lassen.

- In der BRD haben sich mit Förderung des Bonner Forschungsministeriums die Bremer Firma Krupp Atlas Elektronik, das Hamburger Unternehmen Stollmann und die staatliche Gesellschaft für Mathematik und Datenverarbeitung (GMD) zur Gesellschaft "Suprenum" zusammengeschlossen, um 1988 mit einem eigenen Parallelcomputer auf den Markt zu kommen. Dieser soll 256 konventionelle Prozessoren enthalten, die mit tatkräftiger Unterstützung spezieller Logikchips eine Rechengeschwindigkeit von 1 Milliarde Gleitkomma-Operationen pro Sekunde erreichen sollen.

- Auch die Japaner sind mit dem Sigma-1 dabei, der ein Programm vollautomatisch auf 200 Prozessoren aufteilt.

Parallelrechner kann man bereits kaufen

Bereits im Verkauf sind Systeme, der Firmen Intel Scientific Computers, Thinking Machines und Floating Point Systems.

Intels iPSC-Computer gibt es in drei Ausführungen mit 32, 64 und 128 Prozessoren. Die Maschine basiert auf der Idee des bereits erwähnten "Cosmic Cube". Sie wurde vor allem in Hinblick auf technisch-wissenschaftliche Simulationen entwickelt.

Ein anderes Konzept verfolgt die Connection Machine der Firma Thinking Machines. Sie verwendet einfachere Prozessoren, dafür aber viel mehr: Bis zu 64 000 sind in einer zwölfdimensionalen Geometrie, dem sogenannten Hypercubus, angeordnet. Das Interessante an der Connection Machine ist, daß sie die Verbindungen unter den Prozessoren je nach Anwendung selber rekonfiguriert und so mithilft, daß der Computer optimal ausgenutzt wird. Ihr Erfinder, der Amerikaner Daniel Hillis, hatte den Computer ursprünglich für Anwendungen auf dem Gebiet der Künstlichen Intelligenz entworfen. Nachträglich hat sich dann gezeigt, daß er auch andere Aufgaben sehr effizient lösen kann.

Daß die Parallelcomputer von Intel, Thinking Machines und Floating Point Systems auf dem Markt überhaupt gefragt sind, liegt nicht an der Hardware allein, sondern an der Kombination von Hardware und zugehöriger Software. Den Entwicklern ist es offenbar gelangen dem Anwender mehr als nur einen Kasten voll Elektronik anzubieten. Die mitgelieferte Software hilft ihm, die vielen Prozessoren intern so zu organisieren, daß sie auch wirklich als kooperatives Team funktionieren.

Wie wichtig dieser Punkt ist, zeigen Tests, die der Computerspezialist Bill Buzbee mit Parallelrechnern am Los Alamos National Laboratory durchgeführt hat. Danach lohnt sich ihr Einsatz eigentlich nur bei Aufgaben, die fast ausschließlich in Parallelverarbeitung gelöst werden können. Ist das nur zur Hälfte der Fall, so ist nach Buzbees Testergebnissen ein Parallelrechner mit 16 Prozessoren nur noch doppelt so schnell wie ein einzelner Prozessor. Selbst bei 95prozentiger Parallelverarbeitung waren die 16 Rechner nur neunmal schneller als einer allein.

Eine Garantie, daß die Parallelrechner die hochgesteckten Erwartungen nicht nur bei speziellen, besonders günstigen Problemstellungen, sondern auch bei normalen, alltäglichen Aufgaben erfüllen, gibt es also keine. Andererseits zweifeln die Spezialisten aber auch nicht daran, daß die Richtung, die mit dem Parallel Processing eingeschlagen wurde, den Weg in die Zukunft weist.