Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

18.03.1983 - 

Multi-Prozessorsysteme versprechen Ausfallsicherheit und mehr Leistung:

Parallele Architekturen immer attraktiver

Die 80er Jahre stehen Im Zeichen rasant fallender Preise für Computerhardware - vor allem für Prozessoren und Speicherbausteine - und gleichzeitig immer höher steigender Ansprüche an die Rechenleistung. Kein Wunder, daß gerade jetzt uralte Wunschkonzepte der Rechnertheoretiker wieder frische Aktualität gewinnen; Konzepte parallel arbeitender Prozessoren In sogenannten Datenflußmaschinen, mit denen der viel beklagte Engpaß zwischen Speicher und Zentraleinheit, der berüchtigte. Von-Neumann-Flaschenhals", elegant umgangen werden soll.

Frischen Wind ins Lager der Verfechter paralleler Multiprozessor-Architekturen brachte vor zwei Jahren die Ankündigung des als "Micromainframe" titulierten 32-Bit-Prozessors vom Typ "432" (Intel). Denn von da an, so beobachtete das Fachblatt "IEEE-Spectrum, rissen sich mehr als 100 Unternehmen darum, auf Basis dieses Chips neue Mikrosysteme von bislang Großrechnern vorbehaltener Leistung zu konzipieren.

Man wird von ihren Produkten in den nächsten Monaten, nachdem nun die Auslieferung des 432 in größeren Zahlen angelaufen ist, sicher allerhand Interessantes zu hören bekommen. Denn die Architektur der 432-Chips ist ja von vornherein auf den Bau ausfalltoleranter parallel arbeitender Mehrprozessorsysteine hin ausgelegt worden.

Es wachsen dem Baum immer neue Zweige

Billig gewordene CPU-Leistung beflügelt jetzt auch ein Projekt der Columbia University, New York, das in seiner End-Ausbaustufe bis zu eine Million" computing elements" umfassen soll: Es heißt "Non-Von" und dokumentiert schon mit seinem Namen die Absicht, einen "Non-von-Neumann"-Rechner bauen zu wollen.

Dieser Entwurf zielt mit seiner Parallelität der Einzel-CPUs auf höchste Arbeitsgeschwindigkeiten ab und wird mit relativ einfachen Prozessor-VLSI-Chips realisiert. Diese Prozessoren werden in einer baumartigen Struktur angeordnet, wodurch das ganze Konzept, so stellen jedenfalls seine Erfinder sich das vor, bei weiter schrumpfenden Hardwaredimensionen theoretisch immer weiter ausgebaut werden kann: Es wachsen dem Baum halt "einfach immer neue Zweige...

Das jetzt wieder hell erklingende Lied von den Vorzügen paralleler Rechnerkonzepte muß im letzten Jahr aber irgendwie auch die Hersteller konventioneller Mainframes erreicht haben; zumindest beeilten sich eine ganze Reihe von Firmen (IBM, Sperry, Univac, DEC etc.), entsprechende Konfigurationen zu präsentieren. Dabei kann man generell verschiedene Formen des Parallelismus unterscheiden: 0 symmetrische Strukturen mit identischen Prozessoren, die gleiche Funktionen wahrnehmen und sich redlich in die anstehenden Jobs teilen;

- softwareseitig asymmetrische Strukturen, bei denen physisch gleiche Prozessoren auf unterschiedliche Aufgaben dressiert werden und

- völlig unsymmetrische Konzepte mit Spezialprozessoren für die einzelnen Aufgabenbereiche. Ein Beispiel dafür sind Array-Prozessoren, die sich um umfangreiche Vektorrechnungen kümmern, während der Hauptcomputer die übrigen Aufgaben abwickelt.

Acht-Mips-Bit-Slice-Prozessor

Besonders interessant unter den zahlreichen, in letzter Zeit erschienenen Mehrprozessorsystemen ist ein schneller Mini des hierzulande kaum bekannten Unternehmens Masscomp aus Littleton, Massachusetts. Seine CPU setzt sich aus zwei Motorola-Mikroprozessoren des Typs 68000 mit 10 MHz Taktfrequenz zusammen, während ein weiterer 68000er ein Display-Prozessor-Subsystem steuert und schließlich ein bipolarer Acht-Mips-Bit-Slice-Prozessor allein mit Ein- und Ausgabe-Aufgaben betraut ist.

An dieser Maschine ist besonders die der Durchsatzsteigerung dienende Drei-Bus-Struktur bemerkenswert, denn hier ist die Peripherie über einen "Multibus" (ein Standard-Bus aus der Mikrocomputerei) angeschlossen; Echtzeit-Interfaces hängen an einem "STD-Bus", und intern verbindet ein für acht MB pro Sekunde ausgelegter "MC-500-Bus" die einzelnen Teile des Rechners.

Ausfallsicherheit bald ein Muß?

War bisher von Mehrprozessoreinheiten die Rede, bei denen die Steigerung des Durchsatzes das Hauptentwicklungsziel war, so müssen nun jene Systeme beleuchtet werden, die primär auf Ausfallsicherheit abzielen und damit ernste Konkurrenten des bisherigen Nonstop-Matadors Tandem sowie seines eher in den USA bekannten Konkurrenten August Systems aus Salem, Oregon, zu werden drohen. Denn hier finden sich auch die technisch interessantesten Neuentwicklung.

An erster Stelle sei hier der Stratus des gleichnamigen Herstellers aus Natick, Massachusetts genannt; ein Superminisystem aus Prozessormoduln mit jeweils doppelt vorhandener (68000) CPU, Speicher, Steuereinheiten und Peripherie. Alle Systemeinheiten arbeiten in enger Koppelung und kontinuierlich aktive Kontrollschaltkreise auf jeder Leiterplatte sorgen dafür, daß Versager sich nicht fatal auswirken können: Sie schalten das betreffende Board einfach ab.

Ein von ausgebautes Stratus-System kann bis zu 32 Prozessormoduln umfassen, die bis hin zum Bandspeicher und Zeilendrucker alles doppelt umfassen. Bei 32 Prozessoren umfaßt so ein System 256 MB Hauptspeicher und kann bis zu 2000 Terminals bedienen.

Erkennen die Kontrollschaltkreise auf einem Board, daß der Output dieses Boards nicht mehr mit dem seines paarigen Gegenstücks übereinstimmnt, so läuft die Arbeit dennoch ungehindert auf dem Zweit-Board weiter, während bestimmte Wartungsroutinen das defekte Board testen. Liegt ein transienter Fehler vor, wird es neu gestartet; im anderen Fall signalisiert ein Licht dem Operator, daß er dieses Board, ohne aber deshalb den Rechnerbetrieb unterbrechen zu müssen, austauschen muß.

Unterbrechungsfreie Einsatzbereitschaft verspricht ein anderes Mehrprozessorsystem, das ebenfalls auf 68000er-Prozessoren basiert und auf bis zu 28 Prozessormoduln ausgebaut werden kann: das System "Synapse N + 1 " von der Synapse Computer Corp. in Milpitas, Kalifornien. Es wurde besonders auf das "Transaction-processing" zugeschnitten und arbeitet mit einem, wie es heißt, leistungsfähigen, relationalen Datenbanksystem. Dabei soll die Mehrprozessor-Architektur sicherstellen, daß nach praktisch jeder denkbaren Art Fehler (ob in der Hardware, in der Software oder in der Umwelt begründet) automatisch wieder eine konsistente, korrekte Datenbank hergestellt und das Anwenderprogramm ieder frisch gestartet werden kann.

Flexible Ressourcen-Zuordnung

Das N + 1 -System gestattet allen Prozessoren und Terminals gleicherweise den Zugang zu allen Plattenspeichern; dabei wird jedes Terminal automatisch der Reihe nach vom jeweils nächsten eben frei werdenden Prozessor bedient. Diese Flexibilität der Ressourcen-Zuordnung gestattet es, ein System in voller Fahrt um neue Prozessormodule zu erweitern und damit ohne Betriebsunterbrechung den Durchsatz zu verbessern.

Noch nicht von auf dem Markt ist eine weitere, fehlertolerante Konfiguration der Firma Parallel Computer Systems, Englewood Cliffs, New Jersey. Auch hier umfaßt die Software ein relationales Datenbanksystem, während die Hardware auf bis zu 32 Gruppen von jeweils bis zu drei Motorola-Prozessoren wachsen kann, die untereinander über ein schnelles 32-Bit-Duplex-Bussystem verbunden sind. Zu jeder Gruppe gehören bis zu acht MB RAM und die Leistung dieser neuen Maschine reicht von 1,7 Mips für die Basisversion bis zu 58 Mips bei Vollausbau, verheilen die Entwickler. Übrigens soll für dieses System, das sich für den Anwender als Unix-III-System darstellen wird, bereits vorhandene Software angepaßt werden, also keine langwierige Eigenentwicklung erfolgen. Was allerdings die Frage aufwirft, ob mit Software-Oldies die volle Leistung dieser Maschine wirklich von genutzt wird...

In den kommenden Monaten sind neben den genannten drei Systemen noch eine Reihe von Novitäten auf der Grundlage des schon erwähnten Prozessors 432 zu erwarten; zur Zeit sind die Entwicklungsarbeiten an den meisten Projekten noch von in Gang. Auch hier wird man Konfigurationen erwarten können, die die Eigenschaft des 432-Konzepts, nämlich beliebige Hardwareausbaubarkeit ohne Änderungen der Software, nutzen und damit ebenfalls Fehlertoleranz mit schrittweiser Leistungsanpaßbarkeit kombinieren werden.

So will die Firma Microprocessor Systems in Maitland, Florida, für etwa 60 000 Dollar ein 432-System mit der Leistungsfähigkeit und Schnelligkeit einer IBM 370 anbieten, wobei der Plattenspeicher von 600 MB theoretisch auf bis zu 1000 Gigabyte ausbaubar sein soll. Das sind, Verheißungen, die natürlich neugierig machen (sollen?). ..

Lohnen sich die Anwendungen eigentlich?

Mit Sicherheit neugierig ist die Fachwelt auf den schon skizzierten Non-Von-Supercomputer, der unter anderem mit Geldern des Pentagon an der Columbia University entsteht und der von Kennern als eine Art "intelligentes RAM" apostrophiert wird. Denn hier finden sich Prozessoren und kleine Speicher auf allen Ebenen des Rechners dicht vermischt - jeder Prozessor hat seinen eigenen kleinen Speicher -, und dadurch soll die potentielle Kommunikationsleistung zwischen Speichern und Prozessoren gleich um Größenordnungen über dem liegen, was von der klassischen Von-Neumann-Maschine her bekannt ist. Und alle Prozessoreinheiten, von denen so eine Maschine mehrere hunderttausend umfassen soll, bearbeiten, soweit die Algorithmen es bloß zulassen, die ihnen zugänglichen Daten parallel.

Während man die Beschreibung neuer, fehlertoleranter und schneller Parallelrechner-Konzepte hier noch fast beliebig fortsetzen könnte - es seien nur noch Entwicklungen von Bendix, Westinghouse, und der Firma Star Technologies (ein schneller Array-Rechner mit 100 Millionen Gleitkommaoperationen pro Sekunde Leistung) erwähnt, lieber kurz noch ein Wort zur Software.

Auf diesem Feld rückt nicht allein die Frage, wie macht man Programme immer menschengerechter, zusehends in den Vordergrund; auch die neuen, parallelen Konzepte machen neue Überlangen dringend nötig. Hauptstreitpunkt: Lohnen sich die immensen Aufwendungen für neue Software beim Übergang auf neue Datenfluß-Architekturen eigentlich? Und ist dafür die zeit-, geld- und kräfteintensive Entwicklung neuer Programmiersprachen, die nach Ansicht vieler Experten unumgänglich ist, sinnvoll und zu rechtfertigen? Es wird spannend sein, hier die Diskussion der nächsten Jahre zu verfolgen.