Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.


23.08.1985

Höchstleistungsrechner: Datentransfer hängt in den Seilen

Höchleistungsrechner gewinnen in den DV-Landschaften von Universitäten, Forschungsinstituten und Industrieunternehmen zunehmend an Boden. "Vielleicht", so spekuliert Dieter Haupt, RZ-Leiter der Rheinisch-Westfälischen Hochschule in Aachen, "sind die Supercomputer von heute die Normal- oder Minirechner von morgen." Zur Zeit jedoch stellen die DV-Jumbos den Anwender noch vor allerhand Probleme. So reicht oft der Hauptspeicher nicht aus, SW-Anpassungen sind mühsam, oder es hapert bei der Neu-Programmierung. Schwierigkeiten können auch auftauchen, wenn ein Supercomputer als Gemeinschaftsanlage von außen angezapft wird. In diesem Zusammenhang moniert Roland Rühle, RZ-Direktor an der Universität Stuttgart, daß zur Zeit alle, Lösungen zum Datentransfer, wie zum Beispiel Wählleitungen, Datex-P oder das Forschungsnetz "Earn", entweder noch zu langsam oder zu teuer seien.

Dieter Müller-Richards

Abteilungsleiter in der Hauptabteilung "Zentrale DV" des DFVLR Leiter des Rechenzentrums in Göttingen (Cray I)

Den Supercomputern, einer Klasse von Rechnern von durchaus uneinheitlicher Struktur in einem Leistungsbereich zwischen 10 Millionen bis 10 Milliarden Gleitkommaoperationen pro Sekunde, hängt seit der Einführung erster Prototypen Anfang der siebziger Jahre in den Markt der Geruch an, zu immensen Kosten einen außerordentlich schmalen Bereich von Anwendungen abzudecken. Der Aufwand für die Programmierung wurde als sehr hoch und die Softwareerstellung selber aufgrund des allgemeinen Softmraretrends in Richtung einer Hardwareunabhängigkeit als problematisch eingeschätzt.

So war es kein Wunder, daß es bis in die achtziger Jahre einigen wenigen, mehr oder weniger staatlichen Forschungseinrichtungen aus den Gebieten der Wettervorhersage, der Nuklearphysik, der Aerodynamik vorbehalten blieb, Hochleistungsrechner für ihre Zwecke einzusetzen. In der industriellen Anwendung bildete die Erdölexploration die einzige nennenswerte Ausnahme.

Eine Reihe von Faktoren hat jedoch dazu beigetragen, die Situation zugunsten des Einsatzes von Superrechnern zu verändern. Die am Markt verfügbare Hardware ist seit Anfang der achtziger Jahre erheblich stabiler, die Compiler sind deutlich zuverlässiger und intelligenter beim Aufspüren von umsetzbaren Programmteilen geworden. Denjenigen, die auf die Portabilität der Programme angewiesen sind, kommt eine Entwicklung entgegen, die auf die Konvergenz der Architekturen, jedenfalls innerhalb der jeweiligen Leistungsklassen, hinweist. Bei neu zu entwickelnden Programmen ist der Anwender gut beraten, wenn er bereits bei der Auswahl und Formulierung seiner Algorithmen Wert auf eine vektorisierbare Struktur bei Vermeidung von Rekursionen legt. Dabei muß allerdings auf einen Trade-off zwischen Vektorisierbarkeit und anderen algorithmischen Eigenschaften (zum Beispiel Konvergenzgeschwindigkeit) geachtet werden.

Bei dieser hardwareunabhängigen Betrachtungsweise darf der Nutzer gleichwohl eine nennenswerte Rechengeschwindigkeit, gemessen an der nominellen Leistung, erwarten. Die am Markt erfolgreichen Produkte weisen nämlich eine hinreichende Ausgewogenheit zwischen skalarer und vektorieller Leistung und eine gewisse Toleranz gegenüber kürzeren Vektorlängen sowie einen gegenüber den ersten Prototypen von Hochleistungsrechnern deutlich größeren Reichtum und eine feinere Abstimmung leistungsfähiger Markierungs- und Speicherzugriffsmechanismen auf.

Die Frage nach der Programmiersprache für Supercomputer ist zumindest bis zur Verabschiedung eines neuen Standards de facto zugunsten von Fortran 77 mit einem Minimum an Erweiterungen entschieden. Es hat sich gezeigt, daß der Anwender in der Regel nicht bereit ist, seine Programme in einem herstellerspezifischen Dialekt wiederzugeben. Darum sind Ansätze erkennbar, den Anwender mit Werkzeugen auszustatten, die es ihm ermöglichen, dialogoptimierende Maßnahmen für seine Programme zu ergreifen. Diese Werkzeuge können zugleich auch als Umsteigehilfe für bereits auf einen konventionellen Rechner zugeschnittene Software betrachtet werden.

In einer Arbeitsumgebung, ausgestattet mit Workstations und geeigneten Kommunikationsmechanismen in Verbindung mit einschlägigen Anwendungspaketen auf dem Hochleistungsrechner eröffnet sich dem Anwender auch die Möglichkeit, auf interaktive oder quasi-interaktive Weise Aufgaben des CAD/CAE durchzuführen. Aufgrund der immensen Menge von Daten erhält die grafische Darstellung von Ergebnissen, insbesondere unter Einbeziehung von Farbe eine herausragende Bedeutung.

In der Verbindung mit einer für den Ingenieur geeigneten Arbeitsumgebung erschließt sich dem Hochleistungsrechner potentiell ein breiter Kreis von Anwendern. Da die Kosten für Untersuchungen mit realen Objekten, wie zum Beispiel Ausfalltests mit Kraftfahrzeugen eher steigen als fallen, ist ein zunehmender Bedarf für die numerische Simulation derartiger Vorgänge erkennbar. Darüber hinaus zeichnen sich eine Reihe weiterer Anwendungen ab. Hierzu gehören unter anderem verschiedene Fragestellungen aus der Chemie und die Simulation des Transports von umweltschädigenden Partikeln in Luft und Wasser.

Parallel zum Auftreten neuer Anwendungen ist die Komplexität der klassischen Anwendungen für Hochleistungsrechner gewachsen. Hierzu tragen zum Beispiel bei aerodynamischen Vorgängen eine Reihe von Faktoren bei: der Übergang von zweidimensionalen zu dreidimensionalen Rechnungen, eine realistischere Modellierung der Physik, die Betrachtung komplizierter Konfigurationen und die Notwendigkeit einer feineren Auflösung.

Daraus resultiert die Forderung nach großen und schnellen Haupt- und Sekundärspeichern und einem leistungsfähigen und benutzerfreundlichen IO.

Multiprozessorsysteme sind trotz der Präsenz einiger einschlägiger Produkte auf dem Markt nach wie vor Gegenstand von Forschung und Entwicklung. Untersucht werden hier Fragen der Kommunikation, besonders der Netzwerktopologie und der Synchronisationsmechanismen, der Kontrollstrukturen und der Ablösbarkeit von Anwendungen.

Manfred Morawe

Leiter der Gruppe Systemsoftware, Prakla-Seismos GmbH, Hannover

(Cyber 205 im Verbund mit Cyber 750)

Ein Arbeitsfeld, in dem Arrayprozessoren und Vektorrechner mehr und mehr eingesetzt werden, ist die Seismik. Bei dieser Wissenschaft, in der unter anderem die mit Sprengstoff, Luftpulsern, Vibratoren oder anderen Energiequellen erzeugten Wellen gemessen werden, spielen im Rahmen der computergenerierten Seismogramme sehr rechenintensive Korrelationen, Filterprozesse und sogenannte Normal-Move-out-Korrekturen eine wichtige Rolle. Letztere können erst mit den seit wenigen Jahren verfügbaren flexiblen Arrayprozessoren und Vektorrechnern wie zum Beispiel der Cyber 205 von Control Data durchgeführt werden.

In der Seismogrammbearbeitung gibt es aber auch eine Reihe von rekursiven Algorithmen, die nach unserer Kenntnis für alle derzeit vorhandenen Vektorrechner relativ ungeeignet sind. Man kann diese Algorithmen durch zyklische Reduktion vektorisieren, muß dabei aber wesentlich mehr Rechenoperationen oder den rekursiven Algorithmus für viele Spuren parallel durchführen. Ein Nachteil der parallelen Verarbeitung von mehreren Spuren ist aber ein erhöhter Speicherbedarf.

Ein generelles Problem für die optimale Nutzung schneller Rechner in der Seismik ist die große Datenmenge. Für eine 3D-Bearbeitung seismischer Daten sind rund 1000 Magnetbänder mit 6250 Bit pro Zoll einzulesen. Wenn die Ein- und Ausgabe - vor allem bei Zwischenspeicherung der Daten auf Platte - nicht optimiert wird, bleibt die hohe Geschwindigkeit dieser Computer ungenutzt. Darum sind große Speicher mit schnellem Zugriff und schnelle Platteneinheiten für eine zufriedenstellende Seismogrammbearbeitung nötig.

Roland Rühle

Wissenschaftlicher Direktor des Rechenzentrums der Universität Stuttgart (derzeit Cray I; Ende 1986 Cray II)

Ein großes Problem bei Höchstleistungsrechnern der ersten Generation stellt aufgrund zu kleiner Hauptspeicher das ungünstige CPU- zu I/O-Zeitverhältnis dar. Für die Entscheidung pro Cray-2 war deshalb der sehr große Hauptspeicher dieses Rechners der entscheidende Grund. Zusammen mit dem Betriebssystem Unix verspricht dieser Hauptspeicher auch gute Anwendbarkeit für interaktive Berechnungen.

Der mögliche Einsatzbereich eines Höchstleistungsrechners wie der Cray-2 ist vielfältig. In Stuttgart soll der Schwerpunkt auf der Simulation technischer und naturwissenschaftlicher Vorgänge liegen. Dabei ist ein Ziel, daß einerseits die Ergebnisse von der Industrie unmittelbar verwendet werden können, andererseits die Cray-2 selbst von der Industrie in Forschung- und Entwicklungsvorhaben genutzt wird.

Die Anwendungen reichen von der strukturmechanischen Analyse, insbesondere im nichtlinearen Bereich, über die Bruchmechanik bis zur Crashanalyse. Fluid- und strömungsmechanische Probleme behandeln die Umströmung von dreidimensionalen Objekten wie Kraftfahrzeugen oder ganzen Flugzeugen. Kombiniert mit reaktionskinetischen Gleichungen lassen sich Verbrennung in Flammen und Brennräumen von Motoren analysieren. In der Anlagentechnik können ganze Anlagen mit Rohrleitungen und Aggregaten simuliert werden. Hypothetische Störfälle in kerntechnischen Anlagen können schneller, als sie in Realzeit ablaufen würden, verfolgt und Brennelementeeinsatzpläne interaktiv berechnet werden. In der Chemie können Molekülbindungen größerer Moleküle berechnet und Eigenschaften von Verbindungen vorausgesagt werden. Weitere Anwendungsgebiete sind zum Beispiel Schaltkreisentwurf, Bildverarbeitung und die Erzeugung komplexer dreidimensionaler Bilder und Filme.

Mit einer Cray-2 lassen sich dreidimensionale und nichtlineare Simulationen technischer Anlagen und Verfahren wirtschaftlich sowohl im Hinblick auf die Rechenkosten als auch bezüglich Durchsatz und Wartezeiten durchführen. Außerdem sind interaktive Berechnungen möglich. Bei diesem Problembereich ist an dem Prinzip umfangreiche Berechnungen gedacht, die, wenn sie nicht interaktiv, das heißt, mit kurzen Antwortzeiten durchgeführt werden können, den Konstruktions- und Entwurfsprozeß verzögern. Hier sehen wir gerade bei der Cray-2 besonders günstige Anwendungsmöglichkeiten auch für die Industrie.

Alle genannten Anwendungen zielen auf die Verbesserung und Optimierung von Anlagen und Produkten, auf die Verkürzung von Entwicklungszeiten und auf die Vermeidung teurer Versuchsanlagen und Prototypentwicklungen.

Eine Cray-2 dient "nur" zur Produktion von Rechenleistung (Computer-Server). Alle anderen Dienste, wie Fileserver mit Archivierung, Dialogserver, Grafikserver, Druckserver und Netzserver, müssen von Vorrechnern erbracht werden. In Stuttgart werden derzeit als Vorrechner eine Cyber 835, eine IBM 3083 und eine VAX 11/780 verwendet. Im Moment übernimmt ein Vorrechner mehrere Funktionen, jedoch sind die Dialog- und Fileserverfunktionen stark auf die IBM verlagert, die Netzserverfunktionen übernimmt die VAX. Dieses Vorgehen hat sich bei der Cray-1 bewährt und soll unter Ausbau einiger Komponenten auch bei der Cray-2 beibehalten werden.

Für einen Höchstleistungsrechner ist die Einbettung in ein Rechnernetz von entscheidender Wichtigkeit. Insbesondere bei Einsatzgebieten wie Simulation und interaktiven Anwendungen ist eine Verfügbarkeit der Rechenkapazität am Arbeitsplatz unabdingbar,

Im Universitätsbereich Vaihingen (Campus) beispielsweise ist dieses Problem gelöst. In den Instituten stehen zur Zeit sechs Vax- und drei Micro-Vax-II-Rechner, die über ein Glasfaser Ethernet mit der Cray Vorrechner-Vax verbunden sind. Diese Vax-Rechner bedienen die Terminal- und Grafikarbeitsplätze.

Mit der Cray-2 soll zunächst RJE (Remote-Job-Entry) mit Pre- und Postprocessing am Arbeitsplatz realisiert werden. Darüber hinaus ist ein verteiltes Rechnen mit Job- zu Job-Kommunikation zwischen Arbeitsplatzrechner und der Cray-2 geplant. Der Arbeitsplatzrechner übernimmt dabei die grafische Darstellung der Steuerfunktionen.

Durch entsprechende Software wird der Austausch von Daten zwischen den Rechnern über Datenbanken und die grafische Auswertung von Ergebnissen unterstützt.

Ein Problem stellt der Zugang zu dem neuen Rechner von außerhalb des Campusbereichs dar. Hier kommen derzeit Wählleitungen, Standleitungen, das IBM-Forschungsnetz EARN und das Deutsche Forschungsnetz DFN über Datex-P in Frage. Alle diese Lösungen sind Notlösungen und entweder zu langsam oder derzeit zu teuer. Eine wirksame Verbindung sollte mindestens 4 KBits pro Sekunde, wünschenswerterweise jedoch zwei bis zehn MBit pro Sekunde leisten.

Im Rahmen des 1986 beginnenden ISDN-Pilotprojekts der Deutschen Bundespost in Stuttgart möchte die Universität ihre Anschlüsse zur Erprobung von Rechner-Rechnerkopplungen, insbesondere den Anschluß von Arbeitsplatzrechnern an die Cray verwenden. Es ist eine Decnet-Verbindung zu einer Micro-Vax II und eine Verbindung zu einer Workstation der Firma SEL über ISDN vorgesehen.

Von der Landesregierung Baden-Württemberg ist vorgesehen, in Zusammenarbeit mit der Bundespost Glasfaserverbindungen vorrangig für Wirtshaft und Forschung zur Verfügung zu stellen. Die Universität Stuttgart wird in einem Pilotprojekt Institute im Stadtzentrum mit dem Rechenzentrum in Vaihingen verbinden. Weitere Glasfaserstrecken zu Forschungszentren und zu Industriefirmen sind wünschenswert. Sie würden eine ähnlich gute Anbindung von entfernten Arbeitsplätzen oder Rechenzentren an die Cray-2 bieten, wie dies bereits im Universitätsbereich Vaihingen möglich ist.

Das Attribut Höchstleistungsrechner für eine Rechenanlage ist rasch vergänglich. Neue leistungsfähigere Rechner oder Universalrechner mit ähnlichen Leistungsdaten werden in absehbarer Zeit verfügbar werden. Die Bedeutung der Stuttgarter Cray-2 liegt in ihrem frühen Installationszeitpunkt. Sie bietet eine Chance für Forschung und Industrie, den Anschluß zur internationalen Spitze zu halten oder zu finden. Es wird entscheidend sein, diese Chance ohne Zeitverzug zu nutzen.

Dieter Haupt

Inhaber des Lehrstuhls für Betriebssysteme Leiter des Rechenzentrums der Rheinisch-Westfälischen Technischen Hochschule Aachen FPS 164 Cyber 205)

Eine allgemein verbindliche Definition für einen "Höchstleistungsrechner" gibt es nicht.

Üblicherweise wird gegenwärtig eine Rechenanlage als "Supercomputer" bezeichnet, wenn sie in der Lage ist, Hunderte von MFLOPS (Millionen Gleitpunktoperationen in der Sekunde) durchzuführen bei einer Wortlänge in der Größenordnung von 64 Bit und zudem einen Hauptspeicher besitzt, dessen Kapazität durch Millionen von Worten gekennzeichnet ist. Ihre hohe Rechenleistung verdanken solche Anlagen zum einen dem Technologiefortschritt der letzten Jahre im Bereich der Mikroelektronik, zum anderen trugen noch wesentlicher neue Konzeptionen für parallele Strukturen und entsprechende logische Organisation einer Großrechenanlage zur Verkürzung der Rechenzeiten bei. Zwei Prinzipien möglicher Parallelität wären hier zu nennen: Parallel arbeitende komplette Verarbeitungseinheiten (das Multiprozessing) oder hierarchisch geordnete Teilbearbeitung nach dem Fließbandprinzip (das Pipelining). Die meisten der zur Zeit auf dem Markt befindlichen, beziehungsweise angekündigten Supercomputer machen als sogenannte Vektorrechner von der Pipeline-Technik Gebrauch.

Für das Ende dieses Jahrzehnts sind Maschinen angekündigt, deren Spitzenleistungen mit 10 GFLOPS (Milliarden Gleitpunktoperationen in der Sekunde) angegeben werden (ETA- 10).

Die hohe interne Rechenleistung solcher Systeme ermöglicht sowohl der Wissenschaft als auch der Industrie, neue Problemkreise aus dem Bereich der naturwissenschaftlich-technischen Forschung und Entwicklung in Angriff zu nehmen. So wird beispielsweise auf dem Gebiet der numerischen Simulation, unter anderem bei mechanischen Struktur- und Festigkeitsproblemen, kontinuierlichen Strömungsfeldern, Schaltkreisen sowie Steuer- und Regelsystemen der Übergang zu besseren physikalischen Modellen, größere Geometrie-Komplexität und feinerer numerischer Diskretisierung ermöglicht. Damit lassen sich drei wesentliche Ziele näherbringen, deren Realisierung zur Anwendung numerischer Simulation motiviert: zum einen auf neue technologische Möglichkeiten zu stoßen, die durch Versuchsanlagen noch nicht oder gar nicht erschließbar sind. Zum anderen kann man auf diesem Wege den Konfigurationszyklus für ein technisches Gebilde zeitlich abkürzen und außerdem zur Erhöhung der Wirtschaftlichkeit die Entwicklungskosten senken. Die Programmierung von Anwendungen für Supercomputer erfolgt derzeit fast ausschließlich in Fortran unter Ausnutzung entsprechender Spracherweiterungen. Die besonderen Eigenschaften der Hardware-Architektur solcher Maschinen bedingen allerdings oftmals eine stark angepaßte Programmierung und nicht selten eine völlige Neukonstruktion des zugrunde liegenden Algorithmus, um das Leistungspotential des Vektorprozessors nutzen zu können.

Eine für viele Anwendungen interessante Alternative zu den genannten Größtrechnern stellen schon aus Kostengründen die "attached processors" dar. An einen sogenannten Leitrechner (Host-Computer) angekoppelt können diese Prozessoren von der auf dem Host laufenden Anwendung die Ausführung rechenintensiver Programme oder Programmteile übernehmen. Die derzeitigen Spitzenleistungen eines solchen einzelnen Prozessors liegen zwar im unteren Bereich des Leistungspotentials der zuvor genannten Vektorrechner, beim Vergleich des Preis/Leistungs-Verhältnisses stehen sie jedoch teilweise erheblich günstiger da. Darüber hinaus hat man eine flexible Möglichkeit der Leistungssteigerung, indem man an einen Host mehrere solcher Prozessoren anschließt, die gleichzeitig an der Ausführung einer Anwendung beteiligt werden können. Wenn es gelingt, diese Anwendung in parallel ausführbare Teile zu zerlegen, läßt sich für die Programmausführung auf solchen Systemen die Rechenleistung vervielfachen. Auch die Planungen und der Markt neuer Supercomputer weisen gegenwärtig allgemein den Trend auf, die erforderliche Leistung dadurch zu erbringen, daß bisher schon verwendete parallele Prozessorsysteme technisch verbessert zu höheren Einheiten zur weltweiten Parallelarbeit zusammengeschaltet werden. Ein großer Nachteil dieser Multiparallel-Rechnersysteme ist zur Zeit jedoch der Umstand, daß noch zu wenige Algorithmen für solche Mehrprozessor-Systeme erschlossen sind und damit die effiziente Nutzung zunächst auf eine relativ geringe Anzahl begrenzt ist.

In der Bundesrepublik Deutschland werden seit einigen Jahren in verschiedenen Bundesländern Supercomputer als Gemeinschaftsrechenanlagen für die wissenschaftlichen Hochschulen bereitgestellt. Aufgrund dieser Installationen nimmt die Bundesrepublik hinsichtlich dieser Rechnerausstattung im universitären Bereich einen vorderen Platz im Vergleich mit anderen Staaten Europas ein. Diese Höchstleistungssysteme neuartiger Rechnerarchitektur sollen einerseits den Wissenschaftlern und Forschern für spezielle Anwendungen sehr hohe Rechenleistung verfügbar machen, zum anderen muß die heutige Generation von Studenten mit diesen neuen Rechnertypen und deren Programmierung vertraut gemacht werden, denn die Supercomputer von heute könnten die Normalrechner - möglicherweise sogar die Minicomputer - von morgen sein.