Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

04.05.1990 - 

Hochleistungsberechnung ist heutzutage normal

Ohne Supercomputer keine Luft- und Raumfahrtindustrie

Paul Rubine ist Marketing Director für Realtime Simulation and Controll bei der Alliant Computer Systems, Littleton, Massachusetts.

Obgleich Supercomputer ursprünglich für die wissenschaftliche Forschung gedacht waren, kommt heute der Engineering-Bereich in der Industrie nicht mehr ohne sie aus. Vor allem die Luft- und Raumfahrtindustrie ist auf Computer dieser Leistung angewiesen.

So entwickelt beispielsweise Boeing für seine nächste Generation ziviler Airliner einen Cockpit-Simulator, der von einem Supercomputer gesteuert wird. Auch im Marshall Space Flight Center der NASA steht ein von einem Supercomputer gesteuerter Simulator, mit dem sich Andockmanöver der amerikanischen Raumstation mit dem Space-Shuttle erproben lassen. Untersucht wird dabei unter anderem der Entwurf für die Ankoppelmechanik, bevor die Teile später für die Raumstation in die Produktion gehen. Desgleichen bei Martin-Marietta: Hier sollen auf einem solchen Simulator neue Konzepte zur Steuerung ballistischer Raketen mit Hilfe von Laserstrahlen durchgespielt werden.

Der Wettbewerbsdruck in diesem Industriezweig gibt den Ausschlag dafür, daß immer häufiger Supercomputer für solche Projekte eingesetzt werden. Denn derart schnelle Berechnungen verringern die Entwicklungszeit durch detaillierte analytische Modellbewertung und Simulation. Kostspielige und zeitintensive Prototypen entfallen.

Das Interesse an Supercomputern in Kreisen der Systementwickler für Raumfahrtprojekte ist natürlich nicht neu. Doch mußten sich die Ingenieure noch bis vor nicht allzu langer Zeit mit einer Reihe recht frustrierender Probleme herumschlagen. Beispielsweise lief vorhandene Software nicht auf solchen Maschinen. Und ihr Konzept der parallelen Bearbeitung von Programmen machte es schwierig, solche Numbercruncher zu programmieren.

Außerdem konnten nur wenige Unternehmen in der Luft- und Raumfahrtindustrie die Anschaffungskosten zwischen fünf und 25 Millionen Dollar bezahlen. Hinzu kamen die hohen Betriebskosten der flüssigkeitsgekühlten Maschinen. Auch wenn das eine oder andere Unternehmen sich die Mietkosten von 6000 Dollar pro Stunde an einem Rechenzentrum leisten konnte, so dauerte es doch mindestens einen Tag, bis das Ergebnis verfügbar war. Viele der Ingenieure sahen in solchen Supercomputern daher eine recht exotische Technik, die allenfalls für wissenschaftliche Untersuchungen an öffentlichen Forschungseinrichtungen geeignet schien.

Hemmschwellen bereits beiseite geschoben

Die in den letzten fünf Jahren auf dem Markt aufgetauchten parallelen und visualisierenden Supercomputer haben diese Hemmschwellen beiseite geschoben. Hochleistungsberechnung gehört heute zum Tagesgeschäft. In normaler Büroumgebung betrieben, erreichen solche industriellen Supercomputer annähernd die Leistung klassischer Numbercruncher. Zusätzlicher Vorteil ist die animierte 3D-Grafik, mit der sich die Berechnungsergebnisse augenblicklich darstellen lassen. Eine direkte Interaktion zwischen Benutzer und Rechner ist dadurch möglich. Außerdem laufen die vorhandenen technischen Softwareprogramme auf industriellen Supercomputern ganz ohne oder mit nur kleinen Änderungen. Und schließlich liegen die Preise dieser Rechner bereits bei unter 100 000 Dollar und damit innerhalb der selbst zu verantwortenden Budgets der meisten technischen Abteilungen.

Schon viele klassische Supercomputer erreichten ihre hohe Geschwindigkeit zum Teil dadurch, daß sie die Rechenaufgaben in einzelne Teilaufgaben zerlegten, die dann, auf mehrere Prozessoren verteilt, parallel abgearbeitet wurden. Außerdem verwenden solche Maschinen doppelte Wortbreite (64 Bit gegenüber 32 Bit) und sind aus schnellen bipolaren Transistoren aufgebaut.

Auch die parallelen visualisierenden Supercomputer bedienen sich paralleler Prozessoren und der 64-Bit-Datenbreite. Doch anstelle bipolarer Transistoren werden hier die weniger Energie konsumierenden Feldeffekt-Transistoren verwendet (wie bei den üblichen Mikroprozessoren). Das führt nicht nur zu kompakterer Bauform der Rechner von Kühlschrank-Größe, sondern reduziert die Herstellkosten erheblich. Industrielle Supercomputer liegen preislich daher bei durchschnittlich nur rund einem Zehntel klassischer Großrechner. Natürlich geht das nicht ohne Leistungseinbußen. Gemessen an den großen Numbercrunchern sind die parallelen visualisierenden Supercomputer etwa um den Faktor vier langsamer.

Visualisierung bringt Vorteile

In der Praxis spielt das jedoch kaum eine Rolle. Paradoxerweise sind die Ingenieure eher der Ansicht, daß sie die Ergebnisse gleich schnell oder sogar schneller erhalten. Grund ist die geringere Zahl der mit einem solchen Rechner arbeitenden Benutzer, was weniger lange Warteschlangen bedeutet.

Der Hauptgrund, warum parallele visualisierende Supercomputer mehr und mehr zum Handwerkszeug von Ingenieuren in der Luft- und Raumfahrtindustrie werden, liegt im immer komfortableren Umgang mit diesen Maschinen. Denn der Anwender ist nicht nur an der schieren Leistung interessiert, sondern auch am benutzerfreundlichen Umgang und an der Zeit, die sein Berechnungsergebnis auf sich warten läßt.

Zusätzlich bieten diese Systeme erhebliche Vorteile wegen ihrer weitaus besseren Visualisierungsmöglichkeiten. Denn die Visualisierung macht die ansonsten recht komplexen Berechnungsergebnisse für den Ingenieur leichter verständlich entweder durch animierte Darstellung oder durch einzelne Bilder. Bei klassischen Supercomputern wirkte die anfallende Datenflut in Form endloser Tabellen auf den Anwender eher abschreckend, wichtige Ergebnisse konnten leicht übersehen werden.

Verständlicher durch animierte Darstellung

Durch die Verbindung von Hochleistungsberechnung in der Größenordnung von mehreren hundert MB pro Sekunde mit sofortiger grafischer Darstellung der fortlaufenden Ergebnisse und dem schnellen Speicherzugriff über einen Systembus oder Data-Highway bestimmen solche industriellen Supercomputer derzeit den Trend in der Großrechner-Anwendung. Im Vergleich dazu vergehen bei den klassischen Superrechnern mindestens mehrere Sekunden, bis die Ergebnisse auf einem Monitor sichtbar werden.

Allerdings wirkt die Verbindungsleitung zwischen den beiden Rechnern als erheblicher Flaschenhals für den schnellen Datentransfer und verzögert den Bildaufbau.

So beträgt die Datenübertragungsrate, die auf einem Local Area Network (LAN) theoretisch maximal möglich ist, rund 1,2 MB pro Sekunde. Doch eine hochauflösende, farbschattierte und in ihrem Bewegungsablauf weiche Echtzeitanimation benötigt zwischen 20 und 30 Einzelbilder je Sekunde zu jeweils 3 MB.

Das entspricht einer Datentransferrate von immerhin rund 90 MB je Sekunde, also weit mehr, als ein LAN derzeit leisten kann. Allein die Daten für ein einzelnes Bild brauchen schon mehrere Sekunden Übertragungszeit.

Um zu vermeiden, daß sich die Berechnung durch den langen Datentransfer verzögert, erfolgt die Übertragung als Batch in Pre- und Postprocessing. Ein Benutzer, der beispielsweise ein Modell auf seiner Workstation entwickelt hat und über das Netz an den Supercomputer zur Berechnung weitergibt, erhält danach das Ergebnis auf seine Workstation zurück, wo aus den Daten einzelne Bilder berechnet werden. Um Bewegung zu simulieren, werden diese Einzelbilder dann in schneller Folge abgespielt. Der ganze Vorgang ist jedoch sehr zeitaufwendig.

Visualisierung quasi in Echtzeit

Im Gegensatz dazu läuft die Visualisierung auf der neuen Klasse der Supercomputer quasi in Echtzeit ab und läßt auch einen sofortigen Eingriff des Benutzers in den Rechenablauf zu. So ist es beispielsweise möglich, den Rechenvorgang genau an der Stelle abzubrechen, an der etwa die simulierte Luftströmung über eine Tragfläche bei immer steilerem Anstellwinkel des Flügels plötzlich abzureißen beginnt. In gleicher Weise kann ein Ingenieur die sich ändernden Spannungsmuster in einer Tragfläche mitverfolgen, während das simulierte Flugzeug immer höheren Erdbeschleunigungswerten ausgesetzt ist. So läßt sich schnell feststellen, wo der Flügel verstärkt werden muß.

Rund die Hälfte der Gehirnneuronen eines Menschen sind an der visuellen Wahrnehmung beteiligt. Parallele visualierende Supercomputer unterstützen durch ihre Art der Ergebnisdarstellung diese Fähigkeit des Menschen, unterschiedliche Muster zu erkennen.

Interaktive Design Visualisierung ist freilich kein neues Konzept. In den frühen 80er Jahren wurde mit den Workstations diese Idee erstmals umgesetzt. Heute haben solche Workstations etwa sieben bis 14 Mflops und eine 3D-Grafikleistung von einigen hunderttausend Vektoren in der Sekunde. Allerdings kommt durch die enorme Rechenleistung der parallelen visualisierenden Supercomputer erstmals eine neue Dimension hinzu.

Immer häufiger nutzen die für Großrechenanlagen geschriebenen Softwareprogramme auch die neue parallele visualisierende Hardwareplattform, um Ergebnisdaten visuell darstellen zu können und leichter interpretierbar zu machen. So beispielsweise das Programmpaket "Dynamic Analysis and Design System" (DADS) von der Computer Aided Design Software Inc. in Oakdale, Iowa. Viele Hersteller bieten spezielle Visualisierungs-Software an, um Programmdaten in Bilder um zusetzen. Auf diese Weise können mit Supercomputern auch Ergebnisse aus nichtgrafischen Analyseprogrammen sichtbar gemacht werden.

Programmierwerkzeuge für Spaghetti-Code

Automatische neue Programmkonverter, wie vektorisierende und parallelisierende Compiler, sind nicht zuletzt auch Grund dafür, warum Supercomputer-Installationen in der Luft- und Raumfahrtindustrie so zunehmen. Diese neuen Compiler konvertieren automatisch den für herkömmliche Rechner geschriebenen "Spaghetti-Code" auf die Anforderungen der heutigen Supercomputer. Damit bleiben die gewaltigen Investitionen in frühere Softwareprogramme erhalten.

Programmcode, der für sequentiell arbeitende Rechner geschrieben wurde, läuft auf einem Supercomputer nicht optimal und muß erst in parallel zu verarbeitende Form gebracht werden. Das bedeutet: Der Code ist nach solchen Programmabschnitten zu untersuchen, die sich als jeweils einzelne Vektoroperationen verarbeiten lassen. Auch muß der Compiler ein solches Spaghetti-Code-Programm nach voneinander unabhängigen und somit parallel zu verarbeitenden Teilen durchsuchen, die dann auf mehrere Prozessoren verteilt werden.

Bis vor kurzem noch war dies mühselige Handarbeit, die Tage oder sogar Monate dauerte, je nach Programmlänge und Komplexität. Heute können Hochsprachen-Compiler, wie sie die Hersteller von Supercomputern anbieten, solche sequentiell geschriebenen Programme automatisch in parallele und vektorielle Form übersetzen. Ein solcher Vorgang dauert allenfalls einige Stunden, vorausgesetzt, die Programme sind in einer Hochsprache wie etwa Fortran geschrieben.

Zweifellos hilft ein standardisiertes Betriebssystems auch der Verbreitung von Supercomputern. Das vereinfacht ihren Gebrauch und reduziert die Kosten. Denn jedes Betriebssystem hat ein eigenes, spezifisches Programm-Interface. Das hat zur Folge, daß ein Softwareprogramm, das für ein bestimmtes Betriebssystem geschrieben wurde, zuerst abgeändert werden muß, wenn es unter einem anderen Betriebssystem laufen soll - eine recht zeitaufwendige Sache. Gleichfalls muß sich auch der Anwender erst an die Eigenheiten des neuen Betriebssystems gewöhnen.

Um solche Kosten so gering wie möglich zu halten, sind die Hersteller von technisch-wissenschaftlichen Rechnern dabei einschließlich der meisten Anbieter von Supercomputern sich auf das einheitliche Betriebssystem Unix zu einigen wie es von AT&T entwickelt wurde. Sie unterstützen dieses Bestreben, indem sie Unix-kompatible Betriebssysteme entwickelt haben, die auch parallele Rechnerarchitekturen optimal nutzen.

Welcher Unix-Dialekt auch immer als Industrie-Standard herauskommt, er wird eine grafische Benutzerschnittstelle haben, ähnlich wie die des Macintosh.

Auch Netzwerk-Standards bringen Vorteile. Denn in den Engineering-Abteilungen der Luft und Raumfahrtindustrie geht der Trend immer mehr in Richtung verteilter Rechenleistung. Supercomputer auf Abteilungsebene versorgen Workstation-Arbeitsplätze mit der nötigen großen Rechenleistung. Über ein Netzwerk sind hier die Workstations mit dem Großrechner verbunden. Während die Workstations für verhältnismäßig einfache Aufgaben genutzt werden, übernimmt der Supercomputer den rechenintensiven Part und gibt die Ergebnisse dann an die entsprechenden Arbeitsplätze zurück.

Ein solcher Serveraufbau funktioniert am besten, wenn sich der Anwender überhaupt nicht darum kümmern muß, wo die einzelnen Berechnungen ablaufen, auf seiner Workstation oder auf dem Großrechner. Das geht jedoch nur, wenn in so einer eng verbundenen Multivendor-Umgebung sich die Rechner an einen Netzwerk-Standard

halten.