Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

13.07.2005

Europas schnellster Vektorrechner

Trotz des Drucks der konkurrierenden Konzepte sind klassische Vektorrechner heute kein Auslaufmodell. Für Spezialberechnungen sind sie weiterhin unverzichtbar.

Supercomputer werden immer dann benötigt, wenn aufwändige Rechnungen mit großen Datenmengen anfallen, die mit normalen PCs nicht mehr verarbeitet werden können. Dies gilt insbesondere dann, wenn die Forschungsergebnisse nicht durch einen praktischen Test im Labor gewonnen werden können. Durch Supercomputer können Bereiche erforscht und sogar visualisiert werden, die sonst unentdeckt oder unerklärt blieben, wie in der Klimaforschung oder Molekulardynamik.

Höchste Anforderungen, die nur ein Supercomputer bewältigen kann, stellen beispielsweise gekoppelte Probleme. Etwa bei der Frage der Windlasten auf Brücken: Hier müssen sowohl Strömungs- als auch Strukturberechnungen erfolgen, die sich gegenseitig beeinflussen. Bisher war es nötig, anhand von Strömungsberechnungen die Lastenverteilung auf der Brücke zu ermitteln, mit diesen Ergebnissen die Verformung der Brücke zu kalkulieren, um dann erneut mit den Verformungsergebnissen die Veränderung der Lastenverteilung durch die Strömung zu berechnen, bis man schließlich einen Näherungswert erhielt.

Der Nachteil: Das Verfahren ist langsam und liefert nur ein stationäres Bild, weil bei dieser Methode nur konstante Strömungsbedingungen (Windstärke und -richtung) berücksichtigt werden. Mit einer Kopplung beider Berechnungen unter Einbeziehung kleiner Zeitschritte gewinnt das Verfahren an Schnelligkeit und bietet ein differenzierteres Bild - auch unter variablen Strömungsbedingungen.

Um sicherzugehen, dass solche Anwendungen auf dem Stuttgarter Supercomputer auch tatsächlich auf Höchstgeschwindigkeit laufen, wurde mit dem Partner NEC die "Teraflop Workbench" ins Leben gerufen. Der Computerhersteller finanziert vier Jahre lang drei Softwareingenieure am Höchstleistungsrechenzentrum Stuttgart (HLRS), um die Wissenschaftler auf dem Vektorrechner zu unterstützen und Teraflops-Werte auf dem Supercomputer zu erreichen. Das entspricht einer Forschungsinvestition von acht Millionen Euro.

Wie in der Medizin kommt es auch in der industriellen Forschung darauf an, möglichst rasch Ergebnisse zu erhalten: Für die Simulation eines Verbrennungskraftwerks beispielsweise wären auf einem Intel-Xeon-Cluster mit 2,4 Gigahertz rund 129 Stunden Rechenzeit angefallen - das sind mehr als fünf Tage. Der neue Stuttgarter Supercomputer benötigt hingegen nur 7,5 Stunden.

Lärmende Flieger

Ein weiteres Forschungsgebiet ist die Simulation von Flugzeuglärm. Diese Analyse kann zur Optimierung der Geometrie des Hochauftriebssystems und zum Nachweis der Einhaltung der Lärmvorschriften verwendet werden. Die Herausforderung ist, einen kompletten Flügel zu simulieren. Das Verfahren verwendet hochgenaue Strömungssimulation, bei der nur turbulente Phänomene im Zentimeterbereich modelliert werden. Kombiniert mit Methoden zur Berechnung der Schallausbreitung wird die Lärmabstrahlung in der Ferne simuliert. Schon die Berechnungen für einen Flügelausschnitt von einigen Metern fordern die gesamte Maschine für ein bis zwei Wochen.

Eine andere rechenintensive Anwendung für Supercomputer ist die Aufbereitung von medizinischen Untersuchungsbildern. Ein Beispiel ist die Operation eines Lebertumors: Wenn die Leber bei der Operation aus dem Körper genommen wird, verformt sie sich. Nun kann aber ein relativ ungenaues aktuelles Ultraschall-Bild mit den präzisen Voruntersuchungsbildern überlagert werden, so dass der Operateur ein genaues Bild des Operationsumfelds erhält. Hierbei müssen Bilder verschiedener Untersuchungsmethoden mit einer Größe von 256 mal 256 mal 256 Pixeln korrekt in 3D übereinander gelegt werden. Die Berechnung der passenden Bildtransformation dauert auf dem Stuttgarter Supercomputer einige Minuten und verwendet einen Knoten mit acht SX-8-Prozessoren von NEC.

Gehirn in Scheiben

Sofern ein Krankenhaus über ein Hochgeschwindigkeitsnetz mit einem Supercomputer verbunden ist, könnten die Untersuchungsbilder direkt übertragen werden. Ein lokalisierter Tumor würde dadurch innerhalb von wenigen Minuten in einem Bild aus der richtigen Perspektive dargestellt, so wie es der Chirurg benötigt, um den richtigen Schnitt zu machen. Noch aufwändiger ist die Rekonstruktion von Präparaten. Für eine dreidimensionale Darstellung eines menschlichen Gehirns müssen beispielsweise Bilder von 6000 Gehirnschnitten mit jeweils 10000 mal 20000 Pixeln zu einem geglätteten 3D-Bild zusammengeführt werden.

Parallel arbeitet das HLRS an Grid-Projekten, um Forscherteams überregional besser zu vernetzen. Transnationale Programme wie das HPC-Europa-Projekt und neuerdings die europäische Grid-Initiative Deisa (Distributed European Infrastructure for Supercomputing) bieten Austauschmöglichkeiten, länderübergreifenden Zugang zu Ressourcen und Forschungsmöglichkeiten auf höchstem Niveau. Allerdings sind Grids in bestimmten rechenintensiven Forschungsgebieten wie etwa im Bereich der physikalischen Simulationen und Molekulardynamik kein Ersatz für leistungsfähige Supercomputer.

Grid mit Sicherheit

Entscheidend für den Beitritt des HLRS zur Deisa waren Sicherheitsfragen: Wenn Unternehmen aus der Industrie an einem Supercomputer etwas berechnen lassen, wie es Porsche, T-Systems, Daimler und Bosch am HLRS tun, dann muss gewährleistet sein, dass kein Unbefugter Zugriff auf die Daten hat. In einer Grid-Community, wo die Daten auf viele verschiedene Rechner verteilt werden - meist sogar über Ländergrenzen hinweg - ist dies zunächst einmal nicht der Fall.

Grid-Projekte können Supercomputer nicht ersetzen. Wissenschaft und Industrie brauchen für ihre Forschungen die höchste Rechenleistung, die das High Performance Computing (HPC) bietet. Grids aus Supercomputern könnten zukünftige Großprojekte ermöglichen, die heute noch nicht einmal denkbar sind. Dafür müssen aber zunächst die bestehenden Probleme in der Datenverwaltung sowie die Fragen der Ressourcen und der Sicherheit gelöst werden. Auch effiziente Grids benötigen als Grundlage immer noch leistungsfähige Supercomputer, selbst in Europa. Das bedeutet auch, dass Forschungsinvestitionen in Supercomputer und Forschungsprojekte erforderlich sind, um die Wettbewerbsfähigkeit Deutschlands nicht zu gefährden. (ajf)