Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Erfahrungsaustausch über Parallelrechnerprogrammierung:

Neue Möglichkeiten durch Supercomputer in der Chemie

31.03.1989

Zum zweiten Mal richtete die IABG (Industrieanlagen-Betriebsgesellschaft mbH) in Ottobrunn das Seminar Supercomputer und Chemie in Zusammenarbeit mit der Universität Bonn aus. Es sollte der chemischen Industrie, den Hochschulen und den Super- und Mini-Supercomputerherstellern und -Nutzern zum Erfahrungsaustausch dienen. In diesem Jahr standen auf der Informatikseite die Parallelrechner und ihre Programmierung im Mittelpunkt.

Die Parallelrechner lassen sich in zwei Klassen einteilen: Wenige Prozessoren teilen sich einen gemeinsamen Hauptspeicher, zum Teil haben sie auch kleinere lokale Speicher. Eine Grenze wird hier bei etwa 64 Prozessoren gesehen. Auf der anderen Seite arbeiten viele Prozessoren mit eigenem Speicher, die miteinander Informationen austauschen. Zur ersten Gruppe gehören beispielsweise die Cray Y/MP Cray 2, Eta 10, zur anderen der Intel Hypercube oder Suprenum.

Beide Klassen erfordern ein neues Denken und Programmieren. Der Anwender muß jetzt beispielweise an die Auslastung der Prozessoren denken, denn alle sollen ein möglichst gleiches Aufgabenvolumen zugeteilt bekommen. Der Anwender muß sich dabei auch die Synchronisierung der parallelen Aufgaben überlegen.

Da das derzeitige Fortran 77 und das geplante Fortran 8x keine Sprachelemente zur Parallelverarbeitung enthalten, müssen die Hersteller entweder Compilerdirektiven oder eine Unterprogrammbibliothek bereitstellen. Bei der IBM 3090 oder der Eta 10 entwickelt es sich fast schon zu einer Direktivensprache.

Als Fazit bleibt bei Parallelrechnersystemen zu beachten:

1. Alle Prozessoren sollten während der gesamten Ausführungszeit voll beschäftigt werden.

2. Die Größe der Teilaufgaben muß der Kommunikationszeit beziehungsweise Synchronisationszeit angepaßt werden, die Granularität muß angemessen sein.

3. Die Problemgröße muß bezogen auf die Anzahl der Prozessoren angemessen sein.

4. Die autoparallelisierenden Compiler haben noch nicht den Leistungsstand erreicht, den die autovektorisierenden derzeit haben.

Der Blick zu den Parallelrechnern war stärker in die Zukunft gerichtet. Den theoretischen Chemiker an der Hochschule oder in der Industrie plagen die Probleme mit den Rechenzeiten und in der Nutzung der Supercomputer.

Nachdem beim vorhergegangenen Seminar im wesentlichen theoretische Ergebnisse im Vordergrund standen, wurde jetzt auch über Rechenzeiten und Erfahrung in der Nutzung von Supercomputern, wie Cray 2, Cray X/MP, Siemens VP 200, und Minisupersomputern, wie Convex C1 und Alliant, berichtet.

Viele Programmpakete in der theoretischen Chemie wurden von den Chemikern auf Skalarrechnern entwickelt. Diese Schwäche zeigte sich nun auf Supercomputern, die Vektorverarbeitung wurde kaum genutzt. Inzwischen wurden wichtige Programmpakete auch dort handvektorsiert - bis hin zu neuen mathematischen Verfahren.

Die Möglichkeiten der "computational Chemistry" sind durch die Supercomputer erheblich gewachsen. Durch den Vergleich von Molekülstrukturen im Rechner kann viel Zeit bei der experimentellen Suche gespart werden.

So ist beispielsweise wichtig, bei der Entwicklung von neuen Wirkstoffen in der Pharmaindustrie die Nebenwirkungen und die biologische Abbaubarkeit mit eingehen zu lassen. Die Korrelation der Geometrie der Moleküle mit der biologischen Wirkung wird untersucht.

Die Palette an selektiven, biologisch unbedenklichen und nebenwirkungsfreien Substanzen ist noch lange nicht noch lange nicht vollständig. Mit den klassischen "trial and error"-Verfahren ist dieses Ziel immer schwerer zu erreichen. Die Forderung nach leistungsfähigeren Rechnern mit größerem Hauptspeicher wird daher immer lauter.