Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

15.06.1990 - 

Weil sie billiger als Vektorrechner sind:

Biologen und Quantenchemiker entdecken den Parallelcomputer

In der wissenschaftlichen Forschung kann man heute vielfach erleben, daß selbst moderne Vektorrechner bei weitem zu langsam sind, sollen bestimmte Phänomene gründlich untersucht werden. Und da obendrein gerade Wissenschaftler meist mit knappen Etats operieren müssen, greifen mehr und mehr Forscher nun zu einem Ausweg, den etablierte Informatiker immer noch häufig für etwas eher Exotisches halten: Sie lernen, aus schnellen, wenngleich etwas schwierig zu programmierenden Parallelcomputern modernster Bauart immer mehr Nutzen zu ziehen.

Eine der ersten Adressen auf dem Felde wissenschaftlicher Forschung ist in Deutschland die Max-Planck-Gesellschaft mit ihren zahlreichen Instituten. Und von jenen wiederum hat insbesondere eines viele und besonders aufwendige Berechnungen auszuführen, wie seine Mitarbeiter beredt zu klagen wissen: das Stuttgarter Institut für Festkörperforschung. Deshalb wird gerade dort mit regem Interesse verfolgt, welche neuen Chancen die Technik schneller, parallel arbeitender Mikroprozessoren heute eröffnet.

Die moderne Wissenschaft hat heute zumindest in der Theorie die Möglichkeit, Strukturen und Eigenschaften beliebiger Moleküle und Festkörper a priori vorherzusagen - sie bietet damit einen Ansatz, der natürlich vor allem die Quantenchemiker fasziniert. Doch bei näherem Hinsehen zeigt sich, daß dazu der Einsatz schneller Computer notwendig ist, und selbst dann bleiben viele Modellierungs-Versuche allenfalls Näherungslösungen.

Zigfacher Rechenaufwand zeigt bald Grenzen auf

Die leidvollen Erfahrungen der letzten Jahre haben den Quantenchemikern in Stuttgart gezeigt, daß vor allem die aktuell erreichbare Leistung ihrer Rechner jene Grenze bestimmt, bis zu der sie in die Feinheiten der Materie blicken können. Denn wollen sie eine bestimmte Lösung beispielsweise doppelt so genau berechnen wie die bisherige, so müssen sie dafür den acht- bis 32fachen Rechenaufwand treiben. Wollen sie bei gleicher Genauigkeit ein doppelt so umfangreiches Problem bearbeiten, so steigt der Rechenaufwand gleichfalls um die genannten Werte.

Diese Zusammenhänge haben dazu geführt, daß die bisherige Geschichte der Quantenchemie zu einem großen Teil durch die Genese der Computer - insbesondere durch die Entwicklung ihrer technisch-wissenschaftlich-arithmetischen Leistungsfähigkeit - bestimmt wurde. Dabei wurden in der Regel neue Rechner nicht etwa in einer Weise konzipiert, daß sie den besonderen numerischen Erfordernissen der Quantenchemie entgegengekommen wären, sondern die Wissenschaftler mußten praktisch immer in der Gegenrichtung denken: Sie hatten beim Erarbeiten ihrer besonderen Programme nämlich nur auf die jeweils aktuellen, für sie geradezu schicksalhaft-starr vorgegebenen Rechnerarchitekturen zu reagieren.

Diese Situation wollen die Stuttgarter Max-Planck-Forscher jetzt dadurch ändern, daß sie sich ganz gezielt jene weitreichenden Möglichkeiten zunutze machen, die ihnen die moderne Elektronik in Gestalt schneller, preiswerter Mikroprozessoren bietet. Mit ihnen lassen sich auf vergleichsweise einfache Weise interessante Parallelrechner-Strukturen entwickeln, für die Fachleute übrigens auch auf zahlreichen anderen Feldern der modernen Rechnertechnik eine große Zukunft prognostizieren.

Eben diese Fachleute sind andererseits heillos zerstritten, geht es um Fragen nach der konkreten topologischen Ausgestaltung der parallelen Rechnernetze, nach der Lastverteilung zwischen den einzelnen Knoten solcher Netze und nach der Kommunikation zwischen diesen Knoten etc.

Mit Blick auf ihre ganz speziellen Anforderungen als Quantenchemiker haben die Stuttgarter Wissenschaftler für ihre ersten, tastenden Schritte auf dem Feld der Parallelrechner zu einem Mikroprozessor britischer Provenienz gegriffen, der speziell für den Aufbau paralleler Rechenwerke konzipiert wurde und der in einer parallelisierungsfreundlichen Sprache namens Occam programmiert wird. Sowohl die Prozessoren als auch ihre Sprache basieren auf dem Konzept kommunizierender sequentieller Prozesse, um den Aufbau mehrdimensionaler Rechnernetze zu erleichtern. Sie eignen sich für komplexe und umfangreiche Prozesse, bei denen Daten etc. über einzelne Kommunikationskanäle ausgetauscht werden.

Diese Netze verzichten auf einen zentralen, gemeinsamen Speicher, denn an seine Stelle treten lokale Speichereinheiten, die den einzelnen Knoten des Netzes zugeordnet sind. Wie die Stuttgarter Forscher herausgefunden haben, läßt es sich mit dieser Art von Prozessornetzen recht preiswert experimentieren: Die Systeme sind modular aufgebaut, damit kann man die Funktionsfähigkeit eines neuen Programms beziehungsweise eines neuen Netzkonzepts bereits an Hand einiger weniger Prozessoren testen.

Fortran unter Occams Leitung

Im Zuge der konkreten Erprobung der neuartigen Möglichkeiten für parallele Rechnerstrukturen zeigte sich bald, daß selbst ein fast kostenloser neuer Rechner immer dann wertlos ist, wenn der Aufwand, ihn zu programmieren, jedes sinnvolle Maß übersteigt. Dies gilt auch für die aus Zeit- und Kostengründen in einem Forschungsinstitut nur theoretisch mögliche Neuentwicklung eines der klassischen Fortran-Programme, mit denen die Quantenchemiker bisher den Eigenschaften neuer Moleküle nachspürten. Da ein Fortran-Programm nicht einfach auf einem Occam-Rechner gestartet werden kann, wäre guter Rat teuer - böte Occam nicht eine Möglichkeit, vorhandene und bewährte Fortran-Routinen in ein paralleles Occam-Programm als Unterprogramme einzubinden.

Die Quantenchemiker bauten also das vorhandene, weithin bekannte und bewährte Fortran-Elaborat Hartree-Fock-Programm so um, daß die herkömmlichen Fortran-Routinen jetzt nur noch für die Arithmetik eingesetzt werden, während Occam die Steuerung der parallel laufenden (Fortran-) Prozesse sowie die Verteilung der Daten übernimmt. Es gelang ihnen, diese Arbeit in nur wenigen Monaten durchzuführen - und sich damit gleich auch eine Basis zu schaffen, auf der sie bei anderen Vorhaben aufbauen können. Die sogenannte Hartree-Fock-Wellenfunktion gilt in Fachkreisen nicht nur als Lieferant ausreichend genauer Resultate, sondern auch als Ausgangspunkt für weiterführende Methoden .

Hartree-Fock-Programme herkömmlicher Machart sollen laut Aussage der beteiligten Forscher selbst bei klassischen, herkömmlichen Supercomputern deren teure Vektoreigenschaften nur wenig ausnützen, während die Kombination aus Occam- und Fortran-Code nunmehr wesentlich attraktiver sei. Denn hier könne jetzt temposteigernd genutzt werden, daß das Rechenverfahren sich in seinem überwiegenden Teil leicht in unabhängige, parallel bearbeitbare Prozesse aufteilen lasse, die untereinander nur in geringem Maße kommunizieren müßten. Hier werde nur noch ein kleiner Rest von Arbeitsschritten auf einem der Knoten sequentiell bearbeitet. Der Vergleich, wie schnell ein Parallelrechner-Netz einerseits und ein herkömmlicher Rechner mit sequentieller Arbeitsweise andererseits mit der parallelisierten beziehungsweise mit der konventionell-sequentiellen Form des fraglichen Programms fertig werden, sorgt zunächst für eine Überraschung. Denn solange man während der Entwicklung des neuen Rechners nur ein Parallelsystem mit wenigen Knoten einsetzt, kommt es erheblich langsamer voran, als man eigentlich denken sollte.

Dieses verblüffende Phänomen ist erst zu erklären, wenn man die internen Abläufe im neuen Parallelrechner-Netz mit seinen lokal verteilten Speichereinheiten eingehender betrachtet. Gerade der Verzicht auf einen globalen, für alle Prozessoren zuständigen Speicher bewirkt hier, daß bestimmte Werte, die im konventionellen Programm bloß einmal errechnet und dann abrufbereit zwischengespeichert werden, hier wieder und wieder neu zu kalkulieren sind.

Die Investition zahlt sich aus

Beim Übergang auf parallele Algorithmen für parallele Maschinen ohne globalen Speicher ist also zunächst ein gewisser Preis zu bezahlen - doch dies ist eine Investition, die sich mit Blick auf die Zukunft ganz gewiß lohnt. Je mehr Prozessorknoten ein Parallelrechner-Netz aufweist, desto effizienter werden die anstehenden Parallel-Programme bearbeitet, berichtet das Stuttgarter Max-Planck-Institut. Ein System mit nur neun Prozessorknoten soll jetzt schon ein Viertel jener Leistung erreichen, die eine - wesentlich kostspieligere - Cray-X/MP1 zu bieten vermag. Und je mehr Knoten zum Preis von zirka 3000 Mark in das System eingebunden werden, desto schneller dürfte das gesamte Netz seine Arbeit verrichten.

Ein anderes Feld, das an die Geschwindigkeit der eingesetzten Computer hohe Ansprüche stellt und auf dem deshalb gleichfalls intensiv an Parallelisierungsmöglichkeiten gearbeitet wird, betrifft die Erkennung bestimmter Bildmuster. Es geht hier um sehr große elektronenmikroskopische Bilderdatensätze biologischer Riesenmoleküle. Sie fallen im Berliner Fritz-Haber-Institut der Max-Planck-Gesellschaft an und sollen Einzelheiten eines Körpers mit weniger als acht Nanometern Durchmesser - was 30 bis 40 Atomabständen entspricht - zeigen; doch da die Ergebnisse leider nur stark "verrauscht" und mithin unscharf sind, müssen sie per Computer noch verbessert werden. In Berlin geschieht dies dadurch, daß man den Mittelwert aus zahlreichen Einzelbildern errechnet und so aus der verrauschten Abbildung das herauslöst, was - unabhängig von zufälligen Schwankungen - wirklich ein bleibendes und somit biologisch relevantes Signal beziehungsweise Bild-Detail ist.

Bei typischen Untersuchungen dieser Art fallen etwa 10 000 Einzelbilder mit je 4096 Bildelementen an, aus denen der Computer auf komplizierte Weise eine Art "Punkte-Wolke" errechnet, deren interne Struktur dann wiederum per Computer, und zwar nach einem automatischen Klassifizierungsverfahren, ermittelt wird. Am Ende stehen dann rauschfreie Bilder, die die Struktur des jeweiligen Objekts bis auf rund 1,5 Nanometer beziehungsweise auf sechs bis acht Atomabstände genau enthüllen.

Auch dreidimensionale Darstellung der fraglichen Makromoleküle sind dank moderner Computertechnik kein Problem mehr. Denn auf ähnliche Weise, wie ein sogenannter Computer-Tomograph aus Schnittbildern des menschlichen Körpers, die er zuvor selbst errechnet hat, dreidimensionale Darstellungen von dessen Innern anfertigt, kann ein Rechner auch die gewünschten 3D-Molekül-Ansichten generieren.