Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

07.10.1988 - 

Kommerzielle Computer sind im naturwissenschaftlichen Einsatz oft überfordert:

Maßgeschneiderte Rechner für spezielle Fragestellungen

Der Griff zum Computer Ist auch den Wissenschaftlern seit Jahren bestens vertraut. Weil ihre Neugier so groß ist, stoßen sie dabei allerdings viel schneller an die Grenzen der Technik als die kommerziellen Anwender. Als möglichen Ausweg schlagen Forscher den Bau von Rechnern vor, die exakt auf den Untersuchungsgegenstand zugeschnitten sind.

In den frühen Tagen der Wissenschaft glaubte man, die Wahrheit liege überall herum, man brauche sie nur aufzulegen wie das reife Korn. Einzige Voraussetzung für eine erforderliche Ernte sei die Fähigkeit, die Natur mit weit offenen Augen und jenem unschuldigen Auffassungsvermögen zu beobachten, das die Menschheit vor dem Sündenfall besessen haben soll - ehe Vorurteile unsere Sinne trübten.

Leider ist die Sache nicht ganz so einfach: Wir können ein ganzes Leben die Natur beobachten, ohne je auf eine wissenschaftlich relevante Wahrheit zu stoßen. Dazu müssen ganz bestimmte Ereignisse zusammentreffen, was entweder vom Zufall abhängt oder von gezielter Planung. Als Wissenschaftler verläßt man sich besser auf das Zweite. Im Klartext: Wir müssen experimentieren, und zwar so, daß wir und nicht der Zufall die Ereignisse zusammentreffen lassen.

Diese Taktik zur Erkennungsgewinnung hat sich bei den Wissenschaftlern längst eingebürgert: Sie entwickeln ein Gedankenmodell des Geschehens, das sie erforschen möchten, leiten daraus Vorhersagen ab und überprüfen diese anschließend in gezielten Experimenten.

Solange sich die Forscher mit klaren und übersichtlichen Vorgängen auseinandersetzen, geht das in der Regel gut. Heikel wird es, wenn sie komplizierten Problemen mit vereinfachten Modellen zu Leibe rücken - etwa, um den Aufwand in einem vertretbaren Rahmen zu halten. In diesem Fall besteht die große Gefahr, daß im Modell jene Phänomene untergehen, die aus der Kombination kleiner Effekte entstehen. Sehr oft gehören ausgerechnet diese vom Modell unterschlagenen Phänomene zu den wichtigsten, sicher aber zu den überraschendsten eines Vorgangs in der realen Welt.

"Synthetische Experimente" mit schnellen Computern

Lange mußten die Wissenschaftler mit dieser Unzulänglichkeit einfach leben: Die an den Polen abgeplattete Erde war im Modell eine Kugel, der Atlantik wurde durch ein quaderförmiges Ozeanbecken repräsentiert, ein sich nach außen verjüngender Flugzeugflügel wurde für Strömungsberechnungen durch einen simplen Keil ersetzt, und so weiter.

Heute sind solche groben Vereinfachungen nicht mehr nötig: Moderne Hochleistungscomputer werden auch mit noch so ausgefransten Linien, krummen Figuren und exotischen Nebenbedingungen fertig sie setzen das Gebilde einfach nach dem Baukastenprinzip aus simplen Grundbausteinen zusammen, deren Verhalten exakt bekannt ist (siehe Kasten "Der Computer als Baukasten"). Mit entsprechendem Aufwand kann man auch komplizierte, naturgetreue Modelle durchrechnen - Modelle, die keine fragwürdigen Näherungen oder Vereinfachungen mehr enthalten.

Mit einem genauen Computermodell können die Forscher Experimente anstellen und kommen so - falls ihre Theorie stimmt - zu den gleichen Ergebnissen, die sie auch im Labor erzielen würden. Die "Schreibtisch-Methode" hat aber den Vorteil, daß man auch Experimente simulieren kann, die in der realen Welt gar nicht ausführbar sind. So läßt sich zum Beispiel aufgrund von Newtons Gravitationsgesetzen herausfinden, wie sich die Umlaufbahn der Erde ändern würde, wenn es den Planeten Mars überhaupt nicht gäbe. Natürlich könnte man das auch von Hand ausrechnen - nur wäre der Zeitaufwand dafür viel zu groß. Ein Computer erledigt das sehr viel rascher und zuverlässiger.

Die Möglichkeit, solche Fleißaufgaben maschinell zu erledigen, hat zu einem Wechsel der naturwissenschaftlichen Methoden geführt. Früher waren die Theoretiker oft gezwungen, ihre Modelle übermäßig zu vereinfachen, da sonst die Rechnerei zu kompliziert geworden wäre. Diese Reduktion führte zwangsläufig zu Ungenauigkeiten - aber das war immer noch besser, als wenn man gar keine Resultate erhalten hätte.

Mit dem Einsatz immer schnellerer Computer hat diese Methode der Wissensfindung zusehends an Bedeutung verloren. An ihre Stelle trat ein rechenintensives Verfahren, bei dem man versucht, Erkenntnisse durch Synthese zu gewinnen. Der Ausgangspunkt dafür sind die (bekannten) Grundgesetze, welche für die einzelnen Teile des Untersuchungsgegenstandes gelten.

Zuerst verschaffen sich die Forscher einen Überblick über die möglichen Systemanordnungen und rechnen dann für jede einzelne die Ergebnisse aus. Die Wahl fällt schließlich auf jene Anordnung, deren Resultate am besten zu den beobachtbaren Details des Experiments passen.

Ein berühmtes Beispiel für die synthetische Methode geht auf das 19. Jahrhundert zurück. Damals wunderten sich die Astronomen, woher wohl die Störungen kamen, die sie bei der Bewegung des Planeten Uranus beobachteten. Die Vermutung lag nahe, daß ein weiterer, bisher unbekannter Planet daran schuld war. Also erweiterten die Forscher auf dem Papier das Sonnensystem um einen hypothetischen Planeten und variierten dessen Eigenschaften, bis die Rechnung die beobachtete Bahnstörung des Uranus ergab. Kurz darauf - man schrieb das Jahr 1846 - entdeckten Astronomen in Cambridge und Berlin den Planeten Neptun in der Nähe des vorausberechneten Orts.

Computermodell entlarvt falsche Galaxien-Theorie

Mit modernen Hochleistungsrechnern kann man das Synthese-Verfahren auch in viel komplexeren Situationen anwenden - zum Beispiel für den Zusammenstoß von Galaxien im Universum. Wie das gemacht wird, beschrieben der Astrophysiker Piet Hut und der Mathematiker Gerald Jay Sussman in der Zeitschrift "Spektrum der Wissenschaft" vom Dezember 1987.

Hinweise auf solche Kollisionen im Kosmos haben die Astronomen mit ihren Teleskopen schon öfters beobachtet: zum Beispiel Galaxienpaare, die dicht beieinander liegen und wie mit einer Brücke verbunden scheinen, oder deformierte Galaxien, die sich stark unterscheiden von den "normalen", welche wie Spiralen, Kugeln oder Ellipsoide aussehen.

In den fünfziger Jahren vermuteten die Himmelsforscher, daß Gravitationskräfte für solche Deformationen verantwortlich sind. Später verwarfen die Wissenschaftler diese Erklärung wieder, weil sie bezweifelten, daß die Schwerkraft alleine so scharf begrenzte und verworrene Formen erzeugen kann. Sie tippten auf exotischere Prozesse wie die Wirkung von Magnetfeldern oder Explosionen im Weltall.

Computersimulationen in den frühen siebziger Jahren zeigten schließlich, daß die ursprüngliche Theorie doch richtig war: Den beiden Astronomen Alar und Juri Toomre vom Massachusetts Institute of Technology beziehungsweise der University of New York gelang es, das beobachtete Verhalten von Galaxien auf dem Rechner wirklichkeitsnah zur reproduzieren - obschon ihr Modell nur Gravitationskräfte berücksichtigte. Jedenfalls erzeugte die Begegnung zweier Galaxien im Computer eine verwirrende Vielfalt von Streumustern, wobei auch die am Himmel beobachteten dünnen und scharf begrenzten Formen auftraten, für die andere Astronomen magnetische Prozesse verantwortlich gemacht hatten.

Probleme bleiben weiterhin kompliziert

Das gelungene Beispiel der Gebrüder Toomre darf allerdings nicht darüber hinwegtäuschen, daß viele Probleme der Physik für die direkte Synthese mit einem umfassenden Modell nach wie vor zu kompliziert sind. In solchen Fällen kann man es mit einem zweistufigen Verfahren versuchen: In einem ersten Schritt bestimmt man das statistische Verhalten von Untermengen des Systems. Ein zweites Modell kombiniert dann diese statistischen Regeln wie Bausteine und ermöglicht im Erfolgsfall, das Verhalten des Gesamtsystems vorherzusagen.

Zu den komplizierten Modellen gehören jene für die Evolution von Sternhaufen. Kugelhaufen, die unsere Galaxis umkreisen, bestehen aus rund einer Million Sterne; damit sind auch die leistungsstärksten Supercomputer hoffnungslos überfordert. Die Wissenschaftler haben deshalb versucht, sich "mikroskopisch" an das Problem heranzutasten, indem sie die Wechselwirkungen zwischen einem einzelnen Stern und einem Doppelstern (einem eng verbundenen Sternenpaar) untersuchten. Auch das war keine einfache Sache: Das Experiment benötigte auf einem Computer mittlerer Größe (VAX 11/780) fast ein Jahr Rechenzeit. Immerhin geben die bisherigen Ergebnisse Anlaß zur Hoffnung, daß die Astrophysiker aufgrund solcher Vorarbeiten die Sternhaufen eines Tages etwas besser verstehen werden . . .

Maßgeschneiderte Rechner ersetzen Supercomputer

Man sieht: Der Aufwand, um durch Computereinsatz neue Forschungserkenntnisse zu gewinnen, ist beträchtlich. Das hat nicht nur mit den rechenintensiven Modellen zu tun, sondern auch mit der wissenschaftlichen Methode: Um die Resultate klassifizieren zu können, muß man viele Experimente ausführen.

Nun kann ein Wissenschaftler den teuren Großrechner natürlich nicht für sich alleine in Beschlag nehmen - Kollegen und Dutzende von anderen Anwendern haben auch Anrecht auf eine Zuteilung der begehrten Maschinenzeit. Damit sind Konflikte unter den Benutzern praktisch programmiert.

Neben dem hohen Anschaffungspreis, den erklecklichen Betriebskosten und den unvermeidlichen Wartezeiten haben Supercomputer noch einen anderen, entscheidenden Nachteil: Ihre auf sehr vielseitige Einsatzmöglichkeiten ausgelegte Architektur eignet sich für bestimmte Aufgaben nur schlecht. In solchen Fällen sind vor allem die Programmierer betroffen, die die nötigen Anpassungen vornehmen müssen. So haben sie zum Beispiel Jahre gebraucht, um auf dem Gebiet der Flüssigkeitsdynamik Software zu entwickeln, die auf normalen Großrechnern gut läuft.

Sehr vielversprechend tönt das ja nicht. Tatsächlich gibt es aber einen Ausweg aus dem Dilemma, wie Hut und Sussman schreiben: "Wenn sich die Wissenschaftler mit fähigen Computerkonstrukteuren zusammentun, können sie gemeinsam mit relativ geringere Aufwand Spezialrechner entwickeln, die auf ganz bestimmte Aufgaben zugeschnitten sind. So ist zum Beispiel der Bau eines Rechners zur Lösung spezieller Differentialgleichungen weder zeitnoch kostenaufwendiger als die Entwicklung entsprechender Programme für einen Supercomputer."

Das große Plus eines solchen Gerätes ist natürlich, daß es den Erbauern alleine zur Verfügung steht - das nervenaufreibende Gerangel, wer den Rechner unter welchen Umständen wie lange benutzen darf, gehört damit der Vergangenheit an.

Das gemeinsame Konstruieren spezialisierter Computer ergibt nach Ansicht von Hut und Sussman nicht einfach neue Maschinen, die ein paar Probleme lösen: "Solche Projekte", schreiben die beiden, "werden den die Rolle des Computers in der Wissenschaft überhaupt verändern." Der Grund: Bisher waren die Forscher nur Computerbenutzer, die sich mit dem Angebot der Hersteller zufrieden geben mußten - einem Angebot, das sich in erster Linie am kommerziellen Markt orientiert. Wenn die Wissenschaftler nun vermehrt dazu übergehen, eigene Rechner zu bauen, setzen sie damit die bewährte Tradition, maßgeblich am Entwurf ihrer Hilfsmittel beteiligt zu sein, auf einem bisher brachliegenden Gebiet fort.

Die Konstruktion von Spezialcomputern ist gar nicht so schwierig, wie es auf den ersten Blick vielleicht scheinen mag. Sie beschränkt sich im wesentlichen auf den Entwurf hochintegrierter Schaltkreise und die Entwicklung entsprechender Software. Für die Fabrikation solcher kundenspezifischer Chips gibt es heute eine ganze Reihe von Firmen.

60mal schneller als die kommerzielle Konkurrenz

Wie lohnend die Sache sein kann, zeigt das digitale Planetarium, das Gerald Jay Sussman zusammen mit zwei theoretischen Physikern, zwei Computerwissenschaftlern und einem Techniker am MIT gebaut hat. Der Spezialcomputer, den das Forscher-Sextett in wenigen Monaten entwarf und realisierte, ist ein Häuflein Elektronik, die in einem Kästchen von 30 Zentimetern Kantenlänge Platz hat. Aber der optische Eindruck täuscht: Die unscheinbare Kiste ist sage und schreibe 60mal schneller als das Paradepferd des US-Herstellers Digital Equipment, die kleiderschrankgroße und natürlich sehr viel teurere VAX-11/780 samt Gleitkomma-Beschleuniger!

Der Grund für die enorme Leistung von Sussmans Winzling - er schafft 10 Millionen Gleitkomma-Operationen pro Sekunde - ist die auf Probleme der Himmelsmechanik zugeschnittene Computerarchitektur: Damit konnten Astronomen die Bahnen der fünf äußeren Planeten während der vergangenen 100 Millionen Jahre und für die kommenden 100 Millionen Jahre berechnen. Das war ein 40mal längerer Zeitraum als bei jeder früheren Simulation der Planetenbahnen. Auf normalen Hochleistungscomputern sind so aufwendige Experimente schlicht zu teuer.

Trotz der offensichtlichen Vorteile, die solche Spezialmaschinen bringen, haben sie sich noch lange nicht durchgesetzt. Weshalb? Weil die Idee, sozusagen im Alleingang Geräte zu bauen, die ebensogut oder gar noch besser rechnen können als die kommerziellen Produkte von Großherstellern, zunächst völlig absurd scheint. Tatsächlich hatte die National Science Foundation Sussmans Antrag zur Konstruktion eines digitalen Planetariums zurückgewiesen: "Das Projekt ist undurchführbar", behaupteten die Experten, alles erfahrene Wissenschaftler. Der MIT-Professor hat sie Lügen gestraft.

Mathematische Modelle, Wissensfindung durch Synthese, Spezialrechner - was kommt wohl als nächstes in der computergestützten Forschung? "Um Computer in der Wissenschaft wirksam einzusetzen", schreiben Hut und Sussman am Schluß ihres Artikels, "reichen allmähliche Verbesserungen der Hardware und der Programme nicht mehr aus. Die experimentelle Ausbeute muß verbessert werden, indem man den Forschern eine Art Computer-Werkzeugkiste zur Verfügung stellt."

Auf der Wunschliste stehen Werkzeuge, die dem Wissenschaftler nicht nur bei der Vorbereitung, Durchführung und Auswertung von Experimenten tatkräftig helfen, sondern "Werkzeuge, die auch verstehen, wie die Modelle arbeiten und wie diese mit anderen Beschreibungen der untersuchten Phänomene zusammenhängen."

"Ein Wissenschaftler", fordern die beiden Autoren, "sollte in der Lage sein, über ein Galaxienmodell mit einem Computer fast genau so zu diskutieren wie mit einem menschlichen Mitarbeiter." Hut und Sussman glauben, daß solche elektronischen Forschungskollegen tatsächlich realisierbar sind - auch wenn es sie bisher nicht einmal ansatzweise gibt.

Ihren Optimismus beziehen die beiden Technofreaks aus der Geschichte: "Schon oft haben neue Werkzeuge eine Zivilisation radikaler verändert, als die Erfinder dieser Hilfsmittel es sich in ihren wildesten Träumen vorgestellt hatten. Warum sollte dies bei den Computern anders sein - schließlich sind diese längst über die reine Zahlenverschieberei hinausgewachsen und tragen jetzt auch mit symbolischen und qualitativen Berechnungen zum Fortschritt der Wissenschaft bei." Womit es nach Ansicht des Forscherduos langsam Zeit wird, "daß sich die Computer von zahlenfressenden Sklaven zu kompetenten und mitdenkenden Laborassistenten emanzipieren."

Egal, ob das nun Science oder Fiction ist: Einen echten Laborassistenten wird der Computer nie ersetzen - dazu müßte er ja geradezu menschliche Eigenschaften haben; Er müßte ein verantwortliches, empfindsames und erfahrenes Wesen sein und als solches auch anerkannt werden. So weit wird es aber nie kommen, weil dies keine technische Angelegenheit ist. Künftige Computer mögen noch so kompetent und vielwissend sein, Weisheiten darf man von ihnen nicht erwarten - auch keine wissenschaftlichen.