Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

17.05.1991 - 

Europäische Initiative für Großrechner (Teil 1)

Tflop-Rechner soll Bausteine unseres Universums erforschen

Bei der Untersuchung von natürlichen und technischen Prozessen setzt sich in der wissenschaftlichen Forschung neben Theorie und Experiment immer mehr die Computersimulation durch. Viele Fragen aus Chemie, Physik, Astrophysik, Strömungsmechanik und Meteorologie können allerdings mit den heute verfügbaren Rechenleistungen nur unbefriedigend oder gar beantwortet werden. In Europa hat sich aus diesem Grund eine von Physikern getragene Initiative namens ETI (European Teraflop Initiative) gegründet. Ihr Ziel ist der Bau eines Rechner mit einer Leistung von einem Teraflop.

Die Untersuchung der interessantesten und wichtigsten Probleme der modernen Forschung ist nicht mehr denkbar ohne eine neue Schlüsseltechnologie: das Computerexperiment, die computerunterstützte Simulation und Lösung von theoretischen und technischen Problemen.

Reise durch die Weit der Computersimulationen

Zu den "Großen Herausforderungen" unseres Jahrzehnts zählt der Nobelpreisträger Kenneth Wilson unter anderem Bereiche der Astro- und Elementarteilchenphysik, des Molekulardesigns, der Ökosysteme oder der Strörpungsmechanik. Neben Wissenschaftlern aus der Strömungsmechanik und anderen Gebieten sind es deshalb vor allem die Physiker, die die Rechenzentren und deren Supercomputer auslasten.

Die Simulation des Weltklimas zum Beispiel basiert derzeit auf Gitternetzen, bei denen ein Land wie Spanien im Rechnermodell zu einem einzigen Vox21 (Volumenelement) zusammenschrumpft; die Alpen und Pyrenäen sind gerade noch als leichte Erhebungen Über der Erdoberfläche zu erkennen.

Für eine detaillierte Untersuchung des Wettermodells ist diese Simulationsgröße zwar völlig unzureichend; sie erlaubt allerdings eine Untersuchung der Rechenmethoden. Dieses noch relativ grobe Modell dient Modell dient damit zur Vorbereitung auf den Zeitpunkt, an dem mit einer ausreichenden Rechenleistung ein globales Klimamodell in genügender Auflösung simuliert werden kann.

Die Reise durch die Welt der Computersimulationen führt von der Betrachtung astronomischer Größenordnungen bis hin zur Suche nach den Wechselwirkungen zwischen den elementaren Bausteinen von Protonen und Neutronen, den Quarks und Gluonen. Ein Fachgebiet hebt sich aus der Nachfrage nach hohen und höchsten Rechenleistungen besonders hervor die Quantenchromodynamik (QCD).

Die experimentellen und theoretischen Untersuchungen auf diesem Gebiet der Teilchenphysik erforschen die elementaren Wechselwirkungen zwischen den Bausteinen unseres Universums. Auf der Suche nach den kleinsten Baukomponenten der Materie, den Quarks und Gluonen, war und ist das Experiment ein wesentliches Werkzeug der Physiker.

Beschleunigerringe wie der von CERN in Genf zeigen, wieviel Aufwand betrieben werden muß, um in diesem Bereich der Grundlagenforschung weitere Ergebnisse liefern zu können und die Bestätigung einer Theorie zu erhalten. Der Teilchenbeschleuniger in Genf hat einen Umfang von 27 Kilometern und beschleunigt Teilchen auf kinetische Energien bis zu 91-Giga-Elektronen-Volt (GeV).

Derzeit wird in Texas der weltgrößte Beschleunigungsring SSC gebaut" der Teilchen auf eine Energie von über 40 Tera-Elektronen-Volt, also den über verhundertfachen Wert, beschleunigen soll.

Parallel zu den Experimenten wird seit Anfang der Achtziger Jahre in zunehmendem Maße die Computersimulation in der Elementarteilchenphysik eingesetzt.

Zu schnellen und effizienten Ergebnissen führen hierbei allerdings Rechenleistungen in bisher unbekannten Größenordnungen: Tflops und mehr werden notwendig. Ein Tflop entspricht einer Rechenleistung von tausend Milliarden Berechnungen in einer Sekunde, mithin etwa der Leistung von einer Million normaler PCs.

Europa ist sich der Herausforderung dieser neuen Schlüsseltechnologie wohl bewußt. Der Physik-Nobelpreisträger Carlo Rubbia kam im Februar 1991 in seinem Report als Vorsitzender der EG-Arbeitsgruppe "Höchstleistungs-Computing" zum Schluß, daß Europa in die Lage versetzt werden muß, bis zum Jahre 2000 einen eigenen Tflop-Computer erfolgreich im Markt zu plazieren.

Für diesen Rechengiganten muß natürlich auch ein Software-Umfeld entwickelt werden, damit ein solches System überhaupt breitgefächert einsetzbar ist.

In einem sind sich alle bisher vorgelegten Konzepte zur Realisierung einig: Ein Tflop-Rechner kann nach dem heutigen Stand der Rechnertechnologie nur ein massiv-paralleler Computer sein. Traditionelle sequentielle oder vektororientierte Rechner sind bereits zu nah an den physikalischen Grenzen konstruiert, UM als Grundlage für die Architektur eines Tflop-Rechners dienen zu können.

Die Lösung liegt in einem massiv-parallelen Rechner mit einer großen Anzahl relativ einfacher Prozessoren, die gleichzeitig an einem Problem arbeiten. Das konzeptionelle Leistungspotential der Parallelrechner liegt dabei weit über dem der Vektor-Supercomputer: Parallelrechner profitieren nicht nur vom schnellen Fortschritt in der Entwicklung der Mikroprozessortechnologie, sondern auch davon, daß immer höhere Prozessorzahlen kontrolliert werden können.

Die wichtigsten Wurzeln der Parallelverarbeitung liegen in Europa, wo man schon seit über einem Jahrzehnt verschiedenste Ansätze für Parallelsysteme untersucht und einsetzte Hier sind nicht nur neuartige Konzepte und Systeme entstandene sondern es hat sich auch eine große Gemeinschaft gebildet, die im Bereich der Parallelverarbeitung tätig ist.

In dieser Gemeinschaft finden sich Hardware- und Software-Produzenten, Forschungseinrichtungen von Hochschulen und Industrie Förderungskonzepte auf Landes- und europäischer Basis (zum Beispiel Esprit) und eine Reihe von Diskussionsforen. Hier wurde das Fundament für die kurzfristige und kostengünstige Konstruktion von Hard- und Software für einen, einsatzfähigen Tflop-Rechner mit breitem Anwendungsspektrum gelegt.

Vor diesem Hintergrund hat sich gegenüber den bereits laufenden amerikanischen Arbeiten die Europäische Tflop-Initiative ETI gegründet. Ziel ist, die Forderung Rubbias zu erfüllen und einen eigenen, europäischen Tflop-Computer zu bauen. Die Initiative setzt sich auf deutscher Seite aus bedeuten den Forschern von DESY, CERN und verschiedenen Hochschulen zusammen. Diese Arbeitsgruppe wandte sich an die Aachener Parallelrechnerfirma Parsytee mit der Bitte um Aussagen zu den konkreten Möglichkeiten einer Tflop-Technologie.

Eine Anfang 1991 hier eingerichtete Task Force legte daraufhin der ETI ein Konzept für den Bau eines Tflop-Computers vor, basierend auf den Erfahrungen, die bisher mit dem Bau und Betrieb von Parallelrechnern gemacht wurden. Dabei suchte man nach Konstruktionsmerkmalen, die Realisierbarkeit und Betrieb eines Tflop-Computers sicherstellen.

Drei Kriterien standen für den Entwurf im Vordergrund: Betriebssicherheit Kostenminimieirung und Kompaktheit. Das Design folgt daher soweit wie möglich einem im Computerbau fast radikalen Gedenken dem der Einfachheit. Erfahrungsgemäß scheitern ambitionierte Projekte nicht an ihren Zielen, sondern an der Komplexität ihrer Umsetzung; auch in der Computertechnologie gibt es Beispiele dafür. Nur die konsequente Einhaltung von maximaler Einfachheit in allen Designstufen gewährleistet die Realisierung eines Tflop-Rechners.

In dem erwähnten Entwurf werden 65536 autarke Prozessorknoten über ein Kommunikationsnetz zusammengeschaltet. Um ein breites Spektrum an Potentiellen Anwendungen abzudecken, schlug man für die Kommunikation zwischen den Prozessoren ein 3D-Raumgitter vor.

Diese Topologie stellt ein über das gesamte System homogenes Kommunikationsnetz sicher und orientiert sich an einer natürlichen, das heißt problemnahen Struktur.

Die Unterstützung von 65 536 Prozessorknoten erfordert, daß möglichst viele Komponenten eines Knotens, wie Fließkommaarithmetik und Kommunikationsdienste, auf einem Chip integriert sind, damit ein möglichst einfacher Aufbau des Gesamtsystems gewährleistet bleibt.

Jeder Knoten des Parallelrechners funktioniert wie ein selbständig und unabhängig arbeitender Rechner. Das Prinzip geht bereits auf das Jahr 1978 zurück, in dem C.A.R. Hoare in einer inzwischen klassischen Arbeit vorschlug, ein Parallelkonzept auf der Basis von miteinander kommunizierenden sequentiellen Prozessen zu etablieren. Dieser Ansatz führt zu einer beliebigen Anzahl von ansonsten völlig autonomen Einzelprozessoren, die bei Bedarf zielgerichtet miteinander kommunizieren. (wird fortgesetzt)