Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

13.08.1993

Auch US-Wissenschaftler entdecken das Downsizing PC- und Spezialrechner-Netze konkurrieren mit Supercomputern Supercomputern Von Egon Schmidt*

In der kaufmaennisch-administrativen Datenverarbeitung sind sie seit geraumer Zeit ein Thema: die Einsparungen, die man beim Ersetzen teurer Grossrechner durch Netze kompakter Arbeitsstationen und PCs erzielen kann. In den USA nutzen auch Wissenschaftler diese Moeglichkeit, sich von den teuren Vektor- und Parallelrechnern zu emanzipieren.

Unlaengst spannten amerikanische Forscher ein ausgedehntes Rechnernetz, das Universitaeten und Forschungslabors der Bundesstaaten Indiana, Georgia, Florida, Kalifornien und Tennessee zusammenfuehrt und in das nicht weniger als 48 IBM-RS-6000-Rechner, ferner 48 Sun-Sparc-Maschinen und zwei massiv-parallele Intel- Hypercube-Konfigurationen mit ihren Prozessoren vom Typ i860 eingebunden waren. Es gelang den Wissenschaftlern, die Zusammenarbeit all dieser Maschinen so gut zu koordinieren, dass sie beim Bearbeiten aufwendiger Berechnungen aus Physik und Chemie binnen zehn Minuten das gleiche erreichten, was auf einem teuren Vektor-Supercomputer der Spitzenklasse drei Stunden an Rechenaufwand erfordert haette.

Hisao Nakanishi aus West Lafayette, Indiana, der zusammen mit Vernon Rego und Vaidy Sunderam aus Atlanta die treibende Kraft hinter diesem Experiment war, untersuchte mit seinen 130 Rechnern das Verhalten von Polymer-Ketten innerhalb poroeser Materialien sowie insbesondere beim Durchqueren bestimmter Membranen. Die Leistung der Forschergruppe sowie ihrer Kollegen andernorts wurde durch den ersten Preis im 1992er Gordon-Bell-Wettbewerb gewuerdigt, der jeweils fuer Fortschritte bei der Loesung technisch-wissenschaftlicher Problemstellungen mit Hilfe schneller Rechner verliehen wird.

Weit billiger

als Supercomputer

Dass es, statt teure Rechenzeit auf einem Supercomputer zu buchen, sinnvoller sein koennte, kleine und mittlere Rechner in grosser Zahl zusammenzuschalten, wurde den Polymer-Forschern schon klar, als sie erstmals grob den Umfang des gesamten Berechnungsproblems abschaetzten. Denn offensichtlich wuerde, so ergaben vorlaeufige Kalkulationen, selbst ein schneller Supercomputer Tage, wenn nicht gar Wochen an reiner Rechenzeit benoetigen, um die Gesamtheit aller Aufgaben zu bewaeltigen.

Die Idee, neue Programme zu entwickeln, mit deren Hilfe mehrere kleine Rechner wie ein einziger grosser arbeiten und sich in die einzelnen Abschnitte der Berechnung teilen koennen, gewann rasch an Attraktivitaet. Zum einen erfuhren die Wissenschaftler von Kollegen, dass dieses Zusammenschalten diverser Tischcomputer, Grafikrechner, Mehrprozessor-Systeme und anderer Maschinen in Leistungsbereiche fuehren kann, die die Grenzen herkoemmlicher - und ohnedies meist ueberlasteter und mithin nur selten freie Rechenzeit bietender - Supercomputer weit hinter sich lassen. Zum anderen lockte die in Aussicht stehende Kostenersparnis.

Die Astrophysikerin Margaret Geller aus Cambridge, Massachusetts, suchte unlaengst nach gang- und auch finanzierbaren Wegen, wie sie aus zahllosen astronomischen Einzelbeobachtungen eine dreidimensionale Darstellung des gesamten Universums erarbeiten koennte. Besonders ging es ihr um die raeumliche Verteilung der einzelnen Galaxien, die nach neuester Kenntnis vielfach quasi auf den Wandungen gigantischer "Seifenblasen" zu sitzen scheinen. Dabei fand sie, dass spezielle und eher billige Grafikrechner bei solchen Visualisierungsaufgaben oft die bessere Wahl sein koennen, misst man sie an herkoemmlichen Grosssystemen; und zwar auch, weil der Betrachter, nicht zuletzt auch mit Techniken der Virtual Reality, sozusagen frei durch das Universum wandern kann. Was uebrigens, haette es diese Grafikmaschinen schon frueher gegeben, auch die Entdeckung der erwaehnten Seifenblasen-Strukturen beschleunigt haette, wie Frau Geller meint.

Spezielle Maschinen sind bei vergleichbarer Leistung entweder weit billiger als herkoemmliche Supercomputer mit ihren 15- bis 30- Millionen-Dollar-Preisschildchen; oder aber sie sind - wie dies auch die teuren Rechner der Hollywood-Filmgesellschaften und die aufwendigen Installationen mancher Oelkonzerne zeigen - auf ihrem Spezialgebiet weitaus leistungsfaehiger und flexibler als konventionelle GroRechenleistung

zum Nulltarif

Flexibilitaet ist, neben dem Kostenfaktor, einer der ganz zentralen Punkte beim schon skizzierten Zuammenkoppeln mehrerer Kleinrechner zu einem homogenen, wohlkoordiniert arbeitenden Cluster-Gesamtsystem. Denn diese Maschinen koennen fortan sowohl ihrer eigentlichen, primaeren Bestimmung als lokale, persoenliche Arbeitsstationen dienen als auch als aktiver Teil des Cluster- Netzes geschaltet werden. Auch die jeweils fuer ein spezielles Problem gewuenschte Konfiguration so einer Kleinrechner-Gruppe kann nach Zahl und Art der Maschinen sehr exakt - und wiederum von Fall zu Fall ganz flexibel - auf die gegebenen, ganz speziellen Anforderungen abgestimmt werden.

Zwar werden in der Praxis die Kleinrechner-Gruppen fuer die Bearbeitung einer bestimmten Aufgabe oft mehr Zeit benoetigen als ein schneller, teurer Grossrechner - doch unterm Strich leisten sie die Arbeit eben vielfach weit billiger. Ganz besonders interessant wird diese Kostenrechnung dann, wenn man sich vor Augen fuehrt, wie viele PCs und Arbeitsstationen oft stunden- und naechtelang nutzlos herumstehen. Die Einbindung in ein koordiniert operierendes Netz erhoeht den Auslastungsgrad derartiger Stationen schlagartig. Beziehungsweise umgekehrt formuliert: Das Einkoppeln dieser Rechner in automatisch im Hintergrund arbeitende Netzkonfigurationen schenkt sozusagen zusaetzliche Rechenleistung und -zeit zum Nulltarif.

Allerdings darf der grosse Erfolg, den Nakanishi, Rego und Sunderam als Sieger des Gordon-Bell-Wettbewerbs mit ihren 130 Rechnern erzielten, nicht blind machen fuer die zahllosen Probleme, die ehrgeizige Unternehmungen dieser Art aufwerfen. Allein die logistischen Schwierigkeiten, die beim Verwalten einer so grossen Zahl von Rechnern zu ueberwinden sind, koennen so manchen entmutigen; vor allem die Programme, die dem eigentlichen logischen Aneinanderkoppeln der einzelnen Stationen dienen sollen, sind ein stark einschraenkender Flaschenhals. Deshalb darf es nicht weiter verwundern, wenn die volle theoretische Leistung einer Gesamtkonfiguration oft nicht ausgeschoepft wird.

Metacomputer in

landesweiter Ausdehnung

Indes wird an der Ueberwindung der diversen Schwierigkeiten schon laengst intensiv gearbeitet. Larry Smarr als fuehrender US-Experte aus Urbana-Champaign meint zuversichtlich, die Zukunft werde bald schon spuerbare Fortschritte bringen. Der Direktor des Nationalen Zentrums fuer Supercomputer-Anwendungen der Universitaet Illinois sieht mit der Zeit eine Art US-weit implementierten, nationalen "Metacomputer" entstehen, dessen internes logisches Nervensystem aus schnellen Datenleitungen bestehen wird und der nach aussen wie ein einziger, maechtiger Rechner auftreten soll.

Ein Metacomputer dieser Art wuerde dann in landesweiter Ausdehnung dasselbe darstellen, was im lokal begrenzten Rahmen schon jetzt als Supercomputing-Zentrum firmiert und was gleichfalls eine Sammlung gekoppelt arbeitender Rechner der verschiedensten Spezialisierungen und Leistungsstufen umfasst: vom innovativen Parallelrechner ueber herkoemmliche Vektormaschinen bis zu Grafikstationen, Datenbank-Servern und nicht zuletzt auch simplen PCs.

Auf dem Weg zu einem solchen Metacomputer haben die vier heutigen Supercomputer-Zentren der USA in Urbana-Champaign, Pittsburgh, San Diego und Ithaca/New York sich bereits zu einem landesweit operierenden Zentrum zusammengeschlossen, das kuenftig auf Basis einheitlicher Standards arbeiten und nach aussen wie ein einziges Computerzentrum auftreten soll. Zugleich soll es seinen Betreibern im Innenverhaeltnis fortan leichter fallen, jedem der vier Partnerinstitute ein besonderes Spezialgebiet wie etwa Visualisierung oder auch aufwendige Numerik und Simulation zuzuweisen: Bei Anforderungen aus einem der lokal fehlenden beziehungsweise unterbesetzten Spezialgebiete treten dann eben die fernen Kollegen in Aktion.

*Egon Schmidt ist freier Autor in Muenchen.