Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

27.09.1996 - 

SupercomputingSupercomputer-Technik kommt auch kleineren Rechnern zugute

Skalierbare PCs: Leistungen im Teraflops-Bereich sind möglich

Die finanziellen Probleme aller traditionellen Supercomputer-Firmen und deren Zusammenschlüsse beziehungsweise Kooperationen mit Mainstream-Computerfirmen (Convex und HP, Cray und Silicon Graphics, Thinking Machines und Sun) sind wirtschaftliche Auswirkungen eines seit langem erkennbaren technischen Trends. Wie in der Vergangenheit, als Konzepte wie Cache-Speicher und virtuelle Speicherverwaltung von Großrechnern in die PC-Technik migrierten, übernehmen die Hersteller kleinerer Systeme zur Zeit das Prinzip der Skalierbarkeit. Rechnersysteme werden so konzipiert, daß ihre Leistung und Funktionalität durch Replikation von Komponenten, beispielsweise Prozessoren und Speichern, variabel an die Anforderungen angepaßt werden können.

Skalierbare Systeme ersetzen Supercomputer

In vielen Einsatzgebieten werden herkömliche Hochleistungsrechner und die entsprechende Software zunehmend durch skalierbare Systeme ersetzt. Dazu zählen:

- Desktop-PC- und Workstation-Netze auf Basis von Client-Server-Architekturen. Häufig sind die Systeme über Ethernet-Verbindungen gekoppelt, Betriebssystem ist Unix, Windows oder Windows NT.

- Multiprozessor-Rechner mit parallel geschalteten CPUs (Symmetrical Multiprocessing = SMP), bei denen mehrere Prozessoren mit Hilfe eines gemeinsamen Speichers zu leistungsfähigen Servern ausgebaut werden.

- Kombinationen aus Hochleistungs-PCs und SMP-Servern, gekoppelt über ein Hochgeschwindigkeitsnetz auf Basis von ATM-, Glasfaser- und anderen Verbindungen (Cluster of Workstations = COW).

- Klassische Parallelrechner mit sehr vielen parallel geschalteten Prozessoren (Massiv-paralleles Processing = MPP). Die jüngste Marktstudie der Palo Alto Management Group prognostiziert für skalierbare Rechner einschließlich SMP-Systemen, COWs, Clustern und MPP-Rechnern ein Marktvolumen von 14 Milliarden Dollar für das Jahr 1999.

Eine Folge der zunehmenden Wanderung skalierbarer Technologie in Rechner geringerer Leistung ist, daß sich traditionelle Supercomputer-Hersteller auf Maschinen mit extrem hoher Leistung konzentrieren. Wie bisher wird das Konstruktionsprinzip dieser Systeme auch von den Herstellern kleinerer Computer übernommen. Aus diesen Gründen hat sich das amerikanische Energieministerium entschlossen, nach dem Programm für "High Performance Computing and Communication" das auf zehn Jahre angelegte Folgeprojekt "Accelerated Strategic Computing Initiative" (ASCI) zu starten. Ein Ziel ist es, Rechner mit einer Leistung von mehr als einem Teraflops (Billion Gleitkommaoperationen pro Sekunde) zu entwickeln. Das Ministerium hat nach einer öffentlichen Ausschreibung der Firma Intel einen entsprechenden Auftrag erteilt. Das System soll Ende dieses Jahres am Sandia National Laboratory in Betrieb genommen werden.

9000 Pentium-Pro-CPUs greifen auf 262 GBRAM

Das Teraflops-System bei Sandia wird eine Weiterentwicklung der seit 1991 erhältlichen "Paragon"-Rechner von Intel sein. Weltweit sind derzeit etwa 100 Paragon-Maschinen im Betrieb, in Deutschland beispielsweise am Rechenzentrum der Universität Stuttgart und dem Forschungszentrum Jülich. Das Teraflops-System ist durch die skalierbare Rechenleistung von über 9000 Pentium-Pro-CPUs gekennzeichnet, die über ein Hochgeschwindigkeits-Netz mit bis zu 262 GB Systemspeicher verbunden sind. Die theoretische Gesamtleistung beträgt 1,8 Teraflops. Das skalierbare Betriebssystem ist eine Weiterentwicklung der erprobten Unix-Version der Paragon-Rechner.

Skalierbare Systeme bald auch in der Fertigung

Skalierbare Rechner sind nicht nur für Simulationen nützlich, sondern in Zukunft auch für Produktentwicklung, -vermarktung und -fertigung. Schon heute finden sich Systeme

- im technisch-wissenschaftlichen Umfeld bei der virtuellen Produktentwicklung. Die wichtigsten Märkte sind Luft- und Raumfahrt, Chemie, Pharmazie, Lebensmittel und Automobilbau

- im kommerziellen Umfeld bei der Organisation von Geschäftsprozessen und Entscheidungen. Daneben finden vor allem Banken und Versicherungen sowie der gesamte Dienstleistungssektor Gefallen an skalierbaren Rechnern

- im Produkt selbst. Unter anderem in der Automation, Telekommunikation und Kraftwerkstechnik werden proprietäre Hard- und Software eingesetzt, um Muster zu erkennen und entsprechend zu reagieren.

Die skalierbaren Rechner kranken aber am gleichen Problem wie traditionelle Supercomputer: Es fehlt an Software, die die Qualitäten von COWs oder Cluster-Systemen ausschöpft. Weltweit arbeiten eine Reihe von Forschungs- und Entwicklungsteams daran, diese Lücke zu schließen, unter anderem das vom Autor dieses Artikels geleitete Institut mit dem Forschungsschwerpunkt "Scalable Computing" an der Rheinisch-Westfälischen Technischen Hochschule (RWTH) Aachen.

Dort beschäftigt man sich beispielsweise mit der Leistungssteigerung eines Programmpaketes, mit dem die Trägerrakete Ariane konstruiert wird. Zusammen mit dem französischen Luft- und Raumfahrtkonzern Aerospitale wurde die Software an ein Workstation-Netz und einen Paragon-Parallelrechner von Intel angepaßt.

Ein weiterer Forschungsschwerpunkt des Aachener Instituts gilt der einfachen Benutzung und Programmierung von skalierbaren Rechnern. Methoden und Werkzeuge sollen entwickelt werden, die die Softwareproduktion und das System-Management vereinfachen. Gemeinsam mit Intel hat das Institut die Verwaltungshilfe "PMT" entworfen und auf das Paragon-System übertragen. Erst wenn sich Programmierhilfen für die System- und Partitionsverwaltung, die Software-Optimierung und das Debugging durchsetzen, wird sich der Einsatz von skalierbaren Rechnern kostengünstiger gestalten lassen.

Die RWTH-Forscher schreiben auch die Basissoftware der Supercomputer für die COWs und MPP-Rechner um. Im Auftrag der Firma Siemens ist mit "Stream" ein skalierbares Echtzeit-Betriebssystem geplant, das von einem europäischen Telekommunikationskonsortium genutzt werden soll.

Angeklickt

Cluster und Parallelrechner machen sich in deutschen Betrieben breit. Die Software-Entwicklung aber hinkt hinterher: Bis heute existieren für Superrechner nur wenige Softwarepakete, die der Anwender selbst an seine Bedürfnisse anpassen kann. Die Wartung der Systeme bleibt schwierig.

In einem vertretbaren finanziellen Rahmen lassen sich skalierbare Rechner erst nutzen, wenn Programmierhilfen für die System- und die Partitionsverwaltung, die Software-Optimierung und das Debugging zur Verfügung stehen.

*Thomas Bemmerl arbeitet am Lehrstuhl für Betriebssysteme der RWTH Aachen.