Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

22.02.1991

" Integrated-Heterogeneous-Computing" als neuer Trend

Zu Beginn des Supercomputer-Zeitalters stand die CPU-Performance im Mittelpunkt des technischen Interesses. Jedoch spätestens mit dem Heranreifen von Unix wurde das Interesse immer stärker in Richtung Softwarekompatibilität und heterogene Vernetzung gelenkt. Damit verbunden war dann der Trend zu High-end- Servern mit großen Memory-Kapazitäten und Parallel-Prosessing. Die

neueste Entwicklung in diesem Bereich heißt "Integrated Heterogeneous-Supersomputing"

Die Szene der Superrechner wird normal

Die von der "normalen" DV-Welt abgehobene Szene der Superrechner-Anwender muß sich neu orientieren. Auch hier halten Standards Einzug, und es wird immer mehr Wert auf Vernetzung mit anderen Rechnersystemen gelegt. Die Zeiten, wo Superrechner ihre eigene Systemwelt darstellten, wo nur die exorbitante Rechenleistung dieser Syteme zählte, sind vorbei. Insofern wird auch diese Rechnerwelt "normal"

Ungewöhnlich im Vergleich zur übrigen DV-Welt bleibt der Umstand, daß im Supercomputer-Umfeld die Hardwarepreise nicht fallen, sondern steigen. Um so wichtiger werden Garantien seitens der Hersteller, daß die Systeme nicht schon nach wenigen Jahren veraltet sind, daß sie immer auf den neuesten Stand der Technik aufgerüstet werden können und daß sich eben auch hier Standard-Betriebssysteme und die vorhandene Software einsetzen lassen. Immerhin haben sich die Superrechner für bestimmte Anwendungen als Rechnerplattform durchgesetzt. Überall, wo Simulationen mit großen Datenmengen durchgeführt werden müssen, sind sie nicht mehr wegzudenken. Über spezielle Netzwerke und Anbindung von Grafik-Workstations ist es möglich, Supersomputer-Power direkt am Arbeitsplatz zu nutzen.

Für Verwirrung in der Szene der technischen Computer-Avantgarde sorgt immer noch die Frage welcher Technologie hier die Zukunft gehört. Es gibt Vektorrechner, Vektor-Parallelrechner und reine Parallelrechner. Letztere scheinen sich jedenfalls immer mehr durchzusetzen. Manche Hersteller suchen ihr Heil sogar in massiv parallelen Systemen. In Sachen Software muß hier jedenfalls noch viel geschehen, um vorhandene Applikationen an die Mehr-Prozessorsysteme anzugleichen. Im Vorteil sind hier die Hersteller, die auf Standard-Betriebssysteme wie Unix setzen. (Ein Beitrag zur Software-Problematik bei Supercomputern, der in dieser Nummer leider keinen Platz mehr fand, folgt in einer der nächsten Ausgaben.)

Der erste Supercomputer, die Cray-1, wurde 1976 vorgestellt. Nach heutigen Maßstäben besaß der legendäre Rechner weder ein Betriebssystem, noch einen Compiler - ganz zu schweigen von Development-Tools. Diese häufig zitierte Anekdote beschreibt kurz, aber treffend die Schwierigkeiten, die zu bewältigen waren, als die Supercomputer noch mit den Kinderkrankheiten kämpften.

Die Leistung der neuen Rechner war im Vergleich zu der anderer Computer aber derart überwältigend, daß man über den "Schönheitsfehler" der nicht vorhandenen Applikationen und User-Interface-Tools großzügig hinwegsehen konnte. Für spezielle technisch-wissenschaftliche Anwendungen stellten zur damaligen Zeit diese proprietären Insellösungen geradezu eine Revolution dar.

In den letzten Jahren haben sich die Merkmale von Supercomputern und die Anforderungen an sie dramatisch verändert. Mehr und mehr werden die Number-Cruncher als Highend-Server mit großen Hauptspeicher-Kapazitäten eingesetzt. Vor allem die Hauptspeicher-Kapazität spielt nach Aussage von Shahin Khan, Manager European Sales and Marketing beim Supercomputerhersteller FPS Computing, eine immer wichtigere Rolle.

Die Performance bleibt das Maß aller Dinge

Diese Entwicklung ist einerseits das Ergebnis einer stärkeren Vernetzung und hängt andererseits mit der Einführung von immer schnelleren Workstations zusammen. Dahinter stehen das Client-Server-Modell und die Philosophie der "Distributed Computing Environment" beziehungsweise seit kurzem die "Integrated-Heterogeneous-Supersomputing-Strategie". Aus einem derartigen Netzwerk-Modell sind Supercomputer, vorausgesetzt sie sind leistungsfähig genug, nicht mehr wegzudenken.

Ein zweiter Grund für die Veränderungen in der Supercomputer-Landschaft ist das sogenannte "Time-to-Market" Aufgrund der rasanten technologischen Entwicklung und der hohen Anschaffungskosten für einen Supercomputer wird es für die Hersteller immer wichtiger, möglichst ein modulares System zu bauen. Modulares Design stellt die wirkungsvollste Methode dar, um die Lebensdauer von Superrechnern zu erhöhen und gleichzeitig die Kosten für den Anwender so niedrig wie möglich zu halten.

Nichtsdestotrotz bleibt die Performance der Rechner das Maß aller Dinge. Allerdings haben sich zu diesem Leistungsparameter weitere gesellt. Vor allem die I/O Leistung von Supercomputern entscheidet darüber, ob die Rechenleistung überhaupt voll genutzt werden kann. Ferner wird man heutzutage einen Superrechner nur noch schwer verkaufen können, der nicht die gängigen Netzwerk-Standards unterstützt oder nicht grafikfähig ist, nicht den Einsatz von Third-Party-Software und Program-Development-Tools erlaubt sowie nicht mit einem offenen Betriebssystem ausgerüstet ist.

Zusätzliche Faktoren werden immer wichtiger, wie zum Beispiel die Anzahl und Größe der Jobs, die ein Rechner ohne unzumutbaren Overhead verarbeiten kann, und die Effizienz eines Multiprozessor-Systems in bezug auf den Durchsatz und die Single Job Parallelisierung. Fallende CPU-Preise tragen ferner dazu bei, daß sich der Blick immer stärker auf das Memory System konzentriert: Hauptspeicher-Kapazität und Geschwindigkeit, Memory Management Hardware und die Memory Hierarchie sind in Zukunft wichtige Parameter, an der die Leistungsfähigkeit eines Supercomputers gemessen wird.

Um all diesen Anforderungen gerecht zu werden, entscheiden sich mehr und mehr Hersteller für Multi- beziehungsweise Parallel Prozessor Architekturen, teilweise gepaart mit Koprozessoren. Schnellere Taktfrequenzen sind notwendig, um die Geschwindigkeit der Rechner zu erhöhen.

Mit der herkömmlichen CMOS Technologie (Complementary Metal Oxide Semiconductor) zur Fertigung der Chips lassen sich zur Zeit Taktfrequenzen von 40 Megahertz erreichen. ECL-gefertigte Chips (Emitter Coupled Logic) hingegen wurden bereits mit einer Taktfrequenz von 100 Megahertz angekündigt. Für die Zukunft sagen Experten voraus, daß die CMOS-Prozessoren maximal mit 100 Megahertz (10 Nanosekunden Clock Cycle) getaktet werden können, während ECLs bis 300 Megahertz erreichen können, was einem Taktzyklus von 3 bis 5 Nanosekunden entspricht. Obwohl die ECL-Chips teurer sind, rechtfertigt die höhere Leistung deren Einbau. So verwendet zum Beispiel Alliant mit dem Intel 860 bereits einen ECL Chip. Der amerikanische Hersteller FPS Computing baut in seine Rechner der Serie 500 mit dem ECL-Sparc von Sun und dem 860 von Intel gleich zwei Eimer- Coupled-Logic-Prozessoren ein.

Alle Hersteller verwenden RlSC-Prozessoren

Mit dem Stichwort Sparc beziehungsweise RISC (Reduced Instruction Set Computer) ist ein weiterer Trend beschrieben. Alle Hersteller im Supercomputer Markt verwenden die schnellen RISC Prozessoren, wobei Convex sowie Cray auf Eigenentwicklungen zurückgreifen und auch ihr "eigenes" Unix anbieten. FPS setzt hingegen mit Sparc und Sun-OS hingegen auf einen im Workstation-Markt verbreiteten Standard, so daß auf diesen Rechnern mehr als 2500 Programme zur Verfügung stehen.

Mit den geschilderten Standardisierungsbemühungen einher ging der Trend in Richtung heterogene Netzwerke, die einen Mix von Rechnern verschiedener Hersteller zulassen, sowie in Richtung Distributed Environments beziehungsweise Integrated-Heterogeneous-Supercomputing. Unter Distributed Environments versteht man eine Netzwerk-Hierarchie, die auf unterschiedlichen Prozessoren mit unterschiedlicher Leistung und speziellen Aufgabengebieten basiert. In einer solchen Client-Server-Hierarchie bilden Laptops, PCs, X-Terminals und Workstations die "Clients" von High-end-Servern und Supercomputern.

Letztere sind in diesem Konzept für die eigentliche Rechenleistung zuständig, indem sie zum Beispiel über einen großen Hauptspeicher, Vektor-, Matrix-, Skalar- und spezielle Applikations-Prozessoren und leistungsfähige I/O-Systeme verfügen. Weitere Vorteile des Integrated Heterogeneous Computing sind, daß nur ein Memory-System, nur ein Disk-System und nur eine Kernel-Copy existieren.

In den 70er Jahren lag, wie beschrieben, das Augenmerk bei Supercomputer-Architekturen auf den Skalar-Prozessoren. Eine Dekade später wurden Vektorarchitekturen zum Standard. Robert J. Paluck, President und Chief Executive Officer von Convex, möchte in Zukunft einen heterogenen Rechner vorstellen, in dem verschiedene Prozessoren sich spezielle Aufgaben teilen. Für die 90er Jahre sieht das im Dezember letzten Jahres vorgestellte Konzept also einen modular aufgebauten Rechner mit einem Mix von Skalar-, Vektor- und Matrix-Prozessoren vor. Diese Beschreibung entspricht exakt der von allen Supercomputer-Herstellern angestrebten Integrated-Heterogeneous-Supercomputing-Architektur.

Einen Schritt voraus in diesem Vorhaben ist der Konkurrent FPS Computing. Das 1970 in den USA als Floating Point System gegründete Unternehmen baut bereits seit 1989 Mini-Supercomputer der Serie 500, die den parallelen Einsatz von RISC-, Vektor- und Matrix-Prozessoren unter Unix erlauben und im Supercomputer-Bereich anerkannt wichtige Standards wie zum Beispiel DMASS (Data Management and Automated Storage Strategy) und Hippi (High Performance Parallel Interface) unterstützen. Letzterer wird im Hause IBM und bei Cray Research eingesetzt. Der Hippi-Channel ist ein Projekt des ANSI-X3T9.3-Komitees. Das Protokoll erhöht den Durchsatz beziehungsweise verkürzt die Zugriffszeit auf Disk-Arrays und andere Computersysteme auf über 100 MB/s. Hippi ist Bestandteil von DMASS, das bis zu 300 GB Daten verwalten und archivieren kann.

K. G. Wilson, Mitarbeiter des Cornell University Theory Centers, prophezeit den Parallelrechner-Architekturen eine rosige Zukunft. Seiner Meinung nach sind Parallel-Systeme als einzige in der Lage, den hohen Anforderungen im technisch-wissenschaftlichen Bereich gerecht zu werden. Optimiert wird das Parallel-Processing zusätzlich durch die Verwendung unterschiedlicher Prozessoren. Einige Hersteller im Supercomputer-Markt verfolgen mittlerweile diese Strategie, die ins "Integrated-Heterogeneous-Supercomputing" mündet.