Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

12.07.2005

Supercomputer konkurrieren mit Grids

Bernd Kosch
Klassische Supercomputer sind die mächtigste Hardware. Doch das Enterprise-Grid-Konzept macht ihnen in vielen Einsatzbereichen das Leben schwer und die Marktstellung streitig.

Supercomputer dominieren seit den frühen 80er Jahren mit beeindruckender Gleitkomma-Performance die einschlägigen Benchmark-Listen. Für kommerzielle Anwendungen, die den überwiegenden Teil des Server-Workloads im Markt ausmachen, haben solche Systeme allerdings keinerlei Bedeutung: Supercomputer und geschäftskritische Anwendungen passen noch nicht zusammen. Doch beide Seiten verändern sich momentan grundlegend und streben nun zu einem gemeinsamen Paradigma: Grid Computing.

Manchmal hilft zum Verständnis ein Blick in die Geschichte. Der Zweck der ersten entwickelten Computer lag in numerischen Anwendungen. Speziell auf dieses Segment ausgerichtete Systeme wurden in den späten 60er Jahren eingeführt. Der Begriff "Supercomputer" etablierte sich in den frühen 80er Jahren und war verbunden mit den Vektorrechnern von CDC, Cray und Fujitsu (später auch NEC und Hitachi). Neue mathematische Methoden ermöglichten neue Ansätze in Forschung und Entwicklung und begründeten letztlich eine neue Klasse von Ergebnissen in Feldern wie der Wettervorhersage, Exploration oder Strukturmechanik.

In dieser Zeit stand auch der Staat Pate bei der IT-Domäne des High Performance Computing (HPC), gab es doch im Kalten Krieg allerlei strategische Simulationen für den "Ernstfall" eines Atomschlags oder die Entwicklung neuer Waffensysteme. HPC galt als Schlüsseltechnik. Nur wenige Anwendungen fanden den Weg in den industriellen Alltagsbetrieb. Der virtuelle Crash-Test ist ein Beispiel. Zu einem massenhaften Einsatz von Vektorrechnern im kommerziellen Bereich ist es aber nie gekommen, und bis auf Extremfälle wird das Konzept heute nicht mehr angewendet.

Mit der grundlegenden Neudefinition der CPU-Architekturen, die Anfang der 80er Jahre unter dem Begriff "Risc" ihren Einzug in die Welt der verfügbaren Systeme feierten, änderten sich die Rahmenbedingungen wesentlich. Die neuen Instruktionssätze waren so konzipiert, dass der gesamte Computer im Fließbandprinzip arbeitete: Gleitkomma-, Festkomma-, Lade/ Speicher-Operationen - alles konnte nun durch die gleiche Pipeline fließen, mit hohem Leistungsgewinn und unabhängig von Vektorstrukturen.

Risc, Cisc und MPP

Die alten (Cisc-)Architekturen gerieten damit zunächst ins Hintertreffen, fanden jedoch auf der Implementierungsebene Lösungen, um diesen Nachteil durch Separation der komplexen Instruktionen auszugleichen. Der Leistungsaspekt des Vektorrechners reduzierte sich damit aber auf den immer selteneren Anwendungsfall, bei dem hierarchische Speicherarchitekturen (Cache) ineffizient sind.

Anfang der 90er Jahre schien sich die Chance für den "massiv-parallelen" Supercomputer auf Grundlage von kostengünstiger Basistechnologie zu eröffnen. Massiv-paralleles Processing (MPP) galt als Alternative und mögliche Nachfolge des Vektorrechners; der Fokus der Entwicklung und der Differenzierung lag auf der Verbindungstechnik und -topologie zwischen den in großer Zahl vorhandenen "Knoten". Vor dem Aufbau eines hinreichenden Anwendungsspektrums galt es, die Frage nach der Wichtigkeit der globalen Speicherkonzepte und des adäquaten Grades von Kohärenz lokaler Speicher zu klären. Doch MPP ging schon vorher mit dem Verschwinden aller entsprechend fokussierten Anbieter nach wenigen Jahren unter. Es gab kaum skalierende Anwendungen, und der Wert der MPP-Architekturen war in realen Umgebungen schwer nachweisbar.

Zum Kunstwerk integriert

Heute sind Supercomputer in erster Linie Integrationsprodukte, die Standardkomponenten eines Herstellers mit der Verbindungstechnik und der Middleware anderer Hersteller zu einzelnen "Kunstwerken" integrieren. Die Zeit der speziell entwickelten CPU oder der speziellen Verbindungstechnik und -topologie ist faktisch vorbei, und die integrativen Supercomputer sind Einzelstücke für sehr spezielle Aufgaben, deren Relevanz im Massenmarkt nicht mehr diskutiert wird.

Die Welt der Anwendungen, selbst in der technischen IT, hat sich längst vom Paradigma des Supercomputers abgewendet. Cluster aus ganz normalen Server-Komponenten sind an seine Stelle getreten und erreichen meist gleichwertige Performance bei viel niedrigeren Kosten. Immer mehr besonders anspruchsvolle Aufgaben können mit solchen Konzepten bewältigt werden.

So geht es bei der numerischen Behandlung der Daten aus dem "großen Hadronen- beschleuniger" (Large Hadron Collider = LHC) im europäischen Kernforschungslabor Cern (Genf) um den Einsatz von zirka 14000 Standard-CPUs in Dual-CPU-Konfigurationen mit GB- und 10-GB-Ethernet-Verbindung. Dies ist ein Extremfall, weil aufgrund sehr günstiger Parallelisierungsbedingungen extremes Scale-out-Potenzial vorliegt. Er ist aber charakteristisch für die allgemeine Situation, die wir heute beobachten können.

Der Begriff "Supercomputer" hat sich von Systemen auf Basis sehr spezieller Technologie mit dem Anspruch eines breiten Anwendungsspektrums zu Systemen mit relativ normaler Server-Technologie verschoben und ist gleichzeitig in eine Anwendungsnische gerückt. Die Basis für die Mehrheit der "Supercomputer-Anwendungen" sind heute Server-Cluster in Standardtechnik. Und im technisch-wissenschaftlichen Umfeld hat man seit langem erkannt, dass mit effizienter Ressourcenteilung aus einer gegebenen Infrastruktur viel mehr tatsächliche Leistung erzeugt werden kann. Das "Cycle-Stealing" aus schwach ausgelasteten Systemen kann kostenlose IT-Kapazität generieren und "virtuelle" Supercomputer von nahezu unbegrenzter Dimension entstehen lassen.

Für dieses Prinzip und die damit einhergehenden Formen der Zusammenarbeit hat sich seit der Jahrtausendwende der Begriff "Grid Computing" etabliert. Alle genannten Aspekte hatten bislang zum Fortschritt im Enterprise Computing - also bei den transaktionsorientierten geschäftskritischen Anwendungen - wenig Bezug. Supercomputer liefen kurze Zeit in der industriellen Entwicklung, und mit Grid-Konzepten betreiben Banken heute Risiko-Management. Doch dies sind letztlich wiederum HPC-Anwendungen, deren Charakter sich von Software für Enterprise Resource Planning (ERP), Customer-Relationship-Management (CRM), Supply-Chain-Management (SCM) oder Business Intelligence (BI), die heute den Löwenanteil am gesamten Server-Workload ausmachen, stark unterscheidet.

Komplexe Strukturen

Im Enterprise-IT-Umfeld waren andere Strömungen wichtig. So wurden, bedingt durch die hohen Kosten zentraler IT, schon in den 80er Jahren abteilungsbezogene IT-Lösungen etabliert (räumlich und thematisch). In den 90 er Jahren entwickelte sich das Client-Server-Prinzip zum wichtigsten Schlüssel, um Kosten für die Hardwareinfrastruktur zu senken. Und im Zuge des E-Business entstanden zahlreiche neue themen- und prozessbezogene Sonderinfrastrukturen". Insgesamt wurden die Infrastrukturen enorm komplex und führten viele Rechenzentren an den Rand ihrer Leistungsfähigkeit. Allein um den laufenden Betrieb aufrechtzuerhalten, mussten fast alle verfügbaren Ressourcen eingesetzt werden. Damit ging die Fähigkeit zur Innovation in vielen Unternehmen nahezu verloren.

Seit dem Ende der 90er Jahre findet eine grundsätzliche Neuausrichtung der Enterprise-IT statt. Konsolidierung und Rezentralisierung ermöglichten aufgrund veränderter relativer Kosten von Infrastruktur, Telekommunikationsbandbreite und administrativ eingesetztem Personal hohe Effizienzsteigerungen. Noch höhere Effizienz lässt sich nun erreichen, wenn die zentral vorgehaltenen Kapazitäten unter Virtualisierung der Anwendungen mit dynamischer Provisionierung besser ausgelastet werden und sich ihre Administration durch Automatisierung vereinfacht. Genau dies ist das Konzept des "Enterprise Grid Computing".

Server in Teillast

Der Kern ist die Aufhebung der statischen Zuordnung zwischen Servern und Applikationen. Diese Zuordnung führt dazu, dass Server in Unternehmen lediglich zu 20 bis 40 Prozent ausgelastet sind. Im Enterprise-Grid-Computing-Konzept wird dagegen ein Pool mit Infrastrukturressourcen gebildet, die den (virtualisierten) Applikationen dynamisch zugewiesen werden. Das bewirkt eine wesentlich bessere Nutzung der verfügbaren Kapazitäten. Die Gesamtkosten sinken, Anpassungen an neue Anforderungen werden billiger.

Enterprise Grids können heute für einzelne geschlossene Bereiche mit ausgereifter Funktionalität implementiert werden. Im Markt existieren schon entsprechende Infrastrukturlösungen wie beispielsweise "Flexframe" von Fujitsu-Siemens Computers, das die dynamische Zuordnung der Hardwareressourcen für SAP-Anwendungen ermöglicht. Der Enterprise-Bereich stellt andere Anforderungen an Sicherheit und Kostenzuordnung als der Forschungssektor. Deshalb gehen Enterprise Grids heute noch nicht über die Firewall des Einzelunternehmens hinaus und verbinden sich auch nicht mit technischen Grids. Für die nächsten Jahre ist das aber ein realistisches Ziel. (ajf) u