Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

08.08.2003 - 

Kommerzielle Nutzung in Sicht

Grid Computing braucht Standards

MÜNCHEN (kk) - In Zeiten knapper Budgets achten die Anwender auf eine bessere Auslastung ihrer Ressourcen. Die Hersteller wittern darin neue Absatzmärkte und präsentieren die passenden Techniken. Kommerzielles Grid Computing verheißt beides: Für den Anwender die effizientere Nutzung der vorhandenen IT-Umgebung, für die Lieferanten eine neue Einnahmequelle.

Das Rechnen im Verbund entwickelte sich im wissenschaftlichen Bereich, wo sich Forschungseinrichtungen die teuren Ressourcen teilen oder ungenutzte PC-Rechenpower zur Verfügung stellen. Die Idee, auch in Unternehmen die brachliegende Rechenkapazität an verschiedenen Standorten für das Abarbeiten aktueller Aufgaben zu nutzen, entsprang der Notwendigkeit zum Sparen. Alle Unternehmen sehen sich mit dem Druck zum Haushalten konfrontiert, dürfen dabei aber nicht an Wettbewerbsfähigkeit oder Produktqualität einbüßen. Hinzu kommt, dass die Produktentwicklung immer komplexer wird und oft immense Rechenleistung verschlingt. Neue Produkte werden an verschiedenen Standorten und etwa beim Autobau von mehreren Unternehmen entworfen. Auch dadurch steigt der Vernetzungsbedarf.

Damit kommt die Datenkomponente ins Spiel: Informationen sollen ausgetauscht und integrierbar werden. Zusätzlich zu Rechen-Grids, wo es um die Bündelung der reinen Rechenpower geht, entwickeln sich Daten-Grids mit verteilt gelagerten Informationen. Firmen wie Avaki Corp. aus Burlington, Massachusetts, liefern Programme auf Grid-Basis für den Zugriff und die Integration verteilter Daten. Avakis "Data Grid", dessen Version 4.0 kürzlich vorgestellt wurde, ist einer der Bausteine zur Enterprise Information Integration (EII).

"Die Grid-Technik verlässt langsam den Status eines bloßen Rechenverbundes und beginnt, für die Lösung von Geschäftsproblemen interessant zu werden", schildert Bill Claybrook, Forschungsdirektor für Linux, Open Source, Unix und Grid Computing beim Marktforschungsunternehmen Aberdeeen Group. Allerdings sind Anwendungen im kommerziellen Umfeld noch die Ausnahmen. Dabei basiert Grid Computing auf dem altbekannten Prinzip der verteilten Rechnerlandschaften, mit all ihren Stärken und Schwächen.

Wunsch und Wirklichkeit

Den Vorteilen, etwa der Kostenreduzierung, stehen die Nachteile wie inkompatible Systeme und komplizierte Administration gegenüber. Derzeit hinkt die Entwicklung noch hinter dem Wünschenswerten zurück: Setze eine Applikation auf der am besten geeigneten Ressource ein - im Hinblick auf Leistungsfähigkeit und Wirtschaftlichkeit - und nutze Internet-Techniken für Anfrage, Verteilung und Rückkopplung der Resultate. In der Theorie basiert ein Grid auf Standards, die alle Plattformhersteller unterstützen.

Im Global Grid Forum werden die Aktivitäten rund um die Standardisierung von Grid Computing koordiniert. Ein prominentes Beispiel für eine gelungene Implementierung ist das Open-Source-Projekt "Globus", das kürzlich die Version 3 des "Globus Toolkit" (GT3) veröffentlichte. Wichtig ist die Software deshalb, weil darin die OGSI-Spezifikationen 1.0 (Open Grid Services Infrastructure) umgesetzt wurden. Sie definieren Web-Services ("Grid Services"), die über Grid-Netze angeboten werden. Globus ist ein Zusammenschluss von weltweit kooperierenden Forschern und Programmierern mit Hauptsitz am Argonne National Laboratory for Mathematics and Computer Science in Illinois.

Verknüpfung mit Internet-Technik

Einigkeit scheint in der Community darüber zu bestehen, dass Grid-Techniken und Web-Services verschmolzen werden. Auch die Anbieter von Grid-Techniken - allen voran IBM, Hewlett-Packard, Sun und Microsoft - entwickeln in diese Richtung. Kürzlich hat beispielsweise IBM angekündigt, das hauseigene "Websphere" sei nun Grid-fähig. Mit Version 5.0.2 von Websphere könnten Unternehmen unbenutzte Ressourcen dem Betriebsteil zur Verfügung stellen, der Bedarf anmeldet. "Bei einem Engpass sucht Websphere dynamisch alternative Komponenten, misst Antwortzeiten und optimiert automatisch die Leistung", wirbt Robert Sutor, IBMs Verantwortlicher für die Websphere-Infrastruktur. Derzeit gelingt das allerdings nur für ein einziges Cluster-System mit einer Anwendung. In Zukunft sollen aber auch eine Vielzahl von Server-Verbünden, auf denen unterschiedliche Programme laufen, davon profitieren.

Ursprünge in der Wissenschaft

Bereits im Februar hat Sun Microsystems angekündigt, die hauseigene "Grid Engine" in Sun ONE (Sun Open Net Environment) zu integrieren. Die Grid-Engine-Software ist ein Werkzeug zur Verwaltung von verteilten Ressourcen und kann für Cluster und Campus-Grids eingesetzt werden: Sie erteilt Rechenaufträge an verfügbare Computer innerhalb eines Grids und verwaltet die Vorgänge. Nach Angaben von Wolfgang Gentzsch, Suns Director für Grid Computing, arbeiten Hunderttausende von CPUs in weltweit mehr als 8000 Grids bereits mit der Sun-Software. Das Programmpaket - damals noch unter dem Namen "Codine" bekannt - erwarb Sun im Juli 2000 durch die Übernahme des Herstel-lers Gridware, dessen Mitbegründer Gentzsch war.

Die Grid Engine eröffnete der McNealy-Company erst den Eintritt zum High Performance Computing (HPC). Zuvor hatte Sun wenig interessante Produkte für den wissenschaftlichen Bereich. Im HPC oder Technischen High Performance Computing (HPTC) sieht Gentzsch die Basis für das neue Geschäft: "HPTC ist die Wiege von Grid Computing." In den 90er Jahren suchten Wissenschaftler nach einer Möglichkeit, über mehr als ihre lokal vorhandene Rechenpower zu verfügen und so genannte Meta-Rechner aufzubauen. Die Software, die sie dazu entwickelten, haben Organisationen wie Globus oder Firmen wie Avaki und Platform Computing zu den jetzt verwendeten Grid-Techniken fortgeführt. Heute bestehen nach Meinung von Gentzsch große Synergieeffekte zwischen Grid und HPTC, so dass Grid die Grundlage auch für leistungsstarke HPC-Knoten, Supercomputer oder Super-Cluster bildet.

Hersteller entdecken kommerzielle Nutzung

Gentzsch ist in einem anderen Open-Source-Programm involviert, das im vergangenen Jahr von der Universität in Melbourne aus der Taufe gehoben wurde: Grid Bus (aus Grid und Business). Ziel ist es, eine Art Maklersystem für Grid-Kapazitäten zu entwickeln. Obwohl das Projekt erst am Anfang steht, hat es doch bereits die Elemente definiert, die für ein kommerzielles Grid - einen offenen Marktplatz für Anbieter und Käufer von Kapazitäten - notwendig sind: Cluster- und Grid-Scheduler, Werkzeuge für Modellierung und Simulation, ein Abrechnungssystem sowie grafische Verwaltungs-Tools.

Microsoft entwickelt seit sechs Jahren zusammen mit dem Cornell Theory Center in New York an parallelen Windows-Clustern. Zusammen mit Dell und Intel gründete die Gates-Company das "Advanced Cluster Computing Consortium", das Windows-basierende HPC-Verbünde zur Marktreife führen soll. Außerdem wurde viel Geld investiert, um eine Version des Globus-Toolkits kompatibel mit Windows XP und .NET zu gestalten - und sie danach der Open-Source-Gemeinde zur Verfügung zu stellen. Ob Microsoft seine komplette Infrastruktursoftware Grid-fähig macht, ist derzeit nicht bekannt.

Hewlett-Packard wird ebenso wie IBM die hauseigenen Programme für Grid einrichten. Bislang sind die Betriebssysteme HP-UX, Tru 64 und Linux für Grid Computing geeignet. Im Bereich Linux engagiert sich HP in der Entwicklung des verteilten File-Systems "Lustre" (aus Linux und Clusters). Das Projekt, das von Cluster File Systems Inc. angestoßen wurde, soll zu einem Cluster File System führen, das Rechenverbünde mit Zehntausenden von Knoten, Petabytes an Speicherkapazität und Transfergeschwindigkeiten von mehreren 100 GB/s ermöglicht. Peter Braam, Gründer von Cluster File Systems Inc. und zuvor als Linux-Spezialist unter anderem bei Stelias Computing, Red Hat und Turbolinux tätig, will im Herbst die Version 1.0 von Lustre vorstellen. Zu rechnen ist damit, dass sie Cluster mit bis zu 1000 Knoten unterstützen wird.

Das Rechenzentrum der Zukunft

Laut Manfred Willem, Marketing-Manager High Performance Technical Computing, bei HP in Böblingen, hat seine Company, die auch im Globus-Konsortium mitarbeitet, ein Intra-Grid zwischen den HP-Standorten im kalifornischen Palo Alto und dem englischen Bristol aufgebaut. Der Hersteller nutzt die Kapazitäten für leistungshungrige SAP-Anwendungen oder zur Abwicklung der Verkäufe über das Internet. 80 freie Server in Bristol und 50 in Palo Alto stehen für die interne Forschung, aber auch Partnern zur Verfügung. Die im Intra-Grid eingebunden Server arbeiten hauptsächlich mit PA-Risc- und Intel-Prozessoren, einige Maschinen auch mit Alpha-CPUs. Langfristig will HP für Rechner mit dem Betriebssystem HP-UX die PA-Risc- mit den Itanium-2-Chips (jeweils 64-Bit-Prozessoren) verschmelzen. Linux-Systeme werden mit Intels 32- und 64-Bit-Rechenwerken arbeiten.

HP verzahnt, wie auch IBM und Sun, die eigenen Grid-Bemühungen eng mit der Architektur des zukünftigen Rechenzentrums. Dazu Willem: "Utility Data Center (UDC) ist eine Vorstufe des Grid." Die HP-Vordenker in Palo Alto publizierten bereits vor einem Jahr ihre Idee eines "Virtual Data Center", das die Ressourcen eines verteilten UDC über Grid-Mechanismen allen Beteiligten überall zur Verfügung stellt. Für kommerzielle Zwecke sei insbesondere das transparente und sichere Data Sharing inklusive Software und Services für den Zugriff, die Wartung und Verarbeitung der Daten von Bedeutung. Ein Grid in diesem Sinn ist eine Zone der Zusammenarbeit, die sich über verschiedene Netze und Organisationen ausdehnt und in der Organisationen sicher und effizient Daten und Services austauschen können. Die vorhanden Ressourcen sollen als Services angesehen werden, die in Qualität und Quantität der Nachfrage genügen. Damit Angebot und Nachfrage im Gleichgewicht bleiben, entwickelt HP ein ausgeklügeltes Kontrollsystem, das aus drei Ebenen besteht: Die Infrastrukturschicht erfasst alle Ressourcen der UDCs und übernimmt das Mapping von "Server-zu-Ressourcen". Eine Ebene darüber erfolgt eine Zuordnung "Services-zu-Servern" basierend auf den Entscheidungen der Meta-Ebene, die die Struktur der Knoten abbildet. Danach wird das Control-System mittels Grid-Techniken wie dem Globus-Toolkit in die Cluster-Umgebung eingebunden.

On Demand, UDC und N1

IBM verfolgt mit Grid seinen Gedanken vom On-Demand-Computing und hat dazu 35 Hersteller um sich geschart, die kommerzielle Grid-Lösungen entwickeln sollen. Zusammen mit der kanadischen Grid-Schmiede Platform Computing, Hersteller von Grid-Software wie "LSF 5" (Load Sharing Facility) und der Verwaltungssoftware "Multicluster 5", hat Big Blue bereits zehn Grid-Branchenlösungen etwa für Finanzdienstleister und die Petrochemie entwickelt (siehe Kasten "Kommerzielle Grids in der Praxis").

Auch Sun betont die Nähe von Grid und der hauseigenen "N1"-Strategie: "Suns N1-Vision ist ein enger Verwandter zur Grid-Computing-Initiative", wie in der Hauszeitschrift "Inner Circle" nachzulesen ist. Während sich N1 um die Belange des Daten-Centers mit den unterschiedlichen Anforderungen an Services und Workloads kümmere, sorge die Grid-Applikation dafür, dass die Ressourcen den Anforderungen der Anwender genügen.

Sicherheit und Standards

Alle drei Hersteller sind sich aber darin einig, dass Grid Computing für kommerzielle Zwecke nur dann Erfolg haben wird, wenn Standards etabliert und eingehalten werden. Greg Astfalk, Chefwissenschaftler bei HP, fasste das kürzlich auf einer Konferenz der "Open Group" in San Francisco so zusammen: "Falls es verschiedene proprietäre Grids gibt, sind wir alle verloren." HP-Manager Willem sieht noch einen weiteren Knackpunkt für den breiten Einsatz von Grid Computing: "Der technische Fortschritt verläuft sehr rasant, was die Kunden noch zögern lässt, sind Sicherheitsaspekte." Die Marktforscher von Grid Technology Partners erwarten, dass 2005 Grid-Produkte im Wert von rund vier Milliarden Dollar verkauft werden. Die Kosten für die Einrichtung eines Grid-Rechnerverbundes werden sich auf 160 bis 600 Dollar je Prozessor belaufen.

Standard ist stark

Mittlerweile lassen sich auch in Grid-Systemen auf Basis von Standardkomponenten ("commodity of the Shelf" = cod) beachtliche Leistungen erzielen. Die alljährliche Supercomputing-Liste der 500 schnellsten Rechnersysteme - das sind oft Cluster-Verbünde, also lokale Grids - erbrachte heuer Erstaunliches: Unter den diesjährigen Top Ten finden sich zwei aus Standardkomponenten aufgebaute Rechnerkomplexe. Analysten zufolge sollen cod-Systeme innerhalb der nächsten zwölf Monate die Hälfte aller Supercomputer auf der Liste stellen.

Kommerzielle Grids in der Praxis

IBM hat im französischen Montpellier ein "Grid Innovation Center" gegründet, das Anwendern Lösungen auf Basis von IBM-Hardware und Partnerprodukten vorstellt.Die im Frühjahr angekündigten Branchenpakete führten bereits zu Grid-Verbünden bei RBC Financial Group RBC Insurance, bei Royal Dutch Shell und dem japanischen Stromerzeuger Kepco. Aufgabe der Grids sind die rechnergestützte Analyse von Geschäftsprozessen sowie die Auswertung seismischer Daten. Für Sony Computer Entertainment Inc. hat IBM zusammen mit Spielespezialist Butterfly.net ein Grid aufgebaut, auf dem Entwickler Spiele für die Playstation 2 entwerfen und testen können. Für die Bereiche Chemie in der Landwirtschaft, Elektronik und Petrochemie bietet Big Blue Analyse- und Design-Grids an.

Das Grid-Procedere

Ein Beispiel, wie ein Ressourcen-Management-Framework für interaktive Grids (mit der Möglichkeit zur grafisch-basierenden interaktiven Benutzung) aussehen könnte:

- Der Benutzer erstellt eine Request-Tabelle für eine globale interaktive Session und beschreibt darin seine Anforderungen an die Ressourcen, die Session und die gewünschte Liste von Applikationen, die er dazu benötigt. Diese Anfrage wird an den Grid Scheduler geleitet.

- Der Grid Scheduler läuft in einem speziellen Rechnerknoten und prüft in einem ersten Durchlauf, welche Ressourcen im Netz den Anforderungen, etwa an die Hardware, der Anfrage gerecht werden. Die Grid-Middleware liefert dazu ein Repository, in das die einzelnen Ressourcen ihr Diensteangebot einspeisen können.

- Im zweiten Schritt wählt der Scheduler den Knoten aus, der am besten die Quality-of-Service- (QoS-)Anforderungen an die gewünschte Software erfüllt. Gleichzeitig aktiviert der Scheduler das Global Admission Control System, das die Erlaubnis zur Ausführung erteilt.

- Auf dem Zielknoten wird eine Reservierung platziert, die auch die genaueren Wünsche, etwa die Art von CPU oder Bandbreite, enthält.

- Zur festgelegten Zeit wird der Zielknoten dem Benutzer zur Verfügung gestellt. Ein Job-Dispatcher sendet die Anfrage nebst Service-Level-Agreement (SLA) zum ausführenden Knoten.

- In einem Konfigurationsprozess wird der Zielknoten zur Abarbeitung der Anfrage konfiguriert. Das beinhaltet auch die Erstellung eines dynamischen Accounts. Erst dann wird die Session zwischen dem Ziel- und dem Anfrageknoten eröffnet und eine Authentifizierungsprozedur gestartet.

- Im Verlauf kann der Benutzer über verschiedene Sessions mit dem Zielknoten kommunizieren. Je nachdem, ob die grafische Oberfläche des Zielknotens an den Benutzer übermittelt wird (= Per-Application) oder ob er direkt Zugang zur Anwendung erhält, sind verschiedene Verfahrensweisen möglich.

- Monitoring-Agenten sammeln Daten über die Performance der Session hinsichtlich SLA und QoS. Nach Ablauf des vorher im SLA festgelegten Zeitraums wird die Session beendet, und der ausführende Zielknoten steht für neue Aufgaben zur Verfügung.

Abb: Die Arbeitsschritte einer Grid-Engine

Von den großen Hardwareherstellern ist Sun derjenige mit dem größten Angebot an Grid-Software. Hier von links (User) nach rechts dargestellt die Arbeitsschritte der Grid Engine. Quelle: Sun Microsystems