Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

22.03.2002 - 

Server-Strategien/Anbieter versprechen, Rechenpower nach Bedarf aus dem Netz zapfen zu können

Grid Computing zwischen Vision und Kommerz

Mit Grid Computing versprechen die Anbieter den Kunden, Rechenleistung und Software wie Strom aus der Steckdose nutzen zu können. Kritiker warnen jedoch, diese Ankündigungen allzu wörtlich zu nehmen. Es werde noch Jahre dauern, bis das Konzept alle Hürden aus technischer und kommerzieller Sicht genommen hat. CW-Bericht Martin Bayer

Grid Computing soll Unternehmen künftig in die Lage versetzen, IT-Ressourcen wie zum Beipiel Rechenleistung oder Speicherkapazität je nach Bedarf via Internet abzurufen. IBM-Visionär Irving Wladawsky-Berger vergleicht das Grid-Konzept mit der Art und Weise, wie Kunden elektrischen Strom von ihren Energieversorgern beziehen. Die Leistungen fließen über ein Netz und werden je nach Verbrauch abgerechnet.

Die Armonker träumen bereits davon, über ein weltumspannendes Hochleistungsnetz Supercomputerleistung für kommerzielle IT-Umgebungen nutzbar zu machen. Durch die Verbindung von Server-Farmen über das Web ließen sich virtuelle Organisationen schaffen, die sich Anwendungen, Rechenleistung und Daten teilen, um plattformübergreifend an rechenintensiven Aufgaben zu arbeiten, erklärt Wladawsky-Berger. "Wir stehen kurz davor, alle dazu benötigten Elemente je nach Bedarf zu liefern und sie wie ein monatliches Abonnement zur Verfügung zu stellen."

Neben den Armonkern hat auch Sun Microsystems eine eigene Grid-Strategie auf den Weg gebracht. Der kalifornische Server-Spezialist unterscheidet dabei drei verschiedene Ausprägungen: Die erste Stufe bilde ein Netz innerhalb einer Abteilung, das Cluster Grid, erklärt Sun-Techniker Lothar Lippert. Über ein Campus Grid ließen sich in einer zweiten Stufe mehrere Abteilungen eines Unternehmens zusammenschließen, um beispielsweise Spitzenbelastungen durch besonders leistungsintensive Applikationen abzufangen. In einer dritten Ausbaustufe, dem globalen Grid, könnten Firmen ihre international verteilten Niederlassungen miteinander verbinden und damit die IT-Ressourcen weltweit nutzen.

Im Grunde ist die Idee, verteilte Rechenressourcen miteinander zu koppeln, nicht neu, räumt Lippert ein. Betrachtet man allein die Hardwareseite, lassen sich kaum Unterschiede zu bekannten Cluster-Architekturen entdecken. Allerdings sollen die Systeme mittels speziell angepasster Ressourcen-Management-Software effizienter gesteuert und verwaltet werden können. Dies garantiere eine bessere Auslastung der Maschinen.

Mittlerweile zeichnet sich in Sachen Grid Computing ein Kopf-an-Kopf-Renner zwischen IBM und Sun ab. Dabei wird es darum gehen, wer als erster entsprechende Grid-Dienste und -Infrastrukturen zur Verfügung stellen kann. Die Sun-Verantwortlichen haben angekündigt, die hauseigene "Grid Engine"-Software mit dem "Portal Server" von Iplanet zu verknüpfen. Die auf Sun Solaris basierende Middleware bietet Schnittstellen wie WSDL (Web Service Description Language), UDDI (Universal Description, Discovery and Integration) und Soap (Simple Object Access Protocol). Über das Framework "Technical Compute Portal" können Anwender dann die im Grid verwalteten Ressourcen als Web Services anbieten.

IBM hat zusammen mit den Forschern des Globus-Projektes unter der Bezeichnung "Open Grid Services Architecture" (Ogsa) Spezifikationen für das Grid Computing entwickelt. Im Open-Source-Projekt Globus arbeiten verschiedene Hersteller an der Entwicklung von Kernanwendungen für den Betrieb von Grid-Netzen. Dazu gehören Software für das Ressourcen-Management, Sicherheit, Datenverwaltung und Fehlerentdeckung. Die IBM-Entwickler wollen die Globus-Ergebnisse mit Web-Services kombinieren. Alle durch Ogsa definierten Ressourcen wie Rechenleistung, Netze, Programme und Datenbanken sollen als Dienste aufgefasst werden. Ogsa beschreibt in diesem Zusammenhang die Schnittstellen und Protokolle.

Alles Grid - oder was?IBMs Pläne gehen noch weiter. So sollen die Ogsa-Spezifikationen die Grundlage des "Eliza"-Projektes bilden, das autonomes Computing zum Ziel hat. Außerdem will Big Blue sein gesamtes Produktportfolio Grid-fähig machen. So sollen beispielsweise "Websphere" und "Tivoli" um die entsprechenden Standards erweitert werden.

Bis das Grid-Konzept im kommerziellen IT-Umfeld Einzug hält, wird es jedoch noch dauern. Bislang finden sich die Early Adopters nur in Bereichen, wo komplexe und rechenintensive Aufgaben zu lösen sind. Das sind zum Beispiel das US-Verteidigungsministerium, die Weltraumbehörde Nasa und das US-amerikanische Energieministerium. Experten verweisen darauf, dass sich Grid Computing in erster Linie an den Bedürfnissen des Supercomputing-Marktes orientiert. Für die in den meisten Unternehmen vorherrschenden Anforderungen der Transaktionsverarbeitung sei die Technik dagegen derzeit weniger relevant.

Sun-Mitarbeiter Lippert rührt dennoch weiter die Werbetrommel für das neue Konzept. So sei denkbar, dass rechenintensive Rendering-Aufgaben bei der Bearbeitung von Filmsequenzen über ein Grid-Netz abgewickelt werden könnten. Banken und Versicherungen könnten die Technik zur Bewältigung aufwändiger Risikoanalysen verwenden.

Es fehlt an Standards und SicherheitDiese Szenarien liegen nach Meinung vieler Experten allerdings noch in weiter Ferne. Den theoretischen Vorteilen stehen eine Reihe von Hürden gegenüber. So existiere bislang weder ein allgemeiner Standard noch eine gemeinsame Architektur, erklärt Ulla Thiel, Direktorin für den Bereich Supercomputing bei der IBM in Deutschland. Zwar habe sich mit dem Globus-Toolkit eine Art Quasi-Standard etabliert, für die Verwaltung der riesigen weltweit verteilten heterogenen Rechnerumgebungen reiche dies aber noch nicht. Ferner mangle es an Standard-Basisprotokollen für das Web-Hosting, die beispielsweise für die Leistungsabrechnung notwendig wären. Hoher Nachholbedarf bestehe außerdem in puncto Sicherheit. Hier müssten zunächst ausgefeilte Monitoring- und Steuerungssysteme aufgebaut werden. "Bis alle Sicherheitsstandards erfüllt sind und die Infrastruktur geschaffen ist, ist sicher ein Zeitraum von fünf bis zehn Jahren anzusetzen."