Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

13.02.2008

IT auf dem Weg in die Wolke

Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP; Betreuung von News und Titel-Strecken in der Print-Ausgabe der COMPUTERWOCHE.
Unter dem Stichwort "Cloud Computing" wollen Anbieter das Utility-Modell wiederbeleben. Doch Konzepte, wonach der Kunde seine IT-Arbeitsumgebung wie Strom bezieht, bleiben noch die Ausnahme.

Die IT-Abteilung wird wohl kaum überleben" und "Der größte Teil der Business-IT wird in die Weiten des Internets abwandern"- mit diesen Thesen hat Nicholas Carr die weltweite IT-Szene Anfang des Jahres in Aufruhr versetzt. Die IT-Versorgung werde über kurz oder lang auf ein Utility-Modell umschwenken, prognostiziert der Visionär. Carr vergleicht die Entwicklung gerne mit der Elektrizitätsversorgung. Hätten Betriebe in den Anfangszeiten noch eigene Generatoren betrieben, sei diese Aufgabe in der Folge mehr und mehr zentralen Stromerzeugern und -versorgern zugefallen.

Tatsächlich arbeiten viele IT-Größen unter Schlagworten wie "Cloud Computing" beziehungsweise "Utility Computing" an neuen Konzepten. Beispielsweise bietet Sun Microsystems seinen 2006 gestarteten Dienst "Network.com" mittlerweile in 25 Ländern an. Die Kunden erhalten über das Netz Zugriff auf die Rechenleistung eines Grid-basierenden Rechenzentrums. Der Anbieter verlangt dafür einen Dollar pro Prozessor und Stunde. Abgerechnet wird dabei nur nach tatsächlich verwendeten CPU-Zyklen. Das heißt, Gebühren sind nur dann fällig, wenn auch Daten verarbeitet wurden.

Der Utility-Computing-Dienst soll kontinuierlich ausgebaut werden. Mussten die Kunden am Anfang ihre Applikationen für das Grid-Netz selbst mitbringen, gibt es mittlerweile einen Softwarekatalog, aus dem die Nutzer auswählen können. Derzeit können interessierte Kunden aus einem Katalog von über 40 Anwendungen das Passende aussuchen. Allerdings beschränken sich die feilgebotenen Programme zum größten Teil auf Speziallösungen aus dem Forschungs- und Entwicklungsumfeld.

Auch IBM ist bereits seit etlichen Jahren in Sachen Grid-Computing aktiv. Hauptabnehmer der Rechenservices sind Universitäten, die damit beispielsweise Leistungsspitzen für aufwändige Simulationsberechnungen abfedern. Mit der im vergangenen Herbst gestarteten Initiative "Blue Cloud" beabsichtigt der Konzern, das Thema aus der Exotenecke herauszuholen und stärker zu kommerzialisieren.

Allerdings wird das IBM-Angebot den Anforderungen der reinen Lehre des Utility-Computings, wonach Anwender Computing-Kapazitäten wie Strom aus der Steckdose beziehen, nicht gerecht. Unter Blue Cloud fasst IBM eine Palette von Werkzeugen zusammen, mit deren Hilfe Anwender ihren Rechenzentrumsbetrieb virtualisieren und automatisieren können. Basis dafür bildet die System-Management-Software "Tivoli Provisioning Manager" (TPM). "Blue Cloud wird unseren Kunden dabei helfen, schnell eine Cloud-Computing-Infrastruktur einzurichten", erläuterte Rod Adkins, Senior Vice President Development and Manufactoring von IBM.

Software ist noch kein Utility

Neben Sun und IBM bringen sich auch die übrigen IT-Größen zunehmend für Utility Computing in Stellung. Beispielsweise bietet Dell im Rahmen seiner Data Center Services (DCS) seit jüngstem auch Unterstützung für Cloud Computing an. Dabei werden Rechenkapazitäten parallelisiert, deren kombinierte Ressourcen dann via Internet bereitgestellt werden. Davon profitieren sollen in erster Linie Anwender mit rechenintensiven Anwendungen wie Internet-Provider, Finanzdienstleister sowie Forschungs- und Bildungseinrichtungen. Fujitsu-Siemens Computers (FSC) will mit dem "Dynamic Data Center" eine neue Generation von Hardware- und Softwarearchitektur bei den Kunden etablieren. Im Fokus steht dabei, Ressourcen zu virtualisieren und Aufgaben zu automatisieren. Damit soll der Betrieb von IT-Infrastrukturen einfacher und effizienter werden. Hewlett-Packard fasst seine Utility-Strategie unter dem Stichwort "Flexible IT" zusammen. Anwender können dabei Ressourcen in HPs Rechenzentren mieten. Das Angebot umfasst neben der Hardware auch Grid-Technik, Infrastruktursoftware und Services. Bis auf einige Spezialanwendungen aus dem Bereich Computer Aided Engeneering (CAE), die HP an seine Flexible-IT-Architektur angepasst hat, müssen die Kunden ihre Software jedoch selbst einbringen.

Damit wird ein Dilemma des Utility-Modells deutlich. Flexible Rechenressourcen via Netzzugriff zur Verfügung zu stellen bedeutet für die Anbieter angesichts ausgefeilter Grid- und Virtualisierungstechniken kaum mehr ein Hindernis. Probleme macht vielmehr die Software, die in diesen Umgebungen betrieben werden soll. Nach wie vor vertragen sich nur wenige rechenintensive Spezialanwendungen mit der Grid-Architektur. Dazu kommt, dass es den Softwareanbietern offensichtlich schwerfällt, ihre Lizenzmetriken an die flexiblen IT-Infrastrukturen anzupassen.

Weiter sind an dieser Stelle die Anbieter von Software-as-a-Service-Diensten (SaaS) wie beispielsweise Salesforce.com zu nennen. Der Softwarevermieter, der vor Jahren mit Customer-Relationship-Management-Anwendungen (CRM) Pionierarbeit für On-Demand-Angebote leistete, mausert sich zunehmend zum Plattformanbieter. Mit "Force.com" offeriert Salesforce.com Kunden und Entwicklern eine Infrastruktur, auf der sie eigene Softwaredienste entwickeln und später auf der On-Demand-Plattform anbieten können.

Neben den Softwarediensten etablieren sich zunehmend auch Speicherangebote im Netz. Die Analysten von IDC rechnen damit, dass die Nachfrage nach Online-Storage in den kommenden Jahren stark ansteigen wird. Angesichts der stetig wachsenden Datenmengen erwarten die Marktforscher bis 2011 ein durchschnittliches jährliches Marktwachstum von 33 Prozent. Weltweit sollen die Anbieter dann 715 Millionen Dollar pro Jahr einnehmen.

Vorbehalte gegen Online-Storage

Noch tun sich allerdings viele Nutzer schwer, ihre Daten in einem Online-Speicher abzulegen. Groß sind die Befürchtungen, Informationen könnten verloren gehen beziehungsweise in die Hände von Unbefugten gelangen. Dabei sind die Daten im Netz in aller Regel sicherer als auf den Rechnern der Anwender.

Längst in diesem Geschäft ist Amazon mit seinem "Simple Storage Service" (S3). In diesem "Storage-on-Demand"-Dienst lassen sich Objekte bis zu einer Größe von 5 GB ablegen. Laut Anbieter hatten die Nutzer Ende vergangenen Jahres rund zehn Milliarden Objekte in dem Online-Silo gespeichert. Der Preis liegt in Europa bei 18 US-Cent pro Gigabyte und Monat. Noch hapert es aber an der Lokalisierung des Angebots.

Gerüchten zufolge soll bald auch Google mit einem Online-Speicherservice nachziehen. Mit der bislang unter dem Codenamen "MyStuff" gehandelten Offerte sollen Nutzer kostenlos einen begrenzten Speicherplatz im Web erhalten. Wächst der Bedarf darüber hinaus, werden Gebühren fällig. Wie hoch diese sein werden, ist noch nicht bekannt. Auch Microsoft will mit dem "Skydrive" Speicher im Netz anbieten. Kunden sollen bis zu 5 GB Platz bekommen. Daten sollen mit anderen Nutzern geteilt werden können.

Noch einen Schritt weiter in Richtung Utility Computing geht Amazon mit seiner "Elastic Computing Cloud". Kunden können damit Computing-Ressourcen je nach Leistungsgrad für zehn bis 80 US-Cent pro Stunde mieten. Dazu kommen weitere Gebühren für die übertragenen Datenmengen. Noch in der Betaphase steckt der Amazon-Service "SimpleDB". Damit sollen Anwender online die Kernfunktionen einer Datenbank nutzen können. Auch hier richten sich die Preise nach der genutzten Zeit sowie dem Umfang des Daten-Up- und -Downloads.

Fazit

Die Akzeptanz für das Thema Utility- beziehungsweise Cloud-Computing muss noch wachsen. Nach wie vor gibt es Vorbehalte auf Anwenderseite, die eigene IT ins Netz zu verlagern. Meldungen über Systemausfälle bei Salesforce.com und wie erst kürzlich in Amazons Speicherdienst S3, bei dem Kunden sogar Daten verloren haben sollen, machen es für das Utility-Modell nicht leichter. Doch auch die Anbieter müssen noch mehr tun, um die Idee weiter voranzutreiben. Gerade die Softwarehersteller hängen noch sehr an ihren alten Lizenzmetriken aus der Client-Server-Welt, denen sie hohe Margen verdanken.

Definition

Unter dem Begriff Cloud- oder Utility-Computing versteht man Techniken und Geschäftsmodelle, mit denen ein Provider seinen Kunden IT-Leistung in Form von Services zur Verfügung stellt und diese nach Verbrauch abrechnet. Dazu zählen Server-Kapazität, Speicherplatz und Applikationen. Zu den Techniken für dieses Konzept gehören Grid Computing und Virtualisierung. Die Bezahlung richtet sich in der Regel nach Art und Dauer der Nutzung.

Mehr zum Thema

www.computerwoche.de/

1854922: Storage as a Service;

1853165: IBM unterstützt Cloud Computing;

1852317: Nachfrage nach Online-Speicher legt zu;

1849017: My Stuff: Google will Daten online vorhalten;

1847120: Amazon bringt Hosting-Dienst nach Europa;

1222099: Carr: Die Tage der internen IT sind gezählt.