Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

13.12.2002 - 

IBM, HP und Sun versprechen niedrige Kosten und mehr Flexibilität

Computing on Demand steht noch am Anfang

IT-Dienste wie Strom aus der Steckdose, Rechenzentren, die sich selbst verwalten, niedrigere Kosten und mehr Flexibilität - das versprechen IBM, Hewlett-Packard und Sun mit ihren Visionen vom On-Demand-Computing, Utility Data Center oder Grid Computing. In der schönen neuen IT-Welt hat der CIO heutiger Prägung keinen Platz mehr.

Als Samuel Palmisano am 30. Oktober seine erste Grundsatzrede als IBM-Chef hielt, war ihm die Aufmerksamkeit der Branche sicher. Zehn Milliarden Dollar investiert der weltgrößte IT-Konzern in das Geschäftsfeld Computing on Demand: Rechenkapazität, Speicher und Anwendungen sollen Kunden bald je nach Bedarf als Dienstleistung einkaufen.

Was die von Palmisano beschworene Ära des "E-Business on Demand" für Unternehmen bedeutet, ist seither Gegenstand intensiver Diskussionen. Wenn Computing-Dienste eines Tages wie Elektrizität aus einem Stecker in der Wand fließen, wäre die klassische DV-Abteilung obsolet, war auf einem Treffen hochrangiger IT-Manager in New York zu hören. Noch weiter dachte der CIO eines der größten zehn amerikanischen Unternehmen: "Dann verlieren wir alle unseren Job."

Ganz unberechtigt ist diese Befürchtung nicht, sagt Jean Lorrain, Distinguished Engineer bei IBM Frankreich, denn: "E-Business on Demand kauft nicht der CIO ein, sondern der CEO." In der On-Demand-Welt habe der Unternehmenschef kein Interesse daran, alle IT-Ressourcen selbst vorzuhalten und zu betreiben. Dagegen spreche schon die hohe Fixkostenbelastung.

Genau genommen geht es auch in der neuen Ära vor allem um eines, wie IBM selbst einräumt: Die IT soll endlich ihr lange gegebenes Versprechen einlösen, die Effizienz der Geschäfte radikal zu verbessern. Wie dieses Ziel zu erreichen ist, erklärt Big Blue zunächst reichlich abstrakt: Das On-Demand-Unternehmen zeichne sich vor allem durch die Fähigkeit aus, Veränderungen sofort zu erkennen und darauf zu reagieren. Dazu gehöre auch, Geschäftsprozesse und Kostenstrukturen rasch an gewandelte Bedingungen anzupassen. An diesem Punkt ähnelt das Konzept der Idee des Realtime Enterprise (RTE), die Gartner-Analysten kürzlich in Cannes präsentierten (siehe CW 46/02, Seite 12). Im Mittelpunkt steht dabei die Beschleunigung der Kernprozesse bis hin zum "Echtzeitunternehmen".

Konzentration auf Kernkompetenzen

IBM versäumt es nicht, darauf hinzuweisen, dass sich das On-Demand-Unternehmen auf Kernkompetenzen konzentrieren müsse und insofern der Auswahl strategischer (Outsourcing-)Partner eine hohe Bedeutung zukomme. Unverzichtbar seien zudem robuste und krisenresistente IT-Systeme, die einen unterbrechungsfreien Betrieb auch bei äußeren Bedrohungen sicherstellen.

Die These, E-Business on Demand sei letztlich nur eine andere Form von Outsourcing, lässt IBM-Technologe Lorrain nicht gelten. Im Rahmen traditioneller Outsourcing-Verträge übernehme der Dienstleister häufig die komplette IT des Kunden, auch wenn diese nicht optimal aufgestellt ist. Das On-Demand-Unternehmen hingegen kaufe Funktionen ein, die vom Serivceanbieter definiert werden und auf dessen eigener Infrastruktur aufsetzen. Im Idealfall stelle der IT-Versorger auf diesem Weg komplette Geschäftsfunktionen, beispielsweise für die elektronische Beschaffung, zur Verfügung.

Andreas Zilch vom Kasseler Beratungsunternehmen Techconsult verweist auf einen weiteren Unterschied zur klassischen IT-Auslagerung. "Mit Outsourcing-Verträgen binden sich Kunden langfristig. On Demand ist flexibler." Ähnlich wie im Strommarkt sei in der Theorie ein schneller Wechsel des Anbieters möglich.

Technische Grundlagen

On-Demand-Business setzt On-Demand-Computing voraus, und hier kommen nahezu alle Produkte und Technologien ins Spiel, die IBM vorzuweisen hat. Um die Vision zu verwirklichen, müsse die zugrunde liegende IT-Infrastruktur hoch integriert und virtualisiert sein, auf offenen Standards basieren und weitgehend autonom funktionieren, erläutert Palmisano. In einem Satz beschreibt der Nachfolger von Louis Gerstner damit Anforderungen, die jede für sich eine Mammutaufgabe für CIOs darstellen. In weiten Teilen gelten sie auch für HPs Konzept des Utility Data Center (UDC) oder Suns N1-Initiative, die unter anderem Grid-Architekturen beinhaltet.

Viele der benötigten Technologien und Konzepte sind nicht neu, andere hingegen erst im Entstehen begriffen. Grid und Autonomic Computing (siehe Kasten) etwa gelten als Enabling-Technologien auf dem Weg zum On-Demand-Business. An Bedeutung gewinnt insbesondere das leidige Thema Integration. Es umfasst die oft immensen Datenbestände und Legacy-Systeme ebenso wie neue, maßgeschneiderte Geschäftsanwendungen, die nicht nur unternehmensintern, sondern auch bei Partnern, Zulieferern oder Kunden arbeiten sollen.

Java, XML, Web-Services

Altbekannt ist auch die Forderung nach offenen Systemen. Erst allgemein zugängliche Standards wie Java, XML, Web-Services, Grid-Protokolle und Linux ermöglichten die Verbindung und Integration unterschiedlicher Technologien, argumentieren die IBM-Strategen. Damit werde nicht nur die IT, sondern das Geschäft insgesamt modularer.

Die Schlüsseltechnik für On-Demand-Computing heißt Virtualisierung. In diesem Feld spielen technische Innovationen noch am ehesten eine Rolle. Dahinter steht die Idee, eine Vielzahl verteilter IT-Ressourcen (Rechner, Speicher, Netze) so zu nutzen und zu verwalten, als handele es sich um einen großen virtuellen Rechner. Ein solches System ließe sich besser auslasten, einfacher verwalten und verursachte unterm Strich weniger Kosten.

Kein Wunder also, dass die IT-Granden in diese Technik investieren und zur Not auch Know-how zukaufen. So nutzt etwa IBM für seine Rechenzentren künftig die "Virtual Service Switches" (VSS) des US-amerikanischen Anbieters Inkra Networks. Sie erlauben die Einrichtung von virtuellen Rack-Servern. Mit Hilfe der Virtualisierungstechnik "Hardwall" simulieren die Geräte eine physische Isolierung mehrerer Rechner innerhalb eines großen Rack-Systems. Auf diese Weise will der Konzern künftig jedem Kunden einen virtuellen Server mit zugehörigen IT-Diensten anbieten. Die teure Verkabelung und Installation mehrerer Hardwarekomponenten entfiele.

Erst kürzlich verstärkte sich Sun Microsystems mit dem Kauf der kalifornischen Softwareschmiede Terraspring. Deren Software erlaubt es, logische Server-Farmen einzurichten und zu verwalten. Das System arbeitet unter dem herstellereigenen Unix-Derivat Solaris, kann aber auch Windows- und Linux-Server sowie Unix-Derivate anderer Anbieter verwalten.

Einen gewissen Vorsprung in Sachen Virtualisierung räumen Analysten HP ein. Schon vor mehr als einem Jahr präsentierte die von Carleton Fiorina geleitete Company ihr Konzept des Utility Data Center. Damit erhalten Administratoren eine virtuelle Sicht auf alle Ressourcen eines oder mehrerer Rechenzentren; Leistungsanforderungen einzelner Applikationen würden so besser erfüllt, lautet ein Versprechen. Zudem sei UDC in der Lage, IT-Ressourcen an Lastspitzen, beispielsweise im Online-Handel, anzupassen. Die Virtualisierungsintelligenz steckt dabei im Verwaltungs-Tool "Utility Controller" (siehe Grafik "Das virtuelle Rechenzentrum").

"UDC ist eine Form von Computing on Demand", sagt Frederic Glaser, UDC-Verantwortlicher bei HP Deutschland, heute. Inzwischen hat der Hersteller mit der Roadmap für "Adaptive Management Platform" eine Erweiterung dieses Konzepts angekündigt. Sie kombiniert Teile der herstellereigenen Management-Suite "HP Openview" mit UDC-Techniken.

IT-Ressourcen per Mausklick

"Man kann beispielsweise Ressourcen von einer Finanzanwendung per Drag and Drop einem Web-basierenden Einzelhandelssystem zuweisen", erläutert Nick van der Zweep, Director Utility Computing bei HP, die Vorzüge der Software. Heute müsse dafür jemand den Server aus dem Rack des Finanzsystems ziehen, in das Regal für die Handelsanwendung montieren und dann das Betriebssystem und die Anwendungen installieren. "Das ist ziemlich kompliziert."

Für Glaser bedeutet UDC denn auch "den endgültigen Schritt einer IT-Konsolidierung". Anwender würden vor allem von niedrigeren Kosten und einem einfacheren Management profitieren. Im Gegensatz zu IBM könne HP bereits ein fertiges Produkt anbieten.

Als Vorreiter auf dem Gebiet des Grid Computing sieht sich Sun Microsystems. In den zurückliegenden zwei Jahren habe man weltweit mehr als 6000 Grids installiert, erklärt die McNealy-Company. Lothar Lippert, Grid-Computing-Experte bei der deutschen Sun-Dependance, beschreibt die Technik als Teil der N1-Initiative. Grid übernehme dabei die Ressourcenvirtualisierung im Compute-Bereich, während N1 weiter greife und beispielsweise auch Software und Services einbeziehe. Ähnlich wie IBMs On-Demand-Computing soll auch N1 sämtliche IT-Ressourcen zu einem großen System verbinden und auf diese Weise Kunden helfen, ihre Geschäfte effizienter abzuwickeln.

"Ein Entwickler muss sich seine Compute-Ressourcen nicht mehr im Unternehmen zusammensuchen, das übernimmt künftig die Grid-Software", erläutert Lippert. Effizienz und Auslastung stiegen, einfacher ausgedrückt: "Unternehmen können mit der gleichen Hardware mehr machen." Zudem sei die Komplexität der Infrastruktur nicht mehr sichtbar. "Das ist wie Rechenleistung aus der Steckdose."

Hype und Realität

Der Wunsch, die Komplexität heterogener IT-Systeme zu reduzieren und teure Installationen besser auszulasten, weckt das Interesse von IT-Verantwortlichen an Grid-Konzepten und Computing on Demand. Aber vermag die Industrie die Versprechen auch einzulösen? Zweifel sind angebracht. Damit wirklich alle Systeme zusammenarbeiten können, bedarf es eines nie gekannten Integrationsgrads, warnen Experten. "Bei Strom und Wasser sind die Schnittstellen seit hundert Jahren standardisiert", gibt Berater Zilch zu bedenken. "In vielen Bereichen der IT kann man das nicht behaupten."

Hürden überwinden muss das On-Demand-Unternehmen auch in der Netzinfrastruktur. Für große Datenvolumina ausgelegte Hochgeschwindigkeitsnetze sind heute meist innerhalb von Unternehmen anzutreffen. In Zukunft aber sollen IT-Ressourcen wie Strom über ein öffentliches Netz fließen. "Das ist eine ganz andere Dimension", sagt Zilch. "Verfügbarkeit und Sicherheit sind schon innerhalb von Unternehmensgrenzen kritisch." Auch Herstellervertreter geben sich noch zurückhaltend: "Rechenleistung zu kaufen wie Elektrizität ist eine nette Vision, die aber noch etliche Jahre in der Zukunft liegt", kommentiert etwa Michael Hjalsted, Marketing Director Systems und Server Emea beim IT-Konzern Unisys. "Es gibt noch eine Menge Abstimmungsbedarf über Standards. Grundlagen wie Breitbandnetze, Anwendungen und Sicherheit sind noch nicht verfügbar."

Dennoch verweisen die Protagonisten des On-Demand-Computing auf erste Kundenprojekte. So hat etwa die deutsche Sun-Niederlassung ein Grid-System aus rund 1500 verteilten Workstations beim Automobilhersteller Ford installiert. Die Kölner betreiben darauf Strömungs- und Crash-Analysen. Mehrere deutsche Großbanken interessieren sich laut Sun-Manager Lippert für Grid-Systeme in der Risiko- und Portfolioanalyse. IBM wirbt derweil mit einem milliardenschweren Outsourcing-Auftrag von American Express, der auch On-Demand-Bestandteile enthält.

Dass IBM für die Transformation zum On-Demand-Business auch die Dienste seiner Beratungsabteilung Business Consulting Services feilbietet, erscheint nur folgerichtig. Doch ist der CIO erst einmal abgeschafft, die IT automatisiert, virtualisiert und visualisiert, könnten eines Tages auch die Consultants mit leeren Händen dastehen. Bis es so weit ist, dürften die IBM-Strategen eine neue Vision entworfen haben.

Wolfgang Herrmann, wherrmann@computerwoche.de

Autonomic Computing

E-Business on Demand bedeutet auch eine Verringerung der Komplexität, argumentiert IBM. Dazu beitragen soll die Initiative Autonomic Computing (vormals Eliza). Gleichgültig ob es um Sicherheit, Lastverteilung, Software-Upgrades oder Speicher geht - eines Tages werde die Technik in der Lage sein, sich selbst zu verwalten, verspricht der Konzern aus Armonk. Damit verbunden sind Fähigkeiten wie Selbstdiagnose, selbständige Konfiguration oder Selbstheilung, ähnlich wie im menschlichen Nervensystem.

Abb: Das virtuelle Rechenzentrum

Hewlett-Packards Utility Data Center erlaubt eine virtuelle Sicht auf alle Ressourcen eines oder mehrerer Rechenzentren. Quelle: Hewlett-Packard