Utility Computing: Nur ein Hype?

04.03.2004
Anwenderfirmen kaufen gerade so viel IT-Rechenleistung ein, wie sie benötigen. Exklusiv für ComputerPartner geht Dr. Kay Hradilak, Vorstandsvorsitzender der Comline AG in Hamburg, der Frage nach, welche Konsequenzen diese Entwicklung für die Systemhäuser in Deutschland hat.

Unter dem Begriff Utility Computing zeichnet sich nicht zum ersten Mal ein heiliger Gral am Computerhimmel ab: Rechner- und Speicherleistung sowie Anwendungen sollen je nach Bedarf, gleich Strom, über das Netz bereitgestellt werden. Befreit von den Grenzen ihrer IT, so die Verheißung, werden die Unternehmen in "real-time" so agil wie nie.

Eine Reihe der großen Computer- und Softwarehersteller haben massiv verkündet, dass sie Utility Computing verwirklichen wollen: So hat IBM "E-Business on demand" zur Firmenvision erklärt und treibt die Entwicklung sowohl im Software- (Webservices u. a.) wie im Hardwarebereich (Autonomic Computing) mit Nachdruck voran. Hewlett-Packard startete die Adaptive Enterprise-Initiative mit dem Utility Data Center als Schlüsselprodukt. Sun will mit N1 ein System entwickeln, das die gesamte vernetzte IT-Infrastruktur selbstständig managt.

Die Ziele der verschiedenen Utility-Computing-Initiativen sind vergleichbar:

- Notwendige Computer-Ressourcen (Rechner- und Speicherleistung, Bandbreite) sollen je nach Bedarf bereitgestellt und so sowohl Kapazitätsengpässe als auch Überkapazitäten vermieden werden.

- Unterschiedliche IT-Systeme sollen kurzfristig und mit geringstem Aufwand ineinander integriert werden.

- Das Management der IT-Infrastruktur soll weit gehend automatisch und "selbstheilend" durch Software erfolgen.

Der Einsatz ist hoch, denn Utility Computing verspricht den traditionellen Computerherstellern der Kommodisierungsfalle zu entrinnen und eine wirklich strategische Antwort auf den Vormarsch von Dell geben zu können.

Warum ist Utility Computing für die IT-Anwender von Interesse? Datenverarbeitung ist bisher eine Geschichte nicht nachlassender, sondern zunehmender Komplexität. Diese Komplexität vernichtet Wert. Entsprechend ist der Bedarf an einfachen, effizienten und flexiblen IT-Lösungen immens.

Das Konzept des Utility Computings beruht auf einer radikalen Verringerung der IT-Komplexität durch

- die konsequente Kommodisierung (und Trennung) von Rechnerleistung und Speicherkapazität, die durch billige, redundante Boxen bereitgestellt und durch die Anzahl der eingesetzten Boxen beliebig anpassbar ist

- ein Firmengrenzen überschreitendes "breites" Standardnetz, das die räumliche Nähe von Ressourcen unnötig macht

- einer in hohem Maße automatisierten Managementkonsole für sämtliche Ressourcen und nicht zuletzt

- einfachst integrierbare Anwendungen, die nicht mehr an proprietäre Rechen- und Speicherressourcen gebunden sind.

Ein funktionierendes Utility Computing würde die IT von einem komplexen "Managementproblem" zu einer Servicefunktion wandeln, die nach Bedarf klar definierte Leistungen zu fest vereinbarten Kosten erbringt.

Wie realistisch ist die Umsetzung?

Die Standardisierung und Modularisierung von Rechner- und Speicherleistung ist bereits seit Jahren ein zentraler Trend. So gewinnen Serverboxen rasant an Marktanteil; Intel-basierende Hochleistungs-Cluster sind zusehends proprietären Unix-Boliden ebenbürtig. Mit der Itanium-Prozessorfamilie wurde die Vereinheitlichung von Server-Plattformen eingeleitet.

Die Bereitstellung von Ressourcen-übergreifenden, proaktiven Managementkonsolen ist ein Entwicklungsschwerpunkt der nächsten Generation von Systemmanagement-Lösungen, wobei die wachsende Verbreiterung von "utility-ready" Rechner- und Speicherboxen die Einführung dieser Konsolen wesentlich erleichtert.

Wie steht es um die Bandbreiten? Eine Gigabit-Vernetzung auch für Intel-Cluster und LANs befindet sich in der Einführung. Auch im WAN-Bereich sind Gigabit-Bandbreiten verfügbar - jedoch noch zu enormen Preisen. Möglicherweise erweist sich hier die Bündelung vergleichsweise "schmaler" Internetverbindungen als Lösungsweg.

Nur die "einfachst integrierbaren Anwendungen" sind noch nicht absehbar. Die heute im Einsatz befindlichen, monolithischen ERP-Systeme und die noch nicht eingelösten Versprechen von Webservices werden einer einfachen Integration noch lange im Wege stehen.

Dies darf aber nicht darüber hinwegtäuschen, dass eine utility-based IT-Infrastruktur voraussichtlich innerhalb weniger Jahre Gestalt annehmen wird, auch wenn sie noch nicht on-demand "aus der Steckdose" kommt. Auch hausinterne Utility-Lösungen bieten riesengroße Rationalisierungspotenziale.

Die wirtschaftlichen Auswirkungen von Utility Computing auf das Systemhaus-Geschäft sind erheblich und existenziell: So zielt Utility Computing darauf, eingesetzte Ressourcen weitaus besser auszulasten und so den Bedarf an Rechner- und Speicherleistung tendenziell zu verringern. Auch soll durch die weit gehende Automatisierung des Systemmanagements der Bedarf an Betreuungs- und Wartungsleistungen reduziert werden.

Und: Utility Computing ist per se ein Outsourcing-geeignetes Modell, da es IT zu einer einfach zukaufbaren Serviceleistung machen soll. Mit einem funktionierenden Utility Computing wird nicht das Direktgeschäft, sondern On-demand-Outsourcing zur größten Bedrohung traditioneller Systemhäuser.

Die Chancen der Systemarchitekten

Utility Computing ist für die Systemhäuser ein Grund mehr, den Wandel zum Systemarchitekten konsequent fortzusetzen und zu beschleunigen. Denn so, wie die Spielräume und Margen für den klassischen Computerhandel mittelfristig weiter schrumpfen werden, so werden die Potenziale für unabhängige Management- und Architekturleistungen steigen. So setzt eine "utility-ready" IT-Infrastruktur präzise ausgestaltete IT-Serviceprozesse voraus. Weit gehend modularisierte Server- und Storageplattformen stellen neue Architekturanforderungen. Interne IT-Bereiche müssen fit für den Wettbewerb und für die Kooperation mit On-Demand-Outsourcern gemacht werden. Darüber hinaus können Systemarchitekten aktiv eigene On-Demand-Leistungen entwickeln und anbieten.

Die Kernkompetenz von Systemarchitekten, IT-Infrastrukturen kostenoptimal und managebar zu gestalten, kann und muss bei einem Utility Computing voll zum Tragen kommen. Wiederum gilt: Wer von der Welle nicht erschlagen werden will, muss auf der Welle reiten. Neben einer Reihe von Gefahren bringt Utility Computing auch viele Chancen und neue Gelegenheiten. Es ist jetzt die Zeit, sich vorzubereiten.

Zur Startseite