Data Center der Zukunft

Kampf der Server-Plattformen

19.01.2010 von Wolfgang Herrmann
In den Rechenzentren etabliert sich eine neue Server-Generation: flexibel, modular, effizient und einfach zu administrieren.

Welche Server-Plattformen stehen im Data Center der Zukunft? Wer die Frage beantworten will, sollte zunächst zurückschauen, empfiehlt Gartner-Analyst Andrew Butler. Das "alte Paradigma", gemeint ist in erster Linie der Mainframe, hat aus seiner Sicht eine Reihe von Nachteilen, die nicht mehr zu den veränderten Anforderungen an die IT passen. In traditionellen Server-Umgebungen koppeln Unternehmen Rechnerkonfigurationen und Lebenszyklen in der Regel fest an bestimmte Anwendungen oder Aufgaben einer Fachabteilung. Die Applikationen formen Silos und sind quasi fest mit den darunterliegenden Server-Plattformen und Storage-Systemen verdrahtet. Dieses Konzept hat sich als zu starr, ineffizient und teuer erwiesen (siehe auch: Sieben Trends, die das Data Center verändern).

Blade-Server im Überblick
Primergy BX900
Der PRIMERGY BX900 bietet in einem 10 HE-Chassis Platz für bis zu 18 Server Blades.
HP C3000
Das Blade Center HP C3000 kann mit vier doppelten oder acht einfachen Blades bestückt werden. <br/>(Bild: Hersteller)
IBM BladeCenter-S
IBMs BladeCenter-S ist als Mittelstandlösung konzipiert.
Sun Blade 6000
Sun ermöglicht in seiner Blade-Serie unterschiedliche Ausbaustufen mit bis zu 48 Sun Blade Server-Modulen.
Dell PowerEdge M1000e
Das Dell PowerEdge M1000e kann 16 Blades mit 2 Prozessorsockeln aufnehmen.
IBM Director
Der IBM Director ist das zentrale Verwaltungswerkzeug für Blades, Rack-Systeme und weitere Rechner von IBM.
HP Capacity Advisor
Der HP Capacity Advisor gibt Hilfen bei der Auswahl des richtigen Modells in Abhängigkeit von der geforderten Last.
FTS
Durch Configuration-Tools wie beispielsweise jenem von FTS für die Primergy-Reihe lässt sich der Stromverbrauch des gewählten Modells im Vorfeld bestimmen.

Virtualisierung spart Ressourcen

In der neuen Welt der Virtualisierung lässt sich das Aufsetzen von Servern und entsprechenden Anwendungen deutlich verkürzen, erläutert Butler. Zudem könnten Unternehmen die Rechner besser auslasten. Damit verwischen auch die einst unverrückbaren Grenzen zwischen Server-, Storage- und Netzwerk-Ressourcen. Durch das Zusammenfassen solcher IT-Assets zu virtuellen Pools, die sich je nach Bedarf anzapfen lassen, gewinnen Unternehmen Flexibilität und können schneller auf Veränderungen reagieren. Butler spricht von einem "Unified-Fabric"-Konzept, dessen Entwicklung aber noch Zeit brauche. Dazu gehörten unter anderem Automatisierungsfunktionen, intelligentere Betriebssysteme und ausgefeilte Management-Tools für das Verwalten und Steuern der IT-Ressourcen.

Blade-Server sind im Rechenzentrum der Zukunft gesetzt.
Foto: Hewlett-Packard

In der näheren Zukunft erwartet der Gartner-Experte eine Koexistenz des alten (Mainframe-)Paradigmas mit einer neuen Server-Architektur. Letztere sei gekennzeichnet durch besonders "netzwerkfreundliche" Rechner, Blade-Formfaktoren und gepoolte Rechen- und Speicherressourcen. Die großen IT-Hersteller verwenden dazu Begriffe wie "convergent" oder "universal". Erst kürzlich etwa stellte Hewlett-Packard sein Konzept der Converged-Infrastructure vor, das bisher isolierte IT-Domänen für Applikationen, Rechner, Speicher, Netze und Gebäuderessourcen integrieren soll.

Die Strategien der Hersteller

In diesem Szenario positionieren sich die Server-Hersteller mit unterschiedlichen Strategien. Zu den führenden Anbietern zählen Dell, Fujitsu, HP, IBM und Oracle mit Sun. Neu auf dem Radarschirm ist Cisco aufgetaucht. Die Netzwerk-Company versucht mit ihrer auf Blade-Systemen basierenden "Unified-Computing"-Strategie vor allem im Rechenzentrum Fuß zu fassen. Zwar falle die Gesamtwertung für Cisco gegenüber den etablierten Server-Anbietern noch niedrig aus, kommentiert Gartner-Analyst Butler. Doch die starke Marktpräsenz des Netzspezialisten werde sich mittelfristig auch im Server-Markt positiv bemerkbar machen.

Eine ähnliche strategische Stoßrichtung beobachtet der Gartner-Mann bei Oracle. Die Company vergrößere ihre Marktchancen, indem sie Anwendungen, Infrastruktursysteme und Hardware (über den Zukauf von Sun) eng aufeinander abstimme und als integrierte Lösungen anbiete. Ein Beispiel dafür ist die Exadata Database Machine, ein vorkonfiguriertes Paket aus Hardware von Sun und Oracle-Software, das sich vor allem für Data-Warehouse-Anwendungen und Online Transaction Processing (OLTP) eignen soll. Zu den Unternehmen, die ihre Märkte verstärkt durch Akquisitionen ausweiten, zählt Gartner neben Oracle auch IBM und Hewlett-Packard. Andreas Zilch, Analyst bei der Experton Group, spricht in diesem Kontext von einer "vertikalen Integration" mittels eines kompletten Stacks. Dieser von Cisco eingeleitete Trend habe mittlerweile drei Koalitionen (Cisco/EMC/VMware, Sun/Oracle, Fujitsu Technology Services/Netapp) hervorgebracht. Andere würden folgen und die bestehenden Portfolios zum Teil noch weiter ausgebaut.

Ein weiterer strategischer Ansatz der Server-Anbieter ist im Bereich Virtualisierungs-Infrastruktur zu erkennen. Hier positionieren sich vor allem HP, IBM und VMware. Bei Letzterem handelt es sich zwar nicht um einen großen Server-Hersteller, wohl aber um ein Unternehmen, das auf der Ebene der Softwareplattformen und Betriebssysteme den Markt verändert. Eine ähnliche Rolle spielt VMware im Bereich Cloud-Infrastruktur, wo sich insbesondere IBM, Cisco und HP strategisch aufstellen. Geht es um die veränderte Rolle der Server in einem Umfeld dynamisch zuweisbarer IT-Ressourcen und Blade-Formfaktoren, haben HP, IBM und Cisco nach Einschätzung der Gartner-Experten bislang die größten strategischen Anstrengungen unternommen.

Ganz anders die Situation im Volumenmarkt mit x86-Servern unter Windows oder Linux, wo Kunden in erster Linie günstige Preise und Effizienz erwarten. Hier sieht Gartner vor allem Dell gut positioniert. Doch die Texaner sind nicht allein. Mit seinem breiten Angebot will sich Hewlett-Packard auch in diesem Segment eine starke Position verschaffen. Bei all den unterschiedlichen Ansätzen sollten Anwender nicht vergessen, dass es den Herstellern unterm Strich vor allem um mehr Einfluss und mehr Marktanteile gehe, warnt Butler. Trotz aller Standardisierungseffekte wollten sie es Kunden immer schwerer machen, den Lieferanten ohne hohen Kostenaufwand zu wechseln.

Unix-Plattformen bleiben im RZ

Welche Rolle spielen Unix-Server im Rechenzentrum der Zukunft? - Entgegen so mancher Prognose, klassische Risc-basierende Systeme unter AIX, HP-UX oder Solaris würden schon bald durch die x86-Konkurrenz ersetzt, sieht Butler durchaus noch eine Daseinsberechtigung für große Unix-Server (siehe auch: x86-Server erobern das Data Center). Zwar werde sich das Wachstum in diesem Markt in den kommenden fünf Jahren in engen Grenzen halten. Doch die durch Multicore- und Multithreading-Techniken bedingten Skalierungsvorteile von Unix-Plattformen trügen dazu bei, dass etliche Unternehmen auch weiterhin geschäftskritische Anwendungen auf den u uServern betrieben. Von den drei verbliebenen Anbietern gibt Gartner IBM die besten Chancen. Big Blue investiere viel in sein Unix-Derivat AIX, insbesondere in Virtualisierungs-Optionen. Damit stärke der IT-Konzern seine Wettbewerbsposition. Ähnlich beurteilt Zilch den Markt: "IBM hat aktuell mit den P6-AIX-Systemen einen deutlichen Entwicklungsvorsprung, der mit der P7-CPU noch einmal untermauert wird."

Solaris-Server fallen zurück

Anders der Erzrivale Sun, dem es bislang nicht gelungen ist, seine technischen Fähigkeiten und Innovationen rund um Solaris-Server in klingende Münze umzusetzen. Die Anteile der Java-Company im Unix-Markt sinken, hinzu kommt die Unsicherheit vieler Kunden, wie es nach der Übernahme durch Oracle weitergehen wird (siehe unten "Was wird aus Suns Servern?"). Hewlett-Packard investiert zwar ebenfalls in seine Unix-Plattformen, ist in Sachen Prozessortechnik aber vom Partner Intel und dessen ItaniumArchitektur abhängig. Die großen Verzögerungen bei der Entwicklung der nächsten CPU-Generation Tukwila bereiteten Kunden Kopfzerbrechen, berichtet Butler. Sollten auch die unabhängigen Softwareanbieter (ISVs) eines Tages das Vertrauen in die Unix-Plattformen von Sun und HP verlieren, bliebe womöglich nur noch IBM als ernst zu nehmender Player übrig. Für Kunden wäre das eine schlechte Nachricht, die wahrscheinlich vor allem eine Folge hätte: das weitere Vordringen von Linux auf x86-Servern.

Linux drängt ins Data Center

Bereits im Jahr 2008 war Linux das am schnellsten wachsende Server-Betriebssystem. Dazu beigetragen haben zahlreiche Migrationsprojekte von Unix auf das Open-Source-System, aber auch die zunehmende Unterstützung durch Hardwareanbieter. Auftrieb erhält Linux nicht zuletzt durch die großen Softwarekonzerne. Vor allem die Branchenschwergewichte SAP und Oracle optimieren ihre Business-Anwendungen für Linux und schnüren entsprechende Pakete für Kunden. Die Akzeptanz von Linux-basierenden Rechnern in Mission-Critical-Umgebungen nehme weiter zu, beobachtet Gartner. Gleiches gelte für Cloud Computing und diverse Infrastrukturaufgaben in den Rechenzentren. Vor allem im Vergleich zu Unix- und Mainframe-Systemen böten Linux-Installationen auf x86-Servern eine kostengünstige Alternative. Einschränkungen macht Gartner dabei in Sachen vertikaler Skalierbarkeit, also bei größeren SMP-Systemen (Symmetrical Multiprocessing). Für Enterprise-Systeme etwa empfiehlt Butler deshalb, Linux vorerst in separaten Partitionen auf Mainframes (zLinux) oder Unix-Servern zu betreiben.

Windows-Server holen auf

Geht es um die Skalierfähigkeit, hat Microsoft mit Windows Server 2008 R2 deutliche Fortschritte gemacht. Das Release ist für 64-Bit-Anwendungen konzipiert und unterstützt bis zu 256 Prozessoren. Das klingt beeindruckend, könnte sich angesichts der kurzen Entwicklungszyklen im Hardwarebereich aber schnell als unzureichend erweisen, wie Butler anmerkt. Um im Wettbewerb mit anderen Server-Plattformen mitzuhalten, müsse Microsoft die Weiterentwicklung beschleunigen. Das gelte auch für die zugehörige Management-Software "System Center", die künftig heterogene Umgebungen besser überwachen können müsse. Ein Hindernis für eine raschere Weiterentwicklung sieht der Analyst in der monolithischen Codebasis. Windows brauche eine modularere Struktur, um die aufkommenden unterschiedlichen Server-Rollen und Betriebsmodelle wie etwa Cloud Computing wirksam zu unterstützen.

Hypervisor von Microsoft

Dass die Umsätze mit dem Windows-Server im Jahr 2008 um knapp 16 Prozent gewachsen sind, sei zum Großteil auf das 2008er Release und dessen integrierte Virtualisierungstechnik Hyper-V zurückzuführen. Dennoch hinke Microsoft Konkurrenten wie VMware hinterher, wenn es etwa um fortgeschrittene Funktionen wie die LiveMigration von virtuellen Maschinen gehe. Zwar biete auch der Windows-eigene Hypervisor inzwischen diese Option. Doch VMware kam damit zwei Jahre früher auf den Markt. Boden gutgemacht habe Microsoft im Bereich High Performance Computing (HPC). Windows Compute Cluster 2003 und Windows HPC Server gewönnen in diesem Marktsegment an Bedeutung. Trotzdem arbeiten die meisten Hochleistungssysteme in diesem Umfeld nach wie vor unter Linux.

Mainframe geht auch billiger

Klassische Großrechner werden auch künftig fester Bestandteil vieler Rechenzentren sein. Der Trend zur Rezentralisierung und Konsolidierung von IT-Ressourcen begünstigt die anhaltende Popularität des Big Iron. Dass der Mainframe für viele IT-Manager weiterhin attraktiv ist, hat für Butler aber vor allem mit einem strategischen Schachzug IBMs zu tun: dem Konzept der so genannten Specialty Engine. Kunden können damit einen Teil ihrer Arbeitslasten auf speziell zugewiesene Prozessoren innerhalb des Großrechners verlagern. Weil sich die Softwarelizenzkosten im Großrechnergeschäft in der Regel nach der Rechenkapazität bemessen, sparen Kunden Geld, wenn sie Anwendungen nur in der begrenzten Specialty Engine betreiben. Für alle anderen Anwendungen berechnet IBM die Softwarekosten anhand der gesamten Kapazität des Mainframes, was zu deutlich höheren Gebühren führt. Der IT-Konzern offeriert derzeit drei solche Optionen: die Integrated Facility for Linux (IFL) für Linux-Workloads, den System z Application Assist Processor (zAAP), auf dem Java-Code in einer Java Virtual Machine (JVM) läuft, und den System z Integrated Information Processor (zIIP). Letzterer ist für spezielle DB2-Aufgaben und diverse datenzentrierte Arbeitslasten konzipiert.

IBM verfolgt mit dieser Strategie gleich mehrere Ziele. Zum einen reagiert der Konzern auf die Kritik vieler Mainframe-Nutzer, die Softwarekosten seien zu hoch. Tatsächlich machen sie in TCO-Analysen den dicksten Brocken aus. Zum anderen versucht IBM mit den spezialisierten CPUs, neue Arbeitslasten auf den Mainframe zu bringen, die Kunden ansonsten auf günstigeren Server-Plattformen betreiben würden.

Was wird aus Suns Servern?

Noch ist die Übernahme von Sun durch Oracle noch nicht in trockenen Tüchern. Zwar hat Oracle-CEO Lawrence Ellison beteuert, er werde Suns Produkte weiterführen, um damit in Kombination mit eigenen Systemen IBM anzugreifen. Doch Gartner rät Sun-Kunden zur Vorsicht. Kurz- und mittelfristig sei zwar davon auszugehen, dass Oracle die Sparc-Prozessortechnik und darauf basierende Server weiter unterstützen werde. Doch auf lange Sicht setzt das Analystenhaus ein dickes Fragezeichen hinter die einstigen Flaggschiffprodukte der Java-Company. Oracle verabschiede sich allmählich vom Konzept der Allzweck-Server und setzte stattdessen auf spezialisierte Produkte. Dazu gehören etwa schlüsselfertige Pakete aus Sun-Hardware und Oracle-Software. Der Markt für Unix-Server bietet zudem keine Wachstumsperspektiven; vor allem die Umsätze mit den Sun-eigenen Sparc-Solaris-Servern gehen kontinuierlich zurück. Hinzu kommt, dass die starken Konkurrenten IBM und HP die Verunsicherung in der Branche ausnutzen, um Sun-Kunden auf ihre Seite zu ziehen.

Vor diesem Hintergrund empfiehlt Gartner-Analyst Andrew Butler Anwenderunternehmen eine pragmatische Herangehensweise. Sie könnten die Situation durchaus für sich nutzen, um beispielsweise langfristig stabile Support- und Wartungspreise mit Sun auszuhandeln. Von strategischen Entscheidungen zugunsten von Sun-Plattformen rät der Experte vorerst ab. Kunden sollten damit warten, bis Oracle eine strategische Roadmap für die Sun-Produkte vorlegen kann. Schon jetzt gelte es für IT-Verantwortliche, Oracles übergreifende Strategie genau unter die Lupe zu nehmen. In Gesprächen mit dem Management des Softwarekonzerns gehöre beispielsweise auch die Frage auf die Tagesordnung, wie sich Oracles umfassende Linux-Strategie auf künftige Unix-basierende Angebote auswirken werde.