Virtualisierung

Die wichtigsten Zukunftstechnologien bei Servern

24.03.2009 von Wolfgang Herrmann
Statt "mehr Rechenleistung" heißt heute die Grundregel bei Servern "Effizienz". Dies zu erreichen versprechen Blade-Server, Multicore-Prozessoren und Virtualisierungs-Technologien. Ein Überblick.
Das Dilemma der IT-Verantwortlichen: In neue Technologien investieren ohne großzügige Budgets.

Mehr Rechenleistung lautete das Mantra bei Servern. Doch angesichts schrumpfender IT-Budgets versuchen Nutzer, ihre Server effizienter als bisher einzusetzen. Blade-Server, Multi-Core-Prozessoren und Virtualisierungs-Technologien versprechen, dies zu tun. Ein Überblick.

In vielen Unternehmen werkeln veraltete Server-Infrastrukturen. Durch den wachsenden Kostendruck und schrumpfende IT-Budgets sucht der IT-Verantwortliche, beziehungsweise der Administrator, nach effizienten Lösungen, die aus diesem Dilemma helfen.

Allerdings sind die Anforderungen an eine neue, zukunftsorientierte IT-Infrastruktur hoch. Denn diese soll leistungsfähig, flexibel und trotzdem preiswert sein. Mit veralteter Hardware ist das kaum mehr zu bewerkstelligen. Viele IT-Verantwortliche denken deshalb über eine Modernisierung nach. Dabei können sie auf ein umfangreiches Angebot an entsprechenden Technologien zurückgreifen.

Das Marktforschungsunternehmen Gartner empfiehlt bei der Investitionsplanung von neuer IT, das die Verantwortlichen besonders die Technologien wie Multicore-Prozessorarchitekturen, Virtualisierung und Blade-Server bei ihren Überlegungen berücksichtigen. Nach Meinung der Experten zählen diese drei Themen zu den wichtigsten Technologien, die das Server-Umfeld in den nächsten Jahren prägen werden.

Multicore-Architekturen

Herkömmliche Prozessoren mit einem Rechenkern (Single Core) brachten mit jeder neuen Generation einen Leistungsschub, ohne dass Unternehmen dabei auf mögliche Probleme mit der Softwarelizenzierung oder dem Design von Anwendungen achten mussten. Doch die Technik hat gravierende Nachteile. Vor allem der hohe Stromverbrauch und die starke Hitzeentwicklung macht Herstellern zu schaffen. Um das Versprechen von Moore´s Law auch weiterhin einzulösen, änderten sie ihre Strategie.

Chips-Zutaten: Multicore-Prozessoren verfügen über mehrere Kerne in einem Chip.

Statt wie bisher möglichst viele Instruktionen sequenziell abzuarbeiten und die Taktraten in die Höhe zu treiben, sollten Prozessoren mehrere Befehle gleichzeitig erledigen. Bewerkstelligen lässt sich dies, indem entweder mehr physikalische Rechenkerne auf einem Chip untergebracht oder mehr Threads gleichzeitig pro Kern abgearbeitet werden. Auch eine Kombination beider Maßnahmen führt zum Ziel. Für die Anwendungsentwicklung und den laufenden Betrieb bleibt das nicht ohne Folgen. So muss etwa die eingesetzte Software die neuen Optionen unterstützen. Gartner warnt allerdings in diesem Kontext sogar vor versteckten Budgetrisiken.

Skalierung von Server-Systemen

Auf seiner jährlichen Data-Center-Konferenz im Dezember 2008 befragte das Beratungshaus Führungskräfte aus den Bereichen IT-Infrastruktur und -Betrieb nach ihren Erfahrungen. Von insgesamt 109 Interviewten berichtete ein Drittel von Skalierungsproblemen mit einigen Anwendungen, die auf x86-basierenden Multicore-Servern liefen. Nach Einschätzung von Gartner-Analyst Andrew Butler wird sich der Anteil künftig noch erhöhen, wenn Single-Core-Plattformen routinemäßig durch neue Server mit vier oder mehr Prozessorkernen pro Socket ersetzt werden.

Anpassung: Mehrkern-Prozessoren in Servern bringen nicht nur Vorteile, warnt Gartner. Oft muss der Programm-Code aufwendig an die neue Prozessortechnik angepasst werden.

Bisher konnten IT-Verantwortliche bei Performance-Engpässen einfach die Servertechnik modernisieren, erläutert der Hardwareexperte. Eine Anpassung der Software war nicht erforderlich, entsprechend lang war die durchschnittliche Lebensdauer der Anwendungen. Mit Multicore-Systemen wird die Sache schwieriger: In vielen Fällen sind Unternehmen gezwungen, den Code relativ aufwendig an die neue Prozessortechnik anzupassen, um von der stärkeren Rechenleistung zu profitieren. Butler: "Damit verkürzen sich die Lebenszyklen von Anwendungen, die Kosten für die Modernisierung des Portfolios steigen." Zudem müssten IT-Verantwortliche Performance-Anforderungen der Anwendungen nun langfristiger planen. Seine Empfehlung lautet, das Design zugekaufter Software genau auf die Unterstützung von Multicore- und Multithreading-Techniken hin abzuklopfen. Das gelte insbesondere, wenn Prozessoren mit vier oder mehr Kernen eingesetzt werden.

Virtualisierung

Techniken zur Server-Virtualisierung sind heute weit verbreitet. Laut der Gartner-Erhebung betreibt ein Viertel der Unternehmen bereits mehr als 50 Prozent der RZ-Workloads auf virtuellen Maschinen. Die Zahl bezieht sich auf die Verarbeitungslasten sämtlicher Server-Plattformen, also neben x86-Systemen auch auf Risc/Unix-Server und Großrechner. Ein weiteres Drittel der Befragten hat immerhin bereits mehr als 25 Prozent der Workloads in virtuelle Maschinen verlagert. Die Gründe sind leicht nachvollziehbar: RZ-Manager wollen die Anzahl installierter x86-Server reduzieren und damit auch Kosten für den Stellplatz und den Energieverbrauch sparen.

Schein und sein: Virtualisierung bringt vielfältige Vorteile, schafft aber auch neue Probleme.

Wie sich diese Entwicklung auf den Server-Markt auswirkt, zeigen andere Erhebungen. Auf jedes Dutzend installierter virtueller Maschinen kommen demnach elf physische Server, die nicht in Betrieb gehen. Der Virtualisierungsmarkt verdoppelt sich jährlich. Zugleich sind die Durchschnittspreise für Virtualisierungsplattformen (Hypervisor) 2008 dramatisch gefallen. Wegen des zunehmenden Wettbewerbs erwartet Gartner auch sinkende Kosten für die Verwaltung der virtualisierten Infrastruktur. Dadurch werde sich der Einsatzgrad von Virtualisierungstechniken weiter beschleunigen. Doch obwohl die Virtualisierung in den nächsten Jahren den Absatz von x86-Servern bremst, glauben die Auguren auf lange Sicht wieder an eine Trendwende. Die mit der Technik verbundenen kürzeren Einführungszeiten und niedrigere Eintrittshürden für Kunden würden am Ende wieder zu einer anziehenden Server-Nachfrage führen.

Blade-Server

Zu den Megatrends im Server-Geschäft zählt die weiter zunehmende Popularität von Blade-Systemen. Seit dem Jahr 2005 ist der Markt für Blade-Server exponentiell gewachsen, berichtet Gartner. Mit jährlichen Steigerungsraten von 18 Prozent bezüglich der verkauften Systeme und 16 Prozent gemessen am Umsatz liegen Blades im Vergleich zu anderen Formfaktoren einsam an der Spitze, wenn Unternehmen neue Server installieren. 78 Prozent der befragten RZ-Verantwortlichen setzen bereits Blade-Systeme ein oder planen dies.

Bisher dominieren in diesem Segment x86-Systeme, die eher für weniger anspruchsvolle Aufgaben eingesetzt werden. Gartner beobachtet indes einen Trend zu leistungsstärkeren Systemen. Dies zeige sich einerseits am relativ hohen Anteil der Unternehmen, die x86-basierende Blades als strategische Plattform im Data Center nutzen. Andererseits berichteten auch die Hersteller von wachsenden Einnahmen mit Blades, die mit Risc- oder Itanium-Prozessoren unter Unix arbeiten. Dazu gehörten Hewlett-Packard (HP), IBM und Sun Microsystems.

Power satt: Blade-Server vereinen eine hohe Rechenleistung auf kleinem Volumen.

IT-Verantwortliche, die einen Blade-Einsatz erwägen, sollten sich darüber im Klaren sein, dass es sich in der Regel um sehr proprietäre Systeme handele, warnt Butler. Wer sich einmal für eine Chassis-Technik mit den dazu passenden Komponenten entschieden hat, ist für lange Zeit daran gebunden. Der Auswahl des Hardwareanbieters kommt deshalb besondere Bedeutung zu. In der Umfrage unter Data-Center-Managern zeichnete sich ein überraschend klares Bild ab. 36 Prozent nannten HP als strategischen Lieferanten ihrer Blade-Systeme. Der Erzrivale IBM folgt mit 13 Prozent abgeschlagen auf Platz zwei, nur eine Nasenlänge hinter dem wesentlich kleineren Direktanbieter Dell. Unternehmenskunden sollten von den Anbietern klare Roadmaps für Blade-Produkte und Chassis-Techniken einfordern, rät Butler. Die Investitionen ließen sich am wirksamsten über vertragliche Zusicherungen schützen.

Fazit

Zukunftsträchtige Technologien wie Blades, Multicore-Prozessoren und Virtualisierung bieten gute Ansätze, um eine veraltete IT-Infrastruktur zu modernisieren. Allerdings bedürfen auch diese Neuerungen gründlicher Planung. Einerseits muss alte Hardware gegen Neue ausgetauscht werden. Anderseits muss auch die neue Hardware mit der alten beziehungsweise der vorhandenen Software zusammenarbeiten. Dies erfordert in der Regel eine spezielle Anpassung der Programme.

Die Virtualisierung ist ein probates Mittel, um vorhandene Server-Performance effizient auszuschöpfen. Hierbei buhlen gleich mehrere bedeutende Anbieter wie VMware, Microsoft oder Citrix um die Gunst der Anwender. Aber auch hier gilt: Erst das Angebot kritisch prüfen, um bei der Migration von einem physischen System auf eine virtuelle Maschine keinen Schiffbruch zu erleiden.

Ausführliche Informationen zu diesen Themen erhalten Sie bei unserer Schwesterpublikation "tecchannel". Wie man Multi-Core-CPUs programmiert, erläutert der Beitrag Programmieren für Multi-Core-Prozessoren. Grundlegende Informationen zu Blade-Systemen finden Sie in dem Artikel Blade-Server: Hohe Rechenleistung - geringe Kosten. Wer mehr über Virtualisierung wissen will, den wird er Artikel Virtualisierung: Ratgeber für die Migration von Servern interessieren. (Computerwoche; wh) (wl)