Umbau im Rechenzentrum

Warum die Converged Infrastructure boomt

26.03.2013
Den Marktauguren zufolge gleichen Rechenzentren heute Großbaustellen. Das verspricht gute Geschäfte für den Channel.
"Die Anwender treiben die IT", sagt Roland König, Geschäftsführer des Bechtle-IT-Systemhauses München/Regensburg und Leiter des Geschäftsfelds Virtualisierung

Nur fünf Prozent aller Rechenzentren weltweit verfügen aktuell über eine Cloud- und SLA-fähige Infrastruktur. Das ergab die jüngste Studie von Forrester Research. "Für unsere Branche ist das eine ganz gute Nachricht", sagt Roland König, Geschäftsführer des Bechtle-IT-Systemhauses München/Regensburg und Leiter des Geschäftsfelds Virtualisierung.
König liefert auch gleich die Begründung für seine Zuversicht mit: "Wenn sich die IT-Abteilungen künftig zum IT-Service-Broker für die Anwender wandeln möchten, müssen sie in neue Rechenzentrumsarchitekturen investieren. Denn Unternehmen werden keinesfalls alles in die externe Cloud auslagern. Sehr vieles wird im eigenen Rechenzentrum bleiben." Der Bechtle-Manager ist wie viele seiner Kollegen aus dem Systemhausumfeld überzeugt: "Hier entsteht ein riesiger Markt".

Druck von allen Seiten

Kostengünstiger, performanter, leichter zu administrieren und vor allem flexibler soll das Rechenzentrum werden, denn der Druck auf die IT-Leiter wächst: Mitarbeiter verlangen schnellen und mobilen Zugriff - auch auf Daten, Dienste und Applikationen, die nicht zu den Kernanwendungen des Unternehmens zählen. Und wenn die hauseigene Infrastruktur beispielsweise den gewünschten Speicher nicht schnell genug bereitstellt, ist der Klick zur Dropbox - am IT-Verantwortlichen vorbei - nicht mehr weit. Ohnehin kennt der Hunger nach Storage keine Grenzen.

Um diesen Wildwuchs zu unterbinden, gehen IT-Leiter immer häufiger dazu über, Dienste wie Dropbox und Cloud-basierte Apps aus dem Unternehmen zu verbannen, indem sie diese Services auf den - meist mobilen - Endgeräten der Mitarbeiter sperren. Dieses Vorgehen funktioniert allerdings nur, wenn der Administrator den Usern dazu Alternativen anbietet. Denn gerade Mitarbeiter aus den Fachbereichen werden künftig ein noch größeres Mitspracherecht bei IT-Entscheidungen erhalten. Das Marktforschungsinstitut Forrester schätzt, dass bereits 2017 die IT-Budgets der Fachabteilungen, allen voran der Marketing- und Vertriebsverantwortlichen, in den Unternehmen größer sein werden als die der CIOs. "Die Anwender treiben die IT", sagt König.
Schon deshalb wird der Druck auf die IT-Abteilungen weiter steigt.

Silos bestimmen IT-Architektur und Organisation

Erschwerend kommt hinzu, dass in größeren Unternehmen die Verantwortung für Server, Storage, Netzwerk, Sicherheit und Applikationen in unterschiedlichen Händen liegt. Das führt zu internen Reibungsverlusten. Analysten haben für dieses Phänomen das griffige Bild der "Silo-Architektur" geprägt.

Ulf Schade,Solution Manager bei Computacenter: "Große Applikationsumgebungen wurden aber oft noch als Silos in den Rechenzentren implementiert."

"Unsere Kunden haben in den vergangenen Jahren große Anstrengungen unternommen, um ihren IT-Betrieb zu standardisieren. Und in nahezu jedem Unternehmen gibt es Erfahrungen bei der Virtualisierung physikalischer Infrastrukturen", berichtet Ulf Schade, Solution Manager bei Computacenter. "Große Applikationsumgebungen wurden aber oft noch als Silos in den Rechenzentren implementiert."

Entlastung aus der Box

Einen möglichen Ausweg aus diesem Dilemma könnten Referenzarchitekturen und integrierte Systeme bieten (siehe Kasten "Integrierte Systeme").

Sie kombinieren aufeinander abgestimmte, getestete, virtualisierte Storage-, Server-, Netzwerk- und Virtualisierungskomponenten, teilweise auch Middleware- und Applikations-Software in einem vorgefertigten, validierten "Stack", mit einer zentralen Managementeinheit. Teilweise sind dort auch Templates mit definierten automatisierbaren Konfigurationen hinterlegt, beispielsweise für Server-, Netzwerk- und Speicherressourcen oder Applikationen.

"Die Silos aufzulösen und dem IT-Betrieb Flexibilität in der Infrastruktur zurückzugeben, darauf zielen die Block-Infrastrukturen ab", erklärt Schade. "Damit nehmen die Heterogenität in der Infrastruktur und auch der Aufwand, diese zu verwalten, ab."

Was sind integrierte Systeme?

Integrierte Systeme sind Data-Center-Modelle, die Server, Shared Storage und Netzwerkkomponenten in einem Stack vereinen. Marktforscher Gartner unterscheidet drei Klassen:

  • Integrierte Infrastruktursysteme: Hier sind Server, Shared Storage und Netzwerkhardware kombiniert, um eine Shared-Compute-Infrastruktur bereitzustellen (zum Beispiel HP CloudSystem, Dell vStart und Active System, Vblock und IBM PureFlex).

  • Integrierte Application- oder Workload-Systeme: Die integrierte Infrastruktur umfasst auch vorinstallierte Datenbank- und/oder Applikationssoftware, quasi in einer Appliance gebündelt (Oracle Exadata, HP AppSystems, IBMPureApplication).

  • Integrierte Referenzarchitekturen: Diese Lösungen stellen dedizierte und vorvalidierte Komponenten in unterschiedlichen Konfigurationen zur Verfügung, aus denen der Anwender oder der Reseller die passende Konfiguration auswählen kann (Flexpod, VSPEX).

Integrierte Systeme sind eine gute Basisplattform, wenn es darum geht, die Funktionalitäten einer Private Cloud bereitstellen zu können. Private Clouds grenzen sich gegenüber integrierten Systemen durch eine höhere Integrationstiefe auf der Managementebene ab.

Michael Ganzhorn, Bereichsleiter IBM Power bei Fritz & Macziol: "Verstärkte Nachfrage nach Private Cloud Projekten"
Foto: Fritz & Macziol

Der Wunsch nach Investitionssicherheit ist laut Michael Ganzhorn, Bereichsleiter IBM Power bei Fritz & Macziol, ein weiterer Treiber für den Einsatz der Referenzarchitekturen: "Die Infrastruktur kann analog zu den Anforderungen jederzeit um Module erweitert werden. Ein zusätzlicher Vorteil ist, dass der Kunde alles aus einer Hand erhält und über den kompletten Lebenszyklus der IT vom selben Team betreut wird."

Liebäugeln mit der Cloud

Und nicht zuletzt wirft auch die Cloud ihren Schatten voraus. Denn im Idealfall liefern diese Architekturen die Basis dafür, die Funktionen einer Private Cloud bereitzustellen, mit Anschlussmöglichkeit an die Public Clouds.

"Wir sehen einen klaren Trend in Richtung Private Cloud", berichtet Fritz &Macziol-Manager Ganzhorn. "Das schließt die Themen Virtualisierung und den Einsatz von Referenzarchitekturen mit ein. Entsprechende Projekte werden aktuell verstärkt nachgefragt und umgesetzt."

Im Kern gehe es um einen Wandel des IT-Betriebs zur einem serviceorientierten IT-Dienstleister, pflichtet ihm Ulf Schade von Computacenter bei. "Kunden richten ihren IT-Betrieb mittelfristig auf Cloud-Services aus." Einig sind sich die Systemhausvertreter, dass Referenzarchitekturen den Kunden dabei helfen, diesem Wandel in Richtung Cloud technologisch in ihrem eigenen Rechenzentrum eine Basis zu geben.

Nutzen für den Endkunden

Doch weshalb und wie lösen diese integrierten Systeme die Probleme, denen sich IT-Abteilungen derzeit gegenüber sehen?

"Mit Referenzarchitekturen lassen sich alle Verwaltungs-und Support-Aurgaben von einem Punkt aus lösen", Hagen Dommershausen, Marketing Manager Zentral- und Osteuropa bei Dell
Foto: Dell

"Bei vorkonfigurierten Referenzarchitekturen sind alle laufenden Verwaltungs- und Support-Aufgaben von einem einzigen zentralen Punkt zu lösen. Zudem unterstützen die einfach zu nutzenden Speicherplattformen eine hohe Skalierbarkeit und somit das Datenwachstum der Kunden", führt Hagen Dommershausen, Marketing Sr. Manager, Central & Eastern Europe bei Dell, aus.

Foto: HP

Für Johannes Horneck, Product Manager ProLiant HPC & Serviceprovider Cloud bei Hewlett-Packard, sind vor allem die schnellere Inbetriebnahme und Amortisation der IT-Investitionen, die optimierte Implementierung von Anwendungen und die Beseitigung nicht miteinander kompatibler IT-Insellösungen schlagende Argumente.

Validierte Architekturen sind zudem flexibel und können gegebenenfalls schrittweise in die bestehende IT-Landschaft des Kunden eingefügt werden, wie Dieter Schmitt, Director Channel Sales Germany bei NetApp, betont.

Wenn diese integrierten Systeme derart viele Vorteile versprechen, müssten sie sich in Windeseile durchsetzen. Der Anteil am Gesamtumsatz im Datacenter-Segement ist aber noch verhältnismäßig klein (siehe Kasten "Marktpotenzial").

"Die größten Stolpersteine, die der Nutzung der integrierten im Wege stehen, werden die Unternehmens- und die Entwicklungskultur der Anwenderorganisationen sein", hatte Experton-Analyst Andreas Zilch im Mai 2012 prophezeit. Er sollte recht behalten.

Wie groß ist der Markt?

Marktforscher Gartner zufolge ist im Markt für integrierte Systeme noch viel Luft nach oben:

  • 2011 belief sich der kumulierte Gesamtumsatz für Server-, Storage- und Netzwerkprodukte auf 83 Milliarden US-Dollar, davon entfielen nur knapp drei Milliarden US-Dollar auf integrierte Systeme (etwa 3,5 Prozent).

  • Seitdem verzeichnet dieses Segment starke Wachstumsraten - im zweiten Quartal 2012 betrug die Steigerung im Vergleich zum Vorjahreszeitraum 53,7 Prozent.

  • Aktuell (März 2013) können die integrierten Systeme vier Prozent des gesamten Data-Center-Hardware-Umsatzes für sich verbuchen. Der Marktanteil integrierter Systeme, gemessen am gesamten Servermarkt, liegt aktuell etwa bei vier bis fünf Prozent.

  • Gartner schätzt, dass sich dieser Anteil bis 2015 auf etwa 35 Prozent erhöhen könnte.

VSPEX 2.0

Weshalb dieser Schritt so schwierig ist, beschreibt Michael Ganzhorn von Fritz & Macziol: "Größere Kunden verfügen über separierte Abteilungen für einzelne IT-Technologie-Bereiche. Die Herausforderung besteht darin, die Integration der Systeme auch in den jeweiligen Teams abzubilden."

Computacenter-Manager Schade zufolge ist auch die veränderte Rolle des Lieferanten für viele IT-Manager irritierend: "Bislang haben die IT-Abteilungen gemeinsam mit ihren Dienstleistern ihre Infrastrukturen validiert, was bei heterogenen Systemen schon mal bis zu sechs Monate in Anspruch nehmen kann. Das haben bei integrierten Infrastrukturen bereits die Hersteller oder IT-Dienstleister getan. Das Vertrauen der Kunden in diese Validierung und das Verlagern der Verantwortung sind oft eine neue Situation für die IT-Abteilungen."

Hürden und Grenzen

Die Einstiegshürde für Endkunden ist zwar niedrig - bereits ab etwa sechs Rack-Servern rechne sich der Einsatz schon wirtschaftlich, sagt Dominik Lanzenberger, Pure Systems Consultant bei IBM. "Darunter wird es aber schwer."

Die Grenzen der Systeme selbst sind nach oben hin nur durch die Grenzen der Hardware bedingt, beispielsweise bei der Skalierbarkeit. "Stand heute sind das beispielsweise 608 Cores, 9 Terabyte (TB) RAM und 40 TB Disk in einem System", erklärt Georg Ember, Pure Application System Technical Professional bei IBM. "Andere Begrenzungen gebe es nicht, da mit den verfügbaren Betriebssystemen und Virtualisierungs-Layern sowie Middleware-Lösungen nahezu alle am Markt befindlichen IT-Lösungen adressiert werden können."

"Die Modelle bergen die Gefahr, vom Hersteller abhängig zu werden", Thomas Reichenberger, Manager Business Unit Cloud Services, VCDX, CISA beim Systemhaus ACP
Foto: ACP

Thomas Reichenberger, Manager Business Unit Cloud Services, VCDX, CISA beim Systemhaus ACP, bewertet den Einsatz dieser vorpaketierten Systeme dagegen grundsätzlich kritisch: "Diese Modelle sind oft nicht sehr flexibel, da sie einerseits herstellerabhängig sind und zum anderen oft nur in fest definierten Ausbaustufen erweitert werden können. Unter Umständen begibt man sich somit in eine Abhängigkeit vom jeweiligen Hersteller."

Michael Homborg, Evangelist Enterprise Products bei Fujitsu Technology Solutions: "Zurzeit gehen alle Hersteller in Vorleistung"

Soll das Modell erfolgreich sein, müssen außerdem wichtige Vorarbeiten geleistet werden, so Michael Homborg, Evangelist Enterprise Products bei Fujitsu Technology Solutions: "Die nahtlose Integration mit bestehenden Core-Netzwerk-Strukturen muss geprüft werden, und gegebenenfalls sind neue Trainings- und Administrationsrollen zu definieren."

Gleichwohl sind sich die meisten Experten einig, dass sich integrierte Architekturen durchsetzen werden: "Wir stehen hier erst am Anfang", sagt NetApp-Manager Dieter Schmitt. Er erwartet ein starkes Wachstum in diesem Segment. IBM-Manager Dominik Lanzenberger pflichtet ihm bei: "So wie Anwendungs- und Middleware-Patterns immer mehr Einzug in die Fachlösungen halten, werden Referenzarchitekturen für integrierte Systems in naher Zukunft stark an Bedeutung gewinnen."

Und Johannes Horneck, Product Manager ProLiant HPC & Serviceprovider Cloud bei HP ist überzeugt: "Der nächste große Trend sind Cloud-Lösungen für Umgebungen bis zu 400 virtuelle Maschinen, speziell für den Mittelstand."

Wie viel die Vorintegrationsleistung durch die Hersteller kosten darf, wird der Kunde entscheiden. Für Fujitsu-Manger Homborg steht allerdings fest: "Zurzeit gehen hier alle Hersteller massiv in Vorleistung."

Ein Newcomer gab den Takt vor

Pionierarbeit für die integrierten Rechenzentrumsdesigns leistete der Newcomer unter den Serverherstellern: Cisco. Mit EMC, deren Töchtern RSA und VMware und unterstützt von Intel gründete der Einsteiger 2009 ein Joint Venture - die heutige VCE Company (ursprünglich "Acadia"). Gemeinsam wurden die "Vblocks" entwickelt. Fast zeitgleich brachte HP die Converged Infrastructure auf den Markt, die ebenfalls Server, Storage, Netzwerk und Virtualisierung unter einer einheitlichen Managementplattform vereint.

Kurz nach der Gründung der VCE Company schmiedete Cisco eine weitere Allianz mit VMware und dem EMC-Konkurrenten NetApp: Die FlexPod-Designs waren geboren. Heute stehen rund 30 Referenz-Designs zur Verfügung.

Der Grund für Ciscos Seitensprung aus dem VCE-Joint-Venture: 2010 führte EMC praktisch keine SMB-Linien im Portfolio. Ein Manko für Cisco, das als Serverneuling über Referenzarchitekturen schließlich auch im Mittelstand Fuß fassen wollte. NetApp konnte das bieten. Vergangenes Jahr ging Cisco eine dritte Storage-Allianz ein: mit Hitachi Data Systems.

Das Modell macht Schule

Nach der Integration von Sun begann auch Oracle 2010 mit den "Integrated Stacks" und später mit den "Engineered Systems" auf den Zug aufzuspringen.

Die Stärken des Flexpods so weit wie möglich mit denen der Vblocks zu kombinieren und sie auf den Bedarf mittelständischer Unternehmen zuzuschneidern, nahm 2010 interessanterweise ein Distributor in Angriff: Magirus (heute zu Avnet gehörend). Er entwickelte im hauseigenen Integrations-Center Straßburg die" vBundles". Sie sind bereits für Unternehmen mit weniger als 25 virtuellen Maschinen interessant und schlugen deshalb im Markt hohe Wellen. Die größte der vier vBundle-Varianten wurde mit der Ankündigung der VCE-Vblock100-Variante im Frühjahr 2012 abgekündigt, da sich die angepeilten Kundengrößen überschneiden.

Dell war mittlerweile auf Einkaufstour gegangen. Das Ziel: Komplettanbieter im Rechenzentrum zu werden. Im zweiten Halbjahr 2011 schließlich lieferte der Hersteller mit vStart ebenfalls seine ersten Referenzarchitekturen aus. IBM folgte vergleichsweise spät mit der Ankündigung der PureSystems im April 2012.

Ebenfalls im Frühjahr 2012 brachte EMC mit VSPEX einen FlexPod-Konkurrenten auf den Markt, ebenfalls mit Single-Support. Die Verspätung erklärt sich, weil EMC erst 2011 mit dem Launch der VNX- und VNXe-Familien erstmals eigene SMB-Linien an Bord hatte.

Im Gegensatz zu Konkurrenzprodukten von VCE, HP, IBM und Oracle bieten FlexPod und VSPEX hinsichtlich der Designs weitaus größere Spielräume, da sie in bestehende IT-Landschaften integrierbar sind.

Ebenso wie die VCE gewährt die FlexPod-Allianz den Support aus einer Hand (Single-Support): Alle beteiligten Hersteller haben sich verpflichtet, bei Problemfällen zentraler Ansprechpartner zu sein, egal welche Komponente das Problem verursacht hat. (rb)

Verkaufsargumente für Partner

  • Standardisierung von Prozessen und Anwendungen

  • zentrales und kostengünstigeres Management aller Komponenten bis zum Hypervisor

  • ein zentraler Ansprechpartner für alle Support-Fälle (Single Support)

  • Skalierbarkeit und Investitionsschutz

  • schnelle Inbetriebnahme und kürzere Projektlaufzeiten und beschleunigter RoI

  • optimierte Implementierung von Anwendungen

  • Beseitigung nicht miteinander kompatibler IT-Insellösungen

  • meist schrittweise Einbindung in die bestehende IT-Landschaft möglich

  • schnellere Einbindung Cloud-basierter Modelle

  • höhere Gesamt-Performance, aufgrund der validierten Einzelkomponenten

  • Ausgaben für Netzwerk, Storage und Hardware sinken