Systemhäuser urteilen

Software Defined Datacenter - Luftnummer oder Zukunftstrend?

23.04.2013
Aus der Taufe gehoben hat VMware den Begriff "Software Defined Datacenter" (SDDC) im Sommer 2012. Seitdem geistert er durch die Branche. Verbirgt sich dahinter nur ein neuer Marketing-Slogan? Eine Momentaufnahme.
Modell eines Software Defined Datacenter
Modell eines Software Defined Datacenter
Foto: VMware

Aus der Taufe gehoben hat VMware den Begriff "Software Defined Datacenter" (SDDC) im Sommer 2012. Seitdem geistert er durch die Branche. Verbirgt sich dahinter nur ein neuer Marketing-Slogan? Keineswegs, so das einhellige Urteil von Analysten und Systemhäusern. Im SDDC stecke ein handfestes Modell, mit dem zentrale Probleme des Rechenzentrums-Managements in den Griff zu kriegen sind.
Das Marktforschungsinstitut Forrester beschreibt das Konzept SDDC als "eine komplett Software-basierte Abstraktion des Rechenzentrums, die alle Server, Speicherkapazitäten und Netzwerke" umfasst. Noch allerdings lässt sich dieses Modell nicht in aller Konsequenz umsetzen, es ist eher ein Fernziel, auf das Anbieter wir VMware und Microsoft zusteuern.

VMware geht in der Definition des SDDC sogar noch einen Schritt weiter und bezieht auch die in den SLAs definierten Security-Prozesse und generell System-Policies mit ein: "Wir glauben, dass wir über das Konzept des Software Defined Data Center und die Virtualisierung auch Netzwerk und Security-Prozesse automatisieren und beschleunigen können. Das heißt konkret: Wenn Sie eine VM haben möchten, kriegen Sie automatisch ein Netzwerk provisioniert und die benötigten Security- und Storage-Ressourcen", präzisiert Martin Niemer, Solution Manager CEMEA bei VMware im Interview mit TecChannel-Chefredakteur Wolfgang Herrmann, diesen Ansatz.

Hoher Nutzen erwartet

Für Skeptiker der Branche mögen die Urteile von Analysten und Hersteller nicht immer maßgeblich sein - zu oft entpuppte sich mancher Hype als Luftnummer. Beim Thema SDDC jedoch scheint das aktuell nicht der Fall zu sein. Denn auch Systemhäuser und Hoster erkennen im SDDC einen echten Trend, der Anwendern greifbare Vorteile verspricht.
„Das Software Defined Datacenter ist der nächste logische Schritt in der Evolution der Datacenter Technologie", urteilt Matthias Rabeneck, Senior IT Consultant bei der Cema AG. "Ziel dabei ist es, Funktionalitäten aus dem Netzwerk, Server und Storage Umfeld in einen neuen Abstraktionslayer zu verlagern, so dass sich Anwendungen das heraus schneiden können, was sie aktuell benötigen. Und das Ganze schnell, einfach und sicher. Die heute schon verfügbaren Abstraktionsebenen im Server- und Storage-Virtualisierungsumfeld werden dabei ergänzt durch die zunehmende Netzwerkvirtualisierung."

Achim Weiss, CEO von ProfitBricks
Achim Weiss, CEO von ProfitBricks
Foto: ProfitBricks

Weshalb das Interesse an dieser Technologie auch auf Anwenderseite so groß ist, beschreibt Achim Weiss, Gründer und CEO des IaaS-Anbieters und Hosting-Spezialisten ProfitBricks: "Business-Kunden wollen Cloud-Hosting-Umgebungen, in denen sie ihre virtuellen Server-Räume individuell einrichten, nach Belieben vernetzen und die Kapazitäten nach aktuellem Bedarf herauf fahren können, ohne den laufenden Betrieb unterbrechen zu müssen." Exakt das soll das SDDC ermöglichen. Für den ProfitBricks-Manager ist deshalb klar: "Wir werden uns weiterhin darauf konzentrieren, Standards für Technologien der Bereiche Software Defined Networks und SDDC Software Defined Datacenter zu setzen und unsere Virtualisierungs-, Netzwerk- und Speichertechnologien weiter verfeinern."

 Ulf Schade, Solution Manager bei Computacenter,
Ulf Schade, Solution Manager bei Computacenter,

Den Trend, dass Anwenderunternehmen Konzepte zur Server-, Storage-, Desktop- und User-Virtualisierung bündeln und das Ziel einer Vollvirtualisierung verfolgen, beobachtet auch Ulf Schade, Solution Manager bei Computacenter. Das Software Defined Network (SDN) ist seines Erachtens der nächste logische Schritt im Technology-Stack auf dem Weg zum Software definierten Datacenter: "Wir implementieren bereits Server- und Speichervirtualisierung. Das Netzwerk zu virtualisieren ist das fehlende Glied im Bereich der Infrastrukturkomponenten. Heutige Systeme haben auf dem Netzwerk-Layer noch einen sehr großen Hardwarebezug. SDN lässt sich auf diesen noch nicht umsetzen."

Er geht davon aus, dass sich das in nächster Zeit ändern wird, angesichts der Zukäufe, die einige Key-Hersteller in diesem Bereich getätigt haben - beispielsweise VMware mit Nicira. "Die Netzwerk-Virtualisierung ist jetzt das Technologiefeld, in das die Hersteller investieren. Es ist zu erwarten, dass wir Ende 2013 und 2014 deshalb verstärkt solche Angebote sehen werden", prognostiziert Schade. "Mit dem Ziel sich vollständig von Hardware-Bestandteilen zu lösen, kommen wir dem Ergebnis eines Software definierten Datacenter näher."

Roland König, Geschäftsführer des Bechtle IT-Systemhauses München/Regensburg und Leiter des Geschäftsfelds Virtualisierung bei Bechtle
Roland König, Geschäftsführer des Bechtle IT-Systemhauses München/Regensburg und Leiter des Geschäftsfelds Virtualisierung bei Bechtle
Foto:

Roland König, Geschäftsführer des Bechtle IT-Systemhauses München/Regensburg und Leiter des Geschäftsfelds Virtualisierung bei Bechtle beurteilt die Lage ähnlich: "Alle Ansätze von VMware und Microsoft in Richtung Software Defined Datacenter zielen darauf ab, Funktionalitäten aus dem Netzwerk-, dem Storage- und Compute-Bereich bis zu einer gewissen Ebene in den virtuellen Layer zu integrieren. Denn wenn der Kunde eine virtuelle Maschine, einen Desktop etc. verschieben möchte, muss diese Funktionalität mitwandern."

Referenzarchitekturen und integrierte Stacks folgen dem SDDC-Ansatz

Die bei Unternehmenskunden zunehmend beliebten Referenzarchitekturen und integrierten Systeme - beispielsweise EMC VSPEX, NetApp FlexPod, oder IBM PureSystems, HP Converged System oder Oracle Engineered Systems - bedienen sich bereits des SSDC-Ansatzes. "Bei diesen Stack-Lösungen werden vordefinierte Netzwerk- Server- und Storagekomponenten in einer Einheit zusammengefasst, um so die Komplexität deutlich zu vereinfachen", führt Cema-Manager Rabeneck aus.

Michael Ganzhorn, Bereichsleiter IBM Power bei Fritz & Macziol
Michael Ganzhorn, Bereichsleiter IBM Power bei Fritz & Macziol
Foto: Fritz & Macziol

Das Modell der Referenzarchitekturen ist auch nach Ansicht von Michael Ganzhorn, Bereichsleiter IBM Power beim Dienstleister und Systemhaus Fritz & Macziol, wegweisend: "Wir setzen dieses Konzept bereits erfolgreich in Fabric Computing-Projekten bei Kunden um. Dieser Technologie-Ansatz wird sich zukünftig immer stärker durchsetzen, da er dem Kunden maximale Flexibilität bietet."

Matthias Rabeneck, Senior IT Consultant bei der Cema AG
Matthias Rabeneck, Senior IT Consultant bei der Cema AG
Foto: Cema

Matthias Rabeneck von Cema zufolge unterscheiden sich die einzelnen Stack-Lösungen allerdings dramatisch, beispielsweise auf Management-Seite: "Hier muss der Administrator in die Lage versetzt werden, alle Abstraktionsebenen nicht nur zentral zu monitoren, sondern auch alle Administrationsebenen zentral und schnell verändern zu können falls notwendig. Dazu müssen mächtige und umfangreiche Managementlösungen integriert sein. Weiter wichtig ist, ob die Stacklösungen auf kundenorientierte Anwendungsszenarien oder für leistungsorientierte Analysemöglichkeiten von Daten ausgerichtet werden können. Big Data ist hier eines von vielen Schlagwörtern."

Als unabhängiges Systemhaus kristallisiert sich für Cema deutlicher das Lösungsportfolio der Pure-Familie von IBM heraus. "Hier ist deutlich zu erkennen, dass jahrelange Forschungs- und Erfahrungswerte aus Kundeninstallationen in die neue Familie eingeflossen sind. Kein anderer Anbieter hat hier auch nur ansatzweise ein vergleichbares Produktportfolio", so das Fazit des Cema-Managers.

Warum sich SDDC durchsetzen könnte

Doch was macht die Systemhäuser so sicher, dass sich das Software Defined Datacenter künftig auch in der Breite durchsetzen wird?
"Wir beobachten eine enorme Dynamik, schon allein aufgrund der Tatsache, dass x86-Server auf breiter Basis installiert sind. Hunderte von Servern werden heute von zwei Personen gemanagt", berichtet König.
Hinzu komme die rasante Veränderung auf Client-Seite durch die Verbreitung von Portalen, das der Manager am Beispiel der Private Dropbox-Lösung von VMware veranschaulicht. Die VMware-Lösung läuft beim Kunden im Unternehmen, auf sie kann weltweit jeder Mitarbeiter zugreifen und Daten teilen. "Anwender müssen Informationen und Dokumente heute teilen, unabhängig davon, wo sie sich befinden und mit welchem Endgerät sie arbeiten. Das heißt, die Anwender und das Geschäftsumfeld fordern diesen Wandel, nicht unbedingt die IT-Abteilung. Viele Projekte werden heute aus den Fachabteilungen heraus angestoßen", begründet der Bechtle-Manager seine Zuversicht.

Thomas Reichenberger, Manager Business Unit Cloud Services, VCDX, CISA bei ACP
Thomas Reichenberger, Manager Business Unit Cloud Services, VCDX, CISA bei ACP
Foto: ACP

Thomas Reichenberger, Manager Business Unit Cloud Services, VCDX, CISA beim Systemhaus ACP, pflichtet ihm bei: "Der Software Defined Datacenter Ansatz ist absolut zielführend, um ein flexibles und effizientes Datacenter zu erhalten."
Schlüssel dazu ist eben die Abstraktion von Hardware und Service, vergleichbar wie bei der Server Virtualisierung. Reichenberger skizziert die Möglichkeiten, die in diesem Konzept stecken: "Beispielweise müsste für Firewalls, Load Balancern, VPN-Konzentratoren, IDS-Systemen und weiteren intelligenten Netzwerkkomponenten keine dedizierte Hardware gekauft, sondern nur noch Virtuelle Appliances (VA) bereitgestellt werden. Diese VAs könnten im besten Fall sogar einfach nur gemietet werden und könnten somit den gewünschten Service flexibel und unkompliziert on demand genutzt und bezahlt werden."
Eines der Probleme, das viele Anwender allerdings noch vor der Verwirklichung des SDDC lösen müssen, ist das Thema Backup und Recovery. Laut einer Studie von Veeam ("Virtualization Data Protection Report 2013") sind die Backup und Recovery-Lösungen in virtualisierten Umgebungen nämlich häufig noch immer auf physische Infrastrukturen ausgelegt. Die Folge: der Ausfall virtueller Server koste demnach Unternehmen im Durchschnitt 1,2 Mio. Euro. Bis 2014 planen aber immerhin 58 Prozent der CIOs die Einführung eines neuen Backup-Tools. (rb)

Zur Startseite