Login

Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

22.04.2013 - 

Virtualisierung treibt das RZ der Zukunft

VMware setzt auf Software Defined Data Center

Wolfgang Herrmann ist Chefredakteur der CW-Schwesterpublikation TecChannel. Er war zuvor stellvertretender Chefredakteur COMPUTERWOCHE. Zu seinen thematischen Schwerpunkten gehören Data Center, Virtualisierung, Open Source und Cloud Computing. Er studierte Betriebswirtschaft und arbeitete unter anderem für den Vogel Verlag, den PC Magazin Verlag und die Suse Linux AG.
Email:
Connect:
Ein komplett virtualisiertes Rechenzentrum, das Server-, Storage- und Netzwerk-Ressourcen automatisiert zur Verfügung stellt und sich einfacher verwalten lässt: Mit dieser Vision werben IT-Anbieter. VMware-Manager Martin Niemer erklärt, wie Unternehmen vom Konzept des Software Defined Data Center profitieren können.
Martin Niemer, VMware: Das Software Defined Data Center automatisiert auch Netzwerk- und Security-Prozesse.
Martin Niemer, VMware: Das Software Defined Data Center automatisiert auch Netzwerk- und Security-Prozesse.
Foto: VMware

Software Defined Data Center (SDDC) ist ein neues Schlagwort, das viele IT-Hersteller und auch einige Analysten derzeit in den Mund nehmen. Was versteht VMware darunter?
von Wolfgang Herrmann (Chefredakteur TecChannel)
Martin Niemer: In der Vergangenheit haben wir einen recht guten Job gemacht wenn es darum ging, Compute-Ressourcen, sprich Server, zu virtualisieren. Der nächste logische Schritt geht in Richtung Storage und Netzwerke. VMware hat ja im vergangenen Jahr Nicira übernommen, den Technologieführer im Bereich Software Defined Networking (SDN). Es gibt auch neue Produkte für die Storage-Virtualisierung. Software Defined Data Center bedeutet für uns, alle Hardwarekomponenten in Software abzubilden und sie dadurch einfacher managen zu können. Viele Automatisierungs-Tool arbeiten zum Beispiel heute mit Scripts, um bestimmte Abläufe zu automatisieren.
Wir gehen einen anderen Weg, indem wir dem System Policies, also SLAs, vorgeben. Eine Applikation muss in diesem Kontext etwa bestimmte Eigenschaften hinsichtlich Verfügbarkeit und Performance erfüllen. Die darunter liegende Infrastruktur in Form des Software Defined Data Center kann das sicherstellen und auf Abweichungen reagieren.

Müssen nach Ihrem Verständnis von SDDC sämtliche Hardwarekomponenten komplett virtualisiert sein oder beziehen sie klassische physische Geräte mit ein?

Niemer: Alles was virtualisiert ist, läuft natürlich unterm Strich auf einer physikalischen Ebene. Ein Beispiel: Wir haben vielen Kunden geholfen, die Provisionierungszeiten von virtuellen Maschinen zu verringern. Früher haben sie vielleicht eine Woche gebraucht, um einen Server zu bekommen. Heute steht ein virtueller Server innerhalb einer Stunde zur Verfügung. Die virtuelle Maschine (VM) besitzt dann aber noch keinen Storage, kein Netzwerk und keine Security-Funktionen.
In der Regel laufen sie dann zu ihren Netzwerk-Leuten, die daraufhin anfangen, das Netzwerk und die Security zu provisionieren. Das kann noch einmal eine Woche dauern. Wir glauben, dass wir über das Konzept des Software Defined Data Center und die Virtualisierung auch Netzwerk und Security-Prozesse automatisieren und beschleunigen können. Das heißt konkret: Wenn Sie eine VM haben möchten, kriegen Sie automatisch ein Netzwerk provisioniert und die benötigten Security- und Storage-Ressourcen.

Das heißt, es gibt künftig eine Art Self Service Portal sowohl für IT-Mitarbeiter als auch für Fachabteilungen?

Niemer: Richtig. Unsere Idee ist ja, einen großen Pool von physikalischen Ressourcen zu bilden. Dieser wird dann ähnlich wie eine Torte in einzelne Stücke aufgeteilt, die wiederum den Nutzern zur Verfügung gestellt werden. Die können mit den Stücken dann machen, was sie möchten.

Klingt verlockend. Derzeit gibt es in den Unternehmen aber noch jede Menge Silos, zum Beispiel nicht virtualisierte Storage-Systeme oder Netzwerke. Hinzu kommen Management-Silos, sprich Verwaltungs- und Steuerungssysteme, die jeweils nur einen Teilbereich der Infrastruktur erfassen können. Wie weit ist die Vision des Software Defined Data Center noch von der Realität entfernt?

Niemer: Es gibt ja auch virtuelle Silos. Das SAP-Team kann zum Beispiel eine eigene virtuelle Umgebung haben, ein anderes Team betreibt Test- und Entwicklungssysteme auf einer getrennten Umgebung. Wir sehen aber schon, dass Kunden diese Landschaften vereinheitlichen wollen. Auf der Kostenseite werden sie nur Einsparungen erzielen, wenn sie wirklich größere Ressourcen-Pools bilden. Wenn jeder nur seine drei Server hat, werden sich niemals die Einsparungen erzielen lassen, die mit einem größeren Pool möglich werden. Viele Kunden wollen vor diesem Hintergrund tatsächlich ihre Pools zusammenführen und auf der anderen Seite auch den Virtualisierungsgrad ihrer IT insgesamt erhöhen.

Geht es beim Zusammenführen solcher Pools schlicht um eine Management-Schicht, die darüber gelegt wird, oder steckt mehr dahinter?

Niemer: Es geht tatsächlich darum, alle einzelnen virtuellen Ressourcen in einem großen Pool zusammenzufassen. Dazu gehört ein zentrales Management, eventuell aber auch ein zentrales Team, das diese Infrastruktur als Service zur Verfügung stellt. Die meisten deutschen VMware-Kunden stehen heute im Compute-Bereich bei einem Virtualisierungsgrad von 50 bis 60 Prozent. Sie verfolgen aber in der Regel eine klare Roadmap, um auf Werte von 80 bis 90 Prozent zu kommen. Es geht also nicht mehr um die Frage, ob überhaupt virtualisiert wird, sondern darum, wie dies schrittweise angegangen werden kann.

Was sind die wichtigsten Gründe für eine Virtualisierung aus Kundensicht?

Niemer: Die meisten Unternehmen wollen damit agiler und schneller werden. Eine wichtige Rolle spielt auch, dass sie teilweise mit Providern von Cloud-Services konkurrieren müssen.

Agilität ist ein nachvollziehbares Argument. Andererseits fordern ja gerade Business-Entscheider für solche Projekte einen klar quantifizierbaren Nutzen, unterm Strich wollen sie Ersparnisse sehen. Anbieter wie VMware erklären dagegen immer wieder, die Kosten spielten in Virtualisierungsprojekten eine immer kleinere Rolle. Wie realitätsnah sind solche Aussagen?

Niemer: Vor fünf bis zehn Jahren haben in der Tat viele mit Virtualisierung angefangen, weil sie Kosten sparen wollten. Statt beispielsweise zehn Server musste man dann nur noch einen verwalten. Das war eine relativ einfache Rechnung. Man hat im Laufe der Projekte dann erst gesehen, welche Verbesserungen Virtualisierung hinsichtlich Verfügbarkeit und Agilität von Applikationen bringen kann. Diese Faktoren sind zu den wichtigsten Treibern geworden.
Anders ausgedrückt: die Kosteneinsparungen nimmt heute jeder mit. Die wichtigeren Fragen aber lauten: Welche Auswirkungen hat das auf die IT-Operations, die Managebarkeit und die Verfügbarkeit der Applikationen? Bei einer SAP-Umgebung beispielsweise geht es nicht in erster Linie darum, ob man in der benötigten Infrastruktur ein paar Cents sparen kann, sondern darum, die Verfügbarkeit sicherzustellen, die Service Levels zu verbessern und ähnliche Dinge.

Im Compute-Bereich, also für Server, liegt der Virtualisierungsgrad nach Ihren Angaben bei 50 bis 60 Prozent. Für Storage-Systeme und Netzwerke dürften die Werte aber noch deutlich niedriger sein. Von welchen Zahlen gehen Sie aus?

Niemer: Storage-Virtualisierung gibt es ja schon seit längerer Zeit. Im Netzwerkbereich stehen wir in der Tat noch ziemlich am Anfang. VMware hat das Thema Netzwerk-Virtualisierung stark vorangetrieben und beispielsweise Software entwickelt, die mehrere virtuelle Server wie ein Netzwerk aussehen lässt. Nichtsdestotrotz wird sich das auch weiter auf die physikalischen Netzwerke ausdehnen. Am Ende hat man wie im Compute-Bereich ein sehr einfaches physikalisches Netzwerk, über das man ein virtuelles, logisches Netz legt. In diesem virtuellen Netz wird die ganze Konfiguration und Security-Einrichtung stattfinden. Das ist im Vergleich zur physischen Ebene einfacher und sicherer.

Eines Tages sollen nach Ihren Vorstellungen IT-Ressourcen jedweder Art über einen Servicekatalog für die Nutzer abrufbar sein. Beispielsweise könnte ein Marketingleiter dann per Knopfdruck einen virtuellen Server für seine CRM-Software anfordern und in sehr kurzer Zeit nutzen. Wie weit sind solche Szenarien noch von der praktischen Umsetzung entfernt?

Niemer: Das ist schon jetzt realisierbar. Es gibt bereits eine Reihe von Kunden, die so etwas ausgerollt haben. Die Herausforderung ist oft eher struktureller Art und liegt in der Organisation des Kunden. Früher hat man ein Help-Ticket aufgemacht, daraufhin hat jemand die Aufgabe abgearbeitet und irgendwann Vollzug gemeldet. Heute können Anwender einfach das Online-Portal besuchen und die gewünschten Ressourcen auswählen. Im Hintergrund läuft dann ein automatisierter Prozess, das ist ein grundlegend anderer Workflow.
Diese Prozesse zu verändern, ist eine größere Herausforderung als die technische Implementierung. Viele Kunden haben beispielsweise ihre physikalischen Provisionierungsprozesse eins zu eins in die virtuelle Welt übertragen. Damit haben sie natürlich längst nicht alle potenziellen Vorteile der Virtualisierung realisiert. Diese Unternehmen starten jetzt Projekte, um ihre Prozesse so zu verändern, dass sie das Optimum aus der virtuellen Umgebung herausholen können.
(Der Beitrag wurde von der CP-Schwesterpublikation TecChannel übernommen / rb)

Newsletter 'Technologien' bestellen!