Die Virtualisierung des Rechenzentrums ist auf dem Vormarsch: Zu Software Defined Computing gesellen sich Software Defined Storage und Software Defined Networking. Das Grundprinzip ist schnell erklärt: Der Datentransfer erfolgt auf Standard-Hardware und wird per Software gesteuert. Damit lassen sich endlich die von den Fachabteilungen geforderten IT-Services kosteneffizient und schnell bereitstellen. Klingt gut. Doch die virtuelle Infrastruktur stellt auch die Organisation vor große Aufgaben.
Was bedeutet Software Defined Datacenter?
So neu ist die Idee des Software Defined Datacenter (SDDC) eigentlich nicht. Das virtuelle Rechenzentrum ist mehr der nächste logische Schritt, der auf Technologien wie Software Defined Storage (SDS) und Software Defined Computing (SDC) aufbaut.
Das Grundprinzip von Software Defined X ist die Trennung von Kontroll- und Datenebene, die Abkopplung infrastruktureller Komponenten von operationalen Prozessen. Sämtliche Steuerungsfunktionen werden von der Hardware losgelöst und in eine übergeordnete, zentrale Software-Lösung ausgelagert. Die Hardware erfüllt lediglich die Funktionen zur Verarbeitung der Daten, sodass hierfür kostengünstige Standardkomponenten eingesetzt werden können. Spezifische Anforderungen bezüglich einzelner Anwendungen und Prozesse werden in die zentrale Steuerungsintelligenz ausgelagert.
Anschaulich kann das Konzept anhand von SDS, einer der technologisch ausgereifteren Software Defined X-Disziplinen, erklärt werden: Bei SDS werden die Daten physikalisch auf Standard-Datenträgern gespeichert. Die Control Plane - eine übergeordnete Softwareanwendung - steuert wiederum, wo und wie die Daten gespeichert werden und stellt die Data-Services bereit.
Dynamik in starre Strukturen
Doch neben der Tatsache, dass sich mit Software Defined X Hardwarekosten reduzieren lassen, gewinnen Unternehmen vor allem an Flexibilität. Änderungen müssen zum Beispiel nicht mehr wie bisher auf jeder einzelnen Komponente umgesetzt, sondern lassen sich auf der zentralen Steuerungsebene mit wenigen Klicks oder sogar automatisch durchführen. Unternehmen können ihre IT dadurch wesentlich schneller an neue Anforderungen anpassen, was sich angesichts des hohen Innovationstempos in vielen Wirtschaftszweigen als Wettbewerbsvorteil erweist.
Auch interne Prozesse lassen sich optimieren, indem Anfragen aus den Fachabteilungen schneller bearbeitet werden. Mit einem effizienten IT-Service-Management ist es beispielsweise möglich, einen Server mit Datenbank und Betriebssystem innerhalb weniger Stunden zur Verfügung zu stellen - anstatt nach mehreren Wochen. Doch nicht nur die Mitarbeiter der Fachabteilungen profitieren von der schnelleren Reaktionszeit ihrer IT-Kollegen. Die IT selbst hat durch die automatisierte Steuerung mehr Zeit, sich auf strategische Kernaufgaben zu konzentrieren.
- Schwächen von Software Defined Networking
Fokussierung auf Switches und Vernachlässigung von Server-Endpoints und damit der Anwendungsschnittstellen. - Schwächen von Software Defined Networking
Unzureichendes Management von IT-Ressourcen über mehrere Domains hinweg. - Schwächen von Software Defined Networking
Stärkere Belastung des Netzes durch die Kommunikation zwischen den Controllern: Sie steigt um etwa drei bis vier Prozent. - Schwächen von Software Defined Networking
Mangelnder Support von optischen Netzen mit leistungsvermittelnder Übertragung. Hier müssen Erweiterungen der OpenFlow-Spezifikation weiterhelfen. - Schwächen von Software Defined Networking
Skalierbarkeit: In großen Netzen fallen Millionen von Flows an. Das erfordert hoch skalierbare Controller. Bislang fehlen jedoch die Erfahrungswerte mit solchen Systemen beziehungsweise großen Netzen. - Schwächen von Software Defined Networking
Single Point of Failure durch zentralen Controller: Redundanz lässt sich durch den Einsatz mehrerer Controller erreichen. Das erhöht jedoch die Kosten und den Managementaufwand. - Stärken von Software Defined Networking
Einfaches Verschieben von Virtual Machines (VM) im Netzwerk. - Stärken von Software Defined Networking
Geringere Komplexität der Netzwerkinfrastruktur, da weniger Switch-Ports und Kabel erforderlich sind. Das reduziert zudem Kosten. - Stärken von Software Defined Networking
Komplette Sicht auf Anwendungen, Netzwerkelemente und Datenströme (Flows) - Stärken von Software Defined Networking
Kein Mapping von Servicedefinitionen auf physikalische Netzwerk-Ports. Das verringert den Konfigurationsaufwand. - Stärken von Software Defined Networking
Flexiblere Konfiguration von Services: Über Einträge in Flow Tablets lassen sich Dienste und Eigenschaften wie etwa Quality-of-Service-Merkmale und VLAN-Einstellungen konfigurieren, was in herkömmlichen Netzen mittels Scripts nicht möglich ist. - Stärken von Software Defined Networking
Bereitstellung von Anwendungen und Netzdiensten innerhalb von Stunden, nicht Tagen. - Stärken von Software Defined Networking
Zentrale Steuerung von Switches, Routern, virtualisierten Switches (vSwitches), WLAN-Access-Points und anderen Netzsystemen. - Stärken von Software Defined Networking
Offener Ansatz: Der Controller ist kein herstellerspezifisches System. Er lässt sich nach Bedarf durch Netzwerkfachleute konfigurieren und programmieren.
Zukunftsvision oder Realität?
Die größte Hürde, die derzeit viele IT-Entscheider davon abhält, die Idee der Virtualisierung auf das gesamte Rechenzentrum auszudehnen, ist die unterschiedliche Marktreife der drei Komponenten SDC, SDS und SDN.
Während viele Unternehmen bei ihren Serverlandschaften Virtualisierungsgrade von bis zu 80 Prozent erzielen, stecken Konzepte für virtuelle Netzwerke noch in den Kinderschuhen. Derzeit gibt es einige Hersteller, die zögerlich erste Produkte launchen.
Der Markt für Software Defined Storage zeigt sich hingegen sehr dynamisch: Vielversprechende Produkte, die bereits seit einigen Jahren eingesetzt werden, stehen einer Handvoll ganz neuer Ansätze gegenüber. Daher setzen viele Rechenzentren derzeit auf eine Kombination aus Software-gesteuerten und klassischen Storage-Lösungen.
Soweit der Status quo im Software Defined X-Markt. Die Frage ist: Lohnt es angesichts der teilweise noch sehr jungen Technologien, dass sich Unternehmen jetzt schon mit dem Gesamtkonzept SDDC auseinandersetzen? Die Antwort ist ein eindeutiges Ja. Denn sowohl die technischen als auch die organisatorischen Weichen müssen früh gestellt werden, damit die Technologien, wenn sie in ein bis drei Jahren ausgereift sind, in Betrieb genommen werden können.
Gerade angesichts der relativ langen Investitionszyklen im Rechenzentrumsumfeld sollten Unternehmen sich möglichst frühzeitig mit dem Aufbau virtueller Infrastrukturen beschäftigen. Es dauert oft mehrere Jahre, bis etwa eine neue Netzwerkstruktur, die das Rückgrat des gesamten Rechenzentrums bildet, stabil läuft. Die Anwendungssoftware muss entsprechend umgestellt und IT-Administratoren geschult werden.
Kurz: Es gilt, die Zeit zu nutzen und jetzt die Basis zu legen. Je früher Unternehmen den Weg ins virtuelle Rechenzentrum antreten, desto größer ist ihr Innovationsvorsprung, wenn die Technologien einsatzbreit sind. (rb)
- Hans Schramm, Field Product Manager Enterprise, Dell
"Es ist sicherlich unumstritten, dass Software heute eine tragende Rolle bei allen Storage-Themen spielt, das wird sich zukünftig weiter verstärken." - Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
"Die Storage-Hardware besteht bei EMC schon heute fast ausschließlich aus Commodity Komponenten. Selbst die High-End Speichersysteme wie EMC VMAX oder Scale-Out-NAS Islilon Systeme bestehen mit wenigen Ausnahmen vollständig aus Commodity Komponenten." - Robert Guzek, Senior Alliance Manager CE FTS CE ISS Market Operations, Fujitsu Technology Solutions
"Nur wenn die Hardware selbst über eine gewisse Intelligenz verfügt, ist sie in der Lage, unmittelbar zu reagieren und die erwünschten kurzen Antwortzeiten zu liefern. Die Hardware muss in Zukunft deshalb eher an Intelligenz gewinnen, sie muss sich selbst besser verwalten und sich flexibler an die Geschäftsprozesse und betrieblichen Anforderungen anpassen können." - Thomas Meier, Chief Technologist Storage, Hewlett-Packard
"Das Software Defined Data Center ist bei HP bereits Realität: Die Cloud-Management-Lösung Cloud Service Automation, das offene Cloud-Betriebssystem Cloud OS sowie Lösungen für Software Defined Networking und Software Defined Storage sind bereits Bestandteil von HPs Portfolio für das Rechenzentrum der Zukunft.“ - Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems
"Hardware wird im professionellen Umfeld auf absehbare Zeit mehr sein als bloße Commodity. Das gilt für 2014 und auch noch darüber hinaus." - Michael Achtelik, Storage Business Leader DACH, IBM Deutschland
"Bei der Umsetzung der Konzepte rund um den Begriff Software Defined Data Center engagiert sich IBM sehr stark. IBM verfolgt hier einen eher noch umfassenderen Ansatz als SDDC und hat hierzu den Begriff Software Defined Environments (SDE) geprägt.“ - Johannes Wagmüller, Director Systems Engineering, NetApp
"Commodity-Hardware mag für Betreiber wie Amazon AWS und Google eine Option darstellen, da sie mit eigenen Entwicklungsabteilungen für Integration und Qualitätssicherung sorgen. Im Enterprise- und KMU-Markt, wo diese mächtigen Entwicklungs-Ressourcen nicht zur Verfügung stehen, wird weiterhin auf die Betriebssicherheit von Enterprise Speichersystemen Wert gelegt werden." - Vincenzo Matteo, Disk Product Management Director, Oracle
"Wir halten Software Defined Storage aufgrund der verdeckten Kosten für kein wirklich vorteilhaftes Konzept. Weil alle Integrations-, Prüfungs- und Wartungsaufgaben für das System vollständig auf den Anwender übergehen, erhöht sich der Aufwand in diesen Bereichen signifikant, die Ausgaben steigen deshalb gleichermaßen."
Die technischen Grundsteine legen
Eine vorbereitende Maßnahme, die Unternehmen jetzt treffen können, ist es, ihre Storage- und Netzwerk-Hardware mit sogenannten Element-Managern auszustatten. Als Management-Software verfügen diese über die entsprechenden Automatisierungsschnittstellen, damit sie an die übrigen Komponenten des SDDC angeschlossen werden können.
Im nächsten Schritt empfiehlt es sich, einzelne Services zu identifizieren, die bereits virtualisiert betrieben werden können. Langfristig wird sich sowieso in den meisten Rechenzentren ein Parallelbetrieb Software-gesteuerter und klassischer Infrastrukturen etablieren.
Dabei findet die Unterscheidung nicht auf der Anwendungsebene statt, sondern es werden einzelne Aufgaben herausgegriffen, die als virtuelle Dienste zur Verfügung stehen. Im Netzwerkbereich könnte eine solche Aufgabe die Vergabe von IP-Adressen oder die Definition und Verwaltung von Access Control Lists (ACL) sein. Was heute vielerorts noch manuell durchgeführt wird, kann Software-basiert automatisiert werden. Ein vollständiges SDN ist hierfür natürlich nicht notwendig. Dennoch können Unternehmen jetzt schon einzelne Services in virtuellen Strukturen testen, in den Produktionsbetrieb überführen und im Lauf der Zeit zu einer ganzheitlichen SDDC-Struktur ausbauen.