Ratgeber SDDC

So klappt der Aufbau eines Software Defined Data Center



Ulf Schitkowsky ist Solution Manager Dynamic Datacenter bei der Computacenter AG.
Das Software Defined Data Center (SDDC) verspricht die Interessen von Fachabteilungen und IT-Abteilungen unter einen Hut zu bringen. Doch welche technischen und organisatorischen Grundlagen müssen Unternehmen dazu schaffen? Und wie verändert sich die Rolle der IT-Abteilung?

Die Virtualisierung des Rechenzentrums ist auf dem Vormarsch: Zu Software Defined Computing gesellen sich Software Defined Storage und Software Defined Networking. Das Grundprinzip ist schnell erklärt: Der Datentransfer erfolgt auf Standard-Hardware und wird per Software gesteuert. Damit lassen sich endlich die von den Fachabteilungen geforderten IT-Services kosteneffizient und schnell bereitstellen. Klingt gut. Doch die virtuelle Infrastruktur stellt auch die Organisation vor große Aufgaben.

Architektur einer Software Defined Infrastructure
Architektur einer Software Defined Infrastructure
Foto: Computacenter

Was bedeutet Software Defined Datacenter?

So neu ist die Idee des Software Defined Datacenter (SDDC) eigentlich nicht. Das virtuelle Rechenzentrum ist mehr der nächste logische Schritt, der auf Technologien wie Software Defined Storage (SDS) und Software Defined Computing (SDC) aufbaut.

Das Grundprinzip von Software Defined X ist die Trennung von Kontroll- und Datenebene, die Abkopplung infrastruktureller Komponenten von operationalen Prozessen. Sämtliche Steuerungsfunktionen werden von der Hardware losgelöst und in eine übergeordnete, zentrale Software-Lösung ausgelagert. Die Hardware erfüllt lediglich die Funktionen zur Verarbeitung der Daten, sodass hierfür kostengünstige Standardkomponenten eingesetzt werden können. Spezifische Anforderungen bezüglich einzelner Anwendungen und Prozesse werden in die zentrale Steuerungsintelligenz ausgelagert.

Anschaulich kann das Konzept anhand von SDS, einer der technologisch ausgereifteren Software Defined X-Disziplinen, erklärt werden: Bei SDS werden die Daten physikalisch auf Standard-Datenträgern gespeichert. Die Control Plane - eine übergeordnete Softwareanwendung - steuert wiederum, wo und wie die Daten gespeichert werden und stellt die Data-Services bereit.

Dynamik in starre Strukturen

Doch neben der Tatsache, dass sich mit Software Defined X Hardwarekosten reduzieren lassen, gewinnen Unternehmen vor allem an Flexibilität. Änderungen müssen zum Beispiel nicht mehr wie bisher auf jeder einzelnen Komponente umgesetzt, sondern lassen sich auf der zentralen Steuerungsebene mit wenigen Klicks oder sogar automatisch durchführen. Unternehmen können ihre IT dadurch wesentlich schneller an neue Anforderungen anpassen, was sich angesichts des hohen Innovationstempos in vielen Wirtschaftszweigen als Wettbewerbsvorteil erweist.

Auch interne Prozesse lassen sich optimieren, indem Anfragen aus den Fachabteilungen schneller bearbeitet werden. Mit einem effizienten IT-Service-Management ist es beispielsweise möglich, einen Server mit Datenbank und Betriebssystem innerhalb weniger Stunden zur Verfügung zu stellen - anstatt nach mehreren Wochen. Doch nicht nur die Mitarbeiter der Fachabteilungen profitieren von der schnelleren Reaktionszeit ihrer IT-Kollegen. Die IT selbst hat durch die automatisierte Steuerung mehr Zeit, sich auf strategische Kernaufgaben zu konzentrieren.

Zukunftsvision oder Realität?

Die größte Hürde, die derzeit viele IT-Entscheider davon abhält, die Idee der Virtualisierung auf das gesamte Rechenzentrum auszudehnen, ist die unterschiedliche Marktreife der drei Komponenten SDC, SDS und SDN.
Während viele Unternehmen bei ihren Serverlandschaften Virtualisierungsgrade von bis zu 80 Prozent erzielen, stecken Konzepte für virtuelle Netzwerke noch in den Kinderschuhen. Derzeit gibt es einige Hersteller, die zögerlich erste Produkte launchen.

Der Markt für Software Defined Storage zeigt sich hingegen sehr dynamisch: Vielversprechende Produkte, die bereits seit einigen Jahren eingesetzt werden, stehen einer Handvoll ganz neuer Ansätze gegenüber. Daher setzen viele Rechenzentren derzeit auf eine Kombination aus Software-gesteuerten und klassischen Storage-Lösungen.

Soweit der Status quo im Software Defined X-Markt. Die Frage ist: Lohnt es angesichts der teilweise noch sehr jungen Technologien, dass sich Unternehmen jetzt schon mit dem Gesamtkonzept SDDC auseinandersetzen? Die Antwort ist ein eindeutiges Ja. Denn sowohl die technischen als auch die organisatorischen Weichen müssen früh gestellt werden, damit die Technologien, wenn sie in ein bis drei Jahren ausgereift sind, in Betrieb genommen werden können.

Gerade angesichts der relativ langen Investitionszyklen im Rechenzentrumsumfeld sollten Unternehmen sich möglichst frühzeitig mit dem Aufbau virtueller Infrastrukturen beschäftigen. Es dauert oft mehrere Jahre, bis etwa eine neue Netzwerkstruktur, die das Rückgrat des gesamten Rechenzentrums bildet, stabil läuft. Die Anwendungssoftware muss entsprechend umgestellt und IT-Administratoren geschult werden.
Kurz: Es gilt, die Zeit zu nutzen und jetzt die Basis zu legen. Je früher Unternehmen den Weg ins virtuelle Rechenzentrum antreten, desto größer ist ihr Innovationsvorsprung, wenn die Technologien einsatzbreit sind. (rb)

Die technischen Grundsteine legen

Eine vorbereitende Maßnahme, die Unternehmen jetzt treffen können, ist es, ihre Storage- und Netzwerk-Hardware mit sogenannten Element-Managern auszustatten. Als Management-Software verfügen diese über die entsprechenden Automatisierungsschnittstellen, damit sie an die übrigen Komponenten des SDDC angeschlossen werden können.

Im nächsten Schritt empfiehlt es sich, einzelne Services zu identifizieren, die bereits virtualisiert betrieben werden können. Langfristig wird sich sowieso in den meisten Rechenzentren ein Parallelbetrieb Software-gesteuerter und klassischer Infrastrukturen etablieren.

Dabei findet die Unterscheidung nicht auf der Anwendungsebene statt, sondern es werden einzelne Aufgaben herausgegriffen, die als virtuelle Dienste zur Verfügung stehen. Im Netzwerkbereich könnte eine solche Aufgabe die Vergabe von IP-Adressen oder die Definition und Verwaltung von Access Control Lists (ACL) sein. Was heute vielerorts noch manuell durchgeführt wird, kann Software-basiert automatisiert werden. Ein vollständiges SDN ist hierfür natürlich nicht notwendig. Dennoch können Unternehmen jetzt schon einzelne Services in virtuellen Strukturen testen, in den Produktionsbetrieb überführen und im Lauf der Zeit zu einer ganzheitlichen SDDC-Struktur ausbauen.

Zur Startseite