Ratgeber SDDC

So klappt der Aufbau eines Software Defined Data Center

06.06.2014 von Ulf Schitkowsky
Das Software Defined Data Center (SDDC) verspricht die Interessen von Fachabteilungen und IT-Abteilungen unter einen Hut zu bringen. Doch welche technischen und organisatorischen Grundlagen müssen Unternehmen dazu schaffen? Und wie verändert sich die Rolle der IT-Abteilung?

Die Virtualisierung des Rechenzentrums ist auf dem Vormarsch: Zu Software Defined Computing gesellen sich Software Defined Storage und Software Defined Networking. Das Grundprinzip ist schnell erklärt: Der Datentransfer erfolgt auf Standard-Hardware und wird per Software gesteuert. Damit lassen sich endlich die von den Fachabteilungen geforderten IT-Services kosteneffizient und schnell bereitstellen. Klingt gut. Doch die virtuelle Infrastruktur stellt auch die Organisation vor große Aufgaben.

Architektur einer Software Defined Infrastructure
Foto: Computacenter

Was bedeutet Software Defined Datacenter?

So neu ist die Idee des Software Defined Datacenter (SDDC) eigentlich nicht. Das virtuelle Rechenzentrum ist mehr der nächste logische Schritt, der auf Technologien wie Software Defined Storage (SDS) und Software Defined Computing (SDC) aufbaut.

Das Grundprinzip von Software Defined X ist die Trennung von Kontroll- und Datenebene, die Abkopplung infrastruktureller Komponenten von operationalen Prozessen. Sämtliche Steuerungsfunktionen werden von der Hardware losgelöst und in eine übergeordnete, zentrale Software-Lösung ausgelagert. Die Hardware erfüllt lediglich die Funktionen zur Verarbeitung der Daten, sodass hierfür kostengünstige Standardkomponenten eingesetzt werden können. Spezifische Anforderungen bezüglich einzelner Anwendungen und Prozesse werden in die zentrale Steuerungsintelligenz ausgelagert.

Anschaulich kann das Konzept anhand von SDS, einer der technologisch ausgereifteren Software Defined X-Disziplinen, erklärt werden: Bei SDS werden die Daten physikalisch auf Standard-Datenträgern gespeichert. Die Control Plane - eine übergeordnete Softwareanwendung - steuert wiederum, wo und wie die Daten gespeichert werden und stellt die Data-Services bereit.

Dynamik in starre Strukturen

Doch neben der Tatsache, dass sich mit Software Defined X Hardwarekosten reduzieren lassen, gewinnen Unternehmen vor allem an Flexibilität. Änderungen müssen zum Beispiel nicht mehr wie bisher auf jeder einzelnen Komponente umgesetzt, sondern lassen sich auf der zentralen Steuerungsebene mit wenigen Klicks oder sogar automatisch durchführen. Unternehmen können ihre IT dadurch wesentlich schneller an neue Anforderungen anpassen, was sich angesichts des hohen Innovationstempos in vielen Wirtschaftszweigen als Wettbewerbsvorteil erweist.

Auch interne Prozesse lassen sich optimieren, indem Anfragen aus den Fachabteilungen schneller bearbeitet werden. Mit einem effizienten IT-Service-Management ist es beispielsweise möglich, einen Server mit Datenbank und Betriebssystem innerhalb weniger Stunden zur Verfügung zu stellen - anstatt nach mehreren Wochen. Doch nicht nur die Mitarbeiter der Fachabteilungen profitieren von der schnelleren Reaktionszeit ihrer IT-Kollegen. Die IT selbst hat durch die automatisierte Steuerung mehr Zeit, sich auf strategische Kernaufgaben zu konzentrieren.

Stärken und Schwächen von Software Defined Networking (SDN) -
Schwächen von Software Defined Networking
Fokussierung auf Switches und Vernachlässigung von Server-Endpoints und damit der Anwendungsschnittstellen.
Schwächen von Software Defined Networking
Unzureichendes Management von IT-Ressourcen über mehrere Domains hinweg.
Schwächen von Software Defined Networking
Stärkere Belastung des Netzes durch die Kommunikation zwischen den Controllern: Sie steigt um etwa drei bis vier Prozent.
Schwächen von Software Defined Networking
Mangelnder Support von optischen Netzen mit leistungsvermittelnder Übertragung. Hier müssen Erweiterungen der OpenFlow-Spezifikation weiterhelfen.
Schwächen von Software Defined Networking
Skalierbarkeit: In großen Netzen fallen Millionen von Flows an. Das erfordert hoch skalierbare Controller. Bislang fehlen jedoch die Erfahrungswerte mit solchen Systemen beziehungsweise großen Netzen.
Schwächen von Software Defined Networking
Single Point of Failure durch zentralen Controller: Redundanz lässt sich durch den Einsatz mehrerer Controller erreichen. Das erhöht jedoch die Kosten und den Managementaufwand.
Stärken von Software Defined Networking
Einfaches Verschieben von Virtual Machines (VM) im Netzwerk.
Stärken von Software Defined Networking
Geringere Komplexität der Netzwerkinfrastruktur, da weniger Switch-Ports und Kabel erforderlich sind. Das reduziert zudem Kosten.
Stärken von Software Defined Networking
Komplette Sicht auf Anwendungen, Netzwerkelemente und Datenströme (Flows)
Stärken von Software Defined Networking
Kein Mapping von Servicedefinitionen auf physikalische Netzwerk-Ports. Das verringert den Konfigurationsaufwand.
Stärken von Software Defined Networking
Flexiblere Konfiguration von Services: Über Einträge in Flow Tablets lassen sich Dienste und Eigenschaften wie etwa Quality-of-Service-Merkmale und VLAN-Einstellungen konfigurieren, was in herkömmlichen Netzen mittels Scripts nicht möglich ist.
Stärken von Software Defined Networking
Bereitstellung von Anwendungen und Netzdiensten innerhalb von Stunden, nicht Tagen.
Stärken von Software Defined Networking
Zentrale Steuerung von Switches, Routern, virtualisierten Switches (vSwitches), WLAN-Access-Points und anderen Netzsystemen.
Stärken von Software Defined Networking
Offener Ansatz: Der Controller ist kein herstellerspezifisches System. Er lässt sich nach Bedarf durch Netzwerkfachleute konfigurieren und programmieren.

Zukunftsvision oder Realität?

Die größte Hürde, die derzeit viele IT-Entscheider davon abhält, die Idee der Virtualisierung auf das gesamte Rechenzentrum auszudehnen, ist die unterschiedliche Marktreife der drei Komponenten SDC, SDS und SDN.
Während viele Unternehmen bei ihren Serverlandschaften Virtualisierungsgrade von bis zu 80 Prozent erzielen, stecken Konzepte für virtuelle Netzwerke noch in den Kinderschuhen. Derzeit gibt es einige Hersteller, die zögerlich erste Produkte launchen.

Der Markt für Software Defined Storage zeigt sich hingegen sehr dynamisch: Vielversprechende Produkte, die bereits seit einigen Jahren eingesetzt werden, stehen einer Handvoll ganz neuer Ansätze gegenüber. Daher setzen viele Rechenzentren derzeit auf eine Kombination aus Software-gesteuerten und klassischen Storage-Lösungen.

Soweit der Status quo im Software Defined X-Markt. Die Frage ist: Lohnt es angesichts der teilweise noch sehr jungen Technologien, dass sich Unternehmen jetzt schon mit dem Gesamtkonzept SDDC auseinandersetzen? Die Antwort ist ein eindeutiges Ja. Denn sowohl die technischen als auch die organisatorischen Weichen müssen früh gestellt werden, damit die Technologien, wenn sie in ein bis drei Jahren ausgereift sind, in Betrieb genommen werden können.

Gerade angesichts der relativ langen Investitionszyklen im Rechenzentrumsumfeld sollten Unternehmen sich möglichst frühzeitig mit dem Aufbau virtueller Infrastrukturen beschäftigen. Es dauert oft mehrere Jahre, bis etwa eine neue Netzwerkstruktur, die das Rückgrat des gesamten Rechenzentrums bildet, stabil läuft. Die Anwendungssoftware muss entsprechend umgestellt und IT-Administratoren geschult werden.
Kurz: Es gilt, die Zeit zu nutzen und jetzt die Basis zu legen. Je früher Unternehmen den Weg ins virtuelle Rechenzentrum antreten, desto größer ist ihr Innovationsvorsprung, wenn die Technologien einsatzbreit sind. (rb)

Was bewirkt das Software Defined Datacenter? -
Hans Schramm, Field Product Manager Enterprise, Dell
"Es ist sicherlich unumstritten, dass Software heute eine tragende Rolle bei allen Storage-Themen spielt, das wird sich zukünftig weiter verstärken."
Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
"Die Storage-Hardware besteht bei EMC schon heute fast ausschließlich aus Commodity Komponenten. Selbst die High-End Speichersysteme wie EMC VMAX oder Scale-Out-NAS Islilon Systeme bestehen mit wenigen Ausnahmen vollständig aus Commodity Komponenten."
Robert Guzek, Senior Alliance Manager CE FTS CE ISS Market Operations, Fujitsu Technology Solutions
"Nur wenn die Hardware selbst über eine gewisse Intelligenz verfügt, ist sie in der Lage, unmittelbar zu reagieren und die erwünschten kurzen Antwortzeiten zu liefern. Die Hardware muss in Zukunft deshalb eher an Intelligenz gewinnen, sie muss sich selbst besser verwalten und sich flexibler an die Geschäftsprozesse und betrieblichen Anforderungen anpassen können."
Thomas Meier, Chief Technologist Storage, Hewlett-Packard
"Das Software Defined Data Center ist bei HP bereits Realität: Die Cloud-Management-Lösung Cloud Service Automation, das offene Cloud-Betriebssystem Cloud OS sowie Lösungen für Software Defined Networking und Software Defined Storage sind bereits Bestandteil von HPs Portfolio für das Rechenzentrum der Zukunft.“
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems
"Hardware wird im professionellen Umfeld auf absehbare Zeit mehr sein als bloße Commodity. Das gilt für 2014 und auch noch darüber hinaus."
Michael Achtelik, Storage Business Leader DACH, IBM Deutschland
"Bei der Umsetzung der Konzepte rund um den Begriff Software Defined Data Center engagiert sich IBM sehr stark. IBM verfolgt hier einen eher noch umfassenderen Ansatz als SDDC und hat hierzu den Begriff Software Defined Environments (SDE) geprägt.“
Johannes Wagmüller, Director Systems Engineering, NetApp
"Commodity-Hardware mag für Betreiber wie Amazon AWS und Google eine Option darstellen, da sie mit eigenen Entwicklungsabteilungen für Integration und Qualitätssicherung sorgen. Im Enterprise- und KMU-Markt, wo diese mächtigen Entwicklungs-Ressourcen nicht zur Verfügung stehen, wird weiterhin auf die Betriebssicherheit von Enterprise Speichersystemen Wert gelegt werden."
Vincenzo Matteo, Disk Product Management Director, Oracle
"Wir halten Software Defined Storage aufgrund der verdeckten Kosten für kein wirklich vorteilhaftes Konzept. Weil alle Integrations-, Prüfungs- und Wartungsaufgaben für das System vollständig auf den Anwender übergehen, erhöht sich der Aufwand in diesen Bereichen signifikant, die Ausgaben steigen deshalb gleichermaßen."

Die technischen Grundsteine legen

Eine vorbereitende Maßnahme, die Unternehmen jetzt treffen können, ist es, ihre Storage- und Netzwerk-Hardware mit sogenannten Element-Managern auszustatten. Als Management-Software verfügen diese über die entsprechenden Automatisierungsschnittstellen, damit sie an die übrigen Komponenten des SDDC angeschlossen werden können.

Im nächsten Schritt empfiehlt es sich, einzelne Services zu identifizieren, die bereits virtualisiert betrieben werden können. Langfristig wird sich sowieso in den meisten Rechenzentren ein Parallelbetrieb Software-gesteuerter und klassischer Infrastrukturen etablieren.

Dabei findet die Unterscheidung nicht auf der Anwendungsebene statt, sondern es werden einzelne Aufgaben herausgegriffen, die als virtuelle Dienste zur Verfügung stehen. Im Netzwerkbereich könnte eine solche Aufgabe die Vergabe von IP-Adressen oder die Definition und Verwaltung von Access Control Lists (ACL) sein. Was heute vielerorts noch manuell durchgeführt wird, kann Software-basiert automatisiert werden. Ein vollständiges SDN ist hierfür natürlich nicht notwendig. Dennoch können Unternehmen jetzt schon einzelne Services in virtuellen Strukturen testen, in den Produktionsbetrieb überführen und im Lauf der Zeit zu einer ganzheitlichen SDDC-Struktur ausbauen.

Organisatorische Voraussetzungen schaffen

Per se leisten dies die einzelnen Technologiesilos nicht. Sie benötigen eine übergeordnete Software, die die Ressourcen orchestriert und dabei auf die einzelnen infrastrukturellen Komponenten und auf ein Regelwerk zurückgreift, das definiert, wie dieser Zugriff erfolgen soll. Wenn die Personalabteilung zum Beispiel einen Server bestellt, müssen hier andere Sicherheitsregeln implementiert werden als auf einem SAP- oder SharePoint-Server. Auf die HR-Daten des Unternehmens sollten nur personalverantwortliche Mitarbeiter Zugriff haben. Solche Regeln müssen definiert und hinterlegt werden, und zwar nicht nur technisch, sondern auch organisatorisch.

Hierfür müssen die meist in Technologiesilos organisierten IT-Teams ihre gewohnten Strukturen aufbrechen. Bislang sind Netzwerk-Experten oft ausschließlich fürs Netzwerk und Storage-Verantwortliche nur für Storage-Themen verantwortlich. Die orchestrierten Prozesse des SDDC erfordern eine übergreifende Perspektive.

Die SDN-Strategien führender Hersteller -
Die SDN-Strategien führender Hersteller
Software Defined Networking (SDN) ist als heißes Thema für 2013 gesetzt. Nachdem wir in der vorigen COMPUTERWOCHE die Grundlagen beleuchtet haben, nehmen wir nun die Strategien führender Hersteller unter die Lupe.
Arista Networks
Die amerikanische Firma, die Ex-Sun-Chef Andreas von Bechtolsheim mitbegründet hat, setzt auf eine eigene SDN-Lösung auf Basis der Systemsoftware "EOS" und der Hochleistungs-Switches der Reihen "7050" und "7150". Die Switches arbeiten mit SDN-Controllern der Arista-Partnerfirmen VMware, Nebula und Big Switch zusammen. Die SDN-Strategie von Arista zielt derzeit vornehmlich auf Cloud-Computing-Umgebungen ab.
Big Switch Networks
Die amerikanische Firma hat eine eigene Version eines OpenFlow-Controllers entwickelt, der auf FloodLight basiert. Das Unternehmen arbeitet mittlerweile mit Netzwerkfirmen wie A10 Networks, Arista, Extreme Networks, Broadcom und Citrix zusammen. Im November stellte Big Switch drei SDN-Produkte vor: den "Big Network Controller" (BNC), "Big Tap", eine Network-Monitoring-Lösung, und den "Big Virtual Switch" (BVS). Big Tap und der BVS sind Beispiele für Anwendungen, die in einer SDN-Infrastruktur eingesetzt werden können.
Brocade
Das Unternehmen unterstützt bereits seit 2010 Software Defined Networking. Einen Schwerpunkt bilden die "NetIron"-Switches für den WAN- und Service-Provider-Markt. Im November 2012 übernahm Brocade zudem die Firma Vyatta. Sie hat einen Virtual Router entwickelt, der vorzugsweise zur Kopplung von virtualisierten oder physischen Netzdomänen eingesetzt wird, speziell in Cloud-Computing-Umgebungen.
Citrix
In diesem Jahr soll die nächste Generation des Application Delivery Controller (ADC) der Reihe "Netscaler SDX" verfügbar sein. Sie wird nach Angaben des Herstellers für SDN optimiert sein. Im Unterschied zu vielen anderen SDN-Spezialisten, die sich auf Layer 2 und 3 konzentrieren, favorisiert Citrix eine SDN-Lösung, mit der sich Layer 4 bis 7 steuern lassen. Als Partner hat Citrix Unternehmen wie Palo Alto, RSA, Trend Micro und Aruba Networks gewonnen.
Dell / Force10
Durch den Kauf von Force10 hat sich Dell einen Hersteller von Hochleistungs-Switches ins Haus geholt. Für Arpit Joshipura, ehemals bei Force10 und nun Chef von Dells Netzsparte, wird SDN allerdings erst in etwa drei bis fünf Jahren eine Rolle im Netzbereich spielen. Aber natürlich hat auch Dell eine SDN-Strategie: die "Virtual Network Architecture" (VNA) ist ein Framework, mit dem sich Netzdienste in Rechenzentren, dem Firmengelände und in Außenstellen virtualisieren, automatisieren und verwalten lassen.
Enterasys
Die Company setzt auf das hauseigene "OneFabric Control Center", das nicht auf neuen Protokollen wie OpenFlow basiert, sondern auf bereits etablierten Ansätzen wie VLANs und VRF/MPLS. Allerdings hält sich der Hersteller die Türe zu OpenFlow und vergleichbaren Spezifikationen offen.
Extreme Networks
Das Kernstück der SDN-Strategie des Switch-Herstellers ist das System "Diamond X8" mit der Systemsoftware XOS. Ähnlich wie Arista kooperiert Extreme mit Big Switch. Der Diamond X8 unterstützt Big Switch Network Tap und den Big Virtual Network Switch. Zudem arbeiten die Switches von Extreme Networks mit den SDN-Controllern von NEC zusammen.
IBM
Das Unternehmen will ebenso wie HP eine umfassende SDN-Produktlinie auf den Markt bringen. Ein erster Schritt ist der "Programmable Network Controller" auf Basis von OpenFlow, der für bis zu 300.000 Flows ausgelegt ist. Hinzu kommen Rack-Switches wie der "G8264". Was allerdings noch fehlt, ist ein Core-Switch mit OpenFlow-Unterstützung. Offen ist, ob IBM selbst ein solches System entwickelt oder als OEM-Produkt von einem andere Hersteller bezieht.
Juniper Networks
Im Juni 2012 veröffentlichte das Unternehmen seine SDN-Strategie. Die Schwerpunkte des Anbieters liegen auf Systemen für das Rechenzentrum und "Northbound"-APIs (Anwendungsschnittstellen). Das Software Development Kit (SDK) für Junipers Systemsoftware JunOS enthält zudem einen OpenFlow-Client. Im Lauf des Jahres will Juniper mit den Switches der "EX"-Reihe und den Routern der "MX"-Serie OpenFlow 1.3 unterstützen.
NEC
Das Unternehmen hat unter der Bezeichnung "NEC ProgrammableFlow" ebenso wie HP mehrere SDN-Produkte im Programm, etwa einen SDN-Controller sowie die Switches "PF 5240" und "5820", die für OpenFlow ausgelegt sind. Dazu kommt eine Management-Konsole. Geplant sind Applikatio-nen, mit denen sich Netzwerke auf Basis von SDN verwalten lassen.
VMware
Der Spezialist für Virtualisierung hat sich durch den Kauf von Nicira im Juli 2012 verstärkt. VMware selbst sieht sich als Protagonist des "Software Defined Data Center". Daher ist zu erwarten, dass der Hersteller Niciras SDN-Technologie nutzt, um in vCenter ein Management-Framework für virtualisierte und physische Netzsysteme zu integrieren.

Neue Technik erfordert neue Teams und neue Rollen

Es sind also auch neue Organisationsstrukturen gefragt: Die Orchestrierung des SDDC sollte entweder ein eigens eingerichtetes Team, das sich ausschließlich um Orchestrierungsthemen kümmert, oder ein virtuelles Team, das sich aus Mitarbeitern der Netzwerk-, Storage- und Computing-Teams zusammensetzt, übernehmen.

In der Praxis erweist sich meist der zweite Ansatz als erfolgsversprechender, denn die Mitarbeiter, die in den einzelnen Technologiethemen verwurzelt sind, bleiben durch ihre Arbeit in den drei Bereichen auf dem neuesten Stand der Technik und sind in der Organisation bereits entsprechend verzahnt und etabliert.

Die Aufgaben des SDDC-Architekten

Neu entsteht ebenfalls die Rolle des SDDC-Architekten, der dieses virtuelle Team leitet. Die Praxiserfahrung zeigt, dass diese Führungskraft am besten in der Unternehmenshierarchie in der Nähe der IT-Leitung angeordnet ist, allerdings eine rein fachliche Verantwortung für das Orchestrierungsteam trägt. Dadurch ist der Mitarbeiter in der Lage, in Dialog mit den Managern der einzelnen Technologieteams zu treten und gleichzeitig die Klammer zur übergeordneten Führungsetage zu bilden.

Fazit: Jetzt die Weichen stellen

Auf diese neuen Rollen sollten Unternehmen sich rechtzeitig vorbereiten, etwa indem sie Mitarbeiter aus den einzelnen Teams bereichsübergreifend weiterbilden. Denn entsprechend interdisziplinär qualifizierte Experten gibt es kaum auf dem Arbeitsmarkt. Fachexpertise in den einzelnen Disziplinen ist jedoch in vielen, vor allem großen Unternehmen vorhanden. Aber zum Aufbau des Orchestrierungswissens empfiehlt es sich, externe Technologieberatung in Anspruch zu nehmen, die in mittelständischen Unternehmen auch die Rolle des kommunikativen Knotenpunkts zwischen den einzelnen Technologiedisziplinen übernehmen kann.

Abgesehen von neuen Rollen, Teams und Arbeitsabläufen steht der IT auf dem Weg zum SDDC ein grundlegender Paradigmenwechsel bevor: Die IT wird zum Service Provider, der in der Lage ist, dem Unternehmen schnell, kosteneffizient und flexibel die erforderlichen Dienste zur Verfügung zu stellen. Durch diese Dynamik erreichen Unternehmen die Agilität, um den sich in vielen Industriezweigen rasant verändernden Anforderungen begegnen zu können.

Starre IT-Systeme stoßen hierbei immer häufiger an ihre Grenzen. Gleichzeitig bietet das Unternehmen auch der zunehmenden Tendenz Paroli, dass Fachabteilungen sich an der IT vorbei eigene Services beschaffen und so bis zu 20 Prozent des Budgets in eine Schatten-IT investieren. Zudem sind Unternehmen in der Lage, in Zeiten des sich verschärfenden Fachkräftemangels qualifizierte Mitarbeiter aus aller Welt mit hochmodernen, attraktiven Arbeitsplätzen anzulocken. Mit dieser technologischen Grundlage unterstützt die virtuelle IT Unternehmen dabei, einigen der größten aktuellen Herausforderungen zu begegnen.