Software Defined Data Center

Revolution oder Evolution?

13.04.2016 von Thomas Rupp
Der Technologiebegriff SDDC steht für Software Defined Data Center und ist teilweise auch unter Virtual Data Center, kurz VDC, bekannt. Das Thema ist aktuell und alt zugleich. Doch eines ist sicher: Aktuell werden immer mehr Hardware-basierte Funktionalitäten auf Software übertragen, so dass über kurz oder lang das komplette Data Center virtualisiert wird. In unserem Blogbeitrag erfahren Sie, welche Vorteile das Software Definded Data Center mit sich bringt und für wen das virtualisierte Rechenzentrum interessant ist.
 
  • Was ist überhaupt ein Software Defined Data Center?
  • SDDC ist eine Technik für große IT-Herausforderungen
  • Fazit zum Software Defined Data Center (SDDC)

Momentan berichtet jede bekannte Fachzeitschrift der IT-Branche über SDDC. Schlagzeilen wie: "99 Prozent aller Fortune Global 500-Unternehmen nutzen SDDC" oder: "Das Unternehmen XY spart mit SDDC-Lösungen zwölf Millionen US-Dollar im Jahr ein" verunsichern die Chefetagen. Schließlich möchte man ja dazu gehören, zu den Großen und Erfolgreichen. Und wer spart nicht gerne Millionen im Budget ein, nutzt aber IT-Technik, ohne die in globalen DAX- und NASDAQ-Konzernen anscheinend nichts mehr geht?

Was ist überhaupt ein Software Defined Data Center?

Hinter der Technologie SDDC steht unter anderem die Vision von IT as a Service (ITaaS). Dieses Konzept ermöglicht eine konsequente Anpassung der eigenen IT an die geschäftlichen Anforderungen und bietet somit enorme Flexibilität. Das bedeutet aber auch, dass wir uns von der uns bekannten IT verabschieden müssen. Die Unternehmens-IT besteht nicht mehr wie früher aus 20 oder 30 Servern im Rack, haufenweise Kabeln sowie IT-Personal.

8 Trends bei Servern und Data Center
8 Trends bei Servern und Data Center
Forrester erwartet für die nächste Zeit Bewegung im Server- und Rechenzentrums-Markt - darunter neue x6 CPU-Angebote und Druck, den Energieverbrauch zu senken.
1. Nächster größerer x86-Server-Zyklus:
Gegen Ende des Jahres rechnet Fichera mit dem einflussreichsten Ereignis: der nächsten Generation an CPUs und Servern, die auf der Ivy Bridge-Architektur von Intel basieren. Es werde zunächst eine Überlappung mit den derzeitigen E5 CPUs geben. Die neuen E7 CPUs hingegen machten voraussichtlich einen Sprung hin zu einer neuen Architektur und einem 22 nm-Prozess. Forrester prognostiziert, dass dabei ein Teil der Ressourcen für eingebaute Beschleuniger wie Kryptographie und Virtual Machine Acceleration sowie in zusätzliche Sicherheitsfeatures, die bereits von anderen Ivy-Bridge-Chips bekannt sind, verwendet werden.
2. Entschleunigung bei den ARM-Servern:
Der ARM-Gegenpol Cortex A53/A57 werde vermutlich erst Ende des Jahres erhältlich sein, die ersten Systeme sogar erst im kommenden Jahr. Für einen Schub sorgten immerhin die Aktivitäten vom AMD, das eine ARM-Architektur-Lizenz angeschafft und SeaMicro übernommen hat.
3. Auch AMD bleibt Nischenspieler:
Wenn AMDs neue Piledriver-CPUs die Vorgänger der Bulldozer-Serie nicht mehr als deutlich übertreffen, tut sich dieser Anbieter laut Forrester im Mainstream-Server-Geschäft schwer. Es verbleibt die Nische der hohen Taktfrequenz bei geringer Power und niedrigem Preis. Unbekannte in dieser Kalkulation bleiben laut Studie vorerst das erwähnte neue ARM-Standbein und die integrierte CPU/GPU-Technologie für Laptop- und Desktop-Produkte.
4. Hybrid Scalar/GPU wird Mainstream:
Nach den ersten Erfolgen von Nvidia und AMD im GPU-Segment mischt Intel hier seit 2012 mit dem Intel Xeon Phi mit. In Sachen Performance hinkt man laut Forrester zwar hinterher, aber der Trumpf ist die Kompatibilität mit x86-Codes. Dieses Scharnier lässt die GPU-Technologie nun wirklich im Mainstream ankommen, insbesondere in der hybriden System-Form mit x86- und GPU-Prozessoren.
5. Konvergente Infrastrukturen entwickeln sich weiter:
Alle Anbieter haben die neue Intel-Technologie in ihr Portfolio an Blade Servern und Converged Infrastructures (CIs) aufgenommen. Laut Forrester wird nach IBMs PureSystems-Produktlinie in diesem Jahr HP im Blade-Bereich nachziehen. Schneller voran soll es aber vor allem auch bei den Storage-zentrierten CIs gehen, die teilweise für virtualisierte Umgebungen optimiert werden, teilweise zur Basis-Technologie für die Private Cloud getrimmt werden. Forrester nennt hierzu als Beispiele die teilweise modularen Angebote von Nutanix, SimplVity und HDS.
6. Mehr DCIM-Lösungen:
Der Anspruch von DCIM-Lösungen ist es, die physische Umwelt im Rechenzentrum ganzheitlich zu erfassen und Zukunftsszenarien fassbar zu machen. Forrester macht Schneider und Emerson als vorerst wichtigste Anbieter aus und nennt einige grundlegende Funktionen für DCIM-Software: Inventory & Discovery, eine fortlaufende Sammlung von Daten, konsolidiertes Display, Trend-Analyse und Modell-Lösungen für die Implementierung.
7. Fortschritte beim modularen Rechenzentrum:
Die herausragenden Vorzüge modularer Rechenzentren bleiben laut Studie vorerst bestehen. Erstens sind sie etwas günstiger als konventionelle Data Center, zweitens sehr viel schneller zu erwerben. Die Hülle gibt es in der Regel binnen sechs bis zwölf Wochen. In höchstens zwei Jahren sollte auch die Infrastruktur eines klassischen Rechenzentrums installiert sein.
8. SDDC gewinnt an Bedeutung:
Das Software-Defined Data Center (SDDC), ursprünglich von VMWare propagiert, gewinnt laut Studie als Organisationskonzept für komplexe virtualisierte Infrastrukturen an Gewicht. Bereitgestellt werde eine komplett Software-basierte Abstraktion des Rechenzentrums, die alle Server, Speicherkapazitäten und Netzwerke beinhalte.

Ein Beispiel aus der Praxis: Sie sind Chef eines Unternehmens und stellen Ihrem Personal über die IT verschiedene Dienste bereit. Die gängigsten sind Datei- und Druckdienste sowie Mail- und Internetzugang. In der Lohnbuchhaltung existieren evtl. ein paar Finanztools und im Verkaufsbereich nutzen Sie eine Datenbank für Ihre Kunden und den Verkauf Ihrer Waren oder Dienstleistungen. Nun ist es allgemein bekannt, dass Sie Sauerstoff, brennbares Material und Wärme benötigen, um ein Feuer zu entfachen. Ähnlich verhält es sich mit Ihrer IT. Um diese bereit zu stellen benötigen Sie: Computing-Ressourcen, Storage und Networking.

Mit VMWare, Citrix oder Microsoft

Stellen Sie sich jetzt vor, dass ein paar der oben genannten Systeme auf VMware vSphere, Citrix XenServer oder Microsoft Hyper-V virtualisiert sind. Zwischen diesen Systemen sind Netzwerkkomponenten von Cisco oder HPE im Einsatz und sorgen dafür, dass sich die Server und Arbeitsplätze miteinander verbinden können. Der notwendige Speicher ist entweder in den einzelnen Maschinen eingebaut oder wird zentral mit einer EMC- oder NetApp Lösung bereitgestellt. So weit, so gut. Wenn Sie nun als Chef beschließen, Ihren Anwendern neue Dienste bereit zu stellen, passieren meist zwei Dinge:

  1. Ihre Systemadministratoren stellen Computing-Ressourcen (Rechenleistung) und Storage zur Verfügung, um den neuen Dienst zu betreiben.

  2. Es müssen neue Netzwerkverbindungen hergestellt werden, damit diese Dienste auch genutzt werden können.

Ein virtualisiertes Data Center, wie Dell es sich vorstellt.
Foto: Dell

Je nach Ausprägung Ihres vorhandenen Rechenzentrums geschehen diese Arbeiten virtuell oder physikalisch. In 90 Prozent aller Fälle muss Ihre IT-Abteilung aber sehr viele einzelne Arbeitsschritte koordinieren und Stück für Stück manuell umsetzen. Oftmals müssen zwischen den Systemen im Serverraum neue Kabel gezogen und so weitere Systeme miteinander verbunden werden.

In einem Software Defined Data Center geschieht dies vollkommen virtuell und zudem vollautomatisch. Die Grundlage für SDDC ist die vollkommene Virtualisierung der schon genannten Komponenten: Computing, Storage und Networking. Die Bereitstellung eines neuen Dienstes kann so von Wochen auf Tage bzw. Stunden reduziert werden.

Virtualisierung aller Komponenten (Server, Storage, etc.)

Um bei unserem Beispiel zu bleiben, beschließen Sie nun die Einführung einer neuen Unternehmensdatenbank. Diese neue Lösung soll die vorhandene Datenbank ablösen, da sie den Herausforderungen der über die Jahre gewachsenen Unternehmung nicht mehr nachkommt. Sie benötigen dafür:

Sprechen Sie mal mit Ihrem IT-Leiter, was es bedeutet, einen neuen, großen und geschäftskritischen Service in Ihrer Unternehmung so bereit zu stellen.

Innerhalb eines SDDC kann die notwendige Infrastruktur hochverfügbar, sicher und zeitnah bereitgestellt werden. Auch eine dafür notwendige Erweiterung um zusätzliche Computing- oder Speicherressourcen ist hier sehr einfach möglich, da die Systeme nicht spezifisch für einzelne Anwendungen in das System eingebunden werden muss.

SDDC ist eine Technik für große IT-Herausforderungen

Betreiben Sie lediglich ein paar Server für eine Handvoll Anwender, ist diese Lösung zu umfangreich und kostspielig. Gehören Sie aber mit Ihrer Unternehmung mindestens dem Mittelstand an und müssen sich mit Ihrer IT häufiger den wechselnden Anforderungen des Marktes stellen, dann ist diese Lösung sicherlich eine große Hilfe, um schnell und dynamisch reagieren zu können.

Der Weg zum Software Defined Data Center führt über die Schlüsseltechnologie Virtualisierung. Für die meisten ist der Baustein der Netzwerkvirtualisierung einer der letzten Schritte hin zu einem SDDC, da Computing und Storage schon virtualisiert sind. Hier bieten sich Technologien wie VMware NSX an. Unternehmen mit großem Rechenbedarf können direkt auf eine alternative Technologie wie konvergente oder hyperkonvergente Computing-Systeme wie VCE VBlock oder VMware EVO:RAIL wechseln.

Vor ein paar Tagen gab IBM in Las Vegas die strategische Partnerschaft mit VMware im Bereich Enterprise und Hybrid Cloud bekannt. Zudem liefert VMware mit vSphere eine der führenden Softwaretechnologien für automatisierte Enterprise Data Center sowie zahlreiche zusätzliche Lösungen wie NSX, vCloud und vRealize.

Fazit zum Software Defined Data Center (SDDC)

Meine Eingangsfrage "Software Defined Data Center (SDDC): Revolution oder Evolution" kann damit beantwortet werden mit. Revolution durch Evolution! Aus den wilden Serverräumen der 90er Jahre mit fliegender Verkabelung und unzähligen Servern, sind moderne Data Center geworden. Parallel sind die Ansprüche an die Unternehmens-IT aber auch massiv gestiegen. IT muss heute hochverfügbar und stabil bereitgestellt werden. Gleichzeitig soll das moderne Data Center hochdynamisch den neuen Anforderungen gerecht werden. Die großen IT-Firmen wie IBM, EMC, VMware, VCE, Microsoft, Citrix und viele mehr haben hier die richtigen Werkzeuge, sich eine solche Lösung zu bauen. (rw)

Zum Video: Revolution oder Evolution?