Auf dem Weg ins Software Defined Data Center

Die Zukunft des Rechenzentrums – Teil 1

02.11.2015 von Thomas Hafen
Das traditionelle Rechenzentrumskonzept ist in einem massiven Umbruch begriffen. Virtualisierung und Automatisierung sollen eine völlig neue Art der Service-Bereitstellung ermöglichen. Wir haben Experten befragt, was dies für den Channel und dessen Kunden bedeutet.
 
  • Die richtige Strategie beim Aus- und Neubau von Rechenzentren
  • Der Weg zum Software Defined Data Center
  • Hyperscale-Rechenzentren – ein Trend für alle?
"Viele Rechenzentren sind nicht für die Trends der Zukunft und die damit verbundenen Anforderungen vorbereitet." Jörg Brünig, Senior Director Channel Managed Accounts und Mitglied der Geschäftsleitung Deutschland, Fujitsu
Foto: Fujitsu

Big Data, Cloud, Mobility und Internet of Things, das sind die zentralen Trends, die Jörg Brünig, Senior Director Channel Managed Accounts und Mitglied der Geschäftsleitung Deutschland bei Fujitsu, sieht: "Viele Rechenzentren sind jedoch nicht für diese Trends und die damit verbundenen Anforderungen vorbereitet. Das gilt insbesondere für die Sicherheit der Daten."

"Konvergenz steht im Vordergrund der aktuellen Entwicklung." Peter Dümig, Field Product Manager Enterprise Solutions, Dell
Foto: Dell

Für Peter Dümig, Field Product Manager Enterprise Solutions bei Dell, steht dagegen die Konvergenz im Vordergrund der aktuellen Entwicklung: "Egal ob die Konvergenz im Sinne der Konsolidierung einer bestehenden heterogenen IT-Infrastruktur oder ob hyperkonvergente, innovative Systeme gemeint sind." Christian Werner, Senior Director & Head of Oracle Alliances & Channels Germany, sieht das genauso: "Systeme wachsen viel stärker zusammen, sie sind viel höher integriert als früher." Hyperkonvergente Systeme würden den Grad an Komplexität im Data Center reduzieren, und den Verantwortlichen helfen, schneller und flexibler das Business zu unterstützen, so Werner weiter. "Ich halte das für eine konsequente Weiterentwicklung."

"Systeme wachsen viel stärker zusammen, sie sind viel höher integriert als früher." Christian Werner, Senior Director & Head of Oracle Alliances & Channels Germany
Foto: Oracle

Die Unabhängigkeit von Hardware und Hersteller ist für Axel Rosenberg, Solutions Marketing Software und Systeme bei SanDisk der aktuell wichtigste Trend: "Darunter fallen dann zwangsläufig Themen wie Open Source, OpenStack, Container und die Software-basierte Virtualisierung sowohl der Netzwerk- als auch der Speicherinfrastruktur." Auch die Fähigkeit von Systemen und Architekturen, sehr schnell zu skalieren, werde in der Bedeutung massiv zunehmen, ergänzt Oracle-Manager Werner: "Wenn man sieht, wie Datenwachstum und IT-Nutzung exponentiell nach oben schnellen, dann werden Data Center, die das nicht abbilden können, Auslaufmodelle sein."

"Zu den wichtigsten Trends im Datacenter-Umfeld gehören Automation und Orchestration, also insgesamt alles um SDx (Software defined Network, Software Defined Storage)." Ulrich Hamm, Consulting System Engineer Data Center, Cisco Deutschland
Foto: Cisco

"Zu den wichtigsten Trends im Datacenter-Umfeld gehören Automation und Orchestration, also insgesamt alles um SDx (Software defined Network, Software Defined Storage)", sagt Ulrich Hamm, Consulting System Engineer Data Center bei Cisco Deutschland. "Auch OpenStack gewinnt mehr und mehr an Bedeutung." "Software Defined Infrastructure wird den Administrationsablauf in den Data Centern komplett verändern, weg von den Silos hin zu Integration, daraus folgt eine ganzheitliche Administration", gibt ihm Oracle-Manager Werner Recht. Ein weiterer Trend ist nach seiner Ansicht das "Workload-centric Management: "Die Ressourcen im Data Center werden schnell dort fokussiert, wo die Hauptlast kurzfristig anfällt."

Die richtige Strategie beim Aus- und Neubau von Rechenzentren

Bei der Modernisierung oder dem Aufbau eines Data Centers sollten Unternehmen auf Plattformen und Architekturen setzen, die massiv skalieren, so Werner weiter: "Um die Komplexität gering zu halten oder zu reduzieren, sollte ein Unternehmen möglichst viel hochintegrierte Systeme verwenden." Für Ulrich Hamm sollte beim Aufbau eines neuen Rechenzentrums immer die Möglichkeiten zu Automatisierung und Orchestrierung im Mittelpunkt stehen. "Und es sollte eine Cloud-Strategie vorhanden sein, an der sich die RZ-Strategie orientiert", sagt der Cisco-Manager.

Axel Rosenberg von SanDisk sieht im Neubau eine große Chance: "Hier fällt es wesentlich leichter, das engmaschige Korsett im Betriebsablauf als Resultat der herkömmlichen, zentralen Architektur abzuschütteln." Im heute üblichen Enterprise-Rechenzentrum seien noch immer die zentralen Speicher und die daran gebundenen Backup-Strategien sowie Disaster-Recovery und Business-Continuity-Prozesse der Kern, an den die allermeisten geschäftskritischen Anwendungen angedockt wurden. "Im neuen RZ kann eine tatsächliche Cloud gebildet werden und nicht nur sogenannte Cloud-Dienste", sagt Rosenberg. Diese stellten oftmals nur den Weiterbetrieb von Hosting-Diensten unter neuem Namen dar.

Der Weg zum Software Defined Data Center ist noch weit

Skalierbarkeit, Automatisierung und echte Cloud-Dienste lassen sich nur mit einem komplett virtualisierten Rechenzentrum erreichen, dem Software Defined Data Center (SDDC). Der Weg dorthin ist jedoch noch weit, meint Dell-Manager Dümig: "Es gibt eine Reihe von Unternehmen, die sich damit konzeptionell befassen, von einer vollständigen Umsetzung sind sie aber noch ein gutes Stück entfernt."

Die Zukunft des Rechenzentrums - was Hersteller glauben
Jörg Brünig, Fujitsu Deutschland
"Big Data, Cloud, Mobility und Internet of Things, das sind die zentralen Trends"
Peter Dümig, Dell Deutschland
"Konvergenz steht im Vordergrund der aktuellen Entwicklung"
Christian Werner, Oracle Deutschland
"Die Fähigkeit von Systemen und Architekturen, sehr schnell zu skalieren, werde in der Bedeutung massiv zunehmen"
Ulrich Hamm, Cisco Deutschland
"Zu den wichtigsten Trends im Datacenter-Umfeld gehören Automation und Orchestration, also insgesamt alles um SDx (Software defined Network, Software Defined Storage)"

Die dazu benötigten Technologien und Produkte seien zwar nach und nach auf dem Markt verfügbar, es gäbe aber noch enorme organisatorische Hürden, die Unternehmen bei der Umsetzung meistern müssten. Dem pflichtet Ulrich Hamm von Cisco bei: "Die größten Hürden sind nicht unbedingt auf der technischen Seite zu sehen." Zudem bestehe noch eine gewisse Unsicherheit bei der Auswahl der vorhandenen Lösungen und eine fehlende Cloud Strategie.

Fujitsu bietet unter der Marke "Primeflex" ein Portfolio von mehr als 20 integrierten Systemen an. "Primeflex ist eine umfassende, dennoch wachsende Palette leistungsfähiger Systeme, die vordefiniert, vorab integriert und getestet wurden", sagt Fujitsu-Manager Brünig, "sie verringern die Komplexität erheblich und werden als All-in-One-Pakete ausgeliefert, die Server, Storage, Netzwerkkonnektivität und Software kombinieren."

Gerade die Hardwarehersteller sind nach Ansicht von SanDisk-Manager Rosenberg Schuld daran, dass sich SDDC nicht so recht durchsetzt: "So lange die etablierten Hardware-Hersteller ihre alten Konzepte im neuen Gewand gewinnbringend vermarkten können, wird sich der Weg zum SDDC noch dehnen."

Hyperscale-Rechenzentren - (k)ein Trend für alle

Google und Facebook machen es vor: Sie setzen in ihren Rechenzentren einfache Standard-Hardware ein, alle Intelligenz liegt in der Software. Wird mehr Leistung benötigt, stellt der Data-Center-Betreiber einfach ein weiteres Rack mit Standardkomponenten in sein Rechenzentrum. Dieser "Hyperscale" genannte Ansatz ist für Unternehmen allerdings nur bedingt geeignet, meint Oracle-Manager Werner: "Ich kann mir zum Beispiel nur schwer vorstellen, dass die Handelsräume und -lösungen einer Bank oder Börse auf ‚dummer‘ Standardhardware laufen und dort komplett die Software das Management übernimmt."

Es werde kundenbezogen immer auch Fälle geben, wo es wichtig sei, aufgrund bestimmter Sicherheitsaspekte oder der dahinter liegenden Software-Architekturen, nicht mit ‚dummer‘ Standardhardware zu arbeiten, so Werner weiter. "Und das wird sich auch nicht ändern."

Ulrich Hamm von Cisco sieht das ganz ähnlich: "Ein großer Unterschied von Google und Facebook zu Unternehmensrechenzentren ist, dass diese beiden Unternehmen nur eine ‚Anwendung‘ oder wenige Anwendungen haben." Dagegen müsse ein Unternehmen eine breite Palette von Anwendungen unterstützen und benötige daher auch Lösungen, die dies ermöglichten. Ein weiterer Punkt seien die Aufwendungen bei Integration, Weiterentwicklung sowie Service und Support. "Da muss diese Option nicht unbedingt die beste sein."

Nach Ansicht von Dell-Manager Dümig wandert zwar in der Tat immer mehr Intelligenz in die Software, allerdings hätten es Google & Co. bei der Umsetzung einfacher als ein herkömmliches Unternehmen: "Da sie ihre Anwendungen selber programmierten, waren diese von Anfang an auch "Cloud-fähig". Das ist bei kommerziellen Anwendungen noch lange nicht der Fall."

Axel Rosenberg glaubt dennoch, dass der Hyperscale-Ansatz sich langfristig durchsetzen wird: "Nicht nur die anhaltende und zunehmende Notwendigkeit, Kosten zu reduzieren und damit verbunden, die Abhängigkeit von einzelnen Hardwarelieferanten zu unterbinden, sondern auch die Flexibilität in der Anwendungsbereitstellung werden auf lange Sicht dafür sorgen, den Ansatz der genannten Firmen zu übernehmen."

Lesen Sie in Teil 2 des Data Center-Schwerpunkts:

Hier geht es zum zweiten Teil des Data Center-Schwerpunkts