Auf dem Weg ins Software Defined Data Center

Die Zukunft des Rechenzentrums – Teil 1



Dr. Thomas Hafen ist freier Journalist in München. Er verfügt über langjährige Erfahrung als Redakteur in verschiedenen IT-Fachmedien, darunter NetworkWorld Germany und ChannelPartner. Seine fachlichen Schwerpunkte liegen in den Bereichen Data Center, Telekommunikation und Cloud Computing.

Die richtige Strategie beim Aus- und Neubau von Rechenzentren

Bei der Modernisierung oder dem Aufbau eines Data Centers sollten Unternehmen auf Plattformen und Architekturen setzen, die massiv skalieren, so Werner weiter: "Um die Komplexität gering zu halten oder zu reduzieren, sollte ein Unternehmen möglichst viel hochintegrierte Systeme verwenden." Für Ulrich Hamm sollte beim Aufbau eines neuen Rechenzentrums immer die Möglichkeiten zu Automatisierung und Orchestrierung im Mittelpunkt stehen. "Und es sollte eine Cloud-Strategie vorhanden sein, an der sich die RZ-Strategie orientiert", sagt der Cisco-Manager.

Axel Rosenberg von SanDisk sieht im Neubau eine große Chance: "Hier fällt es wesentlich leichter, das engmaschige Korsett im Betriebsablauf als Resultat der herkömmlichen, zentralen Architektur abzuschütteln." Im heute üblichen Enterprise-Rechenzentrum seien noch immer die zentralen Speicher und die daran gebundenen Backup-Strategien sowie Disaster-Recovery und Business-Continuity-Prozesse der Kern, an den die allermeisten geschäftskritischen Anwendungen angedockt wurden. "Im neuen RZ kann eine tatsächliche Cloud gebildet werden und nicht nur sogenannte Cloud-Dienste", sagt Rosenberg. Diese stellten oftmals nur den Weiterbetrieb von Hosting-Diensten unter neuem Namen dar.

Der Weg zum Software Defined Data Center ist noch weit

Skalierbarkeit, Automatisierung und echte Cloud-Dienste lassen sich nur mit einem komplett virtualisierten Rechenzentrum erreichen, dem Software Defined Data Center (SDDC). Der Weg dorthin ist jedoch noch weit, meint Dell-Manager Dümig: "Es gibt eine Reihe von Unternehmen, die sich damit konzeptionell befassen, von einer vollständigen Umsetzung sind sie aber noch ein gutes Stück entfernt."

Die dazu benötigten Technologien und Produkte seien zwar nach und nach auf dem Markt verfügbar, es gäbe aber noch enorme organisatorische Hürden, die Unternehmen bei der Umsetzung meistern müssten. Dem pflichtet Ulrich Hamm von Cisco bei: "Die größten Hürden sind nicht unbedingt auf der technischen Seite zu sehen." Zudem bestehe noch eine gewisse Unsicherheit bei der Auswahl der vorhandenen Lösungen und eine fehlende Cloud Strategie.

Fujitsu bietet unter der Marke "Primeflex" ein Portfolio von mehr als 20 integrierten Systemen an. "Primeflex ist eine umfassende, dennoch wachsende Palette leistungsfähiger Systeme, die vordefiniert, vorab integriert und getestet wurden", sagt Fujitsu-Manager Brünig, "sie verringern die Komplexität erheblich und werden als All-in-One-Pakete ausgeliefert, die Server, Storage, Netzwerkkonnektivität und Software kombinieren."

Gerade die Hardwarehersteller sind nach Ansicht von SanDisk-Manager Rosenberg Schuld daran, dass sich SDDC nicht so recht durchsetzt: "So lange die etablierten Hardware-Hersteller ihre alten Konzepte im neuen Gewand gewinnbringend vermarkten können, wird sich der Weg zum SDDC noch dehnen."

Hyperscale-Rechenzentren - (k)ein Trend für alle

Google und Facebook machen es vor: Sie setzen in ihren Rechenzentren einfache Standard-Hardware ein, alle Intelligenz liegt in der Software. Wird mehr Leistung benötigt, stellt der Data-Center-Betreiber einfach ein weiteres Rack mit Standardkomponenten in sein Rechenzentrum. Dieser "Hyperscale" genannte Ansatz ist für Unternehmen allerdings nur bedingt geeignet, meint Oracle-Manager Werner: "Ich kann mir zum Beispiel nur schwer vorstellen, dass die Handelsräume und -lösungen einer Bank oder Börse auf ‚dummer‘ Standardhardware laufen und dort komplett die Software das Management übernimmt."

Es werde kundenbezogen immer auch Fälle geben, wo es wichtig sei, aufgrund bestimmter Sicherheitsaspekte oder der dahinter liegenden Software-Architekturen, nicht mit ‚dummer‘ Standardhardware zu arbeiten, so Werner weiter. "Und das wird sich auch nicht ändern."

Ulrich Hamm von Cisco sieht das ganz ähnlich: "Ein großer Unterschied von Google und Facebook zu Unternehmensrechenzentren ist, dass diese beiden Unternehmen nur eine ‚Anwendung‘ oder wenige Anwendungen haben." Dagegen müsse ein Unternehmen eine breite Palette von Anwendungen unterstützen und benötige daher auch Lösungen, die dies ermöglichten. Ein weiterer Punkt seien die Aufwendungen bei Integration, Weiterentwicklung sowie Service und Support. "Da muss diese Option nicht unbedingt die beste sein."

Nach Ansicht von Dell-Manager Dümig wandert zwar in der Tat immer mehr Intelligenz in die Software, allerdings hätten es Google & Co. bei der Umsetzung einfacher als ein herkömmliches Unternehmen: "Da sie ihre Anwendungen selber programmierten, waren diese von Anfang an auch "Cloud-fähig". Das ist bei kommerziellen Anwendungen noch lange nicht der Fall."

Axel Rosenberg glaubt dennoch, dass der Hyperscale-Ansatz sich langfristig durchsetzen wird: "Nicht nur die anhaltende und zunehmende Notwendigkeit, Kosten zu reduzieren und damit verbunden, die Abhängigkeit von einzelnen Hardwarelieferanten zu unterbinden, sondern auch die Flexibilität in der Anwendungsbereitstellung werden auf lange Sicht dafür sorgen, den Ansatz der genannten Firmen zu übernehmen."

Lesen Sie in Teil 2 des Data Center-Schwerpunkts:

  • Das eigene Rechenzentrum - ein Auslaufmodell?

  • Sicherheit im Rechenzentrum

  • Energiefresser Data Center

  • Die Zukunft der Systemhäuser

Hier geht es zum zweiten Teil des Data Center-Schwerpunkts

Zur Startseite