Einsatz beim Kunden und als Hosting-Basis

Wie Computacenter Referenzarchitekturen nutzt

09.04.2013
Die IT-Abteilung muss sich zum service-orientierten IT-Dienstleister wandeln. Wie Reference-Architekturen diesen Wandel erleichtern können, erklärt Ulf Schade, Solution Manager bei Computacenter, im Interview mit ChannelPartner.
Ulf Schade, Solution Manager bei Computacenter

Die IT-Abteilung muss sich zum service-orientierten IT-Dienstleister wandeln. Wie Reference-Architekturen diesen Wandel erleichtern können, erklärt Ulf Schade, Solution Manager bei Computacenter, im Interview mit ChannelPartner.
Hersteller, die IT-Infrastruktur für Rechenzentren anbieten, entwickeln zunehmend vorkonfektionierte, integrierte Referenz-Architekturen. Für welche der angebotenen Komplett-Lösungen haben Sie sich entschieden und weshalb gerade für diese?

Ulf Schade: Wir fokussieren ganz klar auf Flexpod, Vblock, VSPEX, PureSystems /FlexSystem, HP Converged Infrastructure aufgrund der etablierten Technologien und bestehenden langfristigen Herstellerbeziehungen. Als herstellerübergreifender IT-Dienstleister können wir mit der Auswahl unterschiedlicher Kombinationen Kunden helfen, das Konzept einer integrierten Block-Lösung mit dem Investitionsschutz bestehender Systemumgebungen zu verbinden.

Bieten Sie auf Basis dieser Referenz-Architekturen auch eigene Lösungen an?

Schade: Wir bieten auf Basis dieser Referenz-Architekturen auch Erweiterungen um eigene Computacenter Block-Lösungen, so genannte BloCC/xx, mit einem eigenen Supportkonzept an. Hierzu gehören zum Beispiel die Kombination aus HP- und NetApp-Systemen unter dem Branding BloCC/HN.

Welche der genannten Referenz-Architekturen nutzen Sie, um Ihren Kunden Hosting-Services anzubieten?

Schade: Der Bereich Managed Services bei Computacenter setzt bei den Hosting Services auf die Referenzarchitektur Flexpod.

VSPEX 2.0

Sie setzten also mit FlexPod, Vblock, VSPEX, PureSystems /FlexSystem, HP Converged Infrastructure gleich auf mehrere Modelle. Worin unterscheiden sich die Lösungen?

Schade: Die integrierten Block-Lösungen unterscheiden sich auf Basis der Infrastrukturkomponenten nur geringfügig. Letztendlich bestehen sie aus einem Storage-, einem Converged-Networking-, einem Server- und einem Hypervisor-Layer. Den wesentlichen Unterschied machen die dann eingesetzten Software-Layer für das Management. Die Anforderungen an die Systeme sind dabei immer gleich. Die Infrastrukturen sollen flexibel, robust, performant, mandantenfähig und zentral betreibbar sein.

Für jede einzelne Block-Infrastruktur gibt es gute technologische Gründe diese auszuwählen. So liefern Flexpod und Vblock ein integriertes Management für x86-Server und Netzwerktechnik, dafür besticht HP mit der Virtual Connect Technologie.

Entscheidend ist, wie die einzelnen oder kombinierten Elementmanager sich in eine zentrale Verwaltungsplattform für die gesamte Infrastruktur integrieren lassen

In welchen Situationen interessieren sich Kunden für das "Datacenter aus der Box" - welchen Zusatznutzen erwarten Unternehmenskunden?

Schade: Unsere Kunden haben in den letzten Jahren große Anstrengungen unternommen, um ihren IT-Betrieb zu standardisieren. Gleichsam gibt es in nahezu jedem Unternehmen Erfahrungen bei der Virtualisierung von physikalischen Infrastrukturen. Große Applikationsumgebungen wurden aber oft noch als Silos in den Rechenzentren implementiert. Diese aufzulösen und dem IT-Betrieb Flexibilität in der Infrastruktur zurückzugeben, darauf zielen die Block-Infrastrukturen ab. Mit dem Ablösen der Silos nehmen die Heterogenität in der Infrastruktur und damit auch der Aufwand diese zu Verwalten ab.

Wo liegen bei diesen Modellen die Knackpunkte auf Seiten der Endkunden wie auf Seiten der Vertriebspartner?

Schade: Bislang haben die IT-Abteilungen in den Unternehmen gemeinsam mit ihren Dienstleistern ihre Infrastrukturen validiert, was bei heterogenen Systemen verschiedener Hersteller schon mal bis zu sechs Monate in Anspruch nehmen kann. Das haben bei integrierten Infrastrukturen - den Block-Lösungen - bereits die Hersteller oder IT-Dienstleister getan. Das Vertrauen der Kunden in diese Validierung und das Verlagern der Verantwortung ist eine oftmals neue Situation für die IT-Abteilungen.

Die Referenz-Modelle sind größtenteils bereits vorkonfiguriert. Woran können Sie als Partner dann noch verdienen?

Schade: Richtig ist, dass es bereits vorkonfigurierte Systeme der Komplettanbieter wie HP und IBM gibt, bei denen die Standardinstallation entfällt. Allerdings müssen diese weiterhin in die Kundenumgebung integriert werden. Zudem unterstützen IT-Dienstleister wie Computacenter die Kunden vor allem bei den Layern, die nach der Infrastruktur kommen. Das sind Bereiche der Automatisierung, Security, Datensicherung, Portal- und Orchestrierungslösungen. Daneben bieten wir eigene Referenzarchitekturen aus der Kombination von Herstellern an, für die wir dann auch einen eigenen BloCC-Support liefern können.

Welche Services bieten Sie auf dieser Basis an?

Schade: Wir betreiben für unsere Kunden auf dieser Plattform komplette IT-Systeme - von einzelnen virtuellen Maschinen bis hin zu Applikationslandschaften. Kunden übergeben uns in dem Umfeld die komplette oder selektive Verantwortung für ihre IT und wir nutzen die Flexpod-Systeme als Infrastrukturbasis.

Welche Rolle spielt Ihrer Erfahrung nach bei den Kunden aktuell die langfristige strategische Ausrichtung in Richtung Cloud-Services als Treiber für die Virtualisierung und für den Einsatz der Referenz-Architekturen?

Schade: Kunden richten ihren IT-Betrieb mittelfristig auf Cloud-Services aus. Im Kern geht es um einen Wandel des IT-Betriebs zur einem serviceorientierten IT-Dienstleister. Reference-Architekturen helfen Kunden diesem Wandel technologisch in ihrem eigenen Rechenzentrum eine Basis zu geben. Die Einführung von Automatisierung und Orchestrierung auf den Referenz-Architekturen und der Umbau des IT-Betriebes versetzen die IT-Abteilungen in die Lage, mittelfristig Cloud-Services von außerhalb sicher und für die Anwender transparent nutzen zu können.

Backup und Recovery-Lösungen in virtualisierten Umgebungen sind laut einer Studie von Veeam noch immer auf physische Infrastrukturen ausgelegt. Die Folge: der Ausfall virtueller Server kostet Unternehmen im Durchschnitt 1,2 Mio. Euro. Bis 2014 planen deshalb 58 Prozent der CIOs die Einführung eines neuen Backup-Tools. Das ergab der "Virtualization Data Protection Report 2013". Inwiefern lässt sich dieses Problem mittels Referenz-Architekturen leichter lösen?

Schade: Richtig ist, dass Virtualisierung von Servern neue Anforderungen an die Datensicherung stellt. Richtig ist auch, dass Kunden bislang oft in virtualisierten Systemen die gleichen Datensicherungsverfahren wie in der physikalischen Welt verwenden. Auf Dauer ist das ineffizient und oftmals teuer. Kunden suchen vermehrt nach Beratung wie sie effizient die neuen virtualisierten Ressourcen in ihre Datensicherungsstrategie einbinden können. Dort gibt es Angebote von spezialisierten Herstellern, aber auch die etablierten Datensicherungsanbieter wie Symantec, IBM, EMC und HP integrieren diese neuen Technologien in ihre bestehenden Produkte.
Integrierte Blocklösungen können mit standardisierten Schnittstellen den Verwaltungs- und Sicherungsaufwand von virtuellen Systemen erheblich minimieren. Computacenter hilft hier mit speziellen Beratungsbausteinen für die Datensicherung in virtuellen und BloCC-Umgebungen.

Das Schlagwort "Software Defined Datacenter" - also die Erweiterung der Virtualisierung auf Storage- und Netzwerk-Ebene - macht in der Branche gerade die Runde. Was erwarten Sie von dieser Technologie?

Schade: Software Defined Networking (SDN) macht dann Sinn, wenn man auch ein Software Defined Datacenter aufbauen kann. Heutige Systeme haben auf dem Netzwerk-Layer noch einen sehr großen Hardwarebezug. SDN lässt sich auf diesen noch nicht umsetzen. Allerdings haben die Hersteller im letzten Jahr verstärkt Zukäufe in diesem Bereich getätigt. Es ist zu erwarten, dass wir Ende 2013 und 2014 verstärkt solche Angebote sehen werden.

SDN ist die logische Konsequenz im Technology-Stack einer Lösung auf dem Weg zu einem Software definierten Datacenter. Wir implementieren bereits Server- und Speichervirtualisierung. Das Netzwerk zu virtualisieren ist das fehlende Glied im Bereich der Infrastrukturkomponenten.

Was sind derzeit die wesentlichen Trends und Probleme in den Bereichen Server-, Storage-, Desktop- & User-Virtualisierung?

Schade: Ein wesentlicher Trend ist, dass die Konzepte zur Server-, Storage-, Desktop- und User-Virtualisierung zusammenwachsen und das Ziel einer Vollvirtualisierung verfolgt wird. Ein wesentliches Themengebiet, die Netzwerk-Virtualisierung, ist jetzt das Technologiefeld, in das die Hersteller investieren. Mit dem Ziel sich vollständig von Hardware-Bestandteilen zu lösen, kommen wir dem Ergebnis eines Software definierten Datacenter näher.

Mobile Endgeräte sind in die Unternehmen eingezogen. Gleichzeitig beziehen und nutzen Mitarbeiter in den Fachbereichen zunehmend selbstständig Applikationen aus offen zugänglichen Appstores, oft auch ohne Wissen der Unternehmens-IT. Wie begegnen Ihre Kunden diesem Problem?

Schade: Bisher setzen Unternehmen vornehmlich auf Geräte und damit auf App-Stores, von denen ein unternehmensverträglicher Sicherheitsstandard erwartet werden kann, zum Beispiel Apple oder BlackBerry. Bei diesen und auch bei Microsoft werden Apps Kontrollen unterzogen, bevor sie in öffentliche App-Stores gelangen. Damit reduziert sich die Wahrscheinlichkeit, ein Gerät mit Schadcode, Spyware oder ähnlichem zu infizieren.

Zusätzlich stehen Technologien bereit, zum Beispiel Mobile-Device-Management-Lösungen, die die Verwaltung und Absicherung von Geräten ermöglichen. Beispielsweise können Security Policies verteilt, Authentifizierungsmethoden definiert oder Zugriffe bei einem Compliance-Verstoß geblockt werden. Diese Lösungen erfahren aktuell eine deutliche Erweiterung innerhalb ihrer Funktionsbandbreite. Heute ist es möglich, Unternehmensapplikationen zu "wrappen" und damit vollständig von privaten Applikationen zu isolieren. Es können Authentifizierungs- und Zugriffsmechanismen bis auf Dokumentenebene definiert werden, die so eine erhöhte Sicherheit gewährleisten. Damit ist es möglich, insbesondere Bring-Your-Own-Device-Szenarien zu unterstützen, bei denen es vornehmlich darum geht, Unternehmens-Apps und -Daten zu schützen und nicht das Gerät zu verwalten.

Virtualisierungslösungen sind drüber hinaus eine optimale Möglichkeit, besonders sensible Daten zu schützen, indem diese gar nicht erst auf das Endgerät gelangen. Dies betrifft Daten, die beispielsweise dem Bundesdatenschutzgesetz unterliegen oder die für Unternehmen kritisch sind wie Forschungsdaten oder Patente.

Was empfehlen Sie Kunden in dieser Lage?

Schade: Unseren Kunden empfehlen wir, aus der Fülle an Lösungen, die inzwischen verfügbar sind, diese zu wählen und geschickt zu kombinieren, die ihren Sicherheitsanforderungen entsprechen. Dabei ist es wichtig, Daten zu klassifizieren und die nötigen Sicherheitsmechanismen abgestuft anzuwenden. Es ist nicht notwendig, auf alle Daten maximale Sicherheitsmechanismen anzuwenden. Dies würde unnötig die Usability einschränken und damit zu Akzeptanzverlust führen. Zu starre Sicherheitsregeln führen im Zweifel dazu, dass Benutzer sich für sie komfortablere Wege suchen und damit das Sicherheitsrisiko deutlich erhöhen. (rb)