Der leichte Weg zum Cloud-Provider

Hyperkonvergente Infrastrukturen im White-Label-Modell



Als CEO von gridscale verantwortet Henrik Hasenkamp die Strategie und Ausrichtung des Infrastructure- und Platform-as-a-Service-Anbieters, der mit seiner innovativen Technologie die Basis für anspruchsvolle Cloud-Lösungen schafft. Mit gridscale ebnet der Diplom-Wirtschaftsinformatiker mittelständischen Unternehmen den Weg in ein neues Zeitalter der IT-Skalierung und bietet ihnen eine IaaS- und PaaS-Lösung, die Qualität, Transparenz und leichte Anwendbarkeit zu ihren Markenzeichen gemacht hat.  

 
Eine eigene Cloud erfordert von Systemhäusern hohe Investitionen in ihr Datacenter. Eine White-Label-Lösung ist eine kosteneffiziente Alternative, für die Rechenzentren allerdings einige Voraussetzungen erfüllen müssen.
Eine eigene Cloud erfordert von Systemhäusern hohe Investitionen in ihr Datacenter.
Eine eigene Cloud erfordert von Systemhäusern hohe Investitionen in ihr Datacenter.
Foto: Joe Techapanupreeda - shutterstock.com

Die Unternehmen gehen in die Cloud, Systemhäuser gehen mit und werden Anbieter von Cloud Services. Dieses neue Geschäftsmodell erweitert den bisherigen Markt für Server- und Webhosting sowie Managed Services. Doch der Aufbau erfordert die Erweiterung des Rechenzentrums, einen passenden Software-Stack und das Know-how, ihn zu betreiben und administrieren.

Gut geeignet für Systemhäuser und IT-Dienstleister sind White-Label-Lösungen. Dabei nutzt der Reseller die Ressourcen und das Know-how eines Cloud Providers. Dabei gibt es zwei mögliche Varianten: Erstens macht er die Cloud Services des Providers unter der eigenen Marke verfügbar - greift jedoch auf Rechenzentrums Kapazitäten des Cloud Providers zurück oder nutzt das eigene Rechenzentrum mit dem Cloud-Stack des Providers.

Lesetipp: Wenn Cloud-Anbieter kooperieren

Der Stack wird dabei zum "Betriebssystem" des Rechenzentrums und versorgt die Kunden der Systemhäuser mit Cloud-Diensten. Damit das Geschäftsmodell für Reseller funktioniert, ist allerdings eine andere Art von Infrastruktur erforderlich, wie sie zum Beispiel für Web- oder SAP-Hosting üblich ist.

Das grundlegende Funktionsprinzip einer Cloud ist die Virtualisierung sämtlicher IT-Ressourcen. Sie werden von einer Management-Software an die jeweils aktiven Nutzer verteilt. Diese Form des Rechenzentrumsbetriebs wird auch als hyperkonvergente Infrastruktur (Hyper Converged Infrastructure, (HCI) bezeichnet.

HCI bewirkt eine umfassende Virtualisierung

HCI-Lösungen basieren auf einer vollständig virtualisierten, Software zentrierten IT-Architektur. Die einzelnen Komponenten wie Prozessoren, Storage und Netzwerke werden in einer Appliance zusammengeführt, einer Kombination aus Hardware und Software. Die passende Software stellt auf dieser Basis entsprechende Cloud Services bereit. Diese besteht aus folgenden Komponenten:

  • Hypervisor:
    Eine Software-Schicht zur Virtualisierung, die von der zugrunde liegenden Hardware ab
    strahiert. Der Hypervisor führt alle Ressourcen in einer einzigen, gleichartigen Umgebung zusammen und verteilt die bereitgestellten Ressourcen dynamisch nach Bedarf.

  • Software-Defined Storage (SDS)
    virtualisiert Datenspeicher, sodass sie sich unabhängig von Hardware verwalten und bereitstellen lassen. Die Software erzeugt einen virtuellen Speicherpool und verteilt Daten automatisch auf einen oder mehrere Server mit freien Kapazitäten.

  • Software-Defined Networking (SDN):
    Diese Form der Virtualisierung trennt die Steuerung des Netzwerks (Control Plane) von der Hardware für die Weiterleitung der Datenpakete (Data Plane). Die Hardware erhält Netzwerkfunktionen dynamisch zugewiesen und Veränderungen im Netzwerk erfolgen fast in Echtzeit.

  • Software
    zur zentralen Überwachung und Steuerung.

  • Erweiterunge:
    HCI ist in der Lage, traditionelle Server-Infrastrukturen, bestehende Legacy-IT und Cloud Services in eine virtuelle Architektur einzubinden.

Ein wichtiger Vorteil: HCI nutzt Standard-Server "von der Stange", die typischerweise mit dem Betriebssystem Linux arbeiten. Proprietäre Hardware wie Storage Area Network (SANs) sind nicht notwendig. Stattdessen nutzen HCI-Appliances so genannten Direct Attached Storage (DAS), also die Festplatten der Server. Eine entscheidende Komponente ist jedoch die Management-Software. Sie sorgt dafür, dass alle IT-Ressourcen flexibel genutzt und dynamisch hinzugefügt werden können. Zugleich erlaubt sie den Nutzern den Zugriff auf virtuelle Server und Storage sowie andere virtuelle Ressourcen.

Mit hyperkonvergenter Infrastruktur Cloud-Provider werden

Eine solche HCI-Appliance ähnelt einem Cloud Service. Genauer gesagt: Ein Angebot in der Public Cloud lässt sich auch als Benutzeroberfläche einer leistungsfähigen hyperkonvergenten Infrastruktur verstehen. Voraussetzung dafür ist ein Cloud-Stack. Dadurch haben die Nutzer alle Möglichkeiten der Public Cloud sowie Schnittstellen zu anderen Cloud-Angeboten und Legacy-Anwendungen.

Mittels einer solchen HCI-Appliance stellt beispielsweise der Schweizer Anbieter Hosttech GmbH seinen Kunden Infrastructure as a Service (IaaS) und Platform Services (PaaS), also klassische Cloud-Dienste, bereit. Grundsätzlich handelt es sich dabei um eine "Cloud as a Managed Service". Sowohl der Stack als auch die Kunden werden innerhalb der White Label-Lösung vom Provider verwaltet. Die Benutzeroberfläche erlaubt nicht nur die einfache Nutzung von Infrastructure as a Service (IaaS) durch die Endkunden, sondern stellt auch dem Anbieter umfangreiche Funktionen in der Vernetzung mittels Software-Defined-Networking bereit.

Lesetipp: IaaS-Anbieter aus Deutschland

Selbst in Zeiten von Spitzenlasten kommt es nicht zu Engpässen, da zusätzlich die Ressourcen des Providers verfügbar sind. Ein Beispiel: Ein Online-Händler nutzt die Infrastruktur aus der Cloud, bucht aber in der Vorweihnachtszeit oder an Tagen wie dem Black Friday zusätzliche Server. Durch die HCI-Infrastruktur und die Anbindung an den Cloud-Provider ist die Zahl der nutzbaren Server und Storage-Bereiche nicht mehr durch die Hardware im eigenen Rechenzentrum begrenzt. Die Nutzungsabhängige Pay-as-you-go Abrechnung macht dieses Modell zusätzlich attraktiv.

Die Investition in eine hyperkonvergente Cloud-Architektur lohnt sich: Digitale Arbeitsplätze mit virtuellen Desktops oder auch beliebige andere Anwendungsszenarien können besonders schnell umgesetzt und später erweitert werden. Die schnelle Erweiterbarkeit erlaubt zudem auch den Einsatz in der agilen Software-Entwicklung inklusive DevOps, den Betrieb von Anwendungen für Big Data oder das Internet der Dinge (IoT). Insgesamt sinkt die Komplexität der IT-Infrastrukturen. Applikationen aller Art lassen sich schneller in Betrieb nehmen und besser skalieren - eine Chance für Systemhäuser im Cloud-Markt.

Mehr vom Autor:
Lernende Algorithmen im Rechenzentrum
Cloud-Infrastruktur für sensible Workloads
Die "White Label"-Entscheidung
Die Zukunft der Systemhäuser liegt in der Cloud

Zur Startseite