Kommentar von Nutanix-CEO

Rechenzentren 2020 - zurück in die Zukunft

Gründer und CEO von Nutanix
Die Grundlagen für das Data Center der Zukunft seien bereits geschaffen - und werden auch schon genutzt, sagt Nutanix-CEO Dheeraj Pandey zur Lage am Markt. Im Gastkommentar begründet er seine These.

Viel ist zurzeit die Rede von softwaregesteuerten Rechenzentren, vom Konzept der "Software-defined Data Center" (SDDC). Und zu Recht, versprechen sie doch eine ungleich höhere Dynamik bei gleichzeitig geringeren Kosten. Klingt wieder einmal nach der eierlegenden Wollmilchsau, die in der IT schon so oft versprochen wurde? Keineswegs.

Denn wer sich das Thema aus der Nähe betrachtet, stellt fest, dass die wesentlichen Grundlagen für das Rechenzentrum der Zukunft bereits geschaffen wurden, mehr noch: dass diese Rechenzentren bei den großen Internet- oder, wie die Amerikaner sagen, Web-scale-Unternehmen wie Google, eBay oder Amazon längst Wirklichkeit sind.

Genau das ist der Grund dafür, dass Gartner in einer aktuellen Meldung und in Vorbereitung des IOM Summits in Berlin Anfang Juni die Unternehmen ermahnt: Sie sollten Kenntnisse in horizontal skalierenden Architekturen für Rechenzentren aufbauen. Andernfalls drohten Einschränkungen beim Unternehmenswachstum.

Im Wesentlichen sind es vier Entwicklungen, die bereits seit fünf bis sieben Jahren wirken und die, zusammen genommen, das Rechenzentrum der Zukunft in den nächsten Jahren auf breiter Front Realität werden lassen:

  1. Das 10-GB-Ethernet hat sich etabliert und löst das Fiberchannel-Protokoll ab. In Verbindung mit den Quality-of-Service- und Dynamic-Traffic-Shaping-Eigenschaften virtueller Switches ergibt sich hier die Möglichkeit, dass Rechenleistung und Speicherkapazitäten konvergieren.

  2. Diese Konvergenz lässt sich auf herkömmlichen x86-Systemen realisieren, was Spezialhardware für Speicherzwecke und klassische SAN-Infrastrukturen ersetzbar macht. Daten und Applikationen werden auf die Systeme verteilt, Kapazitäten dynamisch hinzugefügt.

  3. Um solche konvergenten Infrastrukturen zu verwalten, lässt sich Analysesoftware einsetzen, wie sie aus der Big-Data-Diskussion bekannt ist. Gibt es Ausfälle, Geschwindigkeitsprobleme oder Anomalien? Die Software ermittelt Gründe und Auffälligkeiten automatisch. Dadurch lässt sich eine Relation von Administrator zu Systemen von 1 zu 10.000 statt der heute üblichen 1 zu 500 verwirklichen, die daraus folgenden Kosteneinsparungen inklusive.

  4. Findet auch der Storage-Controller Eingang in den heute schon vielfach genutzten Hypervisor unterschiedlichster Anbieter, wird dieser zum de-facto-Betriebssystem für das Rechenzentrum der Zukunft.

Benötigte Dienste können dadurch in kürzester Zeit und flexibel bereitgestellt werden, indem die dafür nötigen Anwendungen, Netzwerkwerke, Sicherheitsservices und Speicherkapazitäten einfach über Schnittstellen provisioniert werden. (rb)

Zur Startseite