SDN

Google lässt sich ungewohnt tief in die Netzkarten schauen

Thomas Cloer war Redakteur der Computerwoche.
Die Netze in Googles Rechenzentren sind schon ein ziemliches Geschäftsgeheimnis. Jetzt hat der Konzern einigen Einblick in seine SDN-Entwicklung gewährt.

Auf der Fachkonferenz ACM Sigcomm 2015 in London hat Google ein spannendes Forschungspapier (PDF-Link) präsentiert. Darin beschreibt der Konzern seinen Weg von herkömmlichen Switches im Jahr 2004 zur Entwicklung eigener Netz-Hardware ein Jahr später und deren Evolution seither. 2005 hätten vermutlich noch nicht allzu viele Firmen über die Entwicklung eigener Daten-Switches nachgedacht, schreibt das "Wall Street Journal", Google konnte aber damals schon absehen, dass sich sein Bandbreitenbedarf alle zwölf bis 15 Monate verdoppeln und es mit kommerziell verfügbarer Ausrüstung unweigerlich in Kosten- und Betriebsprobleme hineinlaufen würde.

Angeregt vom eigenen Erfolg beim Einsatz von Commodity-Servern für High-Performance Computing entschloss sich Google dazu, auch in Sachen Netz auf Marke Eigenbau zu setzen. Dieser Schritt (und vergleichbare anderswo) führten zu einem deutlichen Innovationsschub beim sogenannten Software-Defined Networking.

Dass Google jetzt mehr über seine Netztechnik verrät, liegt unter anderem daran, dass es seine Infrastruktur öffnet und im Rahmen der Google Cloud Platform anderen als Dienstleistung anbietet. "Eine hervorragende Distributed-Computing-Infrastruktur setzt ein Weltklasse-Netz voraus, das die Server miteinander verbindet", erklärte Google Fellow Amin Vahdat dem "CIO Journal". Google wolle, dass Entwickler in anderen Unternehmen verstünden, dass sie auf der Infrastruktur von Google Jobs wie Big Data Analytics mit zuverlässiger Geschwindigkeit und Leistung ablaufen lassen könnten.

Als ein weiterer Aspekt wolle Google die Ergebnisse seiner Forschung und Entwicklung im Netzbereich mit der akademischen Gemeinschaft teilen - es gebe schließlich nicht viele Firmen, die in solch riesigem Maßstab arbeiteten. "Wir habe ein paar große Herausforderungen bei Verfügbarkeit, Konfiguration und Verwaltung der Infrastruktur und bei der Vorhersagbarkeit allgemein", sagt Forscher Vahdat, der vorher an der University of California in San Diego arbeitete. Man hoffe nun, bei dem ein oder anderen Problem vielleicht Hilfe aus der Wissenschaft zu bekommen.

Google schafft einem Blogpost zufolge mit der aktuellen "Jupiter"-Ausbaustufe seiner Netze aus preiswerten Standardkomponenten mittlerweile mehr als 1 Petabit/s Bisection-Gesamtbandbreite. Konkreter bedeutet das, dass jeder der 100.000 Server in einem der lagerhallengroßen Google-Data-Center mit jedem anderen in einem zufälligen Muster mit 10 Gigabit/s Durchsatz kommunizieren kann.

"Cisco ist der dominierende Netzausrüster, aber das hier sagt doch in mancher Hinsicht dem Enterprise, dass große, kritische und resiliente Netze auch auf anderer Hardware laufen können", kommentiert der Forrester-Research-Analyst Andre Kindness die Google-Angaben. Cisco sieht das naturgemäß etwas anders. "Die SDN- und 'White-Box'-Bedrodhung für Cisco ist gewiss übertrieben worden", erklärte ein Firmensprecher. "Unsere Netzgeschäfte wachsen solide, und im Data Center - wo SDN am meisten diskutiert wurde - sind wir mit unserer eigenen SDN-Lösung 'Application Centric Infrastructure' übers Jahr um 200 Prozent gewachsen."

Laut IDC ist Cisco mit Abstand noch größter Anbieter von Hardware, die Computer miteinander verbindet. Der Konzern aus San Jose hatte demnach im ersten Quartal dieses Jahres in der Kategorie 10-GbE-Switches einen Marktanteil von mehr als 61 Prozent.

Google verbaut in seinen Geräten im freien Handel erhältliche Netz-Chips von Herstellern wie beispielsweise Broadcom. Und alle bisherigen fünf Generationen der Google-Netze arbeiten mit einer Struktur, die auf die Telefonnetze der 1950er Jahre zurückgeht. "Jupiter" hat mittlerweile eine 100-fach höhere Kapazität als das allererste Google-SDN "Firehose" (das nie produktiv eingesetzt wurde) - auch dank der ausgefuchsten Kontrollsoftware, mit der das Netz verwaltet wird.

Während Google "nur" Netz-Silizium aus dem Regal kauft und seine Switches damit selbst baut, greifen andere Hyperscale-Firmen auch zu kompletten "White-Box"-Switches von asiatischen Herstellern wie Quanta aus Taiwan. Letztlich liefen aber alle Anwender in diesem Bereich in die gleichen Probleme hinein, sagt Google-Forscher Vahdat. "Google war damit vielleicht ein bisschen früher konfrontiert. Die Bandbreite, die Sie im Data Center brauchen, um all ihre Daten zu verarbeiten, ist enorm und wächst weiter."

Zur Startseite