Networking im Data-Center

Das moderne Netzwerk ist flexibel

05.01.2022
Anzeige  Neue Technologien wie KI und Deep Learning erhöhen den Druck auf die Rechenzentren, ihre Infrastruktur neu zu organisieren. Eine immer wichtigere Rolle kommt dabei dem Netzwerk zu, das sich flexibel und intelligent an die jeweilige Anwendung anpassen muss.

Die Anforderungen an Rechenzentren steigen derzeit enorm an. Weltweit entstehen neue Anwendungen in den Bereichen Künstliche Intelligenz (KI), Deep Learning und High-Performance-Computing (HPC). Denn die Unternehmen setzen KI in immer mehr Bereichen ein. So ermöglichen KI-Systeme beispielsweise eine Personalisierung des Marketings oder einen Kunden-Support durch virtuelle Assistenten, sie bilden die Basis für Empfehlungssysteme und die Gesichtserkennung. Deep-Learning-Anwendungen suchen in riesigen Datenpools, bestehend aus Millionen von Videos, Fotos, Audiodateien und Dokumenten, nach Mustern. HPC hat Wettervorhersagen und Strömungssimulationen im Flug- und Fahrzeugbau in den vergangenen Jahren zu einer zuvor ungeahnten Präzision verholfen.

Neue Anwendungen schaffen neue Herausforderungen

Diese neuen Aufgabenstellungen lassen sich mit herkömmlichen Anwendungen, die auf einem einzigen Computersystem eingerichtet sind, schon lange nicht mehr bewältigen. An ihre Stelle sind verteilte Applikationen getreten, die sich über mehrere Hardware-Instanzen und Geräteklassen hinweg im Rechenzentrum ausbreiten. Das wiederum erfordert eine veränderte Organisation der Rechenzentren: Ihre Infrastruktur muss heute flexibel sein und sich an die Struktur der Anwendungen anpassen. CPUs, auf KI spezialisierte GPUs, Arbeitsspeicher und Storage müssen sich in immer neuen Konfigurationen und auf verschiedenen Performance-Leveln miteinander verbinden. Das bedeutet jedoch zugleich einen deutlich erhöhten Managementaufwand für die Verantwortlichen in den Rechenzentren. Bewältigen lässt sich die zusätzliche Arbeit durch eine verstärkte Automatisierung und die zentrale Steuerung der Ressourcen im Data-Center.

Leerlaufphasen verhindern

Doch damit nicht genug: Für die Verbindung der verschiedenen Komponenten, die für eine verteilte Anwendung zusammengeschaltet werden, müssen Rechenzentren mit Hochgeschwindigkeits-Netzwerken ausgestattet werden. Ansonsten kommt es zu dem Effekt, dass zwar beispielsweise die eingesetzten CPUs und GPUs eine hohe Rechenleistung bieten. Da allerdings aufgrund mangelnder Performance der Netzwerkverbindungen die Daten nicht in ausreichender Geschwindigkeit übermittelt werden können, entstehen durch die Wartezeiten regelmäßig Leerlaufphasen. CPUs und GPUs könnten in diesem Szenario also deutlich effektiver arbeiten, es fehlt ihnen jedoch immer wieder der Datennachschub.

Die Infiniband-Switches der SB7800-Reihe von Nvidia bieten bis zu 36 voll bidirektionale Ports. Sie sind sowohl in einer Managed-, wie auch in einer extern gemanagten Version verfügbar.
Die Infiniband-Switches der SB7800-Reihe von Nvidia bieten bis zu 36 voll bidirektionale Ports. Sie sind sowohl in einer Managed-, wie auch in einer extern gemanagten Version verfügbar.
Foto: PNY

Hohe Übertragungsraten, niedrige Latenz

Die intelligente Netzwerk-Hardware von Nvidia tritt an, um Rechenzentren bei der Bewältigung dieser Herausforderungen zu unterstützen. Sie basiert auf der Technik von Mellanox, einem israelisch-amerikanischen Hersteller von Netzwerkkomponenten, der 2020 von Nvidia übernommen wurde. Seit Juni 2021 ist PNY Technologies Distributor der Infiniband- und Ethernet-Switches, -Adapter und -Kabel von Nvidia im EMEA-Raum.

Dank der langjährigen Erfahrung von Mellanox ist Nvidia im Bereich Infiniband heute einer der weltweit führenden Hersteller. Die Infiniband-Technik richtet sich vor allem an Betreiber von Rechenzentren und Cloud-Anbieter, aber auch an Unternehmen, die besonders hohe Anforderungen an die Datenübertragung zwischen ihren Servern oder im Netzwerk haben. Produkte wie die Switches der SB7800-, CS7500- und der SB7780/7880-Reihen von Nvidia erreichen Übertragungsraten von bis zu 400 Gbit/s und zeichnen sich durch niedrige Latenzzeiten aus.

Das Gleiche gilt für die Infiniband-Netzwerkadapter der ConnectX-Reihen von Nvidia, auch sie kommen auf Performance-Raten bis hin zu 400 Gbit/s. Durch den kombinierten Einsatz dieser Switches und Adapter ist gesichert, dass es zu keinen Engpässen bei der Datenübertragung kommt und keine Leerlaufphasen entstehen.

Der intelligente Infiniband-Adapter ConnectX-5 ermöglicht den Betreibern von Rechenzentren den Aufbau einer flexiblen Netzwerkinfrastruktur mit hoher Performance und niedrigen Latenzzeiten.
Der intelligente Infiniband-Adapter ConnectX-5 ermöglicht den Betreibern von Rechenzentren den Aufbau einer flexiblen Netzwerkinfrastruktur mit hoher Performance und niedrigen Latenzzeiten.
Foto: PNY

Nvidia setzt jedoch nicht ausschließlich auf Infiniband-Technik, sondern bietet seinen Kunden parallel dazu auch Ethernet-Produkte an, die für den Einsatz im Rechenzentrum optimiert sind. Dazu zählen die Switches der Mellanox-Spectrum-Reihen SN2000, SN3000 und SN4000 sowie die Modelle der Reihe Nvidia AS5812. Bei der Geschwindigkeit stehen sie den Infiniband-Switches nicht nach und leiten die Daten ebenfalls mit bis zu 400 Gbit/s im Netzwerk weiter.

Im Zusammenspiel mit den Mellanox-LinkX-Kabeln entsteht mit den Infiniband- und Ethernet-Switches von Nvidia/Mellanox eine effektive Rechenzentrum-Infrastruktur, die sich intelligent an wechselnde Anwendungen und Anforderungen anpasst und mit hoher Performance und niedriger Latenz dafür sorgt, dass Applikationen schneller und effektiver ausgeführt werden.

Hier erfahren Sie mehr!

Zur Startseite