Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

16.12.2005

Infiniband wird reanimiert

Infiniband galt lange als schneller Nachfolger des PCI-Bus, wurde dann aber nur mehr im High-Performance-Computing eingesetzt. Jetzt scheint sich das I/O-System doch noch im kommerziellen Umfeld zu etablieren.
Die Infiniband-Fabric liefert Punkt-zu-Punkt-Verbindungen zu allen angeschlossenen Komponenten, die aus Sicherheitsgründen auch doppelt ausgelegt sein können.
Die Infiniband-Fabric liefert Punkt-zu-Punkt-Verbindungen zu allen angeschlossenen Komponenten, die aus Sicherheitsgründen auch doppelt ausgelegt sein können.

Bereits Mitte 2000 legte die Infiniband Trade Association (IBTA) die erste Spezifikation der I/O-Schnittstelle vor, die zukünftig in Servern, Speichern und Netzgeräten für mehr Datendurchsatz sorgen sollte. Damals konnte sich Infiniband im Massenmarkt aber nicht durchsetzen, weil die Schwergewichte Intel und Microsoft ihre Entwicklung und Unterstützung dafür weitgehend einstellten und stattdessen den PCI-X-Bus favorisierten. Infiniband wurde zum Nischenprodukt - allerdings in prominentem Umfeld: Das High-Performance-Computing (HPC) entdeckte die Vorzüge der Architektur und koppelte über Infiniband Server zu Cluster-Verbünden.

Mehr zum Thema

www.computerwoche.de/go/

550852: US-Ministerium fördert Open-Source- Infiniband;

540969: Klippen auf dem weg zum Cluster;

1206783: IBM will Leistungssprung für Blades.

Die Vorteile von Infiniband

• Punkt-zu-Punkt-Verbindungen zu den angeschlossenene Komponenten und deshalb kein Flaschenhals, gute Skalierbarkeit und hohe Ausfallsicherheit;

• hoher Datendurchsatz von 10 Gigabit/s und mehr;

• Verwendung von Kupfer- und Glasfaserkabeln möglich;

• breites Einsatzgebiet: innerhalb von Servern und Blade-Systemen, Kopplung von Rechnern zu Cluster, Anbindung von Speicher an die Cluster ohne zusätzliches Fibre-Channel-Netz;

• kostengünstiger als Fibre Channel.

Raus aus der Nische

Jetzt scheint die Schnittstelle aus dem wissenschaftlich-technischen Bereich in den kommerziellen Markt zurückzukehren. Die IBTA hat mittlerweile über 70 Mitglieder und arbeitet an Spezifikationen, die Durchsatzraten von bis zu 120 Gigabit/s ermöglichen sollen. In Zukunft wird Infiniband nach Meinung der IBTA nicht nur zur Rechnerkopplung verwendet werden, sondern auch Speichergeräte mit Servern und Clustern verbinden und Blade-Rechnern mehr I/O-Bandbreite verschaffen. Zudem lässt sich die Schnittstelle auch im Rechner für einen schnellen und verzögerungsarmen Datentransfer zwischen Prozessor und I/O-System nutzen.

Infiniband ist ein Konzept für die schnelle Datenkommunikation, das nicht als Bus, sondern als "switched fabric" entworfen wurde. Es basiert auf Punkt-zu-Punkt-Verbindungen, die voll duplex kommunizieren und je Leitung eine Transferleistung von 2,5 Gigabit in der Sekunde liefern. Durch Bündelung der Kanäle erreicht man derzeit eine Geschwindigkeit von 10 ("4X") bis 30 ("12X") Gigabit/s. Zum Vergleich: Die neueste Version des Fibre Channel bietet eine Transferrate von lediglich 4 Gigabit/s.

Die angeschlossenen Komponenten sind über den I/O-Switch verbunden. Die komplette Architektur besteht aus dem Host Channel Adapter (HCA), dem Target Channel Adapater (TCA), dem Switch und dem Router. Jede Komponente hat mindestens einen Port, über den sie mit einer anderen verbunden ist. Der Switch erlaubt den Aufbau von Multi-Punkt-Verbindungen. Die Datenübertragung erfolgt paketorientiert, wobei jedes Datenpaket eine Länge von 4096 Bytes aufweist. Als Übertragungsmedium können Kupfer- und Lichtwellenleiter verwendet werden.

Neue Einsatzgebiete

Zusätzlich zu dem schon bewährten Einsatz von Infiniband zum Aufbau von Clustern im HPC-Bereich tauchen jetzt neue Anwendungen auf. So will beispielsweise IBM 2006 ein neues Gehäuse für die Blade-Server auf den Markt bringen, dessen Backplane Daten mit bis zu 40 Gigabit in der Sekunde transferiert und damit für Infiniband-Umgebungen geeignet ist. Big Blue hat zudem im Rahmen der Campus-Forschung "Extreme Blue" unter anderem das Entwicklungsprojekt "Infiniband Onloading for Microprocessors" aufgelegt. Gesucht wird ein neuer Kommunikationsweg, der nicht mehr über den Hauptspeicher, sondern über den näher am Prozessor befindlichen Cache-Speicher führen soll.

SGI nutzt die schnelle Interconnect-Lösung für die Kopplung von Speicher und Server: Die Company stellte im November 2005 auf der Supercomputing-Messe "SC05" in Seattle eine Server-to-Storage-Lösung vor, bei der das Disk-Array "TP0700" über eine Infiniband-Schnittstelle nativ an die Infiniband-Fabric angeschlossen und darüber mit einem Cluster verbunden wird.

Fibre Channel eingespart

SGI erwartet sich neben dem Geschwindigkeitsvorteil hauptsächlich eine Vereinfachung bei der Speicheranbindung an ein Infiniband-Cluster. Bislang mussten die Speicher mit Fibre-Channel-Platten wegen der Protokollkonvertierung entweder über ein Gateway an die Infiniband-Fabric angebunden oder ein eigenes FC-Netz aufgebaut werden. Die Company erwartet, dass sich für eine solche Lösung auch Firmen aus dem kommerziellen Umfeld interessieren, die mit großen Datenbergen kämpfen.

Das Herzstück der SGI-Lösung liefert Engenio (vormals LSI Logic) mit dem Controller und dem modular aufgebauten Array "6498" mit nativer Infiniband-Unterstützung. Die "dual-active" Raid-Controller liefern vier Kanäle mit einer Transfergeschwindigkeit von jeweils 10 Gigabit/s. Auf Laufwerksseite können bis zu 224 Platten vom Typ Fibre Channel oder SATA (serial ATA) angeschlossen werden.

Die Anbindung von Speichern an Server-Cluster verspricht ein lukrativer Marktzu werden, denn derzeit geht etwa die Hälfte der neu ausgelieferten Festplattenkapazitäten an solche Rechnerverbünde. Falconstor, Spezialist für Speichersoftware, und Voltaire, Entwickler von Hardware-Infrastrukturlösungen für Grid-Computing, wollen sich von diesem Markt ebenfalls ein Stück einverleiben. Auch sie liefern eine Speicherlösung mit nativer Infiniband-Unterstützung.

iSCSI über Infiniband

Voltaire, an dem unter anderem Hitachi und Quantum beteiligt sind, hat für seine Produkte das "iSER"-Protokoll entwickelt, das iSCSI über Inifiniband möglich macht. Zusammen mit Falconstors Replikations-, Backup- und Recovery-Software "IPstor" sollen sich heterogene Speicherumgebungen über ein Protokoll und eine Management-Infrastruktur aufbauen lassen, die mit Transferraten von 10 Gigabit/s arbeiten und "billiger als Fibre-Channel" zu betreiben sind.

Voltaire ist auch Begünstigter eines Open-Source-Programms, das das US-Department of Energy (DOE) aufgelegt hat. Das Ministerium vergab an Intel, Voltaire und Topspin den Auftrag, eine einheitliche Software für den Einsatz von Infiniband auf Open-Source-Rechnern zu entwickeln und der "OpenIB"-Allianz zur Verfügung zu stellen.