Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

12.03.2009

Richtig verkabeln - falsch gespart wird teuer

LANs sind die Lebensadern moderner Unternehmen. Wird hier bereits beim Verkabeln geschlampt, sind Probleme mit Echtzeit- oder Multimedia-Anwendungen programmiert.

Sie liegen gut verborgen in Unterböden oder Zwischendecken und werden oft vergessen. Dabei sind die Kupfer- und Glasfaserkabel die zentralen Informationskanäle in der vernetzen Arbeitswelt und Gesellschaft. Egal ob Voice over IP, Video on Demand, Echtzeitanwendungen für Verkauf und Produktion – ohne eine leistungsfähige Infrastruktur, die mittlerweile Daten im Gigabit-Tempo weitertransportieren muss, funktioniert nichts.

Die Ws der Netzplanung

  • Welche Technologie ist aktuell?

  • Welche Technologie wird in Zukunft (global) eine Rolle spielen?

  • Welche Technologie bietet die erwartete Sicherheit?

  • Welche Verkabelung ist wo und wann sinnvoll, oder genügt ein Wireless LAN?

  • Was kostet die jeweilige Lösung über die gesamte Nutzungszeit?

  • Wie passen die langfristigen strategischen IT-Pläne zur Infrastruktur?

Vor diesem Hintergrund erscheint es unverständlich, warum gerade das Thema Verkabelung so stiefmütterlich behandelt wird. Aber vielleicht liegt es wirklich daran, dass sich viele IT-Entscheider darüber keine Gedanken mehr machen –denn Büroimmobilien werden heute ja mit passiver LAN-Infrastruktur vermietet. Diese Laissez-faire-Haltung rächt sich spätestens dann, wenn die Infrastruktur angesichts neuer Anforderungen wie 10- Gigabit-Ethernet über Kupfer, IP-Multimedia-Services oder etwa Power over Ethernet schlapp macht, weil bei der Installation am falschen Ende gespart wurde. Grundsätzlich sollte eine Netzplanung so aussehen, dass die Kabel auch bei steigenden Anforderungen für die nächsten zehn bis 20 Jahre genügend Reserven bieten.

Das Ethernet lernt Strom sparen

Stromsparen dient nicht nur der Umwelt, sondern senkt auch die Kosten im Rechenzentrum. Doch während die Server mit viel Aufwand optimiert werden, holt sich mancher IT-Verantwortliche an anderer Stelle neue Stromfresser ins Haus – etwa mit 10-Gigabit-Ethernet über Kupfer. Die hierzu erforderliche Elektronik, zum Beispiel für Fehlerkorrektur, ist heute so leistungshungrig, dass sie nicht ohne Lüfter auskommt.

Das US-amerikanische Normierungsgremium IEEE arbeitet deshalb unter der Bezeichnung "IEEE 802.3az" an einer Erweiterung der Ethernet-Standards um das "Energy Efficient Ethernet". Die Idee dahinter ist, dass ein LAN-Port nur noch dann Strom verbraucht, wenn auch wirklich gerade Daten übertragen werden. Im Leerlauf sollte er einen Energiebedarf von annähernd null Watt aufweisen. Damit hält im LAN ein Gedanke Einzug, der im Carrier-Umfeld bei den DSL-Zugängen bereits verwirklicht ist: So verfügt ADSL2/2+ genau über eine solche Stromsparfunktion, die im DSL-Modem und im DSLAM den Energieverbrauch senkt, wenn keine Daten übertragen werden, die Geräte also in eine Art Schlafmodus schickt. Beim Energy Efficient Ethernet sollen nun die Daten in möglichst kurzer Zeit mit höchster Geschwindigkeit übertragen werden. Danach soll der Port in einen Schlafzustand verfallen. Steht eine neue Übertragung an, werden die beteiligten Kommunikations-Ports mit einem Wecksignal wieder in den aktiven Übertragungsmodus versetzt. Branchenkenner rechnen jedoch erst 2010 mit einer Verabschiedung der IEEE-Norm 802.3az. Zudem müssen die Anwender hier erst einmal kräftig investieren. Energy Efficient Ethernet funktioniert nur, wenn beide Endpunkte einer Verbindung einem Upgrade unterzogen werden – also etwa ein Switch-Port und der Netzwerk-Port eines Rechners.

Dabei beginnt – was viele nicht wissen – aufgrund der deutschen Vorschriften eine solide Netzplanung schon vor dem Bau eines Bürogebäudes. Wer nämlich später, etwa bei 10-Gigabit-Ethernet über Kupfer, geschirmte Kabel einsetzen will, muss die Schirmung mit dem Erdpotenzialausgleich des Gebäudes verbinden. Im Gegensatz zu früher genügt hierfür ein einziger Punkt nicht. Deshalb ist beispielsweise bereits beim Bau darauf zu achten, dass die Stahlmatten elektrisch miteinander verbunden (also etwa verschweißt) werden, um später möglichst viele Punkte für einen Potenzialausgleich errichten zu können.

Alternative WLAN?

Vergesst die teure Verkabelung, nutzt einfach WLANs – die Empfehlung ist immer wieder zu hören, besonders wenn die Markteinführung einer neuen lokalen Funktechnik bevorsteht. Anlässlich der Einführung des neuen IEEE-Standards 802.11n, der nun mit nutzbaren Datenraten auf Fast-Ethernet-Niveau aufwarten soll, ist nun wieder – vor allem von amerikanischen WLAN-Propagandisten – zu hören, dass der Anwender sich doch seine teure LAN-Kabelstruktur sparen könne. Funktechnik sei nicht nur viel flexibler, sondern reduziere auch die Kosten. Die Argumentationskette trifft in Europa aber aus mehreren Gründen nur bedingt zu:

  • Die europäische Massivbauweise kann die Ausbreitung von Funkwellen behindern,

  • in den Ballungsräumen stören sich die WLANs häufig gegenseitig,

  • ein Teil der Funkfrequenzen unterliegt Beschränkungen.

Zudem weist die WLAN-Technik per se einen größeren Protokoll-Overhead auf der Luftschnittstelle auf, um eine störungsfreie Übertragung sicherzustellen. Diese Gründe und die Tatsache, dass die kabelgebundenen LANs dem Funk in Sachen Geschwindigkeit (10 Gigabit Ethernet über Kupfer) immer eine Nase voraus sind, führt dazu, dass hierzulande die meisten Experten WLANs lediglich eine Overlay-Funktion zusprechen. Sie ergänzen also die klassische Infrastruktur, ersetzen diese aber nicht. Ein Alleinstellungsmerkmal wird dem Funk lediglich in Bereichen zugebilligt, wo eine klassische Verkabelung nicht oder nur mit hohem Kostenaufwand (etwa Gebäude unter Denkmalschutz) zu realisieren ist.

Netzplanung beginnt im Rohbau

Ebenfalls bereits im Rohbau wird der Grundstein für einen anderen Teil der Netzinfrastruktur gelegt – die Schächte für Steigleitungen (siehe Seite 6 "Flexibel dank fester Struktur"). Entweder werden diese sehr geräumig konzipiert, oder es muss hier später zwangsläufig zur Glasfaser gegriffen werden. Da in diesem Bereich Geschwindigkeiten im Gigabit-Ethernet-Bereich genutzt werden, muss der Anwender nämlich die physikalischen Feinheiten der Hochfrequenztechnik berücksichtigen. Nur ein Beispiel: Bei 10-Gigabit-Ethernet, das auch über ungeschirmte Kabel realisierbar ist, treten bereits Frequenzen von bis zu 500 Megahertz auf. Entsprechend groß ist die Gefahr eines "alien crosstalk" (Übersprechens). Deshalb schreiben die Verlegevorschriften auch einen ausreichend großen Abstand zwischen zwei 10-Gigabit-Ethernet-Kabeln vor.

Vorsicht Starkstrom

Das gilt auch gegenüber Starkstromkabeln, da diese häufig als Störer fungieren. So weit die Theorie – weil in der Praxis diese Anforderungen aufgrund der beengten Verhältnisse in den Steigschächten in der Regel nicht zu erfüllen sind, führt hier eigentlich kein Weg an Glasfasern vorbei. Apropos Kabelschächte: Im Alltag sind immer wieder schön geordnete Kabelbündel anzutreffen, bei denen die Ethernet-Kabel parallel zueinander geführt werden. Das sieht zwar ordentlich und strukturiert aus, ist aber hinsichtlich der Übertragungssicherheit kontraproduktiv. Um ein Übersprechen möglichst wirkungsvoll zu vermeiden, müssten die Kabel dieser Stränge eigentlich miteinander verseilt werden.

Ein anderer oft zu beobachtender Fehler betrifft die Nutzung der Kabel auf Etagenebene: Um Kosten zu sparen, wird ein zum Arbeitsplatz geführtes EthernetKabel, das in der Regel aus vier Aderpaaren besteht, gleich für mehrere Dienste verwendet: Zwei Paare für das Ethernet, ein Paar für das Telefon und womöglich noch ein Paar zur Gebäudeautomation. Die Vorteile scheinen auf den ersten Blick auf der Hand zu liegen. Es wird Kabel gespart, und in den Leitungskanälen entsteht keine drangvolle Enge. Doch diese Sparsamkeit kann teuer werden, wenn eine Migration auf schnellere Ethernet-Standards ansteht. Während 10-Mbit/s-Ethernet noch über zwei Adernpaare definiert ist und für das 100 Mbit/s schnelle Ethernet mit 100Base-T2 sowie 100Base-TX noch zwei Normen für jeweils zwei Adernpaare existieren, erfordert bereits Gigabit Ethernet die Verwendung aller vier Paare.

Am falschen Ende spart auch, wer zu dünne Kabelquerschnitte wählt. Diese reichen zwar für Datenübertragungen via Ethernet aus, eng wird es spätestens dann, wenn im Zuge eines VoIP- oder WLAN-Projekts die Einführung von Power over Ethernet (PoE) ansteht. Selbst wenn hier nur geringe Energiemengen (15,4 Watt bei 802.3af) übertragen werden und beim kommenden PoE-Standard 802.3at dann 60 Watt möglich sind, muss der Kabelquerschnitt groß genug sein, um eine Erwärmung der Kabel und damit eine mögliche Brandgefahr auszuschließen.

Fazit

Die Frage nach dem Kabelquerschnitt oder die Diskussion darüber, ob nun eine verflochtene Abschirmung besser ist als eine Folienabschirmung, ist nicht sexy und selten geeignet, sich bei Manager-Kollegen Ansehen zu verschaffen. Dennoch sollte das Thema Kabel bei der strategischen IT-Planung nicht vergessen werden. Muss später nachgebessert werden, wird es schnell teuer, oder eine Migration auf neue Techniken ist womöglich verbaut.