Mittelstand schlecht ausgestattet

Hochverfügbarkeit im Netzwerk

Fachredakteur bei dieleutefürkommunikation  
Das Thema Hochverfügbarkeit im Netzwerk wird in vielen Unternehmen immer noch sehr stiefmütterlich behandelt. Meist geht dies solange gut, bis eine Netzwerk-Komponente tatsächlich ausfällt.

Laut einer Studie von CIO Insight kommen kostspielige und rufschädigende Ausfallzeiten in Unternehmensnetzwerken relativ häufig vor: 57 Prozent der befragten Firmen berichteten von mindestens einem Ausfall innerhalb der letzten drei Monate. Wolfgang Mair arbeitet als Netzwerk-Experte für die mip Management Informationspartner GmbH und gibt Einblicke in das komplexe Thema fehlertoleranter Netzwerk-Architekturen.

Die Bezeichnung Hochverfügbarkeit geht vor allem mit den beiden Begriffen Redundanz und Diversität einher. Ersteres meint die mindestens zweifache Ausführung von Netzwerk-Komponenten bzw. auf allen Netzwerkebenen mindestens einen alternativen Kommunikationsweg. Diversität bezieht sich auf den Einsatz von Software verschiedener Anbieter, da es unwahrscheinlich ist, dass beispielsweise Schwachstellen in Firewalls durch die unterschiedlichen Malware-Verzeichnisse der Hersteller in beiden Lösungen gleichzeitig auftreten.

Cloud wird immer wichtiger, aber als sicher gilt sie noch lange nicht.
Cloud wird immer wichtiger, aber als sicher gilt sie noch lange nicht.
Foto: mip Management Informationspartner GmbH

Hochverfügbarkeit von Beginn an planen - und testen

"Oft wird aber in den Firmen nicht im Sinne der Hochverfügbarkeit gehandelt", konstatiert Mair. "So wird etwa ein Etagenverteiler nicht doppelt verbaut - oder die zweite Firewall liegt bereit zur Installation, aber niemand hat oder nimmt sich Zeit für die Einrichtung." Tritt dann zum Beispiel beim Update der installierten Firewall ein Fehler auf, steht das komplette IT-System ohne die zweite Firewall plötzlich ohne Schutz da - ein gefundenes Fressen für Cyber-Kriminelle. Die häufigsten Gründe für eine Downtime sind dabei der Ausfall der Energieversorgung (75 Prozent), Hardware-Fehler (52 Prozent) und menschliches Versagen (35 Prozent), so eine andere Studie.

"Die Redundanz wird dabei leider selten zu Ende gedacht", so Mair. "Viel schlimmer wiegt allerdings, dass sie häufig nur in der Theorie besteht und gelegentlich bis gar nicht getestet wird, sei es aufgrund falscher Planung, mangelnden Budgets oder fehlender Zeit." Denn erst in sogenannten 'Blackhouse-Tests' zeigt sich, inwieweit die IT-Infrastruktur einen Stromausfall verkraftet und ob die Backup-Systeme sowie Generatoren überhaupt anspringen - in der Praxis geschieht dies eben oft nicht.

Mittelstand erkennt allmählich seine IT-Abhängigkeit

Ausreden wie Kosten- oder Zeitgründe sollten in kritischen Unternehmensbereichen eigentlich keine Rolle spielen. Große Konzerne sind hier wesentlich reifer im Umgang mit hochverfügbaren IT-Infrastrukturen, da deren Bedeutung unternehmensweit klar ist.

"Im Mittelstand dagegen sieht es in Sachen Hochverfügbarkeit noch um einiges schlechter aus", stellt Mair fest. Das erstaune ihn immer wieder, denn die Schäden einer Downtime können Existenzen bedrohen. Über zwei Drittel der in einer Studie befragten Firmen verlieren bei einer Downtime über 20.000 US-Dollar pro Tag. Die Mittelständler begreifen erst allmählich, wie essenziell ihre IT-Infrastruktur für ihr Tagesgeschäft geworden ist, um etwa Produktions- bzw. Geschäftsprozesse am Laufen zu halten. Mair: "Heute reicht eben nicht mehr ein Schrank mit Rechner in der Abstellkammer. Die meisten Mittelständler müssen jetzt ein eigenes kleines Rechenzentrum betreiben."

Zur Startseite