Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

21.08.1992 - 

Menschliches Versagen geringstes Übel

Top-Firmen verlieren Milliarden von Dollar durch Rechnerausfälle

FRAMINGHAM (jm) - Rund vier Milliarden Dollar müssen US-Unternehmen aus der Fortune-1000-Liste Jahr für Jahr an Umsatzeinbußen verbuchen, weil ihre Rechnersysteme zeitweise ausfallen. Neunmal durchschnittlich pro Jahr macht nach einer Untersuchung bei 450 IS-Managern aus diesem Unternehmenskreis eine der Systemkomponenten schlapp. Die frohe Botschaft: Menschen stellen den geringsten Risikofaktor dar.

Die Abteilung Strategic Research Division des Marktforschungsunternehmens Find/SVP aus New York City befragte Top-IS-Manager aus sieben Industriebereichen: Die DV-Verantwortlichen von Banken Versicherungen Produktion, Telekommunikations, Gesundheitswesen, Einzelhandel sowie Reise- und Transportwesen sollten mitteilen, einen wie großen Schaden Kollege Computer durch vorübergehende Arbeitsverweigerung anrichtet.

Gesponsert wurde die Untersuchung von der Stratus Computer Inc. aus Marlborough im US-Bundesstaat Massachusetts Hersteller fehlertoleranter Rechner und nach dem klaren Marktführer Tandem zweiter in diesem Betätigungsfeld.

Allein der Verlust an entgangenen Umsätzen, die durch Rechner-Ausfallzeiten nicht realisiert werden konnten bezifferten die Befragten auf rund 3,4 Milliarden Dollar. Je nach Branche und Gewerbe war das Martyrium der IS-Verantwortlichen beim Computerkollaps unterschiedlich erträglich: während manche Firmen pro Stunde zirka 78 000 nicht umgesetzte Dollar noch verschmerzen konnten, mußten einige Unternehmen stündlich Verluste von einer halben Million Dollar hinnehmen. Da laut den Marktforschern durchschnittlich vier Stunden verstrichen bis einem Rechnersystem wieder auf die Beine geholfen werden konnte summieren sich die ausfallbedingten Verluste eines halben Arbeitstages schnell auf siebenstellige Beträge.

Zu den reinen Umsatzeinbußen gesellen sich darüber hinaus aber noch Extrakosten: Die untersuchten Firmen zahlten für zwangsläufig untätige Arbeitskräfte 400 Millionen Dollar - immerhin fielen gemäß der Untersuchung 37,3 Millionen Stunden Müßiggang durch Computerausfälle an. Insgesamt zeichneten arbeitsunwillige digitale Arbeitskräfte also für rund vier Milliarden Dollar Folgekosten verantwortlich die durch Schäden im oder am Rechnersystem entstanden.

Höhere Anfälligkeit im Online-Betrieb über Netze

In diesen Zahlen sind dabei nicht einmal zusätzliche Aufwendungen enthalten, die Unternehmen in der Folge von Auszeiten der Rechner für erforderliche Überstunden zu leisten hatten. Immerhin 60 Prozent der befragten Unternehmen gaben an, daß ihnen solchermaßen begründete finanzielle Extrabelastungen entstünden. Fast ein Viertel (23,1 Prozent) aller Firmen beklagte darüber hinaus auch noch, daß ihnen potentielle Kunden abgesprungen seien beziehungsweise daß zusätzliche Klientel nicht hätte akquiriert werden können.

Analysten vertraten die Meinung daß die angegebenen Zahlen zutreffend wahrscheinlich sogar eher zu niedrig seien. Auf alle Fälle handle es sich um ein Problem das für Unternehmen absolute Priorität habe.

Für die Zukunft sehen drei Viertel der IS-Manager erst recht schwarz: Sie wissen daß das Problem der Rechnerausfälle immer größere Brisanz erhält. Schließlich seien sie bei der Bewältigung des Alltagsgeschäfts zunehmend auf die Rechenkünste von Computern angewiesen. Die Abhängigkeit wachse somit erheblich. Mit dem ausufernden Einsatz der oft im Online-Verkehr abgewickelten Datentransporte über große Netze erhöhe sich zukünftig zudem die Anfälligkeit von Rechnersystemen außerordentlich.

Bei der Ursachenforschung wurden die Marktforscher aus New York ebenfalls fündig: Einziger Lichtblick ihrer Untersuchungen ist daß menschliches Versagen mit Abstand das geringste Risiko darstellt. Nur bei 5,9 Prozent aller Havarien trugen menschliche Irrungen und Wirrungen zum digitalen Schwächeanfall bei.

Fast doppelt so häufig konnte der Schwarze Peter Fehlfunktionen im Netzwerk zugeschoben werden. Die eigentlich unzuverlässigen Kantonisten orteten die amerikanischen Marktforscher aber bei Software und Hardware die 22,3 beziehungsweise 24,3 Prozent des Rechnerstillstands auf ihre Kappe nehmen müssen. Am gravierendsten wirkten sich allerdings Mängel bei Massenspeicher-Laufwerken aus.

Wenn rein gar nichts mehr ging bei der DV, war in über einem Viertel (26 Prozent) aller Fälle die Peripherie schuld.

Klaus Behler, Analyst bei der Diebold Deutschland GmbH bestätigt die Brisanz der Untersuchungsergebnisse: Nach seinen Erfahrungen bei Kunden betragen die Ausfallzeiten in bundesrepublikanischen Rechenzentren bis zu zehn Prozent der gesamten monatlichen Laufzeit. Allerdings gibt es auch Unternehmen, deren Rechensystem-bedingte Durststrecke nur 0,1 Prozent der Gesamtarbeitszeit ausmacht.

Bei der Fehlersuche hat Behler eindeutig einen Sündenbock ausgemacht: "In 50 Prozent aller Ausfälle lag das Problem bei der Anwendungssoftware", also der Software die speziell für die Bedürfnisse eines Kunden geschrieben wurde etwa Lager- oder Buchhaltungsprogramme. Auch bei Soltwarehäusern gebe es nämlich "Quick-and-dirty"-Programmierer, "bei denen stimmt dann die Logik nicht und die Anschlüsse passen auch nicht" und die Perfektionisten - "bei denen dauert die Sofware-Entwicklung halt auch länger".

Die Anfälligkeit senkt sich bei der System- und systemnahen Software schon erheblich: "Die ist mittlerweile so ausgereift daß nur noch etwa zehn Prozent der Probleme auf das Konto der Betriebssystem-Software geht", so der Diebold-Mann. Noch positiver - und erheblich von der US-Untersuchung abweichend - stellt sich für Behler die Hardware dar, der man lediglich jeden 20. Zusammenbruch des Systems in die Schuhe schieben könne.

Auch bei den erratischen Potentialen der Anwender differenziert Behler: "Hier ist die Fehlerquote direkt abhängig von dem Grad der Automatisierung eines Unternehmens." Mit anderen Worten: Wo der Mensch aufgrund geringeren Computerisierungsgrades

noch direkte Einfluß Möglichkeiten auf Prozesse besitzt und damit Optionen, Fehler zu machen, da macht er sie auch.

Behler teilt hingegen die Meinung, daß mit dem vermehrten Aufkommen von PC-Netzen die Anfälligkeit von Rechnersystemen steigt. Dafür gibt es seiner Meinung nach eine einfache Erklärung: "Gegenüber der Großrechnerwelt haben sich Systemverwalter von PC-LANs noch nicht angewöhnt, ein professionelles Berichtswesen zu führen."

Management spart nicht selten am falschen Platz

Die Unternehmensberater Frost & Sullivan hatten übrigens in einer Studie über Desasterverhütung unter anderem eine Erklärung für Systemausfälle zu bieten, die indirekt doch auf menschliche Fehleinschätzungen hindeutet: Die Marktbeobachter argumentierten nämlich, einerseits seien Unternehmen heutzutage zunehmend von ihren IS-Systemen abhängig, um ihr Geschäft zu betreiben und wettbewerbsfähig zu bleiben.

Um im Business zu überleben, sei es andererseits nicht nur von eminenter Bedeutung, die Investitionen in Informationssysteme zu schützen. Vor allem aber seien Maßnahmen, die Systemausfällen vorbeugen, kostspielig. Nur zwischen den Zeilen klang hier heraus, daß falsch verstandene Sparsamkeit auf Vorstandsebene Grund für so manche einsame Stunde von verzweifelten MIS-Managern sein könnte.