Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

"...da merken die anderen,daß sie die Dummen sind."

Mit Prof. Dr. Hans W. Meuer (Universität Mannheim) sprachen die CW-Redakteure Dieter Eckbauer und Elmar Elmauer

09.06.1978

- Herr Professor Meuer, die nach der neuesten Diebold-Statistik in der Bundesrepublik installierten Universalrechner repräsentieren einen Wert von 25 Milliarden Mark. Rund zehn Prozent dieser Summe - 2,5 Milliarden Mark also - müssen bundesdeutsche Anwender überdies Jahr für Jahr für Wartung ausgeben. Sind diese erheblichen Wartungskosten überhaupt gerechtfertigt?

Kosten für Hardware-Wartung entstehen auf der einen Seite durch Behebung von Hardwarefehlern, auf der anderen Seite für regelmäßige präventive Wartung. Ziel beider Maßnahmen ist es letztlich, ein Höchstmaß an Zuverlässigkeit zu erzielen. Ihre Frage ließe sich also erst dann beantworten, falls Zahlenmaterial über die Zuverlässigkeit von Universalrechnern vorliegen würde. Aber weder die Diebold-Statistik noch andere Quellen enthalten Angaben über relevante Zuverlässigkeitsparameter wie zum Beispiel Verfügbarkeit und MTBF (meantime-between failure)-Zeit.

- Es fehlt also ein Vergleich über die Zuverlässigkeit der in Deutschland installierten Rechner? .

Ja. Und die Zuverlässigkeit, die ich hier meine, bezieht sich nicht nur auf die Hardware, sondern auf Hardware und Software. Es ist darüber hinaus auch nicht das Problem eines speziellen Computerherstellers. Aber wir müssen uns doch als Betreiber generell fragen: Was bringt eigentlich präventive Wartung, wenn wir keinen Vergleich haben, ob andere mit ähnlichen Konfigurationen weitaus weniger Wartungsaufwand betreiben und dabei vielleicht sogar durchweg bessere MTBF-Zeiten und höhere Verfügbarkeit haben?

- Welche Rolle spielt überhaupt die Software bei der Zuverlässigkeit von Computer-Systemen?

Auf der einen Seite ist die Hardware Verfügbarkeit ziemlich hochgetrieben worden, auf der anderen Seite sind aber Betriebssysteme heute komplexer. So kann man beobachten, daß viele lokale Hardwarefehler sich durch die Betriebssysteme nicht lokal halten lassen und auf Dauer sogar zu einem Systemkollaps führen können.

- Welche Art von Crash haben Sie dabei vor Augen?

Lassen Sie mich ein ganz konkretes Beispiel unseres Rechenzentrums hierzu anführen: Wir betreiben seit 1974 eine Siemens 4004/151 unter BS2000, als Paging-Device benutzen wir Trommelspeicher. Im letzten Jahr traten wiederholt Trommelfehler auf, die einwandfrei als Hardwarefehler identifizierbar waren. Bedingt durch diese lokalen Hardwarefehler wurden unvollständige Einträge im Dateikatalog induziert, die ihrerseits zu reinen Software-Systemzusammenbrüchen führten.

- Heißt das also, daß die eigentlichen Softwarefehler mehr Folgefehler waren?

Man muß das Zusammenspiel zwischen Hardware und Betriebssystem sehen Hardware allein sagt gar nichts, kein Mensch kann Universalrechner ohne Betriebssystem betreiben. Insofern muß man das als Ganzes betrachten. Deshalb meine ich auch, daß zwei Zahlen wichtig sind: die Verfügbarkeit und die MTBF Zeit bezüglich Hard- und Software. Wenn Ausfälle insgesamt kurz sind, ist die Verfügbarkeit insgesamt ziemlich hoch. Aber ärgerlich sind sie trotzdem. Denn da arbeiten dreißig, vierzig Wissenschaftler Forscher und Studenten an den Bildschirmen - dann kracht das System zusammen und die sitzen erst mal im Dunkeln vor ihren Geräten.

- Ist das eine Erfahrung, die vor allem WASCO-Mitglieder gemacht haben?

Nein, das ist ein typisches Verhalten, das hat man überall.

- Haben Sie denn selbst im Rechenzentrum der Universität Mannheim Logbuch darüber geführt und es im Hinblick auf die Zuverlässigkeit mal angeschaut?

Ja, zumal es für alle, die einen Universalrechner betreiben, üblich ist, ein Logbuch zu führen; hier sind die Betriebszeiten, die Fehlerzeit, die Systemtestzeit und all diese Dinge aufgeführt, woraus dann jeder seine Verfügbarkeit, MTBF-Zeit etc. ermitteln kann. Was aber fehlt, ist: Der Anwender weiß nicht, wie gut oder wie schlecht seine Werte im Vergleich zu anderen Installationen sind.

- Und eine Vergleichs-Statistik mit Daten vieler Installationen soll's ihm sagen?

Ja - und wir haben in Diskussionen immer wieder festgestellt, daß die Leute sehr dahinter her sind, Vergleichszahlen zu bekommen.

- Welchen Vorteil versprechen Sie sich davon?

Wenn der Anwender einen derartigen Vergleich etwa in Form einer Zuverlässigkeits-Hitliste hätte, könnte er genau feststellen ob andere, insbesondere gleichgelagerte Installationen besser liegen. Er hätte aber vor allem ein gutes Mittel gegenüber seinem Hersteller denn den kann er fragen: Wie kommt es mein Kollege hat den gleichen Typ von Computer, zur gleichen Zeit installiert, mit dem gleichen Betriebssystem und ich habe niedrigere MTBF-Werte und auch eine niedrigere Verfügbarkeit? Durch den Vergleich hätte er als Anwender Datenmaterial zur Verfügung, das seinen Hersteller zu erhöhter Aktivität anspornen wird, ich denke beispielsweise an die Verbesserung des Wartungsdienstes für den betreffenden Rechner. Darüber hinaus dürfte nicht ganz ohne Interesse für den Anwender sein wie sich die Zuverlässigkeit vergleichbarer Installationen anderer Hersteller darstellt.

- Und Sie meinen, auch ein kommerzieller Anwender wurde Interesse haben, für so eine Vergleichsliste regelmäßig Daten zu liefern?

Ja, denn hier wäre doch der Effekt genau derselbe, er kann sagen: Ich bin um hundert Punkte in der Hitliste gefallen - wieso ist es dazu gekommen?

- Der Vorteil für den einzelnen Anwender ist einsichtig. Was bringt aber ein solcher Vergleich sonst noch?

Ganz wichtig erscheint mir die Möglichkeit, anhand eines umfangreichen Zahlenmaterials wirklich interessante Fragen beantworten zu können. Etwa: Bringt es wirklich etwas, wenn ich meine vorbeugende Wartungszeit vergrößere? Um wieviel ist dann, wenn überhaupt, die Verfügbarkeit größer? Um über Probleme dieser Art Aussagen machen zu können, braucht man eben eine größere Anzahl von Installationen. Im übrigen wäre der Aufwand für die einzelne Installation äußerst gering. Es könnten die sowieso in jedem Maschinenlogbuch vorhandenen Daten verwendet werden.

- Sie haben ja in Ihren WASCO-Diskussionen die unterschiedlichen Verfügbarkeiten sicherlich besprochen: Wo lagen die anderen Anwender im Vergleich zu Ihrem Rechenzentrum?

Ich kann wiederum nur sagen, daß es sich um keine typische WASCO-Problematik handelt, sondern daß diese Fragen auch bei anderen Benutzerorganisationen eine zentrale Rolle spielen, so erst kürzlich auf der Frühjahrstagung 1978 von SHARE in Denver. Es gibt eben beträchtliche Unterschiede, und die meisten Anwender kennen nur die Daten von einigen befreundeten Installationen, um vergleichen zu können.

- Ihre Interessenlage ist klar. Aber solche Daten geben eben doch auch einen tiefen Einblick in die Organisation des einzelnen Anwenders. Meinen Sie, der läßt sich in die Karten gucken - wären Sie bereit, Ihre Werte bekanntzugeben?

Selbstverständlich, der Jahresbericht 77 des Rechenzentrums der Universität Mannheim weist eine Verfügbarkeit von 97,7 Prozent und eine MTBF-Zeit von 20,5 Stunden aus; insbesondere der letzte Wert muß meines Erachtens noch erheblich verbessert werden. Wir haben auch schon mal ein bißchen bei anderen Installationen vorgefühlt. Viele sagen natürlich: "Um Himmels willen, ich will es nicht mit meinem Hersteller verderben." Um hier mögliche Konflikte zu vermeiden, sollte man eine solche Erfassung und auch Verteilung der Ergebnisse völlig anonym durchziehen: Jeder bekommt einen Code, den man geheimhält und an dem der einzelne nur sich selbst erkennen kann.

- Das wäre doch auch eine brauchbare Aktion im Rahmen einer User Group?

Bei einer User Group haben Sie das Problem, daß es nur einen Hersteller betrifft. Da weiß man dann ganz genau, diese Zahlen sagen nur etwas über den speziellen Hersteller aus und die Anonymität des Anwenders ist letztendlich bei kleineren Gruppen auch nicht gewahrt

- Bisher fehlt ein umfassender Vergleich der Zuverlässigkeit von Universalrechnern, wir sind' daher eigentlich sehr gespannt, wie wohl die Hersteller auf so etwas reagieren würden. Daß die da großes Lob zollen werden, können wir uns nicht vorstellen.

Ich gebe zu, das ist ein heißes Eisen für die Hersteller, und ich stimme mit Ihnen überein, daß die Hersteller von einer solchen Aktion zunächst nicht sehr erbaut sein werden. Aber: Diese Aktion würde sich ja nicht gegen einen einzelnen Hersteller richten, sondern da würden doch alle Hersteller gleich benachteiligt oder bevorteilt werden - wie Sie wollen. Auf der anderen Seite ist es doch gar kein Geheimnis, daß viele Hersteller seit langem solche Daten über ihre installierten Rechner sammeln und auswerten, diese Daten jedoch ihren Kunden nicht zugänglich machen. Und schließlich können sich die Hersteller kaum ernstlich gegen eine Aktion auflehnen, die als Ziel letztlich die Steigerung der Qualität und der Zuverlässigkeit der Produkte dieser Hersteller hat.

- Es wäre zu schon, wenn sich die Hersteller diese statistischen- Aussagen über die Reliability zu Herzen nehmen würden. Aber die argumentieren doch jetzt schon immer, daß sich keine Installation mit der anderen vergleichen ließe. Und da kann ja ein Hersteller nur deshalb schlecht abschneiden, bloß weil er ein paar - in seinen Augen - stümperhafte Kunden hat.

Ich will keine Prognose wagen, wer da gut oder schlecht abschneidet. Aber Unterschiede werden sich herausschälen und zwar nicht zufällig. Ich bin davon überzeugt, daß sich eine gewisse Tendenz einspielen wird, und das wäre immerhin eine Herausforderung für diejenigen Hersteller, die schlechter stehen, sich ein bißchen mehr Mühe zu geben.

- Noch einmal zum Ausbildungsstand: Es könnte doch sein, daß der Hersteller sagt, dieser und jener Anwender produziert einfach Bedienungsfehler. Können Sie das bei so einer Statistik ausklammern?

Natürlich muß man aus Fairnessgründen gegenüber den Herstellern in so einer Tabelle auch diejenigen Fehlerursachen aufführen, die zu Systemzusammenbrüchen führten und die die Hersteller nicht zu vertreten haben. Hierzu gehören selbstverständlich die Bedienungsfehler, aber auch Strom- und Klimaausfälle. Die wenigen mir vorliegenden Daten zeigen jedoch, daß diese Fehler keine Primärrolle spielen.

- Bleibt denn so ein Vergleich objektiv aussagefähig, wenn Sie berücksichtigen, daß sehr häufig sogenannte Großkunden überall besser unterstützt werden als die Kleinen?

Aber dies soll ja gerade eine solche Vergleichsstatistik zeigen. Eine weitere interessante Frage wäre, ob gemietete Maschinen eine höhere Zuverlässigkeit als gekaufte haben oder ob wissenschaftliche Installationen schlechter wegkommen als kommerzielle.

- Nun tut jeder Hersteller von sich aus sein Möglichstes. Keiner produziert mit Absicht Fehler, aber: In der einen Niederlassung ist mehr, in der anderen weniger möglich. Da ist ein Kunde am Drücker und bekommt den Spitzentechniker und...

. . . da merken aber die anderen, daß hier Prioritäten gesetzt werden und daß sie die Dummen sind.

- Herr Professor Meuer, insgesamt scheint uns das Thema Zuverlässigkeit noch nicht genügend öffentlich diskutiert. Wir werden uns daher als Fachzeitschrift überlegen, wie wir etwas Licht in dieses noch dunkle Kapitel bringen können, etwa in Form einer Zuverlässigkeitsbörse.

Dies wäre eine längst fällige Aktion, von der insbesondere auch der einzelne Anwender viel profitieren würde. Hoffentlich nehmen genügend Installationen daran teil. Einen Teilnehmer hätten Sie auf jeden Fall sicher: der wäre nämlich des Rechenzentrum der Universität Mannheim.