Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

28.07.1978 - 

,,Logbuch-Daten geben

Mit Jürgen Schwab, Hans Schmid und Klaus Puder vom Siemens-Geschäftsbereich

Hans Schmid,

Jahrgang 1936, ist Dipl.-lng. der Nachrichtentechnik und Dipl.-Wirtschaftsingenieur. Er gehört der Siemens AG seit 1982 an. Schmid war von Anfang an einer der Verfechter der Idee, daß Betriebssysteme analog zu Hardware-Produkten über die Kundendienst-Organisation zu betreuen sind. Inzwischen ist Schmid selbst zum Leiter des System-Software-Kundendiensts bei Siemens avanciert.

Jürgen Schwab,

Jahrgang 1925, leitet als Direktor die Hauptabteilung Service im Geschäftsbereich Datenverarbeitung der Siemens AG. Der Mathematiker Schwab - lic. es sc. mat. - stieß 1955 zu Siemens. Er war einer der ersten Software-Experten, die im Konzern am Aufbau der Computer-Aktivitäten mitarbeiteten.

Klaus Puder,

Jahrgang 1936 und Leiter des technischen Kundendienstes im Geschäftsbereich Datenverarbeitung der Siemens AC hat seine Erfahrungen beim untergegangenen

US-Hersteller RCA gesammelt. Der Diplomingenieur der Nachrichtentechnik ist vor allem ein Mann der Front, der die praktischen Probleme des EDV-Mannes aus unmittelbarer Anschauung im Feld kennt.

þDas von der Computerwoche aufgegriffene Thema "Präventive Wartung - zu teuer bezahlt?" sowie die geplante "Zuverlässigkeits-Börse" reizen den Vertrieb des Siemens-Geschäftsbereiches Datenverarbeitung zu Kommentaren. Sie sind der Meinung, daß sich die Frage "vorbeugende Wartung zu teuer bezahlt", so nicht stelle ....

Schwab: Ja, denn Sie haben angegeben, daß in der Bundesrepublik die Wartungsgebühren jährlich zehn Prozent des installierten Anlagenwertes betragen. Das erscheint uns relativ hoch.

þWie hoch liegen denn die Siemens-Wartungssätze?

Puder: Das können Sie leicht nachprüfen. Wir haben ja Preislisten und danach liegen wir gut unter fünf Prozent

þFünf Prozent wovon?

Puder: Fünf Prozent vom Neuwert bezogen auf den Kaufpreis. Das hängt aber auch von der Größe einer Anlage ab Sie haben bei vielen kleinen Anlagen im allgemeinen mehr Wartungsaufwand als bei wenigen großen.

þAber generelle Aussage ist: Fünf Prozent vom Kaufpreis?

Puder: So generell kann man das nicht sagen. Terminals haben zum Beispiel höhere Wartungspreise als Zentraleinheiten. Fünf Prozent sind eben ein Durchschnitt.

þDie Computerwoche hat aber nicht einfach behauptet, die Wartung sei zu teuer. Sondern wir haben gefragt, ob Präventiv-Wartung zu teuer bezahlt also gewissermaßen Luxus sei. Weil sich für uns und die Anwender die Frage stellt: Erreiche ich durch mehr Präventiv-Wartung mehr Verfügbarkeit als wenn ich darauf verzichte?

Schwab: Wenn Sie Präventiv-Wartung nicht in ausreichendem Maße betreiben müssen Sie desto mehr in die Entstör-Wartung investieren. Was letzten Endes dazu führt, daß die Wartung überhaupt

zeitintensiver wird: Man muß dann nämlich kumulierte Fehler suchen, die sonst zum Teil - durch Präventiv-Wartung schon vorher ausgeschaltet worden wären

þDas sagen Sie so.

Schwab: Dies ist eine Erfahrung. Mehr Präventiv-Wartung, weniger Entstör-Wartung; oder viel Entstör-Wartung : wenn zu wenig Präventiv-Wartung. Das ist eine Hyperbel-Funktion, wobei es sicherlich, wie überall im Leben, darum geht, das rechte Maß zu finden

þWobei dem Anwender nichts anderes übrigbleibt, als der Erfahrung des Herstellers zu glauben. Hier soll die Zuverlässigkeits-Börse Vergleiche liefern.

Schwab: Sie sagen so einfach Vergleiche Das heißt ja aber auch messen Welche Werte wollen Sie heranziehen? Ich möchte aus Ihrer eigenen Zeitung zitieren. daß sich jede einzelne Installation deutlich von den anderen unterscheidet daß also notgedrungen immer Äpfel mit Birnen verglichen würden....

þImmerhin könnte man sich auf den gemeinsamen Vitamingehalt beschränken..

Schwab: . . nur gibt es in der Thematik Computer-Zuverlässigkeit eine Vielzahl, von Einflußgrößen: Da gibt es auf den Hersteller bezogene, auf den Kunden bezogene. Da gibt es Umweltfakoren, Einflüsse durch unterschiedliche Konfiguration; dann müssen Sie unterschiedliche Belastungen berücksichtigen, an die Redundanz als wesentliche Größe in der Elektronik, in der Mechanik oder an die unterschiedliche Qualität bei den Datenträgern denken. Allein bei der Umwelt sind weder Stromversorgung noch Klima zu unterschätzen; dann kommen das Operating und last not least die Wartung dazu - darüberhinaus in verstärktem Maße auch Postdatenverarbeitungs-Fragen. Wenn Sie für die einzelnen Geräte die meantimes between failure zusammenfassen, ergibt das für ein Gesamtsystem eine kleinere meantime between failure, die aber nicht zur Geltung kommt, wenn ausreichend Redundanz vorhanden ist. Und dann bleibt schließlich das zentral ungelöste Problem der Gewichtung der einzelnen, sehr unterschiedlichen Einflußgrößen, die noch dazu von Fall zu Fall, vom Anwender aus beurteilt, sehr verschieden ausfallen kann und wird.

þNun haben Sie hier Punkt für Punkt abgehakt Sie haben zugleich aber von einer Hyperbelbeziehung gesprochen und ihr gegenübergestellt, daß man letzten Endes, auf Grund der vielen Einflußfaktoren, die Zuverlässigkeit nur schwer präzise messen und vergleichen könne. Das klingt so, als habe Siemens vor dem Problem der Verfügbarkeits-Messung kapituliert. Nur ist zu fragen, wie Sie dann die Behauptung aufrechterhalten können, mehr Präventiv-Wartung bedeute weniger Entstör-Wartung

Schwab: Dies ist eine Trendaussage. Wir haben selbstverständlich festzustellen versucht, ob es Trends gibt, wenn man in der Präventiv-Wartung beispielsweise statt eines wöchentlichen Turnus einmal den vierzehntägigen Turnus versucht. Solche Trends versuchen wir zu ermitteln und in Verbesserungen umzusetzen, was nicht allein auf mathematisch expliziter Formel basiert, sondern auch auf breiter Erfahrung und was bei den vielen Parametern auch ein Abtasten bedeuten kann.

Puder: Sie wissen, daß wir an jeder unserer Anlagen ein Kundenlogbuch haben, das wir dreifach benutzen: Zu Abrechnungszwecken, entscheidend zur Qualitätsüberwachung und damit letztlich zur Qualitätsverbesserung und natürlich auch zur Kontrolle unserer Service-Aktivitäten im Feld. Wenn Sie nun fragen, was wir bei der Qualitatsüberwachung eigentlich auswerten aus dieser

großen Anzahl von Daten, die wir erhalten, dann können wir klarer bekannte Begriffe festlegen für einzelne Geräte und Funktionseinheiten: Etwa MTBF, dann Mean-Down-Time, also mittlere Ausfallzeiten bezogen auf die Geräte. Oder die für den Service sehr wichtige mean-time-to-repair, oder die mean-time-between-initial-programload. Aber

entscheidend ist doch: Wie sind diese Zahlen zu gewichten, angesichts der vielen von uns nicht zu beeinflussenden Faktoren? Wir sehen deshalb in solchen Zahlenreihen primär Trendaussagen. Und dementsprechend hüten wir uns sehr, diese allein zum Vergleich von Verfügbarkeiten unserer Anlagen heranzuziehen.

þWie reagieren Sie dann, wenn Sie einen Trend feststellen?

Puder: Wenn wir einen für uns interessanten Trend entdecken, müssen wir natürlich mit weiteren Informationen herangehen, um das Problem zu analysieren. Weitere Informationen sind für uns beispielsweise die Ersatzteil-Verbrauchs-Statistik, unsere Reparaturanalyse und unser automatisiertes Meldewesen, wo Fehler und Korrekturen über entsprechende Datenbanken gespeichert und uns gemeldet werden. Das heißt also noch einmal: Wir haben Daten, wir erfassen Daten - aber wir sind sehr vorsichtig, sie als geltende objektive Vergleiche über Gesamtverfügbarkeiten heranzuziehen.

þAber es gibt einen Unterschied zum Anwender: Sie operieren mit Vergangenheitswerten und kommen dann für sich zu dem Schluß, gut, daß wir hier Präventiv-Wartung gemacht haben. Der Kunde hat aber bereits mal bezahlt. Dabei wäre ihm sicher wohler, wenn er vorab, bei der Anlagen- oder Betriebssystem-Auswahl Anhaltspunkte hätte, wie er sich entscheiden soll.

Puder: Wenn wir ein neues Produkt auf den Markt bringen, machen wir ein Wartungskonzept, das auf den physikalischen Daten des Gerätes basiert. Wir rechnen quasi hoch, von allen Bestandteilen eines Produktes ausgehend. Also Lebensdauer der Bauelemente, Kontakte, Kabel, dazu unsere Kenntnisse der Ausfallstatistiken dieser Teile Diese Hochrechnung ergibt eine Art theoretischer MTBF und die setzen wir uns als Ziel.

þAber die theoretische MIBF der Anlage ist immergünstiger als die praktisch erreichbare?

Puder: Das ist richtig. Wir nähern uns dieser Zielvorstellung auf einer Kurve, doch erreichen wir sie wegen der äußeren Betriebseinflüsse nicht immer. Statistisch betrachtet liegt natürlich ein Teil der Anlagen sogar darüber.

þIst es nun zulässig, den Schluß zu ziehen, daß Sie im Labor beispielsweise komplexe Betriebssysteme nicht vollständig austesten können, daß der Testvorgang auch noch im Feld stattfindet?

Schmid: Ich muß da bei der Frage beginnen, ob denn der Anwender beim Wechsel einer Betriebssystem-Version nicht irgendwelche Werte mit an die Hand bekommen könnte. Man muß jedoch sehen, daß die Dinge sehr stark konfigurationsabhängig sind. Es gibt ja nicht nur eine Hardware-Konfiguration sondern auch eine Software-Konfiguration. Und der eine reizt das Betriebssystem und die Datenbank und vielleicht auch das Transaktions-System vollständig aus und der andere begnügt sich mit den am häufigsten verwendeten Funktionen. Wer alle Funktionen voll aus reizt, spricht auch mehr Teile der Systemkomponenten an. Damit ist zwangsläufig die Wahrscheinlichkeit für das Auftreten von Fehlern größer. Wie weit testen wir nun unsere System-Software aus? Man muß hier verschiedene Stufen unterscheiden: Die wesentlichen Testphasen sind der Komponententest, der Systemtest, der Abnahmetest und der Piloteinsatz, mit dem wir erstmalig zu einer Anwendung nach draußen gehen sowie die Kundenfreigabe, die ich allerdings nicht mehr als Test sehen will. Wichtig ist der Abnahmetest, der bei uns im Haus einen Wechsel in der Zuständigkeit bedeutet. Wenn die Entwicklung sagt, ein bestimmtes Produkt sei marktreif, dann führen wir unter der Verantwortung des Vertriebes einen Abnahmetest durch, um zu überprüfen ob die Marktreife wirklich gegeben ist. Wir sind damit also zugleich der erste Anwender dieses Softwareprodukts - Entsprechendes gilt natürlich auch für die Hardware. Im Piloteinsatz geht es dann darum, das System echt produktiv zum Laufen zu bringen.

þUnd die Fehler, die nun in dieser letzten Phase auftauchen - wodurch entstehen die?

Schmid: Durch das Produkt in Verbindung mit den Umweltkonstellationen. Das fangt an mit dem Operating, mit der Hardware-Konfiguration und der speziellen Software-Konfiguration sowie den kundenspezifischen Anwendungen. Es ist eine Erfahrung, die alle Hersteller kennen: Man kann diese Dinge einfach nicht in allen Details schon im Vortest berücksichtigen, sondern versucht immer wieder, aus den Erfahrungen mit einem Betriebssystem verbessernd auf das nächste zu schließen. Wobei allerdings zu bemerken ist, daß Fehlerfreiheit oder hohe Verfügbarkeit nicht nur eine Frage von Tests, sondern bei der Frage der Komplexität und dem Volumen der Software auch abhängig sind von entsprechend sicherem Entwurf und Programmierung. Zur Frage der Software-Verfügbarkeit ist generell zu betonen daß bisher entsprechende Definitionen wie bei der Hardware fehlen.

þAber wenn sich draußen ein Gerät fehlverhält, dann schicken Sie einen Techniker der anhand eines Logbuches die Maschine zum Laufen bringt. Was hindert Sie eigentlich daran ausgehend von den Werten des Logbuches und beschränkt auf die reine Physik, die physikalische Verfügbarkeit konkret für Anlage A und B und C zu nennen?

Schwab: Den kommerziellen Kunden kümmert die reine Physik im allgemeinen wenig. Was ihn unzufrieden macht ist die Zahl der Systemaussteiger, wo er an die Boxen fahren muß, wo er das System neu starten muß. Und diese Systemaussteiger, gemessen durch die MTBE, das ist heute weniger und weniger nur eine Sache der reinen Physik, sondern eine Verkoppelung von Hardware und Software, Anwendersoftware bis hin zu Mikroprogrammen in Steuerungen und zu Einflüssen von Datenübertragungsnetzen außerhalb der eigentlichen

Anlage.

þMan kann die Hardware-Verfügbarkeit also nicht isoliert messen:?

Pudel: Es sind die weiteren Zusammenhänge, die das schwierig machen können. Wir haben zum Beispiel den Fall gehabt in dem bei zwei Kunden eine sehr unterschiedliche Verfügbarkeit festgestellt wurde, weshalb man vermutete, die Wartung sei im Ort A schlechter als im Ort B. Wir haben das nachgeprüft und da stellte sich dann heraus, daß in dem einen Fall der Rechenzentrumsleiter großzügig war und zum Beispiel Fehler, die ihm schon bekannt waren, nicht ins Logbuch eingetragen hat, der andere war dagegen übergenau und hat, auch wenn er von außerhalb unseres Systems kam jeden Fehler aufgeschrieben und uns angelastet. Das eigentliche Problem sind übrigens die sporadischen Fehler - die mehr oder weniger selten intermittierend auftreten und deren Suche mithin deshalb schwieriger und langwieriger sein kann. Der eine Anwender "drückt" einen solchen Speicherfehler, wenn er auftritt, einfach weg, der andere ruft die Wartung. Der eine gibt uns Zeit, den Fehler auszubessern, der andere arbeitet über den Fehler weg, weiter ihn nicht entscheidend stört.

þTrotzdem: Es gibt eine Zuverlässigkeit der Hardwarekomponente. Oder gibt es diesen Wert nicht?

Pudel: Aber natürlich gibt's den Wert. Aber dieser Wert allein ist nicht brauchbar als Vergleichsbasis. Nehmen Sie einen Stoßdämpfer beim Auto: Da müßten Sie auch im Vergleichsfall definieren, wie schnell einer durch Schlaglöcher fährt, wie tief die Schlaglöcher sind, wie häufig sie auftreten. Das wird zu kompliziert. Da kommen Sie bei der DV-Seite zu einer Liste von Randbedingungen, die Sie definieren müssen, damit

es vergleichbarer wird. Und wenn wir eine Problemanalyse machen, dann müssen wir über längere Zeit eine repräsentative Gruppe von Anlagen besonders beachten, weil Statistiken allein nicht ausreichen. Die geben eben nur Trendaussagen.

þNur darf aber nicht vergessen werden, daß ein Hersteller mit einer Zuverlässigkeits-Angabe juristisch gesehen eine Leistung zusichert. Und würden Sie so gegenüber Anwendern auftreten, kämen Sie in des Teufels Kirche.

Schwab: Das ist richtig - wie die hier diskutierten Fakten es augenscheinlich werden lassen.

þDennoch warten wir hier immer noch auf die Argumente, die sagen: Ein Vergleich ist letzten Endes nicht möglich. Dabei sollten aber Maschinen gleicher Größenklasse gleich gut sein.

Puder: Die sind es auch, aber natürlich innerhalb einer gewissen, durch physikalische Gesetze bedingten statistischen Streuung.

- Also doch vergleichbar?

Schwab: Nur, wenn man präzise definierte, gleiche Voraussetzungen zugrunde legen könnte. Man sollte sich aber darauf einigen, daß man in der Praxis mit statistischen Daten nur Trendaussagen für einzelne Geräte liefern kann. Wenn Sie aber sagen, ich habe eine MTBI von 200 Stunden und der andere Anwender hat eine MTBI von 100 Stunden und daraus schlußfolgern würden: Meine Anlage ist gut und seine schlecht - so braucht diese Bewertung durchaus nicht den tatsächlichen Verhältnissen zu entsprechen. Wenn der eine jedoch unter sehr ähnlichen Bedingungen eine MTBI von 200 Stunden hat, der andere eine solche von 50, dann müssen die Dinge näher untersucht werden.