Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

29.01.1999 - 

Strategien zur Bewältigung des Jahr-2000-Problems

Strategien zur Bewältigung des Jahr-2000-Problems Aufwendige Testphase durch Zeitreisen verkürzen

29.01.1999
Sind ihre Anwendungen schon fit für das Jahr 2000? Eine Methode, um die Datum-2000-Kompatibilität von Programmen zu testen ist das relativ junge "Time Dimensional Testing" (TDT). In simulierten "Zeitreisen" können Anwender damit den Ablauf und die Logik von Programmstrukturen überprüfen. Robert Harnischmacher stellt die Methode und praktische Beispiele vor.

Ed Yardeni, Chefökonom der Deutschen Bank Securities in New York, ist davon überzeugt, daß die Wirtschaft vor einer ähnlichen Katastrophe steht wie bei der Rezession vor 25 Jahren. Hielt dereinst das sprudelnde Öl die globale Ökonomie auf Trab, sind es heute Informationen. Ohne das "schwarze Gold", ohne Bits and Bytes geht nichts im Geschäftsleben, ohne sie ist kein Staat zu machen. Und viel steht auf dem Spiel, wenn Computer zu Beginn des Jahrs 2000 verrückt spielen.

Zieht an der Wall Street ein Gewitter auf, hallt der Donner rund um den Erdball. Sollten Computersysteme am Finanzplatz Nummer eins abstürzen, ist der Crash an den Börsen von Europa bis Fernost nicht zu vermeiden. Tausende von Firmen wären betroffen, Kleinanleger ständen vor dem Ruin. Daß die Dominotheorie zumindest nicht in New York Realität wird, ist der Securities Industries Association (SIA) zu verdanken. Vor wenigen Wochen organisierte der Dachverband der amerikanischen Wertpapierbranche einen großangelegten Wall-Street-Test, an dem zwölf Banken und 28 Investmenthäuser teilnahmen. "Alle Transaktionen liefen einwandfrei", bilanzierte Don Kittell, Vice-President der SIA. Wie im Normalfall wechselten Aktien, Anleihen und Optionen die Besitzer.

Die Simulation der Woche vom 29. Dezember 1999 bis zum 3. Januar 2000 konnte die "Year 2000 Compliance" der involvierten Computersysteme überzeugend unter Beweis stellen. Um ganz sicher zu gehen, wird die Testreihe im kommenden Mai wiederholt.

"Wenn eine Verpackung von Eintages-Kontaktlinsen mit dem Ablaufdatum 04/00 versehen ist, stört das wahrscheinlich niemanden", erklärt Maria Reinisch von der Beratungsfirma Interchip GmbH in München. Werde allerdings die Jahreszahl für die Laufzeit eines Kredits verwendet oder steuere sie konkrete Abläufe wie zum Beispiel Ultimo-Prozesse, liegen die Dinge schon anders. Kein Wunder, daß zuerst Banken und Versicherungen viele Milliarden Dollar investieren, um ihre Computer und Softwareprogramme einer "Frischzellenkur" zu unterziehen. Auch in Deutschland stecken viele Unternehmen mitten in Jahr-2000-Umstellungsprojekten, allerdings steht den meisten der Testlauf der überprüften und korrigierten Programme noch bevor.

Als das Problem vor rund drei Jahren auf die Tagesordnung kam, drehte sich alles um die Analyse und Bereinigung identifizierter Programmzeilen (Lines of Code). Man glaubte, hierbei handle es sich um den Löwenanteil des unausweichlichen Unterfangens. Mit bis zu zweieinhalb Mark pro Zeile veranschlagten die Analysten den primär an Mannjahren orientierten Aufwand. Anwender wollten verhindern, daß über das Jahr 2000 hinausreichende Policen ungültig werden oder Automaten die eingeführten Kreditkarten nicht mehr ausspucken. Während der überwiegende Teil solcher ineinandergreifenden Prozesse auf selbstgestrickten Programmen basiert, müssen alle Zeilen der jeweiligen Programmcodes manuell überprüft werden. Die Gartner Group ging 1995 von rund zwölf Millionen Lines of Code (LOC) pro Unternehmen aus; andere bezifferten den manuellen Umstellungsaufwand pro Programm auf drei bis fünf Manntage. Diese Methode gilt nach wie vor als die zweifellos sicherste, bringt aber das Problem eines hohen Aufwands an Zeit, Kosten und Personal mit sich.

Inzwischen haben sich die Eckdaten jedoch geändert. Brendan Conway, Analyst der Gartner Group für Jahr-2000-Themen: "Unsere Annahme, daß allein auf den Testlauf der umgestellten Systeme rund die Hälfte des ursprünglich kalkulierten Aufwands entfällt, erhalten wir in Gesprächen mit Kunden immer stärker bestätigt." Um eine spürbare Aufbesserung von Budgets kommen Anwender ebensowenig herum wie um die Revision einst festgeschriebener Projektziele. Immer mehr Unternehmen unterstellen ihre Projekte daher der Geschäftsführung oder dem Vorstand. Weil die Zeit drängt und zusätzlich in Telekommunikationsanlagen, Netzwerken und Steuerungsanlagen nach betroffenen Mikrochips geforscht werden muß, suchen Projektmitarbeiter händeringend nach Testverfahren, die sie in der knapp bemessenen Zeit entlasten können.

"Früher beschränkte sich Testen auf die Überprüfung von Fehlerlosigkeit", sagt Gerald Pfeiffer, Senior Consultant der Compuware GmbH in Dreieich. Heute, so der Experte für Testverfahren in der Software-Entwicklung, konzentrierten sich die Anwender auf die Analyse von Software in Prozeßketten. Auch in Jahr-2000-Projekten und bei der Einführung des Euro machten sich automatische Testverfahren bezahlt, zumal viele Anwender zuerst mit eigenen Mitteln überprüfte Applikationen freigeben und im anschließenden Produktiveinsatz mit neuen Problemen konfrontiert würden.

Rund 250 Werkzeuge für weitgehend automatische Analyse, Inventarisierung, Umstellung und Testverfahren bieten sich derzeit an. Zwar kann kein Tool allein den Anspruch erheben, ein System komplett zu bereinigen, zumal die Programmierung nach einheitlichen Konventionen und Regeln die Ausnahme darstellt. Wer allerdings ein Werkzeug einsetzt, dürfte Zeit und Geld einsparen. Dennoch empfehlen Experten, nicht völlig auf die manuelle Kontrolle zu verzichten.

Wer sich schließlich auf den Test umgestellter Anwendungen konzentriert, hat mehrere Möglichkeiten. Nur in seltenen Fällen kann das umgestellte Programm im laufenden Betrieb getestet werden. Denn die Anwendungen und Betriebssysteme sind in der Mehrzahl aller Projekte so komplex, daß dies zu teuren Unterbrechungen des Betriebsablaufs führen würde. Deshalb favorisieren Anwender meist großer Unternehmen die Einrichtung kostspieliger Testumgebungen, die sie von externen Dienstleistern zukaufen oder als separate Einheit auf dem Mainframe installieren.

"Tests beanspruchen einen hohen Aufwand, weil viel in die Logik investiert werden muß", erklärt Projektberater Pfeiffer. Es reicht einfach nicht aus, nur die Systemuhr ein paar Jahre vorzustellen. So verstandene Ablauftests, um die Jahr-2000-Konformität sicherzustellen, müssen laut Pfeiffer um Logiktests ergänzt werden. Wenn ein Programm "glatt" durchläuft, aber falsche Ergebnisse zu Tage fördert, könne dies ein Hinweis auf verborgene Datumsfelder sein, die in der Analyse nicht gefunden wurden. Herkömmliche Analyse-Tools nämlich förderten selbst bei Cobol- Programmen nur 80 Prozent der Datumsfelder ans Tageslicht. Weil sie nicht mit anderen Datumsfeldern in Eingabe-, Ausgabe- oder Speicherressourcen verglichen werden, fielen die verbleibenden 20 Prozent bei einfachen Ablauftests nicht auf.

Eine neue Methode für das Testen umgestellter Programme ist das "Time Dimensional Testing" (TDT). Solche "Zeitreisen" erlauben dem Anwender, Ablauf und Logik von Programmstrukturen zu überprüfen. Wesentlicher Vorteil der TDT-Methode ist der Gartner Group zufolge, Tests unter Produktionsbedingungen vornehmen zu können, ohne auf die Verfügbarkeit von Jahr-2000-konformen Betriebssystemen oder Middleware-Technologien warten zu müssen. Zudem verspricht die Datumssimulation "auf Knopfdruck" nicht nur die Überprüfung von Jahr-2000-Daten, sondern auch aller anderen kritischen Termine wie zum Beispiel Schaltjahre.

Auch Schaltjahre müssen berücksichtigt werden

Wie die Gartner Group in einem neueren Dossier erläutert, kann TDT auf verschiedene Weise zum Tragen kommen. Mit der sogenannten Anwendungskapselung wird eine Applikation in bezug auf eine Datumssimulation isoliert, um Datumszahlen und ihre Beziehungen zueinander konstant zu halten. Vorausgesetzt, die Herkunft interner Daten sowie externer Inputs und Outputs ist eindeutig geklärt, wird die Anwendung gemäß individueller Vorgaben auf einen zukünftigen Zeitpunkt versetzt. Hierzu sind Werkzeuge für die Datenalterung erforderlich.

Ein anderes Konzept ist die eigentliche Zeitverschiebung. Sie geht über die Anwendungskapselung hinaus. Neben gespeicherten Daten und Transaktionen wird auch die technische Infrastruktur aus Mainframe, LAN, Middleware oder Telekommunikation in die künftige Zeitdimension transferiert. Hierzu ist gesonderte Plattenkapazität oder - in verteilten Umgebungen - eine separate Testumgebung erforderlich. Im Rahmen des eigentlichen Time Dimensional Testing schließlich werden die Testskripts ausgeführt. Ihre Ergebnisse werden mit den Ergebnissen in der Originalumgebung abgeglichen, jedoch nicht durch umständliche manuelle Verfahren, sondern mittels "intelligenter" Vergleichstechnologie, die sich derzeit im Markt etabliert.

Auch die Deutsche Bahn AG setzt auf solche Testverfahren. Zudem trägt ein eigens ins Leben gerufenes Zertifizierungsverfahren dazu bei, daß das gesamte Umstellungsprojekt auf einer sicheren Basis steht. Eine vom Vorstand eingesetzte externe Beratungsgesellschaft geht der Zertifizierung nochmals auf den Grund. Bis Ende des Jahres soll alles über die Bühne gehen: Programmierzeilen in zweistelliger Millionenhöhe in Cobol, Tandem-Cobol, AS/400-Cobol, C, MVS Fortran, Pascal, Unisys Mapper und SAP Abap werden gescannt, umgestellt und auf ihre Funktionsfähigkeit überprüft. "70 Prozent unserer Programme sind bereits zertifiziert", bilanziert der stellvertretende Projektleiter für das Teilprojekt Zertifizierung Wolfgang Schüch den Projektstand im September 1998. Zwar weiß der Experte genau, daß bis zur Jahrtausendwende nicht alle Probleme gelöst sein können, doch die besonders wichtigen "Critical Ap- plications" sind längst identifiziert und werden derzeit in sorgfältigen Tests auf Herz und Nieren überprüft.

Mit Hilfe von Werkzeugen wie "Xpediter Xchange" und "Data Ager" wird das Systemdatum simuliert und Eingangsdaten auf die Zeitreise geschickt. "Neben Werkzeugen zum Scannen sind Tools für das Data- Aging und die Datumssimulation unabdingbar", erläutert Schüch. "Es ist ein großer Vorteil, wenn die anschließende Testphase automatisiert und mit ausgereiften Werkzeugen durchlaufen werden kann." Freilich müsse auch hier manuell nachgeholfen werden, zumal jedes Umstellungsprojekt von unvergleichbaren Voraussetzungen ausgehe. Daß der komplette Testlauf wie geplant bis Ende des Jahres abgeschlossen ist, dürfte also auch den modernen Verfahren wie Time Dimensional Testing zu verdanken sein.

Robert Harnischmacher arbeitet als freier Wirtschaftsjournalist in Frankfurt am Main.