Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

26.11.1999 - 

Fusionen/Jederzeit fit sein im Wettbewerb um Fusionspartner

Erfolgsfaktor: Datenqualität vor, während und nach Merger-Prozessen

Die Verfügbarkeit qualitativ hochwertiger Daten ist bei einem Merger Voraussetzung für eine schnelle Integration und ein verläßliches Bedienen der Schnittstellen nach außen beziehungsweise zu Kunden, Lieferanten und Banken. Michael Rufa* und Thomas Kubela* zeigen auf, wie sich die Datenqualität vor, während und nach den Merger-Prozessen verbessern und auf eine einheitliche Basis stellen läßt.

Wenngleich die Sicherung der Datenqualität eine ständige Aufgabe ist, sollten Unternehmen, die einen Merger planen oder für die Zukunft nicht ausschließen können, diesem Thema besondere Aufmerksamkeit schenken. Denn hochqualifizierte Datenbestände sind ein beachtlicher Wettbewerbsfaktor und tragen wesentlich zur Erleichterung von Fusionsprozessen bei.

In vielen Firmen ist die Realität noch sehr stark von teilweise recht defizitären Datenbeständen geprägt. Nur allzu häufig trifft man auf Mehrfachentwicklungen, Insellösungen mit komplexen Schnittstellen, teilweise überholte Technik und Fehler bei der Nutzung. Medienbrüche - etwa durch Papier-Schnittstellen - verhindern eine durchgängige IT-Unterstützung der Geschäftsprozesse. Zudem sind viele Daten in den meist verteilten und historisch gewachsenen Datenbeständen redundant, widersprüchlich oder nicht mehr aktuell. Zugleich bilden aber die teilweise defizitären Datenbestände die Grundlage für Informationen, die in verdichteter Form auch für Unternehmensentscheidungen wie etwa einen Zusammenschluß herangezogen werden. Bei der anschließenden Zusammenführung auf operativer Ebene steigt der Zeit- und Kostenaufwand für die Datenmigration mit den Defiziten bei den Datenbeständen.

Aufgrund der zahlreichen Wechselwirkungen zwischen den einzelnen Datenbeständen ist eine ganzheitliche Herangehensweise an das Datenqualitäts-Management zu empfehlen. Am Anfang steht zunächst die Analyse, aus der heraus eine spezifische Lösungsempfehlung entwickelt und dann in einer dritten Phase in die bestehenden IT-Landschaften eingefügt wird. Nach einem ersten Prozeßdurchlauf lassen sich häufig weitere Ursachen für Datenqualitätsdefizite konkretisieren, die dann in einer iterativen Vorgehensweise behoben werden.

Innerhalb dieser Vorgehensweise können praxiserprobte Systeme zur Überprüfung von Datenbeständen eine entscheidende Rolle spielen. "Agent-Q" beispielsweise ermöglicht es, Inkonsistenzen in heterogenen und verteilten Datenbeständen zu erkennen und zu bereinigen. Das automatische, regelbasierte Datenbankprüfsystem ermittelt auffällige Daten, prüft die Konsistenz innerhalb und zwischen Datenbeständen und liefert Auswertungen über den aktuellen Status der Informationen.

Von der sogenannten Föderationsebene hat Agent-Q eine globale Sicht auf die angebundenen Datenbanksysteme zur Überprüfung der Konsistenzen. Konsistenzgefährdende Datenänderungen innerhalb lokaler Anwendungen werden identifiziert und von der Applikation oder dem Datenbank-Management-System an die Föderationsebene gemeldet, von wo dann bereits definierte Prüfvorgänge in Gang gesetzt werden.

Dabei muß keines der operativen Systeme durch zusätzliche Programmierung erweitert werden. Der übliche Output (ASCII-Files, Log-Files etc.) sowie eine Abfrage-Schnittstelle zu den Datenbank-Management-Systemen reichen aus, um die Konsistenz zu prüfen und zu überwachen. Möglich wird dies durch ein Regelwerk, in dem alle relevanten, potentiellen Konsistenzverletzungen und die möglichen Reaktionen definiert sind.

Jede dieser Regeln besteht aus einem Event, einer Condition und einer Action. Das System überpüft permanent, ob ein Event eingetreten ist, das ein Abarbeiten der Regel erfordert. Ein solches Event kann beispielsweise eine Datei mit geänderten oder neuen Daten aus einer Datenbank sein. Findet Agent-Q die Datei, wird eine Condition abgearbeitet. Diese ist eine Abfrage auf eine Datenbank und liefert die Werte "true", "false" oder die gesamte Ergebnismenge (in der Regel inkonsistente Datensätze der abgeglichenen Informationsbestände). Je nach Ergebnis wird dann eine Action durchgeführt.

So können die Ergebnisse beispielsweise per E-Mail an eine Entscheidungsinstanz gehen. Diese legt fest, welche Daten korrekt sind. Die korrekten Daten gehen dann an Bereinigungsteams, die sie auf der Anwenderebene korrigieren. Ein automatisches Einspielen der korrekten Daten in die Datenbanken ist prinzipiell ebenfalls möglich.

Merger ohne Datenchaos

Bei einem Merger werden in der Regel zahlreiche Altsysteme im Rahmen einer Migration in eine neue Struktur überführt. Der Wechsel wird um so komplexer, je heterogener die Systemlandschaft ist und je mehr Systeme - Datenbanken, Betriebssysteme, Applikationen - bei der Migration zu berücksichtigen sind. Entsprechend hoch sind die Risiken eines späteren Datenchaos, das durch inkonsistente Informationen und komplexe Datentransformationen in der neuen Umgebung hervorgerufen werden kann.

Es empfiehlt sich daher, die Aktivitäten nach Premigrationsphase, Migrationsphase und Postmigrationsphase zu staffeln. Ziel ist es, die eigentliche Migrationsphase möglichst kurz und stabil zu halten und damit die Kosten durch einen verkürzten Parallelbetrieb zu senken. Hier sind besonders die Pre-Migrationsaktivitäten von Bedeutung: Je eher sie begonnen werden, desto besser. Sind die Daten in den Altsystemen schließlich bereinigt und konsistent, werden hohe Migrationsraten erreicht.

In der dritten Phase kann dann der Schwerpunkt auf die Sicherung der Datenqualität und der Konsistenz gelegt werden. Dabei lassen sich selbstverständlich neben Agent-Q andere konsistenzsichernde Mechanismen anwenden, etwa der Einsatz von Middleware oder der Aufbau eines zentralen Referenzdatenbestands.

In einem Projekt zur Bereinigung von Kundendaten eines deutschen Großunternehmens, das mehrmals vor einem Merger stand, wurde ebendiese Vorgehensweise zur Erkennung und Bereinigung inkonsistenter Daten gewählt. Das Projektumfeld war durch eine heterogene IT-Landschaft und eingeschränkte Interoperabilität geprägt. Darüber hinaus gab es ein großes Änderungsvolumen, so daß mehrere hunderttausend Prüfzugriffe pro Tag bearbeitet wurden. Allein der Adreßbestand belief sich auf mehrere Millionen. Die Konsistenz der verteilten Systeme und Datenbestände, die wichtige Geschäftsprozesse in der logistischen Kette von der Auftragserteilung bis zur Fakturierung abdecken, wurde geprüft. Dabei ließen sich konsistenzverletzende Änderungen bei Stammdaten, Adressen und Bankverbindungen erkennen und beheben.

Eine umfassende und dauerhafte Verbesserung der Datenqualität ist ein umfangreiches und komplexes Vorhaben. Die erforderlichen Mittel werden allerdings in der Regel eher zögerlich zur Verfügung gestellt - sei es, weil bisherige Ad-hoc-Datenbereinigungen oft nicht den erhofften Erfolg gebracht haben, oder weil der Nutzen für Entscheidungsträger häufig nicht transparent wird. Die bisherigen Erfahrungen zeigen, daß bei Budgetfragen weniger manchmal mehr sein kann: Eine Politik der kleinen, geplanten Schritte erleichtert Entscheidungen, weil sich der nächste Schritt auf der Grundlage des Erfolgs beim zuvor gemachten Schritt planen läßt.

Daher bietet sich ein "Proof of Concept" für ein Konsistenzsicherungsprojekt an: Anhand eines einfachen, konkreten Geschäftsfalls können dabei in kürzester Zeit die technologische und wirtschaftliche Tragfähigkeit des Konzepts geprüft werden. Alle Phasen des Vorgehensmodells - von der Analyse und Konzeption über die Realisierung und den Test bis hin zum Produktivbetrieb - werden durchlaufen. Letzten Endes ist so ein klarer Nutzen nachweisbar - möglicherweise der Einstieg in den schrittweisen Aufbau eines umfassenden Datenqualitäts-Managements.

ANGEKLICKT

Mit der Globalisierung der Märkte steigt auch die Zahl der Unternehmenszusammenschlüsse. In welcher Form auch immer das geschieht: Ein ganz entscheidender Erfolgsfaktor ist dabei die Zusammenfügung der IT-Landschaften und hierbei wiederum die Verfügbarkeit qualitativ hochwertiger Daten. An diesem Punkt kann jedes Unternehmen, ob nun übernahmelustig beziehungsweise -gefährdet oder nicht, jederzeit mit einer der wichtigsten Merger-orientierten Arbeiten beginnen.

*Dr. Michael Rufa ist Senior Berater im Debis Systemhaus, Thomas Kubela ist Leiter der Fachgruppe Datenqualität im selben Unternehmen.