Ratgeber Datenqualität

Gute Daten - schlechte Daten

Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.

Wie gut sind die Daten?

Während sich fast alle Firmenverantwortlichen zumindest in der Theorie darüber einig sind, wie wichtig saubere Datenbestände für den Geschäftserfolg sind, bleiben in der Praxis doch etliche Fragen offen. Zwar bezeichneten in der COMPUTERWOCHE-Umfrage immerhin 87 Prozent der Befragten ihre Datenqualität grundsätzlich als gut. Allerdings lobten lediglich knapp sieben Prozent sie als sehr gut. Über 40 Prozent charakterisierten den Zustand ihrer Firmeninformationen als eher gut, was darauf hindeutet, dass es an der einen oder anderen Stelle Qualitätszweifel gibt.

Diese Unsicherheit trat auch in einer früheren Umfrage des Business Research Application Center (Barc) zutage. Von den über 100 befragten Anwenderunternehmen erklärten lediglich 40 Prozent, sie vertrauten den Daten aus ihrem SAP-System. Weitere 47 Prozent sprachen von einem "durchschnittlichen Vertrauen". Die Barc-Analysten erkennen hier deutliche Zweifel an der Qualität der SAP-Daten.

Die meisten Verantwortlichen sind sich des Problems fehlerhafter Datenbestände bewusst. Rund 83 Prozent der befragten SAP-Anwender erklärten, eine schlechte Datenqualität wirke sich negativ auf die eigene Wertschöpfung aus. Die meisten sprechen hier offenbar aus Erfahrung. Fast drei Viertel der interviewten Manager sprach von sinkender Mitarbeiterzufriedenheit infolge schlechter Datenqualität. 63 Prozent beklagten unzufriedene Kunden, und über die Hälfte sah sich mit steigenden Kosten konfrontiert.

Schlechte Daten und ihre Folgen

Während Anschreiben wie "Sehr geehrte Herr Einkaufsabteilung" vor allem peinlich sind, können Probleme mit der Datenqualität gravierendere Folgen haben, wenn es um die Erfüllung von Compliance-Regeln und weitreichende Entscheidungen zur künftigen Geschäftsstrategie geht:

  • Laut dem Lieferanten von Wirtschaftsdaten D&B kostet die schlechte Datenqualität die amerikanischen Unternehmen jährlich rund 600 Milliarden Dollar.

  • Gartner zufolge sind mehr als 25 Prozent der entscheidungsrelevanten Daten der amerikanischen Fortune-1000-Unternehmen fehlerhaft.

  • Der Online-Händler Amazon.com hat versehentlich 57.000 Bücher aus seinen Suchlisten und Verzeichnissen genommen, weil sie fälschlicherweise als Pornografie eingestuft worden waren.

Viele Unternehmen wollen Qualitätsmängel bei ihren Daten nicht einsehen. Kein Manager gibt gerne zu, dass er ein Problem mit dem Zustand seiner Daten hat, berichtet beispielsweise Otto Neuer, Deutschland-Geschäftsführer von Informatica. Dazu kommt, dass viele Unternehmen sich schwer tun, die Probleme konkret zu greifen. "Fehlerhafte Daten kommen oft erst im Data Warehouse ans Licht", schreiben die Capgemini-Manager Detlef Apel, Rüdiger Eberlein, Christian Merighi sowie Wolfgang Behme von der Continental AG in ihrem Buch "Datenqualität erfolgreich steuern". Zuvor würden Informationen über eine Vielzahl von Benutzerschnittstellen eingespeist beziehungsweise durch die Geschäftslogik in den Systemen selbst erzeugt. Passieren dabei Fehler, führt das im Datenfluss zu Folgefehlern, die sich dann leicht zu größeren Problemen aufschaukeln könnten, warnen die IT-Experten.

Datenqualität messen

In dem Buch "Datenqualität erfolgreich steuern" geben die Autoren Tipps, wie sich Datenqualität messen lässt. Dazu sollten Anwender:

  • Systeme und Datenbereiche identifizieren, in denen Qualitätsprobleme auftreten;

  • Kennzahlen und Prüfregeln definieren;

  • festlegen, ob automatisch oder manuell geprüft werden soll;

  • definieren, in welchen Abständen die Daten geprüft werden sollen.

Die Experten warnen jedoch, Kennzahlen überzubewerten. Zwar ließen sich damit Aussagen über die Datenqualität machen, nicht aber über das konkrete Problem oder dessen Ursachen. Mittlerweile bieten verschiedene Softwarehersteller Tools an, die die Datenqualität automatisch prüfen (Data Profiling) und Fehler nach zuvor definierten Regeln beseitigen (Data Cleansing).

"Operative Systeme arbeiten auch mit schlechten Daten weiter", warnt Eric Ecker, Geschäftsführer der Harte-Hanks Trillium Software Germany GmbH. "Dass es an der Qualität hapert, merken die Unternehmen oft erst, wenn sie bei der Datenauswertung oder dem Risiko-Management auf Ungereimtheiten stoßen." Dann hätten die Anwender allerdings meist große Mühe herauszufinden, aus welchen Systemen die im Data Warehouse aggregierten Daten stammen.

Fazit: Grundsätzlich glauben die Unternehmen, über eine gute Datenqualität zu verfügen. Unterschwellig klingen aber häufig Zweifel durch, ob das so stimmt. Zudem fällt es oft schwer, die Ursachen schlechter Datenqualität zu erkennen und zu beseitigen.

Zur Startseite