Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

IT im Gesundheitswesen/Durchblick im Dickicht des deutschen Gesundheitswesens

Data Warehouse als Schlüssel zur Kosten- und Qualitätskontrolle

17.11.2000
Das deutsche Gesundheitswesen ist nicht ausreichend transparent. Alle Beteiligten, vom Arzt über die Kassen bis zum Patienten, führen Klage darüber. Die Innungskrankenkassen (IKK) sind vorgeprescht, um zunächst einmal im Sektor Arzneimittel für mehr Durchblick zu sorgen. Das Mittel der Wahl: eine Data- Warehouse-Anwendung. Medard Junge und Reiner Geißdörfer* schildern das SAP-Projekt.

Seit Einführung des Wettbewerbs in der Gesetzlichen Krankenversicherung gewinnt die Transparenz des Kosten- und Leistungsgeschehens in den einzelnen Krankenkassen stark an Bedeutung.

Intransparenz ist ein sehr unerfreuliches Kennzeichen des deutschen Gesundheitswesens: Zehn Prozent des Bruttoinlandsprodukts werden für Gesundheit verwendet, ohne dass die Kostenträger im Detail ausreichend informiert sind. Hinzu kommt, dass die Kosten häufig nur schwer kalkulierbar sind.

Die Innungskrankenkassen (IKK) haben sich zum Ziel gesetzt, diesen Mangel in ihrem Wirkungsbereich zu beseitigen. Um Einsparpotenziale aufzudecken, müssen entscheidende Fragen beantwortet werden: Wo liegen (regionale) Ausgabenschwerpunkte? Welche Auswirkungen hat die Einführung einer Positivliste für Medikamente? Werden zu viele oder falsche Leistungen erbracht? Wie gestaltet sich der Anteil der Generika am gesamten Arzneimittelmarkt? Um solche Fragen klären zu können, ist eine gezielte Analyse der Versorgungsstrukturen erforderlich.

Die Antworten sind derzeit in einer Vielzahl von unstrukturierten Daten in einer heterogenen Systemlandschaft mit unterschiedlichen Formaten, Schlüsseln und Granularitäten verborgen. Hinzu kommt, dass jedes System, je nach Aufgabenstellung, tagesaktuell, monatlich, jährlich oder in einem anderen Zyklus beliefert wird.

Nur einem Datenbankexperten, der sich in den meist historisch gewachsenen Strukturen auskennt, gelingt es, die richtigen Informationen zur Beantwortung fachlicher Anforderungen aus einer derartigen "Systemvielfalt" zu generieren. Je nach Fragestellung müssen die Daten identifiziert, logisch verknüpft, aufbereitet und an den Anwender geliefert werden - ein Verfahren, das sehr viel Zeit in Anspruch nimmt. Zeit, die unter Umständen nicht zur Verfügung steht, weil die Ergebnisse kurzfristig für Entscheidungen bereitstehen müssen. Zugleich werden die operativen Systeme extrem belastet und Arbeitskräfte gebunden. Nachfragen und Konkretisierungen der Fragestellung machen neue Abfragen erforderlich und wiederholen die zeit- und kostenintensiven Rechenvorgänge.

Damit sind die Anforderungen an ein praktikables System beschrieben: Die fachlichen Anwender müssen ihre Anfragen selbständig formulieren und innerhalb kurzer Zeit Antworten erhalten können, ohne die operativen Systeme belasten zu müssen.

Mit einem Data Warehouse kann es gelingen, derartigen Anforderungen gerecht zu werden. Ziel wäre, operative Daten in einen dispositiven Datenbestand zu überführen, der durch intelligente Verknüpfung dem fachlichen Anwender schnell und bequem die gewünschten Informationen liefert. Doch sind für den Erfolg eines solchen Projektes vier Faktoren entscheidend:

1. Eine möglichst konkrete Formulierung der fachlichen Anforderung in Form eines logischen Datenmodells.

2. Die Auswahl des passenden Werkzeugs zur Erstellung des Data Warehouses.

3. Die Identifizierung und Erschließung der notwendigen Datenquellen.

4. Die sorgfältige technische Realisierung des Datenmodells und die Versorgung mit den aufbereiteten Daten.

Ein Vorgehensmodell, das sich auf diese Faktoren stützt, wurde von der MSG Systeme GmbH und dem IKK-Bundesverband gemeinsam entwickelt.

In einem Workshop zum Auftakt des Projektes sollte einem möglichst großen Kreis späterer Nutzer das Thema "Data Warehouse" näher gebracht werden. Hier und in nachfolgenden Interviews hatten die Anwender die Möglichkeit, ihren Informationsbedarf zu artikulieren, der durch das zu erstellende logische Datenmodell in Form eines oder mehrerer Stern-Schemata gedeckt werden musste. Das Stern-Schema, eine Form einer denormalisierten Datenhaltung, ermöglicht die Abbildung multidimensionaler Datenstrukturen. Aus der gezielt erzeugten Redundanz ergeben sich enorme Leistungsvorteile.

Erst nachdem allseits grünes Licht gegeben wurde, begann die technische Realisierung. Das gemeinsame Vorgehen und die enge Abstimmung zwischen IT und Fachabteilungen bis zu diesem Zeitpunkt garantierte, dass die Anwender die Art der Datenmodellierung verstanden haben und sich in dem Data Warehouse "wiederfanden".

Notwendige Bedingung bei der Auswahl des Werkzeugs war die Erfüllung der formulierten Anforderungen. Relativ einfache Integrierbarkeit in die IKK-Systemlandschft war Vorbedingung bei der Produktauswahl.

Das Design und die Programmierung des ETL-Prozesses (ETL = Extrahieren, Transformieren und Laden) erfolgen auf Basis des logischen Datenmodells. Parallel dazu wurde das Data Warehouse physikalisch - durch Umsetzung des logischen Datenmodells - aufgebaut. Nachdem die Daten geladen sind, stehen sie den Anwendern zur Verfügung. Abfragen hierauf belasten das operative System nicht mehr; durch Transformationen können komplexere Zusammenhänge abgebildet werden. Der Benutzer gelangt über einen zentralen Einstiegspunkt in das Data Warehouse und kann den Informationsbedarf individuell decken.

Da die Anforderungen an ein Data Warehouse im Regelfall im Zeitverlauf zunehmen und der Aufwand für den ETL-Prozess nicht zu unterschätzen ist, war es sinnvoll, sich zunächst auf einen abgegrenzten Teilbereich zu beschränken. Deshalb bot sich das Thema "Arzneimittel" an; gleichwohl musste ein hinreichend großes Datenvolumen berücksichtigt werden, um die Belastbarkeit des Data Warehouse zu testen.

Zur Realisierung wurde ein interdisziplinäres Team aus Fachleuten gebildet. Beteiligt waren Sozialversicherungsexperten, Ärzte, Apotheker, Programmierer und Data-Warehouse-Spezialisten. In einem Fachkonzept wurden mehr als 20 Berichtstypen sowie die Anforderungen an die Online-Recherche definiert. Innerhalb von etwas mehr als zwei Monaten wurde dann dieses Konzept in ein logisches Datenmodell umgesetzt, die relevanten Daten benannt und die Transformationsregeln, die den Weg von den Datenquellen bis zum Data Warehouse definieren, beschrieben.

Da der IKK-Bundesverband strategisch auf die SAP-R/3-Entwicklungswerkzeuge ausgerichtet ist, fiel die Entscheidung bei der Auswahl des Werkzeugs auf SAP BW, die Data-Warehouse-Lösung von SAP.

Bei der Entscheidung wurde bewusst in Kauf genommen, dass die Version 1.2b noch einige fehlende Funktionalitäten aufweist. Da aber zu erwarten ist, dass diese Defizite behoben werden, war das Risiko gering, mittelfristig wichtige Anforderungen nicht abbilden zu können. Die Stärken des BW liegen in seinem Komfort.

Der "Business Explorer (BEx) Analyzer" des BW nutzt Microsoft Excel standardmäßig zur Präsentation der Abfrageergebnisse. Hier wurde ebenfalls zunächst bewusst auf Komfort und Funktionalität, die ein spezielles Frontend-Tool bietet, verzichtet, da die Akzeptanz des bekannten Excel bei den fachlichen Nutzern hoch ist. Darüber hinaus lassen sich die Abfrageergebnisse mit Excel weiterverarbeiten.

Ergebnisse mit Excel weiterverarbeitenDer erste Workshop fand im Oktober 1999 statt; bereits Anfang April 2000 konnten die Ergebnisse präsentiert werden. Die im Fachkonzept geforderten Berichtstypen wurden vom Projektteam vordefiniert; sie sind von den Anwendern durch selbständige Parametrisierung (Zeit und regionale Einschränkungen) abrufbar. Mit Hilfe des Online-Recherche-Systems sind mehr als tausend Berichte auf Knopfdruck innnerhalb kurzer Zeit verfügbar. Sämtliche Standardberichte sind schreibgeschützt, können aber als Vorlage zur Definition eigener Berichte verwendet werden.

Nach Abschluss dieser Projektphase enthielt das Data Warehouse Daten in einem Umfang von über 100 GB in 40 Millionen Rezeptpositionen und 27 Millionen Rezepten, die zusätzlich mit verschiedenen Strukturinformationen zu Arzneimitteln, Innungskrankenkassen und regionalen Versorgungsstrukturen verknüpft wurden.

Es wurden drei Info-Cubes definiertDurch die Bildung von Aggregaten gelang es, auch komplexe Abfragen, die sonst einen zeitaufwändigen Table-Scan aller 40 Millionen Rezeptdaten erfordern würden, zügig abzuarbeiten. Diese Aggregate wurden vom Projektteam in der Designphase definiert und während des Ladeprozesses gefüllt. Darüber hinaus werden weitere Aggregate vom System vorgeschlagen, wenn es inperformante Abfragen erkennt. Diese müssen dann vom Administrator gefüllt werden.

Neben der Bildung von Aggregaten wurden schon bei der Datenmodellierung Abfragen auf einzelne Verordnungen wie auch Abfragen, die sich auf Versichertenmerkmale beziehen, berücksichtigt. Hierfür wurden drei so genannte Info-Cubes definiert und gefüllt. Ein Info-Cube stellt eine mehrdimensionale Struktur dar, die ein Stern-Schema enthält und einen fachlichen Zusammenhang abbildet. So kann sowohl nach regionalen Schwerpunkten der Arzneimittelversorgung als auch nach Auffälligkeiten in der Arzneimitteltherapie einzelner Versichertengruppen gesucht werden. Des Weiteren lassen sich Auswertungen nach Merkmalen, die nur auf einer Ebene vorliegen, trennscharf analysieren.

Durch das rollenbasierende Berechtigungskonzept wird auch das Betriebsgeheimnis der einzelnen Innungskrankenkassen gewahrt, da Mitarbeiter einer IKK nicht die Daten einer anderen IKK einsehen können. Vergleiche sind nur über die aggregierten Ergebnisse des Bundesverbandes möglich.

Fazit: Um die fachlichen Vorgaben im Rahmen der technischen Anforderungen verwirklichen zu können, ist eine enge Abstimmung zwischen IT und Fachabteilungen zwingend erforderlich. Die Arbeit in einem interdisziplinären Team von Beginn an hat sich bewährt und sichert die korrekte und inhaltlich sinnvolle Umsetzung der Anfordungen im Rahmen der technischen Vorgaben. Als strategischer Vorteil erweist sich der Know-how-Transfer zwischen den Teammitgliedern, den beteiligten Disziplinen und den Beratern und dem Kunden.

Das Data Warehouse ist inzwischen produktiv und wird auf die weiter verbesserte Version 2.0b umgesetzt. Dabei werden Daten weiterer Jahre eingeladen, um Vergleiche über längere Zeiträume hinweg zu ermöglichen. In einem nächsten Schritt ist geplant, weitere Leistungsbereiche wie Ärzte und Krankenhäuser einzubeziehen. Damit wird die seit langem dringend notwendige Analyse der Versorgung und damit die Gestaltung zukunftsweisender Versorgungskonzepte möglich.

*Medard Junge ist Projektleiter des IKK-Bundesverbands, Hürth, Reiner Geißdörfer ist Projektleiter bei der MSG Systeme GmbH in Bergisch Gladbach.

Abb: Um Einsparpotenziale aufzudecken müssen immer neue Fragen beantwortet werden. Gezielte Analysen sind notwändig.