Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

04.02.2000 - 

IT in Versicherungen/Versicherer von Data Mining enttäuscht

Cross-Selling-Goldgrube: Noch lässt sich der Schatz nicht heben

Data Mining zog vor einigen Jahren gerade Anwender im Versicherungswesen in den Bann. Um Potenziale konkurrierender Versicherungen für das eigene Marketing zu nutzen oder bei der angestammten Klientel endlich Cross-Selling-Chancen zu nutzen, wurden die neuen, IT-gestützten Selektionsmöglichkeiten zumindest mit Vorschusslorbeeren bedacht. Dass sich die Hoffnungen inzwischen erfüllt hätten, lässt sich nicht behaupten, meint Winfried Gertz*.

Das Sammeln von Daten aller Art und deren Integration in unternehmensweite Informationsdrehscheiben beschäftigt IT-Verantwortliche schon seit Jahren. In Scharen strömen sie zu Kongressen und Foren, um Neues aus dem Herstellerlager zu erfahren oder - noch viel wichtiger - um über erfolgversprechende Ansätze der Konkurrenz auf dem Laufenden zu sein. Besonders in der Versicherungsbranche werden zurzeit heftige Marketing-Gefechte ausgetragen. Gemeinsam mit IT-Verantwortlichen haben die pfiffigsten der traditionell eher konservativ geprägten Entscheider schnell Data-Warehouse-Systeme aufgebaut, intelligente Olap-Werkzeuge (Online Analytical Processing) angedockt und ihre auf diesem Wege ermittelten Informationen durch aufgesattelte Data-Mining-Verfahren versilbert.

Doch im Unterschied zu Handelsunternehmen und insbesondere Telekommunikationsanbietern, die im Wettbewerb sozusagen voll durchstarten, benötigen Assekuranzunternehmen eine halbe Kundengeneration, um neuen Instrumenten in der Top-Etage zum Durchbruch zu verhelfen. Dies ist die Wahrheit hinter "Kompetenzaussagen" à la "Fels in der Brandung." Dabei gibt es alle Hände voll zu tun. Wie Rüdiger Spies von der Meta Group weiß, ist die Spartenorganisation der meisten Versicherer eine riesige Cross-Selling-Goldgrube. Man glaubt es kaum: Obwohl der durchschnittliche Deutsche ein Übermaß an Sicherheit finanziert und bei mancher Versicherung gleich mehrere Policen für Hausrat, Feuerschutz oder Leben unterschrieben hat, wissen seine Ansprechpartner in der Assekuranz häufig nichts davon.

Marktbeobachter tun sich schwer, tieferen Einblick in die Entscheidungsprozesse zu gewinnen: "Nirgendwo sonst ist die Geheimnistuerei so ausgeprägt", berichtet Spies. Was aus den sicherlich zahlreichen Data-Mining-Projekten geworden ist, lässt sich seiner Ansicht nach nur erahnen. Auch dass die Erkenntnisse den ohnehin existierenden Boom in Sachen Merger and Acquisitions erst recht vorantreiben, ist naheliegend. 400 Unternehmen, so Marktkenner, seien einfach zu viel. In Versicherungen, Banken, Verlagen, im Handel oder in der Telekommunikation gibt es gewaltige Kundendatenbanken in den Dimensionen von Giga- und Terabytes, "Informationsschätze", so Marie-Louise Schütt von der Neurotec AG in Köln, "die zu barem Geld werden, wenn man sie nur ausgraben würde."

Umfassende Szenarien lassen sich simulieren, Trends sind frühzeitig erkennbar. Wie sich Kunden unter bestimmten Umständen verhalten, lässt sich ebenso prognostizieren wie das Risikopotenzial in fest definierten Kunden-Clustern. Auch die Ursachen für Vertragskündigungen und andere Einflussfaktoren auf unsichere Kantonisten kommen ans Tageslicht. Stornoquoten, Bonitätsdetails, Adressqualifizierung oder Kündigungsrisiken - intelligente Klassifizierung und Typisierung von Kunden schaffen ausgezeichnete Voraussetzungen für ein Direkt-Marketing, das im Unterschied zur herkömmlichen Massenabfertigung sogar den einzelnen Kunden ins Visier nimmt.

Angeregt vom Data-Warehouse-Trend, entschloss sich auch die VPV Versicherungsgruppe in Stuttgart zu einer intensiven Analyse ihrer bereits verfügbaren Kundendaten. Voller Begeisterung für die neuen technischen Möglichkeiten, trat man darüber hinaus dem Assekuranz Marketing Circle (AMC) in Münster bei, der sich als Think Tank der Versicherungsbranche so innovativen Themen wie der Mikrogeografie verschrieben hat. "Wir sind allerdings wieder ausgestiegen", räumt Torsten Hallmann, Leiter Controlling und Unternehmensplanung der Stuttgarter, ein. Die Verfahren waren den Schwaben mindestens eine Nummer zu groß.

Vor zwei Monaten hat eine Projektgruppe unter Hallmanns Leitung den Aufbau einer Datenbank abgeschlossen, in die Vertragsdaten aus den Bereichen Leben und Sachversicherung aufgenommen wurden. "Anhand dieser Kernzielgruppe wollen wir ermitteln, auf welchem Weg Kunden zu uns kommen oder aus welchen Sparten sie sich rekrutieren." Obwohl bei der Auswertung noch keine statistischen Berechnungsverfahren eingesetzt werden, konnte Hallmann schon erste Erkenntnisse ableiten. Sie haben Auswirkungen auf den Vertrieb und das Direkt-Marketing. So wolle man die Kunden noch umfassender betreuen. "Je mehr Sparten ein Kunde abgeschlossen hat", argumentiert Hallmann, "desto höher ist die Kundenbindung." Wie jede andere Versicherung will auch die VPV teure Streuverluste vermeiden und noch mehr über ihre Klientel erfahren. Deshalb sei auch das Thema Data Mining auf der Tagesordnung. "Derzeit ist es allerdings eine noch zu wenig genutzte Methode", bedauert der Experte.

Die Verbraucher scheinen ohnehin gut versorgt. Doch haben sie auch die richtigen Produkte? Die Westfälische Provinzial in Münster hat sich zur Beantwortung dieser Frage aufs Data Warehousing (DW) konzentriert. Norbert Schücker, Abteilungsleiter Informationssysteme und Kosten der Münsteraner, geht angesichts vieler gescheiterter DW-Projekte behutsam vor, was er kürzlich auf einer Tagung der SAS in Ulm so erklärte. "Je höher die Individualität der Anforderungen, desto höher auch der Aufwand für Customizing und die Gefahr der Kostenexplosion." Eine geeignete Methode, dies zu vermeiden, sei die enge Verzahnung von Fach- und DV-Abteilungen.

In puncto Data Mining jedoch bäckt die Provinzial kleine Brötchen. Zwar probe ein Team intelligente Verfahren und versuche, aus der Kombination von Daten über ehemalige Kunden neue Erkenntnisse über die momentane Klientel zu gewinnen. Doch sich ernsthaft auf Data Mining einzulassen, ist Schücker zufolge ebenfalls ein Problem "horrender" Kosten. Statt überzogene Beraterhonorare zu zahlen oder teure Entwicklungsprojekte zu finanzieren, habe sich die Provinzial zum Kauf eines kleinen Tools entschlossen, mit dem eine Projektgruppe der Stornoanalyse nachgehe und so eigenes Know-how aufbaue.

Viele Aussagen der Versicherungsexperten decken sich mit anderen Erfahrungen, die auf dem Kongress ausgetauscht wurden. Sicherlich zählen Versicherer zu den eifrigsten Bauherren komplexer Data-Warehouse-Systeme. Doch Datenabfrage, Reporting und auch Olap-Anwendungen richten ihren Blick in die Vergangenheit, zeigen auf, was passiert ist oder auch nicht. Sie legen Vermutungen nahe, was alles hätte getan werden können, hätte man nur rechtzeitig gewusst, was die Zukunft bringt. Data Mining jedoch öffnet den Weg für Prognosen, liefert Antworten oder zumindest Hypothesen für die in Entscheiderkreisen am liebsten gestellte Frage: "Warum?"

Indes taugen viele der geeignet erscheinenden Werkzeuge oder Beraterkonzepte nicht so ohne weiteres zur schnellen Antwort auf drängende Fragen. "Garbage in, garbage out", bilanziert Data-Mining-Experte Jürgen Herr von den Siemens Business Services, München, grimmig seine Erfahrungen. Bei den Versicherungsprojekten käme oft wirklich nicht mehr heraus.

Weitere Fehler: Es werden die falschen Fragen gestellt oder beliebige Datenquellen für Data Mining genutzt. "Werden solche Projekte von der DV-Abteilung gesteuert, darf man sich nicht wundern, dass in erster Linie Verfügbarkeit und schneller Zugang den Datenimport bestimmen und nicht Qualität." Ziel könne nicht sein, dem Vorstand allein schöne Grafiken zu präsentieren. Statt sich unter Zeitdruck setzen zu lassen und mit schnellen Ergebnissen aufzutrumpfen, sollten sich Data-Mining-Verantwortliche neun Monate Zeit nehmen. Nur wenige Verantwortliche ließen sich auf langwierige Projekte ein, doch nur so könnten sie sicher sein, auf die richtige Datenspur zu kommen.

Angeklickt

Das Kosten-Nutzen-Profil für Data-Mining-Anwendungen in der Versicherungswirtschaft stellt sich häufig noch sehr unscharf dar. Obwohl in anderen Branchen bereits ein erprobtes Mittel der Kundenbindung, verhindern offenbar die traditionellen Strukturen dieser Branche, wie beispielsweise die Spartenorganisation, Einsatz und Durchbruch dieser Technologie.

*Winfried Gertz ist freier Journalist in München.