Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

22.03.1991 - 

Rationalisierungspotential bleibt häufig, ungenutzt

Warum Sie die Wirkung Ihrer DV-Investitionen prüfen sollten

Computer bedeuten nicht automatisch einen Wettbewerbsvorteil. Allzu oft wird das Rationalisierungspotential gar nicht genutzt. Wie eine Diebold-Studie zeigt, klaffen Welten zwischen Anspruch und Wirklichkeit. Ohne eine systematische Überprüfung von Effizienz und Effektivität des DV-Einsatzes, so das Fazit, wächst die Gefahr, daß die Investitionen nutzlos versanden.

In verteilten Märkten und unter zunehmen Kostendruck hängen Erfolge oft an einem seidenen Faden. Dann hilft nur die konsequente Ausschöpfung aller Leistungsreserven und ganz besonders die strikte und kompromißlose Orientierung an Kundenbedürfnissen. Ermöglicht wird die Mobilisierung der Reserven sehr häufig durch den professionellen Einsatz moderner Informationstechnik, der nicht zuletzt deshalb der Charakter einer strategischen Waffe (...) Wettbewerb) zugesprochen wird. Angesichts dieser Bedeutung ist es kein Wunder, daß die Investitionen in die Informatik beständig steigen.

Noch kein Ende der Fahnenstange

Die Investitionsvolumina haben mittlerweile nahezu schwindelerregende Höhen erreicht, und ein Ende der Fahnenstange ist noch bei weitem nicht erkennbar. Da ist es wenig tröstlich, daß die

Informatikinvestitionen nun mal - so die Faustregel - mit dem Unterenehmenswachstum Schritt halten müssen und es der Konkurrenz eben auch nicht besser ergeht.

Die Frage nach dem Nutzen wird daher immer dringlicher, eine entsprechende Abschätzung durch die steigende Komplexität gleichzeitig aber immer schwieriger. In eine empirischen Untersuchung**) hat Diebold nun nachgewiesen, welch unangenehme Überraschungen und weitreichende Konsequenzen aus einer solchen Analyse hervorgehen können - und zwar am Beispiel der Bankenbranche.

Denn gerade für den Bankenbereich ist die Wahrnehmung von Wettbewerbsvorteilen schon fast überlebenswichtig. Da tummeln sich immer mehr Wettbewerber auf hart umkämpften Märkten. Durch die Marktsituation in die Enge getrieben, stöhnen nicht wenige Geldhäuser über Kostendruck und sinkende Margen. Die Geschäftsergebnisse der Großbanken zeigen zwar ein positives Bild, bei Sparkassen und Kreditinstituten dagegen gingen die Jahresüberschüsse merklich zurück.

Hinzu kommen qualitative Einflüsse, die so manchem Institut Kopfzerbrechen bereiten. Nicht erst durch das Hineinlachen in neue Aktivitäten sind die Finanzdienstleister für Privatkunden zu einer Drehscheibe

geworden für eine Vielzahl von Vorgängen des täglichen Lebens. Für die Institute bedeutet dies nicht nur ein Anschwellen der Datenflut. Diese verlangt zudem auch nach eine immer schnelleren Abwicklung

beziehungsweise Bearbeitung.

Nicht zuletzt wird durch das wachsende Vermögen der Bundesbürger und die Liberalisierung der Kapitalmärkte das Anlagegeschäft für die Banken zunehmend wichtiger.

Gleichzeitig verlangt die kapitalkräftig und anspruchsvoll gewordene Kundenschaft rundherum nach Professionalität und einem Service, der ihre hohen Ansprüche zufriedenstellt. Erwartet wird heute bekanntlich

- Schnelligkeit,

- nicht von Geschäftszeiten begrenzte Möglichkeiten zur Inanspruchnahme von Dienstleistungen,

- aktuelle und individuelle Anlageangebote,

- zügige und präzise Beratung.

Und das alles zu wettbewerbsfähigen Konditionen. Eine zentrale Rolle bei der Bewältigung dieser vielfältigen Anforderungen nimmt die Organisation und die Informationsverarbeitung ein. Mittlerweile steht und fällt gar der Erfolg eines Kreditinstitutes mit der Leistungsfähigkeit seiner Informationsverarbeitung. Dabei geht es weniger um die traditionelle Abwicklung des Massengeschäftes, was heute kaum noch Kopfzerbrechen

bereitet, als vielmehr um die vorgangsorientierte, individuelle Nutzung von Informationen auf der Grundlage einer maßgeschneiderten institutsindividuellen informationstechnischen Infrastruktur. Und in dem Maße, wie die Qualität von Bankdienstleistungen mehr und mehr von den dahinterstehenden informationstechnischen Systemen abhängt, erhalten die Dienstleistungen der Informationsverarbeitung auch einen ganz besonderen

Stellenwert.

Die Rechenzentren versuchen, durch immer bessere und umfassendere Lösungen dem Wettbewerb vorauszueilen. Jedoch entwickeln sie ihr Dienstleistungsangebot nicht zum Selbstzweck. Die Banken, welche die Rechenzentrumsleistungen finanzieren, müssen die entstehenden Kosten in der Preisgestaltung an die Kunden weitergeben und stehen damit voll im Wettbewerb. Um so mehr müssen sie ihre Mitarbeiter von teuren

Routinetätigkeiten entlasten.

Die Kundenbetreuer sollen sich ja durch die DV-Unterstützung auf serviceorientiertere und damit letztlich die Position stärkende Tätigkeiten konzentrieren können wie beispielsweise auf die qualifizierte Kundenberatung. Darüber hinaus erwarten sich die Kreditinstitute von der Automatisierung eine weitere Erschließung von Rationalisierungspotentialen. Kaum mehr vorstellbar scheint bereits, Bankgeschäfte ohne Automatisierung effizient abwickeln zu können.

Erklärtes Ziel der Verantwortlichen in den Banken ist es daher, die DV-Systeme den ständig wachsenden Anforderungen anzupassen und weiter auszubauen, um so hochqualifizierte Beratungsaufgaben kundenwirksam zu unterstützen. Die auch weiterhin zu erwartenden, massiven Investitionen in die

Datenverarbeitung erscheinen daher rundherum vernünftig und plausibel.

Doch zwischen Anspruch und Wirklichkeit, das zeigte die Diebold-Studie deutlich, klaffen Welten. Trotz eines umfangreichen DV-Dienstleistungsangebotes sind Papier und Bleistift nach wie vor die

wichtigsten Werkzeuge im Privatkundengeschäft der Banken. Deren Mitarbeiter füllen Belege immer noch mit der Hand aus, um sie dann am Terminal erfassen zu lassen, alternative Kreditangebote werden dem Kunden im

Beratungsgespräch mit Hilfe eines Taschenrechners ausgearbeitet und die Anlageberatung erfolgt anhand von Papierlisten oder mit Vortageskursen aus der Zeitung. In kaum einer der von Diebold untersuchten 19 Banken nahmen die Mitarbeiter die angebotene und vorgehaltene DV-Unterstützung voll in Anspruch. Im Durchschnitt nutzten sie gerade so zwanzig, dreißig Prozent. Zwei Beispiele für die vorherrschenden Verhältnisse zeigt die Abbildung 1.

Das sind - wohlgemerkt - keine Einzelfälle oder besonders herausgegriffene krasse Fehlbeispiele. Vielmehr handelt es sich um absolut realistische Werte, wie ein kurzer Blick in den Ablauf der Studie belegt, die in drei Phasen durchgeführt wurde:

- Analyse der DV-Dienstleistungsangebote seitens der 19 untersuchen Banken-Rechenzentren beziehungsweise DV-Abteilungen für die angeschlossenen Banken,

- Untersuchung der an Rechenzentren angeschlossenen 19 Banken (inklusive der drei Großbanken) bezüglich ihrer DV-Nutzung (nach Einschätzung des Managements),

- und schlielßlich ein halbjähriger Praxistest mit "Testkunden", inwieweit die von den Rechenzentren angebotenen DV-Dienstleistungen von den Banken beziehungsweise Bankmitarbeitern im Kontakt mit Privatkunden genutzt werden.

Diese in der Bundesrepublik Deutschland in dieser Form erstmals durchgeführte Untersuchung macht daher die kurz skizzierten, frappierenden Erkenntnisse über den viel zu geringen Nutzungsgrad teurer Informatik auch so brisant.

Das Argument, daß Bankkunden von einer zu technisierten Bedienung und Beratung abgeschreckt werden könnten und die Mitarbeiter deshalb darauf verzichten, verfängt nicht. Denn der hohe und immer noch steigende Akzeptanzgrad bei der Kundenselbstbedienung - auch das ein Ergebnis der Studie - spricht hier eher für das Gegenteil. Die Lücke, die sich zwischen den getätigten Investitionen und der tatsächlich vom Kundenberater von seinem System abgeforderten Nutzung auftut, stellt letzten Endes nichts anderes dar als

verpulverte Informatik-Millionen.

Und das Management der Banken, das sich eines massiven Wettbewerbsvorteils sicher wähnt, muß erkennen, daß es statt der strategischen Waffe Informatik ein zwar teures, aber eben stumpfes Instrument für den Wettbewerb hat. Nicht ohne Mitschuld: Denn offenbar glaubt das Management, mit einer getätigten Investition bereits zur Konkurrenz aufgeschlossen zu haben.

Wie die Diebold-Untersuchung nämlich außerdem zutage förderte, weiß das Management nur in den seltensten Fällen präzise, welche Leistungen das Rechenzentrum anbietet beziehungsweise zu welchem Prozentsatz die Anforderungen abgedeckt werden. Mal wurden die DV-Unterstützungsleistungen geringer vermutet, als es diese in Wirklichkeit waren, in anderen Fällen kam es zu Überschätzungen. Damit kann aber

unmöglich klar sein, was wofür bezahlt wird. Und zwangsläufig schließt sich damit die dringend benötigte Bewertung des Nutzens von vorneherein aus. Die Vermutung, daß hier viel ins Blaue hinein investiert wird, liegt nahe.

Das zweite der Untersuchung abzulesende Versäumis ist die wenig konsequente Um- und Durchsetzung einst getroffener, strategischer Informatik-Entscheidungen - und zwar bis hin zum Bankschalter. Natürlich ist das Management an einer breiten Nutzung der DV-Unterstützung interessiert schließlich kann hierdurch sowohl die Produktivität gesteigert als auch ein Imagegewinn als fortschrittliches Dienstleistungsinstitut erreicht werden.

Wer aber nicht erkennt, daß die eigenen Mitarbeiter einen nicht zu unterschätzenden Engpaß darstellen können, wiegt sich in trügerischer Sicherheit.

Nur in die Informatik zu investieren und dann zu glauben, die entscheidenden Impulse zur Verbesserung der Wettbewerbsposition damit bereits gesetzt zu haben, kann zu unliebsamen Überraschungen führen. Wie die Beratungspraxis immer wieder zeigt, schneiden im Wettbewerb nämlich keinesfalls die Unternehmen am besten ab, die am meisten in ihre Informationstechnik investieren. Keineswegs impliziert dies jedoch den Umkehrschluß, auch ohne Investitionen in die Informatik im Wettbewerb mithalten zu können (Abbildung 2).

Maßgeblich für den Erfolg ist hier - wie auch in allen anderen Branchen - eine aus der Unternehmensstrategie abgeleitete Informatikstrategie, ein an den Zielen ausgerichtetes Preis Leistungs-Verhältnis beziehungsweise Kosten-Nutzen-Verhältnis in der Informatik und die konsequente Umsetzung

getroffener Entscheidungen.

Natürlich kann es passieren, daß sich bei der Umsetzung Fehler einschleichen, neue und deshalb ungewohnte Wege von den Mitarbeitern umgangen werden oder sich schlicht Umstände geändert haben und daher eine Anpassung von Zielen, Plänen und Maßnahmen erforderlich wird.

Beide - das Management der Banken und das der Rechenzentren - sollten deshalb bei der Ursachenfindung den folgenden Fehlerquellen nachgehen:

- Richtige Aufgabenstellung beziehungsweise Ziele im Org/DV-Bereich - Sind die Ziele klar definiert und ist deren Erreichung ausreichend geplanten?

- Organisatorische Einbettung - Sind die Zuständigkeiten richtig verteilt und werden die erkennbaren Veränderungen durch den Informatikeinsatz genug berücksichtigt?

- Systemdesign - Sind die von den Rechenzentren bereitgestellten Unterstützungsangebote bedienerfreundlich und außerdem so optimal gestaltet, daß sie Entlastung bringen und dem Bankmitarbeiter eine Verbesserung bieten? Wurden die Bankmitarbeiter in die Entwicklung der DV-Dienstleistung einbezogen?

- Realisierung und Einführung - Wurden die Bankmitarbeiter schrittweise an die Technik herangeführt und die damit entstehenden Vorteile und Verbesserungen deutlich gemacht? Hatten sie Gelegenheit zum Ausprobieren? Waren die Schulungsmaßnahmen ausreichend?

Sicherlich gibt es genug Analysen und Optimierungsmöglichkeiten, solche Probleme anzugehen und in den Griff zu bekommen.

Doch bevor nur isolierte Bereiche optimiert und damit letztlich nur Symptome kuriert werden, ist eine grundsätzliche Überprüfung - das legt auch die aktuelle Untersuchung nahe - von Effizienz und Effektivität beim Einsatz der Informatik unverzichtbar.

Das gilt auch und ganz besonders in den Fällen, wo vermeintlich alles nach Plan verläuft. Erst wenn Art und Ausmaß fehlgeleiteter beziehungsweise nur unzureichend genutzter Investitionen feststehen, lassen sich geeignete Gegenmaßnahmen einleiten.

Ausgangspunkt ist die Standortbestimmung

Für eine solche Überprüfung hat sich bei Diebold die folgende Vorgehensweise bewährt (Abbildung 3). Ausgangspunkt ist immer eine Standortbestimmung - und zwar anhand der drei wesentlichen Merkmale

- Beurteilung des Preis-Leistungs-Verhältnisses,

- Nutzung der Informatikeinrichtungen,

- Bewertung der Informatik.

Dabei sind Aussagen zu treffen hinsichtlich des Preis-Leistungs-Verhältnisses aus einer externen Sicht heraus. Zu untersuchen sind die Preise, die etwa als Gebühren- oder Kostenverrechnung weitergegeben

werden, sowie die durch den Informatikeinsatz erreichte Wirkung (Leistung).

Die Stellungnahme zur kostenoptimalen Nutzung der Informatik ist darauf ausgerichtet, die Effizienz der Informatik zu untersuchen. Hierbei stehen die Nutzung der technischen Geräte und des Netzwerks, die

Organisation der Produktions-Rechenzentren und Backups sowie die Bewertung von Entwicklungstechnologien und Automationssubstanz im Vordergrund.

Neben dieser mehr technisch orientierten Sichtweise sind wichtige Einflußfaktoren wie die jeweiligen Unternehmenszielsetzungen und -strategien, die Organisationsstrukturen und unter Umständen Gremienfunktionen, die personelle Situation in quantitativer, qualitativer und funktionaler Hinsicht sowie die Kosten- und Ertragssituationen zu bewerten. Ergebnis dieses Untersuchungsschrittes ist eine Bewertung der Nutzung der Informatik sowohl nach technischen als auch entwicklungsspezifischen Aspekten unter

Berücksichtigung der Umfeldbedingungen. Neben Schwachstellenkatalogen zu den Untersuchungsbereichen sollten signifikante Kennzahlen und Relationen von technischen Daten und Personalstrukturdaten aus Vergleichsunternehmen herangezogen werden.

Die Bewertung der Informatik erfolgt durch eine Gegenüberstellung der Preis-Leistungs-Bewertung für die Servicenehmer beziehungsweise Benutzer und der Bewertung des Nutzungsgrades. Meßllatte ist dabei der heutige Stand der Technik, das heißt die zu beurteilenden Gegebenheiten werden an dem gemessen, was heute technisch machbar ist. Mit der Portfolio-Methode lassen sich dann quantitative Gegebenheiten darstellen und bewerten, wobei - in der Regel in einem Workshop - die Verantwortlichen der Organisation einbezogen werden sollten.

Aus dieser Standortbestimmung läßt sich schließlich ein Maßnahmenpaket aus Verbesserungsvorschlägen ableiten. Solche Maßnahmen können beispielsweise sein:

- aufbau- und ablauforganisatorische Gestaltungsregeln einschließlich der Kompetenz und Entscheidungsregeln (besonders bei Gremien),

- personelle Anforderungsspektren hinsichtlich quantitativer und qualitativer Notwendigkeiten,

- applikatorische und systemtechnische Anforderungen, die auch die derzeitige Automationssubstanz sowie geplante Neuentwicklungen mit berücksichtigen.

Dabei sind quantitativ wie auch qualitativ die daraus abzuleitenden Konsequenzen darzulegen hinsichtlich Kostenauswirkungen, Ertragsveränderungen, der bestehenden Vertragssituation gegenüber

Lieferanten und Kunden und nicht zuletzt die Auswirkungen auf die direkten Benutzer. Ein solches Maßnahmenpaket als eine mögliche Zukunftsform ist dann der derzeitigen Situation gegenüberzustellen und anschließend zu bewerten. Von besonderem Interesse sind dabei:

- eine quantitative Kosten-Nutzen-Betrachtung,

- eine Chancen- und Risikenbewertung hinsichtlich - organisatorischer Machbarkeit,

- technischer Möglichkeit,

- Handhabbarkeit der Gremien,

- personelle Möglichkeiten hinsichtlich Qualifikation Personalmarkt und Motivation,

- die Auswirkung auf eventuelle Kooperationspartner sowie möglicherweise betroffene Verbände,

- mögliche marktpolitische Konsequenzen durch partnerschaftliche Zusammenschlüsse.

In einem letzten Schritt muß dann auf der Basis der Verbesserungsvorschläge ein konkreter Maßnahmenplan für die schrittweise Umsetzung der Empfehlungen erstellt werden. In der Regel besteht ein solcher Plan aus einer Reihe von Einzelelementen, die Maßnahmen und Investitionen im zeitlichen Rahmen darstellen. Auch die Ertragsanalysen werden entsprechend den Maßnahmen auf der Zeitachse aufgezeigt.

Dieser Plan sollte die erforderlichen Maßnahmen für Unternehmensziele und -strategie, Organisation, Personal, Technik und Infrastruktur, Applikationen, Servicenehmer und Benutzer, aber auch für mögliche Kooperationspartner enthalten und somit einen nach Prioritäten geordneten Handlungsrahmen darlegen.

Mit einer solchen Uberprüfung von Effizienz und Effektivität beim Einsatz der Informatik erhält das Management vor allem verläßliche Informationen über Status und Schlagkraft der eigenen Informatik.

Maßnahmen- und Realisierungspläne erleichtern darüber hinaus die Orientierung für die zu ergreifenden Schritte. Doch selbst eine Entwarnung von der Informatikfront - in den Fällen, wo alles tatsächlich nach Plan

verläuft - rechtfertigt eine solche Überprüfung. Immerhin ist dann die nagende Ungewißheit vom Tisch.