Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

17.07.1992 - 

2000 Unternehmen in den USA befragt

Sentry Market Research: Hohe Kosten bremsen die Entwicklung

Das Leben als DV-Manager ist schwer geworden: Zentrale Datenverarbeitung gilt nicht mehr als das allein Seligmachende, neue IT-Konzepte, etwa dezentrale Client-Server-Lösungen, stehen zur Diskussion. Anhand einer neuen US-Studie wird in Zahlen gemessen, wie es um das Client-Server-Computing steht. Ferner soll aufgezeigt werden, wie sich fehlende Lösungen seitens der Hersteller mit anderen Mitteln kompensieren lassen.

Auf dem IT-Gebiet gibt es derzeit zwei Bereiche, die als kennzeichnendes Merkmal das Fehlen von Konzepten haben: CASE-Tools und Client-Server-Computing. Viele Unternehmen stürzen, überwältigt von der Informationsflut, sowie unter dem Druck des DV-Controllings und der Vorstandsanfragen über ihre Mainframe-Klippe in den Client-Server-Abgrund, ohne zu wissen, was sie dort erwartet.

Zu Zeiten, als seriöse Informationsverarbeitung ausschließlich auf dem Mammuts der DV - den Mainframes stattfand, war es eine Selbstverständlichkeit, daß die Hardware Millionen kostete; Software und Support verschlangen ähnliche Summen. Jede Neuanschaffung beziehungsweise jede Änderung schlug daher schwer zu Buche und mußte langfristig geplant werden.

Trotz fallender Preise keine überstürzten Käufe

In der Regel gab es nur eine Handvoll Alternativen. Der Hardwarehersteller lieferte oft auch die Software und garantierte den nötigen Support. So war Funktionalität garantiert, Flexibilität nicht gewünscht, Heterogenität eine abwegige Forderung und Abhängigkeit selbstverständlich.

Heute verführen der Preisverfall im Hardwarebereich und das umfangreiche Softwareangebot die DV-Manager dazu, übereilte Entscheidungen zu treffen, ohne Heterogenität und Portabilität genau zu prüfen. Der Entwurf einer Client-Server-Infrastruktur benötigt jedoch im Vergleich zur Mainframe-Umgebung eine andere Planung. Sie beginnt bei scheinbar trivialen Dingen wie der Topologie eines LANs, und setzt sich fort sowohl in der Auswahl der Hardware-Infrastruktur sowie der Entwicklungs- und Anwendungsplattform als auch im Applikationsdesign, das heißt, es ist festzulegen, welche Teile auf dem Server und welche auf dem Client ablaufen sollen.

Vor diesem Hintergrund führte das US-Unternehmen Sentry Market Research in den letzten Monaten eine Studie durch, die Trends und Aussagen mit Zahlen untermauert. Rund 2000 US-Unternehmen wurden dafür von den Analysten nach dem Einsatz und der Planung von Client-Server-Computing befragt.

Unterschiedliche Auffassungen über den Client-Server-Begriff sorgen häufig für Verwirrung. Im allgemeinen wird unter Client-Server-Computing der gesamte Bereich des Distributed Processing verstanden. Echtes Client-Server-Computing fällt zwar in den Bereich der verteilten Datenverarbeitung, ist jedoch durch drei Faktoren genau gekennzeichnet:

- Eine Anwendung läuft zu Teilen auf dem Server und den Clients. Server und Client sind unterschiedliche, kommunizierende Prozesse.

- Der Client fordert Dienste an, die vom Server erbracht werden.

- Der Ablauf eines Programms wird durch den Client gesteuert. Über 70 Prozent der befragten Unternehmen investieren mehr als eine Million Dollar in ihre DV-Infrastruktur. Im Durchschnitt werden fast 400000 Dollar für den Client-Server-Bereich ausgegeben. Mehr als 50 Prozent der Investitionen fließen derzeit in die Hardware und Administrationssoftware. Ferner wird viel Geld für Beratungsleistungen verwendet.

Im Client-Bereich dominiert der PC mit MS-Windows als Plattform. Ebenso deutlich kommt heraus, daß grafische Benutzeroberflächen (GUI = Graphical User Interface) für den Client-Bereich bereits heute De-facto-Standard sind - dem müssen DV-Manager Rechnung tragen. Dafür spricht zum Beispiel

- ein einheitliches Erscheinungsbild für alle Anwendungen,

- die Möglichkeit des Datenaustauschs zwischen den Anwendungen sowie

- die intuitive Bedienung.

GUIs haben sowohl für Anfänger als auch für erfahrene Computerbenutzer signifikante Vorteile. Erfahrene User arbeiten mit Hilfe von GUIs schneller und besser, bei höherer Produktivität und mit geringerer Ermüdung. Bei den Anfängern kommt hinzu, daß sie weniger frustriert sind, weil sich Anwendungen eher autodidaktisch erlernen und mehr Funktionen ausnutzen lassen.

Auf der anderen Seite ist der Programmieraufwand für GUIs sehr hoch. Bis zu 80 Prozent des Programmcodes werden allein durch Anweisungen für die Programmierung der grafischen Oberfläche verschlungen. Erschwerend wirken sich hier zudem kurze Release-Wechsel der jeweiligen Oberflächen aus.

DV-Manager versuchen dieses Problems mit drei Mitteln Herr zu werden, nämlich durch

- den Einsatz von Anwendungsentwicklungs-Tools,

- einer Unterteilung der Anwendungen in wiederverwendbare Bausteine sowie

- die Installation von Portierungs- und Migrationsstrategien.

Im Serverbereich dominieren weiterhin die Mainframes. Drei wichtige Gründe spielen hier eine Rolle.

- Die primären und sekundären Speicherkapazitäten sind mindestens um den Faktor zehn größer als bei PC- beziehungsweise Workstation-Servern.

- Viele Anwendungen benötigen sehr große Datenmengen, die von vielen Benutzern gleichzeitig verwendet werden. Dafür bietet der Mainframe Performance-Vorteile.

- Ein Großrechner erfordert zugangsläufig einen hohen Administrationsaufwand. Dafür bietet er aber zwei wesentliche Vorteile gegenüber PC-Workstation-basierten Client-Server-Systemen: Zum einen gibt es bessere Sicherheitsstrategien gegen fremden Zugriff auf Daten, zum anderen die (integrierte) Möglichkeit, Backup und Recovery von Daten durchzuführen.

Daraus kann folgendes Fazit gezogen werden: Die Anwender investieren bei Client-Server-Lösungen vor allem in Hardware und Administrations-Tools. Jedoch setzen viele DV-Leute Client-Server-Computing eher mit dem verteilten Rechner- und Datenverbund gleich. Ferner läßt sich feststellen, daß es seitens der Anbieter von Client-Server-Werkzeugen und -Produkten an einheitlichen Konzepten fehlt.

Die großen Anbieter dominieren in diesem Bereich, obwohl nach Aussage der DV-Manager eher die kleinen Anbieter die Bedürfnisse des Marktes erfüllen. Oracle, DB2, Sybase und Informix haben die größte Verbreitung. In laufenden Planungen werden aber andere Datenbanksysteme wie Ingres und Adabas berücksichtigt, deren Produkte eher den Erwartungen einer Client-Server-Datenbank entsprechen.

An erster Stelle steht die Forderung der IS-Fachleute nach Datenintegrität, gefolgt von hoher Rechenleistung und ausreichender Sicherheit. Aber auch die Unterstützung von SQL und die Verfügbarkeit von Tools sind wichtige Kriterien, die bei der Entscheidung für eine - Client-Server-Datenbank einfließen.

Die Möglichkeit, Kapazitäten modular auszubauen, gilt als Hauptargument für das Client-Server-Computing. Ferner messen die IT-Profis dem im Vergleich zur Mainframe-Infrastruktur besseren Preis-Leistungs-Verhältnis großen Wert bei. Weitere Vorteile verspricht man sich bei einer Client-Server-Infrastruktur dadurch, daß sich Anwendungen besser entwickeln lassen sowie deren Bedienung vereinfacht und vereinheitlicht werden kann.

Als größten Nachteil bei einer Client-Server-Lösung nennen die DV-Manager die vielschichtigen Organisationsstrukturen. Ferner wirke sich das mangelnde Verständnis des Client-Server-Modells, fehlende Anwendungsentwicklungs-Tools sowie die hohen Investitionen für die Hardware-Infrastruktur negativ auf die Akzeptanz aus. Auch die fehlenden Sicherheitskonzepte werden bemängelt.

Die größten Hindernisse auf dem Weg zum Client-Server-Computing stellen die hohen Kosten für neue Hard- und Software dar. Weitere Problemstellungen ergaben sich aus offenen Fragen bezüglich der Anwendungsmigration und der Systemintegration.

Aber auch die mangelnde Verfügbarkeit von Entwicklungs-Tools, die geringe Datensicherheit sowie die beim Ersteinsatz von Client-Server-Lösungen erforderlichen Schulungskosten könnten der Implementierung von Client-Server-Systemen im Wege stehen. Maßnahmen für einen Wechsel zu Client-Server-Computing werden sich auf die Bereiche Migration und Portierung von Anwendungen, und zweitens auf die Definition eines standardisierten Gestaltungsrasters für die Anwendungen unter Benutzeroberflächen haftet das Vorurteil an, nur für kleine Anwendungen oder Prototypen geeignet zu sein. Aber genauso, wie heute niemand mehr seine Anwendungen ausschließlich in Assembler programmiert, werden in Zukunft viele Unternehmen nicht mehr mit den einfachen Development-Kits arbeiten.

Die auf dem Markt angebotenen Entwicklungs-Tools unterscheiden sich in ihren Fähigkeiten signifikant. So gibt es beispielsweise Tools, die sich nur für Prototyping verwenden lassen, andere Werkzeuge erlauben die Generierung von Programmen und wiederum andere bieten eine ganze Entwicklungsumgebung an.

Die Sentry-Studie stellt eindeutig fest, daß das Fehlen geeigneter Entwicklungswerkzeuge ein großes Manko darstellt. TC-Management beschäftigt sich seit 1991 im Rahmen einer Studienreihe über "Application Development Tools für die Client-Server-Architektur" damit, wie sich die Auswahl von Anwendungsentwicklungs-Tools durchführen und systematisieren läßt.

Den Einsatz von Anwendungsentwicklungs-Tools bestimmt eine Reihe wichtiger Faktoren. Die Art der Anwendung, ob es sich zum Beispiel um einen Prototypen, ein Inhouse-Produkt oder kommerzielle Software handelt, entscheidet über die Qualitäts- und Leistungsanforderungen. Die vorhandene Hard- und Software-Infrastruktur schreibt die Entwicklungs- und die Zielplattformen vor. Außerdem kann auch das Mitarbeiterprofil die Menge der einsetzbaren Tools stark einschränken oder erlaubt Aussagen über den notwendigen Schulungs- und Lernaufwand - beispielsweise bei der Einführung einer objektorientierten Produktionsumgebung.

Die Kosten werden über Jahre hinweg gemessen, wobei Mehraufwendungen für Produkteinkauf und Updates durch Zeiteinsparungen bei späteren Maintenance- und Migrationsaufgaben schnell kompensiert sind. Funktionalität zählt als wichtiges Kriterium, da diese entscheidend dafür ist, ob sich ein Anwendungsentwicklungs-Tool für die geplanten Applikationen verwenden läßt.

* Michael Seiger ist als Senior Consultant bei TC-Management, einem internationalen Beratungsunternehmen für Informationstechnologie tätig. Thomas Curran ist Gründer und Geschäftsführer des in München ansässigen Unternehmens.