Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

12.06.1998 - 

Handbuch für verteilte Datenverarbeitung

Komponenten-Projekte scheitern an der Planung, nicht an der Technik

Glaubt man den Herstellern, dann ist die Entwicklung zu komponentenbasierter Software längst ausgemachte Sache. Aus Anwendersicht sieht es jedoch anders aus. Sie müssen schließlich dafür sorgen, daß die Komponenten sich mit ihrer herkömmlichen DV-Landschaft vertragen.

Lagerbildungen in der Industrie, eine Flut an fragmentarischer und zudem werblich verzerrender Information sowie Berichte von Fehlschlägen bei Pilotprojekten verunsichern die Anwender. Hier macht Dieter Jenz, Geschäftsführer der Unternehmensberatung und Hauptautor der Studie, nicht nur Mut, sondern liefert auch gleich das nötige Know-how mit, um Fehlschläge zu vermeiden. Nach seiner Ansicht gibt es keinen Grund mehr, die Planung und Realisierung von komponentenbasierten Anwendungsumgebungen aufzuschieben.

Um den Fachleuten dabei zu helfen, wurde das Übermaß an Detailinformationen verdichtet, die dahinter verschütteten Konzepte freigelegt und versucht, das Machbare vom Nicht-Machbaren zu scheiden. Auf folgende Fragen bezüglich komponentenbasierter Anwendungssysteme gibt die Studie Antwort:

- Was ist bei der Planung zu berücksichtigen?

- Wie kann eine unternehmensweite Architekturbasis aussehen?

- Welche Architekturmodelle, Schnittstellen und Standards sind wichtig?

- Welche Auswirkungen ergeben sich für Software-Entwicklung und Qualtätssicherung?

Die Gliederung des rund 700 Seiten langen Werks folgt diesen Fragen. Die ersten beiden Kapitel richten sich an das IT-Management. Dort wird die Komponententechnik zuerst in das wirtschaftliche, organisatorische und technische Umfeld der Anwenderunternehmen gesetzt. Die Themen reichen hier von der Bedeutung der PCs und des Internet zu Heimarbeitsplätzen und Konsumverhalten zu veränderten Hierarchien und Globaliserungsanforderungen.

Es folgt im zweiten Kapitel eine Einführung in die meisten wichtigen Grundbegriffe wie Client-Server, Middleware, Verteilung, Zusammenspiel von Objekten, Nachrichten und Methoden. Sie sind eingebettet in Darstellungen typischer Probleme wie der Notwendigkeit, unterschiedliche Front-end-Systeme oder Schnittstellen zu unterstützen. Es wird gezeigt, wie die Grenze zwischen den Anwendungen verschwin- det und der Wildwuchs und die funktionale Überversorgung der Endanwender zu einer Redefi- nition der betrieblichen Informationsverarbeitung führen. Ein deutliches Zeichen für die schwierige Situation ist, daß rund ein Drittel der Aufwendungen nicht mehr im IT-Budget erscheint, sondern in den Budgets der Fachabteilungen.

Schon in diesem zweiten Kapitel schälen sich klare Strukturen heraus, bei denen Verteilung als architektonisches Grundprinzip aufgefaßt wird, während Desktop-Systeme generell als Anwendungen gedeutet werden. Zu den Konsequenzen dieser Sichtweise gehört, daß die Anwendungssysteme so lose gekoppelt sein sollten, wie es geht. Hier sind möglichst große Granularität der Komponenten und ein Höchstmaß an Offenheit bei den Standards, den Produkten und Schnittstellen gefordert. An dieser Stelle deckt der Autor die Grenzen offener Standards auf, die im wesentlichen auf einen Interessenskonflikt zwischen Anwender und Hersteller beruhen. Dem Anbieter kommt es in erster Linie auf Kundenbindung an, während dieser gerne offene Systeme hätte, um bei Bedarf den Lieferanten wechseln zu können. Das Ergebnis: Offene Standards gibt es nur, wo sie unerläßlich sind. Sie decken daher bei weitem nicht das Spektrum der möglichen Anwendungsfälle ab.

Dieses grundlegende zweite Kapitel endet mit ausführlichen Schlußfolgerungen für die Planung der Informatikstrategie von den Schnittstellen über die Unternehmensabläufe bis hin zu organisatorischen und personellen Konsequenzen. Außerdem wird darauf hingewiesen, daß Migrationsprojekte heute nicht mehr an der Technik, sondern an Planungsmängeln und menschlichen Problemen scheitern.

In den beiden folgenden Kapiteln geht es technisch zur Sache. Nun sind Systemplaner ange- sprochen, die Studie bleibt aber dennoch für den informierten Nicht-Informatiker verständlich. Hier wird die technische Entwicklung der Client-Server-DV hin zu komponentenbasierten Anwendungen dargestellt. Das mit "Konzepte, Architekturen und Standards" überschriebene dritte Kapitel beginnt mit der Darstellung grundlegender Verteilungskonzepte und den technischen Anforderungen, die von den Anwendungen an sie gestellt werden. Es folgt dann der Teil, der bislang die Fachpresse und Marketing-Abteilungen in Atem hält: Die Konzepte der verschiedenen Hersteller und Industriekonsortien, dazu gehören namentlich Microsofts Component Object Model (COM), die Common Object Request Broker Ar-chitecture (Corba) von der Object Management Group, die Java-Plattform von Sun Microsystems, Systemarchitekturen wie IBMs Blueprint oder das The Open Group Open Architectural Framework (Togaf).

Auf Basis dieser Konzepte wird anhand eines verallgemeinerten Modells erläutert, wie Anwendungen in verteilbare Komponenten gegliedert werden können.

Den größten Umfang von über 200 Seiten nimmt das vierte Kapitel ein, in dem die Implementierung detailliert unter dem Gesichtspunkt der Schnittstellen, der Daten, der Administrierbarkeit, der Last und der Sicherheit behandelt wird. Hier werden - um nur ein Beispiel herauszugreifen - die Voraussetzungen der Verteilung von Daten und die Auswirkung auf die Anforderungen an verschiedene Datenbankarchitekturen diskutiert.

Zu den Schlußfolgerungen aus diesem Kapitel gehört, daß transaktionsorientierte Verarbeitung in prozeduralen Umgebungen zur Herstellerabhängigkeit führt, nicht jedoch in objektorientierten Umgebungen. Die oft versprochene Verschmelzung beider Ansätze etwa bei TP-Monitoren, wie sie zum Beispiel Bea Systems mit "Iceberg" verspricht, muß ihre Tauglichkeit noch unter Beweis stellen. Wie viele Analysten argwöhnt auch der Autor dieser Studie, daß die Marktmacht von Microsoft dem bislang dominierenden Middleware-Standard Corba schaden könnte.

Das fünfte Kapitel ist der Entwicklung komponentenbasierter Umgebungen gewidmet. Auch hier wird der Leser nicht mit Codebeispielen gefordert, sondern mit konzeptionellen Anregungen. So sollten Entwickler, bevor sie in Programmdesigns einsteigen, ein Regelwerk für die Gestaltung von Benutzeroberflächen konzipieren und sich ein für die Verteilung geeignetes Datenmodell erstellen. Danach geht es darum, sich die Reichweite der jeweiligen Anwendungen zu überlegen. Unternehmensweite Applikationen haben andere Anforderungen als solche für eine einzelne Abteilung. Es folgen die Themen Schnittstellen, Methoden zur Entwicklung verteilbarer Anwendungen, CASE-Konzepte, Anforderungen an die Entwicklungsumgebungen und Tools, wobei Werkzeugen für die Qualitätssicherung, insbesondere für Tests, ein besonderes Augenmerk gilt.

Es folgt nun nur noch eine Zusammenfasssung und der Anhang, der das Szenario eines möglichen komponentenbasierten Anwendungssystems enthält. Insgesamt behandeln die 700 Seiten für 795 Mark weit mehr als ein Spezialthema. Der Leser bekommt vielmehr ein umfassendes Handbuch zum aktuellen Stand der DV-Technik, wenn dafür auch die Hardware- und Netzkomponenten etwas zu kurz kommen. Auch fehlt ein Register für die rasche Themensuche, dafür helfen jedoch stichwortartige Randbemerkungen bei der Orientierung, sowie Zusammenfassungen nach jedem wichtigen Kapitel.

Verteilung

Kriterien für die Verteilung von Daten sind:

- Minimales Kommunikationsvolumen im Netz: Die Daten sind nahe an ihrem Verwendungsort gespeichert, um teure Übertragungswege zu sparen.

- Redundanzfreiheit: Jedes Attribut soll nur ein einziges Mal im Gesamtsystem gespeichert werden.

- Maximale lokale Autonomie: Jeder Knoten ist gleichberechtigt und in diesem Sinne ein eigenständiges Stand-alone-Datenhaltungssystem. Der lokale Knoten ist dann von Ausfällen anderer Knoten nicht betroffen.

- Höchste Ausfallsicherheit.

- Leichte Wiederherstellbarkeit: Ausfälle sind schnell behoben.

- Leichte Administrierbarkeit: Geeignete Werkzeuge unterstützen zum Beispiel die Verwaltung von Standortänderungen.

VERTEILTE DATENVERARBEITUNG

Vorteile:

- "Intelligenz" in Form von Anwendungen und Systemleistung wird in die Fachabteilungen und an den Arbeitsplatz verlagert.

- Preisgünstige und leistungsfähige Standardsoftware am Desktop erhöht die Arbeitsproduktivität.

- Mehr Verantwortung am Arbeitsplatz schafft die Voraussetzung für schlankes Management und ebenso schlanke Verwaltung.

- Die DV-Abteilung wird von Entwicklungsaufgaben entlastet.

Probleme:

- Die komplexe Materie erfordert eine fundierte Planung, das Bahnen der notwendigen Informationswege sowie die Schaffung von Instanzen wie einem Strategie-Gremium.

- Sowohl das DV- als auch das Fachpersonal muß an die neue Struktur herangeführt werden.

- In manchen Bereichen fehlt es den Techniken an Reife, insbesondere beim globablen System-Management.