Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

01.05.1992 - 

Wenn verteilte DV in heterogenen Systemen auf Stolpersteine trifft

Pfade durch Systeme umgehen die Inkompatibilität der Daten

Der Trend zu verteilter Datenverarbeitung in heterogenen Umgebungen hat einen entscheidenden Haken: Die Integration scheitert weniger an der Verschiedenartigkeit von Maschinen als an der unterschiedlichen Art und Struktur der Daten. Hierzu sind schon viele Lösungsansätze ausprobiert worden, einige Konzepte - Distributed Computing beziehungsweise -Management Environment werden gerade realisiert. Dieter Bülow* beschreibt ein System, das schon länger existiert - und funktioniert.

Der ursprüngliche Stolperstein, die Vielfalt der Systeme, liegt ganz im Trend: Distributed Processing ist angesagt. Die physikalische Vernetzung ist Routine, Gateways sind verfügbar. Damit kommen jedoch immer noch nicht die Daten zusammen, und schon gar nicht in der Form, in der sie von Nutzen sind, nämlich aufbereitet als Informationen.

Das Ziel heißt unternehmensübergreifende Informationen. Die Vielfalt der Systeme verlangt geradezu Distributed Processing - leider ist der Anschluß zunächst zwecklos, weil Kompatibilität nicht besteht. Das Problem tauchte erstmals in der Statistik auf, lange bevor man realistische Möglichkeiten sah, diese in bedienungsfreundliche Führungssysteme einzubinden. Daß Anwendungsprogramme und ihre Dateien untereinander kommunikationsfähig sind, ist heute noch die Ausnahme, früher waren in jedem Fall äußerst arbeitsintensive Maßnahmen für jeden Einzelfall dazu notwendig.

Neben der Inkompatibilität stellt die schiere Datenmenge ein Problem dar. Sie darf man aber nicht leichtfertig beschneiden, denn gerade Entscheidungsdaten beruhen zum großen Teil auf statistischer Datenverdichtung. Allerdings muß die Gesamtheit vollständig für Stichproben verfügbar sein, damit die Statistik stimmt. Ferner müssen brauchbare Daten aktuell sein. Unter diesem Aspekt erweist sich Filetransfer von Datenextrakten und deren redundante Ablage zu Anpassungszwecken als wenig brauchbare Krücke.

Alte Datenbestände in neue Konzepte einbinden

Deshalb beschäftigt sich die Computergemeinde mit der Aufgabe, Kompatibilitätsmauern zwischen Hardwarefamilien, Betriebssystemen, heterogenen Datenbanken und Anwendungsprogrammen niederzureißen. Eine Vielzahl von Standards auf verschiedenen Ebenen, APIs, objektorientierte Systeme etc. zeichnen Wege dorthin. Diese globalen Philosophien setzen jedoch einen Neuanfang voraus. Die Einbeziehung der historisch gewachsenen Daten- und Softwarebestände, die oft eine sehr langfristige Brauchbarkeit aufweisen, aber auch die kurzfristig auszutauschenden Hardwareressourcen, läßt sich vorerst nicht oder nur mit starken Einschränkungen realisieren.

Der Kostenaufwand für die Umstellung, die Neuerfassung der Daten oder deren Konvertierung ist sehr hoch, ebenso der für die Umschulung und Eingewöhnung der Benutzer. Wartet man indessen auf das Anwachsen der seit dem Starttag anfallenden Daten, so stellt sich deren volle Wirksamkeit erst sehr viel später ein. Mit anderen Worten: Die großen Konzepte für das "Ab jetzt wird alles anders" lösen die Probleme von morgen, nicht die von heute.

Deshalb gibt es Bemühungen, die bestehenden Datenquellen in die neuen Systeme einzubeziehen. Die IBM ist mit ihrem "System View" für das Performance Management der Rechenanlage und dem "Information Warehouse"-Konzept hervorgetreten: Wie meist sind das große Entwürfe, deren Verwirklichung ihre Zeit brauchen wird. Fachleute sprechen von fünf Jahren. Dem stehen bescheidenere Ansätze gegenüber, die den Vorteil haben, verfügbar zu sein.

Zugriff auf heterogene Datenbanken sieht zum Beispiel Comshare, Köln, im Bereich EIS (Executive Information Systems) vor. Uniplex, München, konzentriert sich auf die Bürokommunikation: Auf der Basis von Unix, egal, ob auf einem PC oder einem Mainframe, greift man auf beliebige Datenquellen zu, um sie in typischen BK-Anwendungen wie Kalkulation oder Textverarbeitung zu verwerten. Standards zielen in die gleiche Richtung. Tuxedo, ein Standard der Unix System Laboratories, zwingt für verteilte Online-Transaktionsverarbeitung Datenbanken in die Kooperation, und zwar außer unter Unix auch unter DECs VMS und IBMs MVS.

Ob Distributed Computing Environment (DCE) von der OSF, ob "Open Enterprise" als Präsentationsthema der IBM: Charakteristisch für all diese Ansätze ist, daß nicht alle Grenzen, sondern nur einzelne überwunden werden. Nicht eine Teillösung, vielmehr eine Art Generalschlüssel bietet SAS Institute, Heidelberg, an. Das Unternehmen schlägt Pfade durch die Systeme, um unabhängig von Hardware, Betriebssystem, Datenbanksystemen, sequentiellen Dateisystemen und Anwendungssoftware Informationen aus einer beliebig komplexen Infrastruktur herauszuziehen.

Dabei werden in der Multivendor Architecture mit vergleichbar geringem Aufwand auch solche Plattformen einbezogen, die nicht als standardisiertes oder offenes System gelten können. Das SAS-System ist ein Vorgriff auf Warehouse. So arbeitet die Firma von James Goodnight, Professor an der State University in North Carolina, denn auch als einer der IBM-Partner an der Warehouse-Verwirklichung mit.

Der Ansatz besteht darin, Pfade durch das System zu den jeweiligen Daten zu legen und diese dann in Rohform datensatz- oder feldweise abzuholen. Sie werden zunächst in einer "Software-Engine" hinsichtlich Struktur und Format analysiert und dann in das Datenmodell des Front-ends aufgenommen. Dieses Datenmodell muß einen nach oben offenen Grad der Flexibilität aufweisen, um Auswertungen in beliebigen, leicht änderbaren Anwendungen zu erlauben. Auf dem gleichen Weg rückwärts ist das Update organisiert. Das Ergebnis ist ein "Information Delivery System".

Mit dem System, oft noch in spezialisierten "Nischen" wie der auf statistischen Auswertungen fußenden Qualitätssicherung betrieben, arbeitet heute die Crème de la crème der deutschen Industrie, nämlich 85 der 100 umsatzstärksten Unternehmen. An deutschen Universitäten ist es so gut wie überall Standard, wo Statistiken eine Rolle spielen, von den Ingenieurswissenschaften bis zur Psychologie. Ein typisches Beispiel für die Möglichkeiten, aus Informationslieferungen konkrete Anwendungen zu machen, ist das Vertriebs- und Marketing-System "V-Max" von der SGS Sales Growth Systems GmbH in Siegen.

Die Siegener beziehen systematisch Marktdaten ein, die der Außendienst bei seinen Kundenkontakten sammelt. Das sind weit mehr als die vordergründig relevanten Informationen über Kunden. Hinzu kommen Daten über Branchentrends, Marktentwicklung, Wettbewerbssituation etc., die jederzeit abrufbar zur Auswertung zur Verfügung stehen.

Diese extern gesammelten Informationen werden mit den intern erfaßten Daten in relationalen Datenbanken zusammengefaßt, so daß Abgleich, Analyse und Steuerungsimpuls mit dein besten im Unternehmen erreichbaren Marktwissen erfolgen können. Allen marktorientierten Bereichen steht für Analysen, Entscheidungen und Konzepte eine einheitliche Datenbasis zur Verfügung.

Heidrun Sass-Schreiber, Mitgeschäftsführerin von SGS: "Die besten Marktforscher sind die Vertriebsbeauftragten. Sie sammeln täglich Informationen und nehmen Veränderungen am Markt als erste wahr. Aber dieses detaillierte Wissen versickert zumeist, schlummert in den Karteien oder ist in einzelnen Köpfen gespeichert."

Von Adressen über einen Vergleich des Gesamtbedarfs eines Kunden mit dem eigenen Lieferanteile die Bewertung der Attraktivität des Kunden und der eigenen Wettbewerbsstärke, Informationen über das Verhalten der Wettbewerber, über erhaltene und verlorene Aufträge bis hin zur Projektverfolgung werden relevante Informationen gespeichert. Sodann stehen sie zum Beispiel mittels der Portfolio-Analyse zur Beantwortung unternehmensstrategischer Fragen zur Verfügung: Welche Kundenpotentiale lassen den größten Erfolg erwarten, welche Maßnahmen verbessern am effizientesten die eigene Wettbewerbsposition?

Ralf Goebel, ebenfalls Geschäftsführer bei SGS, ergänzt: "Diese Möglichkeit zur Verknüpfung der Vertriebs- und Marktdaten mit bereits vorhandenen operativen Systemen, wie Auftragsabwicklung, Umsatzstatistik und Produktstammdaten, ist einer der ausschlaggebenden Gründe gewesen, das ganze Projekt auf dem SAS-System aufzubauen. Dabei spielt eine besondere Rolle, daß auch Datensätze aus hierarchisch strukturierten Datenquellen verarbeitet werden können. Sie haben sich bisher der vielseitigen Verarbeitung in relationalen Datenbanksystemen verweigert."

Ein weiterer Grund liegt im Entwicklungssystem, das auf einer 4GL fußt und damit ermöglicht, was heute eigentlich selbstverständlich sein sollte: Offenheit nach innen durch modularen Aufbau - der übrigens in der derzeitigen Entwicklung des Systems auf objektorientiertes Programmieren hinausläuft. Modularität soll nun nicht freischaffende Künstler beflügeln. Vielmehr folgen die Module einer Systematik, die sicherstellt, daß Änderungen nicht durch die Willkür des ursprünglichen Erstellers erschwert werden können.

Willi Janiesch, Geschäftsführer der SAS Institute GmbH in Heidelberg, erklärt: "In diese Systematik gehört auch hinein, daß für Ad-hoc-Auswertungen und weniger komplexe Anwendungsvarianten eine leicht erlernbare Befehlssprache zur Verfügung steht. Ergänzend dazu benutzen Endanwender die menügesteuerte Version, die den größten Teil der Funktionen das Information Delivery Systems abdeckt."

Die Benutzeroberfläche ist auf allen Plattformen Windows, Presentation Manager oder eine X-Windows-Variante. Steht auf der Plattform dergleichen zur Verfügung, wird der jeweilige konforme Window-Manager des Informationssystems aktiv. Die Funktionalität ist überall identisch.