Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

21.03.1986

"Feste Bindung an ein konventionelles DBMS verbaut den Weg zu relationalen Systemen"

Produkt-Ankündigungen und Erweiterungen bestehender DB-Systeme sind in der DV-Szene fast schon an der Tagesordnung. Jüngstes Beispiel ist das IBM-Announcement einer neuen Version des relationalen Systems DB2. Anlaß genug für die COMPUTERWOCHE zu fragen, welche Neuerungen und Veränderungen in den nächsten fünf Jahren auf diesem Sektor zu erwarten sind. Wir haben bewußt auf die Zukunftsansichten der Hersteller oder Anbieter von DB-Systemen verzichtet. Erfahrungsgemäß stimmen nämlich deren Vorstellungen und Prognosen für künftige Einsatzbereiche von Datenbanken verständlicherweise meist mit den Vorzügen ihrer eigenen, oft seit Jahren eingesetzten Produkte überein. CW befragte deshalb Kenner der DB-Szene, bei denen man davon ausgehen darf, daß sie keine Hersteller-gebriefte Meinung vertreten, sondern ihre eigenen Erkenntnisse und Erfahrungen zu diesem Thema objektiv wiedergeben (Teil 2).

Michael Bauer

Geschäftsführer der Innova Forum GmbH, Randolfszell

Zu Frage 5:

Der Zeitaufwand für Suchprozesse in der Datenbank wird bestimmt durch die Anzahl der physischen Plattenzugriffe und die CPU-Zeit zur Bearbeitung der gefundenen Daten.

Der kritische Faktor ist dabei die I/ O-Rate. Deshalb versuchen die heutigen DB-Systeme - auch die relationalen - serielle Suchprozesse zu vermeiden und mit Hilfe von Schlüsselumrechnung, Addresspointer oder Indizes einen möglichst kurzen Weg zu den Daten zu schaffen. Weiterhin wird die Zugriffszeit durch einen Puffer-Pool im Hauptspeicher verringert.

Ich erwarte deshalb Hardware-Entwicklungen, die die I/O-Rate weiterhin reduzieren werden. Neben größeren Hauptspeichern gehören dazu große, mittelschnelle Halbleiterspeicher, entweder als "Disk-Cache" oder sogar als Plattenersatz. Halbleiterspeicher in der Größenordnung von 512 MB und mehr werden heute bereits angeboten. Warum sollen wir nicht in einigen Jahren genügend große Speicher für alle Daten haben?

Andere Entwicklungen wie Assoziativspeicher und schnelle Scan-Prozessoren (zum Beispiel CAFS von ICL) dagegen wirken sich nur bei seriellen Suchprozessoren aus, wo die von den Platten gelesenen Daten schnell bearbeitet werden müssen. Doch das Durchlesen großer Datenmengen auf heutigen Platten ist keine sinnvolle Lösung. Erst mit neuen, schnellen Speichermedien können solche Techniken wirkungsvoll eingesetzt werden. Die komplizierten und teuren Schaltungen eines Assoziativspeichers, den es ja schon ein Jahrzehnt gibt, machen seine weite Verbreitung unwahrscheinlich.

Zuletzt bleibt noch der Ansatz intelligenter Platten-Controller, die beim parallelen Lesen auf allen Plattenoberflächen die Daten sofort herausfiltern. Auch diese Technik wird wahrscheinlich durch schnelle Speichermedien überflüssig werden.

Zu Frage 6:

Mit der Antwort auf Frage 1 wurde bereits aufgezeigt, welche Tools im Umfeld der Datenbanken entstehen beziehungsweise in welche Richtung sie sich weiterentwickeln. Es handelt sich um Werkzeuge für Auswertungen und Reports, Sprachen der vierten Generation für die Anwendungsentwicklung, Endbenutzersysteme

zur Entscheidungsunterstützung, Dokumenten-Verwaltung und -Retrieval sowie ein integriertes Data Dictionary, das alle Werkzeuge aktiv unterstützt.

Bei den Tools für die Programmentwicklung ist es wesentlich, daß sie in einem systematischen Entwicklungsprozeß eingebettet werden, der Design-Funktionen für das Fachkonzept und die Datenstrukturen umfaßt. Ansätze und Entwicklungsvorhaben dazu existieren schon. Ich rechne damit, daß wir in den nächsten Jahren durchgängige, computergestützte Entwicklungssysteme bekommen werden, die DB-Sprachen der vierten Generation einschließlich.

Die Werkzeuge, die mit einem DBMS zusammen bezogen werden können, enthalten mehr Intelligenz und Nutzen als das DBMS selbst. Sie werden zu einem wichtigen Faktor für den weiteren Markterfolg jedes DBMS.

Zu Frage 7:

Die Mächtigkeit von Sprachen der vierten Generation hinsichtlich der Datenmanipulation hängt stark von dem zugrundeliegenden DBMS. Mächtige DML-Funktionen ergeben sich auf der Basis relationaler Datenbanken. Demnach verstärken solche Werkzeuge die Entwicklung der DB-Technologie in Richtung relationaler DB-Systeme.

Andererseits sind relationale DB-Anweisungen nicht mehr transparent für die Benutzer. Deshalb muß das DBMS selbst den optimalen Zugriffsweg bestimmen. In dieser Hinsicht muß und wird noch einiges im Rahmen der DBMS-Entwicklung getan werden.

Zu Frage 8:

Der Begriff "aktive DD-Funktionen" wird heute oft mißbräuchlich benutzt. Als aktives Data Dictionary sollte man ein System bezeichnen, das über alle Daten und deren Verwendung automatisch Bescheid weiß und das alle beschreibenden Informationen über Daten automatisch allen Tools zur Verfügung stellt.

Gerade der letzte Aspekt ist sehr wesentlich. Zu den Informationen, die nur einmal abgelegt und bei jeder Datenmanipulation automatisch wirken sollen, gehören:

- Einheitliche Feldnamen und View-Definitionen;

- Editier-Masken, Feldcharakteristika, Überschriften;

- Plausibilitätsbedingungen feldbezogen und feldübergreifend;

- Integritätsbedingungen zwischen den Satzarten;

- Zugriffsberechtigungen auf Satzart-, Feld- und Feldinhaltsebene.

Externe Integritätsbedingungen sind eine besondere Notwendigkeit für relationale Datenbanken, um Programme von dieser Verantwortung frei zu halten. Das automatische Zusammenwirken von Data Dictionary und Tools ist sicherlich am leichtesten realisierbar, wenn DD, Tools und DBMS aus einer gemeinsamen Entwicklung stammen.

Allerdings besitzt ein Data Dictionary nicht nur die Aufgabe, als Directory für DBMS und Werkzeuge während der Programmier- und Ausführungszeit zu dienen. Es soll vielmehr auch als zentrale "Information Resource Database" ein Verzeichnis aller Informationen, Informationsstrukturen und -flüsse eines Unternehmens bieten. Dazu muß es den gesamten Design- und Modellierungsprozeß von Anwendungen und Datenbanken unterstützen können.

Alle diese Funktionen in einem Produkt zu vereinigen, erscheint mir überzogen. Ich erwarte deshalb ein mehrstimmiges DD-Konzept: Ein unabhängiges Data Dictionary, das für das Information Resource Management alles Wissen im "Source-Format" verwaltet, und ein produktspezifisches Data Dictionary, das die für Implementierung und Ausführung notwendigen Informationen im "Object-Format" verwaltet.

Die Fragen an die DB-Spezialisten:

5. An Verfahren, Methoden und Hardware-Einrichtungen zur deutlichen Verbesserung der Suchprozesse in DB-Systemen wird seit langem gearbeitet. Was kann der Anwender hier konkret erwarten?

6. Attraktiv für den Anwender sind insbesondere Werkzeuge, die im Umfeld der Datenbanken entstehen. Welche Highlights zeichnen sich hier für die nächsten Jahre ab?

7. Hohe Erwartungen verknüpft der User mit Sprachen der vierten Generation. Inwieweit werden 4GL-Konzepte die Datenbank-Technologie beeinflussen, und welche Auswirkungen haben sie auf die entsprechenden Tools?

8. Eine besondere Rolle bei DB-Systemen kommt dem Data-Dictionary zu. Wie müßte ein DD-Konzept aufgebaut sein, um künftig für alle Tools die notwendigen Basisinformationen zu liefern und aktiv an die Integration eines DBMS und seiner Werkzeuge mitzuwirken?

Dr. Joachim Niedereichholz

Professor am Institut für Wirtschaftsinformatik der Johann Wolfgang Goethe Universität, Frankfurt

Zu Frage 5:

Grundsätzlich kann man auf dem Sektor der Verfahrensverbesserung bei Suchprozessen nicht viel erwarten.

Softwaremäßig stehen die üblichen Verbesserungen und Optimierungen existierender Verfahren an, die uns in Form neuer Releases entgegentreten. Die Informatik kann keine superschnellen, neuen Verfahren liefern: Man weiß, daß die Suche des "perfect Hash-Code for perfect tables under perfect conditions" keinen Sinn gibt beziehungsweise, daß die praktischen Anwendungsbedingungen nicht so lauten - um nur eine Form der Datenorganisation und ihrer Perfektionsversuche anzusprechen.

DB-Maschinen (IDM) und -Prozessoren kommen nur zögernd zum Einsatz, und assoziative Prozessoren werden weiterhin den Durchbruch nicht schaffen. Man denke an den bewundernswerten, jedoch erfolglosen Synfobase-Versuch von AEG mit dem REM-Memory assoziativer Art.

Im großen Stil kommen diese Techniken erst, wenn IBM meint, sie einsetzen zu können (müssen). Dieser Zeitpunkt wird vertriebsstrategisch bestimmt sein und nicht technologieorientiert.

Zu Frage 6:

Viele Datenbanksysteme haben sich mit attraktiven Werkzeugen für die Anwendungsentwicklung (DV-orientiert und Endbenutzer-orientiert) umgeben. Als Highlights zeichnen sich einmal die laufende Verbesserung und der verstärkte Einsatz ab und zum andern, daß der Marktführer auf diesem Sektor ein Angebot aufweist, das noch organischer zusammenwachsen muß. Hierzu soll kurz das Angebot um DB2 betrachtet werden.

Die Kommunikationsteile von DB2-QMF mit entweder SQL oder QBE können mit Recht als sehr anwenderfreundlich bezeichnet werden. Man kann sich jedoch streiten, ob sie ein Werkzeug zur Anwendungsentwicklung darstellen in der Art, wie dies andere relationale Datenbanksysteme als Ergänzung anbieten (etwa Adabas mit Natural).

Bei IBM kommt hinzu, daß es schwierig ist, eine einheitliche Linie, das heißt, ein durchgängiges Werkzeug zur Anwendungsentwicklung für die verschiedenen Produkte (370, S/3X, 8100, PC) zur Verfügung zu stellen, was man als Idealziel verfolgen könnte.

Bei den Produkten zur Anwendungsentwicklung existiert eine (historisch bedingte) ziemlich heterogene Situation, die anscheinend bereinigt werden soll. Zumindest deuten hierauf die Ankündigungen Mitte 1985 zur Professionellen Anwendungsentwicklung (PAE) hin.

Unter PAE werden im Rahmen der Anwendungsunterstützung verschiedene existierende und neue Produkte zu einem Angebot zusammengebunden, das schon grafisch etwas schwierig zu veranschaulichen ist. IBM ordnet die verschiedenen Werkzeuge den Projektphasen mit der folgenden Orientierung zu (siehe Grafik):

Das Angebot zu 1 ) ISPF (Interactive System Productivity Facility) wird als "strategischer" Dialogmanager bezeichnet.

VIDOC (Variable Information and Documentation Control) stellt als Angebot zu 2) ein Planungs-, Ordnungs- und Koordinationswerkzeug für die Steuerung der Anwendungsentwicklung dar.

OPSS (Online Project Support System) ist als Angebot zu 3) für die sofortige Verbesserung der Produktivität bei der AE mit Sprachen wie Cobol oder PL/1 gedacht.

OPSS und VIDOC stellen sogenannte Program Offerings (PO) dar, die als Folgesysteme von OPUS- und VIDOC-MPSAPs angekündigt wurden. Sie sind seit September 1985 auch in der VM-Variante OPSS-VM und VIDOC-VM erhältlich.

Auf der Ebene 4) wurde das System ADF (Application Development Facility) als IMS-Anwendungsgenerator für den Einsatz auf DB2-Anwendungen erweitert und die Nutzung von ISPF für AE-Dialoge und Prototyping eingeführt. Dies wird als ADF II bezeichnet.

Auf Ebene 5) wurde CSP (Cross System Product Set) um die Unterstützung von DL/1-Datenbanken erweitert. Die Query-Komponente von CSP -CSP/Q- wurde auf CICS und VM/CMS ausgeweitet und gestattet dem Endbenutzer auch Abfragen aus VSAM- und CMS-Files. Sie kommt nach Angaben der IBM ziemlich weit an den Funktionsumfang von QMF heran und bietet auch eine Übergabemöglichkeit an GDDM (Graphical Data Display Manager).

Auf der Ebene 6) hält sich IBM noch etwas bedeckt. Die Zwei-Datenbank-Philosophie, die vorerst sicherlich einige Jahre aufrecht erhalten wird, bereitet natürlich DD-mäßig Schwierigkeiten. So wird in Fachkreisen einmal die Verbesserungswürdigkeit des DB2 kritisiert und zum anderen die Notwendigkeit von zwei DDs bei operationaler Verwendung von IMS und Auswertungsverwendung von DB2.

Hier muß noch Klarheit geschaffen werden, was natürlich nicht von heute auf morgen erwartet werden darf. Falls die Klärung erfolgt, kann sie als Highlight bezeichnet werden. In der neuen PAE-Linie fehlen einige Namen älterer Produkte wie Elias, DMS, Ciprec, Menud, APE und andere mehr, die hinzugedacht werden müssen.

Insgesamt kommt durch die neu aufgemachte PAE-Gliederung etwas mehr Klarheit in die an sich recht verwirrende Angebotssituation. Weitere Klarheitsschaffung in dieser Richtung kann man sie als ein für den Markt bedeutendes Highlight bezeichnen.

Zu Frage 7:

Für die Auswirkungen der Nutzung von Sprachen der 4. Generation (4GL) auf die Datenbanktechnologie sind die folgenden Punkte interessant: Diese Werkzeuge werden überwiegend interaktiv eingesetzt. In dieser Nutzungsform besteht der Wunsch der Anwender, schnelle Antwortzeiten zu erhalten. Der Suchprozeß des DBS muß durch eine angemessene Datenorganisation unterstützt werden, zumal DBS die Zentraleinheit heute noch zu sehr belastet. Dies gilt auch für die Endbenutzersysteme.

Durch den Einsatz von Endbenutzersprachen wächst auch der Benutzerkreis einer Datenbank. Aus diesem Grund steigen die Anforderungen an das DBMS hinsichtlich der Koordination der Transaktionen insbesondere dann, wenn auch Änderungen durch die Endbenutzer zugelassen werden sollen.

Die durch die 4GLs gewünschte Selbstbedienung einer DB durch Endbenutzer stellt erhöhte Anforderungen an die Transparenz der Datenorganisation. Bei den heute in Unternehmen eingesetzten Datenbanksystemen (hierarchisch, netzwerkartig) dürften Endbenutzer vielfach überfordert sein, da das DB-Design nicht auf die Endbenutzerzwecke ausgerichtet ist. Die Datenbank muß Tools besitzen, die dem Enduser die Arbeit erleichtern.

Da Endbenutzer vielfach den Wunsch besitzen, eigene Daten (zum Beispiel Abteilungsdateien) mit einem Kernsatz an Unternehmensdaten zu verbinden, entstehen auch Impulse für die Technik der verteilten Datenbanken.

Durch den möglichen Zugriff der Endbenutzer auf Unternehmensdaten sind erhöhte Anforderungen an die Datensicherheit zu stellen. Dies umfaßt sowohl die Datenintegrierung als auch den Zugriffsschutz. In diesem Zusammenhang sind insbesondere Auswirkungen auf die Data Dictionaries zu erwarten.

Zu Frage 8:

Eine wichtige Unterscheidung heutiger DDS betrifft das Begriffspaar "aktives DDS - passives DDS." Ein passives DDS hat lediglich Unterstützungsfunktionen und wird nicht automatisch aktualisiert. Ein aktives DDS unterhält direkte Verbindungen zu anderen Software-Systemen und führt Änderungen an den Meta-Daten automatisch durch.

Aktive DDS besitzen folgende Vorteile:

- Keine, beziehungsweise geringe Redundanz in den Meta-Daten;

- Steuernde und kontrollierende Funktion in bezug auf die Benutzung der Meta-Daten;

- Verbesserung der Integrität und Datenunabhängigkeit der Meta-Daten;

- Verwendung von Standards kann erzwungen werden.

Im Idealfall ist ein aktives DDS so integriert, daß die Kommunikation mit dem DBMS zur Ausführungszeit stattfindet; in diesem Fall wird es "inline-DDS" genannt. Inline-DDS sind aufgrund dieser engen Verknüpfung normalerweise an ein DBS gebunden. Aktive inline DDS sind bis heute nicht bekannt, jedoch werden einige aktive beziehungsweise annähernd aktive DDS angeboten.

Ein DDS wird zur Datenbasis für einen weiteren Kreis von Informationssystem-Aktivitäten. Es wird idealerweise möglichst viele Anwendungen und Tools mit Informationen versorgen. Dazu zählen Datenbankadministration, Ablaufsteuerung, Systemanalyse und -entwicklung, Revision, Report-Generatoren sowie Endbenutzersprachen (auch DBS-unabhängige) und Prototyping-Hilfsmittel.

Die Schnittstellen heute existierender DDS müssen dazu noch erweitert werden. Bei stärkerer Integration wird der Unterschied zwischen Dictionaries und Datenbanken verwischt; das heißt, es gibt keine "Meta-Daten" mehr. Data Dictionary-Daten werden verstärkt produktiv eingesetzt.

Paul Wey

Mitarbeiter im zentralen Beratungsbereich des EDV Studio Ploenzke, Wiesbaden

Zu Frage 5:

Für die Verbesserung der Suche nach Datenbankinhalten können zwei Entwicklungen beobachtet werden: Zum einen die Datenbankmaschinen und zum anderen die Verlagerung von Funktionen in die Peripheriespeicher.

Bei den Datenbankmaschinen handelt es sich um Rechner, deren Hard- und Software-Architektur speziell auf Datenbankbedürfnisse ausgelegt ist, und die über eine Kanalschnittstelle an den Hauptrechner gekoppelt sind. Der Hauptrechner richtet Datenbankaufträge an die Datenbankmaschine, die ihm das Ergebnis liefert. Der Host wird somit beispielsweise von zeitaufwendigen DB-Funktionen entlastet.

Eingesetzt werden Datenbankrechner überwiegend in Forschungsprojekten. Am Markt verfügbare Systeme wurden mit Ausnahme von IDM (GEI) bereits wieder zurückgenommen (ADM von Software AG, iDBP von Intel).

Die Verlagerung von Funktionen betrifft die Erstellung "intelligentes Peripherie". Der Hauptprozessor wird durch Platten-Controller entlastet, die Datenfilterfunktionen ausführen und Ergebnisse über ein Platten-Cache an den Prozessor zurückgeben. Dabei erfolgt die Datenfilterung quasiassoziativ und kommt somit dem Konzept des Assoziativspeichers und dessen inhaltsorientierter Suche recht nahe. Dieses schon vor einigen Jahren erarbeitete Konzept greift jedoch bereits bei den Externspeicher-Verwaltungsfunktionen oder Zugriffsmethoden der Betriebssysteme und findet keine Verwendung bei kommerziell verfügbaren Systemen.

Zu Frage 6:

Zwei Schlagworte aus Veröffentlichungen und Diskussionen über die Entwicklung der Datenverarbeitung betreffen unter anderem Datenbanksysteme und ihr Umfeld: Informationsverarbeitung und Wissensverarbeitung. Während die Wissensverarbeitung und die zugehörigen Expertensysteme noch am Anfang der Entwicklung zu marktreifen Produkten stehen, ist für Anwendungen der Informationsverarbeitung bereits eine Reihe von Produkten verfügbar.

Zwei Trends seien beispielhaft erwähnt: Die Weiterentwicklung von Query-Systemen zu endbenutzerorientierten Systemen. Sie schaffen durch Menue- und Maskensteuerung die Voraussetzung für komfortable und mächtige Abfrage- und Auswertungsmöglichkeiten von Datenbanken (zum Beispiel Supernatural, QMF).

Ein weiteres Spektrum sind die Einsatzmöglichkeiten von Datenbanksystemen und zugehörigen Komponenten sowohl auf Host-Rechnern als auch auf Personal Computern mit Kommunikationsmöglichkeiten zwischen den Systemen (Mikro-Mainframe-Link). In diesem Zusammenhang sind einerseits der Funktionsumfang der PC-Komponente (Tabellenkalkulation, Grafik), beziehungsweise die Schnittstellen zu weit verbreiteter PC-Software von Bedeutung; andererseits ist auch die Zugriffsmöglichkeit zu Host-Datenbanksystemen zu beachten. Beispiele für solche Produkte sind unter anderem Focus, IDB, Natural, Connection und Ramis II.

Zu Frage 7:

Das Zusammenspiel zwischen DB-Systeme und Sprache der 4. Generation sei an zwei Anforderungen näher betrachtet:

- Unabhängigkeit der Anwendungsprogramme von den Datendefinitionen des DB-Systems, das heißt die Definitionen sind nur einmal und zwar programmextern vorhanden. In diesem Fall muß entweder die Sprache Zugriff auf den Systemkatalog des DB-Systems haben, oder aber die Definitionen sind in ein aktives Data Dictionary eingebracht, auf das sich beide Systeme stützen.

- Befreiung der Anwendungsprogramme von Plausibilitätsprüfungen. Hier muß entweder das DB-System die Definition von Plausibilitäten ermöglichen und deren Einhaltung garantieren, oder die Prüfregeln sind im Data Dictionary definiert, das aktiv mit beiden Systemen arbeitet.

Die Analyse weiterer Anforderungen an Sprachen der 4. Generation (Datenaufbereitung, Metadatenbereitstellung, interaktive Systementwicklung) führt ebenfalls zu Erweiterungen der DB-Systeme um spezifische Data-Dictionary-Funktionen oder aber zur Integration von DB-System und Data Dictionary.

Zu Frage 8:

Ziel des Einsatzes eines Data Dictionary ist die Unterstützung bei Aufbau, Entwicklung, Einsatz und Wartung von DV-gestützten Informationen beziehungsweise Anwendungssystemen und somit während aller Phasen des Systemlebenszyklus. Damit ändert sich das Profil der Data-Dictionary-Systeme vom passiven Dokumentationssystem über ein aktives Definitionsinstrument zur Entwicklungsdatenbank.

Daraus lassen sich eine Reihe von Anforderungen ableiten: Komfortable Benutzeroberfläche durch Menüführung und Helpfunktionen, Strukturerweiterungsmöglichkeiten für die Abbildung eines systemunabhängigen Datenmodells und mächtige Abfrage-, Auswertungs- und Manipulationsmöglichkeiten mit Einsatz von Grafik und Semigrafik. Weitere Forderungen sind Qualitätssicherungsfunktionen für die Erhaltung der strukturellen Integrität sowie Versions- und Variablenverwaltung. Dazu zählen auch Umwandlungsfunktionen für Export und Import in/von anderen Systemkomponenten (zum Beispiel DBMS-Definitionen beziehungsweise Nachdokumentation) und Schnittstellen zu beziehungsweise Integration von Textaufbereitungssystemen, Datenentwurfstools, Programmgeneratoren, und Sprachen der 4. Generation.