Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Relationales Modell stößt bei anspruchsvollen und komplexen Anwendungen an Grenzen:


02.12.1988 - 

Datenbank-Technologie braucht neuen Schub

MÜNCHEN (CW) - Relationale Datenbanksysteme setzen sich auf allen Arten von Rechnern durch, stoßen aber bei ehrgeizigen, anspruchsvollen Anwendungen an ihre Grenzen. Dieses Fazit zogen Benutzer und Entwickler auf dem "Datenbank-Anwender-Forum '88" der IDG-CSE in München.

"Zwei Jahrzehnte nach Erfindung einer Technologie sollte die Informatik bereit sein für den nächsten Sprung nach vorn", forderte Professor Rudolf Bayer, Direktor des Instituts für Informatik der Technischen Universität München. Bei vielen Anwendungen aus dem Verkehrsbereich, der Fertigungsindustrie und dem Finanzwesen seien die Datenbestände auf große, häufig sogar über mehrere heterogene Datenbanksysteme verteilt, konstatierte Bayer. Der Zugriff auf die für eine Entscheidung wesentlichen Informationen erfordere hier sehr komplexe deduktive Analyseverfahren, wie sie etwa bei Expertensystemen zu finden seien. Dagegen hält der Münchner Informatik-Experte die heute zur Verfügung stehenden Abfragesprachen für völlig unzureichend: "Für künftige Applikationen sind einfache Retrieval- oder Querytechniken auf der sprachlichen Ebene von SQL geradezu ein Witz."

Nach Ansicht des Datenbankforschers sind bei modernen Systemen deshalb zwei wesentliche Komponenten unerläßlich: Zunächst eine mächtige Deduktions- und Programmierumgebung zur Beschreibung von komplexen Anwendungslösungen auf einer hohen abstrakten Ebene, wie sie durch die regelbasierte oder logische Programmierung geboten wird; und zum anderen ein "intelligenter Zugriffsmodul", der Anfragen an verschiedene heterogene, relationale Datenbanksysteme umsetzen kann. Dies erfordere eine effektive Kopplung zwischen Expertensystemen und konventionellen Datenbanken. Auch Anwender halten inzwischen das relationale Konzept, besonders in seinen heutigen inkohärenten und unzureichenden kommerziellen Implementationen lediglich für einen Zwischenschritt zur bestmöglichen Abbildung der Unternehmensrealität. "Es wird mit Sicherheit eine Erweiterung des relationalen Modells geben; vielleicht wird es sogar ganz überwunden", prognostizierte Rainer Hochkoeppler, Projektleiter Medizinische Informatik beim Baseler Pharmakonzern Hoffmann La Roche. "Der Endbenutzer will letztlich einsatzfähige Anwendungen".

Angesichts der heutigen DB-Produktpalette, so wurde auf dem Seminar deutlich, herrscht denn auch bei den Anwendern keineswegs nur eitel Freude. Viele kommerziell erhältliche Datenbanksysteme haben schwache Data Dictionaries, die die Abbildung eines konzeptuellen Schemas nicht zulassen. "Eine katastrophale Unterlassungssünde fast aller

Hersteller", beklagte Hochkoeppler den "State of the market". Dies zwinge die Entwickler zu einer unsauberen Alternative, nämlich Teile des konzeptionellen Schemas - etwa referentielle Integritätsregeln - in die einzelnen Anwendungen zu stopfen.

Eine Lösung für viele Leistungsengpässe bisheriger relationaler Systeme sieht der Baseler Projektchef mehr und mehr in neuen Rechnerarchitekturen. Als Datenbankcomputer könnten dann Mehrzweckrechner dienen, die mit ihrer geeigneten Maschinenarchitektur günstige Leistungen beim Betreiben einer Datenbank erzielten. So biete beispielsweise ein Sequent Symmetry S81 Rechner mit einer Oracle-Datenbank ein etwa zweimal günstigeres Preis-/Leistungs-Verhältnis (gemessen in Kosten/TPS) als eine VAX 6240 unter VMS. Im Vergleich zu einem IBM-Rechner 4381-R14 unter MVS verbessere sich das Verhältnis gar auf den Faktor fünf.

Der Trend zu Datenbankmaschinen, spezialisierten Arbeitsstationen, Kommunikationsservern und Megaframes für höchste Rechenleistungen dürfte sich nach Ansicht der Experten weiter verstärken. In einer Welt vernetzter Systeme, so Hochkoeppler, in der schon in wenigen Jahren "ein PC von der Leistung einer IBM 3090 auf dem Schreibtisch steht", müsse bereichsübergreifende Integration verwirklicht werden. Die Entwicklung der Datenbanktechnologie werde einschneidende Auswirkungen auf die Organisation in den Unternehmen haben und weitgehend arbeitsteilige Prozesse im Betrieb zusammenführen.

Die Entwicklung zu speziellen Datenbankcomputern wird darüber hinaus durch die zunehmende Einführung von komplexen Netzwerken unterstützt, die bereits heute nur ein Zehntel der Investitions- und Wartungskosten benötigten, wie sie vergleichbare Rechenzentrumslösungen verschlingen würden. So erreichten Datenbankcomputer etwa die zehnfache DB-Durchsatzleistung wie ein klassischer Mainframe.

Auch für die Integration von verteilten Datenbanken in einem Netzwerk bieten solche Rechner offensichtlich eine brauchbare Alternative zu bestehenden Systemen. Die herkömmlichen Konzepte seien zwar schon über den theoretischen Ansatz hinaus gediehen, hieß es auf dem Münchner DB-Seminar, doch nach wie vor mit komplexen Problemen der Kommunikationsprotokolle, Betriebssysteme, Datenredundanz und Datenverkehr behaftet.

Dem stehe eine moderne DB-Architektur gegenüber, wie sie etwa bei dem Rechner Teradata DBC/1012 realisiert sei: Eine ausfalltolerante, zentrale Datenbankmaschine, die linear bis zu einer Konfiguration mit über 1000 Prozessoren ausgebaut werden kann und relationale DBs im Terabyte-Bereich unterhält. So bieten diese Maschinen erstmals Durchsatzleistungen bei relationalen Datenbanken an, die bei weitem die Transaktionsraten hierarchischer Systeme wie IMS übertreffen.