Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

29.06.1990 - 

Hierarchisch gegen relational

Datenbanken müssen in einem heterogenen Umfeld arbeiten

Friedrich Gensewich ist Produkt-Marketingmanager bei der Novell GmbH, Düsseldorf.

Parallel zur Einführung der Abteilungsrechner, der Minis oder Superminis, die eigentlich verkleinerte Abbilder der Mainframe-Struktur darstellen, begann der Einzug der relationalen Datenbanken. Nach jahrelangem ideologischem Kleinkrieg gegen hierarchische Datenbanken haben beide Modelle ihre Position gefunden.

Datenbanken gehören zu den wichtigsten Werkzeugen für die Erzeugung von Informationssystemen. Sie sind in ihrer Weiterentwicklung eng an die Fähigkeiten der unterlegten Betriebssysteme gebunden. Das Datenbankangebot auf dem Markt ist in den letzten Jahren sehr breit geworden, die Auswahl gestaltet sich deshalb schwierig. Wie ist das Leistungsangebot heute einzuordnen? Welche strategischen Ziele verfolgt der einzelne Anbieter? Sind die Datenbankanwendungen auch in Zukunft portierbar? Neben dem reinen Funktionsspektrum der Datenbank ist es wichtig, deren systemtechnische Einordnung zu erkennen und zu beurteilen.

In den 50er Jahren, in der Dekade der Mainframes, war die Auswahl an Datenbankprodukten klein und die Beurteilung einfacher. Für eine Mainframe-Architektur stand in der Regel nur eine hierarchische Datenbank zur Verfügung. Anwendungen wurden individuell auf die entsprechend gegliederte Datenbank aufgesetzt. Diese meistens sehr großen Datenbanken haben in Verbindung mit ihren langlebigen Anwendungen noch heute eine große Bedeutung in der Welt der zentralen Informationssysteme. Sie sind bewährt und zuverlässig, aber wenig anpassungsfähig an Umweltveränderungen.

Die relationalen Datenbanken haben sich über mehrere Produktgenerationen evolutionär entwickelt. Diese Entwicklung wurde von verschiedenen Schlüsselfaktoren wesentlich beeinflußt:

1. Anwendungsstau und Anwenderkompetenz,

2. Leistungssteigerung der Basissysteme sowie

3. Netzwerktechnologie.

Der universelle Werkzeugcharakter der EDV-Systeme übte von Anfang an einen Sog auf denkbare Anwendungen aus. Die spärlichen Programmierkapazitäten konnten die Anforderungen nie erfüllen, es hat sich deshalb ein permanenter Anwendungsstau entwickelt, der auch heute noch nicht abgebaut ist. Relationale Datenbanken - ausgestattet mit Masken und Reportgeneratoren - erlauben erstmals, Anwendungen zu parametrieren statt sie mühselig zu programmieren. Anfangs trat ein reiner Rationalisierungseffekt für die Programmierung ein. Parallel wurde durch intensive EDV-Ausbildung die Anwenderkompetenz stark angehoben. Die Problemlösungen verlagerten sich von der EDV-Abteilung zur Fachabteilung. Die Datenbankanbieter haben die begleitenden Werkzeuge schrittweise verfeinert.

Die Verbreitung der PCs mit den darauf verfügbaren Datenbanken hat diese Entwicklung stärker beschleunigt als die Weiterentwicklung der Abteilungsrechner mit ihren angeschlossenen Textterminals. Damit sind wir bei der zweiten wesentlichen Einflußgröße.

Abteilungsrechner und PCs bieten in immer kürzeren Produktzyklen ständig mehr Verarbeitungsleistung und Speichervolumen. Die Datenbanken auf den Abteilungsrechnern gewannen Akzeptanz und wuchsen ständig. Die steigende Zahl von Benutzern, größere Datenmengen sowie komplexere Verknüpfungen forderten ständig eine größere Verarbeitungsleistung und Speicherkapazität. Es ist eine alte Weisheit, daß Software sich wie ein ideales Gas verhält: Es füllt alle Räume. Die Anforderung an die Datenbanken überholten die Leistungssteigerung der Abteilungsrechner.

Die gleiche Entwicklung konnte am individuellen Arbeitsplatz beobachtet werden. Leistungsfähigere 1 PCs leiteten einen Wandel ein. Rechenleistung und Speicherfähigkeit dort wurden zur Selbstverständlichkeit.

Für die Überforderung der Arbeitsplatz-Rechner lag die Lösung bald auf der Hand: Arbeitsteilung. Statt der "dummen" Terminals wurden PCs als Arbeitsplatz-Rechner eingesetzt. Sie übernahmen die Datenaufbereitung und -darstellung sowie Dialogfunktionen.

Information als Wettbewerbsfaktor

Der Abteilungsrechner zeichnet für Datenspeicherung und Abfrage sowie Datenintegrität und Backup verantwortlich. Die Datenbanksysteme wurden in ein "Front-end" und in ein "Back-end" geteilt. Die Zusammenarbeit erfolgte nach dem Client-Server-Modell. Das Front-end oder der Client stellt Anforderungen, die vom Back-end oder dem Server erfüllt werden. Es sei erwähnt, daß diese Trennung erst SQL ermöglichte.

Die lange Unterforderung der Datenbanken auf den PCs lag in der Isolierung der PCs. Einplatz-Anwendungen enthalten keine Mittel zum Datenaustausch oder zur gemeinsamen Nutzung von Daten. Die Anwendungen beschränkten sich lange auf "elektronische Karteikästen". Die Kosten der Peripheriegeräte und der Wunsch nach gemeinsamer Nutzung vorhandener Daten gaben der PC-Technologie einen gewaltigen Auftrieb. Novell brachte entsprechende Produkte auf den Markt. Die Datenbankhersteller machten ihre Produkte netzwerkfähig; sie verlagerten den Datenbankkern auf die Server und beließen das Front-end auf der Workstation. So entstanden auch aus dieser Richtung Datenbanken nach dem Client-Server-Modell.

Viele Anwender wurden mit der Tatsache konfrontiert, daß sich in ihren, Unternehmen mehrere Datenbanken auf mehreren Abteilungsrechnern, in mehreren LANs oder in Kombination von Abteilungsrechner und LANs entstanden waren. Parallel angelegte Datenbestände sind nie konsistent und haben langfristig katastrophale Auswirkungen auf ein Unternehmen. Andererseits gilt Information zunehmend als ein entscheidender Wettbewerbsfaktor. Die innovative und intelligente Verknüpfung ursprünglich getrennt angelegter komplementärer Datenbestände kann zum Beispiel überraschende Rationalisierungspotentiale freilegen oder neue Marktchancen bieten.

Der Markt verlangt integrierende Systeme

Nachdem sowohl die aus der Welt der Abteilungsrechner kommenden als auch die in der Welt der Einplatz-PCs agierenden Datenbankhersteller ihre Systeme architektonisch in Back-end und Front-end zerlegt hatten, ergab sich logisch der nächste Schritt: Es wird ein Produktspektrum geschaffen dessen Front-end auf den verbreitetsten Artbeitsplatz-Rechnern läuft und dessen Back-end auf den gängigsten Serverplattformen ablauffähig ist. Die Verbindung wird über die inzwischen etablierten Vernetzungsstandards hergestellt. Die LAN-Technologie stellt die notwendigen Übertragungsbandbreite bereit.

Die Front-end-Plattformen bestimmen nicht die Hardware-Hersteller, sondern die Arbeitsplatzrechner-Betriebssysteme. DOS, MAC, OS/2 und (Workstation-) Unix werden sich nebeneinander etablieren. Keines dieser Betriebssysteme dürfte dominieren.

Die Back-end-Plattformen ergeben sich aus verschiedenen Faktoren: Entwicklungshistorie, Verbreitungsgrad und Marketing-Kooperation sind nur einige. Die wesentlichen Anbieter haben ihre Datenbanken heute oder in naher Zukunft sowohl auf ihren Arbeitsplatz-Rechnern als auch auf für LAN-optimierte Serverplattformen verfügbar. Die breite Palette der Unix-Rechner und die vertretbare Portierbarkeit hat die Verfügbarkeit wesentlich beschleunigt.

Wo eine Portierung aus technischen oder anderen Gründen nicht möglich war, wurde das Produktspektrum durch Gateways (zum Beispiel zu DB2) ergänzt.

Das war ein wesentlicher Schritt zum Konzept der verteilten Datenbank. Der Anwender kann am Arbeitsplatz auf eine einheitliche Abfragesprache zurückgreifen. Er braucht im Idealfall nicht mehr zu wissen, wo die von ihm angesprochenen Daten physikalisch gespeichert sind. Das Konzept ist logisch, es läßt sich jedoch nicht einfach

realisieren.

Die Mehrzahl der heute realisierten Datenbanken kann eher "vernetzt" als "verteilt" genannt werden. Die Anwender sind aus verständlichen Gründen zurückhaltende weil viele für den operativen Betrieb wichtigen Anforderungen noch nicht gelöst sind, zum Beispiel gibt es noch nicht in allen Fällen geeignete Werkzeuge zum Ressourcen-Management, um zu verhindern, daß aus einer Anwendung heraus Teile des vernetzten Systems "lahmgelegt" werden.

Die Welt der EDV wird immer heterogener. Kein einziger Hersteller kann das gesamte Anforderungsspektrum durch eine konsistente Produktfamilie abdecken. Datenbanken und deren Plattformen müssen nach Preis und Leistung optimiert ausgewählt werden können. Die vorhandene Installationsbasis und eingeführte Datenbanken mit zum Teil unersetzlichen Beständen sind zu erhalten und zu integrieren. Der Markt verlangt integrierende, nicht ausgrenzende Systeme. Netware, das am Markt führende Server-Betriebssystem von Novell zum Beispiel, hat diese Forderung durch seine strategisch ausgelegte Integrationsfähigkeit erfüllt.

Nahtstellen zu Datenbanken

Andere Standardanwendungen, wie Textverarbeitung, Tabellenkalkulation, elektronische Post, Dokumentenaustausch etc., werden ebenfalls auf multiplen Plattformen verfügbar, um einheitliche Werkzeuge in heterogener DV-Umgebung einsetzbar zu machen. Diese typischen Front-end-Anwendungen weisen Nahtstellen zu Datenbanken auf. Das Datalens-Konzept von Lotus, das Datenbankabfragen aus der und in die Tabellenkalkulation erlaubt, ist ein sehr gutes Beispiel.

Als Network Computing gelten heute Systeme, bei denen Benutzer vernetzter EDV-Anlagen mit verteilten Anwendungen, die auf verteilte Ressourcen zugreifen und durch ein netzübergreifendes Management unterstützt werden, operieren.

Einige Großunternehmen haben bereits begonnen, unternehmenskritische Anwendungen in heterogen vernetzten Systemen nach dem Client-Server-Modell zu entwickeln. Network Computing ist die Technologie der 90er Jahre für optimierte Informationssysteme.