Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

15.09.1995

Hersteller entwickeln am Trend vorbei Die verteilte Datenhaltung veraendert das DV-Management

FRAMINGHAM (IDG) - Datenbank-Management gehoert zu den Kernaufgaben in den Unternehmen. Gerade hier, so berichten Anwender, erzwingen neue Techniken wie Objektorientierung, verteilte Datenhaltung und Client-Server-Systeme grundlegende Veraenderungen. Kuenftig steht das Netzwerk und nicht mehr die Datenbank im Mittelpunkt der Administrationsaufgaben.

Verteilte Architekturen fuehren in den Anwenderunternehmen dazu, dass zentrale Anforderungen wie Ausfallsicherheit und Datenintegritaet zunehmend vom Netzwerk abhaengen. Es findet also eine Verlagerung der Aufgaben von den Datenbank- zu den Netzwerkadministratoren statt. Letztere muessen ihre Netztopologien, Knoten und Protokolle nun unter dem Blickwinkel der Tauglichkeit fuer Datenbankanwendungen betrachten.

Dieser Wandel koennte die Hersteller noch haerter treffen als die Anwender. Die Bedeutung der grossen Datenbankanbieter Oracle, IBM, Sybase, Informix und CA-Ingres beruht im Grunde auf einem veralteten Grossrechnerkonzept, urteilt John Rymer, ein Datenbankkenner, der fuer das Bostoner Marktforschungs-Unternehmen Patricia Seybold Group arbeitet. Er argumentiert, diese Firmen seien mit Produkten gross geworden, in die man immer mehr Funktionen integriert habe. Die Datenbanksysteme der 80er und 90er Jahre speichern und verwalten nicht nur Daten, sie bieten auch Netzdienste und netzweite Sicherheits-Features oder verwalten Warteschlangen von Datenbankanwendungen. Auch wird immer wieder diskutiert, ob Datenbanken nicht Systeme fuer Online- Transaktionsverarbeitung (OLTP) ueberfluessig machen.

Dass die Datenbanksysteme inzwischen fuer den Einsatz auf

massiv-parallel arbeitenden Rechnern optimiert werden oder wurden, deutet Rymer als Anzeichen fuer die Absicht der Hersteller, ihre Produkte immer noch mehr zur unternehmensweiten Datenzentrale auszubauen. Wuerden sie sich ernsthaft auf das Client-Server- Konzept, Objektorientierung, Messaging-Verfahren und verteilte Datenhaltung einlassen, so Rymer, muessten sie ihre monolithischen Systeme eigentlich in handliche, miteinander kommunizierende Module aufspalten.

Der Marktkenner wolle mit dieser Kritik nicht behaupten, dass Datenbank-Server kuenftig ueberfluessig wuerden. Ihm sei durchaus bewusst, dass ohne eine solche Instanz bei einem Rechnerabsturz alle im Hauptspeicher befindlichen Informationen verlorengingen. Allerdings werde der Server seine bis dato zentrale Rolle an Verteilungsservices abtreten, die die netzweite Datenkommunikation und Objektverteilung steuern. Diese Aufgabe uebernehmen kuenftig die Implementierungen der Common Objekt Request Broker Architecture (Corba).

Gegen diese Argumente wenden die Hersteller laut Rymer ein, dass sich Verteilung durchaus mit einer Datenbank im Mittelpunkt der DV-Umgebung vertraegt. Die Erfahrungen erster Anwender haben jedoch gezeigt, dass eine solche Konzeption Leistungseinbussen nach sich zieht, die daher ruehren, dass zentrale Server in einer verteilten Umgebung mit einem hohen Verwaltungsaufwand belastet wuerden, der schnell zu Performance-Engpaessen fuehrt. Gleiches gilt fuer die strengen Regeln fuer die Datenpersistenz von Transaktionen. Anders als bei herkoemmlichen Umgebungen sei es bei den objektorientierten Anwendungen gar nicht noetig, den Status eines Objekts zu jedem Zeitpunkt genau zu kennen.