Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

27.02.1998 - 

Microsoft sucht besseres Image für seine Datenbank

SQL Server soll sich im Big Business durchsetzen

"Wir wollen mit SQL Server 7.0 in die Großunternehmens-DV einsteigen", macht Jochen Wießler, Produkt-Manager der Unterschleißheimer Microsoft-Dependance, die Stoßrichtung klar. Die offiziell für die zweite Jahreshälfte angekündigte Datenbank wurde speziell für unternehmenskritische Anforderungen aufpoliert.

Während die großen Player im Datenbanksegment mit ihren Produkten an objektrelationalen Ansätzen stricken, um mit ihren Systemen moderne Datentypen wie Bilder, Sounds oder Filme verarbeiten zu können, versucht Microsoft nach wie vor mit klassisch relationaler Technologie vom Image eines zweitklassigen Datenbankanbieters für Desktops wegzukommen: "Wir verfolgen eine andere Strategie als die anderen", konstatiert Wießler.

Microsofts Datenbankrezeptur basiert unter anderem auf "Universal Access". Während Informix mit Datablades, Oracle mit Cartridges und die IBM mit Extendern agiert, für deren Einsatz Wießler zufolge der jeweilige "Datenbank-Kernel aufgebohrt werden mußte", verwende die Gates-Company mit Universal Access ein Konzept, bei dem lediglich eine neue Schnittstelle geschaffen wurde. "Wir halten dieses Vorgehen einfach für effizienter", begründet Wießler die Entscheidung. Eine Einbindung und Replikation der anderswo aus der Mode gekommenen Binary Large Objects (Blobs) sei bereits seit der Version 6.5 möglich.

Dennoch mußte Microsoft für die Version 7.0 des SQL Servers offensichtlich kaum weniger Entwicklungs-Engagement aufwenden als seine Konkurrenten: "Etwa 60 bis 70 Prozent der gesamten Datenbank wurden komplett neu programmiert", so Wießler, dessen Brötchengeber wohl aus diesem Grund eine sechsmonatige Lieferverzögerung hinnehmen mußte.

Zu den gänzlich neu entwickelten Komponenten von SQL Server 7.0 gehöre unter anderem der "Query Analyzer". Das eigentliche Herzstück der Datenbank wurde nach den Worten des Produkt-Managers für die Unterstützung großer Datenmengen und paralleler Abfragemöglichkeiten in den Bereichen Entscheidungsunterstützung, Data-Warehousing und Online Analytical Processing (Olap) überarbeitet.

Akzeptanz im Großkundengeschäft versprechen sich die Redmonder vor allem auch durch die Implementierung des sogenannten Active-Active-Clustering - einer Failover-Methode, mit der Microsoft die Datenkonsistenz im Falle eines Datenbankkollapses gewährleisten will. Laut Wießler erlaube es Active-Active-Clustering, mehrere SQL Server gleichzeitig für unterschiedliche Aufgaben zu nutzen: "Das heißt, der eine Server macht beispielsweise SAP R/3, der andere kümmert sich um das Data-Warehouse." Falle ein Server aus, übernehme der andere komplett dessen Aufgaben.

Auch in der Verwaltung des Speichers hat sich Microsoft mehr auf die Bedürfnisse großer Firmen eingestellt: Mit On-Demand-Memory verläßt Microsoft das noch in der Version 6.5 verfolgte Speicherverwaltungkonzept, nach dem der Datenbank ein fester Arbeits- und Festplattenspeicherbereich eingerichtet werden mußte. "Das Release 7.0 zieht sich automatisch die Ressourcen, die es braucht, und gibt diese bei Bedarf wieder frei", erklärt der Produkt-Manager.

"Wir wollten vor allem in Sachen Skalierbarkeit und Data-Warehousing, in Bereichen also, in denen wir einige Probleme hatten, Erweiterungen anbieten", nennt Wießler die Schwachpunkte, die es seiner Ansicht nach zu beheben galt, um sich in der neuen Mission-critical-Welt etablieren zu können. Den Weg ins Data-Warehousing-Geschäft soll dabei ein neuer Olap-Server (Codename "Plato") ebnen, der zusammen mit dem SQL Server 7.0 das Licht der Welt erblicken wird.

Das Produkt, mit dem sich in bestehenden Daten multidimensional navigieren läßt, wird "sowohl Rolap (Relational Olap), Molap (Multidimensional Olap) als auch Holap (Hybrid Olap) unterstützen", gibt Wießler zu Protokoll. Des weiteren ließen sich externe Olap- sowie 4-GL-Werkzeuge anderer Hersteller nutzen.

Als Abfragemechanismus dienen die für SQL Server 7.0 standardmäßig implementierten Abfrage-APIs Open Database Connectivity (ODBC) oder OLE-DB. ODBC und OLE-DB nutzt die Datenbank ebenfalls für die verteilte Transaktion über Nicht-SQL-Datenbanken sowie für den Im- und Export anderer Datenquellen.

Das Aus droht hingegen der noch in Version 6.5 verwendeten Schnittstellen-Technologie: "DB-Lib wird nicht mehr weiterentwickelt." In puncto Skalierbarkeit soll mittelfristig eine SQL-Mobilversion für Windows 95 sowie Windows NT Workstation folgen. Diese SQL-Server-Variante werde rund 2 bis 4 MB Hauptspeicher sowie knapp 30 MB auf der Festplatte benötigen und auch auf Laptops einsetzbar sein. Geplant mit der Auslieferung von Windows NT 5.0 sei zudem eine 64-Bit-Version des SQL Servers für Alpha-Maschinen. "Wir wollen uns mit der neuen Version auch in großen SAP-Anwendungen tummeln", erklärt Microsoft-Manager Wießler.

Die bessere Einbindbarkeit des betriebswirtschaftlichen R/3-Pakets ist auch der Grund, weshalb sich Microsoft nach dem "Zwischending" Insert Row Level Locking für einen dynamischen Sperrmechanismus entschieden hat. Während nach den Worten von Wießler mit dem aktuellen Release 6.5 noch ein Locking- Mechanismus zum Einsatz kam, der lediglich bei Insert-Befehlen aktiviert werden konnte, existiert seit Release 7.0 eine dynamische Sperr-Option mit zwei Modi: "Ein Optimizer entscheidet nun, was wie gesperrt wird", erklärt Wießler die Funktionsweise des Dynamic Locking. So sei es möglich, bei Bedarf automatisch einen Satz, eine Page oder aber die gesamte Datenbank für die Aktualisierung der Daten zu sperren. Um eine effizientere Anbindung mit SAPs R/3 - das ein reines Row-Level-Locking voraussetzt - garantieren zu können, ließe sich dieses permanent per Schalter innerhalb der Datenbank definieren. Weniger optional gibt sich andererseits die neue Oberfläche der Datenbank. Laut Microsoft benötigt der SQL Server 7.0 zwingend den Browser Internet-Explorer 4.0.

Nachziehen muß Microsoft gegenüber den Hauptkontrahenten Oracle und Informix, geht es um die parallele Verarbeitung der Daten. So lassen sich erst seit Version 7.0 parallele Threads nutzen, die die Verteilung von Datenbankbefehlen auf verschiedene Prozessoren übernehmen. "Das haben wir für große Data-Warehouse-Anwendungen implementiert", so Wießler. Die Parallelisierung sei lediglich auf die Anzahl der im System vorhandenen Prozessoren begrenzt.

Einen anderen Ansatz als beispielsweise Oracle verfolgt Microsoft, geht es um die Replikationsfunktionen der Datenbank.Während das Release 6.5 ausschließlich auf der Store-and-forward-Methode basierte, bei der die Daten zunächst in eine Queue geschrieben, um anschließend zu ausgewählten Zeiten verteilt zu werden, ließe sich mit dem neuen Release Oracles Trigger-Methode nutzen, die Daten permanent synchronisiert. Das Update könne darüber hinaus auch durch einen Pull-Mechanismus erfolgen, bei dem die Daten nach Bedarf selbständig vom Master-Server geladen werden.

Trotz all dieser Neuerungen zeigen sich Datenbankexperten nur wenig beeindruckt: "Der SQL Server hinkte lange Zeit hinter dem Leistungsstand anderer Produkte hinterher", läßt Michael Bauer, Geschäftsführer der Informatik Training GmbH aus Radolfzell, vergangene Jahre Revue passieren. Auch die von Microsoft als revolutionär angepriesenen Features wie etwa das dynamische Locking seien bereits "eine uralte Geschichte". Unterschiedliche Locking-Verfahren gebe es in IBMs DB2 bereits seit acht Jahren. Funktionen wie Active-Active-Clustering oder die Unterstützung von Olap-Servern seien ebenfalls bekannte Dinge, die ausschließlich der Gates-Company gefehlt hätten. Neu ist Bauer zufolge nur das Replikationsverfahren, bei dem der verteilte Rechner die geänderten Daten automatisch abholt. Selbst der auf den ersten Blick humane Preis relativiere sich bei näherer Betrachtung. Zwar sei Oracle wesentlich teurer als Microsofts Produkt, bei den Total Cost of Ownership (TCO) sehe es jedoch anders aus.