Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Offene Kommunikation noch nicht realisiert

Produkte für offenes OLTP kommen 1993 auf den Markt

22.05.1992

Von Lawrence Sherman und Alwin Schumacher*

Drei der bekanntesten Konzepte der Datenverarbeitung sind Online Transaction Processing (OLTP), verteilte Verarbeitung und offene Systeme. Während Produkte, die einer dieser Kategorien entsprechen, reichlich angeboten werden, steht eine Lösung, die alle drei Konzepte in einem Produkt verbindet, derzeit noch aus. Diese Situation soll sich bis Mitte 1993 grundlegend ändern.

Beim derzeitigen Stand der Technik könnte eine Kreditkarten-Transaktion (OLTP) über eine Applikation auf einem Minicomputer in Hannover stattfinden. Dieser Vorgang verursacht eine damit verbundene Transaktion an einem anderen Ort - etwa München; es findet verteilte Datenverarbeitung statt. Eine solche einfache Transaktion ist heutzutage überall an der Tagesordnung.

Offen ist diese Kommunikation zwischen den Rechnern allerdings nicht. Der Grund: Zur Kommunikation zwischen den jeweiligen Standorten existieren keine einheitlichen Application Programming Interfaces (APIs). Folglich müssen vorher individuelle Anpassungen vorgenommen werden Bei wirklich offenen Systemen entstehen solche Probleme erst gar nicht.

Groß- Diskussionen, aber keine klare Aussage

Unter OLTP sind Anwendungen zu verstehen, die die Abwicklung eines Geschäftes in Echtzeit ermöglichen. Typische OLTP-Anwendungen finden sich im Online-Bankwesen, bei Finanztransaktionen, Auftragseingang, Vertrieb, Kundendienst, in der Fertigungskontrolle und bei den Diensten der Telekommunikation. In den letzten Jahren war OLTP einer der am schnellsten wachsenden Bereiche der DV-Branche.

Traditionelle Transaktionsverarbeitung gilt als die Domäne von zentralen Großrechnern mit proprietären Betriebssystemen und Kommunikationsprotokollen sowie direkt angeschlossenen "dummen" Bildschirmen. Das schnelle Aufkommen von Industriestandards wie dem Unix-Betriebssystem sowie den Protokollen TCP/IP und X.25 etc. ermöglichte dem Anwender die verteilte Datenverarbeitung auf mehreren Plattformen unterschiedlicher Leistung und Herkunft Darüber hinaus wollen viele dieser Anwender aber auch verteilte und zugleich offene Lösungen für OLTP.

In den Standardisierungsgremien und Industriekonsortien wird zwar viel darüber diskutiert, wie die verteilten offenen Systeme in ein paar Jahren aussehen werden. Eine klare Auskunft über die nahe Zukunft bleiben sie jedoch schuldig.

Historisch gesehen, zeichnen sich OLTP-Systeme durch eine monolithische Architektur aus. Das heißt, alle nötigen Komponenten einer OLTP-Applikation (Verbindung zu den Benutzern, Datenspeicherung, Anwendungssteuerung, Transaktionssicherheit und -überwachung) werden oft zusammengefügt oder in dieselbe Region des Hauptspeichers von nur einem Großrechner gezwängt.

Die meisten proprietären, aber auch einige "offene" Transaktionsverarbeitungs-Umgebungen weisen noch heute diese monolithische Architektur auf Wegen der derzeitigen Marktentwicklung gehen die Anwender aber verstärkt dazu über diese monolithischen Architekturen in viele kleine Komponenten aufzusplitten.

Hier wünschen sie sich insbesondere mehr Möglichkeiten bei der Auswahl von Technologien, die sie zur Implementierung der Anwendungen benötigen.

Gewöhnlich lieferten die Computerhersteller Systemsoftware, die ein Betriebssystem, ein Dateisystem und Kommunikationssoftware umfaßte. Gelegentlich stellte ein Hersteller auch eine Umgebung für Transaktionsverarbeitung oder einen TP-Monitor zur Verfügung, aber auch in diesem Fall blieb die Lösung proprietär und an die Hardware des Herstellers gebunden. Deshalb war der TP-Monitor und die dazugehörige Anwendung vonständig miteinander verquickt und die Interoperabilität mit anderen Betriebssystemen oder OLTP-Applikationen unmöglich.

Anwender suchen nach offenen Produkten

Heutzutage verlangen die Kunden Standards und offene Systeme sowohl für die Host- als auch die Desktop-Systeme. Erst durch sie erhalten sie die Freiheit, die Geräte allein nach ihren Fähigkeiten auszuwählen. Dabei handelt es sich um Features wie Fehlertoleranz, die Möglichkeit, bestimmte Applikationen laufen zu lassen, oder um spezialisierte Kommunikationsmöglichkeiten.

Die Anwender wollen die Vorteile der Unix-Systeme mit ihren Standardapplikationen auf unterschiedlichen Plattformen sowie die Leistungsfähigkeit und Flexibilität von Desktop-Rechnern beziehungsweise LANs nicht mehr missen. Sie suchen nach offenen Produkten, die sie für die Einführung unternehmensweiter OLTP-Systeme oder für die Erweiterung schon existierender einsetzen können.

Der Mangel an herstellerunabhängiger Transaktionssoftware bleibt das größte Problem der OLTP-Anwender, die offene Systeme haben wollen, um ihre Anwendungen verteilen zu können. Unabhängig davon, ob es sich um Kunden aus dem Bankengeschäft, Wertpapierbereich, Versicherungen, Transportwesen oder Herstellung handelt, jedes Unternehmen setzt mehrere Hardwareplattformen von unterschiedlichen Herstellern und diese Software ein. Notwendig ist die Möglichkeit, diese Komponenten als eine einzige Anwenderumgebung zu betreiben.

Zwar löst das Unix-Betriebssystem, das auf allen Hardwareplattformen läuft, das Problem - aber nur theoretisch. Vor allem Anwender mit riesigen Datenbanken und OLTP Systemen sind nicht bereit, ihre Computer mit den proprietären Betriebssystemen zu verschrotten. Das ist nicht nur eine finanzielle Frage; die meisten herstellerspezifischen Systeme umfassen OLTP, Multiprocessing und Funktionalitäten für den Datenschutz - Features, die für Unix V.4 noch nicht verfügbar sind.

Glücklicherweise liegt hier keine ausweglose Situation vor. Die Unix System Laboratories (USL) haben sich dazu verpflichtet, Ende 1992 erweiterte Sicherheits- und Multiprocessing-Releases von Unix V.4 herauszugeben. Zudem sollen dem Industriestandard ensprechende Unix-Systeme binnen Jahresfrist die OLTP-Funktionalität bieten, die bislang proprietären Betriebssystemen vorbehalten ist.

Generell gilt, daß der Anwender beim Betriebssystem-Kauf darauf achten sollte, daß das Unix seiner Wahl den Richtlinien des X/Open-Konsortiums entspricht. Als sichtbares Zeichen einer solchen Offenheit kleben die Anbieter das XPG/3-Gütesiegel auf ihre Produkte.

Um OLTP-Anwendungen portabel und verteilt zu gestalten, benötigen die DV-Abteilungen eine neue Art offener Software. Diese beinhaltet Transaktionsverarbeitungs-Dienste für unterschiedliche Architekturen und Betriebssysteme. Obwohl noch in der Entwicklung, scheint sich die Distributed Computing Environment "DCE" von der Open Software Foundation für diese Aufgabe zu eignen.

Diese Umgebung ermöglicht die gleichzeitige und kooperative Verarbeitung mehrerer Tasks und stellt damit eine Ergänzung des "Two Phase Commit" dar, mit dessen Hilfe die Integrität von Transaktionen gewährleistet wird. Diese Technik wurde durch das "Encina"-Produkt von Transarc in DCE eingebracht.

Sowohl DCE als auch Encina liefern von Grund auf eine verteilte Transaktionsverarbeitungs-Architektur, die es Desktop-Computern ermöglicht, die unternehmensweiten OLTP-Dienste in Anspruch zu nehmen. Im Gegensatz dazu wurden die meisten OLTP-Produkte, die heute am Markt sind, nicht für PCs und Workstations oder für verteilte Umgebungen entwickelt, sondern für nicht-intelligente Terminals, die an einen einzelnen Computer angeschlossen sind.

Weitere Eigenschaften ergeben sich aus der Hardware-Unabhängigkeit und der Fähigkeit, den offenen XA-Datenbankstandard von X/Open zu unterstützen, der die Interoperabilität von verschiedenen Systemen garantierten soll. Dies dürfte all jene Anwender interessieren die OLTP-Funktionalität wünschen, sich aber nicht durch die Entscheidung für ein Produkt an einen Hersteller binden wollen. Am wichtigsten ist jedoch, daß diese Technologiekombination von den führenden Industrieunternehmen unterstützt wird: IBM, Hewlett-Packard und Stratus auf der Hardwareseite; Oracle, Informix, Sybase und JYACC von seiten der Software-Anbieter.

Das "Tuxedo"-Produkt von den USL bietet ähnliche Funktionalitäten für die Transaktionsüberwachung im verteilten OLTP und wird eine echte Alternative für die Kunden der Anbieter darstellen, die diese Technologien unterstützen.

Absage an die monolithischen Strukturen

Während sich diese offenen verteilten OLTP-Produkte noch m Entwicklungsstadium befinden, existiert bereits eine Standardmethode, um im LAN auf Desktop-Systeme zuzugreifen: "Netware" von Novell verbindet heute mehr als 50 Prozent aller vernetzten Desktop-Computer auf der Welt. Um die Desktop-Geräte zu großen, verteilten OLTP-Netzwerken zusammenzubinden, braucht der Anwender lediglich Netware und das am weitesten verbreitete Betriebssystem für offene Systeme, Unix, zusammenzufügen. Für diejenigen Kunden, die bereits ihre Anwendungen über TCP/IP verteilen, bedeutet Netware eine Verbesserung der Geschwindigkeit ihres Netzwerkes.

Einige der führenden Hersteller haben begonnen, Netware mit ihren Betriebssystemen zusammenzufügen, und zudem im letzten Jahr Kooperationsverträge mit Novell geschlossen. Zu ihnen gehören IBM, Digital Equipment, Hewlett-Packard und Stratus.

In diesen Firmen wurde Netware für Unix auf die entsprechenden Betriebssysteme - neben Unix auch auf einige proprietäre Systeme - portiert. Dadurch können PCs und Workstations unternehmensweit die Vorteile der verteilten OLTP-Applikationen und anderer Lösungen auf zentralen Großrechnern nutzen.

Viele der größten OLTP-Anwender auf der Welt haben sich jahrelang auf die monolithischen, proprietären Lösungen mit zentralen Großrechnern verlassen und sind damit zufrieden. In einigen Fällen bieten die proprietären Applikationen eine hohe Datensicherheit oder bedeuten einen strategischen Vorteil vor der Konkurrenz, der mit Unix nicht erreicht würde.

Durch den wachsenden Konkurrenzdruck und die Erkenntnis, wieviel Umsatz durch Stapelverarbeitung und Nichtverfügbarkeit der Computer verlorengeht, suchen immer mehr Anwender nach Möglichkeiten die monolithischen Strukturen aufzubrechen. Viele müssen mit ihren Kunden und Lieferanten gemeinsam über offene, verteilte Systeme in Echtzeit auf die Daten zugreifen können. Die beste Strategie für diese Kunden dürfte sein, ihre DV-Einrichtung so weit wie möglich mit Unix zu standardisieren und Applikationen zu entwickeln oder auszuwählen, die sich einfach auf verteilte Umgebungen portieren lassen.

Kriterien für den Kauf von Hardware

Ein weiterer wichtiger Bestandteil der hier skizzierten Lösung ist eine Technik nach den Richtlinien für offene Systeme, die vom Host- oder Desktop-Rechner aus das verteilte Netzwerk-Management ermöglicht. Tivoli Systems im texanischen Austin portiert derzeit mehrere solche Produktreihen auf Unix System V.4 - ein Schritt, der zusätzliche Bedeutung durch die Absichtserklärung der Open Software Foundation gewinnt die Tivoli-Technologie in ihr Distributed Management Environment (DME) einzubinden. Die Freigabe soll in den nächsten zwei Jahren erfolgen.

Beim Hardwarekauf ist der Anwender gut beraten, sich die Angebote derjenigen Hersteller näher anzusehen, die Werkzeuge für offenes, verteiltes OLTP offerieren. Beinahe jeder große Systemhersteller, der sich zu diesen Technologien bekannt hat, wird sie auch als Standardlösungen anbieten Obwohl die einzelnen Verfügbarkeitsdaten voneinander abweichen, werden die meisten der Anbieter ihre Produkte bis Mitte 1993 liefern können.