Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

17.07.1992 - 

Vernetzung als logische Basis

Heterogene Konzepte sind auf dem Weg in die tägliche Praxis

Die Aussichten für Client-Server-Technologien scheinen gut: Analysen einer jüngeren IDC-Studie besagen zum Beispiel, daß etwa 60 Prozent der amerikanischen /370-Anwender die Umstellung auf Client-Server-Strukturen planen, Marktforscher der Gartner-Group schätzen den dadurch möglichen Produktivitätszuwachs bei Endanwendern auf 30 bis 50 Prozent.

Eine Befragung der Business Research Group unter 103 US-Anbietern im Bereich Systemintegration ergab, daß Client-Server-Computing schon heute 39 Prozent ihres Geschäftes ausmacht - 1997 erwartet man 69 Prozent aus diesem Bereich.

Gute Aussichten für Client-Server-Computing

All diese Analysen lassen auch durchblicken, daß dieser Trend noch stärker wäre, wenn entsprechende Entwicklungswerkzeuge und Standards marktreif zur Verfügung stünden und wenn mehr Klarheit hinsichtlich der Bedürfnisse der Anwender vorläge.

Die Gründe für diese Entwicklung liegen auf der Hand:

- Preiswertere Verarbeitung auf dem Desktop im Vergleich zum Host (Stichwort Downsizing)

- Verbesserte Produktivität durch erweiterte Datenzugriffsmöglichkeiten.

- Höhere Akzeptanz durch verbesserte Ergonomie (Stichwort: grafische Benutzeroberflächen).

Doch es wird auch eine Reihe von Forderungen an eine solche Architektur gestellt, zu der unter anderem eine sichere und schnelle Transaktionsverarbeitung gehört.

Zugriff auf alle relevanten Daten

Wenn von effektiver Unterstützungssoftware für Client-Server-Architekturen die Rede ist, sollte zunächst klar sein, was das Hauptanliegen an diese Architektur ist. Sie soll einem speziellen Anwenderkreis die Möglichkeit geben, unternehmensweit auf Informationen zugreifen zu können und - wo verlangt und erlaubt - diese zu ergänzen, zu ändern und zu löschen. Das meint Zugriff auf alle relevante Daten, egal wo und wie sie abgelegt sind.

Der allgemeine Downsizing-Trend führt dazu, daß Mainframes, beziehungsweise zunehmend RISC-Systeme unter Unix, vor allem als Datenbank-Server installiert werden, während Applikationen auf die verschiedenen Clients verlagert werden. Als Software kommt auf diesen

PCs etwa Windows und Netware zum Einsatz.

Sinn dieser Aufteilung ist, aus einem Spreadsheet heraus auf

Unternehmensdaten zugreifen zu können. Praktisch sieht das so aus, daß der Anwender über SQL-Kommandos auf eine Server-Datenbank zugreift und die bearbeiteten Daten aktualisiert wieder zurückschreibt - wiederum über SQL-Kommandos.

Die Software zur Unterstützung des Client-Server-Computing mit solcher Funktionalität ist noch rar. Deshalb haben Großanbieter wie die IBM, Novell und Oracle mit Teillösungen noch die Nase vorn, vor allem, weil sie beim Support mehr flächendeckende Präsenz bieten können. Doch Support bedeutet nicht Lösung, sondern oftmals Troubleshooting oder Problemhilfe.

Umfassende Software-Lösungen für obige Konzepte verlangen allerdings mehr: nicht Teillösung oder Mängel-Verwaltung, sondern umfassende und schnelle Implementierung von transparenten DV-Systemen.

Diese soll sowohl lokale als auch externe Ressourcen optimal nutzen können, ohne daß der Benutzer mit SQL-Dialekten, Zugriffsberechtigungen oder Hardware-Fragen belästigt wird. Die Verwaltung von Datenbanken, Sicherheitsregeln und Ressourcen sollte vollkommen transparent geschehen. Rund-um-die-Uhr-Betrieb inklusive automatische Abrechnung von Ressourcenverbrauch sind weitere Ziele.

Die Anforderungen sind hoch. Doch angesichts der paradoxen Situation, daß so mancher Endanwender zuhause wesentlich ergonomischer und besser unterstützt an seinem PC arbeitet, ist eine Verzögerung bei der Einführung benutzerorientierter sprichgrafisch unterstützter Anwendungen eine Verschwendung von Know-how und ein vermeidbarer Quell von Unlust am Arbeitsplatz. Ganz davon abgesehen, daß Vernetzung die logische Fortsetzung des bisherigen Trends sein muß, will man nicht die "privat" angehäuften Informationen brach liegen lassen.

Dabei muß eine Integration nicht der völlige Verlust der selbstbestimmten Arbeit sein; bei der Einführung von Client-Server-Konzepten geht es nicht um Disziplinierung, sondern um Effizienz und weitere Qualifizierung von Aufgaben, die mehr mit denen des Unternehmens zu tun haben als mit der Auseinandersetzung mit willkürlichen Hard- und Software-Eigenheiten.

Soweit der subjektive Aspekt. Der objektive betrifft die Herausforderungen, vor denen heute fast alle Unternehmen stehen, in denen Informationsverarbeitung eine geschäftskritische Rolle spielt.

Es gibt, wie gesagt, sehr wenig Software, die den unternehmensweiten Zugriff auf Datenbanken verschiedener Struktur und Hardwarebasis unterstützt. Dieser Zugriff nach dem Client-Server-Prinzip sollte von PC-Applikationen aus möglich sein beispielsweise unter Windows- oder Macintosh-Benutzeroberflächen. Hier gibt es inzwischen dreierlei Angebote:

- SQL-Server verschiedener Hersteller, die allerdings proprietär und auf den Zugriff auf eine oder wenige relationale Datenbanken beschränkt sind.

Relationale Datenbankmanagement-Systeme mit Unterstützungssoftware für den Zugriff auf das eigene System und unbeschränkte Client-Server-Lösungen für Multi-Vendor-Umgebungen mit Zugriff auf sowohl relationale als auch nichtrelationale Datenbanken.

Oftmals wird man mit den ersten beiden Ansätzen auskommen können. Große Unternehmen, vor allem solche, die aus Fusionen entstanden sind, haben in der Regel mit mehreren Hardware-Systemen als auch unterschiedlichen Datenbanken zu tun. Auf der sicheren Seite ist man natürlich allemal mit einer unbeschränkten Client-Server-Lösung.

Erstaunlich ist, daß dieser anspruchsvollste Ansatz nicht von den großen im Markt zuerst in Angriff genommen wurde. Hier tun sich momentan vor allem relativ kleine Unternehmen wie Gnosis (mit Sitz in Antwerpen) hervor, die früh angefangen haben, sich für Client-Server-Architekturen und Lösungen für Multivendor-Umgebungen zu engagieren. Die von Gnosis eingesetzte Technologie wird unter dem Namen "Sequelink" vertrieben.

Transparente Software optimiert Transaktionen zwischen Client-Workstations und Servern, wobei die gewünschten oder bereits vorliegenden relationalen Datenbanken, Neuwerke und Anwendungen einbezogen werden können. Bereits existierende Standards werden unterstützt, ohne immer die freie Wahl beim Einsatz zukünftiger Hard- und Software zu beeinträchtigen.

Die Implementierungen von Client-Server-Konzepten in echten Multi-Vendor-Umgebungen sorgt schnell für einen schwer einzuholenden Erfahrungsstand. Die oben stehende Tabelle soll zeigen, wie vielfältig die angebotenen Kombinationen sind:

Diese umfassende Flexibilität wird durch eine besondere Architektur ermöglicht, die auf der Client- und der Server-Seite jeweils mit drei logischen Ebenen arbeitet:

a) auf der Client-Seite

- Application Links, die der spezifischen Applikation angehören

- Client Core, das auf das Betriebssystem des Client zugeschnitten ist und

- Netzwork Links, die das Netzwerk-Betriebssystem und seine Protokolle des Client-Netzwerkmanagement-Systems beherrschen müssen.

b) auf der Server-Seite

- DBMS Links für die Sicherheit und SQL-Calls des spezifischen DBMS

- Server Core, ein Connectivity-Produkt, das das Server-Betriebssystem kennen muß und die Daten zusammen mit DBMS Links verarbeitet

- Network Links, spezifiziert auf die Server-Netzwerkprotokolle. Sie maximieren die Effizienz der Kommunikationssubsysteme.

Wirkliche Leistungsfähigkeit kann man solchen Connectivity-Produkten nur zusprechen, wenn etwa folgende Betriebssysteme und Netzwerke Unterstützung finden:

Betriebssysteme: Macintosh, DOS-Windows, OS/2, RS/6000,

HP/9000, MVS, VAX, DEC RISC, AS/400, Sun SPARC

Netzwerke: Novell Netware, NetBIOS, TCP/IP, DECnet,

APPC-LU 6.2, Appletalk, LAN Manager

Diese Umgebungen ändern sich und werden komplexer. Nur wer mit immer neuen Umgebungen Schritt hält und auf kommende Standards frühzeitig einbezieht, wird in dieser Marktnische weiter mitmischen.

*Dirk Dierickx ist im International Marketing von Gnosis, Köln, beschäftigt

Stichworte

Um die Vielfalt des erforderlichen Know-hows zu dokumentieren, das bei der Insttalation von Client-ServerTopologien gefragt ist, hier einige Beispiel an technologischen Innovationen, mit denen man vertraut sein sollte:

a) Gespiegelte Cursor-Architektur

Um die Verarbeitungslast für Client-Server-Transaktionen zu reduzieren, sollte nach einem "last recently used"-Algorithmus die letzte Transaktion gespeichert bleiben, zum Beispiel in Form eines gespiegelten Cursors, der sowohl auf der Client- als auch auf der Server-Seite in Verbindung mit einer Transaktion eingerichtet wird und beim Aufruf sukzessiver gleicher Transaktionen mit anderen Variablen zu einer 75prozentigen Reduktion der Transaktionslast führt.

b) APIs

Eine geeignete API-Architektur kann den Wert der Host-Daten durch virtuelle Diskettenlaufwerke stark erhöhen, vorausgesetzt, die Schnittstelle ist zwischen Programm und Daten auf verschiedene Plattformen automatisiert und so völlig transparent für den Anwender.

c) Öffnung der DBMS-Schranken

Dem Anwendungsentwickler sollten auch nicht-relationale Links für Client-Server-Applikation über eine geeignete Architektur und entsprechende "Server Construction Sets" zur Verfügung stehen, um ein breites Spektrum von Host-basierenden Anwendungen mit einbeziehen zu können. Moderne Konzepte wie Objektorientierung, KI und neuronale Netzwerktechnik legen derartige Öffnungen nahe.