Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

20.12.1991 - 

Am Anfang steht die Systemintegration

Die Zukunft des PCs liegt im Client-Server-Computing

Der PC fristet in den Unternehmen ein Dasein als Einzelkämpfer, von Teamwork der einzelnen DV-Komponenten auf Basis einer Client-Server-Umgebung ist man noch weit entfernt. Für Michael Prost* führt der Weg jedoch unweigerlich dorthin. Er fordert die Rechenzentren und den Benutzerservice auf, gemeinsam den ersten Schritt zu tun und mit der Systemintegration zu beginnen.

Seit Beginn der PC-Ära im Jahr 1984 hat der PC große Verbreitung gefunden. Die Einsatzschwerpunkte sind Textverarbeitung, Tabellenkalkulation, Business-Grafik, Datenbankanwendungen und technische Grafik. Ferner werden an Arbeitsplätzen, die auch auf klassische Host-Anwendungen zugreifen, Bildschirm-Emulationen eingesetzt.

Die Vernetzung von PCs zu lokalen Netzwerken hat sich auf breiter Front noch nicht durchgesetzt. Die ist erstaunlich, da die Vorteile von Netzwerken auch unter wirtschaftlichen Gesichtspunkten vielfältig sind, zum Beispiel:

- Nutzung gemeinsamer Ressourcen,

- Nutzung gemeinsamer Daten und Dokumente,

- Nutzung von Netzwerklizenzen für Software,

- zentrale Datensicherung, verbesserter Datenschutz,

- Arbeitsplatz-Unabhängigkeit sowie

- vereinfachte Betreuung und Wartung.

Daß es heute nicht mehr Netze gibt, liegt zum einen daran, daß die Vernetzung von PCs eine andere Verkabelung erfordert als die größtenteils vorhandenen Koax-Leitungen. Hier sind beträchtliche Investitionen notwendig, die viele Unternehmen scheuen. Solche Ausgaben werden in der Zukunft jedoch nicht zu vermeiden sein der größte wirtschaftliche Nutzen ergibt sich aber, wenn man sie möglichst früh tätigt. Jetzt ist die Zeit dafür reif, denn mit den derzeitigen Verkabelungen ist die Informationsverarbeitung der Zukunft nicht zu bewältigen.

Andererseits hängt der niedrige Verbreitungsgrad von vernetzten PCs mit dem Stellenwert zusammen, den dieser Rechnertyp in der DV einnimmt und der sich infolgedessen auf die bisherige Struktur der Benutzerservice-Zentren (BSZs) sowie auf die Aufgaben der PC-Betreuer ausgewirkt hat.

Der PC diente in der Vergangenheit als probates Mittel, um Probleme zu lösen, deren sich die klassische DV nicht annehmen wollte oder konnte. Anwendungsentwickler und RZ-Leute betrachteten den PC eher als Spielzeug. Dementsprechend ergab sich die Aufgabenstellung des BSZS, das die Endbenutzer beriet und unterstützte.

Ferner verbrachten die Endanwender-Betreuer viel Zeit mit Installationen, Produkttests und individueller Fehlersuche. So wurden die BSZs in gewisser Weise zu den technologischen Forschungsstätten der Datenverarbeitung. Ob diese Arbeitsweise allerdings immer den größten wirtschaftlichen Nutzen für die Unternehmen erbracht hat, darf in einigen Fällen in Zweifel gestellt werden.

Vernachlässigt wurde, Konzepte für die Integration von PCs in die vorhandenen DV-Strukturen zu entwickeln sowie Standards und Verfahren zur systematisierten und automatisierten Installation, Betreuung und Verwaltung von PCs und PC-Netzen zu etablieren. Für die Zentralrechner-Welt selbstverständliche Begriffe, wie Ressource-, Problem- und Change-Management, sind für den PC-Bereich meist noch Fremdwörter. Hier liegt die Aufgabe des BSZs für die Zukunft.

Fazit: Die PC-Landschaft ist bis heute mehr oder weniger unstrukturiert. Die Benutzer-Service-Zentren sind gerade in der Lage, die bestehende Basis zu betreuen; daher läßt sich ein weiteres ungeregeltes Wachsturn kaum noch beherrschen. Inzwischen haben jedoch auch

DV-Leiter, Leiter der Anwendungsentwicklung und RZ-Verantwortliche erkannt, daß der PC in Zukunft eine wichtige Rolle im gesamtheitlichen Informationskonzept spielen wird. Heute stellt sich die Aufgabe, den Übergang vom jetzigen Status in zukünftige IV-Strukturen zu finden. Mit Gedanken über das Szenario von 1994 soll hier ein Anfang gemacht werden.

In der IV vollzieht sich bis 1994 ein großer Wandel

Unsere Arbeitswelt verändert sich grundsätzlich: Vorgangsbearbeitung, Kommunikation (intern wie extern) sowie der Zugriff auf diverse Informationsquellen nehmen zu. Dies stellt neue Anforderungen an die DV, die über Client-Server-Computing gelöst werden können. Beim Client-Server-Computing greift die intelligente Workstation am Arbeitsplatz (Client) auf verschiedene Rechner und die dort vorhandenen Informationen und Dienste (Server) zu.

Der Weg zu einer Client-Server-basierten DV führt über die Systemintegration,- wobei es sich im einzelnen um folgende Konsequenzen handelt:

1. Anwendungsentwicklung

Der Trend zu Standardanwendungen setzt sich unverändert fort. Sie bieten 1994 zum Teil bereits grafische Oberflächen, manche Funktionen sind auf Workstations ausgelagert. Zudem kommen CASE-Tools und objektorientierte Programmierung verstärkt zum Einsatz. Die Applikationen sind dann in drei Ebenen geteilt, in die Datenbank-, Verarbeitungs- und Präsentationsebene. Diese Dreiteilung ist sehr wichtig, da sie die Voraussetzung für die Portierung und Verteilung von Anwendungen darstellt.

Die Präsentationsebene läuft zu diesem Zeitpunkt vorzugsweise auf einer intelligenten Workstation, muß aber nicht. Die Verarbeitungsebene wird in verstärktem Maße ebenfalls auf intelligente Workstations ausgelagert.

Für die Datenbankebene besteht die Möglichkeit, verteilte Datenbanken zu nutzen. Dadurch gewinnt das Unternehmen in jedem Fall die Freiheit, auf Anwendungen an verschiedenen Orten und zu verschiedenen Zeiten zuzugreifen. Die Applikationen selbst sind als Verbund konzipiert, die Datenbankebene kann je nach Situation auf verschiedenen Plattformen, etwa Workstations, Server, MDT-Rechner und Großrechner implementiert werden.

2. Datenbanken

Künftig liegen nicht mehr alle Daten zwangsweise auf den Zentralrechnern, wie bei den IBM-Anwendern mit DB2, sondern es besteht die Möglichkeit, Daten über verteilte Datenbanken dort zu speichern, wo man sie am meisten benötigt.

3. Netzwerk-Management

Netzwerk-Management-Tools werden in Zukunft überall verwendet, wobei auch die PCs ins zentrale Netz-Management eingebunden sind. Uber zentrale Werkzeuge lassen sich die Anwendungen verteilen und die PCs verwalten.

4. Uternehmenskommunikation

Weit verbreitet ist auch die Unternehmenskommunikation. Vom Arbeitsplatz aus können Telefaxe verschickt oder empfangen werden. Unter Umständen könnte es bis 1994 eine Renaissance von Teletex geben, da diese Kommunikationsvariante die Möglichkeit bietet, eingehende Schreiben als Texte zu speichern. Zunehmen wird auch die Archivierung auf Zentralrechnern sowie auf dezentralen Systemen über optische Speichermedien. Unternehmenskommunikation - nicht nur im eigenen Unternehmen, sondern auch mit anderen Unternehmen - entwickelt sich zu einem wichtigen Erfolgsfaktor für Produktivität und Profitabilität. Hier sind alle Bereiche der Informationsverarbeitung gefordert.

5. Vernetzung

Sämtliche Komponenten der Informationsverarbeitung sind 1994 vernetzt, isolierte Systeme gibt es nicht mehr je nach Ausgangslage wird Token Ring oder Ethernet verwendet. Beide Verkabelungsarten lassen sich jedoch auch gemischt einsetzen und über Gateways miteinander verbinden. Der Endbenutzer soll auf alle Ressourcen zugreifen können, unabhängig vom Anschlußtyp. Vorhandene Koax-Anbindungen werden nach und nach ersetzt.

6. Netzwerke

Novell ist bis 1994 auf OS/2 portiert, IBM OS/2 LAN Server und Novell haben sich angenähert. Es ist möglich, verschiedene Systeme (PCs, Workstations, Zentralrechner verschiedener Hersteller) als Server zu nutzen.

7. Arbeitsplätze

Als Betriebssysteme dienen OS/2, Windows-NT und in geringerem Maße Unix. Die Zukunft von OS/2 wird sich 1992 zeigen. Kommt OS/2 2.0 rechtzeitig mit den angekündigten Funktionen und mit genügend Stabilität auf den Markt. wird es sich bei den IBM-Systemkunden in breiter Front durchsetzen. Das bisherige Hauptmanko von OS/2, die nicht ausreichend verfügbaren Anwendungen, verkehrt sich mit der neuen Version ins Gegenteil. Die Stärke von OS/2 2.0 als einem integrierten Betriebssystem mit allen Connectivity-Möglichkeiten in Client-Server-Umgebungen kommt dann voll zur Geltung. Läuft OS/2 zudem stabil auf IBM-kompatiblen Rechnern, hat es bei dem aggressiven Preis-Marketing der IBM sogar große Chancen im Privatmarkt. Sollte Microsoft Windows-NT frühestens Ende 1992 herausbringen, kann der Zug schon abgefahren sein. Setzt sich OS/2 2.0 aber nicht durch, wird Windows-NT der Rehner. In jedem Fall entscheiden sich die Anwender künftig für ein bedienerfreundliches Endbenutzer-Betriebssystem, mit dem unproblematisch auf alle unternehmensweiten Systeme zugegriffen werden kann und das keine Restriktionen bezüglich der Anwendungs- und Zugriffsmöglichkeiten beinhaltet.

Den Arbeitsplatz wird eine grafische Oberfläche prägen, die als Single-System-Image ausgelegt ist. Darunter ist zu verstehen, daß der Anwender auf alle von ihm benötigten Ressourcen zugreift.

Grundvoraussetzung für ein Informationssystem, das den Betrachtungen des Szenarios von 1994 entspricht, ist der Aufbau einer geeigneten Infrastruktur. Dazu gehören:

- Verkabelung (Token Ring/ Ethernet),

- Netzwerkstrukturen, wie Backbone-Ringe, Brücken, Gateways, sowie

- zukunftssichere Hardwarekomponenten, beispielsweise Steuereinheiten, Brücken, geeignete PCs.

Diese Anforderungen müssen BSZ und RZ gemeinsam bewältigen.

Erster Schritt: Vernetzung der PCs

Als nächste Aufgabe steht die Vernetzung vorhandener PCs sowie die Etablierung von Standards und Verfahren für die zukünftige Erweiterung an. Heute installieren die Mitarbeiter des Benutzerservices im Extremfall den PC von der Hardware bis zum letzten Programm, einschließlich möglicher Anpassungen der Peripherie. Bei Updates sind die PC-Betreuer dann tage- oder wochenlang beschäftigt, die neuen Disketten auf die Rechner zu spielen.

Ideal wäre jedoch, daß alle Anwendungsprogramme auf den Servern liegen. Für einen neuen Benutzer sind in diesem Fall Anwendungen und Zugriffe zu definieren und in der entsprechenden Netz-Domain einzutragen. Der Enduser bekommt einen fertig konfigurierten PC, mit dem er sofort arbeiten kann. Spätere Software-Änderungen werden nur auf den Servern vorgenommen - diese Aufgaben zählen bald zu den Tätigkeitsschwerpunkten des BSZs.

Anforderungen an die Tools

Nach der Vernetzung sind als nächster Schritt Tools zum Management der Workstations erforderlich. Dabei sollen BSZ und RZ gemeinsam daran arbeiten, um folgende Anforderungen zu erfüllen:

- Ressourcen-Management,

- Konfigurations-Management,

- Security-Management,

- Problem-Management,

- Change-Management und

- Performance-Management.

Drastische Veränderungen sind zudem in der Anwendungs-Strategie notwenig. Dazu gehört zu m Beispiel, entsprechende Methoden und CASE-Tools zu implementieren. Ferner ändert sich das Design von Anwendungen. Außerdem werden andere Programmiersprachen und Generatoren verwendet. Um ein entsprechendes Wissen und die nötige Erfahrung aufzubauen, sind erste Verbundanwendungen einzurichten. Weiterhin ist es wichtig, ein unternehmensweites Datenmodell zu erstellen sowie die objektorientierte Denkweise zu erlernen. Unter Umständen benötigen alte Anwendungen auch noch eine neue Benutzer-Oberfläche.

Diese Umwälzung hat in erster Linie die Anwendungsentwicklung zu bewältigen, Auswirkungen machen sich jedoch auch auf die BSZs bemerkbar. Einerseits obliegt dem BSZ, die Infrastruktur für künftige Anwendungen zu schaffen und zu warten. Andererseits sollen die dezentral eingesetzten Softwarepakete mit Blick auf die zukünftige Verteilung von Anwendungen und Daten zu ihren Zentralrechner-Pendants passen.

Zwei Aspekte sind für die Zukunft wichtig. Dadurch, daß der PC eine zunehmende Bedeutung für die Arbeit des einzelnen hat, wird der Anspruch an die Anwendungsverfügbarkeit, das heißt an die Verfügbarkeit seines Arbeitsgeräts sowie der benötigten Anwendungen, immer größer. Eine der wichtigsten Aufgaben ist es deshalb, diese Anwendungsverfügbarkeit zu sichern. Im Schaubild wird übrigens deutlich, daß die größte Investition an einem PC-Arbeitsplatz durch die Zeit des Benutzers entsteht (zirka 75 Prozent). Die Anwendungsverfügbarkeit ist der mit Abstand bedeutendste Faktor bei der schaftlichkeit des PC-Einsatzes. Ziel soll sein, diese Investition optimal zu nutzen. Interessant ist auch, daß in der zugrundeliegenden Studie die Kosten für allgemeinen Support mit zehn Prozent der Gesamtkosten, die Hardwarekosten jedoch nur mit fünf Prozent veranschlagt werden.

Der andere Aspekt betrifft die neue Positionierung des BSZs. In dem Maße, wie PCs in die vorhandene DV-Struktur integriert werden, sind auch die Aufgaben des BSZs stärker in die Aufgabenstellung der gesamten DV-Abteilung einzubinden. Daraus enstehen neue Anforderungen, die stärker als bisher strategisch ausgerichtet sind. Da aber auf der anderen

Seite die Zahl der Mitarbeiter nicht grenzenlos erweitert werden soll und wegen fehlender qualifizierter Arbeitskräfte nicht erweitert werden kann, macht es immer mehr Sinn, Aufgaben an Externe auszulagern oder mit externen Partner gemeinsam zu bewältigen. Die folgende Übersicht soll zeigen, wo das Outsourcing beziehungsweise das Hinzuziehen von Externen sinnvoll ist:

Die Informationsverarbeitung wird sich in den nächsten Jahren entscheidend verändern. Die intelligente Workstation spielt dabei eine immer wichtigere Rolle. Die heutige Aufgabe besteht im wesentlichen darin, die Infrastruktur und die Organisation zu schaffen, um die Datenverarbeitung von morgen betreiben zu können. Hierzu sind jedoch erhebliche personelle Anstrengungen vonnöten. Angesichts der Knappheit auf dem Personalmarkt und der Kosten guter DV-Fachleute ist hier die qualifizierte Hilfe durch kompetente Partner sowohl aus technischen als auch aus wirtschaftlichen Gründen notwendig.