Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

30.05.1986

Die Bedeutung der Konnektivität von Personalcomputern:Erst Datenaustausch bringt vollen Nutzen

Der Siegeszug der Personalcomputer im Büro ist noch nicht abgeschlossen. Hat ursprünglich die Produktivitätserhöhung als Folge der Nutzung des "Werkzeugs PC" im Vordergrund gestanden, so resultiert der Zusatznutzen nun in immer stärkerem Maße aus der Verbindung der Einzelrechner zu einem Verbund und der dadurch begründeten Kommunikationsintensität. Das Fehlen eines gemeinsamen Standards würde in dieser Phase die erreichten Fortschritte gefährden.

Der moderne Personalcomputer (PC) ist kein Einzelgänger. Das war er eigentlich nie - bereits für die ersten PC-Begeisterten vor etwa 10 Jahren war die Möglichkeit, verhältnismäßig einfache asynchrone Schnittstellen im eigenen Computer selbst programmieren und dadurch Verbindung zu anderen PCs aufnehmen zu können, ein reizvolles Thema.

Inzwischen ist ein Jahrzehnt vergangen. Der PC ist ein in breiten Kreisen anerkanntes Arbeitsmittel geworden. Um den PC herum ist eine eigenständige Industrie entstanden. Will man deren Bedeutung richtig einordnen, muß man sich ihre Umsätze (1985 weltweit 12 Milliarden Dollar), ihre Entwicklungsraten (1985 35 Prozent bei professionellen PCs) und vor allem ihr noch ausschöpfbares Potential (etwa 85 Prozent) vor Augen halten.

Um nun ein Gefühl für die Bedeutung der Kommunikation von PCs zu bekommen, sei es untereinander als Einzelindividuen, als Mitglieder von Netzwerken oder mit Hostrechnern, sollte man sich eine Entwicklung klar vor Augen halten, die vielen vielleicht noch nicht voll bewußt geworden ist. Gemeint ist die Evolution des PC-Einsatzes im Büro. Warum und wofür werden heute PCs in der Büroarbeit eingesetzt, welche Argumente werden für die Rechtfertigung der Kosten angeführt, und wohin geht der Trend? Eine Klärung dieser Fragen hilft zu einer klareren Gliederung der Kommunikationsbedürfnisse von und mit PCs.

Der Einsatz von PCs im Büro läßt sich in vier deutlich unterscheidbare Phasen gliedern.

In der ersten Phase geht es dabei um die Erhöhung der Produktivität des einzelnen Mitarbeiters. Dieser bekommt durch den PC ein Arbeitsmittel an die Hand, das es ihm erlaubt, seine persönlichen Aufgaben computerunterstützt wahrzunehmen. Und zwar schrittweise in der Umstellung und zu ihm genehmen Zeiten. Mit Programmen, die in der Leistungsfähigkeit für den einzelnen Arbeitsplatz denen auf Hostrechnern in nichts nachstehen, die preisgünstig und sofort zur Verfügung stehen und die vom einzelnen Benutzer in weiten Grenzen durch einfache Bedienung seinen Bedürfnissen angepaßt werden können. Es ist dieser unbestreitbare Produktivitätsanstieg des einzelnen, dem die meisten derzeit in unseren Büros stehenden PCs ihre Existenzberechtigung verdanken.

Verbindungsmöglichkeit ist Nebeneffekt

In Phase 2 werden PCs miteinander beziehungsweise mit anderen EDV-Anlagen verbunden, um einfachen Datenaustausch zu ermöglichen. Das bedeutet, daß ein Mitarbeiter sich zur Erledigung seiner Aufgaben der Arbeit und der Ideen anderer Kollegen bedienen kann. Diese Verbindungsmöglichkeit ist jedoch ein Nebeneffekt; für sich allein würde sie die Anschaffung von PCs wohl in den seltensten Fällen rechtfertigen. Das Grundmotiv ist hier immer noch die Produktivität des einzelnen.

In Phase 3 ändert sich das Bild. Hier werden PCs miteinander und mit anderen EDV-Anlagen, zum Beispiel dem Großrechner eines Unternehmens, verbunden, damit bestimmte Aufgaben innerhalb einer Arbeitsgruppe erledigt werden können. Zu beachten ist, daß hier ein neues, ganz wesentliches Element hinzukommt: Es geht um die Produktivität einer Gruppe, ja im Endeffekt um die Produktivität des ganzen "Büros". Die Erhöhung dieser Gruppenproduktivität ist das erklärte Primarziel der Büroautomation. Wie viele Versprechungen, wie viele Ansätze, Anstrengungen und meist Fehlschlage doch mit diesem Schlagwort "Büroautomation" verbunden sind! Das Schöne und beinahe Ideale am PC ist, daß er als Kernbaustein jedes modernen Büroautomations-Systems gleichzeitig auch das Arbeitsmittel ist, das wie sonst keines zur Produktivität des einzelnen Mitarbeiters beiträgt. Der Ansatz zur besseren Produktivität des Unternehmens als Summe von Teilen kann somit nicht erst bei der Organisation, sondern an der Basis, nämlich dem einzelnen Mitarbeiter, beginnen.

Die Voraussetzung dafür, daß der PC die Produktivität der Gruppe in ähnlichem Maße wie die des einzelnen steigert, ist seine Konnektivität, also sein Vermögen, mit der Computerumwelt Verbindung aufzunehmen. Diese Anforderungen werden im folgenden analysiert.

Als zukünftigen Trend und Stadium der Perfektion wollen wir in Phase 4 die vollständige Konnektivität aller Arbeitsplätze in einem Unternehmen sehen, bei denen die Notwendigkeit der Kommunikation besteht. Diese kann je nach Betriebsart sehr verschieden sein, das Grundprinzip jedoch ist stets dasselbe: Verfügbarkeit zeit- und formgerechter Information überall, wo sie gebraucht wird.

Aus den beschriebenen Phasen 3 und 4 resultieren bestimmte Formen in der Organisation der Datenverarbeitung. Von der Anwendung her ergibt sich grundsätzlich nichts Neues: Es bleibt das Prinzip der Verteilten Datenverarbeitung (DDP), allerdings mit dem Unterschied, daß Rechnerleistung am Arbeitsplatz nicht emuliert wird, sondern tatsächlich vorhanden ist. Es entsteht also zunächst das Bild einer DV-Struktur in zwei Schichten: Rechnerleistung vor Ort am Arbeitsplatz und in der Zentralanlage. Von der Rechnerstruktur her ergibt sich jedoch der Vorteil, daß bereits in der äußersten Schicht - den Arbeitsplätzen - Konnektivität herrscht, wenn man PCs zu einem Netzwerk verbindet. Diese Verbindung läuft ohne Belastung, freilich auch ohne Steuerung der Zentralanlage. Diese kann nun mit einzelnen Arbeitsstationen oder auch mit einzelnen Netzen kommunizieren. Damit haben wir, in etwas geänderter Form, das bekannte Drei-Schichten-Modell der DDP vor uns: Einzelarbeitsplätze, über Vorrechner zusammengefaßte Rechnergruppen und die Zentralanlage.

Welcher Art sind nun die Verbindungen, die zur Erzielung hinreichender Kommunikation notwendig sind? Im einfachsten Fall handelt es sich um die Übertragung von Daten in Form von Meldungen oder Dateien. Diese Daten sollen am Bildschirm gelesen, ausgedruckt oder abgespeichert und später verarbeitet werden; das Problem der Nutzung

"fremder", das heißt noch zur eigenen Arbeitsstation gehörender Ressourcen gehört also hier mit dazu. Eine Stufe komplexer wird die Verbindungsaufgabe, wenn die eigene Arbeitsstation einen Dialog mit einem auf einem anderen Computer laufenden Programm führen soll - weder das dort laufende Betriebssystem noch die Zeichen- und Steuercodierung sind notwendigerweise gleich. Und noch schwieriger wird es, wenn die Verarbeitung bestimmter Daten zum Teil auf der eigenen PC-Station, zum Teil auf zum Beispiel der Hostmaschine erfolgen soll - keine so ungewöhnliche Forderung; wer hätte sich noch nicht gewünscht, seine in mühevoller Weise in einem Tabellenprogramm endlich optimierten Daten direkt dem Programm der großen Zentralanlage vorwerfen zu können, um sie dort weiter zu verarbeiten - vom eigenen Pc ausgesteuert natürlich -, ohne sie erst umständlich zu konvertieren oder womöglich noch einmal eingeben zu müssen.

Die Realisierung aller genannten Forderungen ist heute in vielen Fällen Standard. Wir kommen dadurch einem weiteren "Geheimnis" der PC-Entwicklung auf die Spur, das für viele selbstverständlich klingt, vielleicht aber doch nicht in seiner ganzen zentralen Bedeutung gesehen wird. Die Entwicklung und Verbreitung des PC hätte nie in nur knapp 10 Jahren den Sprung von null auf dreißig Milliarden Dollar Jahresumsatz geschafft, wenn da nicht, verhältnismäßig früh schon, ein Standard entstanden wäre.

Auf der Basis dieses PC-Standards, und unter Einhaltung der unabhängig vom PC bestehenden Standardvorgaben für Rechnerkommunikation für Verbindung, Übertragung und Protokoll werden Lösungen für die oben genannten Probleme von der Industrie angeboten. Wenn im folgenden auf Beispiele aus der IBM-Datenwelt verwiesen wird, hat dies seinen Grund in der Tatsache, daß bei weitem der größte Prozentsatz an Kommunikationsanwendungen IBM-Methoden folgt - die meisten untereinander nicht kompatiblen Rechner verschiedener Hersteller kommunizieren heute auf dieser Basis. Äquivalente Methoden für Großrechner von Siemens werden in begrenztem Umfang ebenfalls für PCs angeboten, und auch Methoden einiger anderer Hersteller sind realisiert

Die Verbindung von PCs untereinander erfolgt zunehmend durch "Netze". Hier hat sich, aufgrund des Fehlens von anerkannten Richtlinien, eine große Vielfalt von Netzstrukturen, Netzprotokollen, Netzwerkbetriebssystemen und zugehöriger Hard- und Software entwickelt. Die Entscheidung zur Einführung eines bestimmten Netzwerkprodukts zum heutigen Zeitpunkt ist durch die Ankündigung des IBM-Tokenpassing Rings jedoch noch nicht wesentlich leichter geworden; hier geben oft nicht zukünftige Kompatibilitätsüberlegungen, sondern näher liegende praktische Gesichtspunkte (Struktur, Leistung, Komplexität, Stabilität) den Ausschlag.

Ohne Standard kein PC-Masseneinsatz

Die breiteste Angebotspalette besteht auf dem Sektor interaktive Kommunikation, generischer Typ IBM 3270. Hier gibt es Produke auf BSC/SDLC- und SNA-Basis mit Emulation der verschiedenen einzelnen Schwarzweiß- und Farbterminals bis hin zur Emulation von Clustercontroller-Stationen. Dazu werden die Unterstützung verschiedener Druckertypen, die Unterstützung verschiedener Hostfunktionen, der Aufbau mehrerer gleichzeitiger Sessions, die Kompatibilität zu spezifischen IBM-Programmprodukten wie zum Beispiel Grafik und natürlich verschiedene Möglichkeiten der Dateiübertragung angeboten. Für all dies gibt es Karten mit direktem Koaxanschluß oder Modemanschluß (bei letzteren auf FTZ im benützten PC achten). Zur nervlichen Beruhigung des EDV-Chefs besteht bei manchen Produkten die Möglichkeit, durch am Host installierte Software eine zuverlässige Zugangsregelung und -kontrolle zu erreichen - ein nicht zu unterschätzendes Problem.

Sehr viel dünner sieht noch das Angebot an Software aus, die über die Standard-Kommunikationsroutinen hinausgeht. Dies erklärt sich natürlich zum Teil daraus, daß hier die Interaktion mit Applikationen am Host und somit weit größere Individualität gefordert ist.

Der unmittelbare Austausch von Daten zum Beispiel zwischen Lotus oder dBase und einem Cobol-Programm am Host - ein Muß bei der Herstellung voller Konnektivität - bleibt derzeit meist dem Anwender selbst überlassen.

Nicht vergessen sollte man bei allen Betrachtungen über Rechnerverbindungen die Dienste, die die Bundespost selbst beziehungsweise auch private Anbieter von Kommunikationsleistung zur Verfügung stellen. Computerisierter Telex- oder Teletex-Verkehr kann viele Engpässe lösen. Btx beziehungsweise Videotex, die Telebox und vor allem die privaten Mailboxsysteme mit ihren Dienstleistungen runden das Bild der Konnektivität ab.

Durch die flächendeckende Versorgung der Postnetze ergibt sich eine Erweiterung der Konnektivität, die stetig an Bedeutung zunimmt: die mobile, tragbare Arbeitsstation. Ein tragbarer PC mit einer einfachen Koppelvorrichtung - in der Bundesrepublik derzeit leider nur Akustikkoppler - erlaubt praktisch von jedem Ort aus den Anschluß an den Rechnerverbund nicht nur des eigenen Hauses, sondern an alle über das Telefonnetz zugänglichen Datendienste. Damit gewinnt der Rechnerverbund, wiederum nur dank des PC, die Dimension der Ortsungebundenheit.

*Walter Fink ist Leiter der Abteilung Technik bei der Compaq Computer GmbH.