Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

15.09.1988 - 

Endanwender-Arbeitsplätze und Benutzerunterstützung müssen sorgfältig gesteuert werden:

Nur konsequente Planung steigert die DV-Produktivität

Das Stichwort heißt immer noch "Produktivitätszuwachs!" Unterstützt von einer zentralen DV arbeiten in einem Unternehmen heute Dutzende von Mitarbeitern mit Terminals, mit PCs oder Workstations, um dank solcher Hilfsmittel Zeit einzusparen und produktiver zu werden. Jeder PC-Besitzer weiß aber, daß man mühelos Tage und Nächte mit der Klärung von Mißverständnissen zwischen Maschine und Benutzer, zubringen kann...

Produktivitätszuwachs?

Zur Erreichung realistischer Produktivitätszuwächse im Unternehmen gehört heute fast regelmäßig der Einsatz von Datenverarbeitung. Nur, wie so häufig, wird das Mittel "DV" leicht zum (Selbst-)Zweck und liefert dann Probleme, wenn man es

versäumt, die richtigen Systeme am richtigen Ort mit der richtigen Aufgabe einzusetzen. Ganz zu schweigen von den Mitarbeitern, die mitmachen müssen.

Die Aufgabe der Schaffung von Produktivitätszuwachs gab es natürlich schon immer. Mit leistungsfähigerer DV aber, mit vielseitigeren Programmen, die man unter MS-DOS kennt und die man unter Unix kennenlernen wird, sind auch die Benutzungs-"Fallen" um Größenordnungen vielseitiger geworden. Nicht mehr nur Schulung tut not, ebenso notwendig sind Systemplanung, Hotline, Einzelberatung zu zweit vor dem Bildschirm sowie wiederholte Weiterbildungsaktionen. Dabei bedarf es Flexibilität und Anpassung an die jeweilige Aufgabenstellung des Benutzers.

Das Rechenzentrum - ob intern oder extern, ob als Dienstleistungs-RZ oder als simple DV-Abteilung - spielt dabei eine Hauptrolle: Es liefert und leistet. Wie bei kaum einer anderen Dienstleistungs-Institution steht das Interesse des Benutzers im Vordergrund. Allerdings haben sich die Bedürfnisse des Anwenders im Zeitalter von PC und Workstation gewandelt.

Diese Dienstleister, die die Datenverarbeitung "managen", stehen zumindest theoretisch immer vor der gleichen Aufgabe: dem Benutzer, ob er nun ein ganzes Unternehmen ist oder ein Sachbearbeiter im eigenen Unternehmen, bei der Erfüllung seiner Aufgaben Hilfestellung zu leisten, soweit die Datenverarbeitung dazu in der Lage ist.

In diesem Zusammenhang hat der Begriff vom Anwendungsstau seine gefürchtete Brisanz zumindest teilweise verloren. Er steht nicht mehr im Mittelpunkt der Problemstellung. Vielmehr ist Sachkenntnis im Aufbau einer gesunden Mischung aus arbeitsplatzeigener DV-Intelligenz und zentraler Hilfsmöglichkeit gefordert - eine Ausgangsfrage, der viele DV-Spezialisten nur bedingt gewachsen sind. Zu umfangreich ist das Lern-Repertoire in bezug auf die Leistungsmöglichkeiten dezentraler DV-Intelligenz geworden, zu dynamisch und vielgleisig sind mittlerweile die Techniken zwischen Terminal und PC.

Konkret muß die Unterstützung darin liegen, daß man versucht, die DV-mäßigen Aktivitäten des Benutzers so zu steuern, daß dabei ein gesunder Mix aus vor Ort installierter und remote zu betreuender Applikation mit Lösungscharakter herauskommt; zusammen mit möglichen Dialog-Anwendungen, für die sich die in der zentralen DV installierte Hardware besser eignet als das Endgerät beim Benutzer.

Zurück zum Anwendungsstau. Einst der Schrecken aller Anwender, die etwas von "ihrer Datenverarbeitung" wollten oder brauchten, hat er sich zur durchaus erträglichen Schwiegermutter entwickelt, mit der man leben kann, wenn man es will. Voraussetzung ist der gelungene Anwendungsmix, der sich durch die Arbeits- und Hardware-Verteilung ergibt. Jedem Rechner und jedem Anwender das Seine. Natürlich darf man nicht davon ausgehen, daß Hostprogramme nur schwerfällig und leistungsfähig sind, während PC-Programme leicht handhabbar und noch leistungsfähiger sind. Dem ist nicht so.

Host-Probleme können nicht von PC-Lösungen erschlagen werden, sondern ihnen wird sinnvoll assistiert. Es ist der Mix, der vieles lösbar macht, was vorher durch Einbahn-Kanäle ohne Überholspur verstopft oder blockiert war. Für die Lösungen der Anwendungsprobleme bedeutet das, daß neben Standardanwendungen besondere Spezialprobleme mittels PC-Software lösbar und entsprechende Anwendungen durchführbar geworden sind.

Jedwede Lösung aber ist Teil eines heute dreibildrigen Szenarios. Da gibt es als erste Kategorie die Gruppe der zentral agierenden Anwender, bei denen an den Host-Rechner immer noch die Terminals beim Benutzer angeschlossen sind. Sie werden noch ein wenig länger mit dem Anwendungsstau leben müssen, weil sie sich den Vorzügen neuartiger Mischverarbeitungsformen entziehen.

Statt dieser "dummen" Terminals werden zunehmend - und damit nähern wir uns der zweiten Gruppe von Anwendern - PCs installiert, wobei der PC über eine Terminalemulationskarte verfügt. Der Bildschirm kann dann wie bisher im unintelligenten Sinne eingesetzt werden, es können aber auch File-Transfers gemacht, bestimmte kundeneigene Dateien aufgerufen und herübergeholt werden, um diese dann im Rahmen von PC-Programmen wie Open Access oder Lotus 1-2-3 weiterzuverarbeiten. Dies ist eine Art von Weiterverarbeitung im Rahmen von MS-DOS, die von der Textverarbeitung über Datenbanken bis zur Tabellenkalkulation alle Bereiche umfassen kann.

Schließlich gibt es das Drittel an Benutzern, die keinerlei Online-Verbindung zu ihrer zentralen DV haben. Sie sind mit eigener Hardware ausgestattet, erfassen ihre Daten meist selbst und fahren auch ihre Auswertungen in der Regel selbst. Die klassischen Beispiele für dieses Modell sind von der Anwendungsseite her etwa Textverarbeitung, Finanzbuchhaltung oder Statistik.

Den beiden letzten Gruppen ist gemeinsam, daß sie sich auch bei der Entscheidung zwischen PC und AT, zwischen 386-Maschine und Workstation, immer wieder die konkrete Anwendung vor Augen halten müssen. Geht es ums Schreiben oder ums Rechnen, geht es um Grafik oder CAD/CAM, geht es um Tabellenkalkulation oder Datenbank? Entsprechend sollten auch die Entscheidungen etwa hinsichtlich der Geschwindigkeit des Rechners, der Größe und Auflösung des Bildschirms getroffen werden.

Wie so häufig, erfordert auch diese Entscheidung den Blick in die Zukunft; laufend schießen neue Anwendungen ins Kraut, immer wieder ergibt sich mangels Weitsicht die Erkenntnis, daß man keine Anforderungskataloge erstellt und das Wichtigste übersehen hat.

Natürlich ist es nicht leicht, die richtigen Entscheidungen zu langfristiger DV-Präsenz am Arbeitsplatz zu treffen. Gerade die PC-Welt demonstriert, wie wenig die Wahrheit von gestern heute noch gilt. Es ist ein ständiges "eigentlich sollte man..., aber wenn man berücksichtigt, daß..., dann müßte man hingegen..." Simples Beispiel für eine solche Problemstellung ist die Ausstattung mit Plattenspeicherkapazität: am Einsatzort oder zentral?

Verzicht auf lokale Festplatte lohnt kaum noch

Zentral läuft im amerikanischen Sprachgebrauch als "diskless", obschon natürlich die Platte keineswegs fehlt, sondern in einem "Fileserver", einem Abteilungs- oder Verteilungsrechner oder einfach als "hared resource" existiert. Für die Dokumentation ist das nützlich, für den gemeinsamen Zugriff auf Datensatzebene unbedingt notwendig, zusammen mit einer Software, die "record locking" vorsieht, und nicht zuletzt für die legitime Kontrolle, was die Arbeitnehmer in der Arbeitszeit für ihr Geld eigentlich tun. Für die Platte an jedem Arbeitsplatz spricht, daß man solche Rechner überall bekommt und sie auch nach bewährten Methoden kommunizieren lassen kann. "Diskless"-Lösungen zählen indes noch zu den neuartigen Angeboten weniger Anbieter. Insofern lohnt sich dieser Verzicht auf Plattenspeicher kaum noch. Denn: Wie immer ist das Kaufen eines Festplatten-PC wesentlich günstiger als die Investition für den disklosen PC und die Nachinstallation der Festplatte.

Zweites Beispiel PC/XT/AT/386. Im Bereich Text genügt wiederum häufig der PC, bei der Datenbank wird der AT sinnvoll. Die Tabellenkalkulation mag auch einmal dem dazugehörigen arithmetischen Coprozessor 8087 beziehungsweise 80287 eine Daseinsberechtigung geben oder gar dem 80386 mit 80387. Grafik beziehungsweise CAD fordert immer Geschwindigkeit, weil sie rechenintensiv ist - Argumente zum Kauf von schnellen, vollausgestatteten Rechnern gibt es viele, wenn sie nicht eben doch mehr Geld kosten würden.

Stellt sich letztlich heraus, daß man die teuer gekaufte Geschwindigkeit gar nicht benötigt hätte, wäre dann nicht gerade für den Texteinsatz eine höhere Bildschirm-Investition sinnvoller gewesen? Hätte es Farbe sein sollen, die dann bei Textverarbeitung doch nicht so gut zu sein scheint wie ein guter Positiv-Bildschirm? Wie steht es gerade bei Bildschirmen mit der ganz persönlichen Einschätzung des Nutzers, der sein System konfigurieren durfte und eine Woche später an einen anderen Arbeitsplatz versetzt wurde? Warum hat ihm keiner gesagt, daß die Auflösung des Bildschirms eine mindestens gleichgroße Rolle spielt wie die Bildwiederholfrequenz ?

Man mag es schnell einsehen: Grundlegende Richtlinien für die Ausstattung eines solchen Rechners sind kaum zu erstellen. Zu groß ist die Zahl der Unwägbarkeiten, zu groß die Summe persönlicher Einschätzungen, die sich nicht durch noch so gute Checklisten schematisieren läßt.

Auch die Druckerfrage (nach der Technologie und nach dem Grad von Zentralismus) ist eine Glaubensfrage. Gute Matrixklasse mit Geschwindigkeit kostet ebenso ihr Geld wie Laserdrucker. Zentraler Einsatz beschneidet Flexibilität; dezentraler ebenso, wenn aufgrund der Arbeitsvielfalt mehrere Druckertechnologien benötigt werden. Der Argumente Pro und Contra sind da viele, und ein genaues Abwägen ist nur in Kenntnis der individuellen Anwendung möglich.

Vielleicht läßt sich die Frage nach dem Einsatz der richtigen Hardware so zusammenfassen: Grundsätzlich ist es sinnvoll, in der Ausstattungsklasse immer mindestens eine Stufe höher ins Regal zu fassen, als man dies nach gründlicher Überlegung tun möchte. Zum einen kann man nämlich nie absehen, was man irgendwann einmal mit dem jetzt geplanten System tun möchte. Zum anderen wachsen die Anforderungen der Programme an die Hardware wesentlich schneller, als man es sich vorstellen mag. Die Diskussion um den OS/2 Presentation Manager mag da ein warnendes Beispiel sein: Man weiß heute schon, daß unter 8 MB Hauptspeicher bald nichts mehr geht. Der Grund dafür ist der überproportional gewachsene Hunger der Softwareschreiber, nachdem Arbeitsspeicher irgendwann einmal fast nichts mehr gekostet hatte.

Nur im Falle ausgesprochen dedizierter Anwendungen - und nur dann - sollte man sich auf die Ausstattung beschränken, die sich bei vernünftiger Einschätzung absehen lassen.

Im übrigen darf ein anderes Problem nicht übersehen werden, das sich zu PC-Wildwuchszeiten einmal manifestiert hat und nun nur schwer wieder in den Griff zu bekommen ist. Häufig sind noch Stand-alone-PCs anzutreffen, die in der Regel aus frühen Wildwuchs-Zeiten stammen. Der damals verwendete dezentrale Ansatz (wenn überhaupt ein Konzept vorhanden war), weicht nur allmählich einem vernünftigen gemischten Ansatz. Hintergrund dafür ist die Schwierigkeit, einmal geschaffene Fakten nachträglich in ein Konzept zu integrieren.

Der richtige Ansatz, eine einmal solcherart verkorkste Situation wieder in den Griff zu bekommen, ist neben einem vernünftigen Hardware- und Lösungskonzept die Frage nach der konkreten Benutzer-Unterstützung, sobald neu zu strukturierende Benutzer ihre Anwendung umsetzen müssen.

Da gibt es im Ruhrgebiet ein riesiges firmeneigenes Rechenzentrum, das seinen Anwendern besonders dann freudig und aufwendig assistiert, wenn diese sich Individual-Lösungen außerhalb der großen Standards erarbeiten wollen. Hierzu wird eine spezielle PC-Software eingesetzt, die natürlich vom Unternehmen legitimiert ist und die dank zentraler Kontrolle auch nicht zum Software-Wildwuchs führt.

Da gibt es - zweites Beispiel - im Mannheimer Raum einen Chemieriesen, der das wohl vernünftigste Rezept für eine derartige Umsetzung praktiziert. Ausgehend von der Erfahrung, daß auch der modernste Computer sehr viel Konzentration viel Nachschlagen und Probieren von seinem Benutzer fordert, mußte man konstatieren, daß die Ablenkung von der eigentlichen Arbeit unter Umständen für lange Zeit großer als der Produktivitätsgewinn ist, wenn man jeden Mitarbeiter mit seinem PC alleinläßt. Als empfehlenswert stellte sich daher eine Vorgehensweise heraus, wie sie dieser Chemiegigant praktiziert: Ein Mitarbeiter, dessen Basiswissen nicht in der Datenverarbeitung, sondern in der Chemie und bei spezifischen Aufgaben der Abteilung liegt, wurde mit der intensiven Beschäftigung mit diesem neuen Medium beauftragt. Er ist das "Interface" zwischen der Technologie und seinen Kollegen.

In einer vorliegenden Anwendung steht der darauf spezialisierte Mitarbeiter als ständiger Berater zur Verfügung. Außerdem wurden Schulungen durch die Anbieter der installierten Hard- und Software sowie die Ausbildungsabteilung des Unternehmens selbst durchgeführt. Die abgehaltenen konzentrierten Schulungs-Halbtage haben zusammen mit der oben erläuterten "Interface"-Technik zu einer hohen DV-Akzeptanz und dementsprechendem Verständnis der betroffenen Mitarbeiter geführt.

Geeignete Einarbeitung fördert Anwendungswillen

Überhaupt ist dieses Unternehmen Vorbild für viele der Alternativen, die in der Benutzerführung möglich und sinnvoll sind. Da gibt es beispielsweise eine Abteilung, die spezielle Produkte für die Textilindustrie entwickelt und produziert. Hier fungieren zwanzig ATs mit jeweils 20 MB Plattenkapazität als individuelle Arbeitsplatzrechner wie als Terminals der firmenüberspannenden Großanlage.

Dazwischen "managt" ein Minicomputer als Knotenpunkt sowohl den Datenaustausch zwischen den Arbeitsplätzen wie den Verkehr zum Großrechner und verwaltet zudem die zentralen Aufgaben der Abteilung. Die Stichworte, unter denen diese Installation einzuordnen ist, sind nach gegenwärtigem Stand der Nutzung "Bürokommunikation" und "PC als Werkzeug des Sachbearbeiters". In der Zukunft mögen noch Spezialprogramme herkömmlicher Art hinzukommen. Gegenwärtig jedoch dient sie mit Standardprogrammen einer Arbeitsunterstützung und Organisationsoptimierung, die bereits die Investition rechtfertigt. Die Experten an den Arbeitsplätzen bedienen sich dabei der klassischen PC-Werkzeuge direkt auf dem Mikro.

Wenn sich solche Ansätze in der Zukunft immer stärker durchsetzen, dann wächst nicht nur eine anwendungswillige Generation von Sachbearbeitern heran. Dann wird sich auch erreichen lassen, daß der durch die Datenverarbeitung herbeigelockte Produktivitätszuwachs in den Büros sich eines Tages auch wirklich einstellt. Das alles hat auch etwas mit Akzeptanz zu tun. Wenn nämlich die Anwendungen, die sich für neuartigen Applikationsmix eignen, also Textverarbeitung, Datenbank, Tabellenkalkulation, Grafik, Electronic Mail und Terminkoordination, dank vernünftiger Systemkonstellation erst einmal zum täglichen Brot der Sachbearbeiter geworden sind, dann ist für lange Zeit auch die Benutzerunterstützung kein Thema mehr.