Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

18.05.1990 - 

Grundprobleme einer modernen Datenverarbeitung

Der Weg ist das Ziel: Verteilte Datenverarbeitung

Die Datenverarbeitung Basis von PCs und PC-LANs ist aus unterschiedlichen Gründen nicht trivial. Der Beitrag beleuchtet die wichtigsten Probleme und gibt eine Lösungsstrategie an, die in den meisten Fällen leicht anwendbar ist.

Zu Beginn auf der PC-Welle waren viele Leute, auch Fachleute durchaus davon überzeugt, daß die Dezentralisierung dazu führen würde, daß man auf Großrechner oder Rechenzentren völlig verzichten könnte.

Dies hat sich als Trugschluß herausgestellt: Einerseits gibt es viele Anwendungen, für deren Bearbeitung man heute immer noch Großrechner braucht, andererseits ergeben sich im Rahmen des PC-Einsatzes völlig neue Probleme, zum Beispiel im Rahmen des Datenschutzes, der Sicherung der Verarbeitungsintegrität und der Konsistenz von Datenbeständen et., die man je nach Größenordnung nach heutigem Kenntnisstand nur mit Großrechnern bewältigen kann.

Deutlich wurde sogar, daß mit zunehmenden Fähigkeiten der Personal Computer die zusätzlichen Probleme tendenziell nicht geringer werden, sondern eher zunehmen. Dies liegt nicht an den Geräten selbst, sondern an den Personen, die damit umgehen müssen. Das Lernvermögen der Anwender hält keinesfalls mit der logisch technischen Entwicklung Schritt.

Hierzu ein Beispiel: Die neueste Prozessorgeneration für Personal Computer ist der 80486. Ein mit diesem Prozessor ausgestatteter Rechner kann etwa soviel leisten wie ein Großrechner Anfang bis Mitte der siebziger Jahre. Für die Betrachtung an dieser Stelle ist das Leistungsmaß uninteressant. Die Frage, die sich sofort aufdrängt, ist, ob der Benutzer eines oben angesprochenen 486er-PCs das gleiche Wissen hat wie der Operator oder Planer des Großrechners vor 15 bis 20 Jahren. Rein statistisch vermutlich wohl kaum besonders dann, wenn der 486er wie seine Vorgänger 8086, 80286 und 80386 eine massenhafte Verbreitung erfährt.

Auch drängt sich die Frage auf, ob der User dieses Wissen tatsächlich braucht, um mit dem 80486 verantwortlich und sinnvoll umzugehen. Dies ist in etwa eine Analogie zur Frage, ob man Automechaniker und Rennfahrer- sein muß, um Auto zu fahren.

Die Kernfrage ist, ob die breite Einführung einer Hochtechnologie unbedingt zwangsläufig zu einer Anhäufung von Risiken (Datenschutz, Datensicherheit, Verarbeitungsintegrität, Hacker, Viren, Schädigung der Informationsverarbeitung durch Dummheit, Fahrlässigkeit, Verstimmtheit, etc. ) führen muß, oder ob man aus der Erfahrung gegensteuern kann.

Im Brennpunkt der heutigen Diskussion steht die Suche nach einer neuen vernünftigen Balance zwischen Individualität und kollektiven Notwendigkeiten. Genau diese Balance kann auch für die Datenverarbeitung wichtig werden.

Hier kommt eine weitere Komponente ins Spiel: das Kommunikationsnetz. Interessant sind weniger die technischen Aspekte, als vielmehr die logischen, denn schließlich beruht die Datenverarbeitung - ob nun zentralisiert oder dezentralisiert - auf einer Menge mehr oder weniger kooperierender Prozesse. Dabei wird es angesichts der Verwendung von Netzen, die eine stets größer werdende Reaktionsfähigkeit aufweisen, immer unwesentlicher, ob diese Prozesse auf einem oder mehreren Rechnern implementiert sind.

Die Vielfalt der Kommunikationsnetze entspricht den Einsatzmöglichkeiten. Was passiert jedoch, wenn das Kommunikationsnetz so groß und vielfältig wird, daß eine Einzelperson oder eine kleinere Gruppe das Netz und seine Komponenten nicht mehr überblicken kann? Was passiert, wenn Fehler auftauchen, die gleich eine Kombination logischer und technischer Elemente betreffen? Wie kann man der historisch gewachsenen Heterogenität Herr werden? Wie kann das Datennetz im weitesten Sinne "sicher" sein oder werden? Das Stichwort "Netzwerk-Management" drängt sich sofort auf.

Wichtig ist vor allem eine prinzipiell beherrschbare Grundstruktur des Netzes und l aller informationsverarbeitenden Komponenten. Ohne Struktur wird dem Management die Grundlage versagt, steuernd und regelnd da einzugreifen wo es nötig ist.

Verstreute, unvernetzte PCs oder PC-LAN-Inseln bieten; selbst kaum strukturelle Möglichkeiten Zusammen mit der zentralen Datenverarbeitung bilden sie jedoch heute die Basis der Informationsverarbeitung. Was nun?

Wie eingangs deutlich geworden ist, stehen wir heute mitten in einem Umbruch. Wir haben gelernt, daß die rein zentrale Datenverarbeitung nicht mehr in allen Fällen zweckmäßig ist. Wir haben auch gelernt, daß man mit PCs und PC-LANs eine Menge machen kann, aber eben nicht alles. Und wir haben leider lernen müssen, daß der unkontrollierte Einsatz von unzähligen PCs auf Dauer mehr Probleme schafft als löst.

Der sich momentan abzeichnende Lösungsweg sieht so aus, daß man die Welten der rein zentralen und der rein dezentralen Datenverarbeitung zusammenführt. Dies nennen wir verteilte Datenverarbeitung.

Nach nunmehr fast 30 Jahren des kommerziellen Einsatzes von zentralen DV-Anlagen ist ein hohes Fachwissen in Hard- und Softwarefragen der zentralen Datenverarbeitung verfügbar. Die Rechenzentren stellen im Normalfall Personal bereit, das den Anwender bei der Lösung seiner Probleme unterstützt, bei der Fehlersuche behilflich ist und den Anwender bei der Auswahl der notwendigen Software berät. Hard- und Software-Schnittstellen sind dokumentiert und werden zentral verwaltet.

Auch vielfältige und zentral gewartete Anwendungssoftware ist vorhanden, mit der ein breites Anwendungsspektrum abgedeckt wird. Fast kein Bereich in Industrie, Handel und Verwaltung, für den nicht schon vorgefertigte Programme oder Progammsysteme existieren, die auf großen DV-Systemen einsetzbar sind.

Die zentrale Datenverwaltung und -Speicherung gewährleistet Datenintegrität und Datensicherheit sowohl gegen den Verlust bei eventuellen Hard- oder Softwareproblemen als auch gegen Diebstahl oder mutwillige Zerstörung. Die großen Prozessorleistungen und hohen Speicherkapazitäten heutiger Anlagen beeinträchtigen den Anwender nicht oder nur kaum bei Gestaltung und Dimensionierung seiner Datenbestände.

Ein hoher Standardisierungsgrad innerhalb einer bestimmten Systemumgebung stellt sicher, daß Anwender-Tools auch untereinander mischbar sind. Weiterentwicklungen werden abschätzbar und sind auch dann einsetzbar, wenn auf ein anderes Modell desselben Herstellers gewechselt wird. Einmal getätigte Investitionen bleiben geschützt. Aufwendige Umstellungsarbeiten entfallen.

Die vorhandene Standardsoftware ist schon aus Kostengründen für einen großen Anwenderkreis gedacht. Es existieren vielfach keine, beziehungsweise nur sehr teure Individuallösungen. Die Anpassung der Standardsoftware an bestimmte Probleme ist meist sehr schwierig, manchmal unmöglich. Man neigt daher dazu, Probleme für die Software "passend" zu machen.

Für Arbeitsplatzrechner (AR), zum Beispiel Personal Computer, Workstations oder Personal Systeme, existiert heute ein fast ebenso umfangreiches Softwareangebot wie für alle anderen DV-Systeme zusammen. Beispielhaft sind die Benutzer-Schnittstellen der heutigen ARs.

Mangelnde Integration ist das größte Problem

Die Anwendung der Menü- und Fenstertechnik (Windows) ist selbstverständlich geworden. Komfortable Help-Funktionen unterstützen in jeder Situation und bieten gerade soviel, wie jeweils gefordert wird.

Aber die schnelle und zum Teil unkontrollierte Entwicklung der PC-Branche stellt den Anwender heute vor große Probleme, wenn es um Themen wie Kompatibilität und Portabilität geht.

Bei dem Stand-alone-AR resultieren die Probleme hauptsächlich aus der mangelnden Integration in verschiedenen Dimensionen. Die Einbindung in die Arbeitsprozesse ist hiervon genauso betroffen wie das Einfügen in ein DV-technisches Gesamtkonzept.

In vieler Hinsicht leben die sogenannten PC-Freaks noch in der Steinzeit der Datenverarbeitung, was gleichbedeutend ist mit Datenchaos auf Disketten und Festplatten, fehlender Programmpflege und unter Umständen sogar dem Vorhandensein vieler Versionen eines Programmes in der Praxis.

Mit LANs vernetzte ARs könnten viele Probleme der Stand-alone-Workstations beheben. Für die Anwender tritt das AR-LAN meistens in Form von neuen logischen Geräten oder Services in Erscheinung.

In zunehmendem Maße werden heute Services unterschiedlichster Art auf zentralen Servern zur Verfügung gestellt: Bootserver zum Fernstarten von (diskless) Workstations (sehr wichtig für einen elementaren Schutz), Batchserver zur zeitlich versetzten Problembearbeitung, Kommunikationsserver und Gateways sowie verteilte Anwendungs-Softwarepakete .

Netzwerk-Betriebsprogramme ergänzen die AR-Betriebssysteme um Netzwerkfähigkeiten. Leider beziehen sie sich dabei zu oft auf bestehende Engpässe in den Betriebssystemen, wodurch die Leistung des LANs erheblich geschmälert wird.

Die Lösung vieler Probleme liegt in der gemischten Verwendung beider DV-Welten, der dezentralen Datenverarbeitung mit . ARs, AR- LANs oder Minis, und der zentralen Datenverarbeitung mittels eines Großrechners zum Beispiel im Rechenzentrum.

So vielfältig die Anwendungen sind, so groß sind auch die Möglichkeiten für die Verteilung der Rechenkapazität. Außerdem werden in größeren Unternehmen und heterogenen Arbeitsumgebungen, wie zum Beispiel in Forschungsinstituten, verschiedenste DV-Lösungen koexistieren. Ihre Integration ist eine der Hauptaufgaben.

Eine Anbindung an große Prozessorleistungen ist möglich, beziehungsweise im Netz vorhanden, also können die Vorteile der zentralen DV bezüglich Softwareangebot, Daten- und Programmpflege genutzt werden Aufgaben, die aufgrund der erforderlichen Prozessorleistung nicht mehr dezentral lösbar sind, wickelt der zentrale Rechner ab. Programme, die auf vielen ARs oder Minis zum Einsatz kommen sollen, werden einmal zentral entwickelt und getestet und anschließend gleichzeitig auf allen dezentral angeschlossenen Systemen zum Einsatz gebracht. Dies ist auch von Vorteil, wenn Änderungen erforderlich sind, da nur ein solches Vorgehen gewährleistet daß alle zentralen und dezentralen Systeme eines Unternehmens immer über denselben Softwarelevel verfügen.

Gute Nutzung aller Ressourcen

Die zentrale Entwicklung von Standard- und Kommunikationssoftware stellt eine gute Nutzung aller Ressourcen einschließlich der Möglichkeiten des Datennetzes sicher und vermeidet Doppelentwicklungen. Nicht mehr der einzelne Benutzer ist für die Weiterentwicklung eines Standardprodukts verantwortlich, sondern die Zentrale.

Durch entsprechende Entwicklung von Anwendungssoftware mit getrennten Modulen auf AR und Host kann der Verkehr im Netz minimiert und die Leistung gesteigert werden.

Der Einsatz verschiedenartiger und teurer Endgeräte, wie Hochleistungsplotter oder schneller Laser-Drucker, die gemeinsam von allen angeschlossenen Terminals und ARs aus genutzt werden können (Geräte-Sharing), wird vereinfacht. Zugriffe auf öffentliche Netze und Dienstleistungen sind nun zentral oder dezentral realisierbar, je nachdem, welche Lösung die wirtschaftlich günstigere ist.

Verbesserte Nutzung verfügbarer Bestände

Am wichtigsten und vorteilhaftesten an dieser Lösung ist die verbesserte Nutzung aller verfügbaren Datenbestände. Gemeinsam benutzte Daten verwalten zentrale DV-Systeme, während fachbezogene Daten auf den entsprechenden dezentralen Rechnern residieren. Wichtige, zu schützende Daten und Informationen werden nur zentral archiviert, aber dezentral bearbeitet.

Eine zentrale Sicherung dezentraler Daten wird möglich. Der Endanwender braucht sich nicht mehr um eigene Archive zu kümmern, in denen er seine Sicherungskopien aufbewahren muß, sondern überläßt dies

dem Rechenzentrum, was ihm Zeit erspart und Verantwortung abnimmt. Nimmt man den ARs die Diskettenlaufwerke und lädt sowohl Software als auch Daten fern, so ist damit die häufigste Quelle des Unfugs beseitigt. Wirre Softwareversionen sind ebenso ausgeschlossen wie Datenklau in größerem Umfang.

Es gibt bisher noch recht wenig Erfahrungen darüber, wie sich die gemeinsame Verwendung von PCs, Minis und Mainframes bei großen Netzen und vielfältigen Anforderungen bezüglich der Aufgabenverteilung in der Praxis bewährt. Soll verteilte Datenverarbeitung langfristig sinnvoll und effektiv einsetzbar, sind zwei wichtige Grundvoraussetzungen zu erfüllen:

- Die Softwareverantwortung muß eindeutig geregelt sein. Nur so kann Datensicherheit und -Transparenz gewährleistet werden.

- Es muß eine zentrale Überwachung und Steuerung des Netzwerkes unter Einbeziehung aller Komponenten möglich sein, beziehungsweise sollte dies als Ziel angestrebt werden.

Das "obere Ende" der VDV-Strategie unfertig

Eine besonders wichtige Rolle bei der Durchsetzung verteilter Systemlösungen spielen die von den Herstellern vorgegebenen Netzwerk-Systemarchitekturen und die damit zusammenhängenden Produkte.

Die Hersteller haben gelernt, daß andere Ansätze als die verteilte Datenverarbeitung zu langfristigen Problemen führen. Das "obere Ende" einer VDV-Strategie ist IBMs SAA. SAA ist besonders was die Produkte anbetrifft, unfertig. SAA und die in diesem Zusammenhang angebotenen Lösungen wirken schwerfällig. Tatsache ist jedoch, daß IBM heute als einziger Hersteller die vollständige Kontrolle vom größten Host bis zum kleinsten PC erlaubt.

Dies wird jedoch nicht immer erforderlich sein. Das "untere Ende" sind Server-basierte Kontrollsysteme, wie sie zum Beispiel Novell in Netware anbietet. Sie zwingen auch den PC-LAN-Administrator, darüber nachzudenken, wer wann was warum und wie tun soll. Und das ist oft schon eine entscheidende Verbesserung gegenüber dem sonst anzutreffenden da tentechnischen Hühnerhof.

"Der Rest" liegt zwischen den Extremen. Hersteller wie Siemens, DEC oder NCR bieten dem Interessenten jedwede sinnvolle Kombination von ARs, Superminis und Host-Connections. Er muß nur wissen, was er will. Und gerade das ist heute leider oftmals nicht der Fall.

Der Beitrag basiert auf einem Vortrag, den der Autor bei der Secunet-Konferenz in Köln am 17./18. Mai 1990 hält. Als weiterführende Literatur empfiehlt sich das Buch: Kauffels, "Rechnernetzwerk-Systemarchitekturen und Datenkommunikation", BI Wissenschaftsverlag Mannheim.

*Dr. Franz Joachim Kauffels ist selbständiger Unternehmensberater mit dem Schwerpunkt strategische Beratung für die Datenkommunikation. Außerdem ist er Lehrbeauftragter an der Universität Bonn und Mitglied der GI, der GI/NZ-Interessengruppe Rechennetze, der IFWI WGH 6.4 on High Speed Local Networks and Management und des German Chapter of the ACM.