Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

01.05.1987 - 

Neuer Wein in alten Schläuchen

Der Aufstieg des computerintegrierten ManagementsEin Ergebnis der Organisationsentwicklung - die Technologie gibt's schon von der Stange (3. Teil)

Wer schnell und kundenindividuell auf Marktforderungen reagieren will, muß auf Computer-Integration setzen. Das erfordert von der Informationstechnologie Netzwerkkommunikation, Ausfallsicherheit, Softwaretechnologie der vierten Generation, um Datenstrukturen flexibel an Strukturwandlungen bei Technologien und Märkten anpassen zu können. Vor allem aber erfordert das von der Organisationsentwicklung eine Unternehmenskultur, die zum Management des Wandels befähigt.

Voraussetzung für den erfolgreichen Einsatz der Prototyping-Methode beim Software-Engineering für die Computerintegration sind allerdings leistungsfähige Softwarewerkzeuge der 4. Generation. Dazu müssen diese 4GL-Werkzeuge einer Reihe von Anforderungen genügen:

1. Da kommerzielle Datenverarbeitung überwiegend Textverarbeitung ist mit eingeblendeten Rechenoperationen, werden nicht-prozedurale, sprachmächtige Instruktionen für komplexe Textmanipulationen benötigt, die die Struktur des Anwendungsproblems abbilden und dazu möglichst wenig Codierzeilen benötigen.

2. Um die Benutzeroberfläche schnell und flexibel an geänderte Anforderungen der Anwender oder an geänderte Strukturen beziehungsweise Abläufe anpassen zu können werden komfortable Maskeneditoren für Bildschirm und Listen benötigt.

3. In befehlsstarken Sprachdefinitionen integriert sein muß eine einfache Anweisungssprache für den transparenten Datenbankzugriff, so daß der Anwendungsprogrammierer sich nicht um die komplizierte Datenbankverwaltung kümmern muß.

4. Die Datenstruktur muß schnell und einfach an geänderte Marktverhältnisse angepaßt werden können (Anpassungsflexibilität). Dies erreicht ein Datenbanksystem durch eine dynamische (Verzicht auf feste Satz- und Feldlängen) und zentrale Datenbankspeicherung (sogenanntes Data Dictionary), über die alle Anwendungen auf Daten zugreifen. Änderungen der Dateiparameter wirken sich sofort und gleichzeitig auf alle betroffenen Anwendungsprogramme aus.

Der Anwendungsprogrammierer braucht sich daher um Dateidefinitionen mit den vielfältigen Plausibilitätsprüfungen und Zugriffsberechtigungen nur einmal zu kümmern. Diese Flexibilität der Anpassung der Datenstrukturen wird dadurch erhöht wenn der Dateizugriff auf Feldniveau erfolgen kann. Das erleichtert die problemlose Einfügung in bestehende Datenstrukturen.

5. Außerdem wird ein leistungsfähiges Datenbankverwaltungssystem benötigt, das den Anwendungsprogrammierer davon befreit, Protokolle der Anlage, Veränderung oder Löschung von Datensätzen programmieren zu müssen.

6. Bei verteilten Datenbanken muß sichergestellt sein, daß von jedem Bildschirm auch auf alle Datenbanken transparent zugegriffen werden kann, die an anderen, entfernt installierten Rechnersystemen innerhalb eines Netzwerkes angeschlossen sind.

7. Sicherlich kann man darüber streiten, ob die Portabilität auch zu den Anforderungen an die 4GL-Werkzeuge gehört. Darunter wird die Übertragbarkeit auf Rechnersysteme verschiedener Hersteller verstanden. Für die Software AG ist die Portabilität Bestandteil der Unternehmensphilosophie; bei Natural 2 ist sie für IBM (Rechnerfamilie /370, Siemens BS2000) und DEC (VAX-VMS) realisiert. Bei Mumps ist sie ohnehin durch die ANSI-Standardisierung gegeben und gefördert durch die Tatsache, daß Mumps bei Krankenhaus-Anwendungen überwiegend zum internationalen Standard geworden ist. Dennoch mag offenbleiben, ob Portabilität mehr ist als; das psychologische Trostpflästerchen angeblicher Herstellerunabhängigkeit.

Natürlich kann ein derartiges Anforderungsprofil der Softwaretechnologie der 4. Generation nur Anhaltspunkte liefern, keineswegs aber erschöpfend sein. Immerhin wird jedoch einsichtig, daß die Softwaretechnologie der 4. Generation ein integriertes Werkzeugpaket ist, das umfassend eingesetzt werden sollte, um die Produktivitätsvorteile von ausnutzen zu können. Wie lautet der schöne Spruch? "Wenn wir wirklich wollen, was wir können, dann werden wir auch können, was wir tun müssen."

Je mehr die horizontale Kommunikation unterschiedlicher Unternehmensbereiche durch den Bildschirmdialog verbessert wird, um so abhängiger wird das Unternehmen andererseits von der Zuverlässigkeit der Systemverfügbarkeit - jederzeit für alle Benutzer mit Antwortzeiten, die den Arbeitsfluß nicht beeinträchtigen. Deswegen erfordert die Computerintegration, daß die Softwaretechnologie darüber hinaus ein vertretbares Maß an Ausfallsicherheit des Gesamtsystems sicherstellt.

Dieser wichtige Sachverhalt wird durch Stichworte beschrieben, wie "beleglose Transaktionen", Bildschirmdichte, Informationsservicequote (das heißt den Anteil der Informationsabfragen an den Gesamtdateneingaben), ständige Auskunftsbereitschaft der Datenbank. Bei derartigen Dialogsystemen werden oft Tausende von Transaktionen am Bildschirm "beleglos" abgewickelt. Daher können Plattenfehler zum Totalverlust der noch nicht gesicherten Daten führen. Der Verlust von Daten, für die ein Beleg vorhanden ist, bedeutet Nachbearbeitung in einer nur beschränkt verfügbaren Zeit. Das Sicherheitskonzept muß die deswegen unverzichtbare Datenbankintegrität gewährleisten.

Durch die hohe Funktionssicherheit moderner Dialogcomputer ist die Eintrittswahrscheinlichkeit von Systemausfällen deutlich gesunken. Dennoch muß die uneingeschränkte Systemverfügbarkeit sichergestellt werden. Der Einsatz sogenannter fehlertoleranter Systeme wird daher unabweisbar. Darunter werden Computersysteme verstanden, die auch bei Ausfall von Systemkomponenten die Verfügbarkeit des Gesamtsystems nicht unangemessen beeinträchtigen. Dies geschieht durch redundante Auslegung von Systemkomponenten und durch Spiegelung aller Datenbestände.

Am wirkungsvollsten geschieht dies durch Vernetzung verschiedener Computersysteme (Cluster-Konzept), weil hier die Arbeitslast auf mehrere Rechner verteilt wird. Für eine dialoggestützte Betriebsorganisation ist ein gescheites Sicherheitskonzept im Sinne einer Betriebsunterbrechungs-Versicherung unverzichtbar (vergleiche COMPUTERWOCHE vom 18. Mai 1984).

Ein solches Sicherheitskonzept eröffnet jedoch einen zusätzlichen Ausblick auf das moderne Datenverarbeitungskonzept der verteilten Intelligenz in lokalen (LANs) oder entfernten Rechnernetzen. Für das Beispiel der VAX-Systemfamilie der Digital Equipment Corp. zeigen sich zwei Trends, die auch bei anderen Herstellern zu beobachten sind: Das Preis/Leistungs-Verhältnis (gemessen als Preis pro MIPS, das heißt der Rechnerleistung, ausgedrückt in Millionen Instruktionen pro Sekunde) hat sich in den letzten Jahren als Ergebnis der Technologiesprünge dramatisch verbessert.

Zum besseren Verständnis: Würde man die unvorstellbare Verbesserung des Preis/Leistungs-Verhältnisses in der Computertechnologie auf den Automobilmarkt übertragen, dann dürfte ein VW-Käfer heute ganze fünf Mark kosten. Gleichzeitig hat sich jedoch die Preis/Leistungs-Schere zu Lasten der größeren Rechner weiter geöffnet. Das legt den Gedanken nahe, den Rechnerverbund wesentlich weniger unter dem Gesichtspunkt der Ausfallsicherheit als Tandem-Prinzip zu verstehen.

Vielmehr kann die erforderliche Rechnerleistung erheblich wirtschaftlicher durch ein LAN-Cluster kleinerer Rechner (zum Beispiel MicroVAX II, praxiserprobt mit 40 bis 50 angeschlossenen Bildschirmen) als durch größere Rechner erreicht werden. Vermutlich sind wir in unserem Denken noch viel größere "Zentralisten", als wir uns eingestehen. Die Vorteile eines derartigen LAN-Clusters liegen auf der Hand: erheblicher Preisvorteil, Ausfallsicherheit, Möglichkeit maßgeschneiderter Kapazitätserweiterung, verteilte Datenbank.

Die praktischen Erfahrungen bestätigen dabei, daß derartige Netze problemlos mit einem Overhead für die Netzwerkverwaltung von etwa zehn Prozent konstant für jedes angeschlossene System arbeiten und die Leitungsgeschwindigkeit zum Beispiel bei Ethernet (10 Megabit pro Sekunde) keinen Engpaß darstellt - eine bemerkenswerte Alternative. Fragt sich nur, warum IBM nicht auch schon längst ein LAN-Cluster, zum Beispiel seiner sehr leistungsfähigen Datenbankcomputer (System /38, anbietet.

Nach dem Urteil von Electronic Business (1. Januar 1986) ist dies möglicherweise eine von IBMs größten Schwächen: ihre versteckten Kosten, Mainframe-gestützte Zentralisation, Hardwarefamilien mit inkompatibler Software und traditionelle Hochpreispolitik. Eine Frage der Identität also (hierarchisch, zentralistisch), oder der mangelnden Beherrschung derartiger offener Netzwerkarchikturen, oder wohl doch eher einer protektionistischen Marketingkonzeption? Angesichts der marktbeherrschenden Stellung von Big Blue allerdings wohl eher eine akademische Frage - möglicherweise jedoch nicht mehr für jeden "mündigen Anwender". (wird fortgesetzt)

Jens Christopher Ruhsert ist Geschäftsführer der Wilhelm Gienger GmbH & Co. KG, München, Fachgroßhändler für Haustechnik.