Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Zurück zu den Wurzeln der Systemanalyse

10.07.1987

Übersetzung und Bearbeitung von Felix Weber

All die Diskussionen über die verschiedenen Computergenerationen sind genau betrachtet nicht viel mehr als leeres Gerede. Was nützt es denn schon, wenn man weiß, wo die Grenzen liegen zwischen der dritten, vierten und fünften Generation? Wichtig ist etwas ganz anderes: Wir müssen wissen, wie wir den größten Nutzen ziehen können aus der Computer-Technologie, die jetzt langsam auf den Markt kommt und in fünf bis zehn Jahren eine Selbstverständlichkeit sein wird.

Denn da tut sich wirklich zum ersten Mal etwas Entscheidendes. Wer bisher Computer benutzte, hat seine Daten praktisch immer nach dem gleichen Grundprinzip verarbeitet - egal, ob er nun dafür eines der alten Röhrenungetüme der fünfziger Jahre brauchte oder eine moderne Maschine. Zwar wurden die Bauteile immer kleiner und effizienter, aber das Grundprinzip der EDV blieb immer gleich: Im Zentrum stand ein Rechner, und darum herum je nach Bedarf verschiedene Peripheriegeräte. Das wird jetzt anders.

Die Tage der Großsysteme sind gezählt

Die Tage der Großsysteme, an denen Dutzende oder Hunderte von "dummen" Terminals hängen, sind gezählt. Eine solche Architektur degradiert den Benutzer ja effektiv zur dümmsten Peripherie-Einheit des Mainframe. Entsprechend dürftig sind auch die Resultate, die dabei herausschauen.

Hersteller, die sich auf dem hartumkämpften Computermarkt der Zukunft behaupten wollen, müssen sich schon jetzt auf eine bessere Philosophie einstellen: jene der vernetzten Personal Computer nämlich. Die Anwender wird das kaum irritieren: Für sie ist die Arbeitsstation auf ihrem Pult schon heute "das System" - auch wenn es nur ein gewöhnlicher Terminal ist, der am zentralen Großcomputer angeschlossen ist. Akzeptanzprobleme wird es also keine geben - im Gegenteil: Je mehr der einzelne machen kann, desto unabhängiger und motivierter ist er auch. Und das ist mit einer kompletten PC-Arbeitsstation zweifellos so.

Die Unabhängigkeit der Benutzer schließt Gemeinsamkeiten keineswegs aus Man kann die verschiedenen Arbeitsstationen über lokale Netze untereinander und mit einer Reihe von Servern (gemeinsamen, intelligenten Ressourcen) verbinden, von denen einige auch Großsysteme sein können.

Man muß sich den Unterschied zwischen der alten und der neuen Philosophie einmal klar vor Augen halten: In der Vergangenheit erledigte das Großsystem die meisten Aufgaben und schickte die Resultate anschließend an die Terminals, die sie bestellt hatten. In Zukunft wird man diese Aufgaben wenn immer möglich auf den individuellen Arbeitsstationen lösen. Aus dem PC weg gehen die Anwender nur, wenn die Arbeit einen Zugriff auf gemeinsame oder fremde Daten nötig macht. Die Benutzer werden auf ihren künftigen Arbeitsstationen so viel Intelligenz und Speicher zur Verfügung haben daß sie die andern Komponenten des Computernetzes höchstens noch als Erweiterung ihres ansonsten kompletten Systems ansehen werden.

Mehr als eine bloße Modeerscheinung

Der Trend zu vernetzten Kleinsystemen ist mehr als eine bloße Modeerscheinung: Er signalisiert einen grundsätzlichen Wandel. Damit kommen auch traditionelle Denkmuster ins Wanken - Denkmuster, die bis auf die Anfänge der industriellen Revolution zurückgehen.

Aus der Erkenntnis, daß sich Güter in Massen effizienter und billiger produzieren lassen als in Einzelanfertigung, baute man damals große Fabriken und erzielte gewaltige Produktivitätssteigerungen. Was lag also näher, als das gleiche Rezept auch in der EDV auszuprobieren? Der Erfolg ließ nicht lange auf sich warten: Je größer die Computer wurden, desto günstiger war auch die Rechenleistung pro Einheit. Diese eherne Regel ist in den letzten Jahren immer mehr ins Wanken gekommen und hat sich schließlich in ihr Gegenteil gekehrt: Billige Rechenleistung offerieren heute nicht die Großcomputer, sondern Kleinsysteme auf der Basis von Mikroprozessoren.

Auf einem IBM 3090 Mainframe zum Beispiel kostet eine Million 32-Bit-Instruktionen pro Sekunde zur Zeit rund 160 000 Dollar; auf einem PC mit Intel-386-Prozessor kriegt man das gleiche jetzt für 2000 Dollar. Diese markante Verbilligung ist nur zum Teil eine Folge des kontinuierlichen und für die Branche typischen Preiszerfalls der Computerhardware. Sie ist viel mehr das Resultat eines radikalen Umdenkens über die Art, wie Computer benützt werden sollen. Dieses Umdenken wird noch gewaltige Konsequenzen haben - nicht nur für die Hersteller, sondern auch für die Anwender künftiger EDV-Anlagen.

Für die Verkäufer bringen solche Preisstürze natürlich Probleme mit sich, wir als Benützer hingegen profitieren davon: Wir bekommen für weniger Geld sehr viel mehr, und zwar nicht nur in Form von roher Computerleistung, sondern auch in puncto Flexibilität.

Goldene Zeiten also für Computeranwender? Nicht ganz. Sicher aber eine herausfordernde und vielversprechende Gelegenheit, die es zu nutzen gilt. Wer das nicht tut und diesen wichtigen Technologiewandel verschläft, wird mit ziemlicher Sicherheit den Anschluß für immer verpassen. Im Falle der Verkäufer heißt das, daß sie zusehen müssen, wie sie laufend Marktanteile verlieren - bis es für ein Umschwenken zu spät ist. Und Anwender, die sich gegen den neuen Trend sträuben, werden mit ihren alten Systemen im Vergleich zur Konkurrenz immer weniger Resultate produzieren, gleichzeitig aber mit wachsenden DV-Kosten konfrontiert sein.

Wettbewerbsvorteil nicht zu teuer erkaufen

Man hört oft, daß Informationssysteme in Firmen dazu da seien, tatkräftig mitzuhelfen, auf dem Markt einen Wettbewerbsvorteil herauszuholen. Gleichzeitig hört man manchmal aber auch, daß gerade wegen dieses, Wettbewerbsvorteils der Preis des Informationssystems keine Rolle spiele. Während die erste Aussage zutrifft, ist die zweite schlicht falsch. Geäußert wird sie vor allem von Computerverkäufern, die versuchen, den Kunden Systeme anzudrehen, die für ihre Leistung zu teuer sind.

Richtig ist vielmehr, daß die Kosten (Anschaffung und Betrieb) des Informationssystems heute einen wesentlichen Anteil des Firmenbudgets ausmachen. Selbst wenn man mit der Leistung des Systems zufrieden ist, darf man diese Kosten nicht einfach ignorieren, sondern muß sie laufend im Auge behalten - absolut und relativ zu jenen der Konkurrenz. Vor allem in Branchen, die stark mit EDV durchzogen sind - ich denke da an Banken, Versicherungen oder automatisierte Fabriken - spielen die EDV-Kosten schon heute eine ganz wesentliche Rolle, und in Zukunft, wird das nicht anders sein.

Ein ganz großes Problem ist, daß die Art und Weise, wie wir Computersysteme bisher einsetzten, wenig geeignet ist, den vollen Nutzen zu ziehen aus der neuen Technologie. Wer Computer in Zukunft effizienter anwenden will, muß umdenken lernen - am besten schon heute.

Das betrifft in erster Linie eine Jahrzehnte alte und leider weit verbreitete Unsitte: den Hang zu einem Nebeneinander von Lösungen, die jeweils auf eine einzige Anwendung abziehen. Wer kennt das nicht: Im Betrieb spürt man immer mal wieder ein Gebiet auf, wo sich mit der Einführung von Automation - meist auf Kosten von Arbeitsplätzen - Geld sparen läßt und entwickelt dann flugs ein System, das genau das tut und nichts anderes. Entsprechende Beispiele sind Legion: In den Banken kam erst die Kontenführung dran, später der Zahlungsverkehr, dann das Kreditwesen und so weiter. Jede dieser Applikationen wurde separat entwickelt und später so zusammengekittet, daß wenigstens die Kundennamen nur in einer statt sieben Dateien gespeichert wurden.

Auf das Ganze kommt es an

Ein solches Modell, das auf herkömmlichen Informationssystemen noch einigermaßen zufriedenstellend funktionieren mag, ist hoffnungslos ungeeignet, um die neue Technologie, die jetzt auf uns zukommt, effektiv zu nutzen. Was es braucht, ist eine radikale Lösung - ganz im Sinne des lateinischen Wortlauts: Wir müssen nochmals zu den Wurzeln zurückgehen, zu den grundlegenden Konzepten der Systemanalyse, wie sie vor 35, 40 Jahren entworfen wurden. Es geht dabei um eine sehr breit gefaßte Systemanalyse, bei der man nicht irgendwelche Details separat behandelt, sondern versucht, das Ganze im Auge zu behalten. In einer Firma zum Beispiel heißt das, nicht nur den Waren- oder Geldfluß zu verfolgen, sondern auch den Informationsfluß, und zwar nicht getrennt voneinander, sondern in ihrem Zusammenspiel.

Die Sünden der konventionellen EDV-Planung beginnen schon mit verqueren Ansichten darüber, was denn der sogenannte Output sei. Wenn man in den Firmen herumhört, lautet die typische Antwort so: "Der Output? Nun, das ist der Bericht, die Information, die unsere Manager als Entscheidungsgrundlage brauchen." Der Output eines Informationssystems wird also mit der Information selber in Zusammenhang gebracht. Man glaubt, das Informationssystem sei eine Fabrik, die die nötigen Informationen produziert, um eine Firma oder auch den Staat zu regieren. Das ist eine viel zu enge Sicht der Dinge.

Das Überleben sicherstellen

Als ich noch klein war, bekam ich einmal ein Buch, das ich zum Glück nicht fortgeworfen habe. Es heißt "Die Wunder der modernen Wissenschaft" und erschien 1946, also ziemlich am Anfang der Computerära Computer kommen darin zwar nicht vor, aber dafür zwei äußerst lehrreiche Illustrationen. Eine von ihnen trägt die Überschrift "Der menschliche Körper als eine mehrstöckige Fabrik." Der Arm ist ein Kran, der Magen ein Ofen in der Fabrik, und die Top-Manager sind Figuren, die im Hirn herumwerken. Als Stamm des Hirns sieht man eine der damals noch üblichen Telefonschalttafeln mit Dutzenden von Kabeln und Steckern.

Auf der gegenüberliegenden Seite ist eine andere Illustration abgedruckt. Ihr Titel lautet "Was passiert, wenn man einen heißen Ofen berührt." Gezeigt wird eine Frau, die in der Küche soeben mit dem Backofen in Kontakt gekommen ist. Man sieht die Nervenstränge in ihrem Innern, über die die Meldung ans Hirn geleitet wird: "Hoppla, Finger angebrannt, Hand vom Ofen wegnehmen!"

Diese simple Zeichnung enthält erstaunlich viel Erkenntnis darüber, wie gute Informationssysteme funktionieren: Das menschliche Nervensystem sammelt ja hier nicht einfach Daten, sondern tut wesentlich mehr: Die Informationen aus der Umwelt (dem heißen Ofen) werden verarbeitet und resultieren in Aktionen (Hände weg vom Feuer), die das Überleben des Organismus sicherstellen.

Daten müssen zu Aktionen führen

Die genau gleichen Eigenschaften charakterisieren auch ein erfolgreiches Informationssystem in einem Geschäftsunternehmen: Es liefert als Output nicht irgendwelche Zahlen, sondern resultiert in Handlungen die das Überleben und hoffentlich auch den Erfolg der Firma sichern helfen. Wenn man also ein Geschäftsunternehmen mit einem Organismus vergleicht, so ist das weit mehr als eine Analogie: es ist tatsächlich ein Organismus.

Die Idee, daß ein Informationssystem lediglich dazu da sei, den Managern Entscheidungsgrundlagen zu liefern, ist völlig unzureichend. Man darf das Informationssystem und die Menschen, die diese Informationen benutzen, nicht trennen. Jede vernüftige Systemanalyse verlangt den Blick aufs Ganze.

Die Angestellten gehören genauso zum Informationssystem wie die EDV-Anlage: sie sind die organischen Schaltstellen im Nervensystem des Unternehmens. Das Informationssystem ist also eine elektronisch-organische Einheit, wobei die organischen Komponenten die Mitarbeiter sind, die an den Schaltstellen des Unternehmens wirken. Wenn ein Manager oder ein Fachmann eine Entscheidung fällen muß, kommt immer das ganze System in Aktion.

Die Idee, daß Personal Computing eine Sache sei und das Informationssystem der Firma eine völlig andere, ist fundamental falsch. Richtig ist, daß jeder Gebrauch von Information der die Firma betrifft, ein integraler Bestandteil dieses Systems ist - auch wenn dies auf dem PC eines Managers und nicht in Mainframe geschieht.

Für die Zukunft von entscheidender Bedeutung ist, daß die elektronische Informationstechnologie zum ersten Mal in ihrer Geschichte nicht nur in Teilbereichen einer Firma, sondern im Unternehmen als Ganzes eingesetzt werden kann. Wenn wir dereinst im Jahre 2000 zurückblicken, werden wir sehen, daß die klassische EDV-Abteilung, wie wir sie jetzt seit 30, 35 Jahren kennen, nur eine Übergangslösung war, die man hinnahm, während sich das Unternehmen weiterentwickelte.

Die elektronische Datenverarbeitung als etwas Eigenständiges, die ausgefuchste Spezialisten in abgetrennten Räumlichkeiten betreiben, wird uns in 20 Jahren als reines Kuriosum vorkommen - sozusagen als Kinderkrankheit des EDV-Zeitalters. Weshalb? Weil es völlig unnatürlich ist, das Informationssystem als Extrazug neben dem Unternehmen herlaufen zu lassen - es gehört vielmehr organisch in die Firma integriert. Und diese Einbettung ins Ganze kommt jetzt immer mehr.

Wirkliche Experten diskriminieren nicht

In Zukunft wird die EDV ein Unternehmen von A bis Z durchdringen und von allen Angestellten benützt werden, nicht nur von ein paar Hohepriestern, die ihren Kult in einem separaten Gebäude zelebrieren und allen anderen Vorschriften machen, wie sie damit umzugehen hätten.

Wenn aber EDV-Anlagen in einer Firma immer mehr zum Allgemeingut und ihr Gebrauch zur Selbstverständlichkeit werden, hat das natürlich seine Konsequenzen. Da kann kein Junior-Analytiker mehr kommen und behaupten, wer nicht in der EDV-Abteilung arbeite, gehöre zum Fußvolk, das von der ganzen Informationsverarbeitung nichts verstehe.

Die wirklichen EDV-Experten - das muß man fairerweise doch sagen - lassen sich höchst selten zu solchen diskriminierenden Äußerungen hinreißen. Doch die Versuchung ist immer da. Wie bequem und schön ist es doch, den einsamen Experten zu spielen: "Okay, wir verstehen ja Ihr Problem, aber im Moment haben wir ganz andere Prioritäten. Vielleicht kommen wir später dazu, Ihre Sache einmal genauer zu prüfen." -oder: "Was Sie verlangen, geht auf unserem System nicht; weshalb, kann ich Ihnen nicht erklären, das führt zu weit - aber schauen Sie sich doch mal diesen Ordner an, da steht alles drin."

Die Computertempel werden geräumt

Eines ist klar: Die glorreichen Zeiten der Hohepriester gehen langsam, aber sicher ihrem Ende zu, und die Computer-Tempel werden geräumt. Der Anstoß dazu kommt nicht immer aus der Einsicht heraus, eine bessere Assimilation der neuen Technologie täte dem Unternehmen gut; manchmal ist es einfach die allgemeine Unzufriedenheit der Firmenleitung mit den Resultaten, die die zentrale EDV-Abteilung produziert.

Natürlich räumen die Computerprofis ihre Pfründe nicht gern und wehren sich gegen solche Neuerungen - anfänglich oft mit Erfolg, wie sich in verschiedenen amerikanischen Firmen gezeigt hat. Aber der Trend zu dezentralisierten, Systemen ist unverkennbar und wird noch stärker werden, weil immer mehr preisgünstige Computerleistung auf dem PC zur Verfügung steht.

wird fortgesetzt

Kenner der Computerszene attestieren William F. Zachmann (Foto) von der renommierten amerikanischen Marktbeobachtungsfirma International Data Corporation so etwas wie einen sechsten Sinn: Seine ungeschminkten Voraussagen über die Entwicklung der Computerbranche mögen zwar in manchen Ohren schockierend tönen - aber der Teufelskerl hat bisher praktisch immer recht behalten.

So auch im letzten Jahr: Von den 13 Prognosen, die Zachmann im Mai 1986 in Frankfurt präsentierte trafen elf tatsächlich ein. Angesichts einer solchen Performance müßten viele der alteingesessenen Finanzanalysten vor Neid erblassen.

Wer ist dieser Computerguru mit dem Röntgenblick in die Zukunft? Felix Weber, der Übersetzer und Bearbeiter des folgenden Artikels, hat ihn "life" erlebt - an und neben der European Executive Conference, die im letzten Herbst in Nizza stattfand.

Fazit: Zachmann ist ein Exzentriker, ein - immerhin sympathischer - Flegel, den man sich als Firma nur so lange leisten kann, wie er Außerordentliches leistet. Und das tut der Harvard-Absolvent zweifellos. Wobei noch anzumerken wäre, daß "Will" nicht etwa Computerwissenschaften studierte - das wäre ja direkt langweilig -, sondern Philosophie und Theologie. Alles klar?