Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

12.10.1984 - 

Faszinierender Markt mit Haken und Ösen:

Software-Perfektion bleibt ein Luftschloß

12.10.1984

Software ist eines der schillerndsten Produkte unserer Zeit. Seine Geschichte umfaßt kaum mehr als ein Jahrzehnt. Wie kaum ein anderes Produkt ist es einer permanenten Kritik unterworfen. In den einschlägigen Fachpublikationen hat sich bereits ein griffiges Schlagwort festgesetzt: die Softwarekrise. Gibt es diese Krise wirklich? Und wenn ja, wo liegen die Ursachen?

Tatsache ist: Software ist niemals perfekt. Und sie wird es niemals sein, solange der Mensch dem Computer "vorschreibt", was er machen soll. Doch ohne Software läßt sich das Rationalisierungsinstrument "Computer" nicht rationell betreiben.

Wenn hier vom Software-Markt im allgemeinen und von Software im besonderen gesprochen wird, geht es nicht um Angebot und Nachfrage individueller - auf die Lösung von Einzelproblemen abgestellter - Programmlösungen, sondern ausschließlich um auftragsunabhängig und serienmäßig erstellte, universell einsetzbare, das heißt standardisierte Softwareprodukte.

Das erste konkrete Zusammentreffen von Angebot und Nachfrage für standardisierte Software, das heißt der Beginn als eines eigenständigen Softwaremarktes, dürfte etwa um 1970 hegen. Mit dem Isis-Softwarereport erschien im gleichen Jahr der erste deutsche Katalog für standardisierte Software. Zu dieser Zeit betraten eine große Anzahl kleiner und kleinster Anbieter sowie einige wenige größere Firmen (Computerhersteller und Unternehmensberatungen) einen Teilmarkt, der die scheinbar niedrigsten Eintrittsschranken innerhalb des DV-Gesamtmarktes aufwies: Jeder, der über Erfahrung in der Programmierung verfügte und des Gefühl hatte, einen Problemkreis elegant "auf die Maschine" gebracht zu haben, konnte mit geringem finanziellen Aufwand die an sich naheliegende Idee verwirklichen, seine Lösung zu vermarkten und als Anbieter von Programm-Produkten aufzutreten.

Im Zuge dieser Euphorie kam in sehr kurzer Zeit eine Vielzahl von Programmpaketen auf den Markt, allesamt im Maschinen-Code geschrieben. Bereits Ende 1970 zählte man im Isis-Katalog knapp 400 Softwareprogramme.

Doch die Begeisterung der Anfangsjahre verflog sehr schnell, denn bald kristallisierte sich ein entscheidender Pferdefuß heraus. Da die mehrfach anzubietende Basislösung ganz auf die individuellen Gegebenheiten (Datenorganisation, Maschinenkonfiguration, Betriebssystem etc.) eines einzelnen Anwenders zugeschnitten war, fehlte die notwendige Portabilität und Flexibilität etwa in Form von parametisierten Befehlsfolgen. Die Konsequenz war, daß die unumgänglichen Anpassungen an die Gegebenheiten des zweiten und aller folgenden Anwender einen hohen Aufwand erforderten. Die Programme mußten beträchtlich geändert werden; die Dokumentation mußte an so vielen Stellen geändert und ergänzt werden, daß sie schließlich vollständig neu zu erstellen war. Das Ergebnis: Fristüberschreitungen, Explosion der Aufwandsschätzungen und großer Ärger auf beiden Seiten. Viele Softwarehäuer verschwanden genauso schnell von der Bildfläche, wie sie gekommen waren. Bei den Anwendern machte sich ein Unbehagen gegenüber der neuen "Software-Ideologie" breit. Das Vertrauen in eine noch junge Branche - kaum halbwegs etabliert - schwand weitgehend.

Ernüchterung bewirkt Umkehr

Nach dieser Phase der Ernüchterung gingen insbesondere potentere Softwareanbieter, die über einen entsprechenden finanziellen Hintergrund verfügten, dazu über, Knowhow für ein professionelles Software-Engineering zu sammeln und einzusetzen.

Insbesondere durch den Einsatz von Softwaresystemen, die nicht nur das gesamte organisatorische Umfeld strafften, sondern durch ein einheitliches, methodisches Vorgehen auch wesentlich die Effizienz im Bereich der Softwareproduktion steigerten, konnten die oben beschriebenen Kinderkrankheiten vermieden werden. Die vielleicht wichtigste Funktion dabei hatte das Software- Marketing. Ihm oblag die ebenso schwierige wie reizvolle Aufgabe, mit einer Vielzahl von Präsentationen und Vorträgen eine Art "Softwarebewußtsein zu schaffen, um das Vertrauen der Anwender in fertige Software zu stärken.

Nicht die standardisierten Anwendungslösungen, sondern vielmehr die systemnahen Softwareprodukte waren es zunächst, mit denen das Vertrauen in fertige Software wieder aufgebaut werden konnte. Dienst- und Verwaltungsprogramme zur Ergänzung bestimmter Betriebssystemfunktionen sowie Softwarewerkzeuge (Tools) zur Rationalisierung der Programmierung erfreuten sich einer zunehmenden Akzeptanz beim Anwender. Dies resultierte vor allem daraus, daß Systemsoftwareprodukte auf ganz bestimmte Hardware- und Betriebssystemeigenschaften zugeschnitten waren und deshalb der Anpassungsaufwand in den meisten Fällen gegen Null tendierte.

Supersysteme fehl am Platz

In diesem Teilmarkt kam hinzu, daß die Hardwarehersteller keine oder kaum konkurrenzfähige Produkte anzubieten hatten. Daher verwunderte es auch nicht, daß einige sehr leistungsfähige Software-Tools schnell zwei- und dreistellige Installationszahlen erzielen konnten.

Datenbanksysteme schließlich, die ebenfalls den systemnahmen Softwareprodukten zuzurechnen sind, wurden in einer amerikanischen Anwenderstudie bereits als das wichtigste Softwareprodukt seit Einführung der Betriebssysteme" bezeichnet.

Wesentlich schwerer taten sich dagegen die Anbieter von kommerzieller und technischer Anwendungssoftware. In diesem Teilmarkt konnte die Akzeptanzschwelle beim Anwender nur sehr langsam überwunden werden. Denn hier mußte grundsätzlich mit einem Anpassungsaufwand gerechnet werden, der durchschnittlich bei 20 bis 30 Prozent der Nutzungsgebühren lag und in Extremfällen gar das zwei- bis dreifache erreichen konnte. Die Höhe der Anpassungskosten waren - und sind heute noch - vorwiegend eine Frage der Qualität und des Entwicklungsgrades der Software. Daher hatten nur solche Produkte langfristig eine Vermarktungschance, die in einer höheren Programmiersprache (etwa in Cobol) geschrieben waren und über ein hohes Maß an Flexibilität und Modularität verfügten.

Ein weiteres wesentliches Hindernis für eine schnelle Marktpenetration von standardisierten Anwendungslösungen war der wenig erfolreiche Versuch der Softwarehersteller, integrierte Gesamtlösungen in Form von totalen Informationssystemen (MIS) anzubieten.

Hierbei übersah man in erster Linie den Zeitfaktor, der der Realisierung einer solchen integrierten Gesamtlösung entgegenstand. Der Anwender wollte und will eine schnelle Lösung deren Kosten sich in einem über schaubaren Zeitraum amortisieren müssen. Nicht Supersysteme, sondern vielmehr integrierbare, kurzfristig zur Verfügung stehende Anwendungen mit entsprechenden Schnittstellen hatten eine reelle Marktchance.

Doch trotz der oben beschriebener Anfangsschwierigkeiten hat gerade der Teilmarkt für Anwendungssoftware in den letzten Jahren eine besondere Dynamik entwickelt und beachtliche Zuwachsraten erreicht. Beeinflußt wurde er in erster Linie durch die rasante technologische Entwicklung bei Halbleitern, Mikroprozessoren etc., die zu einem stark verbesserten Preis/Leistungs-Verhältnis der Hardware geführt hat. Die Veränderung der Systemarchitektur erleichterte die Umorientierung zur Dialogverarbeitung und den Übergang zur vorgangsorientierten Datenverarbeitung. Ein zweiter Einflußfaktor war der Mitte der 70er Jahre einsetzende Trend zur " Entbündelung", die getrennte Preisberechnung von Hardware und Software bei den großen Hardwareherstellern. Durch dieses sogenannte Unbundling wurden die Preise für Softwarelösungen der Computerfirmen mit denen der Softwarehäuser endlich vergleichbar,

Ein weiterer wesentlicher Faktor für die expandierende Entwicklung auf dem Markt für Anwendungssoftware war der auf dem Anwender lastende Zeit- und Kostendruck: Ende der 70er Jahre war das Datenverarbeitungspersonal überwiegend mit der Wartung und Pflege ihrer Eigenentwicklungen beschäftigt. Für die Entwicklung von neuen, leistungsfähigen DV-Anwendungen unter Ausnutzung der neuen technologischen Möglichkeiten, blieb kaum noch Zeit. Um hier eine dringend notwendige Produktivitätssteigerung zu erreichen, mußte vor allem den ständig steigenden Wartungskosten Einhalt geboten werden.

Da immer mehr Bereiche mit einer Vorgehensweise erschlossen werden müssen, bei der der Benutzer im Vordergrund steht, wird der benutzerorientierte Softwaremarkt seine Eigendynamik auf Jahre hinaus beibehalten. Nicht mehr der Datenverarbeitung allein, sondern vielmehr der weitergefaßten Informationsverarbeitung, die Text, Bild und Sprache in den Kommunikationsprozeß einbezieht, gehört die Zukunft.

Dadurch wird eine Rückverlagerung von informations- und organisationstechnischen Verantwortungsbereichen in die Benutzerebene möglich. Gefragt ist der Informations- oder Datenmanager, der die Belange der Fachabteilung stärker in den Vordergrund rückt. Der Computer wird zu dem, was er eigentlich sein sollte: Werkzeug, Gehilfe der Fachabteilung- und nicht Selbstzweck.

* Dirk Lippold ist Marketingleiter der ADV / Orga F.A. Meyer GmbH, Wilhelmshaven