Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.


15.12.1978

Retrospektiven in die Zukunft

200 Ausgabe COMPUTERWOCHE, also: Vier Jahre in der Computerwelt - das heißt bei der Hardware "ein halbes Leben". Und bei der Software schlägt sich in dieser Zeitspanne das gesamte Wissen nahezu dreifach um. Dies war für die CW-Redaktion Grund, Freunde aus den CW-Gründerjahren (Interviewte, Gastkommentatoren, Thema der Woche-Informaten) Bilanz ziehen zu lassen. Doch die Frage wurde auch um den Zukunftsaspekt erweitert. Und darüber meditieren unsere Autoren: Mußten sie Standpunkte revidieren? Sind Erwartungen nicht eingetroffen? Welche Entwicklungs-Schwerpunkte erwarten sie und welche wünschen sie sich?

Dr. Reinhold Thurner

Geschäftsführer der Sodecon AG, Dübendorf/Schweiz

Die ersten vier Bände der COMPUTERWOCHE - aus dem Gesichtswinkel Verfahrenstechnik in der Systementwicklung betrachtet - spiegeln die Entwicklung der letzten vier Jahre wider, vor allem die Lage der betrieblichen Praxis:

- Die Beherrschung der Methodendiskussion durch die Themen Entscheidungstabellen und Normierte Programmierung in den ersten Jahren,

- die Auseinandersetzung mit Konzepten wie Strukturierte Programmierung, dem Schichtenmodell für die Ablaufsteuerung (besten Dank an Dr. Riemer) und die methodischen Ansätze von Warnier/Jackson etc. in den neuen Nummern der CW.

In diesen vier Jahren ist sehr viel an neuem Methodenwissen dazugekommen, mehr wohl als je zuvor. Meine Annahme (und Hoffnung), daß sich diese Fortschritte in der Entwicklungspraxis auf breiter Ebene niederschlagen werden, haben sich indes nicht bewahrheitet.

Die Zusammenführung der Methoden ist noch nicht Allgemeinwissen, die Diskussion bewegt sich noch bei "entweder - oder", bei Einzelmethoden, wie die hitzig geführte Diskussion um SP kontra NP gezeigt hat.

Was werden die nächsten vier Bände der CW über dieses Thema enthalten? Wann wird die CW berichten können, daß isolierte Einzelkonzepte wie Functional Decomposition, Warnier/Jackson Schichtenmodell etc. in eine umfassendere Betrachtungsweise eingemündet sind und vor allem einen Bestandteil der Entwicklungspraxis bilden? Ich fürchte, daß wohl noch einige Nummern der mit Vehemenz ausgetragenen Konfrontation der NPGisten und Funktionalisten, der Nassimänner und Jacksonianer gewidmet werden müssen.

Eine Ausnahme werden hier vielleicht die Hersteller von Anwendungssoftware für Mittel- und Kleinanlagen bilden: Der auf ihnen lastende Druck zur rationellen Herstellung mehrfach-verwendbarer Software wird sie Wege beschreiten lassen, die das Establishment der Großcomputer-Anwender erst später übernehmen wird.

Auf dem Sektor der Hilfsmittel ist ähnlich zu erwarten, daß Entwicklungssysteme die Einzelhilfsmittel ablösen werden. Sicher werden noch Generatoren für NP und SP, für Entscheidungstabellen und Jackson-Methode ein- und ausgeführt werden, jedoch ist hier das Ende wohl abzusehen.

Der Lochkartenprogrammierer und Schreibmaschinenanalytiker wird in Band 6 oder 7 als ausgestorbene Spezies gemeldet werden können. Die Entwicklung wird sich in folgenden Schritten abspielen:

- Terminal ohne Intelligenz für die Programmierung (TSO, Roscoe etc.)

- Editor-Konzentrator mit externem Speicher (PET) für die Programmierung und technische Dokumentation.

- Systementwicklungsrechner für die gesamte Entwicklung und Dokumentation: Wer nur mit einem Minimum an Aufmerksamkeit die Spezifikation der IBM 8100 gelesen hat, kann erkennen, daß auch hier das Konzept der System Development Machine (Harlan Mills sprach 1975 in Aalborg davon) verwirklichbar ist: Die Maschine wird als Knoten in einem Netzwerk Systementwicklung als Datenverarbeitung unterstützen. Sie wird Textverarbeitung für die Dokumentation (im weitesten Sinn) erlauben und Systemgeneratoren (mit der Untermenge Programmgenerator) an den Arbeitsplatz des Systementwicklers bringen. (Und diese Tools werden auch und nicht zuletzt von den guten Systementwicklern eingesetzt.)

Der CW wünsche ich bei ihrer Aufgabe, die Praxis widerzuspiegeln und ihr den Weg zu weisen, viel Erfolg.

Professor Dr. Lutz Heinrich

ifbi - Forschungsschwerpunkt Betriebs-Informatik Universität Linz

Im Bewußtsein der Anwender gibt es ihn immer noch, den "Markt der mittleren Datentechnik". Man begegnet dort der "MDT" als Alternative zur Groß-EDV", als Datenverarbeitungsverfahren, das auch dem kleinen Anwender die Möglichkeit wirtschaftlicher EDV-Nutzung gibt; seltener begegnet man ihr als einer sinnvollen Ergänzung in gemischten EDV-Verfahren. Von der einstmals eindrucksvollen und homogen erscheinenden Anbietergruppe, mehrheitlich der konventionellen Büromaschinentechnik entsprungen, ist wenig geblieben. Einige haben das Handtuch geworfen, andere sind durch Unternehmenszusammenschlüsse praktisch verschwunden, aber insbesondere zwei Entwicklungen haben die Anbieterszene verändert: Einmal der Vormarsch der US-Minicomputeranbieter (DEC, Hewlett-Packard, MAI zum Beispiel), zum anderen die mit großem finanziellen Einsatz entwickelten Produktkonzepte der ehemaligen Groß-EDV-Anbieter. Wer erkannt hat, und das sind so ziemlich alle, daß die Wachstumschancen eher im Markt kleiner als im Markt großer Computersysteme liegen, hat seine Kleincomputer, Bürocomputer, Vorfeldrechner etc. heute im Angebot. Die Zeit, in welcher der Markt der Kleincomputer fest in der Hand von Nixdorf, Kienzle, Philips etc. lag, ist vorbei. Viel Herausforderung also und wahrscheinlich harte Zeiten für die einstmals Etablierten. Wer von Ihnen und wie immer auch dieser Herausforderung begegnen kann, eines ist festzuhalten: Sie haben einer Idee zum Durchbruch verholfen, der Idee nämlich, daß Computerleistung mit kleinen Computersystemen, arbeitsplatznah und benutzerorientiert organisiert, manchmal die bessere Alternative, oft eine notwendige Ergänzung zu großen Datenverarbeitungsanlagen ist. Sie werden damit als Pioniere einer benützerorientierten und distributierten Datenverarbeitung in die Geschichte eingehen. Wenn sie die Zukunft nicht so mitgestalten können, wie man es ihnen wünschen möchte, dann vor allem deshalb, weil sie in entscheidenden Fragen nicht erfolgreich genug waren. Insbesondere haben sie den Übergang von Einzelplatz- zu Mehrplatzsystemen nicht schnell genug vollzogen. Und sie haben es daran fehlen lassen, rechtzeitig mehr Eigeninitiative bezüglich "Benutzerfreundlichkeit" zu zeigen (beispielsweise bezüglich Abfragesprachen, interaktiver Programmiersprachen, Datenverwaltungssystemen). daß sich diese Versäumnisse auswirken werden, ist heute abzusehen. Man darf darauf gespannt sein, wer in einigen Jahren (noch) das Sagen hat. Siecher ist, daß mancher überrascht sein wird, wie sich die Bilder nicht mehr gleichen.

Dr. Klaus Neugebauer

Geschäftsführer der Softlab GmbH, München

Liebe Computerwoche-Redaktion meinen Glückwunsch zur 200sten Computerwoche-Ausgabe, einer Zeitung, die aus unserer DV-Landschaft gar nicht mehr wegzudenken ist. Ein Blatt, das sicherlich auch wesentlich zur Profilierung der Softwarebranche beigetragen hat. Nach den Entwicklungsschwerpunkten für die DV-Zukunft fragen Sie mich anläßlich Ihres Jubiläums Lassen Sie mich einen von vielen herausgreifen: Die Softwareentwicklung für Mikroprozessoren.

Softwareentwicklung für Mikroprozessoren, welche in hochwertigen Industrie-Großserienprodukten zu Steuer-und Überwachungsaufgaben eingesetzt werden sollen, unterscheidet sich in mehreren Punkten grundlegend von der gewohnten Basis- und Anwendungsprogrammierung. Dies bedeutet, daß die existierenden softwaretechnologischen Methoden und Programmentwicklungswerkzeuge hier nicht oder allenfalls stark modifiziert eingesetzt werden können. Die wichtigsten dieser Unterschiede gegenüber der konventionellen Softwareentwicklung, sind die folgenden:

1. Der Benutzer des fertigen Produkts ist in der Regel ein Laie, der überhaupt nichts von EDV versteht und allenfalls aus der Werbung weiß, daß das Produkt einen Mikroprozessor enthält. Der Anwender ist deshalb auch nicht bereit, irgendwelche Kompromisse bezüglich Bedienungskomfort oder gewohntem Arbeitsverfahren einzugehen. Im Gegenteil, er erwartet vom Mikroprozessor merkliche Verbesserungen! Deshalb sind die Anforderungen an die Definition und den Reifegrad der Benutzerschnittstelle hier wesentlich höher als überall sonst in der Datenverarbeitung.

2. Bei der Definition der Benutzerschnittstelle und sogar noch während eines beträchtlichen Teils der Softwareentwicklung, existiert die endgültige Hardware noch nicht. Sie wird vielmehr erst parallel mit der Softwareerstellung festgelegt und teils aus marktgängigen Bauteilen kombiniert, teils aber auch erst zu diesem Zeitpunkt entwickelt.

3. Die Algorithmen sind meist weniger komplex als in der Groß-EDV und es gibt kaum Parallelarbeit. Auch die schwindigkeit des Prozessors wird nur selten voll ausgenutzt. Bald wird das gleiche auch für preiswert verfügbare Speichergrößen gelten. Damit entfallen die meisten Probleme der traditionellen Programmierung.

4. Dafür ist ein grundlegendes neues Problem entstanden: Die Software ist zwar einfacher, muß aber Qualitätsansprüchen genügen, die in der Groß-EDV nur in extremen Situationen (etwa im bemannten Raumflug) auftreten. Die "Wartung" eines Softwarefehlers in einem Massenprodukt, welches in Stückzahlen von Tausenden vielleicht gar Hunderttausenden vertrieben wurde, ist praktisch unmöglich.

5. Die "Programmierung" eines Mikroprozessors ist zumindest im Endprodukt keine "Software" mehr, sondern bestenfalls "Firmware" (das heißt PROMs und EPROMs) und was das Zusammenschalten der einzelnen Chips betrifft, gedruckte Leitungstechnik. Die bedeutet, daß der Test wegen der wesentlich mühsameren Änderungen viel uneffektiver und schwieriger ist.

Zusammengefaßt bedeuten diese Fakten, daß eine "Mikrosoftwaretechnologie" nicht einfach ein Übernehmen und Anpassen von Verfahren und Werkzeugen der Groß-EDV sowie der herkömmlichen angewandten Informatik sein kann.

Rüdiger Dierstein

RZ-Leiter DFVLR Deutsche Forschungs- und Versuchsanstalt für Luft-und Raumfahrt, Oberpfaffenhofen

Es ist viel vorhergesagt worden in den vergangenen Jahren, auch für die Datenverarbeitung. Die Hardware werde an Bedeutung verlieren, die Software werde wichtiger sein denn je die Großrechner würden überflüssig und vieles mehr. Möge jeder für sich entscheiden, ob das, was er vor fünf Jahren erwartete, inzwischen eingetroffen ist oder nicht. Sicher ist nur, daß die Entwicklung auf keinem Gebiet und zu keiner Zeit stillstehen wird. Und wichtig ist damit allein, daß wir, die wir mit den Ergebnissen dieser Entwicklung leben und arbeiten wollen und müssen, die Fähigkeit behalten, uns rechtzeitig und richtig auf das Neue einzustellen. Nicht was der Markt an Neuem bietet darf den Fortgang der DV bestimmen, sondern unsere Fähigkeit, das Neue nutzbringend einzusetzen.

Wer diesen Standpunkt vor fünf Jahren hatte, braucht ihn heute nicht zu revidieren und wird dies auch in zehn Jahren nicht tun müssen. Wie weit dieser Standpunkt inzwischen verbreitet ist, das steht allerdings auf einem anderen Blatt. Die rasche Entwicklung auf dem Gebiet der Mikroprozessoren zum Beispiel hat viele überrascht, die von der Hardware nichts wesentlich Neues mehr erwarteten Diese Entwicklung läuft - vermutlich mit noch wachsendem Tempo - weiter. Was aus ihr wird, wie sich unsere bisherige Art und Weise DV zu betreiben und einzusetzen verändert, das ist aber beileibe kein Vorgang, der so einfach aus sich heraus oder von selbst abliefe. Es liegt wesentlich an der Einsicht und an den Entscheidungen derer, die DV anwenden, ob und in welcher Weise Mikroprozessoren die DV in der Praxis beeinflußen und verändern werden.

Wenn Sie mich fragen, welche Entwicklungs-Schwerpunkte ich mir für die Zukunft wünsche, dann antworte ich Ihnen: Eingentlich nur einen! Daß die DV-Fachleute viel mehr als in der Vergangenheit darüber nachdenken, ob das, was sie an Neuem in die Praxis umsetzen wollen, auch wirklich dem Anwender hilft, seine Aufgaben besser zu lösen. Und besser heißt eben nicht nur schneller, sondern vor allem auch wirtschaftlicher und - für den Betroffenen annehmbarer. Nicht alles, was die DV kann, ist auch wünschenswert. Man könnte eine Menge zu prophezeien versuchen, was DV in Zukunft können wird. Wichtig erscheint mir, mehr darüber nachzudenken, was sie können soll und was lieber nicht

Dr. Hans Pärli

mbp Mathematischer Beratungs-und Programmierdienst GmbH, Dortmund

Standpunkte revidiere ich praktisch seit meinem "Einstieg" in die maschinelle Datenverarbeitung, nicht erst seit einigen Jahren. Besonders bedauere ich es, daß die "elektronische" oder "automatisierte" Datenverarbeitung nicht zu jener "Versachlichung" in der Datenverarbeitung und im Wirtschaftsleben überhaupt geführt hat, die ich mir (und mit mir viele andere "Datenverarbeiter") ursprünglich erhofft habe.

Das zeigt sich insbesondere beim "Distributed Processing", das sich - entgegen den Erwartungen vieler, nicht den meinen! - nicht als "allein seligmachend" herausgestellt hat, sondern erwartungsgemäß (was meine eigenen Erwartungen angeht) auf eine Synthese mit den schon vorher vorhanden gewesenen DV-Verfahren zusteuert.

Es ist kein Geheimnis: Die automatisierte Datenverarbeitung ist - als Arbeitsplatzfresser par excellence - ins Gerede gekommen. Insofern hätte ich schon einen Standpunkt revidieren können daß nämlich Datenverarbeiter sein eine ehrenvolle Profession auch nach außen hin wäre. Dieser Auffassung bin ich aber nach wie vor.

Insgesamt meine ich, die (automatisierte) "Datenverarbeitung" wird auf die Dauer nicht von der Bildfläche verschwinden, allen pseudogesellschaftlichen "Entwicklungen" zum Trotz muß schließlich etwas Reales vorhanden sein, das (um ein augenblicklich aktuelles Thema anzusprechen) uns die 35-Stunden-Woche (für die ich selbstverständlich auch bin) ökonomisch überhaupt erst möglich macht. Die "Gefahr", um beim Thema zu bleiben, die von den "Mikroprozessoren" ausgeht, sehe ich als nicht so gravierend an, wie sie oftmals hingestellt wird, hier wird, wie ich meine, eine bloße Möglichkeit (die nämlich ganz anders aussieht, als es die Computerpessimisten behaupten) mehr oder weniger absichtlich verwechselt.

Dieses "Wechselspiel" meine ich auch bei Erscheinungen wie dem Datenschutz und der Datensicherheit zu erkennen. Immerhin steht fest, daß die automatisierte Datenverarbeitung nunmehr endgültig in das Rampenlicht der Öffentlichkeit getreten ist. Daß per saldo der Beifall die Pfiffe und Buhrufe übertönen möge, dazu seinen Teil beizutragen, ist jeder in der Datenverarbeitung Tätige aufgerufen, Sie - um das Statement abzuschließen - nicht anders als ich.

Anselm Triestram

IBAT-AOP Gesellschaft für Analyse, Organisation und Programmierung mbH & Co. KG, Essen

Für meine Firma war bereits vor Jahren klar, daß in verstärktem Maße die Dezentralisation in der Computerwelt starke Fortschritte machen würde. Und zwar Dezentralisation insbesondere mit Heranbringen von Computerintelligenz an den Arbeitsplatz. Diese Voraussagen wurden von uns gemacht und sind eingetroffen.

In immer stärkerem Maße wird die Datenverarbeitung ein Hilfsmittel für den Sachbearbeiter, und zwar einmal durch dezentralen Einsatz von Satellitenrechnern, zum anderen durch Anlagen der Groß-EDV im Multiuserbetrieb und durch Minicomputer. Hierbei kann der Sachbearbeiter über einen eigenen Bildschirm die Vorteile der Datenverarbeitung direkt nutzen.

Dies gilt unseres Erachtens nach in den nächsten Jahren auch in verstärktem Maße für die öffentliche Verwaltung.

Im Bereich Computer-Aided-Design werden wir infolge der zur Zeit stark forcierten Basis-Software-Entwicklungen mit erheblichen positiven Überraschungen zu rechnen haben. Im Prozeßrechnerbereich werden in immer stärkerem Maße Closed-loop-Lösungen realisiert werden.

Wolf Riedell

Kabel- und Metallwerke Gutehoffnungshütte AG, Hannover

Der Wunsch, Daten direkt am Ort ihrer Entstehung EDV-gerecht zu erfassen, führte zur Entwicklung eines breiten Marktes für terminalorientierte Erfassungssysteme. Der weitergehende Wunsch, EDV-lnformation dort auszugeben, wo sie direkt gebraucht wird, gab den Anstoß zum Einsatz dezentralisierter Intelligenz in hierarchisch strukturierten Systemen. Die Entwicklung der Datentechnik bei Kabelmetal ist vor dem Hintergrund dieses Trends Anfang der 70er Jahre zu sehen.

Der sehr junge Markt für BDE-Systeme brachte zwar ein erhebliches Interesse der Fertigungsindustrie an den gezeigten Problemlösungen; die Umsatzentwicklung blieb jedoch zunächst deutlich hinter den Erwartungen zurück.

Einer der Gründe für die anfangs nur zögernde Einführung von BDE-Systemen mit dezentraler Intelligenz waren die erheblichen Hardwarekosten. Durch die rasche Entwicklung der Mikroprozessoren-Technik ergibt sich heute erstmals die Möglichkeit, die schon lange bekannte Philosophie des "Distributed Processing" in wirtschaftlich vertretbarer Größenordnung zu verwirklichen. Und dies nicht nur in Großbetrieben, sondern - gerade in der BDE - auch in Fertigungsbetrieben mittlerer Größe.

Hermann Engstler

P & S Warenvertriebsges. mbH, Kiel

In den letzten vier Jahren sind auch bei mir manche Erwartungen nicht erfüllt worden. Vielleicht wäre es noch schlimmer geworden, gäbe es die CW nicht.

Gerade bei kleineren Abteilungen sind die wenigen Leute dauernd überfordert und haben weniger Zeit um

- Lehrgänge (Weiterbildung) zu besuchen und

- Zeitschriften sowie Fachbücher zu lesen.

So ist die CW in eine Marktlücke gestoßen, da sie durch ihr wöchentliches Erscheinen viele Themen anreißen - wenn auch nicht tiefschürfend untersuchen kann. Sie sollte daher zur Pflichtlektüre in kleinen und kleinen und kleinsten EDV-Abteilungen gehörte. Erfreulich ist, daß sich vermehrt auch die Fachabteilungen der Anwenderfirmen in der CW zu Worte melden.

Für die Zukunft erwarte ich eine stärkere Unterstützung der Anwender-Software-Entwicklung durch Hardwareverbesserungen, preisgünstigere Software-Tools und -Methoden, die auch kleine Anwender bei der Lösung ihrer Probleme unterstützen.

So wünsche ich der CW viel Erfolg bei den nächsten 200 Ausgaben, damit auch ich wieder Nutzen aus der CW ziehen kann.

Maximilian Wieland

EDV-Leiter, Bayer .Beamtenversicherungs AG, München

Die Entwicklung bei Hard- und Software ist so gelaufen, wie ich es mir vorgestellt hatte. Zentraleinheiten sind kompakter und leistungsfähiger geworden. Das Verhältnis Leistung/Preis hat sich so günstig verändert, daß Hauptspeichergröße und interne Geschwindigkeiten nahezu keine einschränkende Rolle mehr spielen. Die Übertragungsgeschwindigkeit zwischen Zentraleinheit und Peripherie wurde ebenfalls erwartungsgemäß gesteigert und die Leistung der Peripherie hat bedeutend zugenommen: Wenn wir zum Beispiel vor vier Jahren mit einer Großspeicherkapazität von 800 Millionen an einem Strang zufrieden sein mußten, so stehen uns heute zweieinhalb Milliarden zur Verfügung. Auch bei den Endgeräten sind frühere Beschränkungen weggefallen. Die Zeichenkapazität der Bildschirme ist bedeutend erweitert, die Drucker wurden schneller und leiser und damit zur Lösung unserer organisatorischen Aufgaben allgemein einsetzbar. Neben höherer Leistung hat uns die technische Entwicklung auch mehr Sicherheit durch zuverlässigere und wartungsfreundlichere Geräte gebracht.

Bei der Software hat, wie vorhergesehen, die Bedeutung der DB-/DC-Software weiter stark zugenmommen. Auch die Online-Programmierung ist deutlich in den Vordergrund getreten und hat immer mehr die konventionelle Lochkartenmethode abgelöst. Standardsoftware setzt sich gegen individuelle Eigenentwicklung durch.

Welche Standpunkte muß ich revidieren? Dazu fällt mir das erstaunliche Beharrungsvermögen von Cobol ein. Ich hatte erwartet, daß der Anteil der doch schon lange verwendeten Sprache zugunsten neuer Sprachen wie PL/1 und Basic zusammen mit dem Anteil der Assemblersprache allgemein zurückgehen wird. Während dies für Assembler durchaus zutrifft, zeigen neueste Untersuchungen einen unvermindert steilen Anstieg von Cobol. Und dies, obwohl sich Experten darüber einig sind, daß die strukturierte Programmierung durch Cobol nicht gut unterstützt wird.

Ich rechne damit, daß es die Systemkomponenten: Zentraleinheit - Peripherie - Betriebssystem - DB-/DC-System in der heutigen Form bald nicht mehr geben wird. Der Trend heißt: Weg von der Mechanik. Mechanische Magnetspeicher müssen also früher oder später verschwinden. Hauptspeicher und Peripheriespeicher werden zu einer logischen Speichereinheit verschmelzen. Der Benutzer braucht sich dann mit Speicherzuordnung und -verwaltung nicht mehr zu beschäftigen. Auch physische Dateien und Datensätze sind dann für ihn nicht mehr bedeutsam. Er arbeitet auf Weltebene mit logischen Datensätzen. Ein Betriebssystem braucht er nicht mehr zu generieren. Es wird mit der Konfiguration fertig mitgeliefert, einschließlich dem DB-/DC-System.

Wenn sich meine Hoffnungen erfüllen, müßte dies auf eine wünschenswerte Entlastung des Anwenders hinauslaufen und auf zuverlässigere Systeme. Vorausgesetzt natürlich, daß dadurch Übergänge geschaffen werden, die es uns möglich machen, die heutigen Anwendungen und Entwicklungen ohne große Probleme zu übernehmen.

Ganz zuversichtlich erwarte ich schließlich, daß sich die Aufregung um den Datenschutz legen wird. Wenn die EDV zunehmend in die Bereiche des eigenen täglichen Lebens integriert und der Bürger sie als normales Arbeits- und Organisationsmittel annehmen wird, entfallen Unbehagen und Angst vor unkontrollierbaren Aktionen.

Otto Wassermann

Geschäftsführer "Beratung Wirtschaft" der ADV/Orga F. A. Meyer GmbH, Wilhelmshaven

Läßt man einmal die letzten Jahre Revue passieren, so kann man sicherlich ohne große Übertreibung feststellen, daß fast alle Bereiche der Datenverarbeitung von der rasanten technologischen Entwicklung auf dem Gebiet der Mini- und Mikrocomputer geradezu überrollt worden sind. Nicht so sehr der technologische Fortschritt an sich, sondern vielmehr das Tempo, mit denen diese Innovationen auf dem Hardwaresektor Einzug in nahezu alle Arbeitsbereiche gehalten haben, hat sicherlich die Erwartungen vieler bei weitem übertroffen. Diese neuen Möglichkeiten (Mikroprozessoren, Minicomputer, verteilte Intelligenz etc.), deren Nutzung den Übergang zur vorgangsorientierten Datenverarbeitung wesentlich erleichterte, beeinflußten und beeinflussen auch weiterhin unmittelbar die Datenkommunikationstechnik.

Auf diese entscheidenden Faktoren im softwaretechnologischen Umfeld konnte, sich die ADV/Orga durch ein verbreitertes Angebot an leistungsfähigen Dialoglösungen sowie durch den Aufbau einer Mikroprozessorengruppe frühzeitig einstellen. Hinzu kam das fortschreitende Unbehagen der Anwender, das durch ein kaum mehr überschaubares Hardware-Angebot provoziert wurde. Hier konnten wir uns durch eine rechtzeitige Spezialisierung auf Branchen und Funktionen bei einem klar definierten Leistungsumfang an die Seite jener Anwender stelIen, die aus Unsicherheit vor dieser Entwicklung nach einer qualifizierten Beratungsleistung suchten.

Nicht übertroffen wurden dagegen unsere Erwartungen hinsichtlich der Akzeptanz von fertiger Software. Wir hatten vielmehr vermutet, daß die Kriterien Kosten und Zeit noch wesentlich stärker vom DV-Management bei der Frage "make or buy" berücksichtigt werden wurden. Allerdings zeichnet sich gerade in der letzten Zeit eine Art "Bewußtseinsprozeß" ab, der dazu führt, daß kosten- und zeitbewußte DV-Manager sich mehr und mehr für die wirtschaftliche Alternative "fertige, aber maßkonfektionierte Software" ernsthaft interessieren.

Die Absatzmärkte unserer Auftraggeber sind weitgehend gesättigt. Ein Umsatzwachstum ist in vielen Branchen nur noch sehr schwer zu realisieren. Statt dessen müssen die Betriebe unter Ausschöpfung aller Möglichkeiten, welche die Informationsverarbeitung bietet versuchen, über eine Kostenreduktion in allen betrieblichen Teilbereichen eine ausreichende Rentabilitätserhöhung zu erreichen.