Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

19.01.1990 - 

Alte Strukturen brechen auf: Globalisierung, Standardisierung, Computing Platforms

IV-Markt wird beherrscht von Aufbruch- und Krisenstimmung

In den Märkten für Hardware, Software und Dienstleistungen, die wir als Informationsverarbeitung (IV) bezeichnen, herrscht Aufbruch- und Krisenstimmung zugleich. Die zunehmende Bedeutung von Software und IV-Dienstleistungen sowie die atemberaubende Innovationsgeschwindigkeit bei PCs und Workstations verändert die Strukturen dieses Marktes in erheblichem Maße.

Wesentliche Tendenzen, die die Marktstrukturen in den kommenden Jahren beeinflussen werden, sind:

- zunehmende Globalisierung der Märkte im Hardware und Softwarebereich;

- zunehmende Standardisierung von Produkten und damit Markttransparenz und Preisdruck;

- einheitliche "Computing Platforms" für Personal Computer, Workstations und kleinere Mehrplatzsysteme.

Die Globalisierung der Märkte und die damit verbundene zunehmende Konzentration auf wenige weltweit agierende Anbieter zeigt die Umsatzentwicklung der 20 fahrenden Wettbewerber in den drei vergangenen Jahren (siehe Abbildung 1).

Neben der Umsatzkonzentration auf die ersten Anbieter dieser Rangliste ist die Geschwindigkeit erkennbar, mit der japanische Firmen wie Fujitsu, NEC, Hitachi und Toshiba ihre Marktpositionen ausbauen.

Obwohl reine Softwarehäuser in dieser Auflistung der 20 umsatzstärksten Anbieter noch nicht zu finden sind, wird der Verkauf von Software und entsprechenden Dienstleistungen über 50 Prozent des Marktes für Informationsverarbeitung bis zur Mitte der 90er Jahre betragen. Allerdings werden zahlreiche der momentan noch am Markt agierenden Softwarehäuser diese Zeiten nicht mehr erleben; denn auch in diesem Markt sind die Konzentrationsbewegungen bereits in vollem Gange. Neben Kooperationen zwischen bereits existierenden Softwarehäusern, häufig finanziert durch branchenfremde Firmen, treten neue Mitbewerber auf den Plan.

Große Konzerne lassen ihre DV von der Leine

Weltweit tätige Konzerne wie General Motors, Daimler Benz oder Philips verselbständigen angesichts eines kaum mehr steuerbaren Kostenblocks ihre DV-Abteilungen und setzen sie den freien Kräften des IV-Marktes aus. Diese DV-Abteilungen haben über lange Jahre bei der Deckung des internen Bedarfs eine Menge an praxisnahem Know-how gesammelt und werden aufgrund ihrer Kompetenz und Größe zu einer ernsthaften Bedrohung für lokale Anbieter.

Forciert werden die Konzentrationstendenzen im Softwaremarkt zum einen durch die zunehmende Nachfrage nach weltweit einsetzbarer Standard-Software seitens international tätiger Anwender; zum anderen stellt die zunehmende Durchsetzung von Standards bei Rechnerarchitekturen, Betriebssystemen und Netzwerkprotokollen und hohe Anforderungen an die Investitionsfähigkeit von Softwarehäusern. Zahlreiche Softwareanbieter verfügen heute über veraltete Standard-Softwarepakete, die den Anforderungen von tatsächlichen Standards (Unix, ISO/OSI, ISDN, Edifact etc.) und Quasi-Industrie-Standards (SAA, LU6.2, Sparc) bei weitem nicht mehr genügen. Der Umbau einer existierenden Standardsoftware, die auch in der zweiten Hälfte der 90er Jahre noch wettbewerbsfähig ist hinsichtlich Standards und globaler Einsatzfähigkeit, und dabei gleichzeitig noch Migrationswege für bereits vorhandene Anwender aufzeigt, übersteigt die Finanz- und Know-how-Ressourcen vieler Softwarehäuser auch in der Bundesrepublik.

Die wachsende Bedeutung und Durchsetzung von Standards erfordert nicht nur die weitgehende Überarbeitung existierender Softwareangebote, sie gefährdet auch in zunehmendem Maße die Wettbewerbsfähigkeit von Anbietern im Bereich PCs, Workstations und Minicomputer. Durch die Akzeptanz von Standards bei zahlreichen Wettbewerbern erhöht sich die Transparenz des Marktes, und der Druck auf Preise und Margen nimmt zu. Bisherige Positionierungsmöglichkeiten durch Hardware mit Proprietary-Betriebssystemen und zugeschnittenen Softwarepaketen entfallen.

Sind dann die verkauften Stückzahlen nicht ausreichend, werden Hardware-Anbieter zu OEM-Lieferanten degradiert. Gleichwohl kann ein zu langes Abwarten gegenüber Standardisierungstendenzen allerdings wesentlich gefährlicher sein, wie die derzeitige Aufholjagd einiger europäischer Anbieter zeigt.

Neben der zunehmenden Globalisierung und Standardisierung bildet die herausragende Leistungsfähigkeit von PCs den dritten entscheidenden Einflußfaktor für den Markt der Informationsverarbeitung in den 90er Jahren. Compaq und Olivetti haben den 486er PC bereits zur sogenannten Computing Platform erklärt und angekündigt, daß sie künftig PCs, Workstations und Mehrplatzsysteme einheitlich auf der Basis des Intel-Prozessors 80486 anbieten werden. Damit zeichnet sich bei Olivetti ein Ende der mit Motorola-Prozessoren aus gerösteten Mehrplatzsysteme ab. Andere Anbieter werden folgen und damit die Grenzen zwischen PCs, Workstations und kleineren Mehrplatzsystemen zunehmend verwischen; die Art und Weise der Nutzung und nicht mehr die Rechnerarchitektur wird entscheidend sein für die Funktionsweise der Intel-basierten Rechner.

Wie wirken sich die aufgezeigten Trends nun in den verschiedenen Marktsegmenten aus?

Apple hat hochgesteckte Ziele

Gerade der PC-Markt war die ganzen 80er Jahre hindurch gekennzeichnet durch einen hohen Standardisierungsgrad. Neben der als Industriestandard bezeichneten IBM-Kompatibilität hat eigentlich nur noch Apple mit seinen besonders benutzerfreundlichen Macintosh-Systemen eine gewisse Bedeutung erreichen können. Obwohl Apple in zunehmendem Maße Schnittstellen zu IBMs SNA- und Digitals Decnet-Architekturen bereitstellt, hat das Unternehmen nur in den USA wesentliche Marktanteile auch bei großen kommerziellen Anwendern erzielen können. Das Umsatzziel von Apple ist ambitiös: Von 4 Milliarden Dollar Umsatz 1988 will man auf etwa 10 Milliarden Dollar in den frühen 90er Jahren wachsen.

IBM: Divide et impera mit dem Mikrokanal

Da zunehmende Transparenz und Preisdruck erheblichen Einfluß auf die traditionell hohen Margen der IBM hatten, war IBMs Abweichen vom selbst gesetzten Standard eine notwendige Konsequenz. Darüber hinaus sollte durch die neue Mikrokanal-Architektur MCA in Verbindung mit dem Betriebssystem OS/2 eine bessere Anbindung an IBMs Großrechnerwelt ermöglicht werden. Die bis dahin angebotene IBM-XT-Architektur enthielt unter dem Gesichtspunkt der "Connectivity" zahlreiche Design-Probleme.

Durch die MCA-Strategie ist es der IBM tatsächlich gelungen, den bislang relativ homogenen Markt wieder zu spalten. Zwar dürfte die von vielen Anbietern unterstützte "Extended Industry Standard Architecture" (EISA) der wirkliche Nachfolger der klassischen PC-Bus Architektur werden, da existierende PC-Benutzer damit Teile ihrer Hardware-Investitionen sichern können; doch die zunehmende Bedeutung der Kommunikationsfähigkeit bei Großrechner-Anwendern wird den langfristigen Erfolg der MCA-Rechner bei diesen Anwendern sicherstellen:

- Den meisten PC-Wettbewerbern fehlt das notwendige Know-how, um ihre Systeme in einer komplexen IBM-Kommunikationslandschaft zu verkaufen;

- IBMs Großrechnerkunden setzen zunehmend auf Investitionssicherung im Bereich der Datenverarbeitung und sind damit wenig preissensitiv gegen über günstigeren Angeboten anderer PC-Anbieter; 0 IBM bietet neben Kommunikations- und Datenbank-Software auch in zunehmendem Umfang Standardpakete wie zum Beispiel Officevision an, die Datentransparenz über mehrere Ebenen einer Rechnerarchitektur gewährleisten, dabei aber MCA-Systeme mit OS/2 voraussetzen.

Auf der Betriebssystem-Ebene wird MS-DOS auch bis zur Mitte der 90er Jahre noch das am meisten verbreitete Betriebssystem sein. Angesichts des zur Zeit hohen Verbreitungsgrades wird MS-DOS-basierende Anwendungssoftware noch über Jahre hinweg die "Cash Cow" von PC-Softwareanbietern sein. OS/2 und Unix werden in entsprechenden Anwendungssegmenten kontinuierlich ihren Marktanteil ausdehnen (siehe Abbildung 2).

Auf einen weiteren wichtigen Trend für Softwareanbieter im Großrechnerbereich sei noch hingewiesen. Da das Preis/Leistungsverhältnis zwischen PCs, Minis und Großrechnern jeweils etwa um den Faktor 10 abnimmt, werden auch Teile klassischer Großrechner-Anwendungen (zum Beispiel Auftragsabwicklung, Finanzbuchhaltung, Bestellabwicklung) über entsprechende Schnittstellen verstärkt auf PCs ausgelagert, das heißt, jene Komponenten zentraler Abwicklungssysteme, bei denen Rechner und Benutzer intensiv miteinander kommunizieren, ohne unmittelbar die Konsistenz zentraler Datenbestände zu zerstören, werden auf PCs ausgelagert. Damit reduziert sich die Nutzung teurer Großrechner-Kapazität, und die Benutzeroberfläche läßt sich zumeist erheblich verbessern. Allerdings ist auch hier wieder ein Neu-Design weiter Teile von Softwarepaketen erforderlich.

Schließlich noch ein paar Anmerkungen zum Workstation-Markt. Trotz der zunehmenden Leistungsfähigkeit der traditionellen PC-Plattformen, durch die Grenzen zwischen PCs und Workstations verwischen, bleiben vornehmlich im Bereich CAD und Simulation Performance-Anforderungen, die nur durch spezifische Prozessor-Technologien abgedeckt werden können. Hier stehen die RISC-Architekturen Motorola 88000, SPARC/SUN und Intel 80860 im Vordergrund, wobei das Anbieter-Spektrum mit den Firmen Sun, Apollo, Digital, HP und Silicon Graphics bereits stark konzentriert ist.

Ob HP durch seine Kooperation mit Apollo die Marktführerschaft tatsächlich in die Hand nehmen kann, hängt insbesondere davon ab, ob beide Firmen zu einer gemeinsamen Produktstrategie finden und HP im Marketing und Verkauf aggressiver wird.

Nische für RISC im CAD und Simulationsbereich

Der Minicomputer-Markt, also der Markt für kleine und mittlere Mehrplatzsysteme bis zu einigen hundert Arbeitsplatzstationen, steht am stärksten unter dem Einfluß von Standardisierungsbestrebungen in Form des Betriebssystems Unix und der entsprechenden marktwirtschaftlichen Konsequenzen von Transparenz, Preisdruck und Konzentration. Am wenigsten verbunden mit den Standardisierungsbestrebungen fühlen sich verständlicherweise die beiden größten Anbieter im Mini-Rechnerbereich, DEC und IBM. Beide verfügen über vergleichbar große Marktanteile in diesem Segment. Ihre Ausgangssituation ist jedoch recht unterschiedlich.

IBM hat mit dem Erfolg der AS/400-Familie auch die kühnsten Marktprognosen übertroffen. Da diese Produkte im oberen Leistungsbereich an die "kleineren" Mainframes der 4381er-Serie heranreichen, wandern auch Nutzer von Großrechner-Systemen in die AS/400-Welt ab, um das Preis-/Leistungsverhältnis dieser Systeme zu nutzen. Da die AS/400-Systeme der IBM sowohl vom Preis als auch von der Ausbaufähigkeit hier noch einigen Spielraum bieten, werden diese den Erfolg der IBM in den 90er Jahren noch maßgeblich beeinflussen. Spätestens nach der Ablösung der 4381er-Systeme und der Ankündigung von 3080-Nachfolgeprodukten ist mit einem weiteren Ausbau der AS/400 zu rechnen.

IBM-Erfolg wesentlich von AS/400 abhängig

Digital hingegen setzt weiterhin auf die Durchgängigkeit der VAX/VMS-Architektur über sämtliche Rechnerfamilien hinweg. Dabei täuscht die Leistungsbreite von der DEC-Station bis zur neuangekündigten 9000er Serie im Mainframe-Bereich über einige Schwächen im Rechnerangebot hinweg. So stehen sich die Systeme 6300 und 8800 vom Preis-/Leistungsverhältnis her selbst im Wege, im unteren Leistungsbereich werden MS-DOS-Systeme als OEM-Produkt als auch RISC- und VAX-Architekturen angeboten, und im oberen Leistungsbereich tut sich Digital nach wie vor schwer, seinen Marktanteil deutlich auszubauen. Die 9000er Systeme sind hier der Hoffnungsträger für die 90er Jahre.

Alle übrigen Anbieter im Mini-Bereich versuchen, sich zunehmend als Unix-Standard-Anbieter zu etablieren. Dabei dominieren noch die Motorola-Systeme vor den sogenannten Computing Platforms von Olivetti und Compaq. Der wichtigste Erfolgsfaktor für alle Unix-Anbieter wird sein, inwieweit sie in der Lage sind, die Nachteile der Markttransparenz durch Kombination von Hardwareangebot, Softwarekooperationen, Pre-Sales-Beratung und Implementierungsunterstützung aufzuheben. Entscheidend wird dabei sein, die klassischen "Boxen"-orientierten Vertriebsmannschaften zu echten Projektmanagern mit weitreichendem betriebswirtschaftlichen Sachverstand für Beratungszwecke umzupolen.

Unter volkswirtschaftlichen Gesichtspunkten ist der klassische Großrechnerbereich eher ein Markt mit nahezu monopolistischen Zügen. Etwa 80 Prozent des Marktes werden durch IBM und Hersteller von IBM-kompatiblen Systemen beherrscht. Die übrigen Marktanteile werden durch Unisys, Bull und Siemens sowie Cray und CDC als Spezialanbieter im technisch-wissenschaftlichen Bereich abgedeckt.

Unix: Motorola noch vor 486-"Computing-Platforms"

Der Erfolg der IBM scheint damit ungebrochen, auch wenn der Lebenszyklus der 3090-Systeme nach immer wieder neuem Leistungsabbau (E-, S-, J-, H-Modelle) inzwischen eher dem Ende entgegengeht. Durch zusätzliche Forcierung seiner Standard-Architekture SNA, SAA und AD/Cycle baut die IBM ihre Marktposition noch aus, auch wenn sich hinter einigen dieser Schlagworte noch wenig reale Produkte finden. Wesentlich beeinflußt werden in den kommenden Jahren wahrscheinlich "nur" die Margen der IBM, da die japanischen Anbieter von kompatiblen Systemen wie Hitachi, Fujitsu und NEC zum Erfolg der IBM-Architektur in zunehmendem Maße beitragen. Wichtig ist dabei, daß die japanischen Firmen derzeit mit Zuwachsraten von etwa 30 Prozent arbeiten und sich damit die Vertriebsmannschaften aufbauen sowie das Kapital erwirtschaften zur Erforschung und Vermarktung neuer innovativer Produkte, während die IBM im Großrechnerbereich "nur" mit zirka zehn Prozent pro Jahr wächst.

Angesichts der zunehmenden Bedeutung von verteilten Anwendungen und des günstigeren Preis-/Leistungsverhältnis von Mini-Computern, Workstations und PCs wird der Bedarf an Mainframe-Kapazität voraussichtlich trotzdem keinen wesentlichen Einbruch erleben. Lediglich die Rolle von Großrechnern verändert sich in Richtung zentraler Verwaltung und Verteilung von Daten und Dokumenten. Da dürften die auf den technisch-wissenschaftlichen Bereich spezialisierten Anbieter schon eher durch Mini-Supercomputer unter Druck geraten.