Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

20.12.1991 - 

Big Blue gegen den Rest der Welt (Teil 3)

Der Kampf um die Standards: Fallen die IBM-Festungsmauern?

Standen die 80er Jahre im Zeichen den amerikanisch-japanischen Ringens um die Vormachtstellung im Halbleitergeschehen, haben die siegreichen Japaner nun ihren US-Kontrahenten erneut den Kampf angesagt: In den 90er Jahren wird sich entscheiden, welche der beiden Nationen künftig den Ton in der Computerindustrie angibt. Dabei stehen die Chance für die Japaner gut, auch hier den Amerikanern den Rang abzulaufen.

17. Mai 1988: Wieder einmal blickte die Computerwelt auf eine Konferenz - dieses Mal in New York. Es war eine recht ungewöhnliche Konferenz. Einträchtig versammelt waren sieben Computerhersteller, die man sonst eher als Rivalen zu sehen gewohnt war: IBM, DEC, Hewlett-Packard, Apollo-Siemens, Bull, Nixdorf. Die Chefs waren selbst erschienen, und sie nickten beifällig, als einer von ihnen, HP-Präsident John A. Young, vor laufenden Fernsehkameras ankündigte: "Wir sind zusammengekommen, um die Regeln für die nächste Runde in der Schlacht um die weltweite Computerindustrie festzuschreiben." Gegen wen die Schlacht gekämpft wurde, konnte Young unerwähnt lassen, Seine Zuhörer kannten den Gegner: AT&T, den Telefongiganten, und SUN Microsystems, den neu aufgegangenen Stern am Workstation-Himmel.

Neues Konzept der Computernutzung

Die Konferenz in New York erhellte schlaglichtartig die veränderte Computerlandschaft am Ende der Achtziger Jahre. Über 30 Jahre lang meinte, wer von Computern sprach, die großen Systeme: die "Mainframes", die in den abgesonderten Computerräumen der EDV-Abteilungen standen, bedient und gewartet von hochspezialisierten Fachleuten. In den siebziger Jahren waren dazu die Minicomputer gekommen, die trotz ihres Namens - noch durchaus platzfüllende Systeme waren und in kleineren Firmen dieselben Aufgaben erfüllten, wie sie Mainframes in den Großfirmen hatten.

Doch dann brachte 1977 Apple den Personal Computer auf den Markt. Und als 1981 auch IBM in diesen Markt einstieg, da explodierten die Absatzzahlen für die PCs. 1988, im Jahr der New Yorker Konferenz, standen weltweit den etwa 40 000 Mainframes über 60 Millionen Personal Computer gegenüber. Die einheitliche Welt der Mainframes hatte sich aufgelöst in eine Welt von Computern der verschiedensten Leistungsklassen: Supercomputer, Großcomputer, Minicomputer, Mikrocomputer.

Dieser tiefgreifende Wandel führte zu einem neuen Konzept der Computernutzung. Die Devise hieß jetzt: Computernetzwerke. Tausende von Personal Computern in den Büros der Unternehmen und öffentlichen Verwaltungen sollten miteinander kommunizieren, sollten Nachrichten übermitteln und Daten austauschen. Sie sollten zugleich mit dem Großcomputer in der Datenzentrale verbunden sein und von ihm

Informationen abrufen können. Nicht anders sollten in den Fabriken Tausende von computergesteuerten Werkzeugmaschinen, Robotern, KI-Testsystemen und CAD-Arbeitsplätzen miteinander zu einem computerintegrierten Produktionssystem vernetzt werden.

Standards bedeuten offenen Wettbewerb

Vernetzen aber kann man nur Computer, die gemeinsame Standards haben. Und genau dahin zielen die immer unabweisbarer werdenden Wünsche der Computerkäufer. Sie fordern "offene Standards", die es ihnen erlauben, Computer verschiedener Hersteller und verschiedener Größenklassen miteinander zu verbinden:

- standardisierte Betriebssysteme, so daß Anwendungsprogramme auf jedem Computer, gleich von welchem Hersteller, laufen können;

- standardisierte Kommunikationsprotokolle, so daß Computer der verschiedenen Hersteller miteinander kommunizieren können;

- standardisierte Ein- und Ausgabesysteme, so daß ein Benutzer, der von einem IBM PS/2 auf einen Macintosh überwechselt, die Bedienung nicht von neuem lernen muß.

Offene Standards aber bedeuten offenen Wettbewerb. Der japanische Computerangriff scheiterte bisher an den Festungsmauern der firmeneigenen IBM-Standards. Werden diese Fertigungsmauern nun durch die technologische Entwicklung niedergerissen? Werden die Wettbewerbsregeln auf den Computerweltmärkten neu geschrieben?

Mit dieser Frage sind wir bei dem Thema, das die Chefs der sieben Computerfirmen auf ihrer Konferenz in New York bewegte.

Die Vorgeschichte führt in das Jahr 1966 zurück. Damals hatten Ken Thompson und Dennis Richie in den Bell Laboratories von AT&T das vielleicht genialste Software-Programm geschrieben, das je geschrieben wurde: das Betriebssystem Unix. Was Unix auszeichnet, ist dies: Während bei anderen Betriebssystemen in der Regel das gesamte Programm in Maschinensprache geschrieben und damit auf einen bestimmten prozessor ausgerichtet ist, sind 90 Prozent von Unix in einer Programmiersprache geschrieben, und nur 10 Prozent in einem maschinennahen Microcode. Unix kann daher relativ leicht auf Rechner mit anderen Prozessoren übertragen werden: es ist prozessor-unabhängig.

Als mit Beginn der Achtziger Jahre die Forderung nach offenen Standards immer lauter wurde, da erschien denn auch Unix als der geeignete Kandidat für ein einheitliches Betriebssystem. AT&T vergab Lizenzen an über 200 Computerhersteller. Diese jedoch fügten dem Unix-Programm eigene Ergänzungen hinzu, und so hatten sich bald über ein Dutzend verschiedener Unix-Versionen entwickelt, die untereinander wiederum inkompatibel waren. Im Oktober 1987 kündigte deshalb AT&T an, es werde auf der Basis seines eigenen Systems, Unix V, einen vereinheitlichten Standard entwickeln. Aufmerksam auf diesen Plan wurden die AT&T-Konkurrenten im Januar 1988, als AT&T eine Kapitalbeteiligung an SUN Microsystems erwarb und begann, die einheitliche Unix-Version zusammen mit SUN zu erarbeiten. AT&T hatte durch die Aufspaltung von 1984 die Freiheit bekommen, in den Computermarkt einzusteigen.

SUN andererseits war Marktführer auf dem in explosivem Wachstum begriffenen Markt der Workstations und suchte durch Allianzen mit japanischen Computerherstellern seinen auf Unix basierenden SPARC-Mikroprozessor zum Weltstandard zu machen.

DEC und HP gründen Gegenklub

Netzwerke von Unix-Workstations waren nicht nur im Begriff, zur dominierenden Form der Computernutzung von Forschern und Ingenieuren zu werden, sondern drohten, auch in den Büros der Finanzanalysten, Ökonomen und Manager die Personal Computer der obersten Klasse zu verdrängen. IBM und die Minicomputer- und Workstationshersteller DEC und Hewlett-Packard sahen die Gefahr, daß sich ein Unix-Standard durchsetzte, auf den sie selbst keinen Einfluß nehmen konnten und der auf die Maschinen der Konkurrenz hin optimiert war. Sie verlangten, an der Ausarbeitung der einheitlichen Unix-Version beteiligt zu werden, und als AT&T dies ablehnte, bildeten sie einen Gegenklub: die Open Software Foundation. Ihre Aufgabe: eine eigene Einheitsversion von Unix zu entwickeln und darüber hinaus auch einheitliche Kommunikationsprotokolle und Benutzeroberflächen auszuarbeiten.

Beide Gruppen sammelten Alliierte, und so stehen sich heute weltweit zwei große Lager gegenüber:

- die von AT&T geführte Gruppe "Unix International", ihr gehören über 100 Firmen an, unter ihnen die großen japanischen Computerhersteller Fujitsu, NEC und Toshiba,

- und die von IBM geführte Open Software Foundation, sie hat rund 150 Mitglieder, unter ihnen die Japaner Hitachi und Canon.

Für IBM bedeutet der Trend zu offenen Standards die Gefahr, den bisher marktentscheidenden Vorteil eines übermächtigen firmeneigenen Standards zu verlieren. IBM begegnet dieser Gefahr mit einer Doppelstrategie. Es arbeitet in der Open Software Foundation an der Entwicklung einer vereinheitlichten Unix-Version mit und wahrt seine Interessen bei dem sich herausbildenden offenen Standard.

Es baut andererseits die firmeneigenen Standards aus und gibt ihnen besondere Attraktivität, um die breite Basis seiner eigenen Kunden bei den IBM-Standards zu halten. Die neue Zauberformel heißt: SAA - Systems Application Architecture. Diese neue Architektur soll die gesamte Linie der IBM-Maschinen, von den Großcomputern über die AS/400-Minicomputer bis herab zu den PS/2-Personal Computern, miteinander zu einem einzigen großen System verknüpfen. Daneben entwickelt IBM auch eine Standardbrücke, die die Verknüpfung mit Unix-basierten Computern ermöglicht.

IBM arbeitet mit einer Doppelstrategie

Zugleich bekommen die IBM-Mainframes eine neue Rolle. Von Hauptrechnern, auf denen der Großteil der Anwendungsprogramme läuft, werden sie zu zentralen Datenspeichern und zu Vermittlungszentralen in den globalen Computernetzen der Großkonzerne und Großverwaltungen. 1991 will IBM eine neue Generation von Mainframes herausbringen, die auf diese Aufgaben hin optimiert ist und die gegenwärtige 3090-Serie von Großcomputern an Verarbeitungsgeschwindigkeit wie an Speicherkapazität weit übertreffen soll.

Geht die "Grand Strategy" von IBM auf, dann könnte es gelingen, die Festungsmauern auch in den neunziger Jahren über weite Strecken zu verteidigen und den IBM-Standard neben dem offenen Unix-Standard als weltweiten Industriestandard zu erhalten.

Shake-out In den neunziger Jahren

Der Übergang zu offenen Standards oder jedenfalls verknüpfbaren Standards wie Unix und SAA wird Computer immer mehr zu Massenprodukten mit niedrigen Gewinnspannen machen.

Dies ist eine schlechte Nachricht für die Amerikaner. IBM, DEC, Hewlett-Packard, Apple verlieren den Wettbewerbsvorteil der firmeneigenen Standards. Die Japaner andererseits können nun von ihre Überlegenheit in der Fertigungstechnik ausspielen, die es ihnen erlaubt, Massenprodukte kostengünstig und mit gleichbleibend hoher Qualität herzustellen.

Die Japaner dominieren schon heute weltweit die Produktion von Komponenten für Computer. Die amerikanischen Computerhersteller beziehen über 50 Prozent ihrer Halbleiter aus Japan. Selbst IBM maß einen Teil seiner Speicherschaltkreise von außen zukatifen. In der DRAM-Krise von 1988 zwang die Knappheit an Speicherchips die amerikanischen Computerhersteller zu Produktionskürzungen und Verzögerungen bei Neuentwicklüngen. Alarmiert stellte das amerikanische Handelsministerium fest: "Amerikanische Firmen könnten gezwungen werden, ihre Systementwürfe sind Software-Geheimnisse gegen Speicherchips zu tauschen." Eher noch größer ist die japanische Dominanz bei Computer-Bauteilen und Peripheriegeräten. Es ist schon heute kaum möglich, einen Personal Computer ohne japanisches Diskettenlaufwerk, Bildschirm, Drucker und anderem zu bauen. "Amerikanische Computer", so kommentiert Wilfred Corrigan, Chef der bekannten Halbleiterfirma LSI-Logic, "sind zu Geschenkpaketen geworden, in denen japanische Technologie geliefert wird."

Vernetzungstrend schafft riesigen neuen Markt

Andererseits: In dem Maße, wie Computer sich von Produkten mit firmeneigenen Standards zu standardisierter Massenware wandeln, verlagert sich das Profitzentrum der Computerindustrie in die Software-Herstellung und die Dienstleistungen. Der Trend zur Vernetzung schafft einen riesigen neuen Software- und Dienstleistungsmarkt. Um welche Summen es hier geht, wurde zum ersten Mal 1985 offenkundig, als die United Airlines an IBM den Auftrag vergab, ihre getrennten Computerreservierungssysteme zu einem einheitlichen Großsystem zu integrieren. Der Auftrag war 300 Millionen Dollar wert - dafür muß man im Hardware-Geschäft 30 Großcomputersysteme oder 100 000 PCs verkaufen.

Umgekehrt ist die Verschiebung der Gewichte hin zur Software und zu den Dienstleistungen eine gute Nachricht für die Amerikaner. Denn Software und Dienstleistungen - dies ist ihre Domäne. Es gibt in Amerika nicht weniger als 25 000 Software-Programme. Im Jahre 1989 übertraf IBM jede spezialisierte Software-Firma in der Welt um ein Vielfaches; dazu kamen weitere 8,2 Milliarden Dollar Einnahmen aus Wartung und anderen Computerdienstleistungen. Insgesamt beherrschen die Amerikaner mit einem Anteil von 70 Prozent die Software-Weltmärkte für Betriebssysteme ebenso wie für standardisierte Anwendungsprogramme ("packaged software") souverän.

Doch auch hier greifen die Japaner an. Sie haben in den letzten Jahren ungeheure Anstrengrungen gemacht, ihren Rückstand in der Softwaretechnik aufzuholen. In diesen Zusammenhang gehört das Projekt der Computer der Fünften Generation ebenso wie ein zweites, mit großem Nachdruck vorangetriebenes Projekt zur Automatisierung der Software-Produktion. Ein alarmierender Artikel im Asian Wall Street Journal von Bill Totten, dem größten Importeur amerikanischer Software-Programme in Japan, gibt zu denken: "In der letzten Generation verloren die USA ihre Herrschaft auf den Märkten für Automobile, Haushaltsgeräte, Stahl und Halbleiter. Amerikas Verluste waren zumeist Japans Gewinne. Und dies nicht aufgrund irgendeiner konfuzianischen Verschwörung, sonderte einfach deswegen, weil die Japaner begannen, bessere Produkte herzustellen.... Wenn die amerikanische Industrie nicht ihre Qualitätskrise in den Griff bekommt und Anstrengungen macht, zu lernen, wie man im Ausland verkauft, kann ich den nächsten Dominostein in Amerikas wirtschaftlicher Vorrangstellung, der fallen wird, voraussagen: die Computer-Software. Ich sehe dies schon jetzt geschehen. Mein Unternehmen hat seit 1971 ungefähr die Hälfte aller unabhängigen Software-Produkte in Japan verkauft. Bis 1987 kam unser gesamten Umsatz aus dem Import amerikanischer Software-Produkte. 1988 kamen 99 Prozent unseres Umsatzes von Importen aus Amerika und ein Prozent von Verkäufen japanischer Produkte. 1989 kamen schon weniger als 95 Prozent unseres Umsatzes von Importen und mehr als fünf Prozent vom Verkauf japanischer Produkte. Dieses Jahr sagen wir voraus, daß weniger als 80 Prozent unseres Umsatzes von Importen kommen werden und mehr als 20 Prozent vom Verkauf japanischer Software-Produkte."

Nun, dies ist aus der Stimmung der Japanophobie heraus geschrieben, die sich gegenwärtig unter Amerikanern ausbreitet. Die Japaner werden sicherlich auf ihrem eigenen Softwaremarkt Terrain gewinnen, aber auf den Weltmärkten werden sie sich weiterhin schwertun. Auf dein Hauptmarkt der sprachorientierten Software ist die japanische Sprache ein schweres Handicap. Richtig jedoch ist: Je niehr durch den Übergang zu offennen Standards die firmeneigenen Standards an Bedeutung für den Wettbetverb verlieren, um so mehr wird die Software-Überlegenheit zum einzigen Trumpf Amerikas im Kampt um die Computer-Vorherrschaft in der Welt. Verlören die Amerikaner ihre Software-Überlegenheit, so wäre der Kampf verloren.

Der Wettbewerb auf den Computerweltmärkten hat sich

an der Wende zu den neunziger Jahren ungemein verschärft. Bei Großcomputern ist bereits ein regelrechter Preiskrieg in Gang. Um das Nordringen der IBM-kompatiblen Mainframes der Japaner zu stoppen, gibt IBM auf dem US-Markt Preisachlässe bis zu 40 Prozent. Amdahl und Hitachi ziehen nach.

In der anstehenden Entscheidungsschlacht treffen die japanischen Angreifer auf einen geschwächten Gegner. Aus der alten Mainframe-Garde der Amerikaner ist nur mehr Unisys übriggeblieben, das aus dein Zusammenschluß von Burroughs und Sperry entstand; für 1989 meldete Unisys einen Verlust von 650 Millionen Dollar. Honeywell hat aufgegeben und sein Computergeschäft in ein Gemeinschaftsunternehmen mit der französischen Bull und der japanischen NEC eingebracht; Bull kontrolliert die Aktienmehrheit, NEC dominiert technologisch. Control Data hat sich aus dem Supercomputergeschäft zurückgezogen und spielt bei Mainframes keine Rolle mehr. Auch die noch vor kurzem so vielversprechenden Minicomputer-Hersteller Amerikas sind in Schwierigkeiten: Data General und Wang machen Verluste. Selbst Digital Equipment machte im vierten Quartal des Geschäftsjahres 1989/90 einen Verlust von 237 Millionen Dollar - den ersten Verlust in seiner 32jährigen Firmengeschichte. Bleibt IBM. Auch hier sind 1989 die Gewinne stark zurückgegangen: von 5,8 Milliarden Dollar auf 3,8 Milliarden Dollar. Der Aktienkurs, der im August 1989 einen Höhepunkt von 175 Dollar erreicht hatte, lag 1990 bei 100 bis 120 Dollar.

Die japanischen Computerhersteller dagegen sind weltweit in voller Expansion und haben den zusätzlichen Vorteil, daß ihr Heimmarkt heute der am schnellsten wachsende Computermarkt der Weit ist. Für das Finanzjahr 1989/90 meldeten Fujitsu, NEC, Hitachi, Toshiba zweistellige Zuwachsraten bei den Gewinnen.

Die Japaner greifen an auf allen Fronten:

- Auf dem Supercomputermarkt spielen die großen japanischen Konzerne ihre Finanzkraft und ihre Möglichkeiten zur billigen Kapitalbeschaffung gegen den einsamen amerikanischen Hersteller Cray Research aus.

- Bei den Mainframes haben Fujitsu/Amdahl und Hitachi auf dem amerikanischen ebenso wie dem europäischen und japanischen Markt mit IBM-kompatiblen Maschinen eine Großoffensive eingeleitet. Nachdem Amdahl schon 1988 einen Groß-computer herausgebracht hatte, der den IBM 3090 an Leistungsfähigkeit übertraf, stellte im Juni 1990 Hitachi eine Maschine vor, die um 20 Prozent schneller ist als das IBM-Topmodell. IBMs Anteil am Markt der IBM-kompatiblen Mainframes, der im Zeitraum 1987 bis 1989 von 88 Prozent auf 83 Prozent fiel, könnte bis 1991 weiter auf 76 Prozent sinken.

- Auf dem Mikrocomputer-Markt sind die Japaner dabei, das am schnellsten wachsende Marktsegment zu erobern: den Markt für Laptops. Toshiba allein hatte 1989 bereits einen Weltmarktanteil von 22 Prozent. Sowohl Toshiba wie NEC haben ultraleichte "Notizbuch-Computer" herausgebracht. Den Japanern kommt für die Miniaturisierung ihre überlegene Fertigungstechnik zu Hilfe. Zugute kommt den Japanern auch das Zusammenwachsen von Computertechnik und Videotechnik. Sie sind weltweit führend bei flachen Flüssigkristall-Farbbildschirmen. Gestützt auf die Laptop-rechnik werden die Japaner, dies ist die Befürchtung, auch in die übrigen PC-Märkte vorstoßen. Bei Workstations hat Sony mit seinem Modell News bereits eine im Preis-Leistungs-Verhältnis konkurrenzlose Maschine herausgebracht, mit der es auf dem japanischen Markt in kurzer Zeit einen Spitzenplatz eroberte.

- Bei Peripheriegeräten für Personal Computer schließlich Japan schon in den siebziger Jahren mit einem Weltmarktanteil von über 70 Prozent fast ein Monopol aufgebaut.

Die neueste Entwicklung der Japaner sind optische Speicherplatten, die innerhalb weniger Jahre das bevorzugte Speichermedium für die Archivierung aller Arten von

Informationen werden könnten. Es ist eine Entwicklung, die das Volumen des gesamten Computermarkts verdoppeln könnte.

Die Entscheidungsschlacht der neunziger Jahre zwischen den amerikanischen und japanischen Computerfirmen wird nicht zuletzt auch auf dem europäischen Markt ausgetragen. Die hiesigen Hersteller selbst sind auf den Weltmärkten Überhaupt nicht im Rennen und haben auf ihren eigenen Heimmärkten einen Minderheitsanteil. So halten etwa die deutschen Computerhersteller auf dem eigenen Markt einen Anteil von weniger als einem Viertel. Alle westeuropäischen Computerfirmen tragen zu den Computerumsätzen in der Welt nicht einmal ein Sechstel bei und liegen weit hinter den Japanern.

Europa wurde zur Computerkolonie"

Selbst diese Statistik schönt noch die Realität Europas Computer sind, in noch höherem Maße als Amerikas Computer, aus importierten Halbleitern und Teilen zusammengesetzt, und in den Umsatzzahlen von 40 Milliarden Dollar sind darüber hinaus noch die Verkäufe von japanischen OEM-Großcomputern und taiwanischen und koreanischen PCs enthalten. Technologisch schließlich sind die europäischen Computer meist "Me-too"-Produkte. Die Europäer stellen weder Supercomputer her noch sind sie bei der Workstation-Revolution dabei oder bei den neuen Rennern: den Laptops und "Notizbuch-Computern".

In dieser Lage ist zu befürchten, daß die europäischen Hersteller zu den ersten Opfern des japanisch-amerikanischen Computerkampfs gehören werden. Die entscheidende Industrie des Informationszeitalters wäre dann zur Gänze amerikanisch-japanisch, Europa würde zur "Computerkolonie".