Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

11.07.1997 - 

Thema der Woche

Intel pfeift, und die PC-Industrie steht stramm

Die Rolle des amerikanischen Unternehmens mit Sitz in Santa Clara hat sich in den vergangenen fünfzehn Jahren dramatisch verändert: Die Firma, die bis Mitte der 80er Jahre Speicherchips entwarf und verkaufte, entwickelte sich zu einem Konzern, der Computertechnologie en gros und en detail anbietet. Heute geben die Kalifornier die Plattformstandards für die gesamte PC-Branche vor.

Neben seinen Prozessoren entwickelt Intel mittlerweile alle Komponenten um die eigentlichen CPUs herum: die Busstandards, die I/O-Normen, die Chipsets und die Systemplatinen. Alles, was einen PC ausmacht, entsteht in den Denkfabriken der Company von Andy Grove.

Intel profitiert vom Machtvakuum

Ohne dieses Phänomen ist der Zustand der heutigen PC-Industrie nicht zu verstehen. Seit nämlich die IBM in den 80er Jahren die Dominanz über diesen Markt verlor, hat es nie mehr einen PC-Hersteller gegeben, der mindestens 15 Prozent des Marktes auf sich vereinen konnte. Somit gab es auch keinen Kandidaten, der aus eigener Kraft industrieweit gültige Standards durchsetzen konnte. Dieses Vakuum hat Intel gefüllt, argumentiert Michael Slater.

Der Analyst Slater ist Gründer des US-Marktforschungs- und Beratungsinstituts Microdesign Resources (MDR), bei dem auch der anerkannte Branchen-Newsletter "Microprocessor Report" erscheint. MDR hatte im Mai ein PC-Tech-Forum über die Zukunft der PC-Industrie mit Blick auf die dominierenden Kräfte dieses Marktes abgehalten. Es wurde unausweichlich ein Kolloquium über die Zukunft des Branchenprimus Intel und seiner Mitbewerber.

Der extreme Wettbewerb in dem stark fragmentierten PC-Markt führte dazu, so Slater, daß die Profitmargen für alle PC-Hersteller auf ein Niveau gefallen sind, das aufwendige Forschungs- und Entwicklungsarbeiten nicht mehr erlaubt. Aus dem lange Jahre führerlosen PC-Markt konnte sich neben Microsoft nur noch Intel als Technologielieferant herauskristallisieren.

Die Manager um Grove haben auf diese Marktveränderungen schon vor langem auch hausintern reagiert und die Geschäftseinheit "Intel Architecture Labs" kreiert. Von dieser Denkfabrik splittete sich das "Platform Architecture Lab" ab, in dem Hunderte von Ingenieuren nicht Produkte entwickeln, sondern sich der Grundlagenforschung widmen sollen. Hier überdenken Eggheads Anwendungsfelder für neuartige Technologienutzungen.

Oberstes Ziel dieser Kreativabteilungen bleibt allerdings, auch in Zukunft Nachfrage nach Intel-Prozessoren hervorzurufen. Slater kommentiert die Aufgabe der Hundertschaften von Ingenieuren ironisch mit den Worten, sie hätten Technologien zu entwerfen, die sicherstellen, daß immer der Prozessor der Engpaß des Gesamt-PC-Systems bleibe. Das Geschäftsmodell des Technologiemoguls basiert schließlich darauf, schnelle, aber eben auch teure CPUs zu entwickeln und zu vertreiben. Das Prozessorschwergewicht wird also immer dafür sorgen, daß die PC-Plattform als Ganzes leistungsfähiger wird: Das heißt, daß beispielsweise I/O-Bus-Systeme mehr Datendurchsatz bringen oder Cache-Speicher-Chips immer schneller werden. So generieren die Kalifornier automatisch auch eine stete Nachfrage nach immer leistungsfähigeren Prozessoren.

Die Grove-Company ist heute der dominante Lieferant von Chipsets, die ihren Prozessoren assistieren. Das Unternehmen gehört zudem zu den wesentlichen, wenn auch nicht absolut vorherrschenden Anbietern von Systemplatinen. Der Markt für diese Tätigkeitsfelder ist, sagt Slater, durch Intels Aktivitäten im wesentlichen vernichtet worden. Das sei zwar nicht das Ziel gewesen. Die nahtlose Integration seiner neuen Prozessorgenerationen in ein Gesamtsystem ließ es für den Technologiekonzern aber geboten scheinen, sich nicht mehr auf Drittanbieter zu verlassen. Heute kann es sich nur mehr eine Firma wie Intel leisten, Technologien wie den PCI- oder den Universal Serial Bus (USB) im Alleingang als Standard am Markt durchzusetzen.

Für PC-Anbieter, selbst solche wie die Schwergewichte Compaq, IBM, HP, Dell etc., hat diese De-facto-Gesetzmäßigkeit des Marktes fatale Folgen: Heute, argumentiert Slater, liefert Intel mit der Markteinführung neuer Prozessorgenerationen am gleichen Tag nicht nur an PC-Cracks wie Compaq, sondern auch "an Joes PC-Garage". Alle Käufer implementieren von Tag eins an die gleiche Technologie in ihren Systemen. Ergebnis: Die sogenannten First-tier-PC-Anbieter, die ersten Adressen in Sachen PCs also, können keine Höchstpreise mehr für ihre Systeme verlangen. Der Abstand zwischen den PC-Preisen von Marktgrößen und denen der kleinen Fische hat sich erheblich verringert.

Für PC-Benutzer ist diese Entwicklung günstig, weil die Rechner billiger wurden beziehungsweise bei extrem gewachsener Leistung gleich teuer blieben. Nachteil allerdings: In der Nahrungskette vom CPU- zum PC-Hersteller bis zum Anwender macht nur noch Intel den großen Reibach. Daraus folgt, daß kein anderes Unternehmen sich noch Forschung und Entwicklung (F&E) im großen Stil leisten kann. Folglich ist eine ganze Branche abhängig davon, was Intels Ideenküche auf den Tisch bringt. Weil der Chipkrösus aber die PC-Plattform-Entwicklung und -Infrastruktur so maßgeblich beeinflußt, hat es die Grove-Company auch in der Hand, zukünftige Vorgaben zu bestimmen.

Für die Konkurrenz sieht Slater trotzdem nicht ganz schwarz. Der Marktanteil der Wettbewerber im PC-Segment könne in den kommenden Jahren von heute zehn künftig auf 20, vielleicht sogar 30 Prozent steigen. Die Konkurrenz scheidet Slater dabei in diejenigen, die mit RISC-Prozessoren aufwarten, und solche, die mit x86-kompatiblen Architekturen in Intels ureigenem Terrain wildern.

Insbesondere in das x86-Lager ist in jüngerer Vergangenheit Bewegung gekommen. Zwar sind Texas Instruments und das taiwanische Unternehmen UMC nicht mehr im Rennen. Mit Advanced Micro Devices (AMD), Cyrix, der IBM mit Cyrix-Lizenzrechten und dem Newcomer Centaur Technology des Ex-IBMers und IBM-Fellow Glenn Henry sitzen hingegen vier mehr oder weniger aussichtsreiche Kandidaten in den Startlöchern. Mindestens drei weitere Prozessornovizen sollen mit der Rise Technology Co., der Transmeta Corp. und der Metaflow Technologies Inc. noch folgen.

AMD: Kronprinz unter den Intel-Schülern

AMD bleibt Slater zufolge die führende x86-Alternative. Das gilt, obwohl Cyrix in der jüngsten Vergangenheit an Boden gewinnen konnte. Seine Chips entwarf AMD, indem es im sogenannten Reverse-Engineering-Verfahren Intel-Technologie nachbildete. Mit der "K"-Linie der "K5"- und "K6"-CPUs hat sich AMD von diesem Vorgehen abgewandt. Vielmehr führen die K-Bausteine den Intel-Befehlssatz aus.

Dem aktuellen Topmodell aus AMDs Fabrikationsstätten, dem "K6", traut Slater eine "gute Wettbewerbsposition" zu. Da hatte sein Vorläufer, der "K5", erheblich mehr Anlaufprobleme. Mit ihm mußte AMD die bittere Erfahrung machen, daß Prozessorentwicklungen sehr viel schwieriger sind, als oft angenommen wird. Technologisch dem P6 von Intel zwar nicht unähnlich, brachte AMDs Hoffnungsträger nicht die erwartete Leistung.

Cyrix:Immer ein bißchen anders

Der K6 ist von seinem Design her völlig verschieden vom K5-Chip. Das ist nicht weiter verwunderlich, stammt sein Entwurf doch vom Nexgen-Entwicklungsteam. Diesen Prozessorhersteller, der zu Lebzeiten Unterstützung von so renommierten Firmen wie Compaq und IBM erfuhr, hatte AMD 1996 gekauft. Bezüglich der Integer-Rechenleistung entspricht der K6 ungefähr dem Pentium-Pro-Chip. Im Vergleich zu Intels neuestem Prozessor, dem Pentium II, dürfte der K6 bei gleicher Taktrate um zwei bis vier Prozentpunkte langsamer sein.

Anders als AMD hat Cyrix kein Reverse-Engineering betrieben, sondern lediglich darauf geachtet, daß der Instruktionensatz seiner Chips mit dem der Intel-Pendants übereinstimmt. Das Hauptprodukt von Cyrix ist momentan noch der "6x86"-Chip. Der entwickelte sich aber zunächst zum Rohrkrepierer. Cyrix war fälschlicherweise davon ausgegangen, es könne für eine mit Intel-Prozessoren leistungsmäßig vergleichbare CPU auch ähnliche Preise verlangen. Seit Cyrix die Preise für den "6x86"um ein Drittel zurücknahm, verkauft sich der Chip sehr gut.

Mit dem "M2" bringt Cyrix nun sein neues Top-Prozessormodell auf den Markt. Dazu stellte das seit dem Abgang von CEO Jerry Rogers im Dezember 1996 führerlose Unternehmen einen Low-end-Chip, den "Media GX", vor.

Dieser Chip ist momentan nach Slaters Einschätzung die billigste Möglichkeit, einen PC zu bauen. Allerdings ist er nicht besonders schnell, er unterstützt auch nicht den Universal Serial Bus (USB), sein Grafik-Controller bietet "nicht einmal die rudimentärsten Video- und 3D-Beschleuniger". Die IBM Microelectronics produziert sowohl den 6x86- als auch den M2-Chip und verkauft sie unter dem eigenen Namen. Den Media-GX-Prozessor fertigt die IBM zwar auch, vertreibt ihn aber nicht. Die Beziehungen zu SGS-Thomson und Texas Instruments als Prozessorproduzenten sind hingegen nicht mehr aktiv.

RISC: Wenig Software, schlechter Verkauf

Spricht Slater von RISC, dann redet er vornehmlich vom Risiko. Grundsätzlich lasse sich nämlich für den PC-Markt die Formel aufstellen: Wer einen Rechner kauft, in dem kein x86-kompatibler Prozessor arbeitet, der setzt sich immer einer gewissen Gefahr aus.

Gegen RISC-Anbieter spricht, daß ihre verkauften Stückzahlen zu niedrig sind, um mit einem an der Intel-Szene ausgerichteten Preisniveau aufwarten zu können. Das Killerargument gegen RISC-Architekturen ist aber nach wie vor die vergleichsweise geringe Anzahl von nativer, also für die jeweilige RISC-Plattform geschriebener Applikationssoftware.

Ein weiterer Sachverhalt behindert die RISC-Anbieter: Um preisgünstigere Systeme bauen zu können, verlegten sich die Hersteller auf die Strategie, in ihren RISC-Rechnern Standard-PC-Komponenten zu nutzen. Prompt sank die Leistung des Gesamtsystems, die nämlich nicht nur von den potenten Prozessoren, sondern auch von den eingesetzten Spezialkomponenten wie Speicher oder Festplatten herrührte.

Slater argumentiert weiter: Es heiße immer wieder, Independent Software Vendors (ISVs) müßten ihre Applikationen ja "nur" auf bestimmte RISC-Plattformen rekompilieren. Die Leistungsvorteile einer Architektur könne man jedoch nur dann voll ausschöpfen, wenn man an den Applikationen nachträglich feile. Das dauert lange. Ärgerlicherweise würden RISC-Software-Anbieter dabei oft noch nicht einmal die besten Compiler benutzen.

Rechnet man alle diese Faktoren zusammen, so bleibt vom Geschwindigkeitsvorteil eines im Vergleich zu einer Intel-CPU 50 bis 100 Prozent schnelleren RISC-Chips nicht mehr viel übrig.

Aus diesem Grund sieht Slater in den RISC-Anbietern kaum noch eine Gefahr für Intel. Einzig DEC habe im High-end-Server-Segment unter NT mit seinen anerkannt leistungsstärksten Prozessoren der Industrie noch gute Chancen. Hilfreich hierbei ist, daß DECs Alpha-Chips mittlerweile die einzige von Microsoft unterstützte NT-Plattform auf RISC-Basis sind. Zudem hat DEC, was sonst noch keiner bieten kann: eine 64-Bit-Architektur. Mips reklamiert dies für seine "R10000"-CPUs zwar auch. Hierbei handelt es sich aber, so der Experte, lediglich um 64-Bit-Erweiterungen auf Basis einer 32-Bit-Architektur.

Mit seinen "21164"-Chips, die mittlerweile bei einer Taktrate von 600 Megahertz angelangt sind, bietet DEC nicht nur die mit Abstand schnellste CPU auf NT an. Mit 9,3 Millionen Transistoren ist der aktuelle Alpha-Prozessor auch der komplexeste Baustein, der momentan hergestellt wird, abgesehen von Spezialchips.

Darüber hinaus stellte das Unternehmen mit dem "21164PC" einen sehr interessanten Prozessor vor. Mit diesem ist es DEC gelungen, sagt Slater, einen leistungsfähigen Alpha-Chip zu entwickeln, der aber trotzdem nicht so teuer ist wie gemeinhin die DEC-Prozessoren. Im wesentlichen eliminierte DEC den auf dem Prozessor untergebrachten Sekundär-Cache-Speicher. Dieser Chip könnte, glaubt Slater, DECs Trumpf sein, um den NT-Markt und das PC-Segment anzugehen.

Power-PC: Abhängig von Apples Schicksal

Was einmal als aussichtsreichster Wettbewerber für Intel im NT-Umfeld gestartet war, erklärt Slater, ist mittlerweile zum Macintosh-Chip "verkommen". Richtig sei zwar, daß die Gemeinschaftsproduktion von IBM und Motorola der mit Abstand am häufigsten verkaufte RISC-Chip sei. Dieser Erfolg verdanke sich aber fast ausschließlich dem Absatz von Apple-Systemen und damit einer Firma mit einer nicht kalkulierbaren Zukunft.

Leistungsmäßig stellt der Power-PC-Baustein im Vergleich zu Intels Chips zudem keine attraktive Option dar. Wenn schon eine Alternative gesucht werde, dann sei Alpha eindeutig die erste Wahl. Am interessantesten von allen Power-PC-Derivaten ist der im Februar vorgestellte Baustein mit dem Codenamen "Arthur". Mit einer Fläche von 67 Quadratmillimetern in 0,25-Mikrometer-Technologie könnte dieser Chip der Spitzenreiter in Sachen Preis-Leistungs-Verhältnis werden.

IA-64: Fear, Uncertainty and Doubt

All diese Argumente könnten aber um die Jahrhundertwende Makulatur sein. Für 1999 rechnet Slater nämlich mit der Markteinführung der IA-64-Architektur von Intel und HP, die leistungsmäßig dem Alpha-Chip ähnlich sein dürfte.

Im Vorfeld dieses computertechnisch historischen Ereignisses leistet Intel, so Slater, wirksame Arbeit, indem sich die Grove-Company den FUD-Faktor zu eigen macht. Fear, Uncertainty and Doubt - Angst, Unsicherheit und Zweifel unter die Anwenderschar zu streuen war eine Taktik, die auch die IBM in früheren Jahren bis zur Perfektion betrieb. Intel, sagt Slater, entpuppt sich da als guter Schüler und verspricht schon heute Rechenpotentiale, die die noch bestehenden Leistungsdefizite zwischen Intel- und DEC-Prozessoren ausgleichen werden.

Doch selbst für Intel dürfte die IA-64-Architektur eine Herausforderung sein, glaubt Slater, weshalb die Grove-Company ihr Unternehmensschicksal nicht allein an die IA-64-Architektur knüpfen wird. Vielmehr könne man davon ausgehen, daß die Kalifornier parallel zu Merced auch weiterhin die Linie der x86-Prozessoren entwickeln und produzieren.

Natürlich gilt auch für die IA-64-Prozessoren, was für Alpha oder andere RISC-Plattformen wahr ist: Die Software-Entwickler werden ihre Anwendungen rekompilieren müssen, um die Ressourcen des ersten 64-Bit-Prozessors von Intel und HP nicht zu verschleudern. Ringt sich ein Anwender aber zu der Entscheidung durch, seine Applikationen zu rekompilieren, dann könne er genausogut heute schon auf die Alpha-Architektur umsteigen.

Gleichermaßen unerfreulich für Anwender wie PC-Hersteller ist die drohende neuerliche Abhängigkeit von dem Chipmoloch. Der IA-64-Prozessor wird wohl nur von Intel produziert werden. Mit Merced, referiert Slater deshalb, würde also eine mühsam sich anbahnende Entwicklung am PC-Markt zumindest teilweise wieder revidiert: Kaum beginnen sich diverse x86-Alternativen zu etablieren, "da kommt Intel und sagt, bitte setz dein ganzes DV-Schicksal wieder auf eine einzige Architektur von einem einzigen Hersteller".