Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

04.07.2005

Der lange Weg zum Windows-Monopol

Im August feiert Microsoft den 20. Geburtstag des Betriebssystems - doch nicht alle feiern mit.

Spöttern fiele es leicht, zumindest einen Zusammenhang zwischen Windows 1.0 und dem für 2006 angekündigten Longhorn herzustellen: Wie sein Urahn hat sich auch der jüngste Spross stark verspätet und bleibt in seinen Fähigkeiten deutlich hinter Microsofts Versprechen zurück. Mit einer schlitzohrigen Ankündigungspolitik gelang es Bill Gates immer wieder, Konkurrenten auszutricksen und sich gegen Wettbewerber durchzusetzen, die schon marktreife Produkte oder zumindest einen Entwicklungsvorsprung vorweisen konnten. Microsoft nutzte seine Macht und kämpfte mit harten Bandagen. Die Folge waren zwei kartellrechtliche Verfahren, die aber beide glimpflich für das Unternehmen endeten.

Der Netzwerkeffekt

Microsofts Monopol könnte man als Ergebnis eines Netzwerkeffekts betrachten. Mit steigender Zahl der Anwender interessierten sich auch die Hardwarehersteller für Windows, was das System wiederum für die Nutzer attraktiver machte. Die Netzwerkeffekte beschleunigen dann den Trend zu einem Monopol, wenn keine Standards existieren, auf deren Grundlage Konkurrenzprodukte entstehen könnten. Während das Design des IBM-PC offen gelegt wurde und daher andere Firmen damit kompatible Rechner bauen konnten, befanden sich die Programmierschnittstellen (APIs) von DOS und Windows unter der völligen Kontrolle von Microsoft. Softwareentwickler sind natürlich daran interessiert, mit ihren Programmen eine möglichst große Käuferschicht zu erreichen. Aufgrund der inkompatiblen Programmiermodelle ist der Aufwand für die parallele Unterstützung mehrerer Betriebssysteme sehr hoch, so dass die allermeisten Softwarehäuser jene Plattform vorziehen, die am meisten Anwender hat.

Microsoft übertrug seine mit MS-DOS errungene Vormachtstellung geschickt auf die neue Welt der grafischen Benutzeroberflächen (GUIs). Mit zunehmender Popularität von Windows wachte das Unternehmen eifersüchtig über die APIs seines Fenstersystems. Wenn Wettbewerber wie IBM ihre Systeme mit Windows kompatibel machen wollten, reagierte Redmond mit kurzfristigen Veränderungen.

Abgeblockte Konkurrenz

So galt als das wesentlichste Feature von Windows 3.11, dass es sich nicht mit der Windows-Unterstützung von OS/2 ("Win-OS/2") vertrug. Ein Weiteres tat die unvollständige Dokumentation der Windows-APIs. Sie verschaffte nicht nur den hauseigenen Anwendungsentwicklern einen Vorsprung gegenüber der Konkurrenz, sondern beugte auch rivalisierenden Implementierungen vor.

Diese Logik des Softwaremarkts, kombiniert mit Microsofts resoluten Geschäftspraktiken, führte in wenigen Jahren zu einer unangreifbaren Vormachtstellung der Redmonder. Da halfen auch keine technischen Vorteile oder die größere Benutzerfreundlichkeit anderer Systeme. Und die konnten Apple oder IBM mühelos belegen. Deshalb galt Windows in den ersten Jahren seines Erfolgs allen Marktskeptikern als Musterbeispiel dafür, dass sich Qualität keineswegs von selbst durchsetzt. Die legendäre Instabilität von Windows 3.x und die rückständige Benutzeroberfläche, dazu die Altlasten von MS-DOS wie kurze Dateinamen oder die Notwendigkeit von Memory-Managern - sie boten reichlich Stoff für Ärger und Häme (http://www.deanliou. com/WinRG/WinRG.htm).

Chance für die Softwareindustrie

Auch wenn das Monopol von Microsoft zu den üblichen unangenehmen Effekten führte (gebremste Innovation, überhöhte Preise, unfaire Ausschaltung von Konkurrenz), so nutzte es insgesamt der Entstehung einer eigenständigen Softwareindustrie. Natürlich ließe sich einwenden, dass Bill Gates mit Hilfe seiner Windows-Dominanz auch bei den Anwendungen großflächig abräumen konnte - dennoch bot Windows die Grundlage dafür, dass zahllose Softwarehäuser eine große Anwenderschaft erreichen konnten. Ein zersplitterter Markt hätte sich dafür als Hindernis erwiesen.

Mit Cairo zum Server

Zur Blütezeit der Client-Server-Ära Mitte der 90er Jahre hatte Microsoft die Computing-Plattform fest im Griff. Der typische Aufbau einer Anwendung bestand aus einem Fat Client, der den Großteil der Anwendungslogik enthielt, sowie einer SQL-Datenbank im Backend, die meistens auf einem Unix-Server lief. Microsofts Fahrplan sah zu jener Zeit vor, dass ein mächtiges Betriebssystem unter dem Codenamen "Cairo" den bisherigen Kurs fortsetzen und angesichts der katastrophalen Management-Fehler von Novell auch den Server-Markt aufrollen würde. Viele Analysten prognostizierten damals eine ungebremste Fortsetzung des Microsoft-Erfolgs. Doch 1995 trat eine Zäsur ein, die zu neuen Spielregeln im Softwaregeschäft führte: der kommerzielle Durchbruch des Web.

Web verändert Spielregeln

Er veränderte einige wesentliche Rahmenbedingungen, die für den Erfolg von Windows verantwortlich waren. Der Browser fungierte nun als Abstraktionsschicht gegenüber dem Windows-API und erlaubte die Entwicklung von plattformunabhängigen GUIs. Zudem bewirkte das Web ein eigenes Modell der Softwaredistribution, indem Programme in Web-Seiten eingebettet werden können. Auch die Open-Source-Revolution verdankt sich den Kooperationsmöglichkeiten, die das globale Netz verteilten Entwicklerteams bietet. Nicht zuletzt machte der Erfolg des Internets die meisten Windows-PCs zu Knoten eines öffentlichen Netzes und setzte sie damit neuartigen Sicherheitsrisiken aus.

Seit dem Beginn des zweiten Windows-Jahrzehnts drehen sich alle wesentlichen Aktivitäten von Microsoft um diese Herausforderungen. Dazu zählen die Abwehr plattformunabhängiger Web-Anwendungen durch proprietäre Erweiterungen von Standards, die Entwicklung neuer auf .NET basierender Smart Clients, verbesserte Softwareverteilung und -wartung in Windows-Umgebungen, der Kampf gegen freie Software und natürlich das permanente Abdichten von Sicherheitslecks.

Diese Ambitionen finden sich als treibende Kräfte hinter vielen großen Initiativen, die Redmond in den letzten Jahren gestartet hat. Dazu zählt insbesondere .NET, das ein Java-ähnliches Ausführungsmodell für Software etabliert.

.NET als Antwort

Die Ablaufumgebung kann anhand eines fein abgestuften Rechtesystems die Aktivitäten einer Software überwachen und Sicherheitsproblemen vorbeugen. Microsoft spricht in diesem Zusammenhang von "Managed Code". Mit .NET möchte Microsoft auch ein neues Client-Modell etablieren, das die Beschränkungen einer Web-Oberfläche überwindet, aber dank Distributionstechniken wie "Click Once" Software genauso einfach verteilen kann wie eine Web-Anwendung.

Durch die Konkurrenz mit Linux und Open Source veränderte Microsoft sein Plattformkonzept. Das Unternehmen setzt zwar seinen Kurs fort, durch die Integration immer neuer Funktionen in das Betriebssystem neue Märkte zu erobern. Gegen das Geschäftsmodell von freier Software, das sich auf Dienstleistungen rund um kostenlos verfügbare Technik stützt, richtet Microsoft aber zusätzlich sein Konzept integrierter Anwendungen. Windows ist dabei immer noch eine zentrale Komponente, das Ziel besteht indes darin, besonders am Server ein umfangreiches Produktportfolio anzubieten, dessen Bestandteile möglichst eng aufeinander abgestimmt sind. Das betrifft nicht nur die Bedienung, sondern auch das System-Management und die Softwareentwicklung. "Visual Studio" nimmt dabei die Rolle der universellen Programmierumgebung für die gesamte Microsoft-Welt ein.

Softwarevisionen

In der Dotcom-Phase fühlten sich viele Visionäre berufen, ein Bild von der zukünftigen Softwareindustrie in einer global vernetzten Welt zu zeichnen. Scott McNealy von Sun Microsystems tat sich immer wieder mit der Prognose hervor, dass Unternehmen IT-Leistungen quasi aus der Steckdose beziehen würden. Nicholas Carr machte sich erst kürzlich wieder für diesen Ansatz stark, nachdem er zuvor mit seiner These "IT doesn?t matter" in den Schlagzeilen war. Tatsächlich mehren sich die Zeichen, dass viele Funktionen, die bisher die unternehmenseigene IT erbrachte, als Commodity von einem externen Dienstleister bezogen werden können.

Technisch abgehängt?

Für Microsoft als Softwarelieferanten zeichnet sich damit eine weitere Herausforderung aus der Online-Welt ab. Angesichts von Update-Zyklen zwischen drei und fünf Jahren für Kernprodukte wie Windows fällt es dem Unternehmen schwer, mit der Innovationsgeschwindigkeit gehosteter Lösungen mitzuhal- ten. Dort erfolgen Updates laufend und stehen dem Kunden sofort zur Verfügung. Außerdem machen sich Web-basierende Dienste in verstärktem Maße die soziale Komponente des Netzes zu Eigen, indem sie den Input und das Wissen ihrer Benutzer zu einem neuen Wert kombinieren.

Unter diesem Aspekt wirkt Longhorn, wenn es voraussichtlich 2006 auf den Markt kommt, jetzt schon so veraltet wie seinerzeit Windows 95, mit dem Microsoft die Internet-Revolution verschlief. Als Beispiel dafür mag das Daten-Management gelten. Nach dem Aus für WinFS werden Longhorn-Anwender ihre Daten immer noch in hierarchischen Verzeichnissystemen organisieren wie in Zeiten von MS-DOS. Im Web hingegen bieten immer mehr Dienste die Möglichkeit, Informationen über selbst gewählte Metadaten flexibel zu beschreiben und zu organisieren. Häufig können Anwender dabei von der Tätigkeit anderer Nutzer profitieren, etwa bei Social Bookmarks. Die erst kürzlich angekündigte RSS-Infrastruktur für Longhorn folgt ebenfalls dem altbekannten Desktop-Muster, indem sie News-Feeds auf der lokalen Festplatte verwalten will. Online-Aggregatoren bieten im Gegensatz dazu nicht nur Unabhängigkeit von einem bestimmten Arbeitsplatzrechner, sondern wissen die sozialen Effekte des Mediums zu nutzen - und der Zugriff durch externe Programme erfolgt ganz einfach via HTTP und XML anstatt eines Windows-API-Aufrufs.