Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Thema der Woche


25.02.2000 - 

Windows 2000 betritt das RZ durch die Hintertür

Ursprünglich als weiterer Schritt in der Evolution des PC-Betriebssystems geplant, findet sich das stark verspätete Windows 2000 in einer grundlegend veränderten IT-Umwelt wieder. Das Internet bringt nicht nur neue IT-Nutzungsmodelle wie mietbare Anwendungen hervor, sondern bereitet auch den Boden für freie Software. Unklar ist, welchen Platz Windows 2000 da einnehmen kann.

Wenn es um die Positionierung von Windows 2000 geht, zeigt sich Microsoft wie immer flexibel und zuversichtlich. Der NT-Nachfolger ist auch für Notebooks sowie Desktop-Rechner vorgesehen und umfasst mittlerweile auch die Direct-X-Schnittstellen für Spiele- und Multimedia-Programme. Auf der anderen Seite warf CEO Steve Ballmer dem Unix-Spezialisten Sun den Fehdehandschuh hin und will ihm mit Windows 2000 bei Servern im oberen Leistungssegment Anteile streitig machen.

Diese markige Geste ist typisch für das Auftreten des Gates-Nachfolgers, der damit sein Revier im Wachstumsmarkt der Internet- (ISPs) und Application-Service-Provider (ASPs) abstecken möchte. Ihm dürfte freilich klar sein, dass auch Windows 2000 die großen Umsätze vorerst nicht in der Oberliga, sondern im angestammten Geschäft der Clients und im unteren Server-Segment erzielen wird. Bei letzterem hat Microsoft in den vergangenen Jahren erhebliche Marktanteile errungen, besonders auf Kosten von Novell. In vielen Fällen folgten Firmen damit der Expansion Microsofts vom Desktop zu Abteilungs-Servern. Unternehmen wuchsen auf diese Weise beim Client-Server-Computing allmählich mit den neuen Funktionen der Windows-Updates und der gestiegenen PC-Leistung mit. Dieser Prozess fand auch bei den Mitarbeitern in der PC-Administration ihren Niederschlag. Diese sind häufig Quereinsteiger, die über die Beschäftigung mit Desktop-PCs und Microsofts Zertifizierungsprogrammen zur Systemverwaltung kamen. In diesem Umfeld herrscht im Allgemeinen eine große Loyalität gegenüber dem Microsoft-System. Gleichzeitig leiden Anwender dort unter den Defiziten des mit zu vielen Versprechungen angepriesenen Windows NT.

Es ist deshalb immer wieder erstaunlich zu beobachten, wie auf einschlägigen Microsoft-Konferenzen Administratoren und Programmierer ihre Hoffnungen auf die nächste Version einer Software aus Redmond setzen. Die häufig geäußerte Zufriedenheit über ein neues, aber schon lange erwartetes Feature ist nicht selten Folge fehlender Vergleichsmöglichkeiten. Den im PC- und Microsoft-Dunstkreis heimischen IT-Profis ist oft nicht bewusst, dass andere Systeme bestimmte Funktionen schon seit Jahren besitzen, wenn Microsoft diese erst ankündigt.

So lassen sich nun Prozesse unter einer anderen als der aktuellen Benutzer-ID starten, so dass der Systemverwalter nicht ständig unter der Kennung des Super-Users arbeiten muss, nur um gelegentlich administrative Aufgaben wahrnehmen zu können. Die standardmäßig in den Windows-2000-Server integrierten Terminal-Dienste verbessern die Möglichkeit der Fernwartung, wenn auch nur von Windows-Clients aus. Insgesamt soll die Zahl der notwendigen Neustarts reduziert werden, beispielsweise entfällt der Reboot nach der Änderung der IP-Adresse. Auf File-Servern lässt sich mittels Disk-Quota der Plattenplatz pro Benutzer limitieren, so dass einzelne undisziplinierte Mitarbeiter nicht den gesamten Speicher belegen können. Job-Objekte sollen verhindern helfen, dass sich eine Anwendung die gesamte CPU-Rechenleistung unter den Nagel reißt. Von anderen Rechnern exportierte Dateisysteme lassen sich dank Distributed File System (DFS) unter Windows 2000 in den lokalen Verzeichnisbaum einhängen.

Man kann natürlich leicht über den Nachholbedarf von Windows spotten. Die genannten Features allein sind aber kombiniert mit der versprochenen höheren Stabilität des NT-Nachfolgers für viele Firmen Grund genug für das Update. Schließlich zeigt NT bei einigen Installationen mit schöner Regelmäßigkeit den berüchtigten "Blue Screen of Death". Das Aufspielen von Windows 2000 erzeugt dann die Hoffnung auf ein Ende der mysteriösen Abstürze - immer vorausgesetzt, dass das neue OS mit den eingesetzten Applikationen kompatibel ist. Nach Einschätzung der Gartner Group wird das bei bis zu 25 Prozent der bestehenden Programme nicht der Fall sein.

Hohe Erwartungen setzen viele Anwender sicher auch in die neuen Management-Funktionen von Windows 2000, weil die Wartung der Clients bisher mit hohem Aufwand zu Buche schlägt. So besitzt das neue OS einen einheitlichen Installationsmechanismus, der Programme benutzerabhängig auf Basis unterschiedlicher Konfigurationen automatisch einrichtet und beschädigte oder gelöschte Anwendungsteile von selbst nachinstalliert ("Auto Healing"). Der Replikationsmechanismus "Intellimirror" ist in der Lage, nach dem Wechsel eines Arbeitsplatzrechners, beispielsweise nach einem Hardwaredefekt, die zuletzt genutzte Installation inklusive Benutzerdaten wieder herzustellen. Sogenannnte Policies erlauben in Zusammenarbeit mit dem Active Directory eine wesentlich feiner abgestufte Rechtevergabe.

Die genannten Verbesserungen bleiben im Rahmen der PC-Evolution und lassen es beispielsweise zu, dass der File-Server für die Marketing-Abteilung oder der Notes-Server für eine Niederlassung auf Windows 2000 umgestellt werden. Hingegen führt beim erweiterten Desktop-Management die Gewohnheit, einfach mit den Fortschritten der Microsoft-Technologie mitzuwachsen und damit aktuelle Defizite zu überwinden, unter der Hand zu weitreichenden Festlegungen. Gemeint ist damit nicht nur, dass sich der erwartete Nutzen erst dann einstellt, wenn Clients als auch Server auf das neue OS umgestellt und Anwendungen auf Windows-2000-konforme Versionen aktualisiert werden (nicht zu reden von der Anschaffung neuer Hardware). Vielmehr fällt damit die Entscheidung für eine Fortführung des Desktop-Computing, das aber durch das Internet-Modell gleich auf zweifache Weise in Frage gestellt wird.

Der Web-Browser am Client läuft Windows den Rang ab

Bereits jetzt lässt sich behaupten, dass der Erfolg des Internet die Kontrolle der Gates-Company über die Plattform gebrochen hat. Neue Software basiert immer häufiger auf offenen Internet-Standards und nicht mehr auf proprietären APIs. Dieser Trend schlägt sich auch in der steigenden Bedeutung des Browsers nieder. Die Gartner Group prognostizierte anhand einer Umfrage, dass das Web-Frontend bis zum Jahr 2001 Windows als primäre Zielplattform bei Client-Anwendungen überflügeln wird. Demnach gaben 43 Prozent der Unternehmen an, dass für sie im Jahr 2000 noch Windows das vorherrschende Client-System sein wird, 39 Prozent nannten in diesem Zusammenhang aber schon den Web-Browser.

Treibende Kraft dafür ist nicht nur die Tatsache, dass Web-Anwendungen kein Client-Management benötigen, wie es Microsoft nun mit Windows 2000 anbietet. Sie sind Server-basiert, wobei die Benutzer-Schnittstelle in Form von HTML-Seiten oder Java-Applets bei Eingabe einer URL auf den Client heruntergeladen wird. Die meisten Aufgaben übernehmen im Rahmen der mehrstufigen Web-Architektur ohnehin die Server. Fast wichtiger noch als der Wegfall von Wartungsaufwand ist die Perspektive, die derartige Software Unternehmen im Rahmen des E-Business eröffnet. Sie lässt sich nicht nur hinter den Firmenmauern im Internet nutzen, sondern ohne große Änderungen via Internet gegenüber Lieferanten oder Kunden öffnen. Automatisch installierbare Desktop-Anwendungen sind in diesem Zusammenhang dagegen von geringem Nutzen.

Der zweite durch das Internet in Gang gesetzte Trend stellt nicht nur in Frage, ob Anwendungen auf den Desktops vorgehalten werden sollen, sondern auch, ob firmeninterne Server der richtige Ort dafür sind. Obwohl sie momentan noch keine besondere Rolle spielen, werden Application-Service-Provider (ASPs) in absehbarer Zeit viele Leistungen übernehmen, die heute noch Aufgabe der IT-Abteilungen sind und oft auf Basis von PC-Servern realisiert werden. Schon heute müssen Firmen überlegen, ob sie eine E-Mail nicht besser und preiswerter als Dienst über das Internet beziehen können, anstatt dafür eine eigene Infrastruktur aufzubauen. Ähnliches gilt auch schon für Groupware-Funktionen wie Diskussionsforen (wie ein solches Angebot aussehen kann, demonstriert Lotus unter http://www.quickplace.com). Entsprechende Ambitionen verfolgt Sun nach der Übernahme von Star Office nun auch für Büroanwendungen, ERP-Anbieter wie SAP bringen die Funktionalität ihrer betriebswirtschaftlichen Software über Business-Portale wie Mysap.com ins Netz. Unter dem Eindruck solcher Entwicklungen wird auch klar, warum Steve Ballmer Windows 2000 für ASPs positionieren will. Sie drohen mittelfristig die Nachfrage nach PC-Servern zu dämpfen und repräsentieren einen wesentlichen Zukunftsmarkt. Allerdings muss Microsoft mit dem NT-Nachfolger erst beweisen, dass sein Betriebssystem derart anspruchsvollen Aufgaben gewachsen ist.

Der Softwareriese aus Redmond reklamiert deshalb für sein neues OS nicht nur bessere Skalierbarkeit und Verfügbarkeit, sondern hat es zudem mit zahlreichen Funktionen auf das Internet ausgerichtet. Diese führen allerdings beim firmeninternen Einsatz dazu, dass Windows-PCs unversehens die Grenzen ihrer angestammten Anwendungen überschreiten.

Der Vorstoß zu neuen Aufgaben erfolgt unter Umständen wieder dann, wenn Unternehmen nur bestimmten Einschränkungen von Windows entwachsen wollen und dabei Microsofts Update-Pfad folgen. Als bestes Beispiel dafür dient das schlecht skalierbare, flache NT-Domänenkonzept. Während dieses außerhalb der PC-Sphäre bisher niemanden interessierte, weil damit nur Ressourcen auf Windows-Rechnern verwaltet wurden, folgt das hierarchisch aufgebaute Active Directory (siehe auch Seite 57) nun dem Namensschema des Domain Name Service (DNS) und übernimmt gleichzeitig diesen Dienst. Mit der zunehmenden Umstellung von Firmennetzen auf TCP/IP wird der aber immer mehr zu einem kritischen Faktor. Hinzu kommt, dass DNS der Unix-Welt entstammt und Windows-Administratoren traditionell wenig Kenntnisse in diesem Zusammenhang aufweisen können.

Anhand des Active Directory zeigt sich, dass der von Microsoft gewünschte Aufstieg von Windows innerhalb der Unternehmens-DV auch weitreichende organisatorische Konsequenzen hat. Die Kultur und der Arbeitsstil der PC-Abteilung, wo die Kenntnisse über andere Systeme rar und der unbekümmerte Doppelklick auf "Setup.exe" weit verbreitet sind, wird nun mit strategischer Planung und systemübergreifender Konzeption konfrontiert. Die Antwort vieler Unternehmen wird in massiven Schulungsprogrammen bestehen. Die Zahl der von Microsoft angebotenen Kurse für Windows 2000 (http://www.microsoft.com/train_cert/winmoc/win2000_data.htm) spiegelt konsequent die Komplexität des NT-Nachfolgers wider. Damit wird auch zunehmend ein häufig vorgebrachtes Argument hinfällig, wonach neben den angeblich geringeren Hard- und Softwarekosten auch die im Vergleich zu Unix-Profis niedrigeren Gehälter von Windows-Administratoren für Wintel-Server sprechen. Trotz erhöhten Trainingsaufwands werden aber viele IT-Abteilungen gerade für die Planung des Verzeichnisdienstes auf die Hilfe von externen Beratern angewiesen sein. Es stellt sich allerdings die Frage, wieviel Erfahrung die meist aus dem PC-Umfeld stammenden Microsoft-Business-Partner in puncto unternehmensweitem Directory vorweisen können - und das bei einem Produkt, das seine Praxistauglichkeit erst selbst unter Beweis stellen muss.

Das Active Directory (AD) spielt überhaupt eine zentrale Rolle beim Bemühen Microsofts, Windows-Technologien möglichst tief in die Infrastruktur von Unternehmen einzugraben. Der Hersteller aus Redmond zielt daher konsequent darauf ab, dass für Anwender kein Weg daran vorbeiführt. Viele der wesentlichen Neuerungen setzen es ebenso zwingend voraus wie zukünftige Versionen der hauseigenen Back-Office-Programme. Wichtig für derartige Enterprise-Funktionen sind neben Stabilität und Skalierbarkeit vor allem auch Interoperabilität mit anderen Systemen. Allerdings berichtete die CW-Schwesterpublikation "NetworkWorld" (http://www.nwfusion.com/archive/1999/75257_09-13-1999.html) bereits vor einigen Monaten, dass Microsofts Implementierung des Authentifizierungsverfahrens Kerberos vom Standard der Internet Engineering Task Force (IETF) abweicht. Deshalb können sich Benutzer mit Tickets, die von anderen Key Distribution Centers (KDC) ausgestellt wurden, an Windows 2000 nicht anmelden - und umgekehrt. Aufgeschreckt durch solche Veröffentlichungen, will Microsoft nun in Kooperation mit Partnern dieses Defizit beheben. Auch die mit dem AD mitgelieferten Tools haben Einbahncharakter und sind darauf ausgelegt, fremde Verzeichnisse auf das eigene zu migrieren. Für bidirektionale Replikation sind Produkte von Drittanbietern nötig.

Der hermetische Charakter von Windows 2000 zeigt sich nicht nur am mehr oder weniger unvermeidlichen AD. Zahlreiche proprietäre Technologien sind fest mit dem System verschweißt und werden beim Setup zwangsinstalliert. Allen voran zählt dazu das Komponentenmodell COM+, das nun auch die Dienste des Microsoft Transaction Server und der Message Queue Services (MS MQ) umfasst sowie zu automatischer Lastenverteilung über bis zu acht Server in der Lage ist. Die Gates-Company rechtfertigt den erheblichen Preisanstieg von Windows 2000 im Vergleich zu NT mit der größeren Funktionsfülle. Dazu zählen eben auch solche Dreingaben wie COM+, das mit dem offenen Komponentenstandard Corba in Konkurrenz steht. Dieser erfreut sich zusammen mit Java steigender Beliebtheit, besonders in heterogenen Umgebungen wie dem Internet. Anwender, die dem Trend zu Java und Corba folgen, müssen unter Windows 2000 die dafür nötige Infrastruktur (Object Request Broker, Web Application Server mit Unterstützung für Enterprise Javabeans) extra bezahlen, nachdem sie bereits für Microsofts proprietäre Technik zur Kasse gebeten wurden. Bei Java hat der NT-Nachfolger außer einer veralteten Virtual Machine (JVM) nichts anzubieten, selbst eine Servlet-Engine für den Internet Information Server (IIS) müssen Anwender aus anderer Quelle nachrüsten.

Mit dieser Politik versucht Microsoft, auch bei der Anwendungsentwicklung durch eine "Invasion von unten" den Weg in die Rechenzentren zu finden. Die reichhaltige Infrastruktur soll besonders die Nutzer der hauseigenen Programmierwerkzeuge dazu veranlassen, mehrstufige und Internet-fähige Anwendungen auf Basis proprietärer Windows-Technologien zu entwickeln. Ein entsprechend großes Angebot an attraktiven Applikationen würde viele Firmen von der Notwendigkeit überzeugen, Wintel-Server anzuschaffen. Besondere Bedeutung kommt dabei der großen Visual-Basic-(VB-)Gemeinde zu. Von C- oder C++-Programmierern oft als Spielzeug verlacht, ist dieses Tool mit den Möglichkeiten von Windows mitgewachsen und kann in der aktuellen Version transaktionsfeste Business-Komponenten erzeugen.

Preisargument spricht für Open Source

Mit der engen Verzahnung proprietärer Technologien steht Microsoft der viel beachteten Open-Source-Bewegung gegenüber. Deren Aushängeschild ist der freie Unix-Abkömmling Linux, der Windows im Markt für Abteilungs-Server immer stärker Konkurrenz macht. Ein wesentlicher Grund dafür ist natürlich der unschlagbar günstige Preis freier Software. Außerdem braucht das Pinguin-System bei Stabilität und Verlässlichkeit den Vergleich mit NT nicht zu scheuen. Mit Windows 2000 kann Microsoft zwar dank besserer Unterstützung von symmetrischem Multiprocessing (SMP) und größerer Funktionsfülle vorübergehend einige Pluspunkte für sich reklamieren. Die Herausforderung für den Softwaregiganten durch Open Source besteht aber nicht nur darin, wie er in der Konkurrenz mit einem bestimmten quelloffenen Produkt abschneidet.

Das freie Modell produziert vielmehr einen riesigen, allgemein zugänglichen Technologie-Pool, aus dem sich Anwender wie Dienstleister ungehindert bedienen können. Betroffen davon ist vor allem infrastrukturnahe oder Commodity-Software wie Betriebssysteme oder Datenbanken. Damit sinkt nicht nur die Bereitschaft, für derart fundamentale Dienste hohe Lizenzgebühren zu bezahlen. Die mit diesem Modell einhergehende Transparenz setzt auch Maßstäbe für die zukünftige Beziehung zwischen Herstellern und Anwendern. Dies gilt besonders bei Software, die hohen Sicherheitsstandards entsprechen muss, beispielsweise im E-Commerce. Da wird frei einsehbarer Quellcode, der von Tausenden immer wieder geprüft wurde, mehr Vertrauen erwecken als die Beteuerungen eines Herstellers, der bei obskuren Praktiken ertappt wurde. So sah sich Microsoft im letzten Jahr mit der Anschuldigung konfrontiert, für die in Windows 2000 eingebaute Verschlüsselungssoftware der amerikanischen National Security Agency (NSA) ein Hintertürchen geöffnet zu haben (eine Datei mit einem entsprechenden Namen gab den Anlass für diese Verdächtigung).

Mit Microsoft weg vom Mainstream?

Die Gates-Company stellte dies zwar in Abrede, Anwendern bleibt aber nicht viel anderes übrig, als ihr ungeprüft zu glauben. Das Geschäftsmodell und die Marktmacht Microsofts beruhen nämlich auf der Verbreitung und Durchsetzung binärer Strukturen. Dazu passt die aktuelle Diskussion um das integrierte Defragmentierprogramm einer Scientology-Firma ebenso wie der kürzlich erschienene Bericht einer amerikanischen Fachpublikation (http://www.zdnet.com/sr/stories/news/0,4538,2436920,00.html), wonach Windows 2000 trotz 63000 bekannter Fehler ausgeliefert werde. Die Autorin beruft sich dabei auf ein internes Memo eines Microsoft-Managers, das die PR-Abteilung des Softwareriesen aber ganz anders interpretiert wissen will.

Insgesamt stellt Windows 2000 in vielen Umgebungen eine sinnvolle Investition dar, insbesondere am Server. Microsoft rüstet mit dieser Version viele Funktionen nach, die andere Systeme schon länger kennen. Bessere Stabilität und Skalierbarkeit könnten zudem viele Probleme beseitigen, die Anwender derzeit mit NT erleben. In diesem Rahmen handelt es sich um taktische Implementierungen. Allerdings setzt Microsoft alles daran, mit Windows 2000 die Grenzen bisheriger PC-Nutzung zu sprengen. Die oft nur schwer vermeidbare Anwendung bestimmter neuer Features führt unter der Hand zu strategischen Festlegungen. Eine tiefere Verankerung seiner Technologie in der DV-Infrastruktur soll Bill Gates endgültig die Tür zum Rechenzentrum öffnen. Damit begleiten Unternehmen Microsoft auf einen Weg, der zunehmend von den großen IT-Trends abweicht. Wolfgang Sommergut

Abb: Microsoft dürfte das enorme Wachstum von Linux ernsthafte Sorgen bereiten: Bei den Marktanteilen der Server-Betriebssysteme hat sich das Pinguin-OS auf Platz zwei hinter Windows NT hochgearbeitet. Das etablierte Unix-Lager entwickelt sich dagegen eher rückläufig. Quelle: IDC