Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

06.06.2003 - 

System-Management/Ordnung im Softwarechaos schaffen

Komplexe Windows-Desktops managen

Windows-PCs in Unternehmen stellen eine enorme Herausforderung für die IT dar. Themen wie Softwareverteilung und -verwaltung sind mit speziellen Tools mittlerweile zwar beherrschbar, doch sollten dabei immer auch strategische Aspekte berücksichtigt werden.Von Wolfgang Miedl*

Seit jeher stand das PC-Konzept eigentlich im Widerspruch zu den IT-Bedürfnissen großer Unternehmen: Unterschiedliche Hardwarekonfigurationen, individuelle Softwareinstallationen sowie persönliche Desktop-Einstellungen, wie sie für Windows-Maschinen typisch sind, erfordern einen enormen administrativen Einsatz. Insbesondere in großen Unternehmen mit mehreren 10000 weltweit verteilten Windows-Clients ist das Management von Clients und die Verteilung der Software mit aufwändigen und kostspieligen IT-Projekten verbunden. Verschärft hat sich diese Situation durch die ständig komplexer werdende Windows-Technik.

Nach und nach hat Microsoft offenbar diese Lücken zur Kenntnis genommen und Lösungen bereitgestellt. So war es unter Windows NT 4.0 bereits möglich, vom Server aus Einstellungen für die im Netz angeschlossenen Benutzer und Computer vorzugeben. Windows 2000 bringt von Haus aus eine Vielzahl von Techniken für das Client-Management mit, so etwa eine richtlinienbasierende Kontrolle über Benutzereinstellungen, die Verteilung von Anwendungen oder selbst heilende Installationen auf Basis der MSI-Technik. Doch bis heute existieren Lücken: So kann beispielsweise Windows 2000 Server keine termingesteuerte Softwareinstallation am Client anstoßen, ebenso ist es nicht möglich, eine Verteilung rückgängig zu machen und den Client in den exakten Ursprungszustand zurückzusetzen. Nach Einschätzung der Meta Group reichen die gebotenen Features von Windows 2000 zwar durchaus für kleinere und mittlere Firmen aus, große Unternehmen kommen jedoch nicht um Management-Tools von Drittanbietern herum. Meta spricht dabei bezeichnenderweise von einer "symbiotischen Beziehung" zwischen dem Windows-Betriebssystem und derartigen Management-Tools.

Eine Reihe von Anbietern buhlt in diesem Markt um die Anwender. Typisch ist die Vielzahl an relativ kleinen Spezialanbietern wie etwa On Technology, Altiris, Netsupport, Matrix 42 oder Inosoft. Bisher ist es den großen Anbietern von Management-Suiten wie Novell, Computer Associates oder IBM/Tivoli nicht gelungen, im mittlerweile recht großen Client-Markt richtig Fuß zu fassen. Laut Meta Group weisen diese Unternehmen bisher große Schwächen in den Bereichen Funktionalität, Innovation, Plattformunterstützung sowie Support auf.

Das effiziente Management von Windows-Clients ist diffiziler, als sich das die Spezialisten aus dem Großrechner- und Server-Bereich offenbar bisher vorgestellt hatten. So zählt beispielsweise zu den Grundvoraussetzungen einer erfolgreichen Windows-Installation, dass keine Versionskonflikte bei Dynamic-Link-Library-(DLL-)Dateien bestehen und die richtigen Einträge in der Registrierdatenbank stehen. Gute Verteilungs-Tools zeichnen sich dadurch aus, dass sie jeden Installationsschritt überwachen und sauber rückgängig machen, überflüssige Dateien identifizieren und ältere Versionen korrekt aktualisieren können. Hinzu kommen Funktionen für die Verwaltung von Softwarepaketen sowie die Verteilung über lokale Netze oder auch auf weltweit verteilte Standorte. Entscheidend ist dabei stets ein fundiertes Wissen über die sich permanent ändernden Windows-Interna - nur so kann ein Tool etwa zerstörerische Fehlgriffe bei Installation oder Deinstallation vermeiden.

Der geklonte Rechner

Der wichtigste Prozess beim automatisierten Management von PC-Clients ist die Installation des Betriebssystems sowie der benötigten Anwendungen über das Netz. Als zentrale Technik hat sich dabei sehr früh das Klonen (Imaging) etabliert. Dabei wird von einem fertig konfigurierten PC mit speziellen Tools wie "Symantec Ghost" oder "Drive Image" ein Eins-zu-Eins-Abbild der Festplatte gezogen. Auf jeden weiteren PC wird anschließend dieses Image kopiert, der Administrator erspart sich das langwierige Einspielen der Softwarekomponenten von vielen CDs. Das Verfahren ist zwar schnell, hat aber gravierende Nachteile: Ändern sich etwa Hardwarekomponenten oder einzelne Anwendungen der Ziel-PCs, muss wieder ein neues Master-Image erstellt werden. Die zahlreichen unterschiedlichen Images werden schnell unüberschaubar und sind kaum mehr zu verwalten. Mittlerweile existieren modernisierte Varianten: Mit dem von Microsoft kostenlos zur Verfügung gestellten Programm "Sysprep" etwa lassen sich nach der Windows-Installation und vor dem eigentlichen Imaging alle hardwarespezifischen Komponenten entfernen, um so einen Massen-Rollout zu ermöglichen.

Snapshot oder Skript?

Ein anderes gebräuchliches Verfahren ist die Snapshot- oder Deltatechnik. Ein Hintergrunddienst überwacht dabei den Ablauf einer Softwareinstallation. Danach wird der gesamte Systemzustand vor der Installation (Dateien inklusive Registrierdatenbank von Windows) mit dem Zustand nach der Installation verglichen. Aus der Differenz bildet das Tool ein skript- oder programmgesteuertes Paket, das die betreffende Anwendung später zentral gesteuert auf Clients verteilt. Als problematisch erweisen sich dabei unterschiedliche Gegebenheiten auf Zielplattformen wie Windows 98, NT 4 oder 2000 - zum Beispiel abweichende Registry-Zweige. Manche Hersteller haben dieses Verfahren modifiziert, um flexibel auf unterschiedliche Client-Gegebenheiten zu reagieren.

Eine weitere Variante ist die Verteilung von Software mittels eigens entwickelter Installationsskripte, wie sie etwa On Technology anbietet. Hierbei werden die von Softwareherstellern gelieferten Installationsroutinen modifiziert, um eine zentral gesteuerte Verteilung auf Hunderte oder Tausende Rechner in einem Durchgang zu ermöglichen. Skript-Verfahren haben in Sachen Flexibilität und Steuerung der Vorgänge klare Vorteile gegenüber den anderen Verteilungsarten. Allerdings entsteht dabei eine enorme Netzlast, im Vergleich zum Image-Verfahren ist die Ausbringung eines fertig konfigurierten Client-Systems deutlich zeitaufwändiger.

Neben den rein technischen Aspekten gewinnen in letzter Zeit Fragen nach Richtlinien und Prozessen beim Desktop-Management an Bedeutung, das Thema Standardisierung rückt - vor allem unter Kostengesichtspunkten - in den Vordergrund. Die Analysten von Gartner sind beispielsweise zu dem Ergebnis gekommen, dass der Einsatz von reinen Verteilungs-Tools keine unmittelbaren Kostenersparnisse bringt. Wird die Softwareverteilung hingegen kombiniert mit der Standardisierung von Clients, kann die Total Cost of Ownership (TCO) um bis zu 35 Prozent reduziert werden. Noch beschäftigen sich allerdings wenige Anwender mit dem Thema Standardisierung, wie Zahlen der Giga Information Group belegen: So hätten 50 bis 60 Prozent der Anwenderunternehmen keine durchgängigen Richtlinien für die Softwareverteilung, entsprechend gebe es dort Probleme bei der Verteilung neuer Anwendungspakete oder Software-Patches. Nur 20 bis 25 Prozent der Unternehmen erzielen eine nahezu fehlerfreie Verteilung von Software mit einer Erfolgsquote von 95 Prozent.

Standardisierung als Ausweg?

Damit rückt ein Hauptproblem bei der Softwareverteilung in den Vordergrund: Die aufwändige Verwaltung von Client-Images, aber auch von Konfigurationen für verschiedene Benutzer(-Gruppen) und Geschäftsbereiche. Selbst wenn viele Unternehmen über klare Richtlinien für Konfigurationen und eine festgelegte Zahl von verschiedenen Client-Images verfügen, scheitern solche Konzepte nach den Erfahrungen der Giga-Analysten oft an der Wartung und Weiterentwicklung der Images. Die Folge sind Dutzende Hard- und Softwarekonfigurationen, die kaum mehr zu kontrollieren sind.

Mittlerweile zeichnet sich auch bei den Tool-Herstellern ein Trend ab, den Standardisierungsaspekt in die Verwaltungs- und Verteilungssoftware zu integrieren. Ein von seiner Architektur auf Standardisierung angelegtes Werkzeug ist "Garibaldi 2.0" von Inosoft aus Marburg. Kernprinzip von Garibaldi ist die dynamische Verwaltung der bisher starren Images durch ein Aufsplitten in Komponenten. Den Rahmen dafür geben eine oder mehrere Standard-Client-Konfigurationen vor, die für das gesamte Unternehmen definiert werden. Zunächst wird ein klassisches Image des Standard-PCs erzeugt. Änderungen oder Zusätze - etwa für notwendige Treiber- oder Software-Updates - werden von der Verwaltungskomponente als Module bereitgestellt und überwacht. Nach solchen Modifikationen gibt es weiterhin lediglich ein - wenn auch aktualisiertes - Standard-Image für das gesamte Unternehmen.

Der Vorteil des Konzepts liegt im Zwang zum Standard: Während bei gängigen Tools stets die Möglichkeit besteht, Softwarepakete in individueller Zusammensetzung auf beliebige Clients zu verteilen, verwehrt das Inosoft-Tool dem Administrator Abweichungen vom vordefinierten Standard.

Bleibt für Firmen noch die Frage, wie viele - oder besser, wie wenig - Standardkonfigurationen möglich und sinnvoll sind. Minimalismus zahlt sich hier in jedem Fall aus. So ist es etwa Aventis Pharma gelungen, seine weltweit 50000 PCs mit Hilfe von Garibaldi auf einen einzigen Standard mit 22 regionalen Ableitungen zu reduzieren. In anderen Unternehmen zeigte man bisher deutlich weniger Bereitschaft zur Disziplin: Analysten berichten von Firmen mit hundert verwalteten "Standard"-Konfigurationen.

Als Richtwert empfiehlt Giga eine Standardisierung auf drei bis fünf Client-Varianten. Als Grundlage für die Festlegung sollten dabei zwei Kategorien berücksichtigt werden: erstens die Bedürfnisse der Anwender, zweitens die der Geschäftsbereiche. Als vier typische Anwenderkategorien werden vorgeschlagen: Single-Task (einzelne Aufgabe), Aufgabenorientierung (klar definiertes Set an Aufgaben), Knowledge (viele Aufgaben, viele Anwendungen) sowie Power-User (spezielle PCs, spezielle Anwendungen). In vergleichbarer Weise sollte die Reduzierung der Client-Konfigurationen auch auf Basis einer Analyse der Bedürfnisse einzelner Geschäftsbereiche angestrebt werden. (ave)

*Wolfgang Miedl ist freier Journalist in Erding.

Angeklickt

Die Verwaltung von Windows-Desktops ist eine zeitraubende Angelegenheit. Vor allem bei der Softwareverteilung sind Administratoren auf die Unterstützung durch Tools angewiesen. Der Artikel

- erklärt verschiedene Verfahren zur Softwaredistribution,

- geht auf Vor- und Nachteile der unterschiedlichen Techniken ein und

- untersucht im Anschluss, welche Bedeutung das Thema Client-Standardisierung hat und wie Administratoren damit ihre Probleme lösen können.