Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.


02.11.2005

Hand in Hand statt Konkurrenz

Die Interoperabilität von Betriebssystemen wird immer wichtiger. Eine ideologisch motivierte Abgrenzung gefährdet den täglichen IT-Betrieb.

Wie hitzig der Wettbewerb zwischen den Herstellern von Betriebssystemen ausgetragen wird, hat der Kampf um einen besonders prestigeträchtigen Anwender, die Stadt München, gezeigt. Die Auseinandersetzung trug am Ende den Anstrich eines Glaubenskrieges. Bei allem öffentlichen Säbelrasseln und aller ideologischen Schärfe - damit die IT-Systeme in den Unternehmen problemlos arbeiten, müssen die Betriebssysteme im Alltag miteinander auskommen, das heißt: nicht nur neben-, sondern miteinander arbeiten. Interoperabilität ist für Unternehmen heute von enormer Bedeutung, denn homogene IT-Infrastrukturen gehören längst der Vergangenheit an.

Hier lesen Sie …

• wie heterogen sich einst einheitliche IT-Landschaften heute darstellen;

• welche Probleme sich bei der Einschränkung der Vielfalt ergeben;

• welche technischen Ansätze bei der Konsolidierung behilflich sind;

• warum sich Linux als Ultima Ratio zur Vereinheitlichung anbietet.

Dabei ist die Interoperabilität der Betriebssysteme weniger ein Thema für den Desktop-Bereich der IT-Infrastruktur. Hier versuchen die Unternehmen bereits seit einiger Zeit, den Verwaltungsaufwand für die einzelnen Arbeitsplätze möglichst zu senken. Immer häufiger setzen sie dafür auf zentral administrierte, Web-basierende Anwendungen. Vor diesem Hintergrund "interoperieren" unterschiedliche Betriebssysteme nur noch indirekt: Ein Windows-Desktop etwa, mit dem eine Web-basierende Anwendung angesteuert wird, die wiederum auf einem Server unter Linux läuft, bekommt keinen direkten Kontakt zu anderen Betriebssystemen.

Dauerproblem Migration

Von größerer Bedeutung ist das Problem der Interoperabilität zwischen den Betriebssystemen, wenn es um die Themen Migration oder Konsolidierung der Server geht. So kann sich etwa die Migration von einer Plattform auf eine andere als äußerst aufwändig erweisen. Aktuell stehen einige Unternehmen zum Beispiel vor der Herausforderung, ihre Compaq-Server mit Alpha-Prozessoren ersetzen zu müssen, weil der Alpha-Prozessor das Ende seines Lebenszyklus erreicht hat. Das macht eine Migration auf andere Systeme notwendig - was wiederum den Umstieg auf ein neues Betriebssystem nach sich zieht.

Die Probleme stellen sich spätestens, wenn die auf den neuen Systemen installierten Anwendungen mit den Dateien des alten Systems gefüttert werden müssen. Schwierig wird es beispielsweise, wenn beide Betriebssysteme unterschiedliche Byte-Order-Formate unterstützen. Beispielsweise encodieren auf Intels Pentium-Prozessoren basierende Systeme die Dateien nach dem Little-Endian-Prinzip, also beginnend mit dem niedrigsten Byte. Die meisten anderen Systeme unterstützen dagegen die Byte-Order Big Endian. In diesem Fall müssen die binären Daten zunächst konvertiert werden, bevor sie sich unter dem neuen Betriebssystem verwenden lassen.

Der Hauptaufwand entsteht, wenn es darum geht, die alten unternehmensspezifischen Feinheiten von Anwendungen auf dem neuen Betriebssystem zu übernehmen. Man denke dabei zum Beispiel an all die filigranen SAP-Einstellungen. Unter Umständen verliert ein Unternehmen mit diesem Feintuning ganze Mannjahre.

Folgen des Sparzwangs

Beim Thema Konsolidierung liegt der Fall ähnlich. Hier geht es schlicht darum, die vorhandenen Hardwareressourcen besser auszunutzen und dadurch Geld zu sparen. Anwendungen, die zuvor auf verschiedenen Servern gelaufen sind, werden auf weniger Maschinen zusammengefasst und teilen sich die dort vorhandenen Ressourcen. Möglich ist diese Sparmaßnahme zum einen durch die großen Reserven der auf Spitzenauslastungen ausgelegten Anwendungs-Server. Zum anderen spielen Interoperabilitäts-Techniken eine wichtige Rolle, die es ermöglichen, dass unterschiedliche Anwendungen nebeneinander und mit denselben Ressourcen arbeiten. Es geht um die Partitionierung, mit der sich ein physikalischer Server in viele virtuelle Maschinen aufteilen lässt, die auch mit unterschiedlichen Betriebssystemen arbeiten können.

Mühen der Konsolidierung

Doch letztlich gibt es auch bei der Konsolidierung ähnliche Probleme wie bei der Migration: Je nach Systemwechsel entsteht bei der Übertragung der Dateien ein mehr oder weniger großer Konvertierungsaufwand.

Ein großer Schritt zu mehr Interoperabilität zwischen den Betriebssystemen war die Entwicklung hin zu nur noch zwei Königswegen in der Datei-Organisation: der Windows- und der Linux- beziehungsweise Unix-Architektur. So arbeiten Unix- und Linux-Systeme mit hierarchischen Dateibäumen. Die Anwendungen produzieren demzufolge Dateien, die in diese Ordner passen. Das ist aber nicht bei allen Betriebssystemen so: Das I-Series-System i5 OS oder OS/400 organisieren die Dateien zum Beispiel in Datenbanken. Folglich müssen die Dateien auf dem Weg vom einen System ins andere komplett konvertiert werden.

Die Beispiele Migration und Konsolidierung zeigen auf, welche Probleme sich im Zusammenspiel zwischen Betriebssystemen heute ergeben und wo die Interoperabilität noch nicht optimal ist. Aber wo liegen die Verbesserungschancen? Die Antwort verweist auf die Grundlage für alle künftigen Entwicklungen in der Unternehmens-IT: Offene Standards müssen sich auch auf der Ebene des Betriebssystems durchsetzen. Mit anderen Worten: Ähnlich wie sich der TCP/IP-Standard für die Kommunikation auf der Netzwerkebene unter vielen anderen Protokollen als Standard herausgebildet hat, benötigt man auf der Ebene zwischen Hardware und Anwendungen ebenfalls ein Standard-Betriebssystem.

Es spricht viel dafür, dass sich Linux als größtes gemeinsames Vielfaches von Unternehmensanforderungen, Anwendungsentwicklungen und Hardwareplattformen herauskristallisiert und zum De-facto-Standard auf der Server-Ebene avanciert. Denn hier wird der Markt nur etwas akzeptieren, das nicht von einem einzelnen Hersteller kontrolliert wird. Genau diese Bedingung erfüllt Linux als ein Produkt, das von der Open Source-Gemeinde gemeinsam entwickelt wird.

Linux wird Standardbasis

Linux läuft wie kein anderes Betriebssystem auf unterschiedlichster Hardwarebasis, von der Intel-Architektur bis zu Mainframes. Unternehmen und Softwarehäuser können sich von dieser Basis aus ganz auf ihre Applikationen konzentrieren. Mit Linux als Standard-Betriebssystem ließe sich auch das Problem der schwachen Auslastung von Servern lösen, die mit verschiedenen Anwendungen quasi fest verdrahtet sind. Hardwareressourcen, Prozessorkraft und Applikationen ließen sich viel bedarfsorientierter und flexibler aufeinander abstimmen.

Einige Entwicklungen auf dem Markt deuten in die gleiche Richtung: So gibt es neben echten Open-Source-Lösungen auch immer mehr konventionelle Softwareanbieter, die ihre Lösungen auf Linux portieren, beispielsweise ERP-Lösungen für den Mittelstand. Außerdem verlassen sich immer mehr staatliche Behörden und Organisationen auf das freie Betriebssystem.

Auch nach Meinung von Analysten werden Hardware und Betriebssystem zunehmend zu Standardprodukten, die mehr Differenzierung weiter oben in der Wertschöpfungskette verlangen, etwa auf der Anwendungs- oder der Serviceebene. Diese Entwicklung, welche die Hardware - besonders markant im PC-Markt - schon voll erfasst hat, steht nun auch dem Markt für Betriebssysteme bevor. Linux ist genau zum richtigen Zeitpunkt technisch reif geworden. (ls)