Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

12.04.2002 - 

Legacy/Legacy-Systeme bringen E-Business in Schwung

Dinos wieder auf dem Vormarsch

Obwohl vielfach als "Dinosaurier" oder "Big Iron" etikettiert, haben die Mainframes nicht nur überlebt, sondern sich sogar weiterentwickelt. Ergebnis: moderne, offene Systeme, die mittels Integrationssoftware in E-Business-Infrastrukturen integrierbar sind. Von Georg Fischer*

Kein Unternehmen kann es sich leisten, den Trend zur Vernetzung mit Kunden und Partnern zu verpassen. Gefordert ist die schrittweise Transformation der Geschäftsprozesse in Richtung E-Business. Konkurrenzdruck und Rationalisierungspotenziale sind die treibenden Kräfte. Die Transformation zentraler Geschäftsprozesse hat jedoch weitreichende Folgen für Menschen, Handlungsabläufe und Infrastrukturen. Hier hilft die Evolution des Bestehenden, Akzeptanz zu sichern, Risiken zu minimieren und vor Fehlinvestitionen zu schützen.

Bestehende Infrastrukturen basieren häufig auf Mainframe-orientierter Informations- und Kommunikationstechnologie, in die in der Vergangenheit Milliarden investiert wurden. Sie hat sich in der Praxis bewährt und hinsichtlich ihres Prozessverhaltens einen anspruchsvollen Erwartungshorizont geschaffen. Im Zentrum steht ein Mainframe, der als hoch verfügbare, sichere und kostenmäßig beherrschbare Zentrale für Online-Transaktionsverarbeitung (OLTP) und Datenhaltung dient. Um ihn herum hat sich meist im Data Center oder auf entfernten Dateninseln eine große Anzahl von Unix- und Wintel-Servern mit eigener Datenhaltung versammelt. Diese spielen Rollen, die entweder von den Mainframeprozessen weitgehend isoliert sind oder unkritische Teilprozesse der Mainframeprozesse darstellen, wobei der Highend-Unix-Bereich zunehmend in die Mainframe-Rolle hineinwächst.

In E-Business-Infrastrukturen werden diese Rollen neu verteilt und die Anforderungen an die herkömmliche Informations- und Kommunikations-Infrastruktur verschärft. So müssen zunächst die bisher gestreuten Mainframes, Unix- und NT-Server mit ihren Dateninseln samt Middleware und Anwendungssoftware integriert werden. End-to-End-Transaktions-Management-Systeme sind die Klammer, die den Infrastrukturprozess konsistent am Laufen hält und - im Fehlerfall - für das Recovery sorgt. Da die Leistungsabgabe der E-Business-Infrastruktur auch Spontansituationen zu bewältigen hat, bekommen Skalierbarkeit, Workload-Management und die Fähigkeit, auf Lastspitzen entsprechend zu reagieren, einen erhöhten Stellenwert.

Auch "Evolutionskosten" ins Kalkül ziehenVon überragender Bedeutung für Unternehmen und Kunden ist die umfassende Sicherheit des ganzen elektronischen Transaktionspfads. Schließlich muss jederzeit verifizierbar sein, wer mit welchen Daten was getan hat. Nur Sicherheit schafft das Vertrauen, das zum Beispiel für elektronische Vertragsabschlüsse oder für elektronische Zahlvorgänge unabdingbar ist. Ein weiteres ausschlaggebendes Kriterium für den geschäftlichen Erfolg ist die jederzeitige Verfügbarkeit der Infrastruktur. Da ein technisches System prinzipbedingt ausfallen kann, werden Konzepte zum Re-Start der Infrastruktur nach Total- oder Teilausfall überlebenswichtig.

Nicht zu vernachlässigen ist auch das Thema Manageability: Aufgrund der Integration vieler Server und ihrer Datenhaltungen in einer E-Business-Infrastruktur kommt es nicht selten zu einem Komplexitätsschub. Da Komplexität jeglicher Art Geld kostet, gilt es hier gegenzusteuern. Probate Mittel sind Automatisierung und Reduktion der Fragmentierung durch Konsolidierung sowie einheitliche Schnittstellen zu System-, Netz- und Speicher-Management-Produkten. Last, but not least müssen natürlich auch die Kosten einer E-Business-Infrastruktur beherrschbar bleiben. Ins Kalkül zu ziehen sind neben den Infrastrukturkosten die Betriebs- sowie die "Evolutionskosten". Ansätze zur Kostenreduktion sind wieder Automatisierung und Konsolidierung sowie die richtige Plattformwahl.

Kurz und bündig heißt das: E-Business verlangt nach Integrierbarkeit, Skalierbarkeit, Sicherheit, Hochverfügbarkeit, Manageability und Kostentransparenz - also genau nach den altbekannten Mainframe-Eigenschaften.

Noch heute werden weltweit etwa 70 Prozent aller geschäftskritischen Daten von Mainframes verwaltet. Diese Daten und die sie nutzenden Anwendungen stellen für viele Unternehmen den geschäftskritischen Kern ihrer Informations- und Kommunikationsinfrastruktur dar.

Niedrigste Total Cost of OwnershipJede evolutionäre Migration zu einer E-Business-Infrastruktur erfordert den Erhalt dieser Daten und weitgehend auch der Funktionalität der Altanwendungen - zum einen, um die geschäftskritschen Abläufe nicht zu gefährden, und zum anderen, um die Milliarden-Investitionen in diese Systeme zu schützen. Dabei darf sich das Nutzungsverhalten der Legacy-Anwendungen in der neuen E-Business-Umgebung natürlich nicht verschlechtern. Aus diesem Grund haben die führenden Hersteller schon frühzeitig in ihren Produkten Offenheit, Integrierbarkeit und Internet-Connectivity realisiert und bieten heute praktisch alle erforderlichen offenen Standards für die Integration von Mainframe-Anwendungen in E-Business-Strukturen an.

Aber auch die Mainframe-Individualsoftware wird weiterentwickelt. Zum Beispiel kommen bei Behörden, bei denen häufige Gesetzgebungsnovellen direkt auf die IT-Verfahren durchschlagen wie beispielsweise der Rentenversicherung, große Individualsoftware-Pakete auf Mainframes zum Einsatz. Hier geht es nicht vorrangig um die E-Business-Integration, sondern darum, dass die Ablaufplattform ein extrem stabiles und performantes Betriebsverhalten zeigt. Und da wird der Mainframe auch in Zukunft so schnell nicht geschlagen.

Die Mainframe-Hardware ihrerseits ist seit dem Übergang von der ECL- zur CMOS-Technologie in jeder Sicht implodiert: Die Boxgröße beträgt heute weniger als ein Zehntel, der Aufwand für Stromversorgung und Kühlung liegt nur noch bei einem Hundertstel, und die Chipintegration bei Mainframes ist die höchste auf dem Server-Markt. Gleichzeitig haben sich Prozessorleistung, I/O-Durchsatz und Verfügbarkeit vervielfacht, der Serviceaufwand ist dramatisch gesunken. Äußerlich ist der Mainframe von heute nicht mehr von einem Unix-Server zu unterscheiden. Viele Eigenschaften, die Mainframes schon lange haben, werden gerade von den anderen Platt-formen für das E-Business neu entdeckt, so zum Beispiel die logische HW-Partitionierung (LPAR).

Und die Wirtschaftlichkeit? Zahlreiche Untersuchungen zeigten immer wieder, dass der moderne Mainframe die bei weitem niedrigste Total Cost of Ownership (TCO) aller Server-Plattformen hat. So liegt laut den Analysten von At Kearney (2001) die TCO bei zentraler Mainframe-Architektur lediglich zwischen 3100 und 5100 Dollar, während sie sich bei zentraler Unix-Server-Architektur zwischen 5300 und 6700 Dollar und bei dezentraler Unix-Server-Architektur sogar zwischen 7000 und 9000 Dolla bewegt.

Mit Mainframes werden die größten Datenbanken der Welt gemanagt. Auch die ausgefeiltesten Storage-Management- Systeme basieren auf Mainframes. Bereits seit 1990 werden riesige Storage Area Networks (SANs) auf diese Weise realisiert. Damals führte IBM - und bald darauf Fujitsu-Siemens Computers - das Escon-I/O-Subsystem ein. Dies bedeutete eine I/O-Bandbreite von 16MB/s pro Kanal, eine maximale Distanz der Datenhaltung vom Server-Standort von 46 Kilometern und das Sharing von Daten auf File-Blocklevel zwischen mehreren Mainframes. Der heute aktuelle Ficon-Kanal bringt es sogar auf einen Durchsatz von 100 MB/s pro Kanal. Auch Fibre Channel Connectivity ist kein Problem für den Mainframe. Zum Beispiel verfügt die SX130 von Fujitsu-Siemens Computers sowohl über Fiber Channels als auch über Escon.

Wie sieht es bei den Betriebssystemen aus? Zweifellos gibt es Anwendungen, die unter einem Mainframe-Betriebssystem nicht laufen. Meist sollten sie aus Architekturgründen jedoch auch gar nicht dort laufen. Warum? Weil in einer 2-tier-E-Business-Infrastruktur jede Plattform ihren jeweiligen Zweck hat. So ist es aus Sicherheits-, Verfügbarkeits- und Skalierbarkeitsgründen zum Beispiel sehr sinnvoll, den Web-Infrastrukturteil in ein anderes System zu legen als die zentrale Datenhaltung und den zentralen E-Transaktions-Betrieb. Damit wird aus der Frage "Laufen unter einem Betriebssystem alle Anwendungen?" die Frage "Laufen auf einer Server-Hardware die Systeme, die meine Anwendungen zum Ablauf bringen?" Genau diesen Ansatz verfolgen IBM und Fujitsu-Siemens Computers für ihre Mainframe-Betriebssysteme. Auf IBMs Z-Servern funktionieren unter Z/VM sowohl das Mainframe-Betriebssystem Z/OS als auch Linux. Die SX-Reihe von Fujitsu-Siemens Computers ist kompatibel mit BS2000/OSD und Solaris. Damit ist eine Mainframe-Hardware zum Ablaufträger und zur Integrationsplattform aller fürs E-Business erforderlichen Systeme geworden. Unix- und NT-Systeme allein können diese Rolle nicht spielen.

Varianten der Reskalierung werden wichtigerAufgrund der hohen Verfügbarkeitsanforderungen sind Stillstandszeiten durch Upgrades im E-Business nicht mehr tragbar. Außerdem erfordern unerwartete Lastspitzen für relativ kurze Zeiträume zusätzliche Leistung, die sonst nicht gebraucht wird. Da in der Regel mehrere Systeme verschiedener Plattformen aktiv sind, ist es wünschenswert, die Server-Ressourcen plattformübergreifend umverteilen zu können.

Die verschiedenen Varianten der Ressourcenumverteilung (Reskalierung) werden daher immer wichtiger. Während CoD (Capacity on Demand) dafür sorgt, dass einem System bei unerwarteten Lastspitzen im laufenden Betrieb Prozessorleistung, Hauptspeicher und I/O-Bandbreite zugeschaltet werden können, lassen sich mit Hilfe von LPAR (Logical Partitions) die Ressourcen eines Servers per Konfigurationskommandos logisch aufteilen. Beim VM-Konzept (VM = Virtuelle Maschine) hingegen laufen auf einer Server-Hardware mehrere Systeme, denen Ressourcen durch einen Hypervisor (zentraler Ressourcenverwalter) dynamisch zugeteilt oder entzogen werden. Mittels VM in LPAR lässt sich das Maximum aus der Ressourcenaufteilung herausholen: Hier läuft eine virtuelle Maschine in einer logischen Partition ab.

Der Nutzen dieser flexiblen Ressourcenaufteilung lässt sich auch daran ablesen, dass Highend-Unix-Systeme beginnen, CoD- und LPAR-Konzepte einzuführen. Mit LPAR- und VM-Konzepten lassen sich zudem Produktionsbetrieb, Entwicklung und Software-Updates voneinander entkoppeln. Dies führt zu wesentlich geringeren "geplanten Stillstandszeiten" und erhöht so die Verfügbarkeit. Ein weiterer Nutzen von VM-Konzepten ist, dass sich damit Failover-Konzepte realisieren lassen, die im Nicht-Failover-Fall praktisch keine Ressourcen verschwenden. Und schließlich bieten LPAR- und VM-Konzepte auch die Möglichkeit der Systemkonsolidierung auf einer Server-Hardware unter Beibehaltung der Systemfragmentierung.

Qualitätsschub im VerfügbarkeitsdesignPluspunkte sammelt der Mainframe auch in puncto Zuverlässigkeit. So werden zum Beispiel für parallele Anwendungen mit mehreren Instanzen in einem Mainframe-Cluster 99,999 Prozent Verfügbarkeit erreicht. Das entspricht maximal fünf Minuten Downtime pro Jahr für die Anwendungen! Dies umfasst sowohl geplante als auch ungeplante Ausfälle der Hardware, des Betriebssystems, der Middleware, des Netzanschlusses, der Datenhaltung und der Anwendung selbst. Für die meisten nicht-parallelen Mainframe-Anwendungen sind 99,99 Prozent Anwendungsverfügbarkeit in Failover-Clustern erreichbar. Zum Vergleich: Unix-Systeme erreichen nicht einmal 99,9 Prozent Anwendungsverfügbarkeit (zirka 500 Minuten Downtime im Jahr) und NT-Systeme nicht einmal 99 Prozent (rund 5000 Minuten Downtime im Jahr).

Die hohe Zuverlässigkeit des Mainframes ist das Ergebnis jahrzehntelanger Bemühungen um ein entsprechendes Verfügbarkeitsdesign. So wurden in den vergangenen Jahren ausgefeilte Hochverfügbarkeitsfunktionen wie Peripherie-Upgrades im laufenden Betrieb, automatisches Failover-Management für synchron oder asynchron gespiegelte Daten und Hot-Standby-Systeme mit minimalem Ressourcenverbrauch entwickelt. Die nächste Mainframe-Generation wird neben der fast schon obligatorischen Leistungssteigerung auch auf diesen Gebieten einen weiteren Funktions- und Qualitätsschub bringen.

Fazit: Mainframes sind in E-Business-Infrastrukturen, in denen das Bewährte effizient mit Neuem verbunden werden soll, sehr gut als Integrationspartner geeignet. Sie adressieren genau die Anforderungen, auf die es in E-Business-Infrastrukturen ankommt, und sind erste Wahl für hoch verfügbaren, wirtschaftlich effizienten E-Transaktionsbetrieb mit Massendaten. Durch die Ablauffähigkeit von Mainframe-Betriebssystemen mit Unix oder Linux auf derselben Hardware ergeben sich neue Rationalisierungsoptionen. Die zahlreichen Optionen zur Ressourcenaufteilung schaffen Flexibilität und Freiraum für Weiterentwicklung und Ausbau der bestehenden E-Infrastrukturen. Aus Sicht der Funktionalität, der Funktionsqualität und des Betriebsverhaltens ist der Mainframe noch immer ein Maßstab für die anderen Plattformen. (bi)

*Georg Fischer ist Produkt Manager bei Fujitsu-Siemens in München.