Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

06.08.2004 - 

Server-Trends/Gründe für die anhaltende Vitalität der einst geschmähten Großrechner

Alle Server tragen Mainframe-Gene

Client-Server-Theorien sind in Frage gestellt. Heute werden bestimmte Funktionen wieder zentralisiert, IT-Landschaften konsolidiert. Denn höchste Ansprüche an Verfügbarkeit, Leistung und Durchsatz lassen sich mit einem zentralisierten Management von Systemen, Netzen und Informationsdienstleistungen am ehesten gewährleisten. Hinzu kommt, dass durch neue Geschäftsszenarien - Stichwort E-Business - die klassischen Mainframe-Tugenden Höchstverfügbarkeit, Sicherheit, Zuverlässigkeit und enorme Leistungsfähigkeit wieder im Vordergrund stehen.

Offenheit und Integrierbarkeit, Kostentransparenz und niedrige Gesamtbetriebskosten kennzeichnen die modernen Mainframes und machen sie auch in E-Business-Umgebungen zur ersten Wahl für sehr stabilen, wirtschaftlich effizienten elektronischen Transaktionsbetrieb. Die Hardwaretechnik der Großrechner ist heute in jeder Hinsicht state-of-the-art. CMOS-Prozessoren (Complementary Metal Oxide Semiconductor) und die damit verbundenen Vorteile bezüglich Performance, Raum- und Energiebedarf etc. sind seit Jahren Mainframe-Standard.

Jederzeit verfügbar und geschützt

Die Betriebssysteme der "Riesen" haben heute den höchsten Standard bezüglich Unterstützung des Business Critical Computing (BCC). BCC bedeutet, dass alle Daten und Anwendungen jederzeit verfügbar und vor unbefugtem Zugriff geschützt sind. Erreicht wird das auch mit den hochentwickelten RAS-Eigenschaften. RAS steht für Reliability, Availability und Serviceability und meint die hard- und softwaretechnischen Implementierungen von Redundanz, systeminterner Fehlererkennung und -behebung, dynamischer Rekonfiguration, Sicherheitskonzepten, Cluster-Techniken für Verfügbarkeits- und Desasterverbund sowie weitestgehend automatisiertem System-Management.

Auch im Bereich der Anwendungsunterstützung und -integration spielen die Großrechner nach wie vor eine wesentliche Rolle. Schätzungsweise rund 50 Prozent der unternehmenskritischen Daten liegen weltweit auf Mainframes. Für E-Commerce-Projekte ist deshalb die Internet-Anbindung dieser Rechner und Anwendungen existenziell, um Geschäftspartner optimal in diese Szenarien einzubinden. Deshalb haben die führenden Hersteller schon frühzeitig in ihren Produkten Offenheit, Integrierbarkeit und Internet-Connectivity realisiert und bieten heute alle erforderlichen offenen Standards für die Integration von Mainframe-Anwendungen ins E-Business.

Konzepte der offenen Welt adaptiert

Die aktuelle IT-Herausforderung für Unternehmen lautet: Wie lässt sich mit vertretbaren Mitteln die Effektivität der Datenverarbeitung steigern, die bestehende Technik an neue geschäftliche Anforderungen anpassen und damit die Kontinuität der Geschäftsabläufe sicherstellen? Entscheidende Mittel dafür sind Virtualisierung, Automatisierung und Integration. Dies sind heute auf allen Plattformen die wesentlichen Ansätze, um IT-Infrastrukturen flexibel und nicht zu komplex zu gestalten. Die Weiterentwicklung der Mainframes orientiert sich seit langem an diesen Strategien. So erreicht man bei Mainframes durch die mit Virtualisierung und Automatisierung möglichen Ressourcen-Pools einen Nutzungsgrad von durchschnittlich 70 Prozent. Auch bis zu 100 Prozent Auslastung sind zeitweise realisierbar.

Die Mainframes haben inzwischen viele Konzepte der offenen Welt adaptiert. Es wäre aber falsch, die aktuelle Entwicklung so zu interpretieren, als würden sich die verschiedenen Plattformen immer mehr angleichen. Die Angleichung erfolgt dort, wo es die Interoperabilität erfordert oder wo Unterschiede sich nur mehr historisch erklären lassen. Die Betriebssysteme sind heute nicht an eine bestimmte Hardwarearchitektur gebunden. Zentralisierung und Dezentralisierung werden nicht mehr ideologisch diskutiert, sondern pragmatisch entschieden. So wandern Anwendungen und Daten von Mainframes zu anderen Servern oder in Storage-Systeme. Gleichzeitig werden Anwendungen, die auf Unix, Linux oder Windows-Systemen entstanden, auf Mainframes konsolidiert.

Die Großrechnerhardware hat sich seit dem Übergang zur CMOS-Technologie dramatisch verändert: Die Boxgröße beträgt heute weniger als ein Zehntel, die Chipintegration bei Mainframes ist die höchste auf dem Server-Markt, und der Aufwand für Stromversorgung und Kühlung liegt nur noch bei einem Hundertstel. Gleichzeitig haben sich die Prozessorleistung, der Arbeitsspeicherausbau und der I/O-Durchsatz vervielfacht.

Betriebssysteme und Anwendungssoftware konnten auf kostengünstige Standard-Prozessor-Architekturen portiert werden, beziehungsweise sie können dort ohne Änderungen emuliert ablaufen. Zum Beispiel funktionieren Mainframe-Systeme von Fujitsu-Siemens Computers auch auf Mips- und Sparc-Prozessoren. Dabei ist die volle Kompatibilität der Anwendungen auf Binärcodeebene garantiert. Über die Fibre-Channel-Connectivity eröffnet sich die Vielfalt von Storage Area Networks (SANs) auch für die Mainframes. Sie haben Zugang zur offenen Welt von LAN- und WAN-Netzen mit den aktuellen Standards wie IPv6 und Gigabit Ethernet.

Aufgrund der hohen Verfügbarkeitsanforderungen sind Stillstandszeiten durch Updates oder Upgrades im E-Business nicht mehr tragbar. Außerdem erfordern unerwartete Lastspitzen für relativ kurze Zeiträume zusätzliche Leistung, die sonst nicht gebraucht wird. Da in der Regel mehrere Systeme verschiedener Plattformen aktiv sind, ist es wünschenswert, die Server-Ressourcen plattformübergreifend umverteilen zu können. Beide lassen sich mit der Partitionierung lösen.

Die Hardware vieler moderner Server ist so konzipiert, dass die vorhandenen Ressourcen (CPU, Arbeitsspeicher, Controller etc.) sich in mehrere Einheiten, die so genannten Partitionen, aufteilen lassen. Auf diesen können unabhängige Betriebssystem-Instanzen und die jeweils dafür verfügbaren Anwendungen voneinander abgeschottet ablaufen. Die Partitionierung wurde im Lauf der Zeit immer feiner steuerbar: War sie zunächst auf relativ wenige, durch die Hardware vorgegebene Einheiten (die physikalischen Systemboards) beschränkt, so werden derzeit in den Servern mehr und feinere Granulate angeboten.

Rechen-Power je nach Leistungsbedarf

Die verschiedenen Varianten der Ressourcenumverteilung werden in Zeiten des E-Business on Demand immer wichtiger. Capacity on Demand (CoD) schaltet einem System bei Lastspitzen im laufenden Betrieb Prozessorleistung zu. Gleichzeitig lässt sich mit Hilfe von Partitionen die Ressourcenaufteilung in einem Server modifizieren. Die CPU-Vergabe innerhalb einer Menge von Partitionen lässt sich automatisch über einen Intelligent Resource Director regeln. Dieser ist auch in der Lage, dynamisch und prioritätengesteuert Input-Output-Pfade gemäß den sich verändernden Lastverhältnissen umzukonfigurieren. Spezielle Assist-Prozessoren entlasten die traditionellen CPUs, indem sie Java-Programme ausführen oder Linux unterstützen.

Beim Konzept der virtuellen Maschinen (VM) laufen auf einer Server-Hardware mehrere Systeme, denen ein Hypervisor dynamisch Ressourcen zuteilt oder entzieht. Dabei werden unterschiedliche Plattformen durch Emulationen der Hard- oder Software-Interfaces unterstützt. Gastsysteme lassen sich freizügig zu Gruppen zusammenfassen (beispielsweise alle Anwendungen eines Kunden in einem Servicerechenzentrum), denen ein Pool von Prozessoren zugewiesen werden kann. Innerhalb eines CPU-Pools benutzt das Scheduling natürliche Affinitäten mit automatischem Ausgleich. In jüngster Zeit findet man zudem etliche Ansätze, ein VM-System mit Hilfe von in der Hardware verankerten (embedded) Softwarefunktionen noch effizienter ablaufen zu lassen.

Der Vorteil dieser flexiblen Ressourcenaufteilung lässt sich auch daran ablesen, dass Highend-Unix-Systeme ebenfalls CoD- und Partitionierungs-Konzepte nutzen. Mit Partitionierungs- und VM-Ansätzen lassen sich zudem Produktionsbetrieb, Entwicklung und Software-Updates entkoppeln.

Etliche Highend-Mainframe-Modelle sind mit einer "Hot-spare-CPU" ausgestattet, die automatisch im laufenden Betrieb aktiviert wird, wenn eine CPU ausfallen sollte. Das System läuft dann mit unveränderter Performance weiter. Das Betriebssystem BS2000/OSD stellt den Support einer Hot-spare-CPU sogar für Monoprozessorsysteme sicher, wenn die einzige CPU des Systems ausfällt.

Aktuelle Mainframes und ihre Betriebssysteme bieten Möglichkeiten, existierende Anwendungen mit neuen Web-orientierten oder Unix- Programmen zu verbinden. Altapplikationen lassen sich ohne Modifizierungen auf praktisch allen führenden Plattformen mit geringem Aufwand in das Internet oder in neue BCC-Anwendungen integrieren. Es gibt Lösungen für die unternehmensweite Integration von bestehenden, nebeneinander existierenden Anwendungen vom Umsetzen von proprietären Protokollen bis zur regelgestützten Anwendungsintegration. Ebenso lässt sich der mobile Zugriff von Notebooks, PDAs, WAP-Handys, Tablet PCs etc. auf diese Anwendungen realisieren. Zur Renaissance der Mainframes trägt auch die Kombination mit Linux bei, die ihnen neue Anwendungen erschließt. Meist läuft Linux dabei als Gast in einem VM-System und profitiert damit von allen Vorteilen des Mainframes.

Für Anforderungen der Zukunft gerüstet

Aufgrund des aktuellen Status sowie seiner Entwicklung eignet sich der Mainframe auch in Zukunft gut für die Gestaltung innovativer IT-Infrastrukturen. Die Multiplattform-Fähigkeit, die weitere Verbesserung der Autonomic-Systems-Eigenschaften und die hohe Integrationsfähigkeit sind die wesentlichen Vorteile, die auch künftig für den Mainframe sprechen.

Der Multisystem-Betrieb in Verbindung mit den ausgefeilten Virtualisierungs- und Automatisierungsmöglichkeiten bietet eine optimale anwendungsspezifische Nutzung der vorhandenen Hardware sowie eine vereinfachte, weil zentralisierte und automatisierte Administration und damit eine Optimierung des Personaleinsatzes. Die CoD-Konzepte der modernen Mainframes stellen die schnelle und flexible Reaktion auf wechselnde Lastanforderungen sicher. Damit verbundene Usage-basierende Preismodelle, bei denen Entgelte für zusätzliche Systemleistung nur für den tatsächlichen Nutzungszeitraum anfallen, erhöhen die Wirtschaftlichkeit.

Untersuchungen von Analysten oder Instituten (zum Beispiel A.T. Kearney, Xephon oder Gartner) belegen die Spitzenstellung der modernen Mainframe-Plattformen bezüglich der Total Cost of Ownership. Betrachtet man die Gesamtkosten (Hardware, Software, Entwicklung, Service, Ausbildung, Wartung, Operation) pro IT-Arbeitsplatz, so ist die zentrale Mainframe-Infrastruktur in vielen Fällen die günstigste. Außerdem nehmen die Mainframes auch technisch bei Prozessoren, System- und Cluster-Performance, Einzel- und Multisystem-Verfügbarkeit, Partitionierung sowie Workload- und System-Management, weiterhin die Spitzenstellung ein. (ls)

*Joseph Reger ist Chief Technology Officer bei Fujitsu-Siemens Computers.

Hier lesen Sie ...

- welche Highend-Techniken die einst als "Alteisen" verschrienen Mainframes auf den modernsten Stand gebracht haben;

- wie diese Techniken die früher buchstäblich geschlossenen Großrechner zu offenen Vielzwecksystemen gemacht haben;

- warum die "Dinosaurier" in Umgebungen mit hohen Leistungsanforderungen eine zukunftssichere Lösung sind.