Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

30.06.2000 - 

IT-Rezentralisierung/Gute Gründe für leistungsstarke IT-Service-Center

Know-how-Transfer bei der automatisierten Massendatenverarbeitung

Die derzeitige und zukünftige Herausforderung im Rahmen der IT-Rezentralisierung liegt, so Oskar von Dungern*, in der Integration und Optimierung aller zu verwaltenden Plattformen, und, noch entscheidender, der Anwendungen.

Die Debatten um die Total Costs of Ownership sind verstummt, wurde doch inzwischen in vielen Großunternehmen die Rezentralisierung der IT-Infrastruktur in die Wege geleitet. Begünstigt durch verfügbare Rechenleistung, die schneller wächst als der Bedarf, und bezahlbare (Daten-) Kommunikation über weite Distanzen, konzentrieren zunehmend mehr Firmen ihre betriebskritischen Anwendungen auf hochleistungsfähigen Rechnern. IT-Service-Center betreiben heute in der Regel alle Plattformen wie OS/390, Unix und Windows NT nebeneinander und beherrschen auch betriebswirtschaftliche Anwendungen wie SAP R/3.

Die Rezentralisierungs- und Konsolidierungsbestrebungen in Unternehmen haben eine wissenschaftliche und praktische Grundlage. Es ist erwiesen, dass bei gleicher Gesamtlast durch Clients die mittlere Antwortzeit einer Server-Farm aus n Rechnern n-fach höher ist als jene eines einzelnen Super-Servers mit n-facher Leistung. Die gleiche Überlegung lässt sich auch auf die Dienstleistung anwenden: Ein zentraler Servicebetrieb führt im Prinzip zu kürzeren Reaktionszeiten als kleine, im Unternehmen verteilte Servicegruppen, die die gleiche Auftragslast berarbeiten.

Die Prozessorleistung aller Systemfamilien verdoppelt sich gemäß dem Moore´schen Gesetz alle 18 Monate. Ebenso wächst die Bandbreite der Kommunikationsinfrastruktur auch über weite Strecken bei fallenden Kosten in früher unvorstellbarer Weise. Dies begünstigt die Bildung leistungsstarker Rechenzentren mit professioneller Dienstleistung. Application-Service-Provider mit vereinbarten Service-Level-Agreements erfahren derzeit eine große Dynamik.

Diese Entwicklung hat weit reichende Konsequenzen für den Aufbau und Betrieb zukünftiger IT-Systemumgebungen. Stand früher bei einem IT-Projekt die Wahl der Plattform im Vordergrund, so liegt heute die Priorität immer häufiger bei der Problemlösung selbst, zum Beispiel der Abbildung von Geschäftsprozessen. Die Wahl der Plattform erfolgt nachrangig anhand der geforderten Betriebseigenschaften, also Verfügbarkeit, Verarbeitungsleistung (Performance), Zugriffssicherheit, Transaktionskosten und dergleichen.

Durch das Zusammenwachsen der IT-Plattformen stellt sich die Frage nach der optimalen Systemgestaltung der Zukunft. Der Streit über "Online oder Batch" wurde inzwischen zu Gunsten pragmatischer Lösungen beendet.

Ein Beispiel dafür ist das Zusammenwachsen der grundlegenden Ansätze integrierter Online-Systeme wie SAP R/3 und der automatischen Massendatenverarbeitung ("Batch-Processing") im traditionellen Rechenzentrumsbetrieb. Beide Ansätze haben sich in ihren herkömmlichen Anwendungsfeldern bewährt. Allerdings bieten sich heute weitere Vorteile durch geschickte Kombination.

Online-Systeme gewähren dem Anwender jederzeit einen Zugriff auf aktuelle Unternehmensdaten. Sie sind das Mittel der Wahl für betriebswirtschaftliche Standardsoftware sowie Internet-Applikationen. Online-Systeme basieren auf dem Prinzip der Einzeldatenverarbeitung, weisen also naturgemäß hohe Nachfragespitzen auf und erfordern eine entsprechende Performance. Dabei gilt für den Anwender bei der Informationsbeschaffung das Holprinzip.

Nicht akzeptabel ist dieses Vorgehen, wenn mehrere Dialogfenster aufgerufen werden müssen, um alle Informationen für eine Vorgangsbearbeitung in Erfahrung zu bringen. Manche Geschäftsprozessanalyse hat diesbezüglich unerwartete Erkenntnisse mit erheblichem Verbesserungspotenzial gebracht. Ebenso können online ausgelöste Druckvorgänge einzelner Rechnungen unnötige Performance-Engpässe verursachen.

Beispiele aus der PraxisDer automatischen Massendatenverarbeitung im klassischen Mainframe-Umfeld liegt das Bringprinzip zugrunde. Daten werden in Batch-Läufen nach Bedarf fehlerfrei zusammengestellt, benutzergerecht als "Reports" aufbereitet und elektronisch auf die verschiedenen Arbeitsplätze verteilt. Diese Methode ist immer dann vorteilhaft, wenn es nicht auf einen minuten- oder stundengenauen Informationsstand ankommt, was für einen großen Teil von Entscheidungsgrundlagen zutrifft.

Wie bereits dargelegt, wird die automatische Hintergrundverarbeitung auch in heterogenen Systemumgebungen ihre Vorteile ausspielen und die etablierten Online-Systeme in ihrer Leistungsfähigkeit nachhaltig unterstützen. Dazu zählen neben der Report-Verteilung das terminierte Ausführen von Backup-Läufen und vor allem auch die Optimierung von Druckjobs, einschließlich der revisionssicheren Archivierung der Dokumente und ihrer Verteilung über elektronische Medien wie E-Mail und Internet-Server.

In IT-Service-Centern haben die Verantwortlichen eine lange Erfahrung mit der Thematik der effizienten und effektiven Verarbeitung großer Datenmengen und fordern vehement Tools, die in der Lage sind, das professionelle Know-how aus der RZ-Automation in heterogene Welten und damit in integrierte Online-Systeme einzubringen.

Der Trend, die unternehmensweite, plattformübergreifende Datenverarbeitung durch flexible Hochleistungs-Automatisierungs-Tools zu unterstützen, zeigt sich in den Anforderungen namhafter Großunternehmen gegenüber Softwareherstellern wie der Beta Systems Software AG. Das aktuelle Investitionsverhalten spiegelt die Rezentralisierungsbestrebungen wider.

So hat beispielsweise ein großer westeuropäischer Telekommunikationskonzern im vergangenen Jahr massiv investiert, um sämtliche Systemprotokolle beliebiger Plattformen zentral auf dem Mainframe auszuwerten, revisionssicher zu archivieren und bei Bedarf umgehend wieder zur Verfügung zu stellen. Damit ist das Unternehmen in der Lage, die gesamte Datenverarbeitung auf einer einheitlichen Benutzeroberfläche im IT-Service-Center zu kontrollieren, Abweichungen gegenüber dem Normalverlauf zu dokumentieren und vor allem wesentlich schneller zu reagieren. Bei der Investitionsentscheidung stellte sich heraus, dass für diese Aufgabe im heterogenen Systemumfeld keine Lösung existiert oder in absehbarer Zeit angeboten wird, die die geforderten Datenmengen adäquat verarbeiten kann und zugleich vertretbare Zugriffszeiten garantiert.

Ein weiteres konkretes Beispiel betrifft die Unterstützung integrierter Online-Systeme durch automatische Hintergrundverarbeitung bei einer führenden europäischen Fluggesellschaft. Hierbei wurden wesentliche plattformübergreifende System-Management-Aufgaben mit Mainframe-Applikationen abgedeckt. Zur Gewährleistung höchster Sicherheitsanforderungen werden die Benutzerrechte der Business-Applikationen, unter anderem SAP R/3, mit RACF (Resource Access Control Facility) verwaltet.

Weiterhin entschied sich das Unternehmen für die Zentralisierung der gesamten Output-Verarbeitung einschließlich einer einheitlichen Dokumentenverteilung und -Archivierung auf dem Mainframe. Sämtliche Dokumente, seien es Reports aus SAP R/3, Listen aus Host-Applikationen oder Office-Dokumente aus verteilten PCs, werden in einem System zentral vorgehalten und auf Anforderung in kürzester Zeit wieder zur Verfügung gestellt.

Das letzte Beispiel betrifft die Datensicherheit. Nach verheerendem Datenverlust in Folge eines Großbrands initiierten die IT-Verantwortlichen einer US-amerikanischen Universität ein Projekt, um Backup-Läufe für sämtliche Plattformen über eine zentrale Software nach einheitlichen Regeln ("Global Policy") abzuwickeln. Gleichzeitig wurde auch die Vielzahl an verteilt existierenden Servern konsolidiert. Heute sichert die Universität sämtliche Personalcomputer und Server zentral und stellt damit sicher, dass in Zukunft die Ergebnisse mitunter jahrelanger Forschungsarbeiten jederzeit wieder hergestellt werden können.

Auch wenn in den genannten Beispielen der Mainframe eine zentrale Rolle spielt, ist für die Zukunft abzusehen, dass Zentralisierung nicht nur auf diese Weise zu realisieren ist. Die Wahl der Plattform wird sich zunehmend nach angemessenen Leistungsmerkmalen und Betriebseigenschaften richten. Auch durch Internet-Applikationen mit neuen Herausforderungen an die Massendatenverarbeitung wird Bewegung in den Server-Markt kommen.

Die S/390- und die Unix-Systemwelten weisen mittlerweile in vielen Disziplinen vergleichbare Eigenschaften auf. Das trifft auch auf die Kosten pro Transaktion zu, zumal die Lizenzpolitik für Großrechnersoftware, angeführt durch IBM selbst, angepasst wird. Während also die Performance und die Transaktionskosten vergleichbar geworden sind, hat der Mainframe nach wie vor deutliche Vorteile hinsichtlich Zugriffssicherheit und Verfügbarkeit: Servicelücken von insgesamt weniger als fünf Minuten im Jahr sind für ein S/390-System keine Seltenheit.

Nunmehr ist von den Softwareanbietern Flexibilität in der Nutzung der unterschiedlichen Plattformen gefordert. Innovative Unternehmen haben sich darauf eingestellt und arbeiten heute mit Hochdruck an Lösungen, die dem Markt und vor allem den wachsenden Kundenbedürfnissen gerecht werden.

*Oskar von Dungern ist Mitglied des Vorstands Ressort Forschung und Entwicklung der Beta Systems Software AG in Berlin.

Abb: Automatische Dokumentenarchivierung und -verteilung zur Unterstützung von Online-Systemen. Quelle: Beta Systems