Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

31.05.1996 - 

Kriterien für die Wahl zukünftiger Mainframe-Alternativen (Teil 1)

Meta-Group-Analyse: Wann ist ein Server ein richtiger Server?

Zugegebenermaßen etwas pointiert und kalauerhaft, beschreibt diese Aussage doch recht treffend den Zustand, in dem sich DV-Manager heutzutage befinden. Geeignete Auswahlkriterien für die Wahl kommender Server-Generationen zu entwickeln, ist für DV-Verantwortliche deshalb von entscheidender Bedeutung. Eine erste Orientierungshilfe, sich im Wust der Herstellerversprechungen zurechtzufinden, bietet ein Vortrag von Brian Richardson, Program Director Open Computing & Server Strategies bei der Meta Group.

Die bisherige, auf Großrechnern fußende Organisation der Unternehmens-DV war (und ist) monolithisch strukturiert: Die -zumindest in der Theorie - auf Mainframe-zentrierte DV-Landschaften folgenden Client-Server-Topologien zeichnen sich zwar durch eine größere Vielfalt des Hard- und Software-Produktangebots aus. Beiden Strukturen gemein ist nach Ansicht Richardsons aber, daß es sich im wesentlichen um operationale, also um Online Transaction Processing (OLTP)Systeme handelt.

Zunehmend zeigt sich jedoch, daß die DV heute neue Aufgaben bewältigen muß, die konsequenterweise eine neue Klasse von Anwendungen nach sich ziehen. Der Meta-Mann nennt sie informationsorientierte Applikationen. Diese greifen Platz in Form von Data-Warehouse- oder Entscheidungshilfe-Ansätzen.

Mit den Veränderungen in der Konzeption von Anwendungen korrespondieren neue Hardwaredesigns. Herkömmliche Hosts verfügen, so Richardson, über ausgefeilte Sicherheitsoptionen. Anbieter traditioneller Mainframes haben unter anderem auch die Latte bezüglich der Service- und Supportdienstleistungen sehr hoch gelegt.

Für die Wahl von Server-Systemen der neuen Art, meint die Meta Group, werden vor allem zwei Eigenschaften von Bedeutung sein: ihre Skalierbarkeit und ihre Flexibilität. Wenn die Meta Group von neuen Rechnergenerationen spricht, meint sie damit Server, die als Symmetrische-Multiprocessing-(SMP-)Architekturen ausgelegt sind und die verschiedene Cluster-Optionen aufweisen.

Hardwarestandardisierung hat Folgen für ServerwahlEin Phänomen, das im Zuge der technologischen Entwicklung auftritt, diktiert in diesem Zusammenhang die Diskussion: Die zunehmende Standardisierung von Komponenten in Server-Systemen. Ein markantes Beispiel hierfür ist die Intel-Prozessor-Architektur. Ebenso ließe sich ein industrieweit akzeptierter Standard wie der PCI-Bus anführen.

Diese Standardisierung, so Richardson, hat Folgen für die Auswahl eines geeigneten Servers und damit für die Konzeption der unternehmensweiten DV: Vor Jahren fragte die Meta Group noch eine ganze Liste von Qualitäten ab, die die Systemlieferanten beziehungsweise deren Rechner erfüllen mußten, um das Gütesiegel eines ausgereiften Host-Systems zu erlangen.

Dieser Fragenkatalog ist heute, so Richardson, zusammengeschmolzen auf drei Kriterien, die entscheiden, welche Server den Aufgaben einer zukünftigen DV-Organisation gewachsen sein werden: Auf welche Technologie beziehungsweise Architektur baut die Server-Hardware? Was für ein Preis-Leistungs-Verhältnis besitzt sie? Und vor allem: Welche kommerzielle Präsenz hat das Rechnerkonzept, das in Zukunft herkömmliche Host-Topologien ablösen soll?

Aspekte der Technologie umfassen unter anderem die unterliegende CPU-Architektur (RISC oder CISC), die Skalierbarkeit eines Systems und seine Robustheit sowie den Grad der gebotenen Fehlertoleranz.

Beim Preis schaut die Meta Group auf die Kosten pro Transaktion, bei Entscheidungsfindungs- beziehungsweise Data-Warehouse-Systemen auf die Kosten pro Abfrage.

Die kommerzielle Präsenz eines Server-Angebots messen die Meta-Group-Analysten daran, welche Anwendungen der Systemlieferant mit seinen Geräten unterstützt. Im Vordergrund steht dabei, welche Datenbankprodukte angeboten werden. Wichtig ist ferner, welche sogenannten Killerapplikationen auf den Servern laufen. Hierzu zählt etwa SAP R/3, Oracle Financials sowie Software von Peoplesoft. Ganz wesentliche Bedeutung kommt ferner der Auswahl von Entwicklungswerkzeugen, System-Management-Tools und Utilities zu, die auf den zur Auswahl stehenden Servern angeboten wird. Spätestens bei dieser Kategorie von Software trenne sich die Spreu vom Weizen der Systemhersteller, meint Richardson.(wird fortgesetzt)