Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

13.09.2007

Der Mainframe: das Maß aller Dinge?

CW: Es gibt Experten, die sagen, Google wäre besser dran, wenn es anstelle seiner rund eine halbe Million Server auf Unix- und Windows-Basis Mainframes benutzen würde. Sie sagen ferner, dass Großrechner unter gewissen Umständen mittlerweile sogar für kleinere und mittelständische Unternehmen eine sinnvolle Option als Backend-Rechner sein könnten. Was halten Sie von dieser Aussage?

Specialty Engine: Was ist das?

Specialty Engines sind Prozessoren, an die unterschiedliche Workloads etwa für Datenbankaufgaben, Linux- oder Java-Applikationen abgegeben werden können. 2001 stellte IBM solch eine Specialty Engine mit der Integrated Facility for Linux (= IFL-Engine) vor. 2004 folgte mit dem System-z9-Application-Assist-Processor eine zAAP-Engine für Java-Workloads. 2006 schließlich stellte Big Blue mit dem System-z9-Integrated-Information-Processor die zIIP-Datenbank-Specialty-Engine vor. Das Besondere an den Specialty Engines ist nun, dass sie bei der MIPS-Rechenleistungs-Berechnung nicht berücksichtigt werden. Die Softwarelizenzkosten werden aber traditionell auf Basis der MIPS-Angaben kalkuliert. Ergo: Die IBM versucht auf diese Weise, die Softwarelizenzkosten zu drücken, um somit ihre Mainframes auch anderen Käufern als der angestammten Kundschaft aus Großkonzernen schmackhaft zu machen, also etwa mittelständischen Betrieben.

BUTLER: Theoretisch stimmt das. Mainframes bieten im Vergleich zu jeder anderen Server-Plattform nach wie vor fantastische Vorteile in Bezug auf Administration und Verwaltung von Systemlandschaften. Wenn Unternehmen auf diese Punkte Wert legen, dann haben Großrechner hier fast schon einen "natürlichen" Vorteil. Das Beispiel Google zeigt aber etwas anderes: Google hatte von allem Anfang an das Bestreben, sowohl seine Server-Umgebung komplett selbst zu entwerfen als auch seinen gesamten Software-Stack selbst zu entwickeln das schloss etwa auch die Betriebssystem-Frage ein. Auf diese Weise wollte das Unternehmen alle teuren Software-Lizenzierungsverpflichtungen umgehen und sich auch nicht an jemanden binden.

CW: Also ist das PR-Argument vom Mainframe, der sich im Prinzip für jeden Unternehmenstyp eignet, doch nicht stimmig?

BUTLER: Das wollte ich damit nicht sagen. Ich bezweifle nicht, dass heutzutage ein kleiner Mainframe in viel höherem Maß Anforderungen von mittelständischen Unternehmen erfüllen kann, als dies früher der Fall war zumindest in der Theorie.

CW: Um der Diskussion über die hohen Softwarelizenzkosten den Wind aus den Segeln zu nehmen, hat die IBM für ihre Mainframes ja schon vor Jahren ein neues Konzept entwickelt. Einfach ausgedrückt hat Big Blue für bestimmte Aufgabenstellungen neudeutsch Workloads so genannte Specialty Engines (siehe Kasten) entwickelt.

BUTLER: Das ist eine sehr clevere Strategie. IBM ist ja nicht blind bezüglich der Problematik der teuren Softwarelizenzierung und der Wahrnehmung der Anwenderschaft, dass Mainframes sehr teure Systeme sind. Und ja, in der Theorie ist es sicher richtig, dass jemand, der ein z-System nutzt und einen großen Teil seiner Workloads auf diese Specialty Engines lädt, bei den Lizenzierungskosten viel Geld sparen kann.

CW: Das Revival des Mainframes also durch einen geschickten technischen Schachzug?

BUTLER: Ganz so ist es natürlich nicht. Sie können davon ausgehen, dass Anwender immer eine Kombination verschiedener Work-loads verwenden. Und da bleibt es nicht aus, dass sich darunter auch solche befinden, die interessant in Bezug auf die Off-load-Engines sind. Aber: Grundsätzlich werden diese Anwender immer vor allem auch Legacy-Anwendungen nutzen, die nicht auf den Specialty Engines, sondern den herkömmlichen Mainframe-Prozessoren laufen. Diese Anwendungen kosten dann so richtig Softwarelizenzgebühren.

CW: Warum sagen diese Anwender der IBM dann nicht einfach: "Mir reicht‘s!" und migrieren auf eine Open-Systems-Plattform?

BUTLER: Großrechner sind dermaßen mit der Gesamt-IT-Infrastruktur des Unternehmens verwoben, dass es einer Herkulesaufgabe gleichkäme, diese Manframes abzulösen.

CW: Gibt es denn ein überzeugenderes Argument, das für Mainframes spricht?

BUTLER: Oh ja, das gibt es. Vielleicht der größte Vorteil von Großrechnern ist ihre einzigartige Architektur. Mit ihr können ganz unterschiedliche Arten von Workloads auf einer einzigen Maschine verarbeitet werden. Insbesondere IT-Anwender, die im Alltag ganz unterschiedliche IT-Workloads zu verarbeiten haben, nutzen Mainframes. User, die also vertikale und horizontale Applikationen für ihr Alltagsgeschäft einsetzen, die Batch-Applikationen benötigen und I/O-spezifische Anwendungen für diese Klientel bietet die Mainframe-Architektur Vorteile.

CW: Kann man denn Kostenvergleiche zwischen Mainframes und anderen Plattformen anstellen?

BUTLER: Wir bei Gartner haben ein sehr ausgereiftes Evaluierungsmodell, das sämtliche Server-Techniken berücksichtigt, dabei so ziemlich alle erdenklichen Kriterien erfasst und auf dieser Basis Vergleiche zwischen den Plattformen anstellen kann.

CW: Na, dann können Sie unseren Lesern doch jetzt die Frage aller Fragen beantworten: Ist der Mainframe die bessere Möglichkeit, seine IT-Hausaufgaben zu erledigen?

BUTLER: Sie werden staunen: Wenn Sie nach unserem Evaluierungsmodell und unter Berücksichtigung aller bei diesem Modell zugrunde gelegten Daten eine Analyse anstellten, dann würde ein Mainframe praktisch in jeder Kategorie gewinnen. So weit die Theorie. Wenn Sie sich aber fragen, wie relevant jedes einzelne Kriterium für Aufgaben wie etwa Web-Service, Data Warehousing etc. ist, wenn Sie sich die Workloads zur Erledigung von zu lösenden Geschäftsproblemen ansehen und in Relation zur Wichtigkeit der in unserem Modell aufgeführten Kriterien stellen, dann sieht die Analyse anders aus. Dann ist der Großrechner bei sechs von sieben Aufgabenstellungen, also Workload-Typen, mit denen sich heutzutage eine IT konfrontiert sieht, nicht die beste Plattform.

Ja, es ist richtig, der Mainframe war vor 20 Jahren das Maß aller Dinge in Sachen Server-Technik, und der Mainframe ist auch heute immer noch der goldene Standard für alle Server. Trotzdem würde es für die große Mehrheit der IT-Verantwortlichen, wenn sie heute einen Mainframe kaufen würden, bedeuten, mit Kanonen auf Spatzen zu schießen.

Lesen Sie die ungekürzte Fassug des Interviews unter www.computerwoche.de/527265.