Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

10.12.1982 - 

Über den Vergleich der Leistungen bei unterschiedlichen Großrechnerarchitekturen:

Nur der Scientifc Gibson Mix überlebte

Moderne Großrechner sind komplex. Eine Vielzahl von Faktoren bestimmen ihre Leistung und sind für den Anwender keineswegs immer transparent, zumal die Hersteller Architekturmerkmale in den Vordergrund stellen, die zwar in sich schlüssig und beeindruckend sind, aber leider wenig Rücksicht auf die Zentralfrage zulassen: Was bringt es dem Anwender? Leider weil dieser oft selbst nicht genau, was er eigentlich von einem neuen Rechnersystem erwartet.

In der grauen Vorzeit der EDV, so etwa zwischen 1965 und 1970, diente die Zugriffszeit des Hauptspeichers als Leistungskennzahl, da die Instruktionsdauer zu einem großen Teil von dieser Große bestimmt wurde. Als die Speicher schneller wurden, simultanen Zugriff ermöglichten und gar hierarchisch eingesetzt wurden, (Pufferspeicher, Cache memory), verlor der Speicherzyklus seinen Sinn als Leistungsgröße, und neue, komplexere Methoden wurden benutzt: Die Zeit des Mixes war gekommen.

Die Grundidee hierbei war, einen für den Anwender typischen Befehlsmix zu definieren, so daß die Addition der Einzelinstruktionszeiten einer gegebenen Anlage auf einfache Weise in Vergleich zu einem anderen System gesetzt werden konnte. Doch was ist schon typisch? Da es sehr unterschiedliche Anwendungen gibt, konnte ein Mix kaum typisch sein.

So definierte denn ein jeder, der Spaß daran hatte, einen neuen Mix, und die Überschaubarkeit der verschiedenen Größen stellte jede Vergleichbarkeit wieder in Frage. So war es durchaus nicht klar, wenn ein Hersteller beispielsweise von einer Leistung von 100 KOPS (Kilo Operations Per Second) sprach, ob dieser nach dem Gamm-Mix ermittelte Wert mit einer 100 KOPS-Leistung eines anderen Herstellers vergleichbar war, der dieser Leistung stillschweigend nach dem "Commercial Gibson-Mix" errechnet hatte.

Benchmarktest

Der verunsicherte Anwender griff zu einem neuen Mittel: Der Benchmark war geboren. Ein Benchmarktest ist eine Zusammenstellung von Programmen, die vom Interessenten an den Hersteller zur Durchführung auf der ins Auge gefaßten Anlage übergeben wurde. Entsprach diese Zusammenstellung in typischer Weise der Gesamtanwendung, war ein ideales Vergleichsmittel gegeben. Denn der Rechner, der diesen vorgegebenen Benchmarktest in der kürzesten Zeit durchführen konnte, mußte zwangsläufig auch der leistungsfähigste für diesen Anwender sein. Gleichzeitig konnte auch noch der Grad der Kompatibilität festgestellt werden, da ja offenbar wurde, welche Veränderungen an den Programmen vorgenommen wurden.

Eine neue Problematik ergab sich durch die zunehmende Komplexität der Anwendungen. Wurde Online-Verarbeitung geplant, so mußte der Benchmark selbstverständlich auch dieses repräsentieren. Simulation der Online-Last für eine unterschiedliche Anzahl von Terminals erhöhte den Aufwand für solche Benchmarks beträchtlich.

Zwei Faktoren haben die Benchmarkttätigkeit etwas in den Hintergrund gedrängt. Einmal wurden die Rechner immer preiswerter. Hierdurch war häufig schon von der Kostenseite ein Benchmark nicht mehr gerechtfertigt. Insbesondere die Hersteller waren nicht bereit, hohe Beträge zu investieren, um einer vagen Chance nachzujagen. Die Erfahrung hatte sie häufig gelehrt, daß auch ein erfolgreich abgeschlossener Benchmark keine Garantie für einen Auftrag war; denn manchmal war der Gewinner schon vorherbestimmt, und ein höflicher Absagebrief brachte die Kosten nicht wiederherein.

KIPS gleich KOPS

Der zweite Punkt ist durch die Kompatibilität gekennzeichnet. So ist das Umsteigen vom Großrechner eines Herstellers auf ein nicht kompatibles System aufgrund der Kostenfrage fast nicht mehr praktikabel. Umstellungskosten in der Größenordnung von 20 bis 50 Millionen Mark schrecken jeden vernünftigen Anwender zurück, wenn es bei der Hardwarebeschaffung nur um eine Investition von fünf bis zehn Millionen geht.

Bei kompatiblen Anlagen jedoch ist der Vergleich einfacher. Hier wird die gleiche Software eingesetzt, und die Hardware-Architekturen sind ähnlich, wenn nicht sogar gleich, wobei manchmal ein System schon fast eine Kopie eines zweiten ist, was sich selbst in der Modellbezeichnung ausdrückt.

Durch diese Gegebenheit rückt der gute alte Mix wieder in den Vordergrund, da er für den Vergleich hard- und softwarekompatibler Systeme hinreichend genau ist. Als Quasi-Standard hat indes nur ein Mix überlebt, der Scientific Gibson Mix (SGM), der stillschweigend dann verwendet wird, wenn von KIPS, KOPS, MIPS und MOPS gesprochen wird. Hierbei ist KIPS gleich KOPS, wobei das "I" für "Instruktion" und das "O" für "Operation" steht, und es ist MIPS gleich MOPS. Ein Rechner, der mit 10 MIPS Leistung angegeben ist, ist daher in der Lage, 10 Millionen Operationen eines bestimmten Befehlsmixes in einer Sekunde auszuführen.

Noch sind aber nicht alle Anlagen kompatibel, zum Glück nicht: Denn so schön Standards sind, so sehr stehen sie doch zuweilen dem technologischen Fortschritt im Wege, besonders dann, wenn hierdurch Monopole gebildet werden. Bei nicht kompatiblen Anlagen ist der Mis jedoch (fast) nichts wert. Er sagt allenfalls etwas über die mögliche Leistungsfähigkeit aus, die tatsächliche Leistung kann sich um Welten davon unterscheiden. Das liegt einmal schon am Befehlsvorrat. So wird von der Mehrzahl der am Markt befindlichen Anlagen immer noch eine Befehlsstruktur benutzt, die Anfang der sechziger Jahre konzipiert wurde, während innovative Systeme eine Struktur benutzen, die sich eng an die Gegebenheiten der modernen Hochsprache anlehnen. Nun kann es dem Benutzer zwar grundsätzlich egal sein, wie zum Beispiel ein Befehl "COMPUTE A = B x C" von der Maschine intern durchgeführt wird. Nicht egal ist ihm jedoch, wenn ein System hierfür zehn, ein anderes jedoch nur eine Instruktion benötigt, denn hieraus resultiert ein beträchtlicher Leistungsunterschied, ganz abgesehen vom benötigten Speicherplatz.

Ein zweiter, überaus wichtiger Aspekt ist die Software. Transaktionsmonitore und Datenbanken sind geradezu Leistungsfresser. Hier kann es bei technologisch gleichwertigen Systemen ebenfalls Unterschiede in der Größenordnung einer ganzen Zehnerpotenz geben, und es nutzt dem Anwender wenig, wenn er eine Anlage mit einer Gatterschaltzeit von 0,5 Nanosekunden besitzt, wenn die durchschnittliche Atnwortzeit für einen Terminalbenutzer über fünf Sekunden liegt. Diese Gegebenheiten werden von den KOPS/MOPS-Werten in keiner Weise berücksichtigt. Soll daher unterschiedliche Hard- und Software verglichen werden, bleibt schließlich doch nur ein sorgfältig strukturierter Benchmark.

In der Rechnerarchitektur selbst sind die Systeme einander ähnlich geworden. So benutzen praktisch alle Großrechner heute eine Rechenarchitektur, die einen Pipeline-Prozessor als Kern enthält. Die "Tiefe" der Pipeline, typischerweise zwischen drei und fünf angesiedelt, sagt, wieviel Teiloperationen ein solcher Prozessor gleichzeitig auszuführen in der Lage ist. Die Prozessorzykluszeit, meistens zwischen 0,25 und 1 Nanosekunde, sagt, wie schnell eine solche Teiloperation ausgeführt wird. Ein Pufferspeicher mit Zugriffszeiten zwischen 25 und 100 Nanosekunden minimiert die Hauptspeicherzugriffe; Ein/-Ausgabe und Datenfernverarbeitung besitzen typischerweise eigene Rechenwerke, und aus Sicherheits- und Leistungsüberlegungen sind alle Rechnerelemente mehrfach auslegbar.

Netze machen verträglich

Noch einige Worte zu den Superrechnern, die mit Leistungsangaben von mehr als 100 MOPS, oder hier auch FLOPS (Floating Point Operations per Second = Gleitkommaoperation pro Sekunde) glänzen. Hier darf man sich nicht täuschen lassen. Solche Rechner können nur ganz bestimmte Aufgaben, Vektorrechnungen zum Beispiel, sehr schnell ausführen und sind nur für technisch-wissenschaftliche Anwendungen interessant. Ein kommerzielles Programm läuft auf einem 100-FLOPS-Rechner nicht schneller als auf einem 10-MIPS-Rechner - eher langsamer. Vorsicht daher bei MIPS/ MOPS und FLOPS.

Zum Schluß noch einmal die Kompatibilität. Aus dem Vorhergesagten könnte man schließen, daß der Anwender aufgrund der hohen Umstellungskosten immer auf eine bestimmte Hard- und Softwaregegebenheit festgelegt ist. Dies ist glücklicherweise nicht mehr so. Die heutigen Netzwerkkonzepte sind auf dem Weg, verträglich zu werden. Damit ist der Weg für unterschiedliche Rechner für unterschiedliche Aufgaben in einem gemeinsamen Netz frei. So können Honeywell-Bull-Rechner beispielsweise auch in IBM-SNA-Netzen arbeiten, und der Anwender kann (endlich) wieder wählen.