Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

07.06.1991 - 

Höchstleistungs-Workstations und SuperparallelrechnerTeil 1

RISC-Workstation nutzt Konzept dezentralisierter Arbeitsteilung

Seit Jahren verwendet man in der DV-Welt Begriffe, die aufgrund der kurzen Innovationszyklen der Branche mit immer neuen Inhalten gefüllt werden müssen. Dies trifft mit Sicherheit auf den Begriff der Leistung mehr als auf jeden anderen zu. Die Hersteller verwenden aus Prinzip nur Superlative. Die Kriterien, an denen gemessen wird, bieten aber oft nur eine beschränkte Hilfestellung für den Anwender, der aus einer Unzahl von Systemen auswählen muß.

Leistung lediglich abzubilden auf MIPS, Specmarks, Single Precision oder Double Precision Fortran-Benchmarks, auf die Anzahl der zu zeichnenden Vektoren oder Polygone, mithin das, was man allgemein im technischen Sinn unter Rechenleistung, respektive Grafikleistung versteht, ist eigentlich unzulässig. Technische Leistungsdaten spiegeln nur einen Aspekt des Leistungsbegriffes wider. Sie beziehen sich auf Hardware und systemnahe Software und geben dem technisch versierten Anwender lediglich Anhaltspunkte dafür, was ein System an Arbeit oder Arbeitsentlastung für die gestellten Aufgaben leisten kann.

So ist auch ein sehr leistungsfähiger Rechner letztlich nur ein Vehikel für den Transport von Lösungen. Diese werden im wesentlichen über Tools und Applikationen bereitgestellt.

Geschwindigkeit, Erweiterungsmöglichkeiten für zukünftige Aufgabenstellungen, Ergonomie, Vernetzbarkeit, Verhalten in heterogenen Umgebungen und eine Vielzahl von nur individuell zu gewichtenden Faktoren ergeben im Zusammenspiel erst die Gesamteffizienz eines Systems.

Abgesehen von einer rein technischen Leistungsbemessung des Einzelsystems, von Bereitstellung der benötigten Leistung sowohl der Hard- als auch der systemnahen Software, abgesehen auch von Möglichkeiten zur Umsetzung der Leistung zu bedarfsgerechten Lösungen - hier den Tools und der Applikationssoftware - und der Beherrschbarkeit dieser Systeme, gibt es noch weitere wichtige Kriterien für die Effizienz eines Rechnersystems: Hierzu zählen auch wirtschaftliche Aspekte und das Einsatzziel, der Nutzen und das Verhältnis des Nutzens zu den Kosten.

Ein Kunde, der den Hersteller wechseln wollte, weil dieser mit seinem Hardwarespektrum keine langfristigen Perspektiven für die Weiterentwicklung bot, und den ich einmal rundheraus fragte, warum er sich eine Höchstleistungs-Workstation bei uns kaufen wollte, antwortete sinngemäß:

"Für das, was ich vorhabe, ist ein PC indiskutabel und ein Supercomputer zu teuer. Wenn ich schon in eine Workstation investiere, dann lieber etwas mehr, um die beste für meine Zwecke zu bekommen und nicht nur eine gute." Ironisch fügte er hinzu, daß er sich nach wochenlanger Arbeit wegen der Software-Anpassung freuen würde, wenn die Ergebnisse ganz komplexer Berechnungen ein paar Minuten eher auf dem Bildschirm erscheinen. Für die ganz großen Jobs müsse er allerdings in Stuttgart auf einen Cray-Rechner zurückgreifen: "Und da warte ich dann wieder."

Die Quintessenz dieser Äußerung trifft wohl ziemlich genau den Kern der Sache. Die Höchstleistungs-Workstation leistet innerhalb ihrer Leistungsklasse funktional gesehen nicht mehr als jede General-Purpose-Workstation. Sie kann es lediglich unter dem Gesichtspunkt der Performance wesentlich besser.

Der eigentliche Bedarf wird gedeckt, liegt aber für Einzelanwendungen sehr häufig eine Leistungsklasse höher. Da diese Leistungsklasse nicht erschwinglich ist, begnügt man sich mit der nächstbesseren Lösung und nimmt dafür all die Nachteile in Kauf, die entstehen, wenn äußerst rechenintensive Prozeduren auf Supercomputer ausgelagert werden müssen.

Egal, ob der anspruchsvolle Kunde von einer Leistungsklasse in die andere oder aber innerhalb der Leistungsklasse auf eine deutlich höhere Leistungsebene wechselt, fast immer müssen gewisse Ansprüche an den Komfort (Aufwärtskompatibilität, gewohnte Umgebung etc.) geopfert und den Ansprüchen an die Performance untergeordnet werden. Dabei spielt es häufig keine Rolle, ob der Kunde dem einmal gewählten Hersteller treu bleibt oder nicht.

Mühselige Portierungsarbeiten

Denn Innovationsschübe, die nicht nur marginale Leistungsverbesserungen bringen, erstrecken sich ja in der Regel nicht über alle genannten Kriterien oder Bereiche der Systemleistung gleichzeitig, sondern werden zuerst meist nur in einem Bereich wirksam, nämlich dem der Hardware. Da dabei immer neue Technologien zugrunde liegen, ist die Einbindung in bestehende Systemfamilien schwierig, wenn nicht gar unmöglich.

Die anderen Bereiche, die Softwarelösungen und die Peripherieintegration, müssen dann nachziehen, wobei die Effizienz drastisch heruntergesetzt wird. Dies führt am Anfang gerade zu den oben geschilderten Belastungen und mühseligen Portierungsarbeiten für den Anwender.

Erst nach einiger Zeit beruhigt sich diese Situation, das System reift, wird komfortabler, effizienter und veraltet. Der nächste Innovations