Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Schnelle Arbeitsstationen wandeln das Bild der EDV von Grund auf:


18.12.1987 - 

Neue Mikrochips zwingen zu völlig veränderten Konzepten

Auch wenn in manchen Köpfen immer noch Vorstellungen spuken mögen, nach denen "die EDV" ein sternförmiges System aus zentralem Rechner mit vielen Terminals oder, sofern man sich "modern" fühlen möchte, PCs zu sein habe - die Wirklichkeit entfernt sich von dieser Idylle längst mit Riesenschritten. Denn weit schneller, als es vielen offenbar bewußt geworden ist, wandert die eigentliche Verarbeitungs- beziehungsweise "Rechen"-Leistung vom einstigen Jumbo in seiner isolierten Zentrale fort und direkt an die Plätze der Sachbearbeiter, Konstrukteure oder Manager.

Stiegen die Rechenleistungen der einstmals belächelten PCs - und erst recht die der sogenannten Workstations - schon in den letzten zehn Jahren in geradezu atemberaubenden Tempo, so ist das noch gar nichts gegenüber dem, was die Zukunft bringen wird. Denn, so sagte kürzlich in München ein prominenter Kenner der Computer-Technik, für die Zukunft sei nochmals eine "enorme Leistungssteigerung der Arbeitsplatzrechner" zu erwarten.

Heute zum Beispiel, so präzisierte Professor Georg Färber von der Münchner Technischen Universität auf der 17. Jahrestagung der Gesellschaft für Informatik, gehe man immer noch von der Vorstellung aus, daß "mehr oder weniger ausgeprägte Supercomputer" - wie etwa auch die sogenannten "Crayettes" - in ein Netz eingebunden operieren sollten; sie könnten den Arbeitsstationen in diesem Netz somit "die Dienstleistung 'Rechnen' anbieten". Doch inzwischen zeichne sich ab, daß die technische Fortentwicklung den einzelnen Arbeitsstationen schon in wenigen Jahren derart hohe Einzel-Rechenleistungen verleihen werde, daß "eine solche Verlagerung zur Zentrale" schon bald "nicht mehr sinnvoll" sein dürfte.

Mit Blick auf Systeme wie etwa den bekannten "Personal Supercomputer" eines amerikanischen Halbleiter-Herstellers sagte Färber sogar für die schon überschaubare Zukunft kostengünstige Arbeitsstationen mit 50 bis 100 MIPS beziehungsweise rund 50 Megaflops (Millionen Instruktionen beziehungsweise Gleitkomma-Operationen pro Sekunde) Rechenleistung voraus; Maschinen also, die zentrale Kalkulier-Monster wohl vielfach obsolet machen können. Doch außerdem, so der erfahrene Beobachter der technischen Trendlinien weiter, müsse man sich auch schon bald auf Arbeitsstationen mit überdies noch einem hohen Maß an Symbolverarbeitungs-Power einstellen. Denn neue und billige Coprozessoren für den Bereich "Künstliche Intelligenz" (KI) werdenden Arbeitsstationen von morgen auch noch die schnelle, lokale Bearbeitung von Programmen, die auf Wissen basieren, ermöglichen.

Zeigen die hier nur grob skizzierten Trends der Prozessor-Technik, daß man die rapiden Fortschritte im Bereich Hardware, und hier speziell im Bereich Prozessor-Chips, meist eher unter- als überschätzt, so kann man gleiches auch noch am Beispiel anderer Chips vorführen. Denn während ja fast alle Welt immer nur lauthals die übergroße Bedeutung von Innovationen im Bereich Software zu preisen beliebt, sind es doch gerade Hardware-Neuheiten, die modernen, umfangreichen Software-Systemen erst die nötige Basis liefern . . . So etwa, indem billige, neue Speicher-Chips jetzt auch den Arbeitsstationen Riesen-Hauptspeicher von 16 MB und mehr schenken und damit ebenfalls erlauben, Probleme umfangreicherer Art aus dem Zentral-Jumbo abzuziehen und sie direkt in der lokalen Station des einzelnen Kaufmanns oder Ingenieurs zu bearbeiten.

Daß die Tendenz unverkennbar in diese Richtung weist, belegt Färber mit der Feststellung, die Hauptspeicher wüchsen derzeit "dezentral schneller" als "in den Zentraleinheiten" der alten Art. Außerdem sei auch zu beobachten, daß Innovationen bei magnetischen und optischen

Platten-Speichern rasch zur "Verstärkung der dezentralen Datenhaltung führen" werden.

Auch hier ist es also wieder die oft nur über die Schulter angesehene Hardware-Technik, die lokale Daten-Kapazitäten im Gigabyte-Bereich finanziell überhaupt erst erschwinglich machen kann. Dies löst nun auch ein grundlegendes organisatorisches Umdenken aus, denn "für viele Applikationen gibt es" inzwischen ja "keinen Grund mehr, die Datenhaltung zu zentralisieren" . . . Das werde allerdings nichts an der Tatsache ändern, so Färber weiter, daß zumindest "aus heutiger Sicht" für andere Anwendungen wohl immer zu fordern sein werde: "Gemeinsame Datenbeständen, die besonderer Pflege bedürfen", sollten besser an zentraler Stelle verwaltet - und wohl auch verwahrt - werden.

Betrachtet man im Detail, aus was für technischen Entwicklungslinien Färber seine Erwartung rasch steigender Leistungen im Bereich der Arbeitsstationen ableitet, so resultieren "wesentliche" Verbesserungen vor allem aus der Weiterentwicklung der Einzelprozessoren. Was übrigens eine Entwicklung ist, bei der die herkömmlichen CISC- und die neueren RISC-Prozessoren sich einen spannenden Wettlauf liefern dürften (CISC = Complex- und RISC = Reduced Instruction Set Computer).

Heute, so der Techniker Färber, leisten "klassische Mikroprozessoren mit 32-Bit-Architektur" etwa drei bis sechs MIPS. Diese Chips, wie etwa der 68020 von Motorola, der 80386 von Intel, der 32N32 von National Semiconductor oder auch die V-Prozessoren von NEC, arbeiten mit mehreren hundert verschiedener Maschinenbefehle sowie mit "zahlreichen, an die Bedürfnisse von höheren Programmiersprachen angepaßten Adressierungsverfahren". Sie benötigen im Durchschnitt rund fünf Maschinentakte, sollen sie einen Maschinenbefehl ausführen. Dieser Typus von CISC-Mikro wird in den kommenden zwei bis drei Jahren laut Färber nun einmal dadurch schneller werden, daß man die Taktfrequenz der Maschinchen von heute maximal 25 auf maximal 40 Megahertz anheben wird. Und indem man ferner gewisse Techniken der Fließband beziehungsweise Pipeline-Verarbeitung einfuhren und dann auch noch überlappende Speicher-Zugriffe vorsehen wird, müßte das Rechentempo sich noch zusätzlich um etwa den Faktor zwei steigern lassen. Dafür werde man dann allerdings eine etwas höhere Komplexität der Schaltung in Kauf zu nehmen haben.

Weitere Leistungsgewinne verspricht sich das Lager der CISC-Fans von der Integration immer größerer Pufferspeicher auf dem Prozessor-Chip, denn damit könne man die Zahl der vom Chip nach außen führenden Speicher-Zugriffe reduzieren und so "die mittlere Zahl der - zeitraubenden, da unproduktiven Wartezyklen verringern". Diese beiden Maßnahmen sollen allein schon einen Leistungszuwachs um den Faktor 1,5 erreichbar machen.

Außerdem läßt sich bei CISC-Prozessoren noch erwarten, daß, bei höherer Dichte der einzelnen Gatter auf dem Chip, auch die Funktionalität dieser Einheiten noch gesteigert werden könne.

Mehr Leistung auch bei konventionellen Systemen

Summiert man alles Gesagte, so läßt sich laut Färber auch bei den konventionellen CISC in den nächsten Jahren eine Leistungssteigerung um etwa das Drei- bis Fünffache erwarten - was auf Chips mit 12 bis 20 MIPS beziehungsweise 2 bis 5 Megaflops hinauslaufen würde. Allerdings wäre hier kurz anzumerken, daß andere Autoren mit Blick auf das Potential der CISCs um einiges optimistischer sind. Denn implementiert man einen typischen CISC in Form einer geschickt ausgelegten Mehrchip-Konfiguration, so kann man durchaus noch höhere Leistungszahlen anpeilen, ohne daß deshalb gleich die Kosten davonlaufen müßten.

Der zweite Hauptzweig der modernen Prozessor-Entwicklung ist mit RISC überschrieben und umfaßt all' jene Prozessoren, die mit wenigen Befehlen auskommen sollen. Über die grundlegenden Ideen hinter diesen Chips ist schon mehr als genug geschrieben worden, weshalb hier nur kurz erwähnt sei: Anders als bei CISCs, kommt man bei RISCs wegen deren einfacher Architektur "mit verhältnismäßig wenigen Transistoren" aus, wie Färber anmerkte, und somit könne man "moderne Techniken mit hohen Taktraten" einsetzen - wie etwa schnellste ECL- beziehungsweise insbesondere Galliumarsenid-Chips. Was bei den skizzierten High-End-CISCs der kommenden Jahre mit Pufferspeicher und Gleitkomma-Einheit auf dem Chip ja kaum möglich sein dürfte, so würden diese CISCs doch weit mehr als eine Million Transistoren" umfassen müssen. Und so viele lassen sich allein in MOS-Technik, nicht aber in ECL oder gar Galliumarsenid auf einen Chip integrieren. Zum aktuellen Stand des erfrischenden Wettstreits zwischen RISCs und CISCs bemerkte Färber, eine neuere Variante des IBM PC RT mit ihrem 32-Bit-ROMP-Prozessor in RISC-Technik übersteige schon" deutlich die Leistung einer Microvax II"; dennoch aber komme dieser Chip mit bloß einigen zigtausend Transistoren aus.

Zwischen acht und zwölf MIPS leisten laut Färber auch neue RISC-Prozessoren der Firmen MIPS sowie die "Sparc"-Chips von Sun und Fujitsu. Von diesen, heute noch in MOS-Technik vorliegenden Chips sollen schon in ein bis zwei Jahren Varianten in schneller ECL-Ausführung erscheinen, bei denen man dann Leistungen zwischen 50 und 100 MIPS' erwarten könne. Mit denen könnten dann die Super-Arbeitsrechner, die Färber erwähnt hat, realisiert werden.

Die MIPS-Werte, von denen hier die Rede ist, sind keine simplen RISC-MIPS, sondern, laut Färber, bereits auf CISC-MIPS umgerechnet; dabei wird veranschlagt, daß etwa 16 der leistungsschwächeren RISC-Befehle das gleiche bewirken wie zehn Instruktionen eines CISC. Und da die altbekannte VAX-780 geradezu als Musterbild eines Ein-MIPS-CISC gilt, kann man sich unschwer ausmalen, was für immense Leistungen eine billige Arbeitsstation mit 50 bis 100 dieser VAX-MIPS bieten muß. Zumal eine VAX doch erst vor kurzem noch, etwa bei CAD-Programmen, nicht nur ein, sondern gleich eine ganze Reihe von Terminals zur Zufriedenheit vieler Ingenieure bedienen mußte.

Schnelle ECL-Varianten heutiger MOS-Bausteine

Im Wettlauf der CISC- und RISC-Verfechter um jeweils den schnellsten Rechner pro Mark - der übrigens noch lange nicht entschieden sein dürfte und in dem auch das RISC-Lager, wie etwa die amerikanische Firma Edge, mit immer neuen Überraschungen aufwartet - in diesem Wettlauf also weckte in letzter Zeit ein Chip Interesse, den die britische Firma Acorn zusammen mit einem Hersteller anwenderspezifischer Chips entwickelt hat. Denn dieser RISC-Chip namens ARM soll in der Leistung etwa einem 68020er entsprechen, aber nur rund 15 Prozent von dessen Transistorfunktionen benötigen. Was dokumentieren würde, daß die RISC-Technik nicht etwa bloß "ein bißchen" an Hardware-Aufwand einzusparen hilft, sondern gleich immens viel.

Spricht man mit Blick auf kommende Jahre von RISC-Arbeitsstationen mit weit über 50 MIPS Leistung, so spricht man da konkret auch von Maschinen, die in rasendem Tempo immer neue Daten und Befehle benötigen. Muß doch schon - ein 32-Bit-RISC-Prozessor mit 20 Megahertz Taktfrequenz unter Umständen mit jedem Takt, also alle 50 Nanosekunden, mit je einem 32-Bit-Daten- und Befehlswort versorgt werden. Und bei einer 100-Megahertz-Maschine müßten zwischen Speicher und Prozessor mithin sogar Datenraten bewältigt werden, die an die 800 MB pro Sekunde heranreichen.

Solche Zahlen verdeutlichen einmal mehr, daß es mit reinen Prozessor-MIPS längst nicht getan ist, sondern daß man ein System stets als Ganzes sehen muß; und insbesondere, daß "die Anbindung dieser Prozessoren an die Speicher" nun bald "zum zentralen Entwicklungsproblem werden wird", wie Färber hervorhebt. Dabei scheiden schnelle, "statischem Speicher-Chips leider aus, denn die sind teuer und benötigen viel Energie, während billige, "dynamische" Chips einfach zu langsam sind. Also müsse man sich geschickte Architekturen überlegen, die den Speicher in schnelle Puffer- und langsamere Haupt-Speicher zerlegen, und außerdem Wege finden, die Pufferspeicher direkt auf den Prozessor-Chips anzuordnen. Sonst nämlich könne es gehen wie im Falle eines bestimmten Prozessors der ehemaligen Firma Fairchild, der zwar theoretisch mit 40 MIPS galoppieren könnte, der es aber, wegen Verzögerung beim Zugriff auf Pufferspeicher - vom normalen Hauptspeicher ganz zu schweigen - bloß auf maximal acht MIPS bringen soll.

Hohes Tempo zu günstigen Kosten - diesem Ziel dient nicht allein die fortschreitende Verbesserung der CPUs moderner Arbeitsstationen: Auch bei den Gleitkomma-Zusatzprozessoren sowie natürlich bei weiteren, der Entlastung der CPU dienenden Subsystemen innerhalb eines Arbeitsplatz-Rechners sorgen immer neue Innovationen für rasante Verbesserungen des Gegenwerts, den die Industrie für einen gegebenen Preis bieten kann.

Dies sei kurz noch am Beispiel von Gleitkomma-Zusatzprozessoren skizziert, von denen ja manche schon heute "Verarbeitungsleistungen im Bereich von 30 bis 50 Megaflops zur Verfügung stellen", wie man von Färber hören konnte; bs handelt sich dabei übrigens um ECL-Chips der Firma Analog Devices. Und schon für 1988 könne man, so der Referent, Leiter, Baustein-Sätze erwarten, "deren Benutzung zu Systemen einer Leistung führen" kann, "wie sie heute etwa von einer Cray-1S im Skalarbetrieb zur Verfügung gestellt wird".