Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

17.12.1982

Zwischen Parallelarchitekturen und Josephson-Logik in das Jahr 2000:Spektakuläre Chipentwicklungen ohne Belang

Ein "Minicomputer", der mit 16 Millionen Instruktionen pro Sekunde (MIPS) die Durchsatzleistung einer IBM 3081 K (rein rechnerisch) übertrifft, war eines der Schmankerln, mit denen eine Gruppe europäischer Wissenschaftsjournalisten auf einer Fünf-Tage-Tour durch "IBM-Land" (Armonk, East Fishkill, Poughkeepsie und Yorktown Heights) gefüttert wurde. Bauprinzipien dieser Maschine, so war zu hören, könnten irgendwann in Produktionsmodelle einfließen.

"Unseren neuen Mini 801", erläuterte Dr. Denos C. Gazis, Assistant Director des Computer Sciences Department im IBM-Forschungszentrum Yorktown Heights, "haben wir in Hard- und Software von Grund auf neu konzipiert. Dabei machten wir uns die Beobachtung zunutze, daß Computer die meiste Zeit über mit ziemlich simplen Dingen beschäftigt sind - und diese simplen Dinge kann die 801 jetzt jeweils in einem Maschinenzyklus (statt durchschnittlich in drei) erledigen. Daher und aus der kürzeren Zykluszeit (50 ns) resultiert das Leistungsplus des Neulings."

Auch softwareseitig scheint der 801-Mini ein paar Weichen zu stellen, denn "wir haben zum Schreiben des 801-Betriebssystems die auf die Hardware abgestimmte Sprache ,PL 8' entwickelt", erläuterte Gazis weiter. "Sie dient auch zum Generieren neuer Befehle, wobei schnelle Software-Subroutines teilweise den herkömmlichen Microcode ersetzen werden."

Außerdem wurde für den 801 bereits eine Glasfaserleitung gebaut und getestet: Eine wichtige Sache, denn laut Gazis dürfte die "Fiberoptik jetzt sehr schnell Realität werden und Multiplexgroßrechnerkanäle ersetzen".

Was Minis und Mikros betrifft, rechnen IBM-Wissenschaftler mit Mikros von etwa 1 MIPS und Minis mit 10 MIPS Durchsatz, die beispielsweise als Arbeitsplatzrechner oder Small-Business-Systems fungieren werden und bei denen einfachste Bedienung und Wartung eine Grundvoraussetzung sind; außerdem müssen sie sich von breiten Anwenderkreisen äußerst einfach programmieren lassen. Zum Thema Kommunikation war nicht nur von schnellen Glasfaserleitungen für 500 Megabit pro Sekunde sowie von etwa 50fach langsameren Satellitenverbindungen die Rede, sondern auch von den schwierigen Problemen bei der Organisation sehr großer und komplexer Rechnernetze ("da müssen wir noch viel dran arbeiten").

Die Netze müssen samt zugehörenden Knotenrechnern künftig als zuverlässige, fehlertolerante Systeme aufgebaut werden und, so sieht man es im Hause IBM, noch etwas mehr leisten: Sie sollen vom Anwender benötigte Daten selber finden und herbeischaffen, ohne daß der User sich darum weiter zu kümmern hätte.

Das Managen von Netzen und Datenbanken wird künftig die Hauptaufgabe großer, zentraler Systeme werden, die - als Gesamtinstallation - jeweils bis zu mehrere 1000 MIPS leisten dürften. Hier werden Uniprozessoren wohl bald am Ende sein, weshalb sich Wladawsky diese großen Computerzentralen eher als Ballungen von Allzweck- und funktionell spezialisierten Prozessoren vorstellen kann.

"Wichtig dabei ist aber das 'Single-System-lmage' der gesamten Konfiguration", erläuterte Wladawsky. Es bedeutet, alle untereinander gekoppelten Rechner müßten sich dem Anwender als lediglich ein (Riesen-) Rechnersystem darstellen.

Solche Konfigurationen werden in den kommenden Jahren so unverzichtbar, daß man stets redundante Einheiten wird vorsehen müssen, die eine kontinuierliche Arbeitsweise des Gesamtnetzes unter allen Umständen garantieren können. Außerdem wird man auch daran gehen, das Installationsmanagement sowie das fernere Wachstumsmanagement solcher Rechner-Cluster selber zu automatisieren. So will man es vereinfachen.

Was man in Yorktown Heights unter großen Datenbanken versteht, umriß Wladawsky mit einer Zahl: 12 Billionen (10 12) Zeichen werden für das Ende dieses Jahrzehnts typisch sein. Das bedeutet, die Computerkosten werden in Zukunft mehr und mehr von den

(Platten)-Speicherkosten, die sich pro Bit ja kaum mehr sehr senken lassen, dominiert werden. Der Datensicherung gegen Systemversager und unberechtigtem Zugriff wird man zusehends mehr Aufmerksamkeit widmen müssen.

Parallele Architekturen

Eines der interessantesten Themen auf der USA-Presse-Tour war immer wieder das der parallelen Rechnerarchitekturen für rechenintensive Anwendungen. Laut Wladawsky können traditionelle serielle Architekturen einfach nicht die Leistungen bringen, die bald für Finite-Elemente-Analysen, für aufwendige wissenschaftliche Berechnungen, für Bild und Musterverarbeitungsaufgaben, für Expertisensysteme und für die Echtzeitspracherkennung gefordert sein werden.

"Wir werden also neue Architekturen mit einem hohen Grad an paralleler Verarbeitung finden müssen", meinte Wladawsky, "und dafür müssen wir uns mit grundlegenden Änderungen bei den Betriebssystemen, den Sprachen und den Compilern anfreunden. Aber wie sollen wir ohne parallele Prozessoren (Riesen-)Datenbestände im geforderten Tempo nach dem Gesuchten durchforsten?"

Während einerseits generell mit sinkenden Hardwarekosten pro Funktion gerechnet wird, warnte der IBM-Wissenschaftler andererseits vor den immensen Softwareaufwendungen, die auf uns zukommen. Denn in den 80ern dürften etwa 85 Prozent der Ausgaben für ein Computersystem auf die Software entfallen, erinnerte er. Und dennoch sollen per Saldo immer mehr anspruchsvolle Anwendungen nicht nur technisch machbar, sondern auch wirtschaftlich interessant werden . . .

In Wladawskys System-Lab, so erfuhr man weiter, steht zur Zeit die "Yorktown Simulation Engine" (YSE), ein Parallelprozessor mit bis zu 256 Prozessoreinheiten, die in acht luftgekühlten Gestellen Platz finden. Jedes Prozessor-Board (Leiterplatte) trägt fast 750 Schaltkreismodule (TTL-Schaltkreise sowie MOS-Speicherchips). Der einzelne Prozessor kann 8000 logische Gatter simulieren.

YSE dient zur Simulation neuer Rechnerkonzepte und stellt damit nicht nur für sich allein schon das Modell einer Maschine mit Parallelarchitektur dar, sondern ist gleichzeitig ein Beispiel für die ausgeklügelten Hilfsmittel, mit denen man heute an den Entwurf neuartiger Rechner geht. Voll ausgebaut soll diese YSE mehr als drei Milliarden Gattersimulationen pro Sekunde leisten. Das heißt, sie könnte eine 3081 mit einem Tempo von 1000 Befehlen pro Sekunde simulieren. Dieses Tempo wiederum verdankt die YSE einem "sehr schnellen und flexiblen Inter-Prozessor-Datenumlenker" sowie der dazu gehörenden Software: Denn jetzt können Daten zwischen den 256 Prozessoren endlich so schnell hin- und hergeschaufelt werden, daß dabei kein unerträglicher Zeitverlust mehr entsteht, wie IBM-Fachleute erläuterten.

Produktionstechnologie trägt noch weit

Nicht nur über neue, experimentelle Computer konnten die Teilnehmer der IBM-Reise einiges erfahren, auch über neue Chips mit siebenmal soviel Schaltkreisen wie jene der 308X-Serie sowie über das Entwicklungspotential der Mehrlagenkeramikmodule mit ihrem attachierten Flüssigkeitskühlmittelkreislauf wurde, vor allem im Werk East Fishkill, ausführlich gesprochen.

Der Witz bei besagten neuen Chips, erläuterte Owen Hill, der IBM-Product-Plans-Manager, ist eigentlich der, "daß wir diese hochmodernen Versuchschips, sowie ebenfalls weit in die Zukunft weisende neue Keramikträger, ohne irgendein besonderes Instrumentarium hergestellt haben. Wir benutzten unseren Standard-Chip-Entwurfsprozess, der mit Computerunterstützung außergewöhnlich schnell ist, sowie unsere Tag für Tag arbeitende Produktionslinie, um uns weiter in Richtung der technologischen Grenzen voranzutasten. "Und diese Grenzen, so konnte man hören, werden wohl nicht einmal dann erreicht sein, wenn gegen Ende dieses Jahrhunderts Chips mit Millionen Schaltkreisen und Module (die zahlreiche Chips zusammenfassen) mit Milliarden von Schaltkreisen Realität sein werden.

Früher schon, etwa zum Ende des laufenden Jahrzehnts, "werden wir die Rechenleistung einer 3033 in etwa einem Kubikzoll unterbringen können", erläuterte Hill mit Blick auf die nähere Zukunft. Doch bei allen Prognosen dieser Art muß man stets streng zwischen einmaligen Laborprodukten einerseits und in Großserie gefertigten Erzeugnissen andererseits unterscheiden.

Und vor lauter Starren auf den jeweils höchstintegrierten Chip sollte man nicht übersehen, daß die Modultechnik, mit der die einzelnen Chips zusammengefaßt werden, nicht minder wichtig ist als das spektakuläre, schrittweise Verkleinern der Transistorstrukturen.

Darauf ging auch J. McGroddy, der Direktor der Halbleiterabteilung in Yorktown Heights, näher ein: "Selbst wenn wir superschnelle Transistoren mit Null Sekunden Schaltzeiten schaffen könnten, würde eine heutige 3081 mit ihren etwa 18 TCM-Moduln lediglich das doppelte Tempo erreichen können. Die Signallaufzeiten der elektrischen Impulse von einem Chip zum nächsten verhindern eine schnellere Taktfrequenz der Maschine.

Wärmeableiten immer problematischer?

Natürlich könne man mit höher integrierten Chips zu kürzeren Signallaufzeiten kommen, da die langen Modul-Modul-Verbindungen dann weitgehend entfallen, meinte McGroddy weiter, und die Chip-Entwicklung kommt, nach seinen Worten, auch durchaus flott voran. Aber wie wird man dann die intensive Wärme los, die höher integrierte Chips entwickeln? Auch wenn das TCM-Modul (nach Auskunft der befragten IBMer) noch stark weiterentwickelbar ist - irgendwann wird mit der Computerei bei "Raumtemperaturen" wohl Schluß sein. Zumal ja auch die Packungsdichte der Chips auf dem Modul mit den Jahren stetig weiter gesteigert werden soll - und das ist schwieriger, als immer dichtere Chips zu bauen", betonte McGroddy.

Ausführlich ging der Experte auf die in Yorktown Heights intensiv erforschte Technik der sogenannten Josephson-Schaltkreise ein, "die tausend- bis zehntausendmal weniger Leistung" als herkömmliche Transistoren verbraten. Sie arbeiten bei vier Kelvin und könnten theoretisch ohne alle Wärmeprobleme auf extrem engem Raum zusammengepfercht werden. Nur das Aggregat zum Erzeugen der tiefen Temperatur müßte wohl etwa Schreibtischgröße haben, wie McGroddy darlegte.

"Das Ziel unserer Arbeiten ist ein Computer mit nur einer Nanosekunde Zykluszeit", sagte bei einem weiteren Gespräch der IBM-Vice President und Director of Research, Ralph E. Gomory, der Chef der Forschungsabteilung. Das bedeute einen Würfel von allenfalls 1,5 Zoll Kantenlänge, denn der maximale Weg eines Impulses darf wegen der Signallaufzeiten dann drei Zoll total nicht überschreiten. Mag sein, daß dieses Ziel mit der Josephson-Entwicklungslinie erreichbar ist, "mag aber auch sein, daß dieses Ziel weiter eine Vision bleiben wird". Weshalb IBM in seinen Forschungs- und Entwicklungslabors ja auch sehr vielfältig Entwicklungsfichtungen vorantreibt: neben der klassischen noch weitreichenden Silizium-Technologie auch vielversprechende, aber natürlich auf ihre Art wieder problematische Neuigkeiten wie Chips aus Galliumarsenid und andere Konzepte mehr.

Je mehr man sich in Labors und Fabriken umsieht, desto deutlicher wird, daß spektakuläre Nachrichten über bestimmte technische Highlights - "der dichteste Chip", der "schnellste Transistor", die "dünnste Leiterbahn" - im Grunde von wenig Belang sind. Denn am Ende muß ja ein Computer herauskommen, der mit möglichst wenig Hard- und Softwareaufwand betrieben werden kann - der also maximale Systemleistung fürs Geld bietet.

Und wie die einzelnen Unternehmen nun diesem Ziel näherzukommen trachten - also dafür gibt es einfach eine Fülle von alternativen Möglichkeiten. Denn was zum Beispiel nützt Hochleistungstechnologie, wenn die Fertigung in Großserie dann nicht zuverlässig genug steuerbar ist und per Saldo die Kosten davonlaufen? Was nützt ein einfaches und billiges technisches Konzept, beispielsweise für das Packen (und Kühlen) der Chips auf Leiterplatten, wenn es schon bei der nächsten Generation Chips, etwa bei noch dichter integrierten Speichern, an die Grenzen seiner Möglichkeiten stößt? Und was nützt ein noch so bestechendes Computerkonzept, wenn sich vielleicht beim Schreiben der Software herausstellen sollte, daß es die vorhandenen Fachkräfte bei weitem überfordern würde.