Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

22.05.1987 - 

Auf dem Weg in die dritte Dimension:

Die Mikroelektronik bleibt ein Spiel ohne Grenzen

Aktentaschencomputer vom Leistungsvermögen eines früheren Großrechners und Supercomputer für mehrere Milliarden Gleitkomma-Operationen pro Sekunde - das sind Marksteine der aktuellen Datentechnik, die Frage aufwerfen: Kann diese Entwicklung, kann die fortlaufende Miniaturisierung, Verbilligung und Leistungserhöhung unserer Hardware denn immer noch weitergehen? Oder sind wir nicht doch endlich einem Punkt nahe, an dem die Realitäten der Physik letzte Grenzen setzen?

Diese Frage war eines von vielen Themen, die kürzlich in Baden-Baden auf einer Fachtagung der Informationstechnischen Gesellschaft (ITG) und des VDI-VDE-Fachkreises Mikroelektronik behandelt wurden. Um vorwegzunehmen, was Professor Dr.-Ing. Ingolf Ruge vom Münchner Fraunhofer-Institut für Festkörperphysik dazu anzumerken hatte: Es wird noch geraume Zeit so weitergehen. Aber es wird immer mühsamer den Integrationsgrad der Chips weiter zu steigern. Und wahrscheinlich wird man bald an mehrstöckige Bauformen denken müssen, die mehrere Lagen aktiver Elemente übereinander umfassen.

Erste Vorserienexemplare des 4-MBit-Speicherchips

Wie rasch die Menschen in den letzten Jahren und Jahrzehnten vorangekommen sind, zeigt ein kleiner, instruktiver Rückblick. Erst 1947 war es doch, daß der erste Transistor überhaupt zu arbeiten begann; und zwar im elitären Umfeld eines fortschrittlichen Forschungslabors. Dann vergingen einige Jahre, ehe der erste integrierte Schaltkreis das Licht der Welt erblickte; und auch in den frühen Siebzigern war man bestenfalls in der Lage, pro Chip 1000 bis allenfalls 10 000 Transistor-Funktionen unterzubringen. Heute indes sind Speicher-Chips mit einer Million Bit Kapazität bereits Handelsware, von viermal mehr Bit fassenden Chips gibt es erste Vorserienexemplare und aus Japan wird bereits über Konzepte eines 1 6-MBit-Speicherbausteins berichtet.

Die Fortschritte, die sich in diesen Zahlen dokumentieren und die laut Ruge bis 1995 wohl auf einen Speicher mit 64 MBit Fassungsvermögen hinauslaufen dürften, kann man einmal auf die fortschreitende Verkleinerung der Sturkturabmessungen der einzelnen Transistoren und zweitens auf ein gewisses Anschwellen der Chip-Fläche über die Jahre zurückführen. Dabei ist interessant, daß die Speicherbausteine stets die ersten sind, wenn es gilt, wieder eine neue Grenze der Technologie zu überschreiten; also etwa von einer Million Transistoren auf das Vierfache überzugehen.

Diese Vorreiter-Rolle der Speicher-Chips hat wesentlich damit zu tun daß sie einfacher strukturiert sind als beispielsweise komplizierte Mikroprozessoren oder andere Chips für logische Schaltfunktionen. Doch man muß außerdem sehen, daß nicht allein die einfache Struktur der millionenfach wiederholten Speicherzellen das ist, was diesen Vorsprung begründet.

Speicher unterscheiden sich von anderen Chips unter anderem nämlich auch dadurch, daß für sie viel höhere Verkaufs-Stückzahlen erwartet werden können als für Bausteine mit spezialisierten Funktionen und daß sie mit ihrer regelmäßigen Struktur nicht nur einfacher zu fertigen sind als etwa ein Prozessor, sondern vor allem auch einfacher zu entwerfen. Was wiederum bedeutet, daß es schon vom schieren Zeitaufwand des Entwurfs her einfach länger dauert, bis ein Prozessor fertigungsreif ist.

Die Prozessor-Chips müssen länger reifen

Noch wichtiger ist ein weiterer Zusammenhang, der bei der Diskussion der Fortschritte der Mikroelektronik jedoch vielfach übersehen wird. Er hat ebenfalls viel mit der konzeptionellen Einfachheit der Speicher zu tun und besagt, daß man die Produktionsanlagen für diese simplen Bausteine schon zur gleichen Zeit "einfahren", also erproben und auf volle Leistung bringen kann, in der die Entwickler des Speichers - bildlich gesprochen - noch am Reißbrett sitzen. Beziehungsweise, um die Realität besser wiederzugeben, am "CAE"-System zur computergestützten Schaltkreis-Entwicklung.

Kann ein Hersteller von Chips also sofort mit der Massenproduktion seines neuesten Speichers beginnen, ist die Fertigungslinie dafür nur endlich betriebsbereit, so sieht es für Prozessoren der gleich feinen Strukturierung ganz anders aus. Hier nämlich, so erinnert Ruge, kann die Entwicklungsarbeit am neuen Modell überhaupt erst beginnen, wenn schon eine eingefahrene, bewährte Produktionslinie vorhanden ist. Und dies wiederum hat für die Praxis des globalen Chip-Wettbewerbs gravierende Folgen, wie Ruge meint: denn genau dieser Zusammenhang zwischen Speicher-Entwurf, Hochfahren einer neuen Fertigungslinie und verspäteter Entwicklung neuer Prozessoren dürfte wohl der Grund sein, warum japanische Firmen die amerikanischen in den nächsten Jahren von ihrer führenden Marktposition verdrängen werden".

Hoher Weltmarktbedarf bei Speicherbausteinen

Betrachtet man die Entwicklung des Weltmarkts für Speicherbausteine, so kann man einen rasch wachsenden Speicher-Hunger diagnostizieren. Denn während der l6-KBit-Speicher seine maximale Nachfrage beispielsweise im Jahre 1981 erlebte - damals wurden rund 300 bis 400 Millionen Stück geordert -, wird der 256mal so "große" 4-MBit-Chip wohl um 1995 seinen Nachfrage-Zenit erreichen; man wird von ihm dann voraussichtlich zehn Milliarden Stück ordern - doch das sind dann, in Byte oder Bit gerechnet, rund sieben- bis achttausendmal soviele wie 1981.

Wie riesig diese Kapazität der zehn Milliarden 4-MBit-Chips wirklich ist, machte Ruge an einem kleinen Rechenbeispiel deutlich. Wenn man, so seine Überlegung, "für jeden Menschen auf der Welt eine DIN-A4-Seite" voller Daten speichern wollte, so würde man dafür insgesamt 64mal 10e12 Bit benötigen. Doch allein die 1995 voraussichtlich verkauften 4-MBit-Speicher werden wohl schon - und hier ist noch keine Rede von Plattenspeichern und anderen Medien - eine Kapazität von 4 mal 10e16 Bit darstellen. Also weit mehr als das Tausendfache . . .

Heute kann man nicht nur 600 000 Speicherzellen auf der gleichen Fläche unterbringen, die 1961 noch von einer einzigen belegt wurde, heute ist Speicherplatz auch unvorstellbar billig. Schon jener 1981er Schreib-Lese-Chip, der 16 KBit aufnehmen konnte, ist binnen wenigen Jahren und im Zuge einer Produktion von insgesamt 900 Millionen Exemplaren 20mal billiger als zu Beginn der Herstellung geworden; und den gleichen Preisverfall haben wir beim viermal

größeren Chip, dem 64 KBit-Speicher, auch erlebt. Nur daß, wie Ruge betonte, dazu dann "schon Stückzahlen von mehreren Milliarden" abgesetzt werden mußten; erst diese Riesen-Serien nämlich machten den Preisrutsch tatsächlich verwirklichbar.

"Man kann", bemerkt der renommierte Münchner Chip-Experte dazu, "ganz allgemein feststellen, daß alle bisherigen Speicher-Generationen trotz eines relativ hohen Einführungspreises nach einigen Jahren nur noch einige Mark gekostet haben." Und man müsse außerdem sehen, daß "prinzipiell die gleichen Tendenzen auch für alle anderen mikroelektronischen Bauelemente gelten"; also etwa für Mikroprozessoren sowie auch für komplette Geräte wie etwa Arbeitsstationen.

Spezielle Array-Chips für Multiprozessorsysteme

Wichtige weitere Entwicklungstrends sieht Ruge in der Schaffung von speziellen Array-Prozessoren für Multiprozessorsysteme sowie in der Integration weitgehend diskret aufgebauter Maschinen wie etwa der VAX- und der 370er-Typen auf einem Chip. Und auch Prozessoren mit reduziertem Befehlssatz sind laut Ruge eine Linie, die einen wichtigen weiteren Trend markiert. Obwohl bei ihnen, wie man hier anmerken darf, die oben erwähnten Mikroprogramme doch eigentlich keine Rolle mehr spielen sollen, also auch wohl keine "random-logic" mehr ersetzen können. - Jedenfalls nicht, wenn man der "reinen Lehre" der Risc-Maschinen strikt folgt.

Rückblicke auf die bisherige Entwicklung bei Speicher- und Prozessor-Chips geraten leicht ein wenig suggestiv und lassen glauben, die Fortschritte der Vergangenheit müßten in gleicher Weise auch in Zukunft eintreffen. In Wahrheit indes, betonte Ruge, werden aber immer größere Anstrengungen nötig, will man den Integrationsgrad weiter steigern .

Zwar, so war in Baden-Baden zu hören, werde "der MOS-Transistor als solcher bis etwa 0,15 Mikrometer" Strukturabmessungen "noch funktionieren" (er liegt heute bei etwa 0,8 Mikrometer), doch "bei den Bauelement- und Prozeß-Simulations-Programmen ist man noch lange nicht soweit". Man wird außerdem neue Materialien für das Dielektrikum des sogenannten "Gate" suchen müssen und die lithographischen Techniken, nach denen Chips hergestellt werden, müssen von ultraviolettem Licht bald auf andere Verfahren umgestellt werden.

Die aktiven Bauelemente übereinanderstapeln

Weite Schwierigkeiten auf dem Weg in den Submikron-Bereich tun sich auf, weil man mit der Ätz-Technik sowie bei der Metallisierung und der exakten Justierung der einzelnen Kontakte innerhalb des Chips noch längst nicht jene Genauigkeit und Zuverlässigkeit erreicht hat, die zu fordern sein wird.

Da also nun immer größere Probleme auftauchen, will man die Dichte der Bauelemente in der Fläche erhöhen, so liegt der Gedanke nahe, "die aktiven Bauelemente übereinander zu stapeln", also sozusagen "3D-Chips" zu konzipieren. Hierbei, so sagte Ruge, scheidet man "über der ersten Bauelemente-Ebene noch einmal Silizium ab, rekristallisiert es

mit Hilfe von Laser- oder Elektronenstrahlen und erzeugt dann erneut, "das Dotierungs-Profil für die Bauelemente-Funktionen."

Dieses Vorgehen führt zu erhöhter Packungsdichte der Transistoren auf dem Chip und erlaubt, mit kürzeren Verbindungsleitungen als bisher auszukommen. Auch verspricht so eine Topologie neue Freiheitsgrade, die wiederum eine geschicktere Anordnung verschiedener Funktionseinheiten wie etwa logische Gatter erlauben dürften. Ferner werde man einiges an überflüssigem Ballast weglassen können, man wird die störenden, "parasitären" Kapazitäten vermindern können und wohl auch weitere Nutzeffekte technischer Art einstreichen. Allerdings nur, wenn man Verfahren findet, die es "groß technisch ermöglichen, über der ersten Bauelemente-Ebene eine einkristalline Silizium-Schicht hoher Qualität herzustellen .

Für diesen Arbeitsgang, an dessen Erforschung auch Ruge mit seinen Leuten arbeitet, werden extrem niedrige Prozeß-Temperaturen nötig sein, will man nicht die bereits fertigen Bauelemente unterhalb der zweiten Lage wieder zerstören.