Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

02.11.1984 - 

Das Entwicklungspotential der Halbleiter-Chips überrascht selbst Fachleute:

Der Chip-Burger wird langsam genießbar

Wenn kleine, kompakte Tischcomputer heute mit Leistungen aufwarten, die noch vor kurzem schrankgroßen Minis vorbehalten waren (und vor zwei Jahrzehnten noch als Sache einiger weniger Großsysteme galten), so ist das schon beeindruckend genug. Doch noch viel erstaunlicher sind die jüngsten Entwicklungsperspektiven in der Mikroelektronik, denn sie reichen, nach neuestem Wissensstand, erheblich weiter, als selbst die Chip-Fachwelt vor wenigen Jahren für möglich gehalten hätte.

Kronzeuge für diese etwas gewagt klingende Aussage ist Prof. Dr.-Ing. Ingolf Ruge, der Ordinarius für Integrierte Schaltungen an der TU München und gleichzeitig Leiter des einschlägig aktiven Fraunhofer-Instituts für Festkörpertechnologie in München-Pasing. Denn, so legt Ruge in einem Beitrag für den Jahresbericht 1983 der Fraunhofer-Gesellschaft dar, "Extrapolationen neuer technologischer Prozesse, deren erste Ergebnisse im Forschungs- und Entwicklungsstadium seit kürzester (!) Zeit vorliegen, haben zur Folge, daß das Ende dieser Entwicklung in den letzten eineinhalb Jahren weiter nach oben gerückt wurde."

Der Münchner "Chipologe" bezieht sich dabei auf Ansichten, die weltweit noch vor etwa zwei Jahren bei Halbleiter-Experten dominierten, mit einigen Millionen Transistoren auf einem Chip werde wohl endgültig das Ende der Entwicklung erreicht sein. Typisch für dieses dann nicht mehr überschreitbare Grenzgebiet sollten also Chips sein, die 4 Millionen Speicherzellen mit Transistor-Strukturen von 0,7 Mikrometern umfassen und eine Chip-Fläche von etwa 100 bis 150 Quadratmillimetern haben.

Ruge erinnert sich: "Noch im Dezember 1982 (also vor nicht einmal zwei Jahren) wurde ein bekannter japanischer Wissenschaftler belächelt als er Zukunftsvisionen über integrierte Schaltungen mit mehreren Millionen, ja sogar mehreren -zig Millionen von Transistoren auf einem Chip darlegte." Heute indes, und das zeichnet sich laut Ruge immer klarer ab, rücken solche Visionen mehr und mehr in den Bereich des Realisierbaren.

Diese Entwicklung kommt aber nicht von selbst, sondern dahinter steckt intensive und sorgfältige Arbeit. So geht ein großer Teil des Fortschritts in der Halbleitertechnik darauf zurück, daß bewährte Produktionsprozesse "einfach" immer weiter verbessert und daneben auch immer wieder völlig neuartige Prozesse entwickelt werden. Dabei geht der Trend heute, laut Ruge, in erster Linie zu Niedertemperatur- und Niederdruckverfahren ("klein, trocken und kalt"); mit ihnen soll es am ehesten möglich sein, Strukturen mit lateralen Abmessungen unterhalb 1 Mikrometer und mit vertikalen Dimensionen kleiner als 200 Nanometer herzustellen. Solche Winzig-Strukturen sind nötig, will man die geforderten hochkomplexen Schaltkreise der neuen Hochleistungs-Chips auf einem winzigen Fleckchen Silizium unterbringen.

Auf dem Weg zu immer kleineren Transistoren wird, laut Ruge, die herkömmliche optische Lithographie noch einige Zeit lang ein wichtiges Werkzeug sein. Schon in etwa zwei Jahren soll es mit ihrer Hilfe möglich sein, Strukturen von etwa 0,7 Mikrometern Breite darzustellen - und zwar mit exakten Geometrien und sauberen, scharfen Kanten. Für noch kleinere Strukturen hingegen wird man nach Ansicht des FhG-Fachmanns wohl zur so genannten "Röntgenstrahl-Lithographie" übergehen müssen Sobald man Größenordnungen von 0,2 Mikrometern anpeilt, ist sogar an die "Ionenstrahllithographie" zu denken, vielleicht auch an das direkte "Schreiben" der Strukturen auf den Chip ohne Jede Maske (und natürlich auch mit einem extrem scharf bündelbarem Ionenstrahl).

Zu den kritischen - außerhalb der engeren Fachwelt kaum je in ihrer vollen Bedeutung gewürdigten - Arbeitsgängen beim Herstellen moderner Hochleistungs-Chip gehören auch die vielfältigen Ätz- und Abscheideprozesse, die den Werdegang des Halbleiter-Bauelements begleiten. Hier geht man zusehends zu Verfahren mit reduzierten Drucken und unterstützenden Plasmaentladungen über. Auch ganz neue Verfahren, mit photochemischer, laserunterstützter Abscheidung oder Atzung, werden von Experten in aller Welt - vor allem in Japan - intensiv erforscht. Wenn sie - vielleicht gegen Ende dieses Jahrzehnts - einmal produktionstechnische Routine sein werden, könnten einige der heute noch nötigen Masken-Zwischenschritte bei der IC-Herstellung überflüssig werden. Denn die neuen Verfahren sollen es erlauben, auch komplexere Strukturen teilweise ohne die lästigen photolithographischen Phasen herzustellen.

Erst die Summe vieler kleiner Detail-Fortschritte ermöglicht die großen Spünge, die eingangs ("Großrechner im Tischformat") apostrophiert wurden. Daher nun kurz ein Blick auf eine andere Entwicklung des Pasinger Fraunhofer-lnstituts: auf dreidimensionale Schaltkreise.

Warum man bei der Herstellung von Chips in die dritte Dimension gehen soll, wird klar, wenn man sich vor Augen hält, daß dann mehr Transistoren denn je auf einer gegebenen Fläche untergebracht werden können. Gerade diese immer weiter getriebene Steigerung des Integrationsgrades hat in den letzten Jahren dazu geführt, daß die Kosten pro Transistorfunktion immer kleiner und die Zuverlässigkeit der Schaltungen immer größer wurde.

Dazu kommt, daß die mehrlagigdreidimensionale Packung von Transistoren die Wege verkürzen hilft die die Signale von Transistor zu Transistor zurücklegen müssen. Diese Signalwege limitieren via "Signallaufzeit" vielfach bereits die Arbeitsgeschwindigkeit digitaler Logik-Schaltungen - weshalb laut IBM-Presseabteilung alles daranzusetzen sei, sie zurückzustutzen.

Für Ruge eröffnen die Arbeiten an dreidimensionalen Schaltkreisen Aussichten auf "Multifunktionalschaltkreise" für Displays und die Bildverarbeitung, auf hochdichte und schnelle Chips für assoziative Speicher ("Silicon Brain") und auf kompakte Array-Prozessoren für Zwecke der Spracherkennung und der Bildverarbeitung. Außerdem soll diese Technik hochschnelle Baugruppen ermöglichen, die in der Breitband-Kommunikation bis Ende des Jahrzehnts ihren Platz finden können. Dort geht es um eine Technik, die mit 560 Millionen Bit pro Sekunde arbeiten soll.

Eines der kennzeichnenden Elemente des "Fortschritts" in der Computerei ist der überproportional wachsende Hunger nach Speicher. In acht Jahren, und dann könnte laut Ruge bereits ein Speicherchip mit 16 Millionen Bit auf dem Markt erscheinen, dürfte der weltweite Speicher-Bedarf 10E16 Bit (10 Millionen Gigabit) überschreiten. Wie soll man diesen Bedarf je befriedigen?

Das von Rüge dafür avisierte dynamische RAM mit 16 Millionen Bit Kapazität würde nach Berechnungen japanischer Fachleute selbst dann eine Fläche von fast 190 Quadratmillimetern haben, wenn man die Transistoren mit Strukturbreiten von nur etwa 500 Nanometern gestalten würde. Solche großflächigen Chips können aber, aller Erfahrung nach, nur zu sehr hohen Kosten produziert werden, für Speicher-Chips jenseits der (derzeit in der industriellen Entwicklung stehenden) 4-Megabit-Chips neue Konzepte für die einzelnen Speicherzellen zu suchen; Konzepte, die ein Verkleinern ihrer überschreiten. Wie soll man diesen Bedarf je befriedigen?

Das von Ruge dafür avisierte dynamische RAM mit 16 Millionen Bit Kapazität würde nach Berechnungen japanischer Fachleute selbst dann eine Fläche von fast 190 Quadratmillimetern haben, wenn man die Transistoren mit Strukturbreiten von nur etwa 500 Nanometern gestalten würde. Solche großflächigen Chips können aber, aller Erfahrung nach, nur zu sehr hohen Kosten produziert werden, für Speicher-Chips jenseits der (derzeit in der industriellen Entwicklung stehenden) 4-Megabit-Chips neue Konzepte für die einzelnen Speicherzellen zu suchen; Konzepte, die ein Verkleinern ihrer Fläche ermöglichen. Für dieses Schrumpfen sieht Ruge drei gangbare Wege, und zwar einen kurz-, einen mittel- und einen langfristig aussichtsreichen. Dabei denkt er kurzfristig daran, das klassische dynamische Speicherkonzept (mit Adreßtransistor und Speicherkondensator) auch bei verminderten Dimensionen beizubehalten, die Empfindlichkeit des Leseverstärkers aber deutlich zu steigern. Mittelfristig hingegen sieht er Chancen im Konzept der sogenannten "selbstverstärkenden Zellen", bei denen die Information durch eine "veränderte Einsatzspannung dargestellt" wird. Bei diesen Zellen kommt man, so Ruge, mit einer "deutlich geringeren Ladungsmenge" aus und mithin auch mit einer kleineren Fläche.

Weit in die Zukunft blickend, sieht der Pasinger Halbleiter-Fachmann die größten Chancen bei der oben schon skizzierten Entwicklung dreidimensional angeordneter Strukturen. Dabei ist übrigens anzumerken, daß die FhG-Forscher zunächst bescheiden nur zwei bis allenfalls vielleicht dreilagige Chips anstreben, während Kollegen in Japan das ehrgeizige Ziel verfolgen, Chip-"Hamburger" mit bis zu zehn Transistor-Schichten aufeinanderzutürmen.

Computer arbeiten immer seltener allein, sondern werden mehr und mehr in Kommunikationssysteme eingebunden. Das zwingt dazu, beim Blick in die Zukunft auch über die geplanten Breitband-Kommunikationsdienste der Post zu sprechen und hier, im Kontext der Halbleiter-Wissenschaft, der Frage nachzugehen, in welcher Technik denn wohl zu vertretbaren Preisen Chips hergestellt werden könnten, die komplexe elektronische Funktionen wahrnehmen Breit-band-Tempo mitzuhalten. Geht es dabei doch um erwartete Bit-Raten von 140 beziehungsweise sogar 560 Millionen pro Sekunde - je nachdem ob man vom, Orts- o er vom Fern-Dienst spricht.

Heute, so resümiert Ruge, können einzig und allein ECL-Chips "die Anforderungen an die Schaltkreisgeschwindigkeit in volldigitalen 140-MBit/Sekunde-Systemen erfüllen" und es habe sich inzwischen als Irrtum herausgestellt, allein die Entwicklung einer Technologie für Groß-Speicher werde gleich auch alle Ansprüche miterfüllen können, die man an eine "integrierte Schnellstlogik" stellen müsse. Das heißt also, man muß jetzt nach ganz neuen Wegen suchen.

Für Ruge ist auf Grund ihrer "prinzipiell geringen Verlustleistung" die immer populärer werdende sogenannte "CMOS"-Technik eine Möglichkeit, sehr komplexe Schaltungen auf einem Chip zu integrieren und damit auch preisgünstig herzustellen. Nur bieten leider auch die schnellsten der heute kommerziell angebotenen CMOS-Chips maximal Taktraten von 70 MBit/s. Das heißt, will man eine für die Breitbandkommunikation einsetzbare CMOS-Technik entwickeln, so muß man noch "überdurchschnittliche technische und theoretische Anstrengungen" machen. Theoretische Abschätzungen, so Ruge, "weisen darauf hin", daß CMOS-Schaltkreise "durchaus in einen Bereich vordringen können, der für 140 MBit-Systeme geeignet ist." - Und das, obwohl CMOS jahrelang unter dem Odium der ausgeprägten Langsamkeit zu leiden hatte!

Chips hohen Integrationsgrads sind nicht nur in der Fertigung anspruchsvolle Gesellen, sondern auch schon in der Phase davor, beim Entwurf. Denn mit immer kleiner werdenden Transistorstrukturen treten Probleme auf, die bisher in dieser Form nicht bekannt waren, wie Ruge berichtet: die in Computer-Simulationen des fertigen Schaltkreises verwendeten bisherigen "idealisierten physikalischen , MOS-Transistormodelle" beschreiben das Verhalten der wahren Transistoren nämlich nur noch unzureichend, sobald jene "Kanallängen" unter 2 Mikrometer aufweisen.

Es wird daher nötig sein, neue Rechner-Modelle des Transistors zu entwickeln, und dazu müssen die Techniken zur Simulation der einzelnen Bauelemente erst noch mit jenen zusammengeführt werden, die man einsetzt, um schon vor der eigentlichen Fertigung eines Chips die einzelnen Produktions-Prozeßschritte und deren jeweilige Resultate zu simulieren. Solche Modelle sind unverzichtbar, denn, so betont Ruge, "die exakte theoretische Beschreibung (Modellierung) des Verhaltens von Bauelementen" ist für eine definierte Funktionsfähigkeit der integrierten Schaltung" und auch "im Hinblick auf Ausbeute und Zuverlässigkeit" notwendig. Wobei bemerkt werden muß, daß "Ausbeute" sich darauf bezieht, wie viele der Chips, die in einer bestimmten Zeit produziert wurden, überhaupt brauchbar sind.

Chips werden heutzutage natürlich mit Hilfe von CAD-Computern entworfen und an diese Systeme werden umso höhere Anforderungen gestellt, je mehr Transistoren ein Schaltkreis umfaßt - und je komplexer die angestrebte Funktionsweise ist. Schaltungen mit mehr als 100 000 Transistoren machen es nötig, den Chip aus hierarchisch geordneten kleineren, überschaubaren Funktionseinheiten zusammenzufügen. Dabei tritt aber das Problem auf, daß nicht allein das logische Verhalten und das zeitliche Zusammenspiel aller Transistoren wirklichkeitsgetreu nachgebildet werden muß, sondern daß außerdem - schon beim Entwurf - darauf zu achten ist, daß die entstehende Schaltung später sowohl statisch als auch dynamisch "testbar" sein muß.

Da eine Schaltung bei zunehmender Kompliziertheit aber naturgemäß immer "undurchschaubarer" wird, kommt man nicht umhin, schon beim Entwurf bestimmte Elemente der Schaltung so zu konzipieren, daß sie die Testbarkeit erhöhen; vielfach ist dabei der Einsatz von eigenen Testmodulen auf dem Chip ratsam, die nur dem Zweck dienen, einen Selbsttest der Schaltung (oder einiger Schaltungsteile) zu ermöglichen,

Außerdem müssen jetzt immer intensiver Programme eingesetzt werden, die automatisch die Signalmuster erzeugen, die später, beim Test des Chips, vorn Test-Automaten an dessen Pins angelegt beziehungsweise an den Ausgangs-Pins erwartet werden müssen.

Wie schwierig das Gelände ist, auf dem die Entwickler neuer hochkomplexer Chips sich hier bewegen, zeigt der Hinweis Ruges, es müßten jetzt auch neue, effiziente Algorithmen für den eigentlichen Testvorgang entwickelt werden, da die alten "bei hoher sequentieller Tiefe des Schaltkreises und bei einem geforderten hohen Testüberdeckungsgrad" sehr rasch "unökonomische Rechenzeiten" erreichen. Auf einen hohen Testüberdeckungsgrad kann aber nicht verzichtet werden, denn der Test muß ja so gut wie möglich gewährleisten, daß der Chip wirklich in all seinen Teilen und unter allen zulässigen Umständen korrekt arbeitet.

Aber die Mühe sollte sich lohnen: wenn alles klappt, werden wir alle bald schon mit einem "Großrechner" in der Westentasche herumspazieren können. Man muß dann nur noch überlegen, wozu der gut sein soll.