Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

04.10.1991 - 

Speicherbausteine gelten als Technologielokomotive

DRAMs: Alle drei Jahre eine neue Generation auf dem Markt

Ausgangsmaterial für Datenverarbeitung jeder Art sind nach wie vor - gleichgültig ob für Hard- oder Software - höchstintegrierte Schaltungen wie Mikroprozessoren, Speicherbausteine und ähnliches. Doch kaum jemand weiß, welchen äußerst komplizierten Herstellungsprozeß diese Wunder der Miniaturisierung durchlaufen. Frank Stefan Becker* beschreibt die Entwicklung der Fertigungstechnik und die einzelnen Produktionsschritte der Halbleiterfertigung am Beispiel der Dynamic-Random-Access-Memory-Bausteine (DRAM).

Übertragung, Speicherung und Weiterverarbeitung von Daten sind die zentralen Hilfsmittel, um nach den körperlichen auch die geistigen Fähigkeiten der Menschen zu vervielfachen. Grundlage dieser Entwicklung sind die Fortschritte der Mikroelektronik bei der Herstellung immer komplexerer und leistungsfähigerer integrierter Schaltungen.

Speicherbausteine spielen dabei eine Sonderrolle, da sie von allen Produkten der Mikroelektronik in den höchsten Stückzahlen gefertigt werden und traditionell die Spitze des technologischen Fortschritts repräsentieren. Dies beruht darauf, daß Defekte oder Prozeßprobleme in winzigen, aber hochkomplexen Schaltungen nur noch durch statistisch fundierte Auswertemethoden ermittelt werden können. Die Kombination von hohem Produktionsvolumen und extremer Regelmäßigkeit macht die Speicherbausteine zu einzigartigen Testvehikeln, um neue Produktionsstraßen an der Grenze des bisher technisch Machbaren zu realisieren.

Hohe Integrationsdichte und geringer Platzbedarf

Gemäß den unterschiedlichen Anwendungen wurden bei den Speichern verschiedene Varianten entwickelt die, je nachdem ob sie die gespeicherten Informationen bei Stromverlust verlieren oder nicht, als "flüchtig" oder "nichtflüchtig" bezeichnet werden. Mit über 50 Prozent Anteil dominieren am Speichermarkt die "Dynamic Random Access Memories (DRAM)", da ihre nur aus Speicherkondensator und Schalttransistor bestehende Elementarzelle durch geringen Platzbedarf besonders hohe Integrationsdichten erlaubt. DRAMs spielen nicht zuletzt deshalb für die gesamte Mikroelektronik die Rolle der Technologielokomotive". Beginnend mit dem 1970 vorgestellten 1-Kbit-Speicher wurde etwa alle drei Jahre eine neue Chip-Generation mit einer um den Faktor vier gesteigerten Kapazität entwickelt. Dieser ungebrochene Fortschritt basiert auf einer steten Weiterentwicklung aller Aspekte der Halbleitertechnologie. Wesentliche Faktoren zur Steigerung der Leistungsfähigkeit der Chips waren:

- Vergrößerung der Chipfläche

- Verkleinerung der Strukturen

- Stapelung von Elementen übereinander

- Erhöhung der Prozeßkomplexität

- Optimierung der Schaltungsarchitektur.

Zur Herstellung von Speichern der Mega-Generation sind Hunderte von Arbeitsschritten nötig, wobei auch geringste Modifikationen negative Auswirkungen auf die Gesamtschaltung haben können. Dementsprechend ist jede Fertigung bestrebt, bewährte Verfahren so lange wie möglich beizubehalten. Dies steht jedoch in prinzipiellem Widerspruch zur Dynamik der technischen Weiterentwicklung, so daß Änderungen nur schubweise, meist bei einer neuen Chipgeneration, eingebracht werden können. Wichtige Innovationen waren zum Beispiel der Übergang zur CMOS-Technologie beim 1-Mbit-DRAM, die Einführung dreidimensionaler Speicherzellen beim 4-Mbit-DRAM und die Verwendung von zwei Metallisierungsebenen beim 16-Mbit-DRAM.

Eine Innovation mit gravierenden technologischen Konsequenzen waren dreidimensionale Speicherkondensatoren, wie sie seit dem 4-Mbit-Standard in allen DRAM-Versionen der verschiedenen Hersteller sind. Grund war der Zwang, zur Steigerung der Integrationsdichte den Platzbedarf der einzelnen Komponenten, speziell der millionenfach vorkommenden, jeweils ein Bit speichernden Elementarzellen, zu verringern. Der traditionelle Ansatz, mit jeder Speichergeneration die Kondensatorfläche und entsprechend auch die Dicke des Dielektrikums zu verringern, wer nach dem 1-Mbit-DRAM wegen der Gefahr von Ladungsverlust durch Tunnelströme nicht mehr gangbar. Um dennoch die Zelle weiter verkleinern zu können, bot sich als Ausweg an, durch Faltung des Kondensators die dritte Dimension zu nutzen.

Bei der "Stapelzelle" (stacked) ist der Kondensator über dem Auswahltransistor angeordnet, beim "Grabenkondensator" befindet er sich in einem in das Silizium-Substrat geätzten Loch (trench). Während beim 4-Mbit-DRAM Anfang 1989 noch der Grabenkondensator überwog, dominiert beim 16-Mbit-DRAM inzwischen das Stapelprinzip. Dafür sind verschiedene Gründe maßgebend. Einerseits erwies sich zum Beispiel die beim Stapelkondensator erforderliche Erzeugung eines zuverlässigen Dielektrikums zwischen rauhen Elektroden aus abgeschiedenem, polykristallinem Silizium als doch nicht so problematisch, während die Ätzung eines tiefen Grabens mit perfekter Form und sauberen Wänden einen unerwarteten Aufwand erforderte. Weitere Probleme des Grabenkonzepts sind erhöhte Prozeßschrittzahl und geringere Variationsmöglichkeiten im Vergleich zum Stapelprinzlp.

Eine der wesentlichen technologischen Neuerungen beim 16-Mbit-DRAM ist die sogenannte Mehrlagen-Metallisierung. Die Aufteilung der Aluminium-Leiterbahnen auf zwei Ebenen entspannt die Anforderungen an die Feinheit der Metallisierung und gestattet einen direkteren Zugriff auf die Speicherzellen. Bei jetzt schon über 100 000 Ampere pro Quadratzentimeter Stromdichte ist nämlich eine Verringerung des Querschnitts der Aluminiumleitungen kaum mehr möglich, da sonst Phänomene wie Elektromigration zu deren Zerstörung führen können.

Neue Art der Fotolithografie

Längere Bahnen bedeuten andererseits größere Signallaufzeiten und erhöhte Eigenkapazitäten, die wiederum die Anforderung an die minimale Zellkapazität hochschrauben. Während mehrere Lagen aus leitendem polykristallinem Silizium bisher schon Stand der Technik waren, bringt die Realisierung von zwei übereinandergelegten Netzen aus Aluminium eine Reihe von neuen Problemen mit sich.

Besonders gravierend ist die durch Aluminium gegebene Beschränkung auf Temperaturen von unter 450 Grad Celsius für die nachfolgenden Prozesse, die viele Standardverfahren der Schichterzeugung und Planarisierung ausschließt. Die Beherrschung der Mehrlagen-Metallisierung wird beim 16-Mbit-DRAM entscheidend die erzielbare Endausbeute beeinflussen.

Eine andere Innovation des 16-Mbit ist der Übergang zu einer Art der Fotolithografie, die durch die mit jeder Speichergeneration sinkende Strukturgröße erzwungen wurde. Bei der Fototechnik wird die erzielbare minimale Auflösung durch die Wellenlänge des verwendeten Lichts und die numerische Apertur NA des optischen Linsensystems bestimmt. Sowohl durch Verkürzung der Wellenlänge als auch durch Vergrößerung von NA läßt sich die Auflösung verbessern. Da eine Änderung der Wellenlänge jedoch auch eine Neuentwicklung der verwendeten lichtempfindlichen Fotolacke erfordert, zogen es bis zum 4-Mbit-Speicher die Halbleiterhersteller vor, mit der bisher üblichen Quecksilberhochdrucklampe zu arbeiten, die Licht mit einer Wellenlänge von 436 Nanometern ("g-Linie") emittiert.

Dies bedingte allerdings Stepper mit immer größerer NA, daß heißt mit aufwendigen Linsensystemen, die wiederum nur einen stark verringerten Tiefenschärfebereich aufwiesen. "Stepper" heißen die modernen Belichtungssysteme, die im Gegensatz zu früher nicht mehr eine ganze Scheibe auf einmal belichten, sondern schrittweise jeweils nur wenige Chips in den Dreidimensionalität: Schnitt durch das Zellenfeld eines 16-Mbit-DRAMs. In jedem Graben wird ein Bit gespeichert.

Fotolack "hineinblitzen". Dieses Verfahren dauert zwar länger, mit dem alten System ließe sich jedoch bei den heutigen Scheibendurchmessern von 15 Zentimetern und Strukturbreiten unter einem Mikrometer niemals die notwendige Exaktheit erreichen.

Da beim 16-Mbit-Speicher Minimalstrukturen von zirka 0,55 Mikrometern realisiert werden müssen, wurde der Übergang zu der kürzeren "i-Linie" (365 Nanometer) als Lichtquelle unvermeidlich. Eine Konsequenz war die Entwicklung einer für den ultravioletten Bereich optimierten Optik. Hier konnten in den letzten Jahren erhebliche Fortschritte erzielt werden, ohne aber bisher die bei g-Linien-Steppern möglichen hohen Werte von 0,55 zu erreichen.

256-Mbit-Speicher mit Lichtoptik strukturiert

Gemäß dem derzeitigen Diskussionsstand in der Fachwelt zeichnen sich auch gute Chancen ab, selbst 64- und vielleicht sogar 256-Mbit-Speicher noch mit Lichtoptik strukturieren zu können. Dabei hofft man, durch Einsatz von im tiefen Ultraviolett (200-250 Nanometern) emittierenden Excimer-Lasern und der Verwendung von "Phasenverschiebungsmasken" noch Strukturen im 0,2 Mikrometer-Bereich herstellen zu können, ohne, wie früher prognostiziert, die optische Lithografie zugunsten neuer Techniken wie der Röntgenlithografie aufgeben zu müssen.

Phasenverschiebungsmasken beruhen auf dem Prinzip, durch das Aufbringen spezieller Schichten in Teilen der transparenten Maskenbereiche das dort durchgelassene Licht in seiner Phase um 180 Grad zu verschieben. Bei regelmäßigen Strukturen kann so über Interferenz mit benachbarten, nicht verschobenen Strahlen die Auslöschung störenden Streulichts erreicht werden. Diese Technik, erfordert allerdings Negativ-Fotolacke statt der bisher verwendeten Positivlacke sowie erheblich aufwendigere, in ihrer Beschichtung für die jeweiligen lokalen Strukturverhältnisse optimierte Masken.

Unklar ist auch, inwiefern zukünftige Stepper die Anforderungen an Größe und gleichmäßige Ausleuchtung des Bildfeldes erfüllen können, die Chips, mit Flächen von rund 300 Quadratzentimetern stellen werden. Weitere Probleme verursacht die zur exakten Positionierung von 15 bis 20 verschiedenen Maskenebenen erforderliche Lagegenauigkeit, und die Notwendigkeit, im 200 bis 250 Nanometer Wellenlängenbereich transparente, aber zugleich optisch korrigierte Linsen zu entwickeln.

In engem Zusammenhang mit der Belichtungstechnik steht die Entwicklung der Lacktechnik. Hochempfindliche Fotolacke sind eine Grundvoraussetzung zur Nutzung der Auflösungskapazität moderner Stepper. Solche Lacke sind jedoch andererseits auch sehr anfällig für alle Arten von Sekundärlicht, das zum Beispiel von Stufen oder den verschiedenen, optisch transparenten Schichten der Unterlage stammen kann. Die Folgen können Variationen in der Linienbreite oder durch stehende Wellen verursachte Modulationen der Lackdicke sein.

Die Röntgenlithografie wird seit langem als mögliche Nachfolgetechnik der Lichtoptik erforscht, der Einsatz in der Massenfertigung wurde jedoch bisher stets hinausgeschoben.

Der Grund liegt in den fundamentalen Änderungen, die ihre Anwendung bei der Chipherstellung erzwingen würde. Hauptprobleme sind dabei Materialfragen und die hohen Kosten für die Strahlenquelle.

Am besten läßt sich parallele, abstimmbare Röntgenstrahlung in einem Synchrotron erzeugen, dessen Preis mit etwa 50 Millionen Mark allerdings normalerweise prohibitiv sein dürfte, da die damit gleichzeitig betreibbaren zehn Stepper von den meisten Anwendern nicht benötigt würden. Inzwischen sind auch Stepper mit einer kleinen, konventionellen Röntgenquelle verfügbar, deren Strahlung allerdings schwächer und divergenter ist.

Parallelität der Röntgenstrahlung ist jedoch essentiell, da bisher keine Optiken zur Fokussierung verfügbar sind und somit vom jetzigen Prinzip der um den Faktor fünf verkleinerten Abbildung der Maskenstrukturen auf den Chip zugunsten einer "Schattenprojektion" abgewichen werden müßte. Dies bedeutet in der Praxis, daß die Masken statt Strukturgrößen von derzeit minimal 3 Mikrometern solche von unter 0,3 haben müßten. Für die mit der Herstellung solcher Masken und ihrer hundertprozentigen Kontrolle auf absolute Fehlerfreiheit verbundenen Anforderungen zeichnen sich derzeit noch keine raschen und preiswerten Lösungen ab.

Streustrachlung ist nicht zu befürchten

Diesen Problemen stehen andererseits eine Reihe von Vorzügen der Röntgenlithografie gegenüber. Dank des Fehlens eines Abbildungssystems existieren keine Begrenzungen bezüglich der Bildfeldgröße oder der Fokustiefe. Kleine, schwer zu eliminierende Partikel werden zumeist einfach durchstrahlt und Streustrahlung ist nicht zu befürchten. Da allerdings auch diese Technik nur bis Strukturgrößen von 0,1 Mikrometern reicht, wird ihr Einsatz entscheidend davon abhängen, inwieweit sich ein 256-Mbit-Speicher noch lichtoptisch herstellen läßt und ob dann die technische Weiterentwicklung ökonomisch überhaupt noch tragbar ist.

Die Ätztechnik ist kompliziert und irreversibel

Die Ätztechnik überträgt die von der Fototechnik erzeugten Lackstrukturen in die darunterliegende Schicht. Dieser Schritt ist jedoch im Gegensatz zur Lackstrukturierung meist irreversibel und zusätzlich sehr komplex, da das Ergebnis von vielen Faktoren abhängt. Die zu ätzende Schichtfolge spielt dabei ebenso eine Rolle wie die Chip-Topographie und Art sowie Vorbehandlung des Fotolacks. Der Idealprozeß sollte gleichzeitig schnell, reproduzierbar, selektiv, oberflächenschonend und anisotrop, also gerichtet sein. Da in der Realität jedoch ein Konflikt zwischen diesen Anforderungen besteht, muß für jede Situation der Ätzprozeß neu entwickelt oder zumindest stark modifiziert werden.

Die größte Selektivität läßt sich mit den chemisch kontrollierten Prozessen der Naßätzung erreichen. Diese früher auch zur Strukturierung verwendeten Verfahren werden heute nur noch für ganzflächige Schichtentfernung und Reinigungen eingesetzt, da bei mit der Schichtdicke vergleichbaren Strukturbreiten ein isotroper seitlicher Abtrag nicht mehr toleriert werden kann. Das Standardverfahren zur Strukturübertragung ist heute die Plasmaätzung, bei der eine elektrische Entladung Ionen erzeugt, die dann auf die Siliziumscheibe beschleunigt werden und so einen gerichteten Abtrag bewirken. Wichtige Randbedingungen sind dabei gute Selektivität gegenüber der Ätzmaske und der Unterlage, hohe und gleichförmige Ätzrate über die Scheibe sowie die Vermeidung von Oberflächenschäden, Partikeln und Rückständen.

Zu Beginn der Planartechnik war die "Lokale Oxidation" (LO-COS) der Standardprozeß zur Erzeugung des die einzelnen aktiven Komponenten voneinander isolierenden dicken "Feldoxids". Das zweite traditionelle Einsatzgebiet sind dünne Oxide, wie sie für Transistor-Gates oder Kondensatordielektrika benötigt werden. Gegenüber möglichen Alternativen wie der Schichtabscheidung zeichnet sich die Oxidation durch eine überlegene Qualität sowohl der dünnen Schichten als auch der Grenzfläche Oxid und Silizium aus.

Durchgeführt wird der Prozeß, indem man bei 900 bis 1000 Grad Celsius Wasserdampf oder Sauerstoff über die in großen Quarzrohren stehenden Scheiben leitet. Wichtig ist dabei die Verhinderung der Rückdiffusion von Luft in den Ofen, die bei Be- oder Entladung der Scheiben auftreten kann. Die Verwendung von Senkrechtstatt der traditionellen Waagrechtöfen ist hier ein vielversprechender Ansatz.

Da zur Erhöhung der Integrationsdichte immer mehr Lagen übereinandergestapelt werden, nimmt die Bedeutung der Schichttechnik zu. Typische Anforderungen sind hier gute (Gleichmäßigkeit bei hoher Abscheiderate, geringe Partikeldichte, hohe Prozeßstabilität und eine möglichst weitgehende Bedeckung von Stufen. Da mit der Zahl der Schichten auch die Höhenunterschiede auf dem Chip zunehmen, muß wegen der beschränkten Fokustiefe der Fototechnik, der Gefahr von Ätzresten an Kanten, und der schlechten Stufenbedekkung mancher physikalischer Abscheideprozesse zunehmend "planarisiert" werden. Dazu wurde eine Vielzahl von Verfahren entwickelt, die von der Verfließung eines durch Zusätze leichter schmelzenden Glases über die einebnende Wirkung von flüssigem Fotolack bis zu chemisch-mechanischem Schleifen reicht.

Unter den physikalischen Abscheidemethoden ist das "Aufstäuben", englisch "Sputtern", die wichtigste. Dabei wird ein aus dem Zielmaterial bestehendes "Target" gegenüber der Scheibe angebracht und so mit energiereichen Ionen beschossen, daß sich abgetragenes Material auf der Scheibenoberfläche niederschlägt. Das Verfahren wird besonders für Elemente wie Aluminium eingesetzt, die keine einfach zu handhabenden Verbindungen bilden. Vorteile sind die Vermeidung aggressiver oder instabiler Gase, dafür sind Partikel und die dem Verfahren inhärente schlechte Stufenbedeckung gewichtige Nachteile.

Zunehmend wird deshalb auch bei der Metallisierung versucht, mit "Chemical Vapour Deposition" (CVD) zu arbeiten. Dabei werden Gase in einem Reaktor über die Scheiben geleitet und durch Energie in Form von Wärme oder einer Plasma-Entladung zur Reaktion gebracht. Auf breiter Front wird die CVD-Technik zur Erzeugung der vielen, auf einem Chip benötigten Hilfs- und Isolationsschichten sowie für die Abscheidung des polykristallinen Siliziums eingesetzt.

Reinräume sind notwendig

Auch kleinste Luftverunreinigungen können bei der Feinheit modernster Chip-Strukturen die Schaltung zerstören. Eine Konsequenz ist die Notwendigkeit, Entwicklung und Fertigung integrierter Schaltungen in Reinräumen durchzuführen. Der Hauptteil der Defekte stammt heute jedoch von der Scheibenhandhabung und den Herstellprozessen selber. So können beispielsweise sich bei der Schichttechnik Partikel von den Reaktorwänden lösen oder nach einer Ätzung Rückstände bleiben. Eine immer aufwendigere prozeßbegleitende Analytik ist deshalb als rasch funktionierendes "Frühwarnsystem" notwendig.

Mit abnehmender Größe der kritischen Defekte wächst die Schwierigkeit, sie überhaupt noch zu finden. Dies gilt besonders für Partikel unter einem halben Mikrometer, da dann der Streuquerschnitt des zur Detektierung üblicherweise benutzten Lichtes stark abfällt. Bei heute etablieren Standardverfahren wird meist ein Laserstrahl über die Scheibe geführt und das Streulicht mit einem Fotodetektor erfaßt. Da das System nicht zwischen Defekten und normalen Strukturen unterscheidet, können so nur blanke Testscheiben gemessen werden. Versuche, über polarisiertes Licht oder die Schaffung eines die regelmäßigen Strukturen ausblendenden Fourier-Filters diese Einschränkung aufzuheben, reduzieren entweder die Empfindlichkeit oder treiben den Zeitaufwand in die Höhe. Verfahren, wie zukünftige Multi-Megabit-Chips auf Defekte von 0,1 Mikrometern Durchmesser schnell und zerstörungsfrei kontrolliert werden, existieren bisher nicht. Sie werden aber für die wirtschaftlichen Grenzen der Siliziumtechnologie entscheidend sein.

*Dr. Frank Stefan Becker ist Pressesprecher des Bereiches Halbleiter bei Siemens in München.