Das Wettrennen geht munter weiter

16.04.2004
Es wird Frühling, und jetzt kommt ans Licht, was in den Hardwareschmieden den Winter über ausgebrütet wurde. Am 14. April stellte Nvidia sein neues Flaggschiff, den Geforce 6800, der Öffentlichkeit vor. Von ComputerPartner-Redakteur Hans-Jürgen Humbert

Noch höheres Tempo, noch schönere Bilder und noch bessere Grafikleistung verspricht Nvidia mit seinem neuen Grafikprozessor Geforce 6800. Die neue Namensgebung mit der 6000er-Serie verdeutlicht, dass es sich bei diesem Chip nicht um eine Verbesserung des alten Geforce handelt, sondern um die nächste Generation der GPU (Graphic Processing Unit). Mehr als 220 Millionen Transistoren werkeln in dem neuen Flaggschiff Geforce 6800 von Nvidia. Dementsprechend hoch sind auch die Stromaufnahme und die Verlustleistung des Chips. Die Chipabmessungen betragen schließlich stolze 40 x 40 Millimeter. Der normale AGP-Anschluss kann diese Ströme schon lange nicht mehr liefern, selbst ein Stecker für eine externe Stromversorgung ist hiermit überfordert. Deshalb musste Nvidia der Grafikkarte zwei Strombuchsen verpassen.

Besonders groß ist auch der Kühlkörper ausgefallen, der ebenfalls den Grafikspeicher mit bedienen muss. Außerdem befindet sich unterhalb der Platine noch ein so genanntes Backplate, das die entstehende Verlustwärme auch von der Unterseite des Chips abführen soll.

Der Chip ist bereits für die Anbindung an den schnellen PCI-Express-Port vorbereitet. Zunächst kommt die Geforce 6800 aber nur in der AGP-Version auf den Markt. Mit PCI-Express entfallen dann auch die zusätzlichen Stromversorgungsstecker auf der Karte. Ob dann auch gleich beide wegfallen können, wollte Nvidia noch nicht bestätigen. Der Prozessor kann erstmals auf DDR3-Speicher zugreifen. Während sich im PC-Umfeld erst langsam der DDR1-Speicher durchsetzt und auf Grafikkarten DDR2 zum Standard wird, geht Nvidia mit DDR3 hier gleich noch einen Schritt weiter. Der Speicher ist über ein 256-Bit-Interface mit der GPU verbunden. Über den Takt wollte sich das Unternehmen aber noch nicht äußern. Nur so viel: Die Ramdacs (zwei Stück) vertragen bis 400 MHz.

Mit fast 100 Millionen Transistoren mehr auf dem Chip konnte Nvidia viele weitere zusätzliche Funktion realisieren. Die superskalaren 16-Pixel-Pipelines sollen für eine besonders hohe Rechenleistung sorgen. 128-Pixel-Shader-Operationen kann die GPU mit einem einzigen Takt berechnen. Die Auflösung beträgt dabei 32

Bit.

Die grafischen Features

Die Texture Engine arbeitet nun mit 16 Bit und unterstützt 32-Bit-Floating-Point-Operationen. Rendering-Aufgaben kann die GPU mit einer Tiefe von bis zu 128 Bit pro Pixel durchführen, was eine exzellente Bildqualität verspricht.

Eine verbesserte Berechnung der Lichtreflexe verspricht sich der Grafikspezialist von der Ultra-Shadow-Technologie der zweiten Generation. Damit soll sich beispielsweise die Ausleuchtung von sich bewegenden Lichtkörpern (Lampen) im Spielverlauf noch besser realisieren lassen.

Ein eigener On-Chip-Videoprozessor soll die Qualität bei der Filmwiedergabe weiter steigern. Die Ausgabe kann sowohl in PAL als auch in NTSC erfolgen. Die beiden Ramdacs erlauben eine maximale Auflösung von 2.048 x 1.536 Pixeln bei einer Bildwiederholrate von 85 Hz.

Zum Verkaufspreis der Karte wollte sich Nvidia noch nicht äußern. Wie so oft überlässt der Grafikspezialist seinen Partnern die Preisgestaltung. Insider glauben, dass die Karten nicht viel teurer als das jetzige Flaggschiff, der Geforce 5950, sein dürfte.

Wem das zu teuer ist, der muss ein wenig warten, denn bald werden auch die ersten abgespeckten Derivate der 6800 folgen. Ab Mai sollen die ersten Karten in den Handel kommen.

Meinung des Redakteurs

Mit 220 Millionen Transistoren dürfte das Ende der Fahnenstange so langsam erreicht sein. Viel mehr Transistorfunktionen werden sich kaum auf einem Chip realisieren lassen. Die im Betrieb entstehende Verlustwärme wird sich auch beim Geforce 6800 nur mit Mühe und ganz vielen Gehäuselüftern in den Griff bekommen lassen. Aber der Geforce 6800 ist zurzeit der schnellste und beste Grafikchip der Welt. Mal abwarten, was ATI dagegensetzen kann.

Zur Startseite