Test

Neue Nvidia-High-End-Grafikkarte Geforce GTX 280

16.06.2008 von Daniel Visarius und Michael Obermeier
Nvidias neues DirectX-10-Spitzenmodell "Geforce GTX 280" verzichtet auf das SLI-Konzept und nutzt einen einzelnen "GT-200"-Grafikchip, eine leistungsoptimierte Weiterentwicklung der Geforce 8 und 9.

Von Daniel Visarius, Gamestar

Testbericht

Zotac Geforce GTX 280

Hochauflösende Flachbildschirme im 24-Zoll- oder 30- Zoll-Breitbildformat verlangen zumindest in der nativen Auflösung von 1.920x1.200 und 2.560x1.600 extreme Grafikleistung. Den meisten derzeit erhältlichen Karten geht in solchen Einstellungen bei "Crysis" oder ähnlich anspruchsvollen Titeln die Puste aus. SLI oder Crossfire-Verbünde schaffen das, neue Spiele profitieren aber oft erst nach einem Patch oder Treiber-Update von einer zusätzlichen Karte. Außerdem kämpfen die Systeme mit Mikrorucklern (kleine zeitliche Unregelmäßigkeiten bei der Bildausgabe an den Monitor).

Nvidias neues DirectX-10-Spitzenmodell "Geforce GTX 280" verzichtet auf das SLI-Konzept und nutzt einen einzelnen "GT-200"-Grafikchip, eine leistungsoptimierte Weiterentwicklung der Geforce 8 und 9. Mit einem Startpreis von 550 Euro richtet sich das High-End-Monster (fast 250 Watt Stromverbrauch unter Last) vorrangig an Spieler mit dicker Brieftasche und ebenso üppig dimensioniertem Netzteil. Als erste verkaufsfertige Karte erreicht die Gamestar ein Exemplar von Zotac. Zeitgleich mit der Geforce GTX 280 stellt Nvidia auch das kleinere Schwestermodell "Geforce GTX 260" vor.

Schnellste Grafikkarte derzeit

Piclens organisiert On- und Offlline-Bilder in 3D.

Die Geforce GTX 280 arbeitet schneller als alle anderen Grafikkarten bisher. Jedes, wirklich jedes Spiel können Sie problemlos in 1920x1200 mit vierfacher Kantenglättung flüssig spielen, teilweise sogar mit achtfacher. Selbst in der riesigen 30-Zoll-Auflösung 2.560x1.600, die fast doppelt so viel Rechenleistung verbrät wie 1.920x1.200, schafft die GTX 280 in vielen Spielen geschmeidige Bildwiederholraten. Beispiel Crysis: In 2.560x1.600 scheitert die GTX 280 mit 24,7 fps nur knapp an der 25-fps-Hürde. Geforce 9800 GX2 (7,4 fps), Geforce 9800 GTX (12,8 fps) und Radeon HD 3870 X2 (1,6 fps) bringen nur bessere Standbilder auf den Monitor. Mit achtfacher Kantenglättung und 16fachem anisotropen Texturfilter schafft Nvidias neues Flaggschiff noch respektable 20,6 Bilder pro Sekunde, die (deutlich günstigeren) Vergleichsplatinen brechen komplett ein. Unreal Tournament 3 zeigt ein ähnliches Bild. Bei GX2 und X2 sind die krassen Performance-Einbrüche (wieder einmal) auf SLI und Crossfire zurückzuführen. In zivileren Einstellungen wie 1.680x1.050 oder 1.920x1.200 mit oder ohne Kantenglättung liegt die Geforce GTX 280 allerdings nicht immer an der Spitze.

In Call of Duty 4, Crysis sowie Unreal Tournament 3 führt die 9800 GX2 mit bis zu 13 Prozent Vorsprung. Angesichts von Ergebnissen jenseits der 100 Frames spielt das in der Praxis jedoch keine Rolle. Schwerer wiegt da der Leistungsvorteil der GTX 280 in sehr hohen Auflösungen oder generell mit hochgeschraubten Qualitätseinstellungen. Vierfache Kantenglättung bügelt die gröbsten Ecken glatt, achtfache oder gar 16fache lassen letzte Unsauberkeiten verschwinden. Allerdings funktionieren diese Modi nicht zwingend in jedem Titel. In unserem Test verweigerte beispielsweise Call of Duty 4 eine achtfache Kantenglättung auf den Nvidia-Karten. Im Durchschnitt arbeiten GTX 280 (65,3 fps) und GX2 (62,3 fps) fast gleich schnell und knacken trotz unserer technisch anspruchsvollen Benchmark-Einstellungen die selten überschrittene 60-fps- Marke. Geforce 9800 GTX und Radeon HD 3870 X2 folgen im Gleichschritt mit 30 Prozent Sicherheitsabstand (40,5 und 40,6 Bilder pro Sekunde). Alle Benchmark-Messungen wurden auf dem Foxconn-Mainboard "Mars" mit einem 3,0 GHz schnellen Intel "Core 2 Quad QX6850" und 2,0 GByte Arbeitsspeicher unter "Windows Vista" mit Service Pack 1 und allen Patches durchgeführt. Für die Geforce-9800-Karten wurde der aktuelle stabile Treiber mit der Versionsnummer 175.16, für die GTX 280 die Vorabdateien 177.34. Die Radeon HD 3870 X2 wurde vom Catalyst 8.5 angetrieben.

Geforce GTX 280 Benchmarks

Benchmark Geforce GTX 280: Call of Duty 4

Benchmark Geforce GTX 280: Crysis GPU DX10

Benchmark Geforce GTX 280: Unreal Tournament 3

Benchmark Geforce GTX 280: World in Conflict

Benchmark Geforce GTX 280: Performance-Rating

Kein DirectX 10.1

Badaboom konvertiert Filme auf der GPU.

Der GT-200-Grafikchip der Geforce GTX 280 ist das mit Abstand komplexeste Rechenwerk im Spielebereich. In den Prozessor mit seinen 1,4 Milliarden Transistorschaltungen würden locker fünf Core 2 Duo passen. Doch statt wie bei Prozessoren rund die Hälfte des Platzes mit großen Zwischenspeichern zu verbrauchen, stecken in einem Grafikprozessor fast ausschließlich Ausführungseinheiten. Folglich schafft ein GT-200 bis zu 993 GFlops, ein Core 2 Duo E8500 mit 3,16 GHz lediglich 15,5 GFlops. GFlops sind das Maß für das theoretische Leistungsmaximum eines Prozessors bei mathematischen Fließkommaberechnungen, wie sie unter anderem auch bei Spielen anfallen. Der interne Aufbau des GT-200 basiert im Wesentlichen auf dem G80 (Geforce 8800 GTX) beziehungsweise dem G92 (Geforce 9800 GTX).

Traditionell programmiert Nvidia für jede neue Geforce eine speziell optimierte Technologie-Demo (HD-Video auf XL-DVD). In der aktuellen verteidigt die Göttin Medusa ein Artefakt gegen einen Eindringling.

Nvidia sparte sich überraschenderweise den Entwicklungsaufwand, den Chip vollständig DirectX-10.1-kompatibel zu machen (der GT-200 beherrscht Teile von 10.1). Man sei nach Gesprächen mit Spieleentwicklern zu dem Schluss gekommen, das DirectX-Update sei unwichtig, in jedem Fall unwichtiger als Leistung und Effizienz. DirectX-10.1-Spiele gibt es bisher jedenfalls kaum. Einzig Assassin's Creed zeigte auf Radeon-HD-3800-Karten, wie viel schneller DirectX 10.1 Kanten glätten kann. Doch dann entfernte Ubisoft die entsprechende Optimierung. Offizielle Begründung: Die 10.1-Unterstützung sei fehlerhaft. Das scheint uns allerdings zweifelhaft, zumal Assasin's Creed mit Hilfe des Nvidia-Programms »The way it's meant to be played« entwickelt wurde. Dass DirectX 10.1 sich noch als Spielestandard durchsetzen wird, bezweifelt die Gamestar zum jetzigen Zeitpunkt.

Medusa bringt 3 Millionen Polygone pro Bild, glaubwürdige Gesichter, physikalisch korrekt umherstreunende Staubpartikel und spektakuläre HDR-Beleuchtung auf den Schirm.

Anders als beim Wechsel vom G80 zum G92 sind die Verbesserungen des GT-200 weitreichender. Zunächst einmal hat Nvidia die Speicheranbindung von 256 Bit beim G92 auf 512 Bit Breite umgestellt. Dieser Schritt verdoppelt bei gleichem Speichertakt die Speicherbandbreite, was den Ausschlag gibt für das gestiegene Leistungsniveau - besonders in extrem hohen Auflösungen mit Kantenglättung.

Da der Speicher-Controller mit viermal 64 Bit organisiert ist, nutzt Nvidia diesen Punkt, um die zwei GTX-Modelle voneinander abzugrenzen. Die GTX 280 greift auf alle vier Kanäle zurück, die GTX 260 nur auf drei (448 Bit). Zum anderen steigt die Zahl der Shader-Einheiten gegenüber G80 und G92 von 128 auf 240. Eine Geforce 9800 GX2 hat mit 256 trotzdem mehr, aber auf zwei Chips zu je 128 verteilt. Die kleinere GTX 260 hat 192 Shader. Diverse Detailverbesserungen rungen an den Ausführungseinheiten steigern darüber hinaus die Effizienz des GT-200.

Davon profitiert auch die Geschwindigkeit der Kantenglättung, wie die Benchmarks zeigen. Neue Qualitätsmodi gibt es aber genauso wenig beim nach wie vor sehr guten anisotropen Texturfilter. Wer Crysis unbedingt in 2.560x1.600 in der höchsten Detailstufe mit 16facher Kantenglättung spielen will, kann zwei oder drei der neuen GTX-Karten auf einem passenden Nforce-Mainboard per SLI koppeln.

Kraft, die man hört

Mit dem Materialaufwand steigt auch der Strombedarf unter Volllast. Mit maximal 236 Watt braucht die GTX 280 in der Spitze ähnlich viel Energie wie die dafür berüchtigte Radeon HD 2900 XT. Im Desktop-Betrieb und bei der Blu-ray- oder DVD-Wiedergabe gelangen Nvidia Fortschritte (nur noch 25 und 35 Watt).

Im Zusammenspiel mit einem Nforce-7- Chipsatz mit integrierter Grafik lässt sich die GTX 280 unter Windows ganz abschalten. Um die entstehende Hitze abzuführen, hat die 23 cm lange Platine (wie die 9800 GTX) ein ausladendes 2- Slot-Kühlsystem. Der Lüfter bleibt unter Windows zwar leise, dreht in Spielen aber deutlich hörbar auf. Für empfindliche Ohren ist die Karte letztlich etwas zu laut.

Physik im Grafikchip

Nach der Übernahme von Ageia durch Nvidia wurde die Fertigung der PhysX-Beschleunigerkarten sofort eingestellt. Die Geforce GTX 280 unterstützt nun erstmals die Berechnung von PhysX-Effekten in der Grafikkarte. Nvidia verspricht eine vielfach höhere Performance im Vergleich zur Physikberechnung auf der CPU. Bisher unterstützen mehr als 150 Spiele die PhysX-Schnittstelle. Ausprobieren konnten wir das aber noch nicht, weil erst ein für Juli geplanter Geforce-Treiber PhysX auf der Grafikkarte aktiviert.

Da PhysX auch im Konsolenumfeld (Playstation 3, Xbox 360, Wii) verstärkt eingesetzt wird, gerät die konkurrierende Havoc-Engine mehr und mehr ins Hintertreffen. Nvidia will die PhysX-Schnittstelle für den Mittbewerb freigegeben, um eine einheitliche Physiklösung zu fördern. Diese wird jedoch von zwei Seiten torpediert. Intel hat Havoc übernommen und möchte deren Technologie auf Hauptprozessoren ausgeführt sehen. Überraschenderweise hat sich AMD in der letzte Woche zu Havok bekannt. Ob Microsoft parallel ein einer DirectPhysics-Schnittstelle arbeitet, die möglicherweise als Teil von DirectX 11 in einem oder zwei Jahren starten wird, ist noch nicht ganz geklärt - das Schnittstellen-Chaos aber in jedem Fall vorprogrammiert.

Mehr als Grafik

Nvidia feiert in seinen Produktpräsentationen die Entwicklung vom reinen Grafikprozessor hin zum Multifunktionswerkzeug, das die CPU auf vielen Anwendungsgebieten abhängt. So setzt die Wissenschaft moderne Grafikchips zunehmend in Großrechnern ein. Über eine Erweiterung kann das professionelle Videoschnittprogramm Premiere Pro die Encodierung auf der Grafikkarte schneller als auf der CPU erledigen.

Oder Sie organisieren Ihre Lieblingsbilder mit der Freeware Piclens auf einer optisch schicken 3D-Wand. Das über die Welt vernetzte Rechenprojekt Folding@Home lief bisher nur auf CPUs, der Playstation 3 oder AMD-Grafikkarten und jetzt auch auf Geforce-Karten. Wer selbst Rechenleistung zur Krebs- und Alzheimer-Forschung beitragen möchte, bekommt das Programm auf der offiziellen Website gratis.

(gamestar/bb)