Nvidia Geforce GTX 680

Grafikkarte im Tempo-Streit (ausführlicher Test)

Friedrich Stiemer ist Inhaber des Redaktionsbüros Text.Talk.Tech.

Features

GPU-Boost:

AMD verbessert mit der AMD Radeon HD 7970 auch seinen Overclocking-Lösung Powertune. Nvidia zieht auch hier nach und führt mit der Geforce GTX 680 die Funktion GPU Boost ein. Wie der Name schon erkennen lässt übertaktet die Grafikkarte sich nun selbst bei Bedarf. GPU Boost ist eine Kombination aus Software- und Hardware-Techniken und passt den Prozessortakt dynamisch an die jeweiligen Betriebsbedingungen an, während eine dedizierte Hardware-Komponente fortlaufend die Stromaufnahme des Grafikprozessors überwacht. Hier begrenzt also - neben der thermischen Schutzfuktion - nur noch der Stromverbrauch das Overclocking. Praktisch setzt Nvidia GPU Boost folgendermaßen um:

Liegt die Leistungsaufnahme der Grafikkarte unter dem TDP (Thermal Design Power) von 195 Watt, taktet sie sich vom 1006 MHz hohen Grundtakt hoch auf den Durchschnittstakt von 1058 MHz, der übrigens schon 5 Prozent mehr Leistung bringen soll. Doch Schluß ist damit noch nicht, da sich der Takt ab diesem Zeitpunkt dynamisch stufenweise weiter erhöht. Erreicht die GTX 680 den von Nvidia gesteckten TDP, taktet sich der Prozessor wieder herunter. Auf diese Weise soll die Karte im Energieverbrauch drastisch sinken und dem bisherigen Stromfresser-Image der Vorgänger-Generation ein Ende setzen.

Adaptive VSync:

Als Tearing bezeichnet man ein versetztes Bild, etwa eine verschobene obere Bildhälfte, die oft bei schnellen Richtungswechseln in 3D-Spielen auftreten kann. Die Ursache liegt in unterschiedlichen Bildwiederholraten von Grafikkarte und Monitor. Die Vertikale Synchronisation passt die Werte an, bevor sie den Monitor erreichen. Doch kaum ist das eine Problem beseitigt, folgt das nächste: So stottert beispielsweise bei einem 60-Hertz-LCD bei eingeschalteten VSync das Bild, sobald die Bildwiederholrate unter 60 Bilder pro Sekunde fällt, da VSync die Hertz-Zahl des Monitors auf 30 Hz reduziert. Genau das möchte Nvidia mit Adaptive VSync verhindern. Die Technik steuert VSync dynamisch und schaltet es bei Bildwiederholraten von unter 60 Bildern in der Sekunde einfach ab, um das Stottern zu vermeiden - ab dieser Grenze ist die Synchronisation eingeschaltet, um das Tearing zu verhindern.

TXAA in Vergleich zu MSAA und Objekten ohne Kantenglättung.
TXAA in Vergleich zu MSAA und Objekten ohne Kantenglättung.
Foto:

TXAA:

Diese spezielle Technik soll eine filmreife Kantenglättung auf den Bildschirm zaubern. Nvidia zufolge ist TXAA eine Mischung aus Software- und Hardware-Kantenglättung, die teilweise auch Komponenten von computeranimierten Filmen nutzt. Das Anti-Aliasing kommt in zwei Stufen zum Einsatz: TXAA 1 soll besser glätten als achtfaches MSAA, dabei aber nur die Leistung von zweifachem MSAA benötigen. TXAA 2 dagegen soll eine noch bessere Kantenglättung als die erste Stufe ermöglichen und dabei nur auf Kosten von vierfachem MSAA kommen. Bald erscheinende PC-Games sollen erstmals TXAA nutzen, wie zum Beispiel Borderlands 2 oder auch die Unreal Engine 4.

3D Vision Surround: Die Geforce GTX 680 ist die erste Grafikkarte von Nvidia, die vier Bildschirme parallel betreiben kann.
3D Vision Surround: Die Geforce GTX 680 ist die erste Grafikkarte von Nvidia, die vier Bildschirme parallel betreiben kann.
Foto:

3D Vision Surround:

Mit einer Nvidia Geforce GTX 680 ist es nun möglich, bis zu vier Bildschirme gleichzeitig zu betreiben. Gamer können sich also drei Bildschirme nebeneinander stellen und im stereoskopischen 3D daddeln (Nvidia 3D Vision). Der vierte Screen kann bei Bedarf zugeschalten werden. Zusätzlich unterstützt die GTX 680 HDMI 1.4a und die 4K-Auflösung (3840 x 2160 Pixel) sowie die parallele Übertragung von Audio-Signalen.

NVENC:

Schon vorherige Nvidia-Grafikkarten verfügten über einen Hardware-Videodecoder. Diese nutzen die Leistung der Cuda-Kerne, was sich einerseits als recht effektiv herausstellt, doch auf der anderen Seite auch viel Leistung frisst. NVENC ist eine dedizierte Encodierungs-Engine und soll damit aufräumen: die neue Engine soll nicht nur vier Mal schneller encodieren, sondern dabei auch noch weniger Energie verbrauchen.

Ebenso wie AMD führt Nvidia mit der GTX 600 nun auch die neue Grafikschnittstelle DirectX 11.1 ein. Des Weiteren kommuniziert sie auch über PCI-Express 3.0, um einen höheren Datendurchsatz gegenüber der Vorgänger-Generation PCI-Express 2.0 zu gewährleisten.

Zur Startseite