Veröffentlicht inTipps & Tricks

Nvidia GeForce RTX (Hardware) – GeForce RTX 3080 Ti

Nvidia schickt mit der GeForce 3080 Ti ein neues Grafikkarten-Flaggschiff ins Rennen: Für knapp 1.200 Euro soll man nicht weniger als ein Leistungsmonster bekommen. Im Test erfahrt ihr, wie sich die Grafikkarte gegen die RTX 3080 und die RTX 2080 Ti behauptet – und für wen die Anschaffung interessant sein könnte.

©

Shader, Raytracing und KI-Berechnungen

Der Grafikprozessor (GA102-225; 8-Nanometer-Verfahren) setzt wie alle GPUs auf Basis der Ampere-Architektur auf drei Kernarbeitsbereiche. Hierzu gehören die Streaming-Prozessoren und die CUDA-Kerne für die „normalen“ und häufig anfallenden Rechenoperationen im Grafiksektor (Shader), die RT-Kerne für die Hardware-beschleunigte Berechnung von Raytracing in Echtzeit sowie die Tensor-Kerne, die bei KI-Anwendungen auf Basis von neuronalen Netzwerken zum Einsatz kommen.

Während die dedizierten Raytracing-Kerne für die Hardware-Beschleunigung bei aufwändigen Raytracing-Berechnungen in RTX-Titeln oder DXR-Spielen (DirectX Raytracing) sorgen, werden die Tensor-Kerne bei DLSS (Deep Learning Super Sampling) oder bei Nvidia Broadcast genutzt. DLSS ist eine beeindruckende, KI-gestützte Methode zur Hochskalierung der Auflösung von Grafiken mit einem beträchtlichen Zugewinn bei der Bildwiederholrate ohne große optische Abstriche, wobei die ersten Versionen noch mit Unschärfen, Flimmern und Artefakten zu kämpfen hatten. Bei der aktuellen Version DLSS 2.x gelingt das KI-Rendering in der Regel ohne größere Fehler.

DLSS als Game Changer

[GUI_STATICIMAGE(setid=89309,id=92624434)]
In der Minecraft-RTX-Welt Portal Pioneers gibt es eine Benchmark-Möglichkeit. © 4P/Screenshot

Vereinfacht kann man sich die Funktionsweise von DLSS so vorstellen: Das Spiel wird nativ in einer niedrigeren Auflösung (z.B. 1080p) gerendert und dann später auf eine Zielauflösung (z.B. 14440p oder 4K) hochskaliert. Die für die höhere Auflösung notwendigen, zusätzlichen Pixel werden von einer KI berechnet, die speziell darauf trainiert wurde. Die KI hat das Upscaling anhand spezieller und sehr, sehr großer Bilder erlernt und wurde auf bestimmte Fehler trainiert. Des Weiteren kommen Anti-Aliasing (Kantenglättung), temporale Bild-Zusammensetzungsmethoden (Elemente aus vorherigen Bildern) und eine Nachschärfung im DLSS-Kontext zum Einsatz.

Dadurch, dass das Ausgangsbild in einer niedrigeren Auflösung gerendert wird, wird die GPU entlastet, da weniger Pixel des Ursprungsbildes berechnet werden müssen. Das ist die Grundlage für den Performance-Boost und die hähere Bildwiederholrate. Kommen aufwändige Raytracing-Effekte zum Einsatz, ist DLSS oftmals unabdingbar, um mit höheren Wiederholraten auf hohen Auflösungen spielen zu können, da Raytracing für gewöhnlich sehr viel Rechenleistung trotz dedizierter Raytracing-Kerne kostet. In unseren Benchmarks sind die Auswirkungen von DLSS sehr klar ersichtlich und schieben die Bildwiederholrate um mehr als 40 Prozent an.

[GUI_STATICIMAGE(setid=89308,id=92624396)]
Für die Stromversorgung an der Seite der Grafikkarte ist ein 12-poliger Anschuss vorgesehen. In der Founders Edition liegt ein Y-förmiger Adapter bei, der 2x PCIe 8-polige Stecker auf den 12-poligen Anschluss zusammenführt. © 4P/Screenshot

Je nach Vorhaben, Spiel und gewünschter Bildwiederholrate gibt es oft mehrere DLSS-Qualitätsstufen von denen aber „Qualität“ und mit Abstrichen „Ausgeglichen“ die besten Eindrücke hinterlassen, während „Performance“ und „Ultra-Performance“ eher für Spielereien oder 8K-Gaming gedacht sind. Je höher der Performance-Zugewinn sein soll, desto niedriger wird die native Ausgangsauflösung sein. Alle Spiele, die DLSS unterstützen, findet ihr hier.

In den Bereichen KI-Nutzung zur Bildoptimierung (DLSS) liegt Nvidia weiterhin vor AMD. Gleiches gilt für die Raytracing-Anwendungen, obgleich AMD ebenfalls auf den aktuellen Grafikkarten mit dedizierten RT-Cores arbeitet. Zudem werkelt AMD an einer „eigenen Super-Sampling-Variante“, die ohne Hardware-Beschleunigung daherkommen soll. AMD FidelityFX Super Resolution wurde auf der Computex 2021 vorgestellt und soll im Laufe des Jahres in erste Spiele eingebaut werden.