Videospeicher für 4k-Gaming
10 GB Grafikspeicher kommen in der RTX 3080 zum Einsatz (GDDR6X; Bandbreite: 320-bit; theoretische Übertragung: 760 GB pro Sekunde). Die Grafikkarte ist laut Hersteller für 4K-Gaming mit maximalen Qualitätseinstellungen (z.B. bei Texturen) gedacht und in unseren Testläufen hat der Speicher in 4K-Auflösung locker ausgereicht. Meistens lag der Speicherbedarf bei Titeln wie Control, Assassin’s Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears 5, Borderlands 3, Death Stranding, Doom Eternal, Microsoft Flight Simultor, Horizon Zero Dawn und Red Dead Redemption 2 zwischen vier und sechs GB.
Es ist zwar davon auszugehen, dass der Speicherbedarf in den nächsten Jahren steigen wird, aber die 10 GB sind für 4K-Gaming nicht zu eng bemessen. Zumal mit RTX I/O und anderen Technologien auch das Laden bzw. Nachladen von neuen Daten enorm beschleunigt werden kann – und deswegen es viel schneller möglich sein wird, neue Daten in den Grafikspeicher abzulegen. Eine ausführlichere Analyse und Einschätzung findet ihr bei Resetera, in dem Beitrag wird ebenfalls dargelegt, weshalb viele VRAM-Tools das Speichergeschehen nicht korrekt abbilden (Speicher-Zuweisung vs. Speicher-Nutzung vs. Cache-Nutzung).
Für diejenigen, die eine NVMe-SSD mit einer RTX-3000er-Karte nutzen, dürfte RTX I/O auch dafür sorgen, dass Videospeicher kein stark limitierender Faktor für die Leistung sein wird – allerdings muss zunächst die Software-Schnittstelle (DirectStorage) die entsprechenden Technologien unterstützen.
Temperatur, Lautstärke und Strom/Watt
Die Grafikkarte erwärmt sich bei maximaler Auslastung stark und wurde im Testverlauf bis zu 81 °C warm. Die RTX 2080 Ti war aber noch etwas heißer. Die zwei auf der Founders Edition platzierten Lüfter waren bei Intensiv-Betrieb deutlich hörbar. Im Idle-Bereich, also z.B. im Desktop- oder Office-Betrieb, war die RTX 3080 völlig unauffällig und leise. Laut Hersteller soll die Founders Edition bis zu dreimal leiser als die 2080 sein. Der Gesamtstromverbrauch (TGP) der Grafikkarte liegt bei 320 Watt, weswegen ein 750 Watt Netzteil empfohlen wird. Laut Angaben von Nvidia soll die Ampere-Generation im Vergleich zu Turing effizienter bei gleicher Performance arbeiten (Faktor 1,9; höhere fps-Rate pro Watt). Für die Stromversorgung an der Seite der Grafikkarte ist ein neuer 12-poliger Anschuss vorgesehen. In der Founders Edition liegt ein Y-förmiger Adapter bei, der 2x PCIe 8-polige Stecker auf den 12-poligen Anschluss zusammenführt.
Nvidia Reflex, Studio und Broadcast
Zu den Neuerungen, die mit der 3000er-Reihe eingeführt werden, gehört ebenfalls Nvidia Reflex zur Senkung der Systemlatenz in kompetitiven eSports-Titeln, sofern die Spiele den Low-Latency Mode (Apex Legends, Call of Duty: Warzone, Fortnite und Valorant) nutzen. Laut Hersteller wird die Latenz um bis zu 50 Prozent reduziert, dieser Aspekt soll an dieser Stelle nur erwähnt werden. Getestet haben wir Nvidia Reflex nicht, auch mangels vergleichbaren Messmethoden. Des Weiteren verspricht die RTX-30-Serie eine Zeitersparnis bei Multi-App-Workflows, 8K-HDR-Videobearbeitung und der Arbeit mit großen 3D-Modellen – sowie bei der Anwendung von Raytracing. Live-Streamer sollen von Nvidia Broadcast profitieren, z.B. von der automatischen Entfernung von Störgeräuschen, Hintergrundeffekte und einen virtuellen Kameramann. Nvidia Broadcast läuft übrigens auf jeder RTX-GPU.
Naja, man muss aber auch sagen, die Radeon bekommt man ähnlich oder noch schwerer. Ne RX 6800 kostet 900€+
sehr frech!
derzeit muss man 1300€ hinlegen für eine karte die zu wenig V-ram für die nächsten 3 jahre haben wird.
nenene - Big NV - so werden wir erstmal sicher keine freunde! ich vermute sie wollen die leute ablinken, weil sie einige wohl gleich zu release abermals ne 3080TI mit 20GB holen werden.
bei diesem preis würde ich eine kaufwarnung aussprechen. ampere wird erst im sommer konkurrenzfähig sein. 10GB sind heute schon zu weing für 4K... und mal hand aufs herz. wer will denn 1300€ für ne karte ausgeben die keine 4K packt? sogar mein vater (technik-depp) hat schon nen 65" 4K-TV. sogar für den würde die karte heute schon nicht mehr reichen...
Habe die Karte seit gestern Mittag. Die Gute hat meine sehr treue ASUS GTX 970 in den wohlverdienten Ruhestand geschickt!
Und was soll ich sagen...Der Sprung für mich ist gigantisch! Ich habe richtig Spaß mit dem Teil. Fühlt sich son bissl an wie eine neue Konsole!
Und klar besser geht immer, aber für mich passt der Kosten/Nutzenfaktor zu 100%!
Mit AMD hatte ich in der jüngeren Vergangenheit mit GPUS echt schlechte Erfahrungen gesammelt wodurch ich immer wieder auf meine 970er zurückgreifen musste (Treiber, Defekter Speicher etc.)
https://www.pcgameshardware.de/AMD-Rade ... g-1360547/
Vram wirkt sich ja weniger auf die Chipleistung aus.
Könnte spannend werden am 28.20.
Vielleicht ist AMD doch nicht so stark und die sind nicht nötig. Oder sie bekommen einfach nicht genug Chips zusammen.