Mit der diesjĂ€hrigen Gamescom in vollem Gange scheint die deutsche Gameshow eine immer gröĂere PrĂ€senz in der Welt der Spiele und der Hardware zu erlangen. Neben einer Reihe von SpielankĂŒndigungen (und einer dazwischen liegenden Veranstaltung von Google Stadia) nutzt NVIDIA die Show auch, um einen unerwarteten neuen GeForce-Treiber zu starten. Der erste Treiber der Release 435-Familie, der 436.02, fĂŒgt verschiedene Funktionen hinzu und ĂŒberarbeitet sie. Dazu gehören die GPU-Ganzzahlskalierung, ein neuer SchĂ€rfungsfilter fĂŒr das NVIDIA-Freestyling-System sowie eine Ăberarbeitung des vorgerenderten Frame-Limiters (jetzt als Low Latency Mode bezeichnet) als 30-Bit-Farbe fĂŒr OpenGL-Anwendungen und die ĂŒbliche Reihe von Spielkorrekturen und Leistungsverbesserungen.
In NVIDIAs neuestem Treiber laufen verschiedene Dinge ab, und insgesamt fĂŒhlt es sich sehr nach einer Reaktion auf den Radeon-Start im letzten Monat an. Ein besonderer Schwerpunkt liegt auf Spielen mit geringer Latenz (Radeon Anti-Lag), Shader-basiertem BildschĂ€rfen (Contrast Adaptive Sharpening) und NVIDIAs Auswahl an Spielen zur Leistungsoptimierung (einige davon sind in unserer 2019-Suite enthalten). Was nicht heiĂt, den Treiber herunterzuspielen â wenn ĂŒberhaupt, ist er der interessanteste Treiber von NVIDIA seit langem -, aber er konzentriert sich definitiv auf bestimmte Funktionen, die der Erzrivale AMD soeben eingefĂŒhrt oder auf andere Weise auf sich konzentriert hat Im vergangenen Monat.
Endlich ganzzahlige BildvergröĂerung
Beginnen wir jedenfalls mit dem, was meiner Meinung nach der interessanteste Aspekt der heutigen AnkĂŒndigung ist, nĂ€mlich die UnterstĂŒtzung der Skalierung von Ganzzahlanzeigen. Dies ist eine Funktion, die Gamer schon seit einigen Jahren anfragen â ich habe sie seit Anfang dieses Jahrzehnt immer wieder angefragt â und die RĂ€der haben sich dieses Jahr endlich etwas frĂŒher in Bewegung gesetzt, als Intel beilĂ€ufig ankĂŒndigte, dass sie d unterstĂŒtzt die Funktion fĂŒr ihre Gen 11-GPUs, auch bekannt als Ice Lake. Da diese Teile jedoch erst nĂ€chsten Monat im Handel erhĂ€ltlich sind, sieht es so aus, als wĂŒrde NVIDIA mit ihrer Veröffentlichung Intel technisch schlagen.
Im neuen Treiber ist die Ăbernahme der Ganzzahlskalierung durch NVIDIA enthalten. Da die AnkĂŒndigung fĂŒr diesen Treiber vor dem Treiber selbst erloschen ist â dies ist um 9.00 Uhr MEZ fĂ€llig, nachdem dies geschrieben wurde â hatte ich keine Chance, die Funktion zu testen. Laut NVIDIA verhĂ€lt es sich jedoch so, wie Sie es erwarten: Skalieren Sie Bilder mit niedrigerer Auflösung auf ein ganzzahliges Vielfaches der ursprĂŒnglichen Auflösung, um ein scharfes, pixeliges Bild zu erhalten. Im Wesentlichen erhalten Sie ein Bild mit niedrigerer Auflösung, das auf einem Monitor mit höherer Auflösung angezeigt wird, als wĂ€re es ein Monitor mit niedrigerer Auflösung. Wichtig ist, dass dieser Modus sich stark von der herkömmlichen bilinearen (ish) Bildskalierung unterscheidet, die ein weicheres, unschĂ€rferes Bild ohne Pixelung erzeugt.
Weder ganzzahlige Skalierung noch bilineare Skalierung sind immer die richtige Lösung, aber je nach Situation kann jede Methode zu besseren Ergebnissen fĂŒhren. NVIDIA hat sich fĂŒr die Verwendung der Integer-Skalierung fĂŒr Pixel-Art-Spiele in einem eigenen Blog-Beitrag entschieden, bei dem die Pixel-Darstellung sehr beabsichtigt ist, obwohl diese Spiele in der Regel (aber nicht immer) fĂŒr sich genommen eine Integer-Skalierung durchfĂŒhren.
Simulierte Hochskalierung bei 2x Zoom: Ganzzahlige Skalierung (links) vs. bilineare Skalierung (rechts)
Ich denke, die interessantere Verwendung fĂŒr diese Funktion ist das Spielen auf 4K- und 5K-Monitoren, insbesondere mit Sub-RTX-2080-GPUs. Dies liegt daran, dass der hohe Ressourcenbedarf fĂŒr 4K + -Spiele fĂŒr alle schwierig ist, auĂer fĂŒr die leistungsstĂ€rksten GPUs von NVIDIA (und selbst dann âŠ), die das Rendern eines Spiels mit einer subnativen Auflösung erfordern. Dies fĂŒhrt wiederum zu der UnschĂ€rfe, die durch bilineares Upsampling verursacht wird. Bei einer Ganzzahlskalierung hingegen könnte ein Spiel mit 1080p gerendert und dann perfekt auf 4K (2160p) skaliert werden. Beim Spielen werden die Vorteile eines 4K-Monitors fĂŒr die Pixeldichte nicht mehr berĂŒcksichtigt, die SchĂ€rfe des nativen Auflösungs-Renderings bleibt jedoch erhalten. Dies ist keine einfache Lösung, bei der Sie Ihren Kuchen essen mĂŒssen. Insbesondere fĂŒr Laptop-Benutzer, bei denen 4K-Spiele bei 4K-Panels keine echte Option sind, ist das Potenzial riesig.
Es bleibt abzuwarten, wie gut dies in der Praxis funktioniert, sowohl in Bezug auf die Treiber von NVIDIA als auch in Bezug auf die Spiele selbst. WĂ€hrend NVIDIA die ersteren steuern kann, haben sie weniger Kontrolle ĂŒber die letzteren, so dass es immer noch subtile Möglichkeiten gibt, wie Spiele schlecht mit der ganzzahligen Skalierung interagieren können. Insbesondere ist die BenutzeroberflĂ€che / TextgröĂe, da dies manchmal an die Auflösung gebunden ist. Wie NVIDIA in seinen eigenen Versionshinweisen festhĂ€lt, funktioniert die Ganzzahlskalierung derzeit nicht gut mit HDR. TatsĂ€chlich ist das gesamte Feature immer noch als Beta-Version klassifiziert, auch wenn die Fahrer dies nicht tun.
Jedenfalls wird das Feature heute fĂŒr Turing-Besitzer eingefĂŒhrt â und nur fĂŒr Turing-Besitzer. Diese Funktion ist speziell fĂŒr Karten der GeForce RTX 20-Serie und der GTX 16-Serie verfĂŒgbar, nicht jedoch fĂŒr Karten der frĂŒheren NVIDIA-Serien Pascal (GTX 10) und Maxwell (GTX 900). Laut NVIDIAs AnkĂŒndigung hĂ€ngt die Funktion vom hardwarebeschleunigten, programmierbaren Skalierungsfilter in Turing ab. Um ehrlich zu sein, weiĂ ich nicht, wie genau diese Aussage ist oder wie stark sie fĂŒr frĂŒhere Karten blockiert. In der Vergangenheit hat NVIDIA zunĂ€chst neue Funktionen fĂŒr Teile der neuesten Generation eingefĂŒhrt und dann einige Monate spĂ€ter die Funktion fĂŒr Ă€ltere Karten zurĂŒckportiert, so dass dies möglicherweise noch der Fall ist.
Verbessertes BildschĂ€rfen fĂŒr NVIDIA Freestyle
Mit dieser Treiberversion wird auĂerdem ein neuer BildschĂ€rfungsfilter fĂŒr Freestyle hinzugefĂŒgt, die Post-Process-Filterfunktion des Unternehmens, die in GeForce Experience integriert ist. WĂ€hrend das Unternehmen bereits einen SchĂ€rfungsfilter in Freestyle hatte, bietet der neue Filter laut NVIDIA eine bessere BildqualitĂ€t und halbiert gleichzeitig die LeistungseinbuĂen des vorherigen Filters. In der Praxis scheint diese neueste ErgĂ€nzung das GegenstĂŒck von NVIDIA zum neuen kontrastadaptiven SchĂ€rfen von AMD zu sein â selbst ein GegenstĂŒck zum Deep Learning Super Sampling von NVIDIA â und bietet einen weiteren, allgemeineren Shader-basierten Ansatz, der dem von AMD funktional Ă€hnelt.
WĂ€hrend ich DLSS-Vergleiche hier auf ein Minimum beschrĂ€nken werde, da ich den Treiber selbst nicht getestet habe, ist die DLSS-UnterstĂŒtzung immer noch auf ein Dutzend oder Spiele beschrĂ€nkt â und obwohl dies beliebte Spiele sind, sind sie immer noch nur ein Teil des gesamten Gaming-Ăkosystems . Ein Postprocessing-Shader-basierter Ansatz kann dagegen fĂŒr die meisten Spiele (d. H. FĂŒr alles, womit Freestyle funktioniert) und die meisten APIs verwendet werden, wobei NVIDIA ihn fĂŒr DX9 bis DX12 zusammen mit Vulkan aktiviert.
Es bleibt abzuwarten, wie sich die BildqualitĂ€t mit der von DLSS oder AMD vergleichen lĂ€sst. Die Nachbearbeitung allein kann Daten, die beim Rendern mit niedrigerer Auflösung verloren gegangen sind, nicht vollstĂ€ndig wiederherstellen. Dies gilt auch fĂŒr Shader- und Deep-Learning-basierte AnsĂ€tze. Die native Auflösungswiedergabe bleibt der beste Ansatz fĂŒr die Bildklarheit. Was die Nachbearbeitung angeht, sind Leistung und BildqualitĂ€t eher Variablen eines Kontinuums als feste Werte. Daher gibt es Kompromisse und Vorteile in beide Richtungen, und je nach Spiel können die richtigen Algorithmen mit den richtigen Einstellungen einige ergeben gute Ergebnisse. Da die BildschĂ€rfe ein Schlachtfeld zu sein scheint, um das sowohl AMD als auch NVIDIA kĂ€mpfen möchten, wĂŒrde ich davon ausgehen, dass beide weiterhin an ihren Algorithmen arbeiten.
Max Pre-Rendered Frames wird zum Ultra-Low Latency -Modus
Eine weitere Neuerung im neuesten Treiber von NVIDIA ist die Funktion Max Pre-Rendered Frames, die wiederum auf die Radeon Anti-Lag-FunktionalitĂ€t von AMD zu reagieren scheint. Die selten wahrgenommene Funktion ist seit einem Jahrzehnt in den Treibern von NVIDIA vorhanden â und, wie NVIDIA gerne daran erinnert, stellt sie an erster Stelle â und ermöglicht es Benutzern zu steuern, wie viele noch nicht gerenderte gerenderte Bilder in der Warteschlange gerendert und angezeigt werden können . In 436.02 wird die Funktion als Modus mit niedriger Latenz erneut bereitgestellt und erhĂ€lt auch einen neuen Modus.
Insgesamt wird die umgetaufte Funktion sowohl im Namen als auch in der FunktionalitĂ€t etwas vereinfacht. Neben dem, was NVIDIA zweifellos fĂŒr einen zugĂ€nglicheren Namen erwartet, verfĂŒgt der Modus mit niedriger Latenz ĂŒber nur drei Einstellungen â Aus, Ein und Ultra -, die fĂŒr die vorherige Implementierung von Max Prerendered Frames unter 5 liegen.
In Bezug auf die FunktionalitĂ€t haben On und Ultra dann ein bisschen mehr Nuancen, wĂ€hrend Off genau das tut, was es auf dem Namen sagt (das heiĂt, nichts zu sagen, das Anstehen bleibt dem Spiel ĂŒberlassen). On komprimiert die Einstellungen der vorherigen Inkarnation im Wesentlichen auf ein einziges Label. Anstatt eine WarteschlangengröĂe von 1 bis 4 vorgerenderten Bildern auswĂ€hlen zu können, sperrt On die Warteschlange einfach bei 1 Bild. Unterdessen ist Ultra mehr oder weniger neu und geht einen Schritt weiter, indem die WarteschlangengröĂe auf 0 reduziert wird. Dies bedeutet, dass Frames just-in-time an die GPU gesendet werden und keine vorgerenderten Frames in Reserve gehalten werden .
Der Ultra-Modus bietet möglicherweise die niedrigste Latenz, aber die Kehrseite ist, dass alle ĂŒblichen Vorbehalte zum manuellen Anpassen der GröĂe der Renderwarteschlange weiterhin gelten. Die Rendering-Warteschlange ist vorhanden, um die Framestimulation sowohl auf der Anzeige- als auch auf der Rendering- / Ăbermittlungsseite zu glĂ€tten. Das Speichern dieser Frames kostet jedoch Latenz. Selbst wenn die Warteschlange kleiner gehalten wird, kann dies zu Problemen fĂŒhren, und Just-in-Time-Rendering ist noch schwieriger, da ein falsches Ăbermittlungstiming nicht verborgen werden kann. Aus diesem Grund ist es zunĂ€chst eine optionale Funktion, anstatt standardmĂ€Ăig auf Ultra zu setzen. FĂŒr latenzempfindliche Anwendungen (und latenzempfindliche Gamer) war (und ist) die Anpassung der GröĂe der Renderwarteschlange eine nĂŒtzliche Funktion.
In der Zwischenzeit ist der seltsamste Teil nicht das erste Mal, dass NVIDIA den Ultra-Modus anbietet. Bis zu Beginn dieses Jahrzehnts unterstĂŒtzten die NVIDIA-Treiber auch eine WarteschlangengröĂe von 0, weshalb ich nicht sicher bin, ob dies vollstĂ€ndig als neue Funktion gilt. Angesichts der schwierigen Warteschlangenstruktur und der Entwicklung der Betriebssysteme ist es jedoch durchaus möglich, dass NVIDIA einen neueren Algorithmus fĂŒr die Ăbertragung von Pacing-Frames implementiert hat.
Wie beim VorgĂ€nger ist der Modus mit niedriger Latenz auf DX9 / DX10 / DX11-Spiele beschrĂ€nkt. Low-Level-APIs wie DX12 und Vulkan geben Spielen eine sehr explizite Kontrolle ĂŒber die GröĂe der Warteschlangen, sodass Treiber die GröĂe der Warteschlangen in diesen neueren APIs nicht ĂŒberschreiben können (oder zumindest nicht sollten). Im Gegensatz zur Integer-Skalierung ist diese Funktion jedoch nicht auf Turing-basierte Grafikkarten beschrĂ€nkt, sodass alle NVIDIA-GPU-Besitzer sofort darauf zugreifen können.
OpenGL 30-Bit-Farben, mehr G-Sync-kompatible Displays und mehr
Zum Abschluss bieten die 436.02-Treiber noch einige weitere Funktionsverbesserungen. Neben den ĂŒblichen Leistungsverbesserungen â NVIDIA konzentriert sich insbesondere auf Apex Legends, Strange Brigade, Forza Horizon 4, World War Z und Battlefield V â bietet der neue Treiber auch UnterstĂŒtzung fĂŒr 30-Bit-Farben in OpenGL-Anwendungen. Diese Funktion wurde bereits im letzten Monat fĂŒr Benutzer des GeForce Studio-Treibers angekĂŒndigt und eingefĂŒhrt. Wie der Name schon sagt, können OpenGL-Anwendungen Bilder mit 30-Bit-Farben (10bpc) auf der GPU ausgeben. Bisher hat NVIDIA die Funktion bewusst auf die Quadro-Familie von Grafikkarten beschrĂ€nkt, um die Produktfamilien zu segmentieren und die Benutzer bei der Erstellung von Inhalten auf Quadro-Karten aufmerksam zu machen. Jetzt ist es fĂŒr GeForce- und Quadro-Benutzer in allen Studio- und Game Ready-Treiberfamilien verfĂŒgbar und ermöglicht die Verwendung eines breiten Farbspektrums mit allen APIs.
Auf der Monitorseite hat NVIDIA sein G-Sync-kompatibles Programm um weitere 3 Monitore erweitert: ASUS VG27A und Acer CP3271 & XB273K GP-Monitore.