Allgemein GPUs Graphics Practice Reviews

NVIDIA GeForce RTX 5090 in the big DLSS 4.0 test – Is Multi Frame Generation a real performance booster or just a distortion of reality?

Hogwarts Legacy

Yes, I really loved this game for a long time, but never with DXR Ultra because the FPS loss was far too high for me. I also didn’t like the implementation of ray tracing at all. With the new update, it looks completely different and much better in many places. However, in some places ray tracing is also extremely exaggerated and totally unrealistic. But let’s first take a look at what the two graphics cards with DLSS can throw at the screen. My test scene looks like this:

Let’s go for a spin through the village. The settings remain unchanged – I only switch on the DLSS levels or frame generation. Who has never seen a really nice CPU limit? It looks like this, by the way:

Yes, the AMD Ryzen 7 9800X3D can’t really cope with the game in DXR Ultra natively. The game is simply extremely poorly optimized. And that’s exactly where the knife in my pocket pops open. As nice as DLSS or upscaling may be, and even if NVIDIA’s intention behind Frame Generation is 240 Hz in UHD… It’s no use if games are optimized more and more modestly in the future. This is a disaster we’re heading for! (You could also compare it to current politics)

The latencies all look the same:

The image also speaks volumes, as the latencies MFG 4x in no way match real 200 to 260 FPS. At least NVIDIA manages not to let the latencies drift off into the abyss. NVIDIA Reflex can’t really do its job because it doesn’t do anything in the CPU limit, except to keep Multi Frame Generation in check in terms of latency.

 

With the settings selected, Hogwarts Legacy is unfortunately a rather jerky affair. However, this is primarily due to the poor or non-existent optimization of the game. The CPU load is far too high and the graphics card is almost bored to death. Neither NVIDIA nor AMD can be blamed for this. I will look at the game again at a later date with different settings, because the game hasn’t run that badly for me yet. Maybe it’s also due to the pre-release version that was made available to us testers here?

 

 

102 Antworten

Kommentar

Lade neue Kommentare

grimm

Urgestein

3,639 Kommentare 2,708 Likes

Sehr guter Test! Danke für die Einordnung.
Wenn ich 60 oder 100 native Frames in UHD gerendert kriege, hab ich eigentlich keinen Bedarf an FG. Der Test in CP bestätigt meine Beobachtung in Indiana Jones - sobald die Szenerie komplexer wird, werden die generierten Frames zum Problem. Daran ändert auch das neue KI Modell nix. Auf einzelne Szenen (Straße im Outback, Innenräume) zu setzen, führt in die Irre, denn es kann in einem Spiel - abhängig vom Setting - zu sehr großen Schwankungen kommen, die mich zu sehr vom eigentlichen Spiel ablenken.
Insofern war es das jetzt endgültig für mich mit der 50er Gen - zu teuer, zu wenig Entwicklung und für den Leistungszuwachs einfach zu durstig.
Vielleicht sind wir Gamer aber seit gestern auch wieder wichtiger geworden - wenn es so weiter geht, wird aus Kroko unter Umständen Kunstleder 😉

Antwort 13 Likes

s
scotch

Veteran

199 Kommentare 178 Likes

Klasse Test, Vielen Dank. Für mich steht auf jeden Fall fest das die 4090 mich noch eine ganze Weile begleitet.

Antwort 4 Likes

LEIV

Urgestein

1,650 Kommentare 705 Likes

Sehr schöner und interessanter Artikel
Mich würde bei der FG/MFG Vergleich mal AFMF2 noch interessieren, wie schauen da die Latenzen/Bildqualität aus - und ab wie viel FPS sollte man es erst aktivieren?

Spiele selbst keine Grafikkracher und auch nur 1080p mit Ziel FPS 240, aber ab so 80FPS(ohne AFMF2) sieht und fühlt es sich einfach echt gut an

Antwort 2 Likes

Ifalna

Urgestein

748 Kommentare 676 Likes

Jetzt allen Ernstes? Selbst in 4K Max details?
Kann ich mir iwie so gar nicht vorstellen.

Antwort Gefällt mir

Schnuffel

Veteran

329 Kommentare 321 Likes

Respekt, Hammer Artikel.
Viel Input.

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Doch, das ist leider so :(

Antwort 3 Likes

Ifalna

Urgestein

748 Kommentare 676 Likes

Ist ja krass, wenn man bedenkt, das das System eigentlich nur ~30FPS rendert und der Rest mit DLSS Shenanigans nur auf der GPU passiert. Oder ist die CPU mit Framgen auch involviert?

Wobei ich es schon iwie makaber finde eine 2500€ GPU zu kaufen und dann mit DLSS Performance rumzueiern. :'D

Antwort Gefällt mir

H
Headyman

Veteran

207 Kommentare 100 Likes

Danke für den umfangreichen Test. Wie befürchtet, ändert auch das TM nichts wirklich bzgl. Artefakten. Man tauscht einfach Artefakte aus bei besseren Details, echte "Glanzleistung". Apropo Glanz:
Was mir auf dem ersten Vergleich auffällt, die Texturdetails sind besser mit TM, dafür fehlt das Glanzlicht völlig(!), ups das geht mal gar nicht.

Das das bei einfachen Szenen (einfachen Spielen) gut funktioniert ist sinnlos, da braucht man es nämlich auch nicht.

Sollte Nvidia (und dem Rest) weiterhin nichts einfallen, dann sind wir in einer Sackgasse.
Erweiterte Raytracing Funktionen werden es so die nächsten 5 Jahre nie in den Mainstream schaffen, dafür reichen die Performancesprünge der Fertigungen nicht aus.
Selbst im Toplevel wird es immer dünner, nächste Stufe 3Slot mit 800W und dann 1000W?

Antwort Gefällt mir

B
Besterino

Urgestein

7,630 Kommentare 4,144 Likes

Irgendwie habe ich für mich das Fazit zu FG/MFG mitgenommen, dass Nvidia vor allem einen Weg gesucht zu haben scheint, um eine möglichst hohe Zahl zu den FPS zeigen zu können, bös gesagt wohl weil/obwohl die Grundleistung kaum zugenommen hat. Im Prinzip ist 4K mit RTX on immer noch "nö", sondern ich muss erst mit DLSS die FPS möglichst austarieren als Kompromiss zwischen nem gescheiten Bild und Geschwindigkeit (FPS+Latenz) und dann darf ich mir noch ein paar Bilder dazu phantasieren lassen - mit wiederum weiteren Abzügen bei der Bildqualität, Latenz usw.

Ich kann nur hoffen, dass AMD und Intel die Gelegenheit nutzen und einfach bei der klassischen Performance wieder eine ordentliche Schippe drauflegen.

Antwort 3 Likes

Martin Gut

Urgestein

9,265 Kommentare 4,664 Likes

Man könnte ja die SLI-Bridge mal wieder aufmöbeln um zwei oder drei Grafikkarten zu verbauen. Da möchte ich dann aber das passende Netzteil und die Gehäusebelüftung sehen.

Antwort 4 Likes

Ifalna

Urgestein

748 Kommentare 676 Likes

Unrealistisch.
Ray Tracing bzw. Path Tracing ist für Echtzeitanwendungen einfach zu rechenintensiv. Daher sind wir fürs gaming auf Kompromisse wie DLSS angewiesen.

Wenn dann aber auch noch Entwickler schlampig arbeiten, wie in Hogwarts, dann hilft auch DLSS nicht mehr. Leider sind hastig zusammengeklatschte anstatt liebevoll durchoptimierte AAA Titel heute die Norm. Klar kann man dann sagen "Haha ein 12900K schaffts nicht mehr und da muss nen Upgrade her" aber iwie finde ich das den falschen Ansatz.

Was wohl mit der heutigen Technik möglich wäre wenn die Software wirklich optimiert wäre.... echt schade, dass eine 5090 mit DLSS Quality immer noch nicht stabil die 60FPS schafft.

Antwort Gefällt mir

N
Nitroschnitzel

Neuling

8 Kommentare 6 Likes

Ich sehe nur den Vergleich bei Cyberpunk, DLSS (egal welches) vs Nativ.
Die Blätter der Bäume :poop:

Ich möchte auch erwähnen das wohl kaum ein Influencer angemerkt hat das die 5090 FE ein Design Fehler ist.
CB hatt das wenigstens mal in einem Gehäuse getestet und überraschung mit einem 9800X3D (die X3D Cpu die endlich den Cache unter den Kernen hat und 20 kelvin kühler ist) geht auf über 90 Grad WOW, wahnsinn wer hätte damit bloß rechnen können wenn fast 600 Watt direkt in den CPU Lüfter gepumpt werden :D

Nein sowas aber auch, was wohl mit nem Intel passiert mit über 200 Watt Eigenverbrauch ?

Geiel Essen in den PC, 20 minuten bei 600-800 Watt Umluft backen bis alles eine schöne braune Kruste bekommt, hey ssds und spannungswandler werden gleich mit braun xD

Es ist nur meine Meinung, Niemand und das meine ich aus rein technischer Sicht, sollte eine 5090 FE kaufen, oder die Asus Astral >_>.
Das habe ich direkt bei der CES Vorstellung gedacht und Physik ist gesetz und lässt sich nicht ändern.

Antwort 4 Likes

Corro Dedd

Urgestein

2,094 Kommentare 872 Likes

Wenn man bedenkt, auf welchen Gerätschaften Hacker Doom zum laufen bekommen haben oder welche atemberaubenden Visualisierungen die Demo Szene auf simpelster Hardware vorzeigen, in Echtzeit, fällt es einem echt schwer zu glauben, dass normale Spiele auf echter high end hardware so mies laufen.

Antwort 1 Like

e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

Ist das dann in irgendeiner Form so ähnlich wie die Abhängigkeit der Battlemage dGPUs von der CPU Leistung? Die B580 ist zwar am anderen Ende der Preiskategorie, aber bei der wurde diese Abhängigkeit von der CPU Leistung ja von einigen Leuten moniert. Schon interessant, daß die Battlemage dGPUs da voll im Trend lagen. Ich finde es allerdings schon etwas haarig, wenn eine i9 12900 jetzt nicht mehr schnell genug sein soll.

Antwort Gefällt mir

FritzHunter01

Moderator

1,452 Kommentare 1,961 Likes

Das Thema mit den Blättern (Die Frabe) liegt am Nachschärfen. Das kann man etwas runterdrehen!

Antwort Gefällt mir

FritzHunter01

Moderator

1,452 Kommentare 1,961 Likes

Mein Intel 12900K hat in 3440 x 1440p in fast alle Spielen die 4090 limitiert. Das ist leider so... in UHD finde ich es einfach erschreckend, dass ein Spiel wie Hogwarts mit den kranken Settings schon nativ ein CPU-Limit auslöst. Und das ein 9800X3D hier so in die Knie geht...

Antwort 1 Like

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Das hatten wir doch alles schon einmal:

View image at the forums

Und die HD 6990 mit OC-BIOS schaffte auch locker 600 Watt...

View image at the forums

Antwort 13 Likes

S
SpotNic

Urgestein

1,616 Kommentare 788 Likes

War das nicht so, das mit steigender Auflösung die Last eher auf die GPU geht? Mein 13900K dümpelt immer bei 40 - 60% rum bei UHD.

Antwort Gefällt mir

FritzHunter01

Moderator

1,452 Kommentare 1,961 Likes

Also wer einen 240 Hz UHD OLED hat, der wird sicher bestrebt sein, die 240 FPS zu bekommen. Daher ist die Idee hinter Frame Gen nachvollziehbar. Leider ist es wohl so, dass wir einen Sprung wie von der 3090 zur 4090 nicht mehr so schnell erleben werden. Gründe:

Es fehlt das noch kleiner Fertigungsverfahren. 3N und was kommt dann? Die Architektur allein bringt nicht viel. Noch größere Chips sind noch teurer und brauchen nochmehr Strom.

Daher kommt bei mir wieder die Frage auf: Warum schreien immer Leute nach einem 8K Monitor? Wenn der Markt aufgrund der Nachfrage in die Richtung geht, dann sollen sich die Leute hier bitte im Forum zurhalten, wenn sie nur noch 10 FPS mit DLSS Performance bekommen. Warum denkt NVIDIA ernsthaft über MFG 16x nach? Genau wegen solchen - völlig sinnlosen Vorstellungen!

Antwort 8 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter (Stefan Bauer)

Werbung

Werbung