Artificial Intelligence Gaming GPUs Graphics Reviews

MSI GeForce RTX 5070 Ti Ventus MSRP card review – Interesting chip for gamers and the end of the GPU shortage?

Problems measuring power consumption with riser cards

It’s getting a bit tricky now, because PCIe 5.0 poses considerable challenges to signal integrity due to its high data transfer rates, especially in conjunction with additional components such as riser cables or internal connections within the graphics card. While previous generations of PCIe were more tolerant of signal interference, PCIe 5.0 requires significantly more precise signal transmission due to the doubling of the data rate to 32 GT/s. Any additional connection – be it a riser cable or an internal connection cable between the graphics card’s motherboard and its PCIe connector – can cause potential signal loss, reflections or distortions that affect stability.

A common problem is that such connections change the impedance of the signal system. These changes lead to reduced signal quality, especially with longer or poorly shielded cables. Another problem arises from the potential introduction of crosstalk between parallel lines if they are not sufficiently insulated. In practice, such interference manifests itself in instabilities such as boot problems, unexpected crashes or the inability of the system to initialize the graphics card correctly.

The discussion about riser cables and adapters shows that not only users but also development teams such as NVIDIA are struggling with the complexity of this issue. The experience with boot problems with the RTX 5090 in conjunction with riser cables or even NVIDIA’s first generation PCAT adapter (the new one did it so far) illustrates how critical signal integrity is for this hardware to function correctly. The problem is exacerbated by the fact that the Founders Edition internally utilizes a cable connection between the card’s motherboard and its PCIe connector, introducing additional resistance and potential signal loss. While this design decision may be made for aesthetic reasons, it leads to increased susceptibility to interference.

This leads to a fundamental debate about prioritizing design over function. While appealing looks and innovative form factors are important, “form follows function” should be the top priority. Technically, this means that hardware must be designed to perform optimally under real-world operating conditions before aesthetic considerations are taken into account. A design that compromises on signal integrity in favor of optical or mechanical stunts is not sustainable and can significantly impact the user experience. I ended up having to solder together a new solution, but what does the average user do who might want to install their card vertically in the case and use an additional riser cable?

Workaround: Set the PCIe version in the BIOS to Gen3 or Gen 4 and use either the iGPU or an older card for the boot process. The performance losses are around 10 to 15 percent for Gen 3 (out of the question) and between 0 and 4 percent for Gen 4. Or you can clock the bus down by 1 to 2 MHz.

Total power consumption and compliance with standards in practice

The power consumption in idle mode of around 16 to 19 watts shows that NVIDIA could also further optimize the drivers here. Under load, the measured values are within the expected range. In some demanding games, the maximum power consumption reaches up to 315 watts and is then slightly above the TDP limit. It is interesting that the power consumption is even more economical in lower resolutions such as Full HD and QHD. This could indicate improved efficiency in the use of resources in these modes, as the GPU requires less computing power to process the lower number of pixels. In addition, the use of DLSS, especially in combination with multi-frame generation (MFG), helps to further reduce energy consumption. The targeted reduction of the render load using AI-supported technologies noticeably reduces the load on the GPU without significantly affecting the image quality.

The mainboard slot, also known as the PCIe slot (PEG: PCI Express Graphics), is designed for a maximum current of 5.5 amps at a voltage of 12 volts in accordance with the PCI-SIG standard. This corresponds to a maximum power consumption of 66 watts, which can be supplied directly via the slot. The PCI-SIG standard serves as the basis for ensuring a uniform and reliable power supply via the mainboard slot while maintaining system stability. The specified limit value of 5.5 amps also takes into account short-term peak loads that can occur during abrupt load changes. However, these load peaks must not overload the system or affect other components due to voltage fluctuations.

A key advantage of this standard is that it ensures interoperability and compatibility between mainboards and graphics cards from different manufacturers. Clear specifications on the maximum load prevent potential damage to the mainboard’s conductors and connectors, which could be caused by excessive currents. The moderate load on the slot not only ensures system stability, but also increases the longevity of the hardware components concerned.

Another advantage of this limitation is the possibility of providing additional power supply via external connections to meet the requirements of high-performance graphics cards. The graphics card in question, which does not push the limits of the power supply even when using the modern 12V2X6 power connector design, demonstrates particularly efficient load distribution. The PEG slot is only loaded with a maximum of 0.8 amps, which corresponds to less than 10 watts. This minimal load on the mainboard slot underlines the efficiency of the card and significantly reduces potential thermal loads or damage to the mainboard. The card therefore not only contributes to system stability, but also demonstrates well thought-out energy management that optimally distributes the load between different power sources.

Kommentar

Lade neue Kommentare

Widukind

Urgestein

653 Kommentare 312 Likes

Nachdem schon die 5080 preislich viel zu hoch war, hatte ich auch meine Hoffnung mit Blick auf die 5070 TI 16GB verworfen.

Bin doch froh, die 4070 TI S 16GB für 850€ gekauft zu haben (in den letzten 2Wochen jedoch auch auf 966€ angestiegen). 😅

Antwort 1 Like

Smartengine

Veteran

197 Kommentare 218 Likes

Fast 900€ für "Mittelklasse" ist schon ein starkes Stück. Leider normal heutzutage und wenn jemand fast keine Konkurrenz hat. :cautious:

Antwort 3 Likes

Dr4x

Veteran

211 Kommentare 184 Likes

Einfach nicht kaufen...

Antwort 6 Likes

Dragokar

Mitglied

65 Kommentare 44 Likes

Abgesehen vom „guten Preis“ für Nvidia und der dezenten Verfügbarkeit, wer zum Geier lässt solche Lüfter auf die Kunden los? Also ganz ehrlich für 900 € erwarte ich schlicht Ruhe im Karton und kein künstliches Upselling auf das nächst teurere Modell.

Das ist doch alles zusammen mehrfache Moppelkotze......

*edit*

Danke fürs Review, so viel Zeit muss sein^^

Antwort 4 Likes

R
RX Vega_1975

Urgestein

642 Kommentare 108 Likes

Jetzt kann AMD den Sack zumachen
und wenn massig liefern könnte echt die Chance nutzen
Aber wie ich AMD kenne versemmelt es AMD andersweitig.

Antwort 4 Likes

Widukind

Urgestein

653 Kommentare 312 Likes

Kann ja jeder für sich definieren. Für mich ist es bei 3440x1440 High End. Es gibt nichts was ich nicht mit maximalen Einstellungen spielen kann.

Mittelklasse sehe ich 4070, 4070S oder 7800XT,7900XT.

Aber ja, grundsätzlich ist Hardware sehr teuer geworden. Besonders Grafikkarten.

Antwort Gefällt mir

olligo

Veteran

401 Kommentare 154 Likes

Ich erinnere mich noch an die damalige 1080TI AMP Extreme von Zotac, die man für 850 - 900€ kaufen konnte - das waren noch coole Preise :)!

Antwort 2 Likes

Widukind

Urgestein

653 Kommentare 312 Likes

Zumal die Grafikkarte noch heute (~10Jahre später?) noch gut in 1080p performt! :cool:

Antwort 1 Like

olligo

Veteran

401 Kommentare 154 Likes

Richtig, die packt Cyberpunk in 1080p sogar auf hoch mit etwas FSR-Hilfe und teilweise 60fps, was krass ist :)!

Antwort 1 Like

F
FaktorX

Mitglied

33 Kommentare 17 Likes

Das wäre meine Grafikkarte wenn der Preis nicht wäre. :)
Ich warte mal auf die AMD Radeon 9070XT ;)

Antwort 5 Likes

SchmoWu

Veteran

115 Kommentare 40 Likes
grimm

Urgestein

3,639 Kommentare 2,708 Likes

Ist halt nicht die Leistung einer 4080 zum Preis einer 4080. Markt regelt. In jeder Hinsicht.

Antwort 1 Like

Widukind

Urgestein

653 Kommentare 312 Likes

Deswegen lieber (fast) die Leistung einer 4080 zum 400€ niedrigerem Preis kaufen. 😅 4070 TI S 😇

Antwort 1 Like

e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

@Igor Wallossek : Danke für den Test, und den Hinweis auf noch notwendige Treiberpflege von seitens Nvidia für Anwendungen! Daß dieses zum Launch noch nicht der Fall ist finde ich auch bemerkenswert, gerade für Team Green.
Die UVP der 5070Ti ist wohl in die "obere Mittelklasse" einzuordnen (was Karten für < € 500 dann wohl zu Einsteigermodellen macht 😜). Allerdings scheint die 5070 TI -so man sie zum UVP kaufen kann- schon deutlich abzuliefern. Und ja, wenn AMD jetzt mit der 9000 Serie tatsächlich eine echte Preis/Leistungsbombe bringen könnte, wär es eine Chance, deutlich Marktanteile zurück zu gewinnen. Allerdings wird's dazu auch ausgereifte Treiber zum Start brauchen, wird man sehen.
Die GPU, die die 5070 TI IMHO allerdings am ehesten ins Schwitzen bringt ist die größere Schwester, die 5080. Die 16 GB VRAM in der
5070 TI - genau gleich viel - macht die Kluft zwischen der 5080 und der 5090 noch deutlicher, und verwässert den Abstand zur 5070 TI. Spekulatius meinerseits: Nvidia wird hier bis zum Herbst/Winter 2025 (nach den Lieferengpässen) eine 5080 TI mit 20 oder 24 GB VRAM nachlegen, um die Abstände etwas natürlicher (zur 5090) bzw deutlicher (zur 5070TI) zu machen.

Antwort Gefällt mir

Klicke zum Ausklappem
e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

Gibt schon Gründe, warum Nvidia laut mehrerer Meldungen die Fertigung der Ada GPUs scheinbar eingestellt (gedrosselt?) hat. Die Preise der 4070TI und 4080 Super sind ja auch schon deutlich gestiegen.

Antwort 2 Likes

P
Pheenox

Veteran

128 Kommentare 97 Likes

So, dann hat Team Rot jetzt einen dreifachen Steilpass von Team Grün erhalten. Jetzt gilt es, diese Chance auch zu nutzen; denn günstiger werden die Sterne nie wieder stehen.

Das blöde ist: Wir kennen AMD. Die schaffen es 3 Meter frei vorm Tor zu stehen und die Eckfahne zu treffen. Aber ich hoffe inbrünstig, dass sie endlich ENDLICH mal was draus machen und den Markt da abholen, wo er steht; nämlich bereitwillig deutlich einige hundert unter 1.000 Euro für eine Grafikkarte zu bezahlen, die nicht high end, aber oberste Mittelklasse ist; also etwa 7900XTX Niveau für den aktuellen Preis der 7900 XT (650 - 700).

Es gibt nichts gutes außer man tut es.

Machen ist wie wollen, nur krasser.

Antwort 2 Likes

h
hellm

Moderator

1,534 Kommentare 2,252 Likes

Meine 4070 Ti Susi is auch ne Ventus, und das neue PCB ist ja nun noch kompakter, Sicherung nur noch an den 12V vom Slot, schmälere Spulen werden auch nix besser machen, und wenn man sich das gesamte Ding ansieht, fürchterlich. Minimize-Mania. Das PCB meiner Susi ist schon nix was beeindrucken könnte, aber das hier ist abschreckend.

Es wird immer schlimmer. Wenn die Karte mal verfügbar sein sollte, dann wahrscheinlich auch nicht zum MSRP/UVP.

Mal sehen was MSI noch auf Lager hat, oder ob das MS-V531 nun auch für alle anderen 5070 Ti hergenommen wird. Hoffentlich nicht, allerdings wird ein richtiges PCB dann sicher so teuer wie ne 4080S, zumindest auf dem Papier..

Antwort Gefällt mir

Gurdi

Urgestein

2,276 Kommentare 1,938 Likes

@Igor Wallossek Ist der GPU Kühler vernickelt?
Ansonsten mal wieder Megatest, die ganzen Details zur Karte sind schon Hammer.

Antwort 2 Likes

L
Legalev

Mitglied

86 Kommentare 72 Likes

Die 5xxxx ist im Endeffekt nur ein Refresh zur 4xxxx.

Antwort 4 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung