Monitors Reviews

Corsair Xeneon 34WQHD240-C QD-OLED review – When a good product suffers from an unattractive price

General measurement setup

There is basically not much to say. I use NVIDIA LDAT to measure the response times. This is placed in the center of the display. Just like I measure color fidelity with the SpyderX, for example.

I let the monitor warm up for an hour at 200 nits beforehand. As with calibration, the panel should warm up first. Then you avoid different measured values. My current test setup looks like this:

CPU Intel Core i9-12900K
Mainboard MSI MPG Z690 Carbon WiFi
RAM 2x 16 GB Corsair Dominator 6000 MHz CL 30-36-36-76
SSD 1 Samsung 980 Pro 500 GB (System)
SSD 2 MSI M480 2 TB (games)
SSD 3 HP EX950 2 TB (games)
SSD 4 HP SDD S750 1 TB S-ATA (backup)
CPU cooler Alphacool Eisbaer Aurora 360
Power supply Seasonic Prime Platinum 1300 Watt
GPUs

NVIDIA GeForce RTX 4090 FE
MSI AMD Radeon RX 6700 XT Gaming X

Sound SoundblasterX AE-5 Plus
Keyboard Sharkoon Purewriter RGB (Red Button) via USB @1000 Hz polling rate
Mouse Sharkoon Light² 200 @1000 Hz polling rate
Monitor
Corsair Xeneon 34WQHD240-C (QD-OLED 3440 x 1440p @ 240 Hz)
Test tools / software

Tools
Colorimeter: Calibrite ColorChecker Display Plus
Spectrophotometer: Calibrite ColorChecker Studio
Spectroradiometer: UPRtek MK550T
NVIDA LDAT V3: Response Times and Latency Sensor

Software
Portrait Displays Calman Ultimate 2024
UPRtek uSpectrum
UPRtek uFlicker
NVIDIA LDAT Displaytest
UFO Test (online)

If anything changes here, I will of course update this. The fact is that the PC hardware is basically irrelevant. I connected three different computers to the monitor and the results were always the same. The monitor itself should be NVIDIA G-Sync compatible. However, this is not a must for the GtG measurements! I always measure the response times after calibration. This creates the same conditions for all monitors.

Measurement method (GtG)

With the gray to gray (GtG) measurement, different gray levels are measured. But also from black = 0 to 255 = white. This results in 36 response times in the rise-up (black to white) and 36 in the rise-down (white to black) – making a total of 72 measurements. LDAT measures the time in ms that is required from the start color to the target color.

The current international standard for the response time is the 80 % transition. This means: In order to avoid measurement inaccuracies with regard to signal noise, LDAT also only measures the response time after 10 % of the start-transition curve and 10 % before the actual end. The overshoot is considered separately. See also the picture above.

Furthermore, it is currently not technically possible for me to make UFO recordings. I simply don’t have the necessary equipment. Unfortunately, I don’t have an adjustable high-speed camera (0 to 1000 FPS).

Nevertheless, I look at the motion clarity on the one hand with UFO (click here) and on the other hand with the NVIDIA LDAT software. (see picture above)

Display lag, monitor input lag and E2E latency

The display lag is the sum of the processing lag and half the scan-out (the image build-up to the middle of the screen = refresh lag). Measured via LDAT, for this – and I emphasize – only for the display lag, G-Sync compatibility is mandatory. This basically means FreeSync via DisplayPort. G-Sync must be activated in the NVIDIA driver.

For the actual input lag, I add the average pixel response time (playable overdrive). Example: 3.6 ms display lag 2.6 ms response time = 6.2 ms input lag

Finally, I measure the E2E latency. In other words: from the mouse click to half the pixel response time. Yes, only half the transition is measured here.

Attention:

All latency measurements are performed at the maximum refresh rate and the same FPS. Example: 240 Hz with 240 FPS

Measuring the color performance

I have already explained how I measure color performance in the basic article on Calman Ultimate from Portrait Displays.

In order to offer you the best possible color accuracy measurements, I always use the UPRtek MK550T Spectroradiometer.

 

On the one hand, the respective monitor is “profiled” in conjunction with Calman Ultimate so that I can also measure accurately with the Calibrite ColorChecker Display Plus Colorimeter. Secondly, each calibration is validated with the UPRtek MK550T. Furthermore, I also carry out various measurements with the UPRtek uSpectrum software – for example, the spectral analysis of each display in relation to the balu light component – the subject of eye-safe.

Here again to read:

I used the Calman Ultimate color calibration software from Portrait Displays for all measurements and calibrations. With my measurements, I can offer you certainty as to whether a monitor complies with the manufacturer’s specifications – or not.

Note

If you look at other tests on monitors from other testers, there may be differences – especially in the response times. You must therefore always check how other colleagues measure such things. This does not mean that my or other measurements are wrong. The differences arise due to different test methodologies and different hardware. The decisive factor is that all monitors are tested using the same measurement system/methodology. Then the values can be compared with each other. Please do not compare my measurement system one-to-one with others.

All measurements (latencies, response times, color performance, etc.) are repeated 3 times and must be subject to my defined accuracy.

Measurement repeatability:

Average Response Time /- 0.5 ms
Average Latency /- 1 ms
Average delta E 2000 /- 0,5
Brightness /- 10 Nits

The best result will be published. This ensures plausibility and fairness in the end! Continue on the next page.

 

Kommentar

Lade neue Kommentare

s
scotch

Veteran

199 Kommentare 178 Likes

Gibt es eine Möglichkeit bei der Bestellung eines Philips sicher zu stellen das man das neue Model mit der Verbesserung bekommt?

Antwort 1 Like

FritzHunter01

Moderator

1,452 Kommentare 1,959 Likes

Aktuell habe ich noch keine Information inwieweit sich die Modelle unterscheiden.

Ich weiß auch nicht, ob das neue Modell schon verfügbar ist!

Antwort Gefällt mir

Steffdeff

Urgestein

946 Kommentare 915 Likes

@FritzHunter01 zuerst mal Danke für den Test!😃
Welcher Preis wird denn für den Monitor nun aufgerufen? Im Intro steht 1350€ und im Fazit 1150€.
Im Vergleich zum Philips gleich mal das doppelte zu verlangen ist schon ein sehr selbstbewusster Preis.🫢
Hoffentlich kommt bald was solides im Bereich von 32“ und UHD was auch ein angemessenes Preisschild hat.
Ein Oled wäre schon ein feines Upgrade für meinen älteren 32“ LED!
Mein 65“ LG C4 war übrigens günstiger als der hier getestete Corsair, und der macht auch keine schlechte Figur.😉

Antwort Gefällt mir

Megaone

Urgestein

1,920 Kommentare 1,838 Likes

Ich glaube, das es gut wäre, Raffgier einfach Raffgier zu nennen. Ich wüßte auch nicht, das Raffgier eine olympische Disziplin ist. Der Raffgierigste hat auch wirklich keine Goldmedaille verdient. Wenn es irgendwo sportlich gesehen wird, dann bei den Bonuszahlungen diverser CEO`s. Welche Auswirkungen so einen Verhalten auf Dauer in einer Gesellschaft hat, hat man ja heute eindrucksvoll in den USA sehen können. Darum sollte man die Dinge einfach frühzeitig beim Namen nennen. Solche Verhältnisse wünsche ich mir wirklich nicht. Also fassen wir zusammen, Gier ist weder sportlich noch selbstbewußt, sondern einfach asozial und gehört auch so, und nicht anders gelabelt. Damit mich keiner missversteht, Jeder darf auf sein Preisschild malen, was immer er möchte. Aber jeder darf auch seine Meinung dazu haben und sie kundtun.

Antwort 3 Likes

FritzHunter01

Moderator

1,452 Kommentare 1,959 Likes

Letzte Woche waren es noch 1350 Euro. Steht auch noch so auf der HP von Corsair mit einem Discount von aktuell 200€ somit 1150€

Ich habe gestern Abend noch den Artikel angepasst

Antwort 2 Likes

G
Gixxerfreak

Neuling

1 Kommentare 0 Likes

Also ich kann nach langem Testen nur Gutes von dem Corsair Xeneon 34WQHD240-C berichten.
Klar er ist nicht günstig, aber für mich und meiner Meinung einer der besten Monitore.
Hatte vorher den LG Ultragear 34GS95QE und den Asus ROG PG34WCDM und bei den Beiden war die Schrift einfach grauenhaft unscharf und verschwommen.
Beim Corsair konnte ich schön die Schärfe einstellen und hab ein mega geiles und kontrastreiches Bild. Spiele auch in HDR, was ich vorher nicht gemacht habe.
Trotz des Preises bin persönlich froh mich für den Corsair entschieden zu haben.
Selbst der Asus Monitor, welcher auch nicht grad günstiger ist, kommt für mich nicht an das Bild des Corsairs ran. Ebenfalls ist das Garantieversprechen von Corsair auch ein super Kriterium für den Monitor.

Antwort Gefällt mir

FritzHunter01

Moderator

1,452 Kommentare 1,959 Likes

Der Monitor ist auch gut, das steht außer Frage, aber keine 600€ besser als mein Samsung. Beide haben das gleiche Panel…

Antwort Gefällt mir

N
Nryrony

Mitglied

11 Kommentare 7 Likes

Zur Preispolitik, selbst ein G9 OLED ist günstiger und bietet dabei mehr. Circa 900€ Straßenpreis und weniger Nachteile als der G8.

Antwort Gefällt mir

T
The_Invisible

Mitglied

36 Kommentare 8 Likes

Hab jetzt seit knapp 10 Tagen den Samsung g80sd und der Kontrast und HDR ist wirklich ein Traum aber ich komme aber einfach nicht mit diesem VRR-Flicker zurecht.
Jetzt beim neuen Indiana Jones Game in den dunklen höhlen merkt man es wieder sofort. Testweise meinen alten 144hz 4k IPS wieder angeschlossen und mit gsync kein Flicker, welch eine Wohltat. Ja gibt workarounds mit fps-limitierung und sogar gsync aus aber das kann's ja nicht sein den künstlich zu limitieren.
Kann das irgendwann technisch gelöst werden bei oled, warum gibt es das bei oled überhaupt und bei IPS nicht?
Bin echt kurz davor den OLED zurückzusenden, echt schade. Und irgendwie auch komisch das es so wenig thematisiert wird, für mich ist das schon ein großer Nachteil...

Antwort Gefällt mir

T
TheSmart

Urgestein

564 Kommentare 310 Likes

Ja das flackern bei OLED´s wird auch immer wieder beanstandet bei Handytests mit dieser Displayart. Ist wohl bauertbedingt und nicht alle sind empfindlich dem gegenüber,
Aber wenn man da empfindlich ist.. sollte man lieber auf andere Displayarten umsteigen Micro-LED mit den ix verschiedenen Beleuchtungszonen soll wohl auch eine sehr gute Alternative sein. Auch für HDR und solche Späße.

Und zum Monitor:
So von den wichtigenWerten ist der Monitor soweit sehr gut.
Ob ich jetzt diese extrem niedrigen Latenzen für mich persönlich brauche ist jetzt was anderes, aber wer viel Egoshooter spielt wird sich wohl darüber sehr freuen.
Und der Preis.. naja es ist Corsair.. was soll man dazu noch sagen?
Man ist es mittlerweile fast schon gewohnt das Corsair zwar ganz gute Produkte rausbringt, aber diese für völlig überzogene Preise.
Aber 600 Euro Aufpreis.. da kipp selbst ich aus den Latschen.
Dafür könnte ich mir schon fast dann einen zweiten Samsung daneben stellen.

Antwort 2 Likes

RAZORLIGHT

Veteran

401 Kommentare 304 Likes

Typische Corsair Preise, wie bei Asus einfach lächerlich.
Dennoch danke für den Test aber über 1000€ für ein Panel der ersten Gen ist dreist und frech.

Antwort 1 Like

T
TheSmart

Urgestein

564 Kommentare 310 Likes

Ich denke der große Durchbruch kommt da erst noch.
War das nicht TCL, die vor wenigen Monaten eine neue Variante von OLED´s in Aussicht gestellt haben.
Deutlich preiswerter in der Herstellung und sollen auch deutlich langlebiger sein.

Auch wenn sie nur einen Teil der Versprechungen am Ende einhalten können, könnte dies die anderen Wettbewerber dennoch kräftig in Zugzwang bringen. Und die Preise langfristig endlich ordentlich purzeln lassen.

Antwort 2 Likes

Megaone

Urgestein

1,920 Kommentare 1,838 Likes

Genau so schaut es aus.

Antwort Gefällt mir

j
john.smiles

Mitglied

61 Kommentare 23 Likes

@FritzHunter01

Ist es möglich, das wir User Monitore zum testen vorschlagen können? Der Acer Nitro XV5 XV275UP3biiprx scheint mir ein interessanter P/L Tipp zu sein.

Antwort Gefällt mir

Klicke zum Ausklappem
FritzHunter01

Moderator

1,452 Kommentare 1,959 Likes

Acer hat mich bisher noch nicht kontaktiert und ich habe keinen Kontakt zu Acer

Antwort Gefällt mir

b
bitracer

Urgestein

966 Kommentare 439 Likes

@The_Invisible
Flicker bekommt man nur mit angehobenen Min-fps in den Griff. Eventuell sind bestimmte Grafik-Optionen in Deinem Spiel/Spieleengine zu Viel für Deine GPU/CPU-Kombination, Deine CPU(!) generell ein Oldtimer (wie bei mir noch), oder das Game wurde halt von Erbsenzählern und Stümpern primär für Konsole "entwickelt".
Mein va-Panel mit 100Hz vrr und veralteter 4th-gen CPU zeigt das Symptom ebenfalls bei neueren Spielen.
Einstellungssache. Bring die min-fps hoch und freu Dich über weniger bis garkein Flicker.
Solltest Du es hinbiegen können, in problematischen Games 90+ natürliche min-fps zu bekommen, DANN könnte evtl Zwischenbildaddition (Frame-generation) die Sache ausbügeln, falls im Spiel implementiert. Genau dafür wurde das feature erfunden - auch wenn die ganze Hypetrain rund um Grafikkartentests etwas ganz anderes suggeriert.
Mein Favorit: freesync ohne vsync, dafür mit frame-cap innerhalb des Monitorvermögens.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter (Stefan Bauer)

Werbung

Werbung