#0 Hvilken type artifacting? Somme tider kan nogle enkelte specifikke typer artifacts give et hint om hvad problemet kunne være.
#5 HDR er MEGET mere end alene nits til specular highlights, særligt når det kommer til video (altså egentlige film, serier, naturudsendelser og den slags). HDR er også støre bitdybde, resulterende i flere nuancer, dybere farver, mindre posterization og bedre shadowdetails mv, som selv f.eks. projektorer der slet ikke kan vise meget de meget lyse specular highligts kan drage stor nytte af i forhold til et SDR signal. Så naturligvis er en HDR400 med op til 400 Nits også at regne som HDR på de fleste parametre, selv om potentialet forbundet med de lyseste specular highlights naturligvis ikke er så stort som på en skærm der kan nå f.eks. 1000 eller 2000 nits. Men det er så i øvrigt ikke unormalt at en TV serie i HDR f.eks. slet ikke indeholder nits/specular highlights der når højere end måske et par hundrede nits - og så er det nok med skærme der kan nå f.eks. 400 nits, mens det naturligvis ikke er tilfældet hvis en film eller serie gør brug af f.eks. op til 4000 nits (som der endnu ikke er normale forbrugerskærme på markedet der er i stand til at gengive). Så skal der en ordentlig røvfuld tonemapping i spil.
I øvrigt er de fleste QD-OLED's også 400 nits skærme, f.eks:
https://www.samsung.com[...]
https://www.msi.com[...]
https://www.dell.com[...]
m.fl.
Den største forskel til 0#'s monitor, er at det er et OLED baseret panel med høj native kontrast på pixelniveau og ikke et VA-panel uden høj native kontrast på pixelniveau og dårligt sortniveau og dermed markant lavere kontrast. Det er først og fremmest dé forskelle der bringer konstrasten og dynamikken til live på OLED skærme - så hvis man endeligt skulle sige noget negativt, så er det at LCD-baserede paneler egentligt ikke egner sig til at fremvise HDR i samme udstrækning som OLED-baserede paneler gør det - også selv hvis et LCD baseret panel skulle være i stand til at nå f.eks. 800 eller 1600 Nits, sp ville det samlet set stadig vise ringere HDR end en 400 Nits OLED basert monitor. Og særligt i et mørkt rum vil op til blot 400 Nits HDR med et OLED panel, nu stadigt give betragteligt løft i billedkvaliteten med brugen af et HDR signal, da for mange nits i et mørklagt rum kan gå hen og blive direkte ubehageligt for øjnene.
I øvrigt spiller jeg selv på en HDR-skærm der kan klare op til 750-800 nits og benytter med stor fordel HDR signal på en på pixelniveau high-contrast 1900 Lumen projektor (1900 Lumen svarer til omtrent til oplevelsen af 500 nits, selv om det er en komplekse størrelser man ikke sådan bare kan sammenligne og oversættes 1:1 - jævnfør
https://quickandeasylighting.com[...] - men det korte af den lange den at der i hvert fald ikke er lige så meget klem på specular highlights på en projektor, men alligevel er HDR en stor gevinst, selv på sådan en - Så jeg er med andre ord ikke i tvivl om hvad HDR kan på tværs af de meget forskellige fordele forbundet med et HDR signal - også selv om mange forsimplende og vildledt tror at max. nits er den eneste fordel ved HDR, hvilket bestemt ikke er tilfældet, da fordelene er langt bredere end den ene dimension af sagen.
--
PC:7800X3D, 32GB 6KCL30, Gigabyte 4090 GAMING OC, 48" LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer MK-II,B&W 803D,SVS PB16-Ultra
--
Sidst redigeret 13-05-2023 01:08