( deje | 2020. 10. 19., h – 22:19 )

A 2000-es évek környékén nekem is az volt a benyomásom, hogy az ATI kártyák szebb képet produkálnak. Pontosabban az NVIDIA kártyáknak volt fos mosott színük, minden sokkal szürkébb volt, mint egy ATI-n (vagy egy Matrox-on, Voodoo-n, TSeng ET6000-en, stb). Szerintem még az öreg S3 Savage4-esemnek is szebb színei voltak, mint a Gef2 környéki kártyáknak. Mindez persze VGA kimeneten. Lehet egyszerűen csak szarabb minőségű DA átalakítók voltak az NVIDIA kártyákba pakolva, amikkel találkoztam. Mindenesetre többen is osztották a véleményem.

Aztán a digitális korszak beköszöntekor szintén ez volt a véleményem, amíg rá nem jöttem, hogy a kretén NVIDIA kártyák, ha HDMI-t észlelnek (DVI-D -> HDMI átalakítóval is) Limited RGB-re kapcsolnak 1080p módban, mert azt hiszik, hogy buta tévére kötötted rá (Intel szintén....). Mind a mai napig ezt csinálják, hogy törne le a keze annak a baromnak, amelyik ezt kitalálta. Szerencsére átkapcsolható. Az AMD-nek annyi esze volt, hogy habár ilyenkor ők is TV-t feltételeznek, de nem Limited RGB-t használnak, hanem YCbCr-t (ők így hívják), ami majdnem pont olyan, mint a Full RGB. Kicsit arrébb van a fehéregyensúly, és egyes színek is kicsit másképp néznek ki (pl a piros élénkebb), de amúgy nagyon hasonló. Adalék: nem találkoztam még olyan HDMI-s tévével, ami ne tudta volna a Full RGB-t megenni.

DisplayPort-on jobb a helyzet, ott csak néhány NVIDIA rontja el. A lényeg, hogy Full RGB-t érdemes használni, mert a kártya is RGB-ben raszterizál általában, és a monitorodban is RGB pixelek vannak, így történik a legkevesebb színtér-átalakítás.