HDR monitoron vagy tévén hogy, mit és mivel nézzek extra színeket? 8 bit helyett 10 bit vagy több.

Fórumok

Helló. Adott egy LG HDR10 PROt meg sok egyéb HDR szabványt támogató, Color Depth: Billion Rich Colors, Színmélység, 10bit (Billion Rich Color) TV. Oké, nézek rajta HDRes filmet és szép.

És egy Dell UltraSharp UP2715K monitor, ami: megjelenítés: 1.074 milliárd szín, mint a tévé. Van Windows 10em és Ubuntu 20.04 Linux, Nvidia VGA, mit tegyek hogy 10 bites gamout legyen, ne 8?

Van Prophoto RGB színtérben készült csatornánként 16 bites képem (HDRes, RAWba fotózott és utómunkázott). Hogy, milyen formátumba konvertáljam, hogy ki tudjam használni az LG vagy más TV 10 bites Wide Color Gamutot?

Mivel konvertáljam? Photoshop? Gimp? Más? Csak nem kell egy videó szerkesztőbe betölteni, és H265be 10 bites HDR videóként kimenteni REC. 2020ba (REC. 2100ba?), ha meg akarom nézni.

Milyen program képes ezt meg is jeleníteni, ha már a kijelző tudja? Az LG TV képnéző programja tudja? Vagy külső Androidos média player, ami HDRes üzemmódban van? Az Androidos média playerek hány színt tudnak maximum?

Ha van egy 8 bites, sRGB color space, PNG kép, azon kívül, hogy szép lesz, szín csatornánként 8 bit infót tartalmaz, a TV hiába tudna 10 bitet szín csatornánként. 

A normál nem HDRes TV elvileg 2^8 * 2^8 * 2^8 azaz 16 millió színt tud. Ez elvileg 2^10 * 2^10 * 2^10 azaz 1 milliárdot.

Segítsetek kérlek képbe kerülni ezekkel, a neten keresgélve nem találtam semmi hasznosat, persze biztos nem jóra kerestem. A legfontosabb a tévén megjelenítés lenne, mert érdekel hogy látni fogom vagy sem a különbséget, ha a színekben gazdag képet 10 bitesként, majd 8 bitesként csatornánként jelenítem meg.

 

Ide kapcsolódó cikkek és videók, hasznosak lehetnek:

HDR10, Dolby Vision, and HLG: How does high dynamic range video work? | Upscaled - YouTube

10-Bit 4:2:2 and S-Log: What Is It and Why You Need It? (digitalworldbeauty.com)

Rec.709 vs Rec.2020 vs Rec.2100 The Simple Explaination. - YouTube

HDR Standards Explained - HDR10, Dolby Vision, HLG - YouTube

Hozzászólások

színterekről prophoto rgb

Profoto RGB: Az egyetlen színtér, amely biztosan képes tárolni minden színt, amit a kamerák és a printerek látnak. Mivel a fényképezőgép alap színtere biztosan kisebb ennél a színtérnél és nagyobb az Adobe-nál, ha a raw feldolgozás végén Profoto színtérbe alakítjuk a képet, nincs színveszteség. Biztos, hogy nem használjuk ki a Profoto tudását, viszont nem is veszítünk színeket. Hátránya, hogy kizárólag 16bit/ch-en szabad használni! 8 bit/ch-en az apró szaturált részek poszterizálódnak, kitöredeznek. Ebből adódik, hogy csak igazán értő kezekben, professzionális utómunka esetén éri meg használni, nem értő kezekben kifejezetten rosszat tesz a képnek! Azoknál a papíroknál, illetve képeknél ahol sok telített, érzékeny szín van, megéri a Profotót használni. Apró probléma, hogy hiába van a lehető legjobb (sok százezer forintos) monitorunk, az még mindíg „csak” Adobe RGB színeket képes mutatni. Gyakorlatilag úgy retusálunk, hogy a monitor nem képes megmutatni a kilógó színeket. Természetesen a soft proof és a gammut warning remek mogoldás erre a problémára. A Profoto RGB-t átlagos felhasználásra nem ajánlom, csak azoknak, akik értik a színtani problémákat, kiállításra szánt csúcsminőségű nyomatokat akarnak készíteni (10-12 tintás archív pigment print vagy C-print), jó minőségű kalibrált eszközökkel dolgoznak, és olyan képeik vannak, amelyeken szerepelnek ezek az érzékeny, telített színek.

PS-ben  úgy tudom be lehet kapcsolni a 10bitet az nvidia studio driverével asszem gtx 1050-ről, megszünteti a sávosodást.

Köszi.

Prophoto RGB az oké. Az a nem tiszta, hogy milyen file formátumba mentsem le a 16 bites Prophoto RGB színteres képet, hogy meg is tudtam nézni úgy.

TIFben van jelenleg, de például ezt a formátumot a HDRes tévék nem támogatják. Van png, jpg, néha webp, kb ennyi.

A Prophoto RGB színtérrel tudok menteni 16 bites pngt és jpgt. A képekben benne lesz az ICC profile, tehát ha olyan képnézővel nézem, ami támogatja az ICC profilokat, akkor színhű lesz. Ha régi vagy kevésbé okos a program, akkor nem lesznek jók a színek, mert nem veszi figyelembe az ICC profilt.

Szóval mivel nézzem meg az ilyen png, jpg vagy tiffet tévén és számítógépen?

a 16 millió és a billion szín között

Fura így látni, hogy az egyiket magyarul, a másikat meg amerikaiul írod.

Főleg, mivel magyarul a billió mást jelent.

disclaimer: ha valamit beidéztem és alá írtam valamit, akkor a válaszom a beidézett szövegre vonatkozik és nem mindenféle más, random dolgokra.

tömörítésre gondoltam, de png egyértelmű hogy jobb minőség.

de én jobban szeretem a jpeg-et, mert kevesebb helyet foglal!:D

két dell oázisnál prémium kalibrált monitorom van 2417H, 2419H. hiába kalibrált 17-esen rosszabbak a színek az újabbhoz képest.

ha nem nyomtatás a cél, akkor prorgb-nek nem sok értelme van...

A jpg (baseline) nem tud csatornankent 8 bitnel tobbet. Png-ben elvileg lehet 16 bites szincsatornakat is hasznalni.

A kulonbseg egyebkent nem (csak) a savosodasban van, hanem abban is, hogy mekkora dinamikatartomanyt fed le. A "HDR" uzemmodot tudo monitorokban az a plane, hogy a hattervilagitas eleg kraftos ahhoz, hogy a kepen bizonyos reszletek sokkal fenyesebbek legyenek az egesznel. Vagyis az extra biteket nem arra hasznaljak, hogy ugyanarra a fenyessegtartomanyra kepezzenek le tobb (finomabb) arnyalatot, hanem folfele kiterjesszek a fenyerot.

Amennyire tudom (csak feluletesen olvastam utana mikor nemreg monitort akartam venni), a "HDR" uzemmod valami floating point-szeru nemlinearis lekepezest hasznal, vagyis sokminden elegge mashogy mukodik. Nemcsak annyi van, hogy 8 bit helyett 10 bit. Linux alatt ugy tunik, hogy egyelore nem igazan jol tamogatott, de gyakorlati tapasztalatom nincs vele.

Régóta vágyok én, az androidok mezonkincsére már!

2^8 = 256, vagyis minden színben ennyi fokozat van. Engem még ∞ fokozat esetén, azaz analóg tévén is zavar, amikor pl.  egyszínű (pl. kék vagy szürke) átmenetet látok, és "szintvonalak" jelennek meg rajta, mint egy térképen. Tehát egy terület valamilyen homogén szürke, mellete jól láthatóan elválik a kicsit sötétebb szürke, még odébb kicsit még sötétebb szürke, stb. Biztosan a közvetítő láncban valahol 3x8 bites feldolgozás volt. A legtöbb programnál nem venni észre, de néha igen. Szerintem a 8 bit színenként kevés.

Nem, azt tobbnyire a tomorites barmolja el. Normal (100-200 nit) fenyerotartomanyt 8 bitre felosztva nincsenek latvanyos szintvonalak, plane ha van egy kis alapzaj (ha nem renderelt kep, akkor biztosa lesz) vagy dithering. A tomorito ket modon tud bajt kerverni: 1. a dithering/finom alapzajt a frekvenciatartomanybeli kvantalas eltunteti 2. ha tul alacsony a bitrata, akkor kvantalnia kell a DC egyutthatokat is, vagyis a blokkok alapszineit is kevesebb, mint 3x8 bit irja le. H264 eleg hajlamos erre (egy 15+ eves codec-rol beszelunk...), kulonosen ha alacsony a bitrata, marpedig a legtobb kabelteve-szolgaltonal eleg alacsony. A H265 ebbol a szempontbol tapasztaltom szerint jobban szokott mukodni.

Régóta vágyok én, az androidok mezonkincsére már!

Amugy a problemakor engem is erdekel (bar nem feltetlen, hogy a TV kozvetlenul jelenitsen meg kepeket). RAW kepeket szerkesztve rendszeres problemam, hogy vagy megtartom a vilagos reszleteket, de akkor egy kontraszttalan, elettelen szart kapok; vagy clippelem a csucsfenyeket, dinamikakompressziot allitok, local kontrasztozok stb., amitol ugyan "utos" szineket kapok, viszont izlestelen renderelt/muanyag kinezete lesz, vegul pont azt a hatast fogom reprodukalni, ami miatt eleve nem felelt meg a kamerabol kieso default jpeg, es raw-ba fenykepeztem.

Szoval kellene modszer, hogy a kamera szenzor altal 10-14 bitnyi extra fenyerotartomanyt valahogy meg tudjam tartani es vegig tudjam vinni a megjelenitoig.

Régóta vágyok én, az androidok mezonkincsére már!

Nem akarlak elszomorítani, de kötve hiszem hogy bármelyik HDR TV-n értelmesen lehetne statikus KÉPEKET megjeleníteni/nézni.

Egyszerűen nem arra találták ki.

 

A HDR önmagában sem a színtér kibővítése, hanem a dinamikatartomány trükkökkel való feltornázására.

Tehát arra, hogy ott is láss részleteket ahol egy hagyományos kép már 'bebukna' (minden fekete lesz) és ott is ahol 'kiégne' minden fehér lesz.

ezt még RAW-ban fotózva is csak több kép összemosásával lehet elérni, de a végeredmény megítélése eléggé szubjektív.

(Ha túlzásba viszed, akkor durván nem életszerű lesz)

 

Az inspiráció onnan jön, hogy a szemünknek nagyságrendekkel nagyobb a 'dinamika tartománya' mint amit egy képre rögzíteni tudunk. így a HDR mint EFFEKT ezt próbálja utánozni - több kevesebb sikerrel.

Szerkesztve: 2021. 11. 03., sze – 09:03

a színtér növelése egy másik kérdés, ennek lehet értelme, és ahogy már többen is pedzegették ez leginkább a színátmeneteknél érhető tetten a gyakorlatban.

 

Azonban TV-k még mindig nem erre vannak optimalizálva - és nyilván kicsi a merítés, de én még egyátalán nem láttam olyan TV-t, ami akár csak összehasonlítható lett volna egy profi grafikus monitorral...

 

Ezen felül, ahogy te is látod, elég kevés szabvány van, ami egyátalán lehetővé teszi egy nagyobb színterű kép megjelenítését, úgy hogy azt gagyi kijelzőn is értékelhető legyen. 

 

Számomra fotósként az volt az egyik legnagyobb kihívás, hogy olyan képeket készítsek, amelyek MINDEN kijelzőn értékelhetőek.

Mert hiába van nekem itthon kalibrált, színhű, adobe RGB kijelzőm, amin én gyönyörű átmeneteket és valósághű színeket láotk, ha kiteszem a 'netre' ott meg szinte értékelhetetlenül ronda lesz, mert az átmeneteket nem te, hanem a néző rendszere 'konvertálta' számára megjeleníthetővé. De tovább megyek, a gyakorlatban a 'nézők' kijelzője nem hogy normális színteret nem tud, de még alapvető kalibrációs hiányosságai is vannak.

 

Szóval ha csak otthon azon az egy TV-n, mint kijelzőn szerenél 'szép' képeket, azt talán el lehet érni.

De hogy a TV maga - tehát nem csak kijelzőként használva - értelmesen megjelenítse ezt, az már szerintem felejtős.

Ha meg máshol is kellene ugyan azt a képet megjeleníteni, az mission impossible.

 

szerintem.

HDR nem feltétlenül jelent szélesebb színteret, habár a két dolog összefügg.

Felületesen olvastam, vagy csak nem írod, hogy milyen OS?

Linux alatt az X támogatja a 10bit-et, a driver-nek is kell tudnia. Pl. a radeon és az amdgpu tudja a 10bit-et. Fontos, hogy a monitor csatlakozási módja is engedje átmenni a 10bit-et: a monitortól és a videókártyától is függ. Pl. displayport támogatja.

A monitorok egy része nem valódi 10bit-es, hanem 8bit + FRC. Az FRC azt jelenti, hogy a hiányzó 2bit-et a képpontok megfelelő villogtatásával vagy a szomszédos képpontok módosításával éri el (spatial vagy temporal dithering). Még drágább monitorok esetén is előfordul a 8bit + FRC. A valódi 10bit-es monitoroknál látszódni szokott az árcédulán. Kihatással van a kalibrálhatóságra.

Azt hogy egy színátmenet hogyan jelenik meg a képernyőn, befolyásolja az elektronika is. Itt az egyik kulcsszó a LUT (look-up table). Minél nagyobb/szélesebb a look-up table, annál simább lehet a színátmenet. Jobb monitoroknál 14bit-es 3D look-up table-lel dolgozik az elektronika. Ha a panel is képes felnőni a feladathoz, akkor szép lehet a színátmenet.

Grafikus vevőkörrel rendelkező webshop-ok esetén látom, hogy megjelenítik, hogy valódi 10bit-es-e a monitor, illetve a specifikációban kitérnek a LUT-ra. Pl.: Oázis computer.

Hogy egy szoftver használja-e a rendelkezésre álló széles színteret, az megint egy másik kérdés. Pl. széles színtérrel rendelkező tartalom szokatlanul sötét lehet a képernyőn, ha nem használ az ember direkt erre való kalibrációs profilt - feltéve, hogy a szoftver támogatja - ugye. Illetve vannak olyan szoftverek, amik az általuk használt engine folytán nem fognak 8bit-nél nagyobb színmélységgel számolni sehogyan sem.

Saját tapasztalat: Windows alatt 10bit-et bekapcsolva, Adobe RGB szintérre állítva a monitort számos szoftver nem képes kihasználni a lehetőségeket és élvezhetőbb képet nyújt hagyományos beállítások mellett. Prémium monitor vaskos árcédulával (értsd 1M+) bénábban jeleníthet meg egy színátmenetet (Barco DICOM), mint egy jobb ár-érték arányú monitor (300-600K)...

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

Ez így elég általános kérdés, se az OS-t nem tudjuk, se a grafikus környezetet, minden változó ismeretlen. Alapvetően 10 bites tartalom kell hozzá, meg egy olyan médialejátszó, ami ezt támogatja (a legelterjedtebbek ffmpeg alapon támogatján, Kodi, VLC, mpv, stb.), meg talán a GPU driverben is engedélyezni kell ezt a 10 bites RGB-funkciót.

Ha csak simán tévé egymagában, akkor általában a szoftvere szokta tudni, saját lejátszóval, így csak a tartalomnál kell figyelni, hogy eleve 10 bites legyen, ilyet elég nehéz letölteni, mivel rikta, a legegyszerűbb venni HDR-es Blu-Ray lemezeket.

“I didn’t start using Linux so I could have friends.” (Luke Smith, 2019) 🐧

Megjelenítő eszköz, amin szeretném látni a több szín előnyét, példák:

LG TV, ami 10 bites színeket tud, milyen formátumú képet jelenítsek meg rajta, ami tudhatja? Milyen programmal?

Windows 10, milyen formátumú képet jelenítsek meg rajta, ami tudhatja? Milyen programmal?

Ubuntu Desktop 20.04.3 LTS, milyen formátumú képet jelenítsek meg rajta, ami tudhatja? Milyen programmal?

Azokat, amiket írtam. Pl. VLC, meg HDR BD anyagok. Fontos, hogy a tartalomnak eleve 10 bitesnek kell lennie, azaz hivatalosan HDR-nek. Sima 8 bites tartalmat hiába is skálázol át 10 bitre, csak az adatméret lesz nagyobb, a színek semmit nem javulnak, lehet ugyan őket ilyen ál-HDR szűrőkkel piszkálni, de nem lesz az igazi.

Nem sok kontent van, ami 10 bites egyébként. Egyelőre ez a HDR is olyan évek óta, hogy csak ilyen parasztvakítás feature. A 10 bitet inkább grafikusok szokták használni.

“I didn’t start using Linux so I could have friends.” (Luke Smith, 2019) 🐧

" A 10 bitet inkább grafikusok szokták használni."

Oké, de konkrétan hogy?

A HDRes filmek oké, csak nem tudom összehasonlítani a HDR nélküli változatával egyszerűen.

Ha lenne valami tévés vagy Windows 10es lejátszó, vagy formátum, ami tud 10 bitet, akkor egy jobb képet 10 bitet és 8 biten kapcsolgatok, és megnézném a különbséget.

"Sima 8 bites tartalmat hiába is skálázol át 10 bitre, csak az adatméret lesz nagyobb, a színek semmit nem javulnak, lehet ugyan őket ilyen ál-HDR szűrőkkel piszkálni, de nem lesz az igazi."

Igen, erre rájöttem, ahogy 128 kbps mp3at is hiába konvertálok 96khz 24bit flacra, nem lesz semmivel sem jobb, csak pont ugyanolyan, mint előtte. Viszont hallható, ha a forrás olyan és azt nyomom le. Elveszik a részletgazdagság, dinamika, mélyek, magasak. Ha elég jó fülessel vagy hifin hallgatom.

Windows 10, milyen formátumú képet jelenítsek meg rajta, ami tudhatja? Milyen programmal?

Próbáld ki ezt:

https://www.microsoft.com/en-us/p/hdr-wcg-image-viewer/9pgn3nwpbwl9?act…

Teszt képekből pedig ezeket:

https://web.archive.org/web/20210224195735/http://ivc.univ-nantes.fr/en…

szerk: qled tv a monitorom, win11-el használom, de gondolom, win10-el is megy

Amit még kipróbálhatsz, az a screenshot készítése. Ezt a Windows nagyon érdekesen csinálja!

A sima képmetsző, és a sima mókolás a vágólappal, majd bármibe beillesztés sdr-re konvertált képet ment el, mosottas színekkel.

VISZONT ha a WIN+G kombinációval, a gamebar nevű cuccal csinálsz képernyőképet, akkor az valójában 2 képet ment el.

Egyik a sima sdr-re konvertált hdr kép, tehát mosottas, mint a sima.

A másik viszont egy JXR kiterjesztésű kép, ami már HDR. A különbség a kettő között egyértelmű, viszont, ehhez olyan képnézegetőben kell megnyitni, ami a valóságban is tényleg képes hdr képeket hdr-ben megjeleníteni... erre egyedül csak ezt a hdr+wcg image viewer-t találtam.

 

Edit: ahahaha, na, az még viccesebb, ha az sdr és a hdr képet megnyitva csinálnál screenshot-ot, demonstrációs céllal. :D
Btw, amióta hdr-ben használom a desktopom, azóta a hdr tartalom megnyitásánál mindig fura érzésem van... Ahol a hdr tartalmú "képfelület" van, ott izzik a tv, a többi helyen meg a sima normál, amúgy szerintem az átlagosnál gyengébbre állított fényerejű desktop tartalom van.