Skocz do zawartości

Rekomendowane odpowiedzi

Jak masz więcej to pokaz, chętnie zobaczę. Szczególnie starsze tytuły.

Matrix, Batmana 89r. Terminatora 2, Blade Runner

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Batmana Ci nie pokażę bo przypomniało mi się, że mam francuskie wydanie, w którym dołączone BD to stare transfery. Co do reszty, proszę bardzo:

Matrix - w obu przypadkach remastery z 2018r.

Rw1UCKnm.jpg xryLXdpm.jpg

BqrconJm.jpg UQOm4ANm.jpg

buh4A7Pm.jpg xl2CjOtm.jpg

Nie muszę chyba pisać które screeny są z UHD. Te z UHD są oczywiście ciemniejsze niż w realu bo chodzi mi tylko i wyłącznie o ukazanie wszystkich detali znajdujących się w jasnych obszarach. Dotyczy to tego i wszystkich poniższych moich porównań. W realu wartość najjaśniejszego piksela w tych kadrach to odpowiednio 412, 764 i 536 nitów.


Blade Runner -  te same transfery ze skanu 4K.

089ZEFQm.jpg mIdSAs0m.jpg

a0tFJFMm.jpg iftAfRhm.jpg

u1tRVG5m.jpg 0v4eBR3m.jpg

W realu wartość najjaśniejszego piksela w tych kadrach to odpowiednio 1451, 813 i 629 nitów.


Terminator 2 - w obu przypadkach remastery z 2017r.

6N72m7sm.jpg 5TG0W0em.jpg

IVK5VKqm.jpg pfZFpoZm.jpg

v3BL4lHm.jpg 2xBWZ18m.jpg

Z tego co pamiętam tutaj jasność szczytowa dochodzi do 200-250 nitów. Dotyczy to zresztą praktycznie całego filmu.

Jeśli chcesz więcej to polecam śledzić ten temat i posty użytkownika andreasy969, np.

- The Town.

- Lord of War.

Edytowane przez misfit

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 27.11.2019 o 17:01, misfit napisał:

To nie jest prawda.

HDR to nie tylko wysoka jasność szczytowa. Gdyby Mandalorian miał udawane HDR, będące w praktyce SDR to miałby dokładnie tyle samo detali w jasnych obszarach obrazu co wersja SDR, a tak nie jest co dobitnie przedstawia np. poniższe porównanie.

http://www.framecompare.com/image-compare/screenshotcomparison/DGWKGNNX

http://www.framecompare.com/image-compare/screenshotcomparison/JE0FMNNU

W jaki sposób przechwyciłeś te klatki filmów? Nie jest obraz źródłowy na pewno, bo wtedy wersja HDR'owa by była wyprana z barw i kontrastu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zgadza się. Zdjęcia są autorstwa użytkownika Geoff D z forum.blu-ray.com, które powstały w odniesieniu do filmiku Vincenta twierdzącego, że Mandalorian to SDR w kontenerze HDR - na tyle na ile znam Geoffa manipulacja z jego strony jest nieprawdopodobna.

Źrodło: https://forum.blu-ray.com/showpost.php?p=17096647&postcount=11518

Edytowane przez misfit

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Poniżej zdjęcia zrobione smartfonem, zbliżenie na okno w prawym górnym rogu to z Blu-ray wydanie 2008, pozostałe z Netflix gdzie cała trylogia jest dostępna w sdr.
Zero przepalen. Jak to wyjaśnisz?db4531decac4398ce8da98dc34b561d1.jpga6ac7c86d3fb7a9e1881b3ea92463216.jpg86d7d96d6d27105663c5b2b1e4a1203b.jpg8944bc60408e955faed28aa0f44a465c.jpg

Wysłane z mojego POCOPHONE F1 przy użyciu Tapatalka

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
38 minut temu, kKadajo napisał:

Zero przepalen. Jak to wyjaśnisz?

W bardzo prosty sposób - remaster BD z 2018r. jest bardziej poprzepalany w tych kadrach w stosunku do starego transferu z 2008r. W innych ujęciach z kolei jest na odwrót np. tutaj lewy górny róg.

Przypominam, że to Ty chciałeś abym wkleił Ci koniecznie porównanie z tego samego transferu z UHD i BD i takie dostałeś bo inne określiłeś jako słabe więc zdecyduj się co chcesz :)
Mam jeszcze pod ręką stare BD Matrixa więc wkrótce zademonstruję Ci, że i nad nim UHD ma przewagę pod względem widoczności detali w jasnych obszarach obrazu.
To samo zresztą mogę napisać w przypadku 90% oglądanych przeze mnie UHD vs SDR i to bez względu na rok produkcji.

Edytowane przez misfit

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No ale masz wyraźny dowód że w nowym wydaniu BD zostało okaleczone i to na pewno nie z powodu sdr czy ograniczeń samego fhd. Nawet na forach o tym piszą i grzmią. Jestem pewien że przy dobrej wiedzy w temacie i wysiłkowi moglibyśmy zrobić lepszą konwersję ze źródłowego UHD.

HDR jest lepszy, uhd też. Ale fhd nadal potrafi i różnice na pewno nie są tak duże jak się je pokazuje szczególnie jeśli porównanie jest fair dla starszego standardu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bo to są wszystko kompromisy. Taśma taśmie nierówna, ale z 35mm można uzyskać ~13 f-stopów. Te co lepsze cyfrówki osiągają co nieco więcej. A w SDR ograniczony jesteś do 6 f-stopów.
Remaster Matrixa SDR mógłby być mniej poprzepalany kosztem APL i widoczności detali w ciemnych partiach obrazu, ale nie jest. A w HDR w żadne kompromisy nie trzeba się bawić i o to w tym wszystkim chodzi. Gdyby w SDR dało się uzyskać wszystkie informacje to HDR nie byłby nam do niczego potrzebny - proste, nie ? ;)

Masz Netlfiksa to zerknij sobie np. pod tym względem Anihilację - tam masz dopiero piękne przepalenia w SDR vs HDR. I nie ma co za bardzo kruszyć kopii czy wersja SDR mogłaby wyglądać lepiej. Liczy się to co jest i jaki mamy realny wybór, a nie nasze pobożne życzenia :)

Edytowane przez misfit

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, misfit napisał:

A w HDR w żadne kompromisy nie trzeba się bawić i o to w tym wszystkim chodzi. Gdyby w SDR dało się uzyskać wszystkie informacje to HDR nie byłby nam do niczego potrzebny - proste, nie ? ;)

Dokladnie. Z jednym ale - jesli mamy wersje HDR (szczegolnie bez dynamicznych metadanych) efekt moze byc b.biedny, gdy tv bedzie silowal sie ze upakowaniem calego zakresu np. 1500 nit w piku, w zakres do 250 nitow (piwnica/ciemnica). 

Stad imho decyzja Disney Studios aby rownac do najslabszych i uniknac ostrej rzezby mapowania tonow / lipy "ciemnej strony mocy HDR" w podstawowych modelach tv. Pik 160 jest niski, ale jakze bezpieczny.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W zacytowanym fragmencie chodziło mi o HDR w kwestii kontentu - jeśli wchodzimy w temat wyświetlaczy i obsługi przez nie HDRa, zaaplikowanego w nich algorytmu mapowania tonów obrazu, itd. to jest oczywiście temat rzeka.

Zgodzę się z Tobą częściowo - IMO zdecydowana większość masteruje filmy tak aby nie przekraczały tych ~1000 nitów właśnie zważywszy na aktualne możliwości naszych wyświetlaczy. Taki Helikopter w ogniu z jasnością szczytową dochodzącą do 8000 nitów robi wrażenie na papierze, ale tak jak wspomniałem wcześniej na moim 700 nitowym OLED z włączonym dynamicznym mapowaniem tonów obrazu ewidentnie widzę u siebie jego ograniczenia czyli np. wyraźnie mniej detali w scenach z jasnością szczytową przekraczającą ~2000 nitów w stosunku do tego co się znajduje w strumieniu video. Tutaj HDR Optimizer może jeszcze by coś podciągnął, ale 100% potencjału z takiej płyty nie zobaczymy na żadnym z dotychczas wyprodukowanych wyświetlaczy konsumenckich - na to trzeba będzie poczekać X lat.
Więc te 1000 nitów na obecny czas jest dużo bardziej elastyczne, a przy okazji algorytm mapowania tonów obrazu ma dużo łatwiej aby coś takiego zmapować do wyświetlacza z 700, 500 czy 250 nitami.

Ale to też działa w drugą stronę - słyszałeś o Goodfellas na UHD ? On był masterowany na monitorku 4000 nit, ale ma jasność szczytową nie przekraczającą ~250 nitów i stąd też jest to jedna z najbardziej problematycznych płyt na UHD BD. W recenzji na blu-ray.com  to wydanie dostało ocenę 1/5, podczas gdy ten sam recenzent wersji BD z 2015r. dał ocenę 4.5/5 (pochodzi ona z tego samego mastera co wydanie UHD). Taka a nie inna ocena wydania UHD nie wynika z tego, że z tym filmem jest coś nie tak lecz z tego, że wyświetlacz recenzenta, a konkretnie jego algorytm mapowania tonów kompletnie sobie nie poradził z takimi 250 nitami w "kontenerze" 4000 nitów. Z kolei na wyświetlaczu z porządnym algorytmem mapowania tonów ta płytka UHD prezentuje się lepiej niż na BD - wiem bo mam je obie :)
Podobnie możemy odnieść sytuację do Mandaloriana, jeśli faktycznie ma on jasność w szczycie nie przekraczającą 200 nitów, tyle, że na tyle na ile znam Disneya to pewnie był on masterowany na monitorku 1000, a nie 4000 nit - ale to też nie jest prosta sprawa i to był jeden z zarzutów Vincenta na tym jego filmiku odnośnie tego serialu. Stąd też narzekania sporej liczby osób na tego typu wypusty, że jest za ciemno i że w cieniach prawie nic nie widać - te osoby nie wiedzą, że tak naprawdę powinny pretensje kierować w stronę producenta wyświetlacza, a nie wydawcy filmu.

Edytowane przez misfit
  • Plusik 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
21 godzin temu, Xisiek napisał:

Dokladnie. Z jednym ale - jesli mamy wersje HDR (szczegolnie bez dynamicznych metadanych) efekt moze byc b.biedny, gdy tv bedzie silowal sie ze upakowaniem calego zakresu np. 1500 nit w piku, w zakres do 250 nitow (piwnica/ciemnica). 

Stad imho decyzja Disney Studios aby rownac do najslabszych i uniknac ostrej rzezby mapowania tonow / lipy "ciemnej strony mocy HDR" w podstawowych modelach tv. Pik 160 jest niski, ale jakze bezpieczny.

To mogłoby mieć sens gdyby telewizory faktycznie robiły użytek z metadanych, oraz gdyby metadane były poprawnie stosowane w filmach. Tymczasem:

1. Mamy osobny parametr MDL i MaxCLL. Pierwszy określa maks. luminancję monitora na którym był film masterowany, a drugi maks. luminancję piksela w filmie.

2. Bardzo dużo filmów ma wpisane niepoprawne metadane lub nie ma ich wcale (jest zapisane 0 nitów w strumieniu)

3. Poszczególni producenci robią użytek z poszczególnych parametrów. MDL preferowany jest przez Samsunga, zaś MaxCLL przez LG i Panasonic'a. 

4. Sony i Philips nie korzystają z metadanych wcale i podążają za krzywą EOTF według własnego zamysłu.

5. Chyba tylko Panasonic w ogóle reaguje na metadane niższe niż 500 nitów. Pozostali producenci takie dane ignorują przyjmując, że są po prostu niepoprawne (twórcy HDR nie zakładali nigdy, że ktoś będzie masterował z tak niską jasnością).

 

W dniu 2.12.2019 o 12:02, misfit napisał:

Zgadza się. Zdjęcia są autorstwa użytkownika Geoff D z forum.blu-ray.com, które powstały w odniesieniu do filmiku Vincenta twierdzącego, że Mandalorian to SDR w kontenerze HDR - na tyle na ile znam Geoffa manipulacja z jego strony jest nieprawdopodobna.

Źrodło: https://forum.blu-ray.com/showpost.php?p=17096647&postcount=11518

Nie trzeba niczym świadomie manipulować by uzyskać zaburzony obraz rzeczywistości. Kłopot w tym, że próbujemy oddać zdjęcie szerokiego zakresu dynamiki na monitorze komputerowym, który ma wąski zakres dynamiki. Dodatkowo używamy do tego aparatu o bliżej nieznanej dynamice sensora, zapisującego do pliku nieznanym algorytmem przeliczania światła na wartości kodowe. To trochę tak jakby chcieć pokazać kolorowy obraz na czarno białym monitorze używając aparatu z daltonizmem.

Zdjęcia dwóch ostatnich klatek (3,5 SDR do 4,6 HDR) wyglądają jakby były wielokrotnie (2x, 3x) jaśniejsze. Tymczasem by uzyskać efekt czegoś dwukrotnie jaśniejszego (wizualnie) trzeba zwiększyć luminancję ponad czterokrotnie. W "Mandalorian" nie ma takich efektów świetlnych patrząc na analizę Vincenta, więc tutaj musiał mocno przesadzić aparat bądź wyświetlacz użytkownika Geoff D. Wystarczy z resztą, że odpalił na Samsungu, gdzie telewizor mocno podbija efekty świetlne (i nie da się tego okiełznać nawet po kalibracji) i taki efekt z filmu zamiast 200 nitów będzie miał 350 nitów, co w tym przypadku może paradoksalnie uratować mierną pracę kolorystów od tego filmu. 

Generalnie widać, że film ten nie jest tylko wersją SDR upakowaną w kontener HDR, ale na pewno na pochwały nie zasługuje. Efekty na poziomie 200 nitów są po prostu niewidoczne. Jest to tak marginalny postęp w stosunku do SDR, że szkoda sobie zawracać głowę. Oglądałem jakiś czas temu "Godfellas" na UHD Blu-ray z efektami na tym poziomie i postęp był praktycznie zerowy. Osobiście popieram całym sercem krytykowanie takich wydań. Moim zdaniem jeśli film nie wykorzystuje przynajmniej skali do 1000 nitów to jest to po prostu robota zrobiona na odwal się, która przyniesie skutek odwrotny do zamierzonego biorąc pod uwagę to jak telewizory z niskiej półki obsługują tę technologię.

 

  • Plusik 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeden z nielicznych watkow, ktore pokazuja merytoryczny i klasowy poziom dyskusji. Czytam z nieskrywana przyjemnoscia :)

  • Plusik 1
  • Lubię 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
16 godzin temu, Maciej Koper napisał:

Nie trzeba niczym świadomie manipulować by uzyskać zaburzony obraz rzeczywistości. Kłopot w tym, że próbujemy oddać zdjęcie szerokiego zakresu dynamiki na monitorze komputerowym, który ma wąski zakres dynamiki. Dodatkowo używamy do tego aparatu o bliżej nieznanej dynamice sensora, zapisującego do pliku nieznanym algorytmem przeliczania światła na wartości kodowe. To trochę tak jakby chcieć pokazać kolorowy obraz na czarno białym monitorze używając aparatu z daltonizmem.

Pełna zgoda, z tym zastrzeżeniem, że IMO nie jest niczym niestosownym wspomaganie się zdjęciami aparatu jeśli chcemy ukazać czytelnikom jakieś konkretne aspekty obrazu, które widzimy na ekranie naszego wyświetlacza. Sam zresztą nie raz okraszałeś artykuły zdjęciami wyświetlacza, nieprawdaż ? :)
W podlinkowanym wcześniej poście uważam, że Geoff wystarczająco dał do zrozumienia czytelnikom co chce przekazać tymi zdjęciami, na wstępie zresztą podkreślając aby w żadnym razie nie traktować ich jako w 100% reprezentatywne zarówno jeśli chodzi o wersje SDR jak i HDR.

 

16 godzin temu, Maciej Koper napisał:

Zdjęcia dwóch ostatnich klatek (3,5 SDR do 4,6 HDR) wyglądają jakby były wielokrotnie (2x, 3x) jaśniejsze. Tymczasem by uzyskać efekt czegoś dwukrotnie jaśniejszego (wizualnie) trzeba zwiększyć luminancję ponad czterokrotnie. W "Mandalorian" nie ma takich efektów świetlnych patrząc na analizę Vincenta, więc tutaj musiał mocno przesadzić aparat bądź wyświetlacz użytkownika Geoff D. Wystarczy z resztą, że odpalił na Samsungu, gdzie telewizor mocno podbija efekty świetlne (i nie da się tego okiełznać nawet po kalibracji) i taki efekt z filmu zamiast 200 nitów będzie miał 350 nitów, co w tym przypadku może paradoksalnie uratować mierną pracę kolorystów od tego filmu. 

Geoff posiada skalibrowany Sony ZD9, a nie Samsunga. Nie wiem do której konkretnie paczki klatek się odnosisz bo są dwie, ale w tej:
http://www.framecompare.com/image-compare/screenshotcomparison/DGWKGNNX

Na klatkach 4 i 6 (HDR) i nie tylko tych, widzę wyraźnie wyższą rozpiętość tonalną względem 3 i 5 (SDR). Jestem w 100% przekonany, że Geoff tak ustawił migawkę aparatu aby uchwycić wszystkie widoczne detale w jasnych obszarach obrazu zarówno dla wersji HDR jak i SDR. I o to mu głównie chodzi - cyfry cyframi, ale wersja HDR w żadnym razie nie równia się SDR w tym wypadku. Co do jasności to obaj zgadzacie się, że jest ona na niskim poziomie w wersji HDR, w pierwszym zdaniu zresztą napisał, że: " Dynamic. Range. Is. Not. Just. About. Brightness.", a w przedostatnim " The HDR is so much more 'dimensional' because of the speculars while the SDR looks slightly brighter in the APL - this is at 140 nits peak white for SDR - at the expense of looking significantly 'flatter', the depth and volume that HDR provides is just gone."
Jeśli jednak masz wątpliwości co do tych zdjęć to wal do niego śmiało, na pewno szybko odpisze.

16 godzin temu, Maciej Koper napisał:

Oglądałem jakiś czas temu "Godfellas" na UHD Blu-ray z efektami na tym poziomie i postęp był praktycznie zerowy.

I tutaj pełna zgoda co do niemal zerowego wykorzystania HDR w Goodfellas i nie chodzi mi tylko o jasność szczytową. Ale komu jak komu, ale Tobie nie muszę tłumaczyć, że UHD to też m.in. wyższa rozdzielczość (ten konkretny film był masterowany w 4K i gdzieniegdzie to ewidentnie widać) oraz szeroka paleta kolorów. Jeśli miałeś okazję porównania obrazu z UHD do zremasterowanej wersji Blu-ray to też bez większego trudu można zauważyć lepszą kompresję, głównie jeśli chodzi o wygląd ziarna.

16 godzin temu, Maciej Koper napisał:

Moim zdaniem jeśli film nie wykorzystuje przynajmniej skali do 1000 nitów to jest to po prostu robota zrobiona na odwal się, która przyniesie skutek odwrotny do zamierzonego biorąc pod uwagę to jak telewizory z niskiej półki obsługują tę technologię.

A co ze słynną wizją reżysera ? Nie ma ona  żadnego znaczenia w przypadku jasności w HDR i powinno się ją ignorować ?
I czy reżyser ma jakikolwiek wpływ na to w jaki sposób telewizory z niskiej półki obsługują HDRa i że HDR10 to wolna amerykanka, w której nie ma jasno określonego standardu w jaki sposób ma się odbywać mapowanie tonów obrazu ? Pytanie retoryczne jakby co... :)

Edytowane przez misfit
  • Plusik 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, misfit napisał:

A co ze słynną wizją reżysera ? Nie ma ona  żadnego znaczenia w przypadku jasności w HDR i powinno się ją ignorować ?
I czy reżyser ma jakikolwiek wpływ na to w jaki sposób telewizory z niskiej półki obsługują HDRa i że HDR10 to wolna amerykanka, w której nie ma jasno określonego standardu w jaki sposób ma się odbywać mapowanie tonów obrazu ? Pytanie retoryczne jakby co... :)

Jak wizja reżysera była taka żeby HDR ledwo wykorzystywać no to nic się nie poradzi, ale technologia powstała po to żeby z niej użytek robić. Tym bardziej, że jest gdzie patrząc na screeny z tego filmu.

Co do obsługi HDR10 na telewizorach to w poprzednim poście dałem wystarczająco dużo argumentów by nie równać w dół bo... i tak to nic nie da ;)

6 godzin temu, misfit napisał:

Dynamic. Range. Is. Not. Just. About. Brightness.", a w przedostatnim " The HDR is so much more 'dimensional' because of the speculars while the SDR looks slightly brighter in the APL - this is at 140 nits peak white for SDR - at the expense of looking significantly 'flatter', the depth and volume that HDR provides is just gone."
Jeśli jednak masz wątpliwości co do tych zdjęć to wal do niego śmiało, na pewno szybko odpisze.

"Dynamic Range" można rozważać zarówno pod kątem ilości detali w jasnych/ciemnych partiach obrazu jak i pod kątem rozpiętości tonalnej (zakresu luminancji). Jedno powinno iść z drugim w parze, albo będzie tak jak zacytowałeś powyżej - APL wersji SDR będzie wyższy. To nie jest optymalne rozwiązanie. APL powinien być podobny w obu wersjach z przewagą HDR przez wyższe peaki świetlne. No bo przecież nic nie stoi na przeszkodzie żeby wszystkie detale mastera HDR'owego zapisać także w SDR tylko obraz się stanie płaski i ciemny.

  • Plusik 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Maciej Koper napisał:

Jak wizja reżysera była taka żeby HDR ledwo wykorzystywać no to nic się nie poradzi, ale technologia powstała po to żeby z niej użytek robić. Tym bardziej, że jest gdzie patrząc na screeny z tego filmu.

Ale sam wiesz, że to co my chcemy często nie idzie w parze z tym co chcą twórcy filmu :) Żeby daleko nie szukać - ostre zabawy z poziomami czerni skutkiem czego w wielu produkcjach robi mi się smutno oglądanie na OLED w pełnym zaciemnieniu, ilość treści w HFR z kolei możemy policzyć na palcach jednej ręki, do tego wciąż stosunkowo niewielka liczba filmów z DI 4K... Można tak wyliczać i wyliczać.

Tak na szybko - m.in. Scorsese, Tarantino, Villeneuve, Deakins, Fincher czy Rodriguez mają w głębokim poważaniu 1000 nitów i wyżej :)
Nie zdziwię się też gdy Avatary będą miały jasność w szczycie nie przekraczającą ~400 nitów.
Prognozuję też, że procentowo tego typu filmów z jasnością nie przekraczającą ~200 nitów będzie jeszcze więcej z uwagi na to, że Netfliks wymaga od twórców aby wszystkie przyszłe filmy były w HDR co wielu reżyserom jest nie na rękę więc pewnie będzie kombinowanie jak to obejść (czyt. prawdziwe SDR w kontenerze HDR).

  • Plusik 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 5.12.2019 o 15:56, misfit napisał:

Tak na szybko - m.in. Scorsese, Tarantino, Villeneuve, Deakins, Fincher czy Rodriguez mają w głębokim poważaniu 1000 nitów i wyżej :)
Nie zdziwię się też gdy Avatary będą miały jasność w szczycie nie przekraczającą ~400 nitów.
Prognozuję też, że procentowo tego typu filmów z jasnością nie przekraczającą ~200 nitów będzie jeszcze więcej z uwagi na to, że Netfliks wymaga od twórców aby wszystkie przyszłe filmy były w HDR co wielu reżyserom jest nie na rękę więc pewnie będzie kombinowanie jak to obejść (czyt. prawdziwe SDR w kontenerze HDR).

Najwięksi artyści z reguły mają problem z nowymi technologiami ;) Nie inaczej jest z produkcjami, gdzie są ograniczone budżety. To drugie się nie zmieni nigdy, choć w końcu nastąpi taki moment, że sprzęt do HDR będzie w cenie tego do SDR. Na to pierwsze przyjdzie poczekać pewnie dłużej. Być może całe pokolenie. Ponoć przy przejściu z kina czarno-białego na kolorowe też większość ówczesnych autorytetów narzekała, że filmy są zbyt realne i nie powinny tak wyglądać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Doczekaliśmy się komentarza od jednego z kolorystów pracujących przy The Mandalorian.

image.png.7d762e6419e96118570d3c88d1b7020d.png

https://mixinglight.com/color-tutorial/is-the-disney-series-the-mandalorian-fake-hdr/

Z takich ciekawostek odnośnie jasności HDR w nadchodzących "gorących" tytułach napiszę jeszcze, że Pewnego razu... w Hollywood nie przekracza ~300 nitów nie licząc ok. 10-ciu krótkich fragmentów gdzie jasność szczytowa dochodzi do ~400 nitów.
Podobnie ma się sprawa z Ad Astra, tutaj jasność szczytowa nie przekracza ~400 nitów przez 99% czasu trwania filmu.

Edytowane przez misfit
  • Plusik 1
  • Dzięki 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Po co wiec zastosowali HDR skoro ten sam zakres tonalny osiągnęli by w SDR ? Co z tego że HDR ma większe możliwości skoro ich nie widać w materiale końcowym ?

Mówiąc krótko HDR jest tam dla samego znaczka a zasłanianie się  "decyzjami artystycznymi" tylko to potwierdza.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, kKadajo napisał:

Po co wiec zastosowali HDR skoro ten sam zakres tonalny osiągnęli by w SDR ?

Więcej bitów koloru (nie wiem czy da się mieć 10b w klasycznych formatach, i nawet jeśli się da to jakie będzie wsparcie urządzeń dla takiego trybu), więc i lepsza kontrola tonów w tym zakresie, który sobie wybrali. W ogóle sama funkcja mapowania tonów w HDR jest po prostu lepsza niż stara gamma.

  • Plusik 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, kKadajo napisał:

Po co wiec zastosowali HDR skoro ten sam zakres tonalny osiągnęli by w SDR ?

a SDR nie ma zakresu 0-100/120 nitów?

więc nawet HDR w zakresie do 400 jest 3-4 krotną poprawą

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
Uwaga: Twój wpis zanim będzie widoczny, będzie wymagał zatwierdzenia moderatora.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić obrazków. Dodaj lub załącz obrazki z adresu URL.


  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...