Przy okazji dzisiejszej premiery drugiego sezonu, kultowego serialu “Stranger Things”, postanowiłem po raz pierwszy w historii polskojęzycznej, eksperckiej publicystki, wykonać bezpośrednie porównanie technologii Dolby Vision versus HDR10 🙂 Temat ten jest, krótko mówiąc, rzeką i na pewno na tym jednym porównaniu się nie skończy. Do rozważenia jest wiele teoretycznych i praktycznych zagadnień, by szczegółowo wyjaśnić dlaczego widzimy różnicę pomiędzy formatami i dlaczego uznajemy jeden za lepszy od drugiego. W dniu dzisiejszym, na czas premiery, ograniczymy ilość zagadnień teoretycznych, a skupimy się na różnicach, które dostrzeże zwykły użytkownik telewizora LG OLED, podczas pracy na optymalnych, fabrycznych ustawieniach. Kolejne etapy jakie zaplanowałem na listopad to praktyka na filmach Ultra HD Blu-ray oraz wykorzystanie niższych modeli LCD z obsługą Dolby Vision. Zaczynajmy!
Na potrzeby testu uzbroiliśmy się w dwa takie same wyświetlacze LG OLED B7. Na prawym uruchomiony został Netflix bezpośrednio z aplikacji wbudowanej. Dzięki temu program wykrył kompatybilność z Dolby Vision i zaserwował nam serial właśnie w tym formacie (zwróćmy uwagę na ikonę Dolby na prawo od zielonego napisu “Trafność: 98%”. Po lewej zaś uruchomiliśmy aplikację Netflix na najnowszym Xbox One X. Urządzenie to nie jest na razie kompatybilne z technologią Dolby, dlatego strumieniuje serial w formacie HDR10.
Problematyka porównania
Nie poruszę tutaj wszystkich zagadnień utrudniających obiektywne porównanie technologii Dolby, która jest wersją premium HDR, do bazowego standardu HDR10, jednak chciałbym przypomnieć o jednym podstawowym fakcie – na każdej parze telewizorów różnica będzie zupełnie inna, w zależności od tego jak TV wspiera zarówno jedną jak i drugą normę. Gdyby wszystkie telewizory potrafiły wyświetlić jasność 10 000 cd/m2 czyli tyle, ile jest nam w stanie dostarczyć treść HDR, to formaty premium takie jak Dolby Vision, HDR10+, czy Technicolor nie byłyby w ogóle potrzebne. Telewizory są jednak bardzo dalekie od tego i wymagają różnego rodzaju protez w celu określenia, czy wyświetlać dane odcienie jaśniej, ciemniej, czy nie wyświetlać ich wcale. Wszystko niesie za sobą pewne konsekwencje. Standard Dolby jest o tyle lepszy, że dostarcza dużo większą ilość dokładnych informacji jak wyświetlić każdą klatkę obrazu, w momencie gdy jej odtworzenie przekracza możliwości fizyczne telewizora. Ponadto telewizor nie musi przez cały czas adaptować się do najjaśniejszego piksela w filmie. Robi to niezależnie do każdej klatki obrazu.
Każdy telewizor posiada jednak inne możliwości fizyczne w zakresie odtwarzania jasności, jak i inne algorytmy mapowania w momencie gdy nie dysponuje dynamicznymi metadanymi (jak w standardzie Dolby). W przypadku gdy obsługuje któryś ze standardów z dynamicznymi metadanymi, w szczególności Dolby, to firma odpowiadająca za implementację funkcji ma większą kontrolę nad procesem. Nadal jednak mogą być zauważalne różnice między modelami pozornie podobnych telewizorów. Z tego względu rezultaty testów, w szczególności to jak duża różnica dzieli oba standardy, uzależnione są bardzo silnie od wyświetlaczy na jakich przeprowadzamy porównanie. Na premierę “Stranger Things 2”, jak widzicie, postanowiłem użyć dwóch LG B7. Są to telewizory klasy high-end, przez co różnica pomiędzy Dolby Vision, a HDR10 może zacierać się. Wyświetlacze dysponują bowiem nie tylko pokaźną mocą świetlną (700cd/m2), ale także unikalną funkcją LG, zwaną “Active HDR”, która to tworzy własne, dynamiczne metadane, do każdej sceny filmu HDR10! Czy w takiej sytuacji Dolby zrobi realną różnicę? Skończmy już teoretyzować i przejdźmy do porównań 🙂
Ustawienia telewizorów
Jak już wspomniałem we wstępie, w tej, pierwszej konfrontacji dwóch formatów, trochę mniej zgłębiłem się w kwestię kalibracji telewizorów pod standard HDR10, czy Dolby. Wykonałem jedynie podstawowe ustawienia odcienia bieli, by zniwelować różnice pomiędzy ekranami. Poza tym telewizory pracowały w domyślnych ustawieniach swoich najlepszych trybów fabrycznych, czyli jak na zdjęciu:
Co mówią poniższe zdjęcia?
Choćby ktoś miał najszczersze chęci, by przelać obraz z telewizora na ekran monitora, to niestety zawsze polegnie na takim zadaniu. Opisałem to szczegółowo w temacie “Aparat Foto – największy kłamca w testach TV” W przypadku odtwarzania treści HDR problem jeszcze bardziej potęguje się, ponieważ żadne urządzenie nie jest w stanie uchwycić jednocześnie tak jaskrawych efektów świetlnych wraz z np. detalami w cieniach. W konsekwencji tracimy jedno lub drugie i obraz wygląda jakby był sztuczny. Tym bardziej, że nawet monitor PC nie jest w stanie oddać tych poziomów jasności nawet w przybliżeniu.
By jakoś uchwycić, przynajmniej różnice pomiędzy obrazami, a nie sam wygląd serialu, postanowiłem wykonywać serię trzech zdjęć o różnej ekspozycji (4EV), a następnie scalać je w jedno. Innymi słowy użyłem funkcji “HDR” w aparacie, by uchwycić jak najwięcej informacji o ciemnych i jasnych przejściach tonalnych. Dzięki temu mogę przynajmniej w pewnej przenośni ukazać różnicę pomiędzy obrazem Dolby Vision, a HDR10.
Konfrontacja
Już od samego początku nie da się oprzeć wrażeniu, że oba obrazki wyglądają wręcz fenomenalnie! Nie ma w prawdzie takiej “brzytwy” jak z Ultra HD Blu-ray, bo przecież sam Netflix ma ograniczony strumień danych do około 20Mpbs (gdzie w przypadku płyty jest to aż sześć razy więcej!). Ponadto film stylizowany jest na nieco starsze czasy niż obecne. Szeroka paleta barw, oraz dynamika obrazu robi jednak potężne wrażenie. Zarówno w HDR 10 jak i w Dolby Vision, światełka w nocnych scenach, na samym początku filmu, dosłownie świecą. Wystarczy zrobić jednak pauze…
By przekonać się, że w wersji Dolby Vision świecą nieco mocniej. Spodziewałbym się tego zjawiska, ponieważ dodatkowe metadane w formacie DV mogą “podpowiedzieć” telewizorowi, że ma rozwinąć pełną moc świetlną w tej scenie, bowiem w jaskrawych bielach nie znajdują się przejścia tonalne, które mogłyby zostać utracone. Czy jest to duża różnica? Powiem szczerze, że raczej nie, jednak jest zauważalna w bezpośredniej konfrontacji.
W kolejnej scenie spotykamy się w zasadzie z tym samym zjawiskiem. Światła są zwyczajnie mocniejsze. Jest też pewna, subtelna różnica koloru. To jest akurat normalne zjawisko, ponieważ zawsze manipulacja charakterystyką jasności ma lekki wpływ na jaskrawe barwy. Teoretycznie te w Dolby Vision powinny być bliższe pierwowzoru. Tego niestety nie jesteśmy i prawdopodobnie przez bardzo długi czas nie będziemy jeszcze w stanie obiektywnie stwierdzić. Ponownie oba obrazki wyglądają świetnie, jednak ten po prawej wydaje się być korzystniejszy.
Ponieważ kolejne sceny serialu cechowały się praktycznie taką samą różnicą, odpuściłem sobie dalsze robienie zdjęć. Wygląda na to, że różnica manifestuje się głównie w postaci jaskrawszych świateł w formacie Dolby. Okazyjnie zdarza się też, że widać trochę więcej detali w czerniach, jednak jest to mocno uzależnione od konfiguracji telewizora (wystarczy dodać +1 na suwaku jasność w HDR10, by uzyskać ten sam efekt). Mimo to, format Dolby ma jakby trochę wyższą gammę. Innymi słowy światła obrazu są mocniej skontrastowane z detalami w czerniach.
W tej chociażby scenie dokładnie widać to o czym mówię. Wersja Dolby wydaje się nieco bardziej filmowa i plastyczna. Mimo to, powiem coś czego moglibyście się nie spodziewać – w tym konkretnym przypadku bardziej podobała mi się wersja HDR10, ponieważ była jaśniejsza i bardziej zbliżona do świata realnego. Myślę, że na tym etapie różnice może odgrywać nie tylko kwestia wyższości metadanych dynamicznych nad statycznymi, ale także fabryczna konfiguracja krzywych odwzorowania tonalnego, zakodowana w telewizorze. Na potrzeby tego testu nie będziemy jednak się aż tak zagłębiać. Ponownie podkreślę, że oba obrazki wyglądają świetnie, aczkolwiek po obejrzeniu pierwszego odcinka w większości przypadków bardziej przemawiała do mnie wersja Dolby.
Różnica w gradacji odcieni
Bardzo starałem się uchwycić różnice spowodowane faktem, że film w standardzie Dolby kodowany jest 12 bitowo, a w HDR10 – 10 bitowo. To jedyna fizyczna różnica treści wideo pomiędzy dwoma normami (drugą jest kwestia metadanych). Nie udało mi się jednak sfotografować przejść tonalnych w ciemnych szarościach w satysfakcjonujący sposób. Napiszę więc tylko i musicie mi uwierzyć, że 12 bitów także wprowadza delikatną, pozytywną, różnicę. Przejścia tonalne są nieco gładsze, jest mniej posteryzacji. Trudno powiedzieć, czy jest to kwestia wydajności 12 bitowego kodeka, czy sposobu obsługi takiego sygnału przez telewizor, jednak bez wątpienia różnica jest widoczna.
Werdykt
Temat formatów HDR będzie niewątpliwie gorący w nadchodzących miesiącach. Na dzień dzisiejszy to co mamy i to co wiemy, to że różnice są widzialne gołym okiem, aczkolwiek nie powalają na kolana tak jak np. HDR vs SDR. Przynajmniej na high-endowych telwizorach OLED, bo jak wspomniałem we wstępie, na innych modelach różnica będzie wyglądać inaczej. Prawdopodobnie będzie potęgować się w momencie gdy będziemy testować niższej klasy telewizory. I tam Dolby rozwinie bardziej skrzydła. W teście na serialu “Stranger Things” format Dolby wyglądał w ogólnym rozrachunku korzystniej jak na mój gust i myślę, że każdy przypadkowy widz stwierdził by to samo. Nieco jaśniejsze efekty, wyższa kontrastowość i wreszcie gładsze przejścia tonalne, są bez wątpienia pozytywną cechą. Na ten moment nie mogę Wam jednoznacznie powiedzieć, czy zapewnia to sama technologia Dolby, czy też jej implementacja w LG, jednak jeśli szukacie po prostu frajdy z oglądania, to na pewno lepiej włączyć wersję filmu w Dolby Vision, niż w HDR10.
(22673)