Technologia HDR to najciekawszy i zarazem najistotniejszy element całego standardu Ultra HD. Na nowo zdefiniowane poziomy jasności dają potężne doznania wizualne względem obrazu SDR. Dużo większe niż sama rozdzielczość 4K, czy poszerzona paleta barw. Osoby, które kliknęły w pierwszy odnośnik wiedzą już, że samo słowo HDR oznacza jedynie pewną koncepcję, nie zaś metodę jej realizacji. Jeśli mowa o konkretnych metodach, to należałoby tu wyszczególnić przede wszystkim HDR10 (czyli bazowy standard, z którym każde urządzenie jest zgodne), oraz Dolby Vision, czyli bogatszą technologię, mogącą dostarczyć potencjalnie lepszy obraz. Tą z kolei wspierają tylko wybrani producenci, np. LG, czy Sony. Na rynku są obecnie też inne rozszerzone normy, takie jak HDR10+ (artykuł, Samsung, Panasonic), czy Technicolor (LG), jednak tylko w Dolby Vision mamy wiele treści dostępnej na wyciągnięcie ręki. Pierwsze porównanie technologii Dolby Vision do HDR10 mamy już za sobą. Dokonaliśmy go przy okazji premiery serialu Stranger Things 2 w Dolby Vision z Netflix’a. Dziś przyszedł czas na zgłębienie tematu przy użyciu nośnika zapewniającego najwyższą możliwą jakość w warunkach domowych – płyty Ultra HD Blu-ray.
Dlaczego wciąż naszym zdaniem to właśnie nośnik fizyczny zapewnia najlepszą jakość? Ponieważ plik wideo na płycie Ultra HD cechuje się znacznie niższym stopniem kompresji, niż w streamingu (np. Netflix czy YouTube) i co za tym idzie, zapewnia dużo lepsze wrażenia wizualne. Technicznie rzecz ujmując płyta może posiadać bitrate (strumień danych) nawet do 128Mbps co w stosunku do transmisji z Internetu (10 – 20Mbps) pozwala oddać wielokrotnie więcej detali w lepszej jakości. Dokonując takiego porównania mamy pewność, że wyciskamy maksimum z każdej technologii!
By porównanie były jak najbardziej obiektywne zaopatrzyliśmy się w dwa odtwarzacze OPPO UDP-203eu, które jako jedyne wspierają obecnie Dolby Vision. Jest też w prawdzie odtwarzacz LG (UP970), jednak niestety nie w polskiej dystrybucji a dodatkowo ma on dopiero dostać wsparcie DV w przyszłości jako update systemu. Do testów oczywiście niezbędne były też filmy. W dzisiejszym tekście skupimy się przede wszystkim na Szybcy i wściekli 8, oraz Power Rangers. Informacje o tym, że zostały w standardzie Dolby można znaleźć na odwrocie pudełka, ale bardzo małym druczkiem.
Technicznie o różnicach Dolby Vision vs HDR10
Co w ogóle posiada Dolby Vision “więcej” niż jest nam wstanie zaoferować HDR10? Zacznijmy od samych podstaw i wytłumaczenia kwestii związanych z poprawnym odtwarzaniem HDR. Gdyby wszystkie telewizory potrafiły wyświetlić jasność 10 000 cd/m2 , czyli maksimum tego co jest nam w stanie dostarczyć norma Ultra HD, to formaty premium takie jak Dolby Vision, HDR10+, czy Technicolor nie byłyby w ogóle potrzebne. Telewizory są jednak bardzo dalekie od tego (najlepsze OLEDy – około 700 nitów) i wymagają różnego rodzaju protez w celu określenia, czy wyświetlać dane odcienie jaśniej, ciemniej, czy nie wyświetlać ich wcale. Wszystko niesie za sobą pewne konsekwencje. Standard Dolby jest o tyle lepszy, że dostarcza dużo większą ilość dokładnych informacji jak wyświetlić każdą klatkę obrazu, w momencie gdy jej odtworzenie przekracza możliwości fizyczne telewizora.
Każdy telewizor posiada jednak inne możliwości fizyczne w zakresie odtwarzania jasności, jak i inne algorytmy mapowania w momencie gdy nie dysponuje dynamicznymi metadanymi (jak w standardzie Dolby). Oznacza to, że na każdej parze telewizorów różnica pomiędzy technologiami będzie zupełnie inna, w zależności od tego jak TV wspiera zarówno jedną jak i drugą normę. W przypadku gdy obsługuje któryś ze standardów z dynamicznymi metadanymi, w szczególności Dolby, to firma odpowiadająca za implementację funkcji ma większą kontrolę nad procesem. Nadal jednak mogą być zauważalne różnice między modelami pozornie podobnych telewizorów. Poza metadanymi, standard Dolby wnosi jeszcze 12 bitowe kodowanie barw (zamiast 10 bitowego), co potencjalnie może dać lepszą gradację odcieni obrazu.
Pierwsze porównanie
Różnica na powyższym zdjęciu jest, jak widzimy, bardzo, bardzo duża. Treść Dolby Vision jest znacznie jaśniejsza, żywsza i robi większe wrażenie. Myślę, że mniej więcej taki zysk można by osiągnąć na telewizorze konkurencji, bo LG ma jeszcze asa w rękawie, o którym później. Powyższe porównanie symuluje to co zobaczymy na TV, który obsługuje treść HDR10 w prosty sposób, odczytując tylko i wyłączeni statyczne metadane filmu HDR10. W przypadku “Szybcy i wściekli 8” metadane te mówią, że film może posiadać maksymalne jasności na poziomie 4 000 nitów. Z racji tego, że żaden telewizor nie jest w stanie odwzorowywać tak wysokich poziomów jasności nastąpi kompresowanie przejść tonalnych, tak by odwzorować detale z mniejszą jaskrawością. W taki “statyczny” sposób pracują telewizory wszystkich producentów poza Sony i Philipsem. Ci dwaj zawsze starają się odwzorować stałą ilość detali w bielach, bez względu nawet na statyczne metadane. Da się jednak na to zachowanie wpłynąć. LG, Panasonic, czy Samsung korzystają z metadanych statycznych i ustawiają do nich charakterystykę jasności telewizora.
Metadane: 1000 nitów
|
Metadane: 4000 nitów
|
Powyższe, nieco techniczne diagramy, są bardzo wymowne. Pokazują jak kształtuje się charakterystyka jasności telewizora (czarna lina), względem charakterystyki wzorcowej, dla ekranu o danej jasności (700 nitów – żółta linia). W przypadku, gdy TV otrzyma statyczne metadane 4000 nitów (czyli jak w przypadku Szybcy i wściekli 8), to film będzie przyciemniony, by znalazło się miejsce na detale aż do jasności szczytowej, nawet jeśli w danej klatce filmu wcale ich nie ma! To potęguje różnicę pomiędzy Dolby Vision, a HDR10. Teoretycznie nie powinno jej być gdyby film tworzony był na monitorze o jasności 1000 nitów, jednak takiej pozycji w technologii Dolby nie znalazłem na dzień dzisiejszy.
Kolejne porównanie dzieli się już nie na dwa, a na trzy pola. Czy jest tajemnicze LG Active HDR? Jest to autorska technologia LG, którą włączamy za pomocą niefortunnie nazwanego ustawienia – “kontrast dynamiczny”, wybierając pozycję “niska”. Technologia ta tworzy własne metadane dla filmu, całkowicie pomijając statyczne informacje zapisane na płycie. Znaczy to mniej więcej tyle, że telewizor sam odgaduje jak film miał wyglądać. Normalnie potępiłbym takie postępowanie, jednak w tym konkretnym przypadku, gdy nie ma odgórnie narzuconej definicji odwzorowania zbyt jasnych (dla danego telewizora) tonów, jest to dobre rozwiązanie! Sami widzimy, że HDR10 z technologią Active HDR prawie nie odbiega od treści Dolby. Prawda?
Kolejne porównanie, przeprowadzone na filmie “Power Rangers” wypada mniej więcej tak samo jak poprzednio. Treść Dolby Vision, w konfrontacji z HDR10 z Active HDR jest tylko trochę jaśniejsza. Można by więc podsumować, że telewizor LG działa po prostu za dobrze (przez system Active HDR), by powstała wyraźna przewaga w technologii Dolby.
Która technologia mówi prawdę?
Powyższe porównania na pewno bardzo fajnie się ogląda, bo są wymowne i proste w interpretacji. Celowo jednak nie wspomniałem nic o ustawieniach telewizorów przed przystąpieniem do oglądania zdjęć. Teraz równie dobrze mógłbym napisać, że wszystko co widzieliśmy jest nieprawdą 🙂 Jak wiecie moi drodzy, możemy uzyskać dowolne rezultaty dokonując odpowiednich regulacji wyświetlacza. Wystarczyłoby przyciemnić jeden z trybów, lub wpłynąć na kształt charakterystyki jasności. Przecież wszystkie te ustawienia są pod ręką i można je edytować. Porównywanie na niezmienionym trybie fabrycznym też nie jest do końca sensowne, ponieważ każdy telewizor różni się w pewnym stopniu od siebie. Odpowiedź na pytanie, która technologia mówi prawdę dałaby kalibracja trybów, która nie tylko pozwoliłaby wyciągnąć wszystko z wyświetlacza, ale i dałaby odpowiedź jakich błędów w odwzorowaniu obrazu możemy spodziewać się zarówno w HDR10 jak i Dolby Vision. No i tu zaczynają się schody, ponieważ o ile jest możliwość pełnej kalibracji HDR10, tak dla Dolby Vision nie istnieje taka procedura. Tzn. firma Spectracal rzekomo ją opracowała, ale długie godziny testów pozwoliły stwierdzić, że nie działa ona póki co dobrze, dlatego w kwestii Dolby Vision lepiej jest wykonać tylko pewne etapy kalibracji, pomijając ten definiujący charakterystykę jasności. Ponadto z przyczyny istnienia technologii Active HDR nie ma też sensu ścisła kalibracja do krzywej jasności HDR10, bo telewizor i tak tworzy własne metadane. Ponownie sens ma przeprowadzenie tylko niektórych elementów kalibracji HDR10.
Nie da więc rady sprawdzić od strony pomiarowej, która technologia (HDR10 czy Dolby Vision) sprowadza nas bliżej tego co widział reżyser podczas tworzenia filmu. Test taki można by wykonać wizualnie, jednak… trzeba by posiadać monitor Dolby Pulsar, do którego nikt nie ma obecnie dostępu! Najlepszy monitor do HDR do jakiego mógłbym uzyskać dostęp to Sony BVM-X300, jednak ten niestety oferuje “tylko” 1 000 nitów… Wygląda więc na to, że w obecnej chwili nie jestem w stanie znaleźć odpowiedzi na pytanie, czy wyniki porównania są rzetelne od strony technicznej, czy może HDR Dolby Vision jest trochę “podkręcony” ponad standard i dlatego jaśniejszy i bardziej atrakcyjny. Przesłanka o wzmocnieniu trybu Dolby “ponad miarę” płynie jednak stąd, że gdyby podmienić metadane w filmie (co zrobiłem w celach testowych) na 1000 nitów zamiast oryginalnych 4000 i wtedy porównać wersję HDR10 do Dolby, to ten drugi nadal jest jaśniejszy i żywszy, a jak widzieliśmy na dwóch wykresach w poprzednim akapicie, przy 1000 nitów LG OLED teoretycznie podąża bardzo blisko referencyjnej krzywej jasności.
Pomimo tego, że wyświetlacze zostały skalibrowane, w możliwym dla każdego trybu zakresie, nie ma nadal pewności, że lepszość Dolby Vision wynika z wyższości tej technologii nad HDR10, a nie ze sposobu implementacji na telewizorze LG OLED. Póki co muszę z tym żyć, choć jako inżynierowi obrazu jest mi z tym ciężko. Nie wpływa to jednak na przekaz samego artykułu, bo przecież użytkownika z reguły nie interesuje co się dzieje “pod maską”, tylko co widzi na ekranie. I w tym przypadku, zarówno przed jak i po kalibracji każdego trybu, pewną zauważalną przewagę ma technologia Dolby, aczkolwiek…
Wady Dolby Vision na LG OLED, czy błędy filmów?
Do tej pory porównania zdjęciowe dosyć mocno faworyzowały technologię Dolby. Wyglądać by mogło, że ma ona same zalety. Na filmie Szybcy i wściekli 8 udało się jednak zaobserwować dziwne zjawisko pogorszonej czerni w niektórych scenach…
Nie jestem przekonany, czy na tym porównaniu widać omawiane zjawisko (szczególnie na dolnej kaszecie obrazu), jednak na żywo wyraźnie było widać, że czerń świeci, co na telewizorze OLED raczej nie powinno mieć miejsca. Jak to jest możliwe, że zmiana samych metadanych spowodowała tak niekorzystne wizualnie zjawisko? Postanowiłem to dogłębnie prześledzić i szybko znalazłem przyczynę.
Za pomocą naszego najnowszego nabytku – generatora sygnału AccuPel DVA-6000 posiadającego funkcję analizy, skierowałem kursor na czarne pasy, by odczytać ich wartość. Okazuje się, że film Szybcy i wściekli 8 posiada niepoprawnie zakodowaną czerń. Jest ona podniesiona o kilka wartości kodowych, a więc w praktyce nie jest czernią tylko ciemną szarością. O ile w HDR10 różnica ta była zbyt mała, by czerń zaczęła świecić, tak dynamiczne metadane spowodowały jej wizualne pogorszenie. Nie można tu jednak winić ani technologii DV, ani telewizora LG OLED, tylko raczej studio filmowe, które wypuściło film. Dla użytkownika domowego pozostaje to jednak bez znaczenia – raczej wybierze on w takim przypadku film w HDR10, bo nie-idealna czerń w przypadku OLED’a wygląda po prostu niekorzystnie.
Różnica w gradacji odcieni
Film w standardzie Dolby kodowany jest 12 bitowo, a w HDR10 – 10 bitowo. To jedyna fizyczna różnica w zapisie treści wideo pomiędzy dwoma normami. Bogatsze metadane nie dotyczą przecież samego strumienia wideo. Czy różnica jest widoczna? Tak, ale… ponownie nie jest to wcale takie oczywiste. W Dolby Vision faktycznie gradacja jest lepsza, szczególnie w okolicy czerni, jednak trudno ocenić, czy jest to kwestia lepszej precyzji kodowania, czy też może innej charakterystyki jasności. Film w standardzie DV, jak z powyższego testu wynika, szybciej rozjaśnia detale w okolicach czerni. Stąd chociażby ta pogorszona czerń w problematycznym filmie. Być może dlatego też gradacja wydaje się lepsza.
Wierzę jednak, że są scenariusze, w których 12 bitowe kodowanie może faktycznie zrobić różnice, ale czy robi już teraz? Kwestia nierozstrzygnięta.
Konkludując
W mojej ocenie, treść HDR w formacie Dolby Vision nadal ma przewagę nad HDR10 i zwyczajnie bardziej mi się podoba. Nie jestem jednak wstanie, z wyżej opisanych przyczyn, stwierdzić, czy jest ona lepsza w znaczeniu technicznym, tj. bardziej podobna do pierwowzoru, który widział reżyser. Teoria mówi, że powinna być. Praktyka pokazuje, że prawdopodobnie jest trochę ponad miarę uwydatniona i uatrakcyjniona. Na razie pozostaje oceniać subiektywnie i tu wracamy do pierwszego zdania – dla mnie wygląda po prostu trochę lepiej i myślę, że każdy by stwierdził tak samo, no chyba, że natknęlibyśmy się na problematyczny film jak chociażby Szybcy i wściekli 8, gdzie czerń jest w praktyce ciemną szarością (niewidoczne przy HDR10, irytujące przy Dolby Vision). Na szczęście mając odtwarzacz wspierający Dolby, np. Oppo, możemy tą technologię zablokować, jeśli w danym filmie nie realizuje ona swojego zadania poprawnie. Na koniec przypomnę jeszcze, że rezultaty mogą być zupełnie różne jeśli użyjemy innych wyświetlaczy. W teście celowo użyliśmy telewizorów LG OLED 2017, ponieważ osoby zainteresowane tematem Dolby vs HDR10 z reguły sięgają po ekrany najwyższej klasy. Na tańszych telewizorach, jakich, nie oszukujmy się, jest większość na rynku, prawdopodobnie (tak podpowiada logika) różnica byłaby jeszcze większa.
(21082)