Home Fachowa publicystyka i artykuły TEST Dolby Vision vs HDR10 na LG OLED (z Ultra HD Blu-ray)
TEST Dolby Vision vs HDR10 na LG OLED (z Ultra HD Blu-ray)

TEST Dolby Vision vs HDR10 na LG OLED (z Ultra HD Blu-ray)

3.24K
33

Technologia HDR to najciekawszy i zarazem najistotniejszy element całego standardu Ultra HD. Na nowo zdefiniowane poziomy jasności dają potężne doznania wizualne względem obrazu SDR. Dużo większe niż sama rozdzielczość 4K, czy poszerzona paleta barw. Osoby, które kliknęły w pierwszy odnośnik wiedzą już, że samo słowo HDR oznacza jedynie pewną koncepcję, nie zaś metodę jej realizacji. Jeśli mowa o konkretnych metodach, to należałoby tu wyszczególnić przede wszystkim HDR10 (czyli bazowy standard, z którym każde urządzenie jest zgodne), oraz Dolby Vision, czyli bogatszą technologię, mogącą dostarczyć potencjalnie lepszy obraz. Tą z kolei wspierają tylko wybrani producenci, np. LG, czy Sony. Na rynku są obecnie też inne rozszerzone normy, takie jak HDR10+ (artykuł, Samsung, Panasonic), czy Technicolor (LG), jednak tylko w Dolby Vision mamy wiele treści dostępnej na wyciągnięcie ręki. Pierwsze porównanie technologii Dolby Vision do HDR10 mamy już za sobą. Dokonaliśmy go przy okazji premiery serialu Stranger Things 2 w Dolby Vision z Netflix’a. Dziś przyszedł czas na zgłębienie tematu przy użyciu nośnika zapewniającego najwyższą możliwą jakość w warunkach domowych – płyty Ultra HD Blu-ray.

Dwa takie same LG OLED B7 z obsługą Dolby Vision

Dlaczego wciąż naszym zdaniem to właśnie nośnik fizyczny zapewnia najlepszą jakość? Ponieważ plik wideo na płycie Ultra HD cechuje się znacznie niższym stopniem kompresji, niż w streamingu (np. Netflix czy YouTube) i co za tym idzie, zapewnia dużo lepsze wrażenia wizualne. Technicznie rzecz ujmując płyta może posiadać bitrate (strumień danych) nawet do 128Mbps co w stosunku do transmisji z Internetu (10 – 20Mbps) pozwala oddać wielokrotnie więcej detali w lepszej jakości. Dokonując takiego porównania mamy pewność, że wyciskamy maksimum z każdej technologii!

Do testu wyposażyliśmy się w dwa takie same odtwarzacze Ultra HD Blu-ray z obsługą Dolby Vision oraz dedykowane filmy

By porównanie były jak najbardziej obiektywne zaopatrzyliśmy się w dwa odtwarzacze OPPO UDP-203eu, które jako jedyne wspierają obecnie Dolby Vision. Jest też w prawdzie odtwarzacz LG (UP970), jednak niestety nie w polskiej dystrybucji a dodatkowo ma on dopiero dostać wsparcie DV w przyszłości jako update systemu. Do testów oczywiście niezbędne były też filmy. W dzisiejszym tekście skupimy się przede wszystkim na Szybcy i wściekli 8, oraz Power Rangers. Informacje o tym, że zostały w standardzie Dolby można znaleźć na odwrocie pudełka, ale bardzo małym druczkiem.

DolbyVision

Technicznie o różnicach Dolby Vision vs HDR10

Co w ogóle posiada Dolby Vision „więcej” niż jest nam wstanie zaoferować HDR10? Zacznijmy od samych podstaw i wytłumaczenia kwestii związanych z poprawnym odtwarzaniem HDR. Gdyby wszystkie telewizory potrafiły wyświetlić jasność 10 000 cd/m2 , czyli maksimum tego co jest nam w stanie dostarczyć norma Ultra HD, to formaty premium takie jak Dolby Vision, HDR10+, czy Technicolor nie byłyby w ogóle potrzebne. Telewizory są jednak bardzo dalekie od tego (najlepsze OLEDy – około 700 nitów) i wymagają różnego rodzaju protez w celu określenia, czy wyświetlać dane odcienie jaśniej, ciemniej, czy nie wyświetlać ich wcale. Wszystko niesie za sobą pewne konsekwencje. Standard Dolby jest o tyle lepszy, że dostarcza dużo większą ilość dokładnych informacji jak wyświetlić każdą klatkę obrazu, w momencie gdy jej odtworzenie przekracza możliwości fizyczne telewizora.

Każdy telewizor posiada jednak inne możliwości fizyczne w zakresie odtwarzania jasności, jak i inne algorytmy mapowania w momencie gdy nie dysponuje dynamicznymi metadanymi (jak w standardzie Dolby). Oznacza to, że na każdej parze telewizorów różnica pomiędzy technologiami będzie zupełnie inna, w zależności od tego jak TV wspiera zarówno jedną jak i drugą normę. W przypadku gdy obsługuje któryś ze standardów z dynamicznymi metadanymi, w szczególności Dolby, to firma odpowiadająca za implementację funkcji ma większą kontrolę nad procesem. Nadal jednak mogą być zauważalne różnice między modelami pozornie podobnych telewizorów. Poza metadanymi, standard Dolby wnosi jeszcze 12 bitowe kodowanie barw (zamiast 10 bitowego), co potencjalnie może dać lepszą gradację odcieni obrazu.

Pierwsze porównanie

Dolby VisionHDR10

Różnica na powyższym zdjęciu jest, jak widzimy, bardzo, bardzo duża. Treść Dolby Vision jest znacznie jaśniejsza, żywsza i robi większe wrażenie. Myślę, że mniej więcej taki zysk można by osiągnąć na telewizorze konkurencji, bo LG ma jeszcze asa w rękawie, o którym później. Powyższe porównanie symuluje to co zobaczymy na TV, który obsługuje treść HDR10 w prosty sposób, odczytując tylko i wyłączeni statyczne metadane filmu HDR10. W przypadku „Szybcy i wściekli 8” metadane te mówią, że film może posiadać maksymalne jasności na poziomie 4 000 nitów. Z racji tego, że żaden telewizor nie jest w stanie odwzorowywać tak wysokich poziomów jasności nastąpi kompresowanie przejść tonalnych, tak by odwzorować detale z mniejszą jaskrawością. W taki „statyczny” sposób pracują telewizory wszystkich producentów poza Sony i Philipsem. Ci dwaj zawsze starają się odwzorować stałą ilość detali w bielach, bez względu nawet na statyczne metadane. Da się jednak na to zachowanie wpłynąć. LG, Panasonic, czy Samsung korzystają z metadanych statycznych i ustawiają do nich charakterystykę jasności telewizora.

Metadane: 1000 nitów

Metadane: 4000 nitów

Powyższe, nieco techniczne diagramy, są bardzo wymowne. Pokazują jak kształtuje się charakterystyka jasności telewizora (czarna lina), względem charakterystyki wzorcowej, dla ekranu o danej jasności (700 nitów – żółta linia). W przypadku, gdy TV otrzyma statyczne metadane 4000 nitów (czyli jak w przypadku Szybcy i wściekli 8), to film będzie przyciemniony, by znalazło się miejsce na detale aż do jasności szczytowej, nawet jeśli w danej klatce filmu wcale ich nie ma! To potęguje różnicę pomiędzy Dolby Vision, a HDR10. Teoretycznie nie powinno jej być gdyby film tworzony był na monitorze o jasności 1000 nitów, jednak takiej pozycji w technologii Dolby nie znalazłem na dzień dzisiejszy.

Dolby VisionLG Active HDRHDR 10

Kolejne porównanie dzieli się już nie na dwa, a na trzy pola. Czy jest tajemnicze LG Active HDR? Jest to autorska technologia LG, którą włączamy za pomocą niefortunnie nazwanego ustawienia – „kontrast dynamiczny”, wybierając pozycję „niska”. Technologia ta tworzy własne metadane dla filmu, całkowicie pomijając statyczne informacje zapisane na płycie. Znaczy to mniej więcej tyle, że telewizor sam odgaduje jak film miał wyglądać. Normalnie potępiłbym takie postępowanie, jednak w tym konkretnym przypadku, gdy nie ma odgórnie narzuconej definicji odwzorowania zbyt jasnych (dla danego telewizora) tonów, jest to dobre rozwiązanie! Sami widzimy, że HDR10 z technologią Active HDR prawie nie odbiega od treści Dolby. Prawda?

Dolby VisionLG Active HDR

Kolejne porównanie, przeprowadzone na filmie „Power Rangers” wypada mniej więcej tak samo jak poprzednio. Treść Dolby Vision, w konfrontacji z HDR10 z Active HDR jest tylko trochę jaśniejsza. Można by więc podsumować, że telewizor LG działa po prostu za dobrze (przez system Active HDR), by powstała wyraźna przewaga w technologii Dolby.

Która technologia mówi prawdę?

Powyższe porównania na pewno bardzo fajnie się ogląda, bo są wymowne i proste w interpretacji. Celowo jednak nie wspomniałem nic o ustawieniach telewizorów przed przystąpieniem do oglądania zdjęć. Teraz równie dobrze mógłbym napisać, że wszystko co widzieliśmy jest nieprawdą 🙂 Jak wiecie moi drodzy, możemy uzyskać dowolne rezultaty dokonując odpowiednich regulacji wyświetlacza. Wystarczyłoby przyciemnić jeden z trybów, lub wpłynąć na kształt charakterystyki jasności. Przecież wszystkie te ustawienia są pod ręką i można je edytować. Porównywanie na niezmienionym trybie fabrycznym też nie jest do końca sensowne, ponieważ każdy telewizor różni się w pewnym stopniu od siebie. Odpowiedź na pytanie, która technologia mówi prawdę dałaby kalibracja trybów, która nie tylko pozwoliłaby wyciągnąć wszystko z wyświetlacza, ale i dałaby odpowiedź jakich błędów w odwzorowaniu obrazu możemy spodziewać się zarówno w HDR10 jak i Dolby Vision. No i tu zaczynają się schody, ponieważ o ile jest możliwość pełnej kalibracji HDR10, tak dla Dolby Vision nie istnieje taka procedura. Tzn. firma Spectracal rzekomo ją opracowała, ale długie godziny testów pozwoliły stwierdzić, że nie działa ona póki co dobrze, dlatego w kwestii Dolby Vision lepiej jest wykonać tylko pewne etapy kalibracji, pomijając ten definiujący charakterystykę jasności. Ponadto z przyczyny istnienia technologii Active HDR nie ma też sensu ścisła kalibracja do krzywej jasności HDR10, bo telewizor i tak tworzy własne metadane. Ponownie sens ma przeprowadzenie tylko niektórych elementów kalibracji HDR10.

Optymalne ustawienia fabryczne dla Dolby Vision i HDR10

Nie da więc rady sprawdzić od strony pomiarowej, która technologia (HDR10 czy Dolby Vision) sprowadza nas bliżej tego co widział reżyser podczas tworzenia filmu. Test taki można by wykonać wizualnie, jednak… trzeba by posiadać monitor Dolby Pulsar, do którego nikt nie ma obecnie dostępu! Najlepszy monitor do HDR do jakiego mógłbym uzyskać dostęp to Sony BVM-X300, jednak ten niestety oferuje „tylko” 1 000 nitów… Wygląda więc na to, że w obecnej chwili nie jestem w stanie znaleźć odpowiedzi na pytanie, czy wyniki porównania są rzetelne od strony technicznej, czy może HDR Dolby Vision jest trochę „podkręcony” ponad standard i dlatego jaśniejszy i bardziej atrakcyjny. Przesłanka o wzmocnieniu trybu Dolby „ponad miarę” płynie jednak stąd, że gdyby podmienić metadane w filmie (co zrobiłem w celach testowych) na 1000 nitów zamiast oryginalnych 4000 i wtedy porównać wersję HDR10 do Dolby, to ten drugi nadal jest jaśniejszy i żywszy, a jak widzieliśmy na dwóch wykresach w poprzednim akapicie, przy 1000 nitów LG OLED teoretycznie podąża bardzo blisko referencyjnej krzywej jasności.

Pomimo tego, że wyświetlacze zostały skalibrowane, w możliwym dla każdego trybu zakresie, nie ma nadal pewności, że lepszość Dolby Vision wynika z wyższości tej technologii nad HDR10, a nie ze sposobu implementacji na telewizorze LG OLED. Póki co muszę z tym żyć, choć jako inżynierowi obrazu jest mi z tym ciężko. Nie wpływa to jednak na przekaz samego artykułu, bo przecież użytkownika z reguły nie interesuje co się dzieje „pod maską”, tylko co widzi na ekranie. I w tym przypadku, zarówno przed jak i po kalibracji każdego trybu, pewną zauważalną przewagę ma technologia Dolby, aczkolwiek…

Wady Dolby Vision na LG OLED, czy błędy filmów?

Do tej pory porównania zdjęciowe dosyć mocno faworyzowały technologię Dolby. Wyglądać by mogło, że ma ona same zalety. Na filmie Szybcy i wściekli 8 udało się jednak zaobserwować dziwne zjawisko pogorszonej czerni w niektórych scenach…

Dolby VisionLG Active HDRHDR10

Nie jestem przekonany, czy na tym porównaniu widać omawiane zjawisko (szczególnie na dolnej kaszecie obrazu), jednak na żywo wyraźnie było widać, że czerń świeci, co na telewizorze OLED raczej nie powinno mieć miejsca. Jak to jest możliwe, że zmiana samych metadanych spowodowała tak niekorzystne wizualnie zjawisko? Postanowiłem to dogłębnie prześledzić i szybko znalazłem przyczynę.

Za pomocą naszego najnowszego nabytku – generatora sygnału AccuPel DVA-6000 posiadającego funkcję analizy, skierowałem kursor na czarne pasy, by odczytać ich wartość. Okazuje się, że film Szybcy i wściekli 8 posiada niepoprawnie zakodowaną czerń. Jest ona podniesiona o kilka wartości kodowych, a więc w praktyce nie jest czernią tylko ciemną szarością. O ile w HDR10 różnica ta była zbyt mała, by czerń zaczęła świecić, tak dynamiczne metadane spowodowały jej wizualne pogorszenie. Nie można tu jednak winić ani technologii DV, ani telewizora LG OLED, tylko raczej studio filmowe, które wypuściło film. Dla użytkownika domowego pozostaje to jednak bez znaczenia – raczej wybierze on w takim przypadku film w HDR10, bo nie-idealna czerń w przypadku OLED’a wygląda po prostu niekorzystnie.

Różnica w gradacji odcieni

Film w standardzie Dolby kodowany jest 12 bitowo, a w HDR10 – 10 bitowo. To jedyna fizyczna różnica w zapisie treści wideo pomiędzy dwoma normami. Bogatsze metadane nie dotyczą przecież samego strumienia wideo. Czy różnica jest widoczna? Tak, ale… ponownie nie jest to wcale takie oczywiste. W Dolby Vision faktycznie gradacja jest lepsza, szczególnie w okolicy czerni, jednak trudno ocenić, czy jest to kwestia lepszej precyzji kodowania, czy też może innej charakterystyki jasności. Film w standardzie DV, jak z powyższego testu wynika, szybciej rozjaśnia detale w okolicach czerni. Stąd chociażby ta pogorszona czerń w problematycznym filmie. Być może dlatego też gradacja wydaje się lepsza.

HDR10Dolby Vision

Wierzę jednak, że są scenariusze, w których 12 bitowe kodowanie może faktycznie zrobić różnice, ale czy robi już teraz? Kwestia nierozstrzygnięta.

Konkludując

W mojej ocenie, treść HDR w formacie Dolby Vision nadal ma przewagę nad HDR10 i zwyczajnie bardziej mi się podoba. Nie jestem jednak wstanie, z wyżej opisanych przyczyn, stwierdzić, czy jest ona lepsza w znaczeniu technicznym, tj. bardziej podobna do pierwowzoru, który widział reżyser. Teoria mówi, że powinna być. Praktyka pokazuje, że prawdopodobnie jest trochę ponad miarę uwydatniona i uatrakcyjniona. Na razie pozostaje oceniać subiektywnie i tu wracamy do pierwszego zdania – dla mnie wygląda po prostu trochę lepiej i myślę, że każdy by stwierdził tak samo, no chyba, że natknęlibyśmy się na problematyczny film jak chociażby Szybcy i wściekli 8, gdzie czerń jest w praktyce ciemną szarością (niewidoczne przy HDR10, irytujące przy Dolby Vision). Na szczęście mając odtwarzacz wspierający Dolby, np. Oppo, możemy tą technologię zablokować, jeśli w danym filmie nie realizuje ona swojego zadania poprawnie. Na koniec przypomnę jeszcze, że rezultaty mogą być zupełnie różne jeśli użyjemy innych wyświetlaczy. W teście celowo użyliśmy telewizorów LG OLED 2017, ponieważ osoby zainteresowane tematem Dolby vs HDR10 z reguły sięgają po ekrany najwyższej klasy. Na tańszych telewizorach, jakich, nie oszukujmy się, jest większość na rynku, prawdopodobnie (tak podpowiada logika) różnica byłaby jeszcze większa.

(3244)

Maciej Koper Szef działu testów na HDTVPolska. Posiadacz certyfikatów ISF oraz THX. Zapraszam studia filmowe oraz osoby prywatne do profesjonalnej kalibracji swoich wyświetlaczy: www.skalibrujtv.pl

Comment(33)

  1. 1 godzinę temu, klaus71 napisał:

    to był cynizm - skoro gamma psuje HDR10 a DV tez kombinuje z gammą tylko dynamicznie to wychodzi że oba psują

    Chyba sarkazm jeśli już, tylko nie wiem po co.

    Bawiąc się gammą wypaczasz intencje twórców co do tego jak dany materiał miał wyglądać, podczas gdy w przypadku Dolby Vision to właśnie twórcy zdecydowali jak on ma wyglądać. Dolby Vision nie ingeruje w intencje twórców, tylko te intencje odzwierciedla.

  2.  

     

     

     

    Bawiąc się gammą wypaczasz intencje twórców co do tego jak dany materiał miał wyglądać, podczas gdy w przypadku Dolby Vision to właśnie twórcy zdecydowali jak on ma wyglądać. Dolby Vision nie ingeruje w intencje twórców, tylko te intencje odzwierciedla.  

     

    IMHO to niepotrzebne uproszczenie.Twórców czego? Skopanego wydania (encodera) ?!? 

     

     

     

     

    To szkodzi że bawiąc się gammą psujesz oryginalną treść, to raz

    Albo poprawiasz i niekoniecznie tylko powyższym scenariuszu (np oglądanie filmu Arrival na projektorze o niskim kontraście bez korekty gammy jest katorga), a w przypadkach konwersji materiału HDR do SDR ( nie każdy posiada projektor HDR albo HDR strippera), to praktycznie konieczność.   

     

     

     

     

     

  3. Nie piszę ani o oglądaniu na ułomnym sprzęcie ani o kastracie w postaci materiału HDR wyświetlanego w SDR. To zupełnie inny temat :)

  4. Nie piszę ani o oglądaniu na ułomnym sprzęcie ani o kastracie w postaci materiału HDR wyświetlanego w SDR. To zupełnie inny temat

    Niepotrzebnie brniesz dalej.Korekta gammy służy właśnie zbliżeniu do naturalnego wyglądu. Poza tym "nieulomny" sprzęt kosztuje tyle co samochod - mowimy o HDR - chyba ze nie masz problemu aby ogladac filmy na telewizorze. Ja juz nie moge więcej i czniam to cale UHD, nie wydam na projektor 25k , a tym bardziej 50k euro. Wracajac do sedna sprawy jest sporo wydań BD zwalonych, w streamingu (abonamentowym) praktycznie wszystko, a konwersja HDR do SDR to dzisiaj podstawa ogkadania na projektorze. Skoro oglądasz na telewizorze, to tego nie rozumiesz. Ale bez względu na, to regulacja gammy, nawet w ortodoksyjnym ujęciu, nie jest ingerencja w twórcza wizje, a dostosowaniem możliwości wyświetlacza do materialu video i warunków oglądania.Ja pisze o praktycznej regulacji, Ty być może myślisz o robieniu "efektu HDR", czy mocnym pobiciu cieni, ale generalizacja jakiej doskonales jest niepotrzebna. Chodzi o praktyczna poprawę obrazu i złożenia to do naturalnego. O ile poziomu światła i swiatlocieni nie możemy być pewni, o tyle Twórcy chyba nie zaplanowali odcieni skóry w kolorze pieczonego prosiecia albo bladego trupa.

     

     

     

     

     

     

     

  5. no fakt sarkazm - coś dziś rozproszony jestem

    no do końca to nie wiemy czy DV te intencje odzwierciedla skoro HDR10 też niby je odzwierciedla - do porównania brakuje Pulsara 

  6. Dnia 6.12.2017 o 16:13, klaus71 napisał:

    to co szkodzi by za pomocą gammy w dowolnym tv zrobić sobie taki pseudo "Active HDR" na materiale HDR10 ?

    Bo Active HDR działa dynamicznie, nie statycznie (jak manipulacja gammą). Gdy będzie dużo detali w jaskrawych światłach (1500 - 200 nitów), to Active HDR przyciemni obraz żeby te detale odzyskać, a jak nie znajdzie zbyt jasnych detali to na odwrót - rozjaśni.

    22 godziny temu, klaus71 napisał:

    czyli DV  tak samo "psuje" HDR10 jak zmiana gammy tylko potrafi to psucie robić dynamicznie i odrębnie dla każdej klatki 

    tego właśnie byłem ciekawy

    Zarówno HDR10+, jak i DV jak i Active HDR psuje obraz. Problem w tym że ten obraz trzeba zepsuć, żeby nie był jeszcze bardziej zepsuty ;) Wszystko by było prostsze, gdyby każdy telewizor mógł wyświetlać te jasności 0 - 10 000 nitów, tak jak to było w Rec 709 (0 - 100 nitów).

  7. a sam HDR10 ? w sumie wydaje sie że to jest taki odpowiednik Rec 709 (0 - 100 nitów) w zakresie 0-100 a DV  robiąc rozjaśnienie takich ciemnych partii fałszuje obraz choć robi to że w odbiorze wydaje się lepszy

     

  8. Zadaj sobie pytanie czy mastering odbywa się w HDR10 i to na jego podstawie tworzy się DV czy też może jest na odwrót. Wtedy otrzymasz odpowiedź co jest bliższe wizji twórców filmu.

  9. Ta słaba czerń to niestety problem wszystkich materiałów w Dolby Vision. Oglądałem na Netflixie kilkadziesiąt godzin filmów i seriali w tym formacie i praktycznie w każdym jest to dość mocno widoczne. To faktycznie jedyna przewaga HDR10 w stosunku do DV, bo na HDR10 tego problemu nie ma.

  10. Pytanie czy mozna napisac "wszystkich materialow w Dolby Vision", jedynie na podstawie Netflixa. 

    Czy posiadacze Apple TV HDR  potwierdzaja ten wystepowanie,  a dalej, taka sama skale problemu?