Powrót

Nowa wersja złącza HDMI 2.1 – co to jest? Czym się różni od HDMI 2.0?

Podczas bieżących targów CES 2017, HDMI forum zapowiedziało nową wersję złącza – HDMI 2.1. Byliśmy na konferencji i znamy wszystkie szczegóły. Fakt, że taka wersja złącza sygnałowego będzie miała swój debiut w przyszłości, wiedzieliśmy już od marca ubiegłego roku, kiedy to Philips ogłosił, że aktualizacja będzie konieczna do obsługi m.in. dynamicznych metadanych standardu HDR. Po wczorajszej konferencji okazało się, że zmian jest znacznie więcej. Wydają się one być tak gruntowne, że ciężko nie odnieść wrażenia, że złącze powinno nazywać się od razu HDMI 3.0! Do zmian należą:

Wyższa przepustowość

Zacznijmy od najważniejszego – zwiększonej przepustowości. Od wersji 1.3 złącze HDMI oferowało przepustowość wynoszącą maksymalnie 10,2 Gbps. Oznaczało to taktowanie kanałów przesyłowych z częstotliwością 340MHz (340MHz x 3 = 10,2 Gbps). Takie pasmo pozwalało transmitować obraz Full HD, także z 3D. W przypadku 4K pozwalało jednak na bardzo ograniczoną ilość formatów. Dostępne były opcje odświeżania wyłącznie 24 i 30Hz. Następnie wprowadzono standard HDMI 2.0, który zwiększył przepustowość do 18 Gbps, wykorzystując 600MHz kanały transmisyjne. Pozwalało to na używanie większej ilości formatów, np. 4K w 60Hz. Problem okazał się jednak inny. Nie wszystkie chipy HDMI posiadały zwiększoną przepustowość kanałów, a zapewnienie jej nie było wcale konieczne do uzyskania certyfikacji HDMI 2.0. Okazało się także, że 18 Gbps to wciąż za mało, by uzyskać np. HDR przy 60Hz w 4K, jeśli chcielibyśmy przesyłać sygnał RGB do monitora komputerowego. Z tego względu pisałem, że HDMI 2.0 jest przestarzałe już w trakcie debiutu. Przykładowo Display Port w wersji 1.2 (debiut w 2009 roku!) oferował aż 21,6 Gbps przepustowość!

Nadeszło jednak HDMI 2.1, a wraz z nim fundamentalna zmiana przepustowości. Do wykorzystania jej potrzebne są nowe kable HDMI. Samo złącze jest jednak kompatybilne ze starymi kablami (HDMI High Speed). Oczywiście w takiej konfiguracji nie zapewni szybszej transmisji. Użycie kabla 48G pozwoli jednak na obsługę znacznie większej ilości formatów:

48 Gbps można wreszcie nazwać gotowością na przyszłość! Takie pasmo pozwoli na przesył 4K w 120Hz z HDR, a także 8K w 60Hz! Do obsługiwanych formatów będą prawdopodobnie należeć także 5K i 10K.

Dynamiczne metadane dla standardu HDR

Dyskusje o HDR10 vs Dolby Vision, sprowadzają się przeważnie do dyskusji o przewadze dynamicznych metadanych vs. statycznych. Przypomnę, że metadane to informacje, które są niezbędne dla wyświetlacza, by mógł on wyświetlić poprawnie treść. Najważniejsza z nich to parametr określający jaka była jasność monitora na którym film powstawał. Jeśli wszystkie wyświetlacze na rynku miałyby jasność 10 000cd/m2 (maksimum dla normy HDR), to parametr ten nie byłby potrzebny wcale, bowiem każdy telewizor byłby w stanie wyświetlić tyle ile potrzeba. W 2017 roku łatkę premium dostaje model, który zapewnia tylko 1/10 maksymalnego potencjału (i nie dziwne, bo i tak jest to bardzo trudne). Wyświetlacz musi zatem wiedzieć w jaki sposób mapować tony, które przekraczają jego potencjał. Mógłby ich oczywiście zwyczajnie nie pokazać, ale jak się okazuje nie jest to takie proste. Twarde obcięcie odcieni na pewnym poziomie nie wygląda dobrze. Wyobraźmy sobie np. plamę na twarzy aktora, który oświetlony jest blaskiem słońca. Mając daną jasność wyświetlacza reżyserskiego, wyświetlacz może nieco oszukać z oddawaniem poziomów jasności, by nie usuwać wszystkich przejść tonalnych powyżej danego pułapu. Tu zaczynają się schody. Standard HDR10 przypisuję pojedynczą wartość jasności dla całego filmu, a bogatszy Dolby Vision precyzuje ją niezależnie dla każdej klatki. Ponadto zapewnia bogatsze dane jak mapować kolory zbyt jasne dla danego telewizora. Co to oznacza? Mniej więcej tyle, że sceny filmowe będą oddawane lepiej, bliżej tego co chciał reżyser. Nie pojawią się przepalenia w bielach w miejscach, gdzie tego byśmy się nie spodziewali.

HDMI 2.1 wprowadza wsparcie dla metadanych przypisywanych dla każdej klatki obrazu. Z własnych źródeł wiem, że najprawdopodobniej będą to bardziej rozbudowane metadane, opracowane wraz z firmą Technicolor. Zapewnią one nie tylko informacje o jasności monitora reżyserskiego, ale także o tym jak mapować zbyt jasne barwy. Brzmi podobnie jak Dolby Vision? Tak. Czas jednak pokaże co z tego wyniknie 🙂

Odświeżanie VRR

Praca ze zmienna ilością klatek jest wykorzystywana głównie w grach wideo. Gdy karta graficzna renderuje zbyt wiele, lub zbyt mało klatek w stosunku do częstotliwości odświeżania monitora pojawiają się zacięcia, lub rozdarcia obrazu.

Rozwiązanie problemu zaprezentowały firmy Nvidia, oraz AMD w postaci technologii G-Sync (karty GeForce), oraz FreeSync (karty Radeon). Do tej pory używanie obu technologii było możliwe jedynie przez złącze Display Port. Jak widać, zapowiada się jednak, że i HDMI otrzymało właśnie wsparcie. Nie wiemy jeszcze tylko dla której z technologii.

(24164)