Znajdź zawartość
Wyświetlanie wyników dla tagów 'bitrate' .
Znaleziono 1 wynik
-
Panowie, mam chyba jakieś przedświąteczne zaćmienie umysłowe, prosze mnie oświecić. Jak to jest z bitrate'm materiału przy różnych codecach? Najlepiej na przykładzie: Załóżmy że mamy dwa pliki tego samego materiału w tej samej rozdziałce, jeden przygotowany w AVC (H.264), a drugi w HEVC (H.265). Wiadomym jest, że ze względu na lepszą kompresję materiał pierwszy w AVC powiedzmy będzie miał 100GB wielkości, a materiał drugi w HEVC powiedzmy 60 GB wielkości (stanowi pomiędzy 50-70% objetości tego w AVC). Do tej pory wszystko jest jasne. I teraz pytanie ... co będzie z bitrate'm przy dotwarzaniu tych materiałów. Czy dobrze rozumuję, że powiedzmy bitrate w AVC będzie miał 12 Mbps, a materiał w HEVC 20 Mbps? Jesli tak jest to patrzenie na bitrate na mniejsze znaczenie. Oczywistym jest, że im wiekszy bitrate tym jakość lepsza ale z mojego przykładu jeśli dobijemy bitrate'm z pierwszą próbką do 20 Mbps to plik wynikowy zwiększy się do powiedzmy ok. 200 GB i materiał będzie porównywalny do tego w HEVC, który jest ok. 3 razy mniejszy . Z kolei w drugą stronę gdy obniżymy bitrate z 20 Mbps do 12 Mbps to plik wynikowy zmniejszy się do 30 GB. No dobrze, a co będzie jak zmienimy rozdziałkę jedneg z plików? Dlaczego takie pytania? Bo w streamingu pojawia się coraz więcej materiału w HEVC w 2160p z HDR i chciałbym je jakoś "porównac" do materiału w AVC z płyt blu-ray w fullHD. Materiał z płyty BD ma powiedzmy bitrate ok. 20 Mbps, a ten w 2160 w HEVC ok. 13 Mbps. A który jest jakościowo lepszy? Czy idzie to jakos prosto obliczyć? Chyba będę miał wyliczanki przy świątecznym zakrapianym jajeczku . Wesołej Wielkiejnocy.