Skocz do zawartości

silverrobert

Użytkownik
  • Liczba zawartości

    147
  • Rejestracja

  • Ostatnia wizyta

Odpowiedzi dodane przez silverrobert


  1. Już w 2015 Vizio robiło telewizory po 120 cali. Kosztowały 130 tys. dolarów i były tak ciężkie że sporo z nich złamało się w pół pod własnym ciężarem. Żadna nowość. 

    A w kwestii kosztów to wszystko kwestia czego szukasz. Za niecałe 400 dolców można kupić sensowny projektor który da całkiem znośny obraz 100 cali, jednocześnie nie zajmując pół pokoju. Do ćwiczeń mam przed rowerkiem projektor Samsunga LSP9T, telewizora bym w to miejsce nie wstawił bo nie ma miejsca. Cena dużo większa ale telewizor z takiej wielkości obrazem kosztowałby jeszcze więcej. Nie mówiąc już że do projektorów laserowych telewizory jeszcze trochę nie podskoczą jeśli chodzi o nasycenie kolorów. 


  2. Projektory nie są generalnie przeznaczone dla zwykłego użytkownika a tylko dla fanów kinematografii którzy chcą wrażenia z kina przenieść w domu.

     

    Jedną rzeczą która wyróżnia projektory w tym aspekcie jest fakt że soczewki w projektorach będą naturalnie powodowały tzw. vignetting czyli dodawanie ciemniejszych obwódek na obrzeżach obrazu. Reżyserzy zawsze planują akcję filmu wokół tego faktu, umieszczając najważniejszą częśc akcji w centrum ujęcia i unikając ważnych elementów na obrzeżach. Podobnie jak w fotografii, vignetting służy też naturalnie do kierowania wzroku widza w kierunku centrum akcji. Generalnie w wersji na telewizję domową koloryści nie dodają sztucznie vignettingu więc tylko na projektorze film będzie wyglądał tak jak wersja kinowa. 

    • Dzięki 1

  3. Bardzo fajne wideo. Dodam tylko 2 komentarze:

    1). Na widoczność 8K olbrzymi wpływ ma jakość optyki. Co z tego że sensor na kamerze może odwzorować 8K lub 10K jeśli soczewka rozmyje wszystkie wysokie rozdzielczości. Jak na razie jedyna kamera którą widziałem zdolna do odwzorowania obrazu 8K to ACHTEL 9x7, RED Monstro 8K ma dosyć podłe odwzorowanie wysokich częstotliwości które rozróżniają 8K od 4K. Do tego, same szkło panelu i filtr światła otoczenia obniżają kontrast wysokich częstotliwości w telewizorach, więc sam fakt że obraz nagrano kamerą "8K" i odtworzono na telewizorze "8K" nie oznacza że sama zawartość miała dobrą jakość 8K. Ciężko wyciagnąć jednoznaczne wnioski z tego typu badań bo być może jedyne czego one dowodzą to że technologia 8K nie osiągnęła jeszcze dojrzałości. 

    2). Wysokie częstotliwości między 60 do 120 cpd mają dziwną właściwość że są najbardziej widoczne dla adaptacji oka około 100 nitów. Poniżej tej luminancji większa przekątna źrenicy powoduje użycie większego obszaru soczewki w oku która z natury jest dosyć niejednolita powodując że obraz się rozmywa. Dla wyższych luminancji, mniejsza przekątna źrenicy powoduje dyfrakcję światła wokół krawędzi źrenicy i spadek ostrości dla wysokich częstotliwości. Z tego powodu nawet jeśli widzisz różnicę między 4K i 8K, zazwyczaj będzie to w sytuacji kiedy detale są wokół 100 nitów a dla ciemniejszych i jaśniejszych obrazów różnica przestaje być widoczna. 

     

    @Maciej Koper dałoby radę dostać linka/cytowanie do tego badania gdzie porówywano rzeczywiste obiekty z wersją na telewizorze 8K? Kiedyś Uniwersytet Cambridge miał podobne badania ale to nie wygląda jakby było od nich.

    • Dzięki 1
    • Haha 1

  4. Jeśli ktoś jeszcze myśli o kupnie, albo też myśli że podstawowa wersja jest niewygodna, na amazonie jest do kupna Globular Cluster CMP2. To przeróbka która sprawia że headset jest dużo bardziej wygodny, nie trzeba już zaciskać tak mocno, lepiej leży na głowie i mniej się rusza. Aż głupio że Sony tyle kasuje za sprzęt a szkoda im kilka dolarów żeby użytkownik nie kończył gry z bólem głowy. 

    A po godzinie w GT7 chodzę jak pijany, nie wiem co to jest ale zupełnie psuje mój błędnik. 


  5. Gdyby telewizory były wyłącznie wykorzystywane do oglądania filmów to bym się zgodził. Natomiast w wielu regionach (m.in. w Stanach) wciąż dominującym wykorzystaniem telewizora jest oglądanie sportów i ogólnie telewizji oraz granie. W tych przypadkach upłynniacze aż tak nie szkodzą więc konsumenci są w stanie je zaakceptować. A bądźmy szczerzy, gdyby konsumenci nie chcieli upłynniaczy i kierowali się nimi przy zakupie sprzętu to zniknęłyby z telewizorów już jutro. 

    Bardziej w tym temacie należałoby naciskać na różne platformy żeby automatycznie stosowały metadane trybu Filmmaker w trakcie odtwarzania filmów tak żeby telewizor sam się przełączał w tryb Filmmaker. Opcja jest dostępna już kilka lat a wciąż działa tylko w aplikacjach wbudowanych na telewizory, zewnętrzne urządzenia jakoś nie korzystają z tej funkcji. 

    • Haha 1

  6. On 1/21/2024 at 3:05 AM, Michal1992 said:

    Proponuję zrobić test. Zaprosić 100 Polek i Polaków. Uruchomić ten sam film/serial na Lg, Sony, Samsung, Philips, Panasonic i inni. Na fabrycznych trybach filmowych. Zrobić ankietę. Na podstawie wyników powiedzieć który jest najlepszy. Tylko takie testy mają sens. Testy przeprowadzane przez kalibratorow. Mają znaczenie dla promila użytkowników.

    ja miałem różne tv. Samsung. Lg. Philips, Sony. Każdy kto przychodzi mówi ale na tym Sony jest obraz. Chyba kolejny też będzie Sony. Jednak co japońskie to japońskie.  

    To ja proponuję lepszy test, posadzić 100 Polek i Polaków przed Mona Lizą i zapytać jak oni by to namalowali, albo zapytać ich jak by skomponowali 9-tą symfonię Beethovena. Myślę że tyle samo możemy się z tych testów dowiedzieć. 

    Bo fakt jest taki że jeśli oglądasz badziew żeby tylko coś w tle leciało to faktycznie zgodność z wizją reżysera nic nie znaczy. Filmy to jednak wciąż dla niektórych forma artystycznej ekspresji i źle wyświetlone kolory potrafią zupełnie zepsuć znaczenie krytycznych scen. Zbyt wysokie nasycenie kolorów, szczególnie w przypadku twarzy, może nadawać ludziom niezdrowy wygląd albo sprawić że będą wyglądać na zdenerwowanych w scenach gdzie powinni być spokojni. Zły kontrast potrafi albo ukryć detale które powinny być ledwo widoczne albo przeciwnie, pokazać detale które powinny być ukryte. Jeśli nie masz pojęcia jaki jest skrypt, który aktor gra jakie uczucia w danym momencie, co powinno a co nie powinno byc widoczne w danej scenie to niewiele możesz mieć znaczącego do powiedzenia w tym temacie. Dlatego pytanie 100 Polek i 100 Polaków o to co myślą jest generalnie mało produktywne. 


  7. Nigdy jeszcze mi się na zdarzyło żeby reset do ustawień fabrycznych spowodował jakiekolwiek problemy. W laboratorium mamy telewizory które co 2 tygodnie są resetowane do ustawień fabrycznych do testowania różnych ustawień więc gdyby miały być jakieś problemy to już by się pojawiły. 

    A reset z menu użytkownika i menu serwisowego mogą się różnić, w zależności od producenta sprzętu. U niektórych producentów zwykły reset nie usuwa kalibracji a reset serwisowy już tak. 

    • Dzięki 1

  8. 7 hours ago, Maciej Koper said:

    Tak, aczkolwiek monitory dual layer LCD (BVM-HX310, CG3146, XM311) dostarczają pełne 1000 nitów bez względu na APL. Może być nawet biel na całym ekranie u ta luminancja będzie utrzymana.

    To wiem, ale akurat ani z punktu widzenia przemysłu, który wciąż woli X300 od X310, ani organizacji standardyzacyjnych, które wymagają 1000 nitów tylko na kilka procent ekranu, te 100 APL 1000 nitów nie prezentują ogólnego trendu w branży. Bardziej takie ubezpieczenie że nie trzeba się martwić o APL w trakcie produkcji. 

    Filmy do dystrybucji domowej przygotowuje się na telewizory które są dostępne teraz bo najwięcej pieniędzy studia zarabiają w pierwszy rok-dwa po premierze więc robienie filmu zapełniającego cały gamut takiego monitora referencyjnego to tak naprawdę wystawianie się na większe różnice między telewizorami, w zależności ile każdy telewizor będzie musiał wykonać tonemappingu. Przygotowanie wersji bardziej pasującej na istniejące telewizory sprawia, że będą one musiały mapować mniej czyli lepiej odwzorują to co w sygnale. Dlatego ostateczny odgląd i aprobata wersji domowej zazwyczaj dokonywany jest na telewizorze konsumenckim a nie na monitorze referencyjnym.

    • Haha 1

  9. 6 hours ago, Maciej Koper said:

    Wydaje mi się, że mylisz funkcje. Doby Vision IQ nie wymaga żadnych dynamicznych metadanych poza tymi, które wymaga DV. Funkcja ta dostosowuje krzywą odpowiedzi tonalnej do warunków oświetleniowych i bazuje na odczytach z czujnika oświetlenia. Nie ma też standardowego sposobu implementacji tej funkcji, gdyż niektórzy producenci robią to dobrze tj. w ciemnym pomieszczeniu tryb IQ odpowiada trybowi skalibrowanemu referencyjnie i rozjaśnia się przy świetle, a inni robią to źle i obraz jest cały czas rozjaśniony (użytkownik musi wtedy zmieniać ręcznie tryby w zależności od pory oglądani co jest bez sensu). U jeszcze innych producentów np. Panasonic w tym trybie nie ma dostępu do niektórych funkcji, co też nie idzie w parze z logiką.

    Z drugiej strony są producenci jak Sony, którzy implementują funkcje działające tak samo dla zwykłej treści HDR10, tylko, że nie ma nazwy "IQ", jednak nie widzę żadnej różnicy w idei działania.

    EDIT: chyba, że za dodatkowe metadane uznamy content type, ale służy on głównie zmianie trybu na gamingowy. To samo mamy w przypadku ALLM.

    Mówiłem o podstawowych metadanych DV, IQ ich wymaga więc bez nich w HDR 10 nie uruchomisz DVIQ. Nie mylę tu żadnych funkcji, dużo czytałem o Dolby Vision IQ w tym patenty na których jest oparte więc wiem o czym mówię.

    Jest jeszcze kwestia tego że dane z sensora zapewnia producent sprzętu a nie Dolby. W zależności od położenia sensora, a czasem skierowane są do przodu, czasem do góry, a czasem w dół, zależeć będzie poprawność odczytu. Tym niemniej poprawnie ustawione IQ będzie wyglądać dużo bardziej poprawnie, Dolby przez długi czas miało specjalny pokój do demonstracji w biurze w Sunnyvale i poprawnie ustawione wyglądało idealnie, dużo lepiej niż kompensacja w Sony. 

    Teraz UHDA pracuje nad własną metodą kompensacji otoczenia która ma uwzględniać preferencje kolorystów, jeśli dobrze wyjdzie to moim zdaniem jedyny taki algorytm który może zagrozić IQ. 

    • Plusik 1
    • Haha 1

  10. 7 hours ago, Maciej Koper said:

    Tak, mam na myśli głównie ten standard, ale powszechną nazwę w branży na monitory certyfikowane do produkcji Dolby Vision, czyli cała topka ekranów dual layer od różnych producentów. 

    Nawet w wymaganiach Dolby Vision nie ma mowy o 1000 nitów niezależnie od tego co na ekranie tylko wyłącznie dla wzorca albo 10% ekranu albo L20 czyli 4% ekranu, zależy kogo spytasz.

    Zresztą wymagania Dolby są generalnie niższe niż Grade I a EBU 3320, szczególnie w kontekście tolerancji błędów reprodukcji koloru. 


  11. 7 hours ago, Maciej Koper said:

    Ale to nie jest akurat funkcja ekskluzywna dla Dolby. W HDR10 może działać równie sprawnie jeśli producent zaimplementuje. Ponadto u większości producentów nie działa poprawnie i w ciemnym pomieszczeniu tryb IQ wygląda inaczej niż skalibrowany tryb, bo nadal coś rozjaśnia.

    Akurat Dolby Vision IQ jest funkcją ekskluzywną dla Dolby Vision, nie wiem skąd ten pomysł że w trybie HDR10 może też działać bo wymaga do działania dynamicznych metadanych. 

    A fakt że jest wzrost jasności w ciemnym pomieszczeniu nie wynika z włączenia Dolby Vision IQ tylko ze zmiany trybu na jaśniejszy, bo tylko w takim można włączyć IQ. W trybie podstawowym (np. Cinema na LG, ale już nie Cinema Home) i tylko w trybie podstawowym obraz Dolby Vision ma się zgadzać z referencją. Pozostałe tryby, w tym tryby pozwalające na włączenie IQ, nie mają takiego wymogu i nawet po kalibracji mogą wprowadzać różne zmiany w obrazie. 

    • Haha 1

  12. 10 minutes ago, Xisiek said:

    Tego „ dynamicznie rozdzielany” właśnie nie rozumiem 

    Dokładny algorytm to własność intelektualna Dolby i pewnie nigdy nie dowiemy sie jak dokładnie to działa. Ważne jest że masz czarną skrzynkę która na wejściu dostaje obiektowy opis skąd dochodzą które dźwięki a na wyjściu daje mix przygotowany pod twój układ głośników. 


  13. Wytłumaczę na przykładzie bo faktycznie po przeczytaniu posta stwierdziłem że nie wiem co podmiot liryczny ma na myśli. 

    Wyobraź sobie że masz ścieżkę dźwiękową 5.1 i pasujący do tego zestaw głośników. Na ścieżce powiedzmy że masz solo na saksofonie gdzie saksofon jest pod kątem 45 stopni względem osi słuchacz - telewizor. W klasycznym mixie będziesz miał dźwięki rozdzielone na sztywno - 50% dźwięku saksofonu będzie zakodowane na lewy głośnik i 50% zakodowane na przedni głośnik. Jeśli masz odpowiedni układ głośników to faktycznie ten saksofon będzie brzmiał jakby był pod kątem 45 stopni od ciebie. 

    Atmos nie koduje tego na sztywno. Na ścieżce dźwiękowej Atmosa masz zakodowany dźwięk saksofonu i jego pozycję: 45 stopni. W trakcie odtwarzania dźwięk jest dynamicznie rozdzielany między dostępne głośniki tak żeby brzmiało to tak jak powinno. Jeśli masz głośniki 5.1 ustawione tak jak wyżej to może nawet mix wyjść tak samo jak tradycyjny mix. Ale nie jesteś ograniczony do jednego mixu i z jednej ścieżki Atmosa możesz wygenerować poprawny dźwięk na dowolną konfigurację głośników. 

     


  14. To są materiały marketingowe a nie artykuł naukowy, nie spodziewałbym się w 100% miarodajnego porównania przed i po bo celem jest sprzedać usługę a nie obiektywnie porównać wyniki. Profesjonalne monitory LG EP950 mają w sofcie do kalibracji opcję porównania przed i po, różnica jest często widoczna gołym okiem nawet pomimo faktu że monitory są fabrycznie skalibrowane. 

    • Lubię 1

  15. Atmos to dźwięk obiektowy, a nie przestrzenny. Oznacza to że mix nie rozdziela dźwięków na indywidualne głośniki tylko w czasie rzeczywistym rozdziela indywidualne źródła dźwięków pomiędzy dostępne głośniki tak, żeby zachować poprawny kierunek rozchodzenia się dźwięków w zależności od tego gdzie w mixie są położone w trójwymiarowej przestrzeni. Dlatego nawet na dwóch głośnikach Atmos potrafi dać lepszy dźwięk jeśli jest poprawnie skalibrowany przez producenta. 

    A co do Xboxa, płatne jest tylko Atmos for Headphones czyli wirtualizacja Atmosa na słuchawki. Jeśli masz telewizor albo dekoder który wspiera Atmos możesz go włączyć na konsoli bez płacenia. 


  16. On 1/5/2024 at 6:29 AM, Maciej Koper said:

    Bliską 100%. Na moniotrach studyjnych klasy I mamy pełne 1000 nitów niezależnie od tego co na ekranie i pełne pokrycie gamutu P3. Być może przy samej czerni się ono nieznacznie zawęża, więc kwestia czy wyjdzie 100% czy 98-99% zależy od tego jak dokładnie to zmierzymy (w ilu punktach skali jasności).

    Tak z ciekawości, kiedy mówisz o monitorach klasy I to masz na myśli standard EBU3320? Bo niedawno szukałem i nie znalazłem żadnego standardu monitorów referencyjnych dla przemysłu kinowego, jedyne co widziałem to standard EBU dla transmisji. 

    A co do standardu EBU, to faktycznie definiują 1000 nitów dla Grade I ale nie niezależnie od zawartości obrazu a wyłącznie dla wzorca pokrywającego 1% powierzchni obrazu. A zresztą, EBU samo z siebie przeprowadziło kilka lat temu test monitorów na rynku i wyszło im że żaden testowany monitor referencyjny nie załapuje się na najlepszy poziom Grade Ia, niektóre mogą się załapać na luźniejszy poziom Grade Ib więc ten standard to bardziej nadzieja na przyszłość a nie realna wydajność istniejących monitorów. 


  17. 2 hours ago, grundig said:

    Nie trzeba się tak napinać, każdy  dostrzega coś innego.Najlepsze   zdanie na temat plazmy i oled mają  zawodowcy  czyli np  operatorzy kamer na planach filmowych. Dla jednych najlepsza jest plazma  dla innych  OLED. W domu mam trzy telewizory plazmowe i jeden  telewizor OLED.Bardziej podoba mi się obraz sd i hd z pdp, czyli z plazmy.  Sygnal   4 k   , wygrywa OLED ale nie mam niestety plazmy  4k i nie mogę porownać

    To fakt, każdy ma prawo do własnego zdania ale po co wrzucać na forum filmiki ludzi którzy ewidentnie się nie znają na tym co mówią? Nic to nie wnosi do dyskusji poza faktem że na świecie jest jeszcze jedna osoba która myśli tak jak ty. 

    A w kwestii opinii profesjonalistów, Amerykańskie Stowarzyszenie Operatorów Filmowych zorganizowało w zeszłym roku shoot-out właśnie dla zawodowców żeby obejrzeli co jest dostępne na rynku. Pojawiło się mniej więcej po równo LCD i OLEDów i zero plazm. Myślę że to sporo mówi o tym co zawodowcy myślą o plazmach. Tu masz link do krótkiego opisu: https://www.insightmedia.info/asc-facilitates-an-on-set-monitor-shoot-out-and-more/ . 

    • Plusik 1

  18. On 12/7/2023 at 1:01 PM, grundig said:

    Posiadacz telewizora oled i plazmy  w USA  jest  zachwycony telewizorem z 2010 roku  czyli telewizorem Panasonic.Nowy telewizor  OLED  LG powinien byc lepszy a nie jest. Ten film  już  wklejałem.Wygrywa plazma.OLED jest lepszy od LCD ale nie jest  lepszy od plazmy.

    Ty tak na poważnie? Gościu gada głupoty o tym jak lepsze są kolory na plazmie a szybkie spojrzenie na czerwone światło na skrzyżowaniu około 10:00 pokazuje jak wyblakłe są kolory na plazmie. Do tego przeraźliwy clipping który gostek uważa za jaśniejszy obraz bo więcej detali traci w 0:45. I jeszcze koszmarny blooming na budynkach w 10:15. Faktycznie porównanie to "no brainer" ale nie w tym kierunku o którym on mówi. 

    • Plusik 1

  19. 10 hours ago, kurka8 said:

    Powraca myśl zmiany G1 na coś innego. Obecnie co wartego na rynku jest prócz G3, S95C ? Zapewne najlepsza opcja byłby A95L lecz kwota dość spora. Bardziej czy jest sens zmieniać G1 na ten moment?

    Wysłane z mojego SM-G998B przy użyciu Tapatalka
     

    G1 na G3 będzie dużą zmianą, MLA robi olbrzymią różnicę w jasności. Sam mam G2 w domu i jak pierwszy raz zobaczyłem G3 byłem pod ogromnym wrażeniem.

    Żeby dać przykład, zawsze na pierwszy test idzie dysk Spears and Munsil. Widziałem go już pewnie setki razy w laboratorium i na targach, ale dopiero na G3 zauważyłem że w jednej ze scen gdzie ptak otwiera oczy, w jego źrenicy widać odbitą ekipę kręcącą wideo. Drobny szczegół i jak się teraz dokładniej przyjrzę to widzę to również na innych telewizorach ale dopiero G3 dał taką klarowność obrazu żeby to wychwycić. 

    Kąty patrzenia też są dużo lepsze w G3 niż w G1. G1 miał całkiem niezłe wyniki w tym względzie ale G3 można oglądać dosłownie pod każdym kątem bez utraty jakości. 

    Generalnie, jeśli zastanawiasz się czy zobaczysz różnicę między G1 i G3, odpowiedź brzmi: na pewno. 


  20. 2 hours ago, jaczar said:

    O Dolby Vision Sony nic nie pisze 

    Calibrate SDR Only
    You would just have to calibrate BRAVIA in SDR for the following gamma, white balance, and color
    space targets. Once calibrated for these targets, you are all set for other gamma formulas (e.g. 2.4, and
    even for HDR) and color spaces. BRAVIA will take care of the rest since it’s all about calculation and
    conversion
    . The following values have already been selected as default in CalMAN’s “Options” Page.

    Color Space Rec. 709
    Color Temperature (white point) D65
    Gamma Formula Power 2.2

     

    No dobrze ale jak wgrać plik konfiguracyjny i przeprowadzić walidację trybu Dolby Vision? W całym dokumencie nie ma nic o DoVi a jego kalibracja różni się od zwykłej kalibracji telewizora. 


  21. 6 hours ago, kapusta7 said:

    Masz może PlayStation 4 lub 5? Mógłbyś sprawdzić jak z konsoli to wygląda.

    PS4 i PS5 nie wspierają Dolby Vision.

    4 hours ago, pavio01 said:

    Nie chce c+, tylko Netflixa z szalajacym Dolby vision lub bez. 

    Trudno powiedzieć czy będzie działać poprawnie bo problem może być z apką albo z telewizorem. Generalnie każdemu polecam kupić boxa bo apki będą ulepszane tak długo jak urządzenie jest sprzedawane a boxy mają dłuższą żywotność na półkach sklepowych niż telewizory. Tak że kupując boxa nawet jeśli okaże się że problem z telewizorem to box i tak zostanie i będzie działał lepiej. 

    A w kwestii samego boxa, używam Amazon Fire Cube i działa całkiem fajnie jeśli nie masz awersji do Amazona. Co prawda nie do końca Android ale wystarczająco zbliżony żeby można było zainstalować Google Play. 

×
×
  • Dodaj nową pozycję...