Skocz do zawartości

spinnek

Użytkownik
  • Liczba zawartości

    27
  • Rejestracja

  • Ostatnia wizyta

Odpowiedzi dodane przez spinnek


  1. @bohun (pytanie o to, dlaczego to widać dopiero teraz)

    Jak dla mnie problem polega na tym, że od niedawna (kilka lat) mamy źródło Full HD w chacie, jak to przy kinie domowym bywa, i oglądamy film po raz kolejny, a więc nie unosi nas fabuła.

    W ten sposób możemy spokojnie powydziwiać.

    A to na judder, a to na ziarno, a to na paletę kolorów, a to na artefakty kompresji, a to na wyższość jednego kodeka stratnego (obrazu) na drugim, a to na wyższość jednego algorytmu dekodowania bezstratnego dźwieku nad drugim, a to na ilość bitów w sygnale dźwiękowym na kanał (16 zamiast 24) itp.

    @all

    Zachowując jednak miarę: tak, czy owak, jak już się ma tor 24fps (ja tak mam z projektorem pt-ae900 i blu ray'ami) to skaczą niewielkie fragmenty filmu, od czasu do czasu. Potężny skok jakości jest wtedy, kiedy zamiast 50-60Hz na TV/projektorze (bez frame interpolation/creation) przy Blu Ray'u mamy 24fps lub 50 fps przy DVD PAL.

    Innymi słowy, jak dla mnie judder przy oglądaniu 24 fps na 60fps to jest MASAKRA, oczy mnie bolą. Gorsza od niej jest już tylko funkcja frame interpolation/creation u niektórych producentów. To tak, jak z DLP moim zdaniem, niektórych efekt teczy może nie rusza, ale mnie to męczyło strasznie.

    Potem jest własnie 24fps.

    Potem długo długo nic, jak się tym już człowiek nacieszy, to zaczyna dostrzegać inny rodzaj rwania (=judderingu), wynikający ze stosowania 24 fps zamiast np. 50 albo 60. Niemniej, z tym drugim da się żyć poprzez zastosowanie właśnie frame interpolation/creation. Inna sprawa, że ten algorytm też się czasem gubi, niemniej, jest fajnie :rolleyes:


  2. Czytam ten wątek, czytam, czytam i oczom nie wierzę.

    Szczególnie rozbawiła mnie łez wyższość 25 klatek nad 24 klatkami na sekundę. No to był najlepszy kawałek (@dominikjestem bodajże).

    Jestem zagorzałym graczem i spróbujcie powiedzieć takiemu, że ma uzyskać płynnośc przy 25 klatkach na sekundę. Przecież rwanie obrazu jest tragiczne. Sorry, ale wg moich informacji standard 24 klatki/s miał w nosie judder, o którym rozmawiamy w roku 2009. Był właśnie rok 1926 albo 1927 bodajże, kiedy ustalano ten standard. Przed drugą wojną światową. No comment. Ustalono tę prędkość tylko ze względu na dźwięk, a nie na obraz.

    To jest ta piep... zaszłość. Kropka. Ba, jest gorzej, niż się to powszechnie sądzi. Bo co można z tym zrobić? Zwiększyć fps do 50Hz? Amerykanie się zaraz nie zgodzą, czyli będzie 60 Hz. To w takim razie typowy film na Blu Ray+ zajmowałby 2,5*30=75GB. Minimum. Całkowity koniec z przesyłaniem tych filmów przez internet przez co najmniej 10 najbliższych lat. A już minęło ponad 80 lat od utworzenia standardu. Super. Co nie przeszkadza piejącym z zachwytu nad współczesnymi możliwościami techniki rozwodzić się nad super czasem, w którym żyjemy. Marzyłem o videotekach HD on-line, ale w nie po prostu na razie nie wierzę. Przy czym mówiąc HD mam na myśli bitrate 30Mbps, a nie 8Mbps, jak to jest w DVD. I znowu, tylko PC byłby pewnie w stanie odtworzyć ten standard, wszystkie stacjonarne odtwarzacze można spokojnie zakopać w dużej dziurze w ziemi. Rozkoszna perspektywa?

    Już nie wspomnę o "żałosnych" sztuczkach z interlacingiem, bo przecież praktycznie mówiąc o źródłach 50Hz i 60Hz, to są przecież źródła 50i i 60i, przy których albo używa się bardzo zaawansowanych deinterlacerów, albo używa się standardowych deinterlacerów i ottrzymuję się niezłą "kaszę" na ekranie, ciągle 25Hz lub 30Hz. Kolejna zaszłość. A po co był deinterlacing? A no bo powiedzmy 50 lat temu było za mało pasma do przesyłania danych, a już wtedy wiedzieli, że bez 50Hz pracować się nie da.

    A gdzie stereo Blu Ray, o którym się ostatnio tyle gada, który wymaga podwojenia informacji, bo mamy dwoje oczu?

    Czarno to widzę.

    Co nam zostaje na chwilę obecną? Frame interpolation/creation, jak słyszę.

    Działa to różnie. Sam mam Toshibę, i przy włączonym trybie 24Hz jest w nieźle. Brat ma Philipsa, i po 10 minutach od nienaturalnego "jeżdżenia" obrazu w te i we wte (w trybie minimum - to jakiś okrutny żart), przełączyłem na 60Hz, uff, te stare, niezawodne drżenie.

    Obym się mylił, ale sądzę, iż przez najbliższe 10 lat nic się w tym temacie nie ruszy.

    Jak zwykle, obowiązuje stara prawda ekonomiczna, że producent dostarcza na rynek najgorszy możliwy towar, jaki udaje się upchnąć klientom. Producenci bardzo pilnują tej zasady. Co oznacza, że z punktu widzenia fanów domowego HD, za wcześnie się urodzili :blink: I 24fps porządzi jeszcze długie lata. Towaru, który się świetnie sprzedawał przez ponad 4 pokolenia, bedzie jeszcze długo pod dostatkiem... :blink: A my fani HD możemy sobie dowolne długo marudzić o judderingu - psy szczekają, a karawana idzie dalej.


  3. Obejrzałem sobie ten film - wymiata.

    Szybkie samochody, gorące kobiety, wypas obraz, wypas dźwięk.

    Przewinąłem tylko więzienne wstępy, nuda. Czyli poza jakimiś 15 minutami, rewelka. Czysty dźwięk nieskompresowany podnosi zarąbiście realizm.

    Polecam wszystkim, którzy lubią:

    - zachwycać się jakością filmów na blu ray, i dźwiekiem, i obrazem; i bitrate'ami :)

    - grę Stathama

    - zabójcze piękności :) z górnej półki i zimne, ale równie piękne, wyrachowane kutwy

    - wyścigi samochodowe

    - szybki montaż

    Film lepszy, niż się spodziewałem.

    Mam szczęście, bo po Speed Racer właśnie chciałem coś samochodowego obejrzeć, i proszę bardzo, stało się.


  4. @Ghrom

    Dokładnie tak, Zadaniem skalera SD=>HD, moim skromnym zdaniem, jest przeniesienie SD 576p z jak najmniejszą utratą jakości (i TU jest pole do popisu dla twórców algorytmów) materiału źródłowego do 1080p. Nie ma to absolutnie NIC wspólnego z HD. Nie rozumiem, dlaczego niektórzy sądzą, że więcej pikseli na wyjściu znaczy lepiej.

    Ostatnio mam wrażenie, że zamiast podawać, ile obraz ma rozdzielczości, powinniśmy podawać tylko bitrate materiału źródłowego:)

    proponuję następujące wartości:

    Full HD = co najmniej 25-30Mbps AVC, VC1 lub 40-50MPEG2 :)

    SD = 6-8Mbps Mpeg2

    I będzie jasne, że skalery tak naprawdę nic nie zmieniają (mowa o upscalingu bez "wtrącania" dodatkowych ramek pośrednich, które również NIE dodają detali obrazowi).


  5. Update: ze względu na problem z występującym od czasu do czasu rozmyciem obrazu HD w TMT 3.0 Platinum (u mnie to występuje) [http://hdtvpolska.com/index.php?showtopic=16129&view=findpost&p=156672], proszę traktować moje powyższe testy SimHD jako wstępne, gdyż testowałem upscaling do tej rozdzielczości, którą TMT rozmywa.

    Niestety, nie mam w tej chwili materiału testowego DVD w postaci ISO lub płytki, bym mógł sprawdzić, czy podobne rozmycie występuje na dyskach DVD (576p).


  6. FYI: Wygląda na to, że od czasem występuje jakiś problem z TMT3 i 1:1 pixel mapping w trybie 1080p (source: blu ray, czyli rozdzielczość wejściowa=rozdzielczość wyjściowa =1920x1080). U mnie dotyczy to wersji testowej TMT 3, ale to samo zgłaszają nabywcy wersji komercyjnych.

    Raportowany jest on w kilku miejscach:

    http://www.arcsoft.com/forum/forum_posts.asp?TID=1968

    http://www.avsforum.com/avs-vb/showthread....98#post16121498

    http://www.avsforum.com/avs-vb/showthread....15#post16129715

    Widać go natychmiast, obraz jest rozmazany, kontrola poprzez darmowy dysk testowy Blu Ray http://hdtvpolska.com/index.php?showtopic=...mp;#entry156671 (tylko obraz, bez dźwięku) pokazuje, że w miejsce naprzemiennych białych i czarnych jednopixelowych pasków (oddalonych o pixel) w pionie i w poziomie są u mnie np. białe i czarne pola.

    Przyczyna - na razie nieznana.


  7. O ile już gdzieś tego nie było: pliki do utworzenia darmowego dysku testowego Blu Ray. Ten dysk testowy skupia sie na obrazie, nie na dźwięku.

    http://www.avsforum.com/avs-vb/showthread....54#post12373254

    Sprawdziłem, działa zamontowany ISO z powyższym materiałem w PowerDVD Ultra 8.0 (patch 2507) i w Trial Arcsoft TMT 3.0 Platinum.

    Można sobie np. sprawdzić, czy ktoś ma właściwie ustawione progi bieli i czerni, 1:1 pixel mapping itp.


  8. @rozz,

    miałem awanturę o to rozciąganie obrazu ostatnio na święta. 4:3 =>16:9

    Moja rodzina stwierdziła autorytarnie, że się już przyzwyczaili do takiego obrazu, tak ma być, tak jest dobrze, i nie będę im psuł czarnymi paskami oglądania. Byli głusi na wszelkie argumenty. Wyniosłem się z pokoju, bo nie znoszę parady tłuściochów na ekranie.


  9. Poświęciłem wczoraj kilka godzin na testy ArcSoft SimHD.

    Cisną mi się na usta słowa "wrona orła nie urodzi" oraz "CUDA, wianki". Słabo wyszło, poniżej oczekiwań.

    Test robiłem na kompie z kartami NVIDIA 8800GT (SLI). Procek Athlon X4 9750, TV 42 Toshiba 42Z3030. Czyli CUDA też były wykorzystane.

    Pierwszy film (wszystkie DVD) - Książe Kaspian. Szczegóły na twarzy Zuzanny na początku filmu się polepszyły. Strasznych artefaktów niby nie było, takich jak w PowerDVD 9, przy tamtejszym upscalingu. Ok, przeskoczyłem na kolejne filmy.

    Indiana Jones 3 - porażka. Harry Potter 5 - porażka. Hancock - porażka.

    Co mnie zraża - obraz jakby tracił "trzeci wymiar", jest jakby skrócony w głębi. Orgie kwadracików (pixelizacja) wokół np. okularów, na ostrych przejściach. Orgia punktów (artefakty) na firanach przy panningach (przejściach) kamery po pokoju.

    Jak dla mnie, te wszystkie upscalery to jedna wielka ściema obliczona na wyłudzenie pieniędzy. Jaki dziadowski w porównaniu do Blu Ray'a sygnał cyfrowy jest, taki pozostanie, i trzeba się z tym pogodzić. Sprawdzam dla zabawy kolejny scaler i po raz kolejny przekonuję się, że teoria informacji nie kłamie - nie da się wyprodukować przez odtwarzacz brakującej na płycie informacji.

    Czyli zostaję przy powerdvd i upscalingu automatycznym DVD poprzez EVR (Enhanced Video Renderer), czyli wbudowanym w Windows Vista. Owszem, obraz nie jest zbyt ostry, ale z drugiej strony, nie ma psujących oglądanie artefaktów i wrażenia sztuczności.

    Próba regulacji ostrością (zmniejszenie) sprawiła, że obraz się praktycznie nie różnił od tego bez zaawansowanego upscalingu.

    Może jeszcze dam mu raz szansę, ale podejście nr 1, podobnie jak poprzednie podejścia do upscalingu w WinDVD i PowerDVD 9, niezaliczone.


  10. @dominikjestem

    Kolega przestrzelił, i to bardzo, z tymi divix'ami. Na powiedzmy 10 oglądających film w mojej rodzinie, tylko ja nie znoszę DIVXów. Reszta to ogląda. A jest 2009 rok.

    To, że tu, na tym forum, jest nisza HD, wcale nie znaczy, że na zewnątrz tej niszy nie króluje zły gust.

    Wracając do HD Audio - pamiętacie, jak kiedyś szły CDki w trójce wieczorową porą? Teraz to chyba same MP3 są puszczane w radiu. Cholera mnie bierze, kiedy na 90% stacji słyszę ten sam jazgot. Znowu, nie mam wprost potwierdzenia, ale kiedyś czytałem, że playlisty w radiach tworzone są na kompach z MP3 (bo oszczędniej). I ludzie słuchają takiego łomotu.

    Niemniej, by nie narzekać tylko, koncerty na Blu Ray są po prostu ucztą dla oka i ucha. Tyle, że mój gust absolutnie rozmija się z tym, co producenci chcą w tej chwili wydawać.


  11. Kolejna sprawa, która może być - OSTROŚĆ.

    Ja u siebie, jak miałem OSTROŚĆ ustawioną standardowo, litery miałem jakieś dziwne. Pomogło ustawienie ostrości na minimum -50 (TV Toshiba 42Z3030).

    Następna - zobacz, ile ma Hz sygnał, który podajesz do TV. Polecam rozpoczęcie testów od 60Hz progressive. Czy nie masz przypadkiem interlacingu, czyli 1080i60?


  12. Ostatnio wpadło mi gdzieś w oczy (może któryś z forumowiczów zapodałby linka, ja nie mogę go znaleźć), że Ci od miksowania dźwięku w profesjonalnych nagraniach zaczęli na poważnie brać pod uwagę sposób odsłuchu muzyki przez MP3 i podbijają dźwięki, spłycają dynamikę, byle by "lepiej" dźwięk brzmiał na przenośnym (= z reguły dziadowskim) sprzęcie do słuchania. W artykule wspomniano o MP3-kach i o zwyczajach odsłuchowych ich właścicieli. I o tym, że estetyka MP3 (metaliczny dźwięk, brak dynamiki, brak detali w dźwięku itp.) zaczyna być coraz powszechniejsza, bo tak właśnie lubią słuchać muzyki słuchacze, i tak uważają oni, że powinna ona brzmieć.

    Przygnębiające.

    A niektórzy (@apatch :( się denerwują, że nie słychać dolnych 8 bitów przy 24bitowych samplach po downsamplingu do 16;) Ja się zastanawiam, czy wkrótce będziemy słyszeli co innego, iż górne 8 bitów, przez tych empetrójkowców z ich sprzętem za 50PLN. ;)


  13. Byłbym zapomniał - jak na razie, chcąc korzystać z dźwięku HDMI w M3N-HD/HDMI (Asus), muszą być spełnione następujące warunki:

    - musi działać karta dźwiękowa REALTEK; to dla mnie największa niespodzianka, bo mam od dźwięku nie-HDMI mam już kartę CREATIVE'a; niemniej, jesli sie wyłączy w BIOS kartę REALTEK'a, nie ma też dźwięku HDMI

    - de facto trzeba przydzielić cokolwiek do karty graficznej na płycie, mimo, że z grafiki tamże nie korzystam wcale (nie interesuje mnie grafika z tej karty graficznej na płycie); ja dałem 64MB i jest dobrze, niemniej, tyle RAM znika dla Windows; przy 4GB to trudne do zauważenia

    - kolejna sprawa: aktywacja dźwięku HDMI; robię to poprzez "wyłączenie" SLI; niby wyłączam, dlatego, że tak naprawdę ten tryb się nie wyłącza, tylko reinicjalizuje wszystkie urządzenia graficzne, w tym wyjście HDMI; to sprawia, że zapala się lampka HDMI na amplitunerze i pojawia się napis bodajże MPCM

    Ustawianie (po aktywowaniu) HDMI jako domniemanego (default) wyjścia dźwiękowego ma miejsce w 99% przypadków


  14. @apatch

    Mam 9 miesięczne dziecko, stąd nie ma czasu się do wszystkiego odnosić od razu. ;)

    O problemach z mapowanie sygnału 7.1 w PowerDVD czytałem, spoko. Sam ich raczej nie doświadczam, bo mam 5.1 w chacie. Ale jesli już, to jest to problem aplikacji, a nie płyty głównej. A o tym rozmawiamy. O mapowaniach możemy podyskutować w temacie PowerDVD Ultra.

    XONAR HDAV 1.3 kosztuje bodajże 1000PLN-1300PLN - jak dla mnie, to cena jest zaporowa. Price/performance ratio bardzo słaby.

    Z tą istotnością dla końcowych użytkowników to w przypadku downsamplingu nieco :( przesadziłeś.

    Niemniej jeśli ktoś jest purystą dźwiękowym i najmniejsze przekłamanie odbiera mu sen, na chwilę obecną, jeśli chodzi o LPCM 7.1 i płyty główne, musi się uzbroić w cierpliwość. Jeśli nie jest cierpliwy, a jest zamożny, może kupować kartę ASUS'a w/w. Jeśli jest niecierpliwy i niezamożny, zawsze zostaje mu możliwość pokwękania na downsampling na dziesiątkach forów.


  15. @Apatch, @ghrom

    Panowie, a moglibyście nie zamulać tematu "tym strasznym downsamplingiem", tylko stworzyć osobny temat w tej sprawie? Z góry dzięki. Nie odstraszajcie ludzi od przystępnych cenowo możliwości skorzystania z 5.1-7.1 na PC tonami wywodów, artykuł, rysunków itp.

    Problem z downsamplingiem został zasygnalizowany, dzięki, a w Waszym temacie będziecie się mogli do woli napawać problemami wieku ząbkowania, czyli downsamplingiem właśnie, bo jak zwykle producenci chcieli sprzedawać swoje zabawki szybciej, niż dojrzeją standardy do ich sprzedaży. A gdzie tak nie jest. Za pewnie kilka miesięcy problem zostanie rozwiązany tak czy owak, i po co to ekscytacja jak najbardziej prawdziwymi informacjami o aktualnych subtelnych ograniczeniach produktu? :( Spędza to Wam sen z powiek, nie potraficie się cieszyć tym, co jest? ;) Miło jest ponarzekać na w sumie nieistotne dla ogółu specyfikacje? :D

    Tym bardziej, że ta dyskusja nt downsamplingu jest jedną z najbardziej niepraktycznych, gdyż, jak wspomniałem, nie wierzę, by ze wszystkich forumowiczów na HDTV choćby 1% był w stanie wyczuć różnicę w "ślepym" teście.


  16. Szacun dla kolegi apatch'a za linki. Ja się tym nie interesowałem, bo jak już sobie kupiłem właściwą płytę, to już nie lekturzyłem jednego z najdłużych wątków na AVSForum.

    Szczerze mówiąc, to mi ręce opadają, jak AVSFORUM (gdzie zaglądam praktycznie codziennie) jest pełne postękiwania ludków, którzy przy każdej okazji dodają, jaką to STRASZLIWĄ tragedią jest downsampling z czegoś powyżej na 48000 16bitów. Po prostu ręce opadają. Cholerni pryszczaci harcerze, podniecający się ogólnoświatowym spiskiem mającym na celu utrącenie kilku bitów z każdego bajtu... :) Kolejne utrapienie wg niektórych użytkowników AVSFORUM to prawidłowe dekodowanie mapowanie dźwieku do odpowiednich kanałów 7.1. Pytanie - ile ludzi ma 7.1 u siebie? ;)

    Kolega apatch też dodał do pieca: "To co robią softy typu PDVD/TMT z dźwiękiem zdekodowanym do LPCM to już historia, polecam sprawdzić samemu". To jest sianie defetyzmu :)

    W życiu jeden z drugim nie posłyszy różnicy w ślepym teście, w warunkach domowych.

    BTW: to, co ja mam, to moim zdaniem IGP nVidia 8200/8300 [mowa o M3N-HD/HDMI].

    Bodex, samodzielnych testów to sądzę że obecnie nei ma co robić, bo wszystko już sądzę co trzeba, to przetestowano i opisano na AVSForum. Ta technologia już wile kwartałów na rynku jest. Co innego, gdyby to była całkiem nowa zabawka.


  17. Ja tam bardzo żałuję, że nie mogę pograć w Crysis w trybie VERYHIGH bodajże (tudzież ENTHUSIAST w Crysis Warhead) na swoim TV 42 cale 1080p, mimo posiadania SLI 8800GT.

    A jak raz zacząłem grać na TV 42 calowym, to NIECHĘTNIE wracam na monitor.

    Od biedy 75% gry jest do przejścia w trybie 1680x1050, ale są momenty, gdy muszę o schodzić w dół z grafiką, bo mi się komp nie wyrabia.

    Nie mam też motywacji, by kupić monitor 24", bo po co, skoro mam 42 cale 1080p.

    Niestety, wystarczyło mi kilka razy włączyć 1080p i już mnie zniechęcił monitor 1680x1050. Jakieś te litery nie takie, jakoś detale nie te :) [mowa np. o Dead Space, o Prince of Persia]


  18. Pytanie, czy działa komputer z wyjścia DVI na 1m kablu HDMI, bo o tym nie wspomniałeś.

    A może przejściówka jest walnięta?

    Czy masz dobry docisk do interfejsu DVI? Bo pamiętam, że jak mi się przejściówka DVI/HDMI nieco wysunęła z interfejsu DVI, to też miałem BRZYDKI, ZIELONY OBRAZ. Już myslałem, że projektor szlag trafił. Ale po dociśnięciu przejściówki było ok.

    Ja mam 10 m kabel HDMI z Allegro, jakiś tani i dobry, z kompa (8800GT DVI<>przejściówka DVI/HDMI) do projektora Panasonica pt-ae900e. Działa super.


  19. BTW: Ale o co chodzi rozpoczynającemu dyskusję, że gra jest DD? Nie lepiej sie zapytać, czy gra jest z dźwiękiem dookólnym?

    Swoją drogą, teraz to mamy niezłe w tej materii pomieszanie. Jako lajkonik w temacie, wydaje mi się, że teraz wszystkie nowe gry mają dźwięk przestrzeny pisany w OpenAL (by chodził pod Vistą). Ten dźwięk przestrzenny można najprawdopodobniej mapować do tylu głośników, ile ma się w systemie. Biorę to stąd, że ostatnio praktycznie w ogóle nie dokonuje się wyboru sposobu udźwiękowienia (np. 2.0, 5.1, 7.1), jak to to było dawniej. A kupuję i gram w wiele gier.


  20. Dźwięk 5.1 z gier można wyciągnąć do amplitunera mieć na kilka sposobów:

    - (analogowo) stosując wyjścia analogowe karty, które podłaczamy do wejśc analogowych w amplitunerze; rozwiązanie najtańsze i w wielu przypadkach wystarczające

    - (cyfrowo) stosując kartę dźwiękową z obsługą Dolby Digital Live lub DTS Connect; sterownik (lub sama karta) kompresuje stratnie dźwięk z kompa "w locie" do Dolby Digital lub DTS; część kart robi to od razu, niektóre [np. Creative] robiił to jakiś czas temu po wykupieniu licencji za 4.8$

    - (cyfrowo) stosując kartę graficzną na płycie z wyjściem HDMI LPCM 7.1, np. moja płyta główna M3N-HD/HDMI (Asus), obsługująca również SLI; taka płyta pozwala przesłać do wzmacniacza bezstratnie dźwięk gier zakodowany do 7.1 włącznie

    - (cyfrowo) stosując kartę dźwiękową np. Asus Xonar HDAV 1.3; polecam dla tych, którzy palą w w piecu pieniędzmi

    A PCM'ka 2.0 wylatuje z kompa dlatego, że standard SPDIF był projektowany chyba w mrokach średniowiecza, i jego przepływność na poziomie 1.5 Mbps nie nadaje się do transferu większego niż 2 kanały cyfrowe z kompaktu (44100[ilość sampli/s]*16bitów[rozdzielczość sygnału na CD]*2[bo dwa kanały]) to ok. 1.4Mbps. Takie pasmo starcza również na Dolby Digital 448kbps i DTS 1.5Mbps.


  21. Braavoo,

    jest wiele miejskich legend.

    Są takie o tym, że nie można odpalić gier z PC na TV, są też i takie, które mówią o tym, że nie można wyjść z kompa dźwiękiem LPCM 7.1.

    Teraz jedno ważne rozróżnienie. Samo wyjście HDMI (czy na karcie graficznej, czy też na płycie głównej) nie wystarczy, np. na HDMI na niektórych kartach graficznych dźwięk jest podawany z SPDIF. Taka nieprzyjemna sztuczka dla jeleni.

    Potrzebny jest HDMI z LPCM 7.1. Bodajże od połowy 2008 roku takie karty są na rynku, np. produkcji ASUS, M3N-H/HDMI (bez SLI) oraz M3N-HD/HDMI (z SLI), oba chipsety do procków AMD. Najprawdopodobniej Twoje informacje wynikają z tego, że może być kłopot ze znalezieniem takiej płyty dla Intela, jesli w ogóle takie robią (tego nie wiem, nie sprawdzałem). Ale ja lubię NVIDIĘ i jej SLI, i jakoś mnie nie odrzucało od AMD Phenoma X4. Takie płyty główne nie są również najtańsze. Polecam stronę producenta: http://www.asus.com/product.aspx?P_ID=izFQDwwPZxUK0wcU

    Po uruchomieniu M3N-HD/HDMI pojawia się nam urządzenie dźwiękowe NVIDIA HDMI Output, które jest 7.1. Można w nim ustawiać obsługiwane czestotliwości i kodeki (te, które obsługuje amplituner). Oczywiście, jest do tego odpowiedni sterownik NVIDIA.

    Przy odtwarzaniu filmów i przy grach na moim amplitunerze (Yamaha RX-V1700) widać elegancko LPCM i palą się lampki odnośnie występowania w źródle sygnału dla wszystkich głośników (RX-V1700 to amplituner 7.1).

    Mój amplituner nie ma obsługi DTS HD MA, ani DTS HD HR, ani Dolby True HD. I nie musi mieć. Wszystko odkodowuje procek i wysyła w postaci PCM. A obsługę HDMI 1.1 (w tym LPCM 7.1) to już mają amplitunery od łądnych kilku lat.

    W razie czego, pytaj dalej.


  22. Ja oglądałem wczoraj Bonda z wypożyczalni BHV na Czumy, obraz miał ok. 75 cali (bo z projektora HD Ready). Wolę tak, niż 42 cale Full HD. Każdy, kto raz włączy sobie tak z 70, 80 cali i więcej, i ma możliwość wyboru, już moim zdaniem nie wróci do 42 cali przy filmach widowiskowych. Czekam na obniżkę cen na projektor Full HD Sanyo PLV-Z2000 :(

    BTW: W BHV jest napis na płytce, że film może się niepoprawnie odtwarzać na urządzeniach Samsunga. Niezła wpadka, bo reklamy Samsunga są na wszystkich okładkach w BHV. Ja tam korzystam z PowerDVD 8.0. No i wziąłem 3cią płytkę z trzech. Świetnie, jest popyt, to BHV będzie eksponował więcej płytek. Zarobek też pewnie większy niż na DVD, co dobrze rokuje na przyszłość :) Nie lubię kupować płytek, by je tylko raz lub dwa razy oglądnąć.

    Generalnie, co tu dużo gadać, film był świetny, wciągnął mnie od jakiejś 10 minuty i trzymał. Byłem pozytywnie zaskoczony, bo słyszałem sporo stękania na ten temat, a to stary, dobry Bond. A raczej inaczej - nowoczesny, bez słodko familijnych wstawek, wielkiej rodziny Q, M, i gadżecików. Ja mogę oglądać Bondy w obu konwencjach, byle by mi się w ostatecznym rachunku film podobał. I tak było tym razem. Szpiegowanie jest ekscytującym zajęciem (wrażenia z bycia w centrum najważniejszych wydarzeń, związki damsko-męskie) , ale i wyjątkowo niebezpiecznym. Film o tym przypomina.

    To bodajże drugi film, który oglądam pierwszy raz na Blu Ray. DVD mnie ostatnio zniechęcają - jak puściłem Indiana Jones 4 na Blu Ray kontra DVD na projektorze - masakryczna różnica, jakieś rozmoczone plamy były na DVD, i bez drugiego planu.

    Jeszcze jedno - ostatnio bardzo cenię sobię iluzję filmową i smakuję oferowaną przez film historię. Przez co zaprzestałem kupowania gazet o filmie, bo ZAWSZE coś chlapnięto na temat historii, czego ona będzie dotyczyć, przed jakimi dylematami stanie bohater itp, kto będzie grał, jakie efekty specjalne i tyle. O NIE! Miałem już tego serdecznie dość. Chcę włożyć film do tacki, wcisnąć PLAY i oglądnąć film. Chcę być zaskoczony historią. Dodatki oglądam, o ile nie pokazują z historii z planu. I tak, w spokoju, nie wiedząc o filmie praktycznie nic ważnego, sobie oglądałem.

    Bitrate VC1 robił wrażenie - latał sobie w wysokich okolicach 30+ Mbps (PowerDVD może pokazywać bitrate i kodeki non-stop). Obraz żyletka. Dźwięk musiałem zrobić bardzo cicho, bo akurat młody (lat 0 miesięcy 9) zasypiał, a chciałem film oglądnąć razem z żoną. Co do żalów nad brakiem bezstratnej kompresji dźwięku, uważam takie pojękiwania za bezcelowe. Najważniejsze jest moim zdaniem, czy film zrobił wrażenie. A mam możliwość słuchania DTS HD MA, dzięki wyjściu HDMI 7.1 z płyty głównej.

×
×
  • Dodaj nową pozycję...