Forum > Tematy dowolne > HEVC aka H.265 zatwierdzony.

Strona 1 z 2 12>>>
skocz

djluke

  • djluke
  • wiadomość Moderator
  • Znawca sprzętu komputerowegoMiły gość

  • 38054 wypowiedzi

Wysłane 2013-02-09 22:45 , Edytowane 2013-02-09 22:46

Nowy standard kompresji wideo, stworzony w oparciu o wielokrotnie nagradzany ITU-T H.264 / MPEG-4 AVC, został zatwierdzony przez członków Międzynarodowego Związku Telekomunikacyjnego (ITU). Standard, znany nieoficjalnie jako High Efficiency Video Coding (HEVC), będzie potrzebował jedynie połowy przepływności swojego poprzednika, ITU-T H.264 / MPEG-4 Part 10 Advanced Video Coding (AVC), który obecnie jest używany w ponad 80 proc. wszystkich treści wideo w Internecie.

Więcej: [LINK]

Asus TUF Gaming X570 Plus, Ryzen 5800X, BeQuiet Dark Rock 4 Pro, 32GB Kingston Fury 3600MHz CL16, PowerColor RX 6700 XT Red Devil 12GB, SSD Samsung 980 Pro 1TB, WD WD80EZAZ, Seasonic Focus Plus Gold 650W, Fractal Design Define R6 USB-C, Razer BlackWidow Ultimate, Logitech MX Master 3; Windows 11 Insider; Samsung C32HG70; HP Color Laserjet Pro M281fdn.

NetCop

  • NetCop
  • wiadomość Moderator

  • 14951 wypowiedzi

Wysłane 2013-02-09 22:50

No to od zatwierdzenia do wdrożenia ze 2 lata jeszcze.

ten, który pcha ten wózek ...

pi_nio

  • pi_nio
  • wiadomość Użytkownik
  • Miły gość

  • 17636 wypowiedzi

Wysłane 2013-02-10 01:25

@djluke ...a niedawno śmiałeś się ze mnie w innym wątku pisząc, że i tak najważniejszy jest bitrate \"\obcy\"

(.)

djluke

  • djluke
  • wiadomość Moderator
  • Znawca sprzętu komputerowegoMiły gość

  • 38054 wypowiedzi

Wysłane 2013-02-10 01:44

@NetCop
A to wiadomo, ale patrząc na firmy które to przyklepały i które mają już gotowe rozwiązania to za owe 2 lata każdy kalkulator będzie to odtwarzał z pełnym wsparciem sprzętowym.

@pi_nio
Bo to prawda i nadal ją podtrzymuję. Mowa była o teraźniejszej technologii, teraźniejszych nośnikach i o ile dobrze pamiętam przyszłej jakości (4K). Poza tym to że bitrate będzie mógł być niższy nie znaczy że nadal nie będzie kluczowy i poniżej pewnej wartości zejść się (jeszcze) nie da by jakość pozostała na tym samym, bardzo wysokim poziomie.
A jak wymyślą H.266...to wprowadzą 7680*4320@120 i znowu wymagania wzrosną. I tak w kółko.

Asus TUF Gaming X570 Plus, Ryzen 5800X, BeQuiet Dark Rock 4 Pro, 32GB Kingston Fury 3600MHz CL16, PowerColor RX 6700 XT Red Devil 12GB, SSD Samsung 980 Pro 1TB, WD WD80EZAZ, Seasonic Focus Plus Gold 650W, Fractal Design Define R6 USB-C, Razer BlackWidow Ultimate, Logitech MX Master 3; Windows 11 Insider; Samsung C32HG70; HP Color Laserjet Pro M281fdn.

XoR

  • XoR
  • wiadomość Użytkownik

  • 8725 wypowiedzi

Wysłane 2013-02-10 08:28

ani 2 lata ani 2x mniejszy bitrate \"\nonono\"

największy zysk jakościowy będzie przy 4k i zapewne tego typu rozdzielczości przyświecały ludziom tworzącym standard. W zwykłych rozdzielczościach ugruntowana pozycja h.264 jest nie zagrożona przez długi czas i ja daje mu jeszcze kilka ładnych lat dominacji a za 2 lata to może eksperymentalna obsługa w YT się pojawi i będzie domyślnie wyłączona aby ludzi nie denerwować

[13600K@5.4/4.3][MSI Z790][AMD 6900XT][DDR4 32GB][4.5TB dysków NVMe][LG 48GQ900 48" 4K 138Hz OLED][LG 27GP950 27" 4K 160Hz IPS][HP LP2480zx 24" IPS RGB-LED A-TW][Sony GDM-FW900 24" CRT + POLAROID mod][Panasonic 42VT30 42" PDP][Xonar STX + Burson V5/V6C/V6V + Sennheiser HD545 w obudowach HD600][PSU 750W][Windows 11 X64][Playstation 5][LG V20][RaspberryPi 4 4GB]

koradon

Wysłane 2013-02-10 10:44 , Edytowane 2013-02-10 10:46

Popularność i tak zależy od torrentów i rozwiązań dla ich użytkowników. Jeżeli będą konwertery i odtwarzacze dostępne dla użytkowników domowych to zmniejszona objętość filmów bardzo szybko zyska popularność. No i to w sumie tyle ode mnie. \"\cfaniak\"

/edyta/
a jak dołozymy jeszcze do tego użytkowników mobilnych, ło ho ho ho ho! \"\mikolaj\"

MSI GT72 2QE (SSD+HDD, W8.1->W10) + Dell U2412M, Samsung Galaxy Note 4 N910F,

pi_nio

  • pi_nio
  • wiadomość Użytkownik
  • Miły gość

  • 17636 wypowiedzi

Wysłane 2013-02-10 11:55

@djluke kluczowy? to jeden z parametrów. kluczowość jest narzucona tylko przez twój punkt widzenia. \"\cfaniak\" od sposobu kompresji zależy przy jakich jego wartościach ktoś będzie uważał czy jakość jest wystarczająca czy nie więc... \"\crazy\"

@XoR dlaczego nie 2x mniejszy bitrate?

(.)

D@nielo

Wysłane 2013-02-10 12:08

No nie znowu nowy standard.

Jak się upowszechni to wszelkiego rodzaju multimedialne playery i TV z funkcją odtwarzania filmów po USB będzie można wyrzucić do śmieci i kupić wspierające H.265

https://www.youtube.com/user/DefenceJournalist/videos

straszny

Wysłane 2013-02-10 14:33 , Edytowane 2013-02-10 14:41

@D@nielo
no tak niestety... ale czy jakikolwiek standard dał radę jakoś wyjątkowo długo? Tak to jest

W video mamy parę postępujących procesów - mamy UltraHD występujące w dwóch wariantach, popularniejszym 4K i czekającym później na dociągnięcie technologii do niego 8K (odpowiednio są to 4320p dla 8K i 2160p dla 4K). Do tego dochodzi 3D, które w końcu będzie mogło być naprawdę HD.

W stosunku do video 1080i bez kompresji, taki sam nieskompresowany format 4K zabiera 16 razy więcej miejsca. Siłą rzeczy obecne metody są już niewystarczające, nowy standard musiał zaistnieć.

wielkość 4K i nadchodzącego po nim 8K (na rysunku określanego jeszcze jako Super Hi-Vision)

Asus GL752VW (i7-6700HQ 2.6GHz, 32GB RAM, SSD: SanDisk Ultra 960GB, GPU: GTX960M). Apple iPad Pro 12.9 128GB Wifi+LTE. Apple iPhone X 256GB.

D@nielo

Wysłane 2013-02-10 16:15

Z tym Ultra-HD to jest też ciekawa sprawa. Jaki sens ma pakowanie matryc z tak wysoką rozdzielczością do TV o najpopularniejszych przekątnych 32-42 cale. \"\hmmm\"

https://www.youtube.com/user/DefenceJournalist/videos

straszny

Wysłane 2013-02-10 16:25 , Edytowane 2013-02-10 16:28

@D@nielo
para oczu ludzkich ma rozdzielczość ok. 10 000x4 000, z tego środkowe 2000 pokrywa się więc ok 8000x4000 jest, taka rozdzielczość jak HD4K(Ultra HD) dla TV 32-40 cali i HD8K (Super Hi-Vision) dla 50-60 cali daje Ci naturalny obraz takiej ilości pikseli jaką mniej więcej postrzega ludzkie oko (no prawie bo troszkę brakuje przy 4K), co może przełozyć się na niesamowitą naturalność obrazu w TV (tak jakbyś przez okno patrzył).

Jak najbardziej mają sens... tylko aby za matrycami nadążyły satelity, linie przesyłowe, dekodery, playery... bo tak naprawdę do tej pory mimo popularności TV1080p, w telewizji króluje sygnał 1080i/720p.

Asus GL752VW (i7-6700HQ 2.6GHz, 32GB RAM, SSD: SanDisk Ultra 960GB, GPU: GTX960M). Apple iPad Pro 12.9 128GB Wifi+LTE. Apple iPhone X 256GB.

XoR

  • XoR
  • wiadomość Użytkownik

  • 8725 wypowiedzi

Wysłane 2013-02-10 16:52

@D@nielo
przez bardzo długi czas 4K to będzie zabawka dla bogatych i ten standard tak szybko nie zastąpi FullHD w domach

@straszny
do naturalnego obrazu bardziej niż rozdzielczości brakuj: kolorów, prawdziwego 3D i płynności

@pi_nio
bo to papka marketingowa \"\przytul\"

szczególnie nie będzie 2x w porównaniu do popularnego X264 \"\ziew\"


[13600K@5.4/4.3][MSI Z790][AMD 6900XT][DDR4 32GB][4.5TB dysków NVMe][LG 48GQ900 48" 4K 138Hz OLED][LG 27GP950 27" 4K 160Hz IPS][HP LP2480zx 24" IPS RGB-LED A-TW][Sony GDM-FW900 24" CRT + POLAROID mod][Panasonic 42VT30 42" PDP][Xonar STX + Burson V5/V6C/V6V + Sennheiser HD545 w obudowach HD600][PSU 750W][Windows 11 X64][Playstation 5][LG V20][RaspberryPi 4 4GB]

straszny

Wysłane 2013-02-10 18:19 , Edytowane 2013-02-10 18:51

@XoR
kolorów najbardziej, ale to przyjdzie z czasem, najpierw ilość pikseli musi być taka żeby oko ludzkie, nawet podświadomie jak najmniej rozróżniało taki obraz jako sztuczny, złożony ze zbyt małej ilości punktów. Druga sprawa to że ten obraz nie powinien drżeć, zachowywać się w sposób nienaturalny dla oka, i mieć pełną paletę barw ze sporym naddaatkiem na obróbkę dla elektroniki TV. A to z kolei wymagałoby obrazu 48bit dla każdej klatki.

Ideałem dla oka byłby TV otrzymujący obraz 60 fps (a nie 24) i z niego generujący te kilkaset klatek, wszystko w 48bitach i w rozdzielczości 4K a najlepiej 8K.

To wszystko jednak to śpiewka dalekiej przyszłości.... 15 lat? Może byłoby dużo szybciej gdyby nie producenci, którzy na każdy etapie inwestycji musza miec zwrot zysku, więc nie bedą się spieszyć zbytnio.....

Asus GL752VW (i7-6700HQ 2.6GHz, 32GB RAM, SSD: SanDisk Ultra 960GB, GPU: GTX960M). Apple iPad Pro 12.9 128GB Wifi+LTE. Apple iPhone X 256GB.

Krzys81

Wysłane 2013-02-10 19:13 , Edytowane 2013-02-10 19:25

@straszny

Teraz nie będzie można powiedzieć, że takie rozdzielczości (4-8K) psują nam wzrok jak te SD 480p.
Jak tyle czasu jeszcze upłynie to na kilka lat przed 50-tką się dopiero nacieszę takimi filmami.
I znów najlepsze hity filmowe się od nowa obejrzy. Jak widzę jakość HD w TV to widać tą kompresję, a to nie jest to jak film w HD w MKV odtwarzany z HDD.

Pierwsze próbki HD 720/1080p miałem w 2004r, a po roku pierwszy film w MKV w HD. Dla samego HD 720p w porównaniu do DVD (MPEG2 - 720x576) to była duża różnica jakościowa. Jak tylko pierwszy film zobaczyłem to szybko zakończyłem zakup filmów DVD (2005-2007r.). A pamiętam jeszcze ledwo epokę czarnobiałego TV z CRT Unitry z lampami elektronowymi. Jak tylko do małego TV 5.5" czarnobiałego podłączyłem tuner DVB-T to jakość cyfrowa była idealna dla niego. Jeszcze pamiętam na nim kablówkę, ale ta jakość nie była taka dobra z uwagi na analogowy sygnał SD.

AMD Phenom II X2 BE 555 (3.2 GHz), 3x Geil DDR3 1333 2 GB, 1x Samsung DDR3 1333 2 GB, MSI MS-7646 (AMD RX780 + AMD K10 IMC), Gigabyte Radeon HD6670 1 GB DDR3, Kingston SSD V300 120 GB, Samsung HDD F4EG HD204UI 2 x 2 TB, Samsung SSD 850 EVO 250 GB, Samsung SSD 850 EVO 2 x 500 GB, WD HDD WD20EURX 2 TB, Akasa PaxPower 400W AK-P400FG BL, Creative GigaWorks ProGamer G500 5.1 + Cam Video IM Skype Edition (VF0220), Samsung LCD 19" SM 940BW, Asus Xonar DX 7.1 PCI-E, TP LINK TL-WN551G 54 M PCI, 3R System R101 - obudowa ATX, Kingston - czytnik kart pamięci, LC-Power LC-CFC-1 - kontroler wentylatorów z 5,25" LCD touch-screen + 2 x LC-ADA-525-4x25-SWAP - kieszeń 5,25" dla 4xSSD 2,5", mysz Gaming, mysz Tracer Gamezone XO, klawiatura Corsair K55 RGB PRO Gaming, Brennenstuhl Primera-Tec Automatic - listwa zasilająca.

djluke

  • djluke
  • wiadomość Moderator
  • Znawca sprzętu komputerowegoMiły gość

  • 38054 wypowiedzi

Wysłane 2013-02-10 19:27

@straszny
Piszesz że oko ludzkie ma rozdzielczość... i oczekujesz takiej od TV - tylko wtedy taki TV musiałby Ci zajmować calutkie pole widzenia każdego oka! A jeśli zajmuje 1/4 pola widzenia (a często ludzie mają dalej TV) to FHD w zupełności wystarcza i odwzorowuje w pełni rozdzielczość oka przecież \"\ziew\"

A żeby kolory były naturalne to jeszcze daleka droga i nie stanie się to ani za czasów LED ani OLED.

Asus TUF Gaming X570 Plus, Ryzen 5800X, BeQuiet Dark Rock 4 Pro, 32GB Kingston Fury 3600MHz CL16, PowerColor RX 6700 XT Red Devil 12GB, SSD Samsung 980 Pro 1TB, WD WD80EZAZ, Seasonic Focus Plus Gold 650W, Fractal Design Define R6 USB-C, Razer BlackWidow Ultimate, Logitech MX Master 3; Windows 11 Insider; Samsung C32HG70; HP Color Laserjet Pro M281fdn.

Yesusik

Wysłane 2013-02-10 20:11 , Edytowane 2013-02-10 20:14

Czytałem o nim już dwa latka temu... mam nadzieję, że szybko pojawią się materiały w nim zakodowane - szybciej niż kolejne 2 latka, ofkorz!
\"\hura\" \"\diabel\" \"\lol\" \"\spoko\"


@djluke
Oczywiście, że odległość ma tu ogromne znaczenie... ale analogicznie, po co zmienialiśmy "dobry" PAL - przecież można go oglądać z kilkunastu metrów z maksymalną dla oka szczegółowością ;)
\"\crazy\"

よろしく

straszny

Wysłane 2013-02-10 20:11

@djluke
bo po pierwsze rozdzielczości musi być pewien naddatek po drugie oko nie ma równego odbioru pikseli, te po bokach sa wielokroć większe (trzeba ich dużo mniej)

Asus GL752VW (i7-6700HQ 2.6GHz, 32GB RAM, SSD: SanDisk Ultra 960GB, GPU: GTX960M). Apple iPad Pro 12.9 128GB Wifi+LTE. Apple iPhone X 256GB.

XoR

  • XoR
  • wiadomość Użytkownik

  • 8725 wypowiedzi

Wysłane 2013-02-10 21:01

imho najbardziej rozdzielczości potrzebują monitory komputerowe bo coraz gorzej wyglądają czcionki w przeglądarkach internetowych \"\olaboga\"

[13600K@5.4/4.3][MSI Z790][AMD 6900XT][DDR4 32GB][4.5TB dysków NVMe][LG 48GQ900 48" 4K 138Hz OLED][LG 27GP950 27" 4K 160Hz IPS][HP LP2480zx 24" IPS RGB-LED A-TW][Sony GDM-FW900 24" CRT + POLAROID mod][Panasonic 42VT30 42" PDP][Xonar STX + Burson V5/V6C/V6V + Sennheiser HD545 w obudowach HD600][PSU 750W][Windows 11 X64][Playstation 5][LG V20][RaspberryPi 4 4GB]

rikimaru

Wysłane 2013-02-11 02:34

Na ekranie o przekątnej 65 cali i rozdzielczości 1080p z odległości około 2,5-3 metrów nie jestem w stanie dostrzec struktury obrazu. Nie widzę sensu siadać bliżej/posiadać większego ekranu, bo obecny i tak pokrywa kluczową część mojego pola widzenia. Jaki tu byłby zysk z 4k albo 8k? Dla mnie to bardziej marketing, który ma nam wcisnąć nową partię telewizorów i odtwarzaczy niż realna potrzeba.

1084

  • 1084
  • wiadomość Użytkownik
  • Znawca sprzętu komputerowegoMiły gość

  • 18808 wypowiedzi

Wysłane 2013-02-11 19:08 , Edytowane 2013-02-12 16:25

@djlukeKolory naturalne nigdy nie będą, bo ludzie nie chcą mieć kolorów naturalnych. Z kolorami jest tak samo jak z basami i sopranami w muzyce. \"\crazy\"


Poza tym, wymagało by to idealnej kalibracji zarówno sprzętu zgrywającego, jak i obrabiającego, oraz odczytywania warunków oświetlenia w pomieszczeniu w którym następuje projekcja filmu.
A wszystko to tak naprawdę niema sensu dla standardowego użytkowania, bo barwy rozróżniamy stosunkowo słabo, a na dodatek oko, a raczej umysł ludzki posiada coś co nazywa się akomodacją. Powoduje to, że podświadomie dokonujemy sobie barwy tak, aby wydawało na się, że są naturalne. Przypuszczam, że cecha ta jest skutkiem ewolucji i wynika z tego, że słońce w zależności od pory dnia i roku miało na niebie inną barwę, a dzięki akomodacji łatwiej nam było rozpoznać poprawnie kolory.

Strona 1 z 2 12>>>
skocz

Kto jest online: 0 użytkowników, 361 gości