H.261 - H.261

H.261
Kodek wideo dla usług audiowizualnych o rozdzielczości px 64 kbit / s
Status Opublikowany
Rok się rozpoczął 1988
Ostatnia wersja (03/93)
Organizacja ITU-T , Hitachi , PictureTel , NTT , BT , Toshiba , etc.
Komisja Grupa badawcza ITU-T 16 VCEG (wtedy: Grupa specjalistów ds. Kodowania w telefonii wizualnej)
Powiązane normy H.262 , H.263 , H.264 , H.265 , H.266 , H.320
Domena kompresja wideo
Stronie internetowej https://www.itu.int/rec/T-REC-H.261

H.261 to standard kompresji wideo ITU-T , po raz pierwszy ratyfikowany w listopadzie 1988 r. Jest to pierwszy członek rodziny standardów kodowania wideo H.26x w domenie ITU-T Study Group 16 Video Coding Experts Group ( VCEG , następnie Specialists Group on Coding for Visual Telephony) i został opracowany z wieloma firmami, w tym Hitachi , PictureTel , NTT , BT i Toshiba . Był to pierwszy standard kodowania wideo, który był przydatny w praktyce.

H.261 został pierwotnie zaprojektowany do transmisji przez łącza ISDN , na których szybkości transmisji danych są wielokrotnościami 64 kbit / s. Algorytm kodowania został zaprojektowany tak, aby mógł działać z przepływnością wideo od 40 kbit / s do 2 Mbit / s. Standard obsługuje dwa rozmiary klatek wideo: CIF (352 × 288 luminancji z chrominancją 176 × 144) i QCIF (176 × 144 z chrominancją 88 × 72) przy użyciu schematu próbkowania 4: 2: 0 . Posiada również sztuczkę wsteczną do wysyłania nieruchomych obrazów o rozdzielczości luminancji 704 × 576 i rozdzielczości chrominancji 352 × 288 (która została dodana w późniejszej wersji w 1993 r.).

Historia

Dyskretnej transformaty cosinus (DCT), forma kompresji stratnej , został po raz pierwszy zaproponowany przez Nasir Ahmed w 1972 roku Ahmed opracowanego algorytmu pracy z T. Natarajan i KR Rao w 1973 roku i opublikował je w 1974 roku DCT by później stać się podstawą dla H.261.

Pierwszym cyfrowym standardem kodowania wideo był H.120 , stworzony przez CCITT (obecnie ITU-T) w 1984 roku. H.120 nie nadawał się do użytku w praktyce, ponieważ jego wydajność była zbyt słaba. H.120 był oparty na różnicowej modulacji kodowo -impulsowej (DPCM), która miała nieefektywną kompresję. Pod koniec lat 80. wiele firm zaczęło eksperymentować ze znacznie wydajniejszą kompresją DCT do kodowania wideo, przy czym CCITT otrzymał 14 propozycji formatów kompresji wideo opartych na DCT, w przeciwieństwie do jednej propozycji opartej na kompresji kwantyzacji wektorowej (VQ). . Standard H.261 został następnie opracowany w oparciu o kompresję DCT.

H.261 został opracowany przez CCITT Study Group XV Specialists Group on Coding for Visual Telephony (która później stała się częścią ITU-T SG16), pod przewodnictwem Sakae Okubo z NTT . W jego rozwój zaangażowanych było wiele firm, w tym między innymi Hitachi , PictureTel , NTT , BT i Toshiba . Od czasu H.261 kompresja DCT została przyjęta przez wszystkie główne standardy kodowania wideo, które nastąpiły później.

Podczas gdy H.261 był poprzedzony w 1984 r. Przez H.120 (który również przeszedł rewizję w 1988 r. O pewnym znaczeniu historycznym) jako standard cyfrowego kodowania wideo, H.261 był pierwszym naprawdę praktycznym standardem cyfrowego kodowania wideo (pod względem wsparcia produktu w znacznych ilościach). W rzeczywistości wszystkie kolejne międzynarodowe standardy kodowania wideo ( MPEG-1 część 2 , H.262 / MPEG-2 część 2 , H.263 , MPEG-4 część 2 , H.264 / MPEG-4 część 10 i HEVC ) mają została ściśle oparta na konstrukcji H.261. Ponadto metody stosowane przez komitet ds. Rozwoju H.261 do wspólnego opracowywania normy pozostały podstawowym procesem operacyjnym dla późniejszych prac normalizacyjnych w tej dziedzinie.

Chociaż H.261 został po raz pierwszy zatwierdzony jako standard w 1988 r., W pierwszej wersji brakowało niektórych istotnych elementów niezbędnych do uczynienia z niej pełnej specyfikacji interoperacyjności . Poszczególne jego części zostały oznaczone jako „Badane”. Został później poprawiony w 1990 roku w celu dodania pozostałych niezbędnych aspektów, a następnie został ponownie poprawiony w 1993 roku. Wersja z 1993 roku dodała załącznik D zatytułowany „Transmisja obrazu nieruchomego ”, który zapewniał kompatybilny wstecz sposób wysyłania nieruchomych obrazów o rozdzielczości 704 × 576 rozdzielczość luminancji i rozdzielczość chrominancji 352 × 288 dzięki zastosowaniu naprzemiennego próbkowania podrzędnego 2: 1 w poziomie i w pionie w celu rozdzielenia obrazu na cztery obrazy podrzędne, które zostały wysłane sekwencyjnie.

Konstrukcja H.261

Podstawową jednostką przetwarzania projektu jest makroblok , a H.261 był pierwszym standardem, w którym pojawiła się koncepcja makrobloku. Każdy makroblok składa się z tablicy próbek luminancji 16 × 16 i dwóch odpowiadających macierzy próbek barwy 8 × 8 , przy użyciu próbkowania 4: 2: 0 i przestrzeni kolorów YCbCr . Algorytm kodowania wykorzystuje hybrydę predykcji międzyobrazowej z kompensacją ruchu i kodowania transformacji przestrzennej z kwantyzacją skalarną , skanowaniem zygzakowatym i kodowaniem entropijnym .

Przewidywanie międzyobrazowe zmniejsza czasową nadmiarowość, a wektory ruchu są używane do kompensacji ruchu. Podczas gdy w H.261 obsługiwane są tylko wektory ruchu o wartościach całkowitych, do sygnału predykcji można zastosować filtr rozmycia - częściowo łagodząc brak precyzji wektora ruchu próbki ułamkowej. Kodowanie transformacji przy użyciu dyskretnej transformaty kosinusowej (DCT) 8 × 8 zmniejsza nadmiarowość przestrzenną. Szeroko stosowany w tym względzie DCT został wprowadzony przez N. Ahmeda , T. Natarajana i KR Rao w 1974 r. Następnie stosuje się kwantyzację skalarną w celu zaokrąglenia współczynników transformacji do odpowiedniej precyzji określonej przez parametr kontroli wielkości kroku, a skwantyzowana współczynniki przekształcają się zygzakowata zeskanowany i entropia kodowane (za pomocą „ run -level” kod o zmiennej długości ), aby usunąć redundancji statystycznej.

W rzeczywistości standard H.261 określa tylko sposób dekodowania wideo. Projektantom enkoderów pozostawiono swobodę projektowania własnych algorytmów kodowania (takich jak własne algorytmy szacowania ruchu ), o ile ich dane wyjściowe były odpowiednio ograniczone, aby umożliwić dekodowanie przez dowolny dekoder wykonany zgodnie ze standardem. Kodery mogą również wykonywać dowolne przetwarzanie wstępne swojego wejściowego wideo, a dekodery mogą wykonywać dowolne przetwarzanie końcowe, które chcą, aby ich zdekodowane wideo przed wyświetleniem. Jedną ze skutecznych technik przetwarzania końcowego, która stała się kluczowym elementem najlepszych systemów opartych na H.261, jest filtrowanie odblokowujące . Zmniejsza to pojawianie się artefaktów w kształcie bloków spowodowanych przez blokową kompensację ruchu i transformację przestrzenną części projektu. Rzeczywiście, artefakty blokowania są prawdopodobnie zjawiskiem znanym prawie każdemu, kto oglądał cyfrowe wideo. Filtrowanie odblokowujące stało się od tego czasu integralną częścią nowszych standardów H.264 i HEVC (chociaż nawet w przypadku korzystania z tych nowszych standardów dodatkowe przetwarzanie końcowe jest nadal dozwolone i może poprawić jakość wizualną, jeśli zostanie wykonane dobrze).

Udoskonalenia projektu wprowadzone w późniejszych pracach normalizacyjnych zaowocowały znaczną poprawą zdolności kompresji w porównaniu z projektem H.261. Spowodowało to, że H.261 stał się zasadniczo przestarzały, chociaż nadal jest używany jako tryb kompatybilności wstecznej w niektórych systemach wideokonferencyjnych (takich jak H.323 ) i niektórych typach wideo internetowego. Jednak H.261 pozostaje ważnym historycznym kamieniem milowym w dziedzinie rozwoju kodowania wideo.

Wdrożenia oprogramowania

LGPL -licensed libavcodec zawiera koder i dekoder H.261. Jest obsługiwany przez darmowy odtwarzacz multimedialny VLC i odtwarzacze multimedialne MPlayera , a także w projektach dekoderów ffdshow i FFmpeg .

Posiadacze patentów

Następujące firmy wniosły patenty na rozwój formatu H.261:

Zobacz też

Bibliografia

Linki zewnętrzne