Wideo

Wideo łączy wszystkie techniki pozwalające konstytucję danego sygnału elektrycznego reprezentującego ruchomych obrazów i zwrotu tych.

Słowo „wideo” pochodzi od łacińskiego „  wideo  ”, co oznacza: „widzę”. To apokopia wideofonu lub wideogramu. Wideo rzeczownik zgadza się z numerem, jednak przymiotnik zawsze pozostaje niezmienny . Zgodnie z francuskimi poprawkami pisowni w 1990 r. przymiotnik stosuje teraz ogólną zasadę: liczba przymiotników jest zgodna.

Teoria

Łów

Skanowanie z przeplotem

Obraz telewizora to ciąg skanów liniowych, zaczynając od góry, a kończąc na dole ekranu. Na początku telewizji jakość luminoforów w lampie była słaba. W rezultacie, gdy wiązka przesunęła się po dole ekranu, góra już zniknęła, powodując zjawisko migotania, silnie odczuwane przez ludzkie oko dla częstotliwości 25  Hz lub 30  Hz . Najprostszym rozwiązaniem byłoby przyspieszenie szybkości skanowania, ale wymagało to również zwiększenia szybkości obrazów, co było kosztowne pod względem przepustowości . Bardziej sprytnym rozwiązaniem było pominięcie co drugiej linii w każdym obrazie, dzięki czemu możliwe było podwojenie szybkości skanowania przy zachowaniu tej samej przepustowości. Tak więc pierwszy przebieg wyświetla wszystkie nieparzyste linie w połowie czasu całego obrazu, a drugi przebieg wyświetla brakujące linie parzyste: nazywa się to przeplotem. Otrzymujesz taką samą liczbę linii skanowania dla obrazu i dwukrotnie skanujesz ekran, aby wyświetlić pojedynczy obraz. Termin „ pole  ” oznacza  przepustkę skanowania. Obraz składa się zatem z dwóch ramek, ponieważ do zdefiniowania obrazu wymagane są dwa skany („  ramka  ” w języku angielskim).

Te aparaty , które funkcjonują jako „odwrócony telewizji”, przyjęte również to przeplatające skanowania. W pierwszej połowie czasie obrazem, 1 re  strzelanie definiuje wszystkie nieparzyste linie obrazu i pół później, drugi strzelanie określa nawet wiersze. Należy tu rozumieć, że oba ujęcia są odległe w czasie (o pół obrazu). I nawet jeśli te dwa ujęcia uzupełniają się z przestrzennego punktu widzenia (dwa skany uzupełniają się w kadrze), te dwa ujęcia nie wyświetlają tej samej treści! Jeśli obiekt porusza się w polu, będzie miał inną pozycję na każdej z dwóch ramek: wtedy na każdej „ ramce  ” występuje efekt zygzakowaty  .

Problem ten częściowo rozwiązuje urządzenie z dwójłomnych płyt krystalicznych, które „rozprowadzają” szczegóły poprzez podwojenie promieni świetlnych. Powoduje to utratę rozdzielczości, co daje systemom PAL i SECAM rozdzielczość pionową pomnożoną przez 0,7 ( współczynnik Kella ), a tak naprawdę jest to tylko około 400 linii.

Skanowanie progresywne

Kiedy wyświetlacz nie jest już z przeplotem, nazywa się to skanowaniem progresywnym . Jest to tryb przechwytywania wybrany dla filmów kręconych na telewizorze HD lub w kinie cyfrowym, które mają być przesyłane i wyświetlane w formacie 35 mm .

25 obrazów progresywnych ( 25p ) daje wtedy aparatom czas naświetlania 1/25 sekundy, który jest zbyt długi pod względem rozdzielczości czasowej. Preferowane jest wówczas ograniczenie czasu integracji klatek do 1/50 s ( migawka elektroniczna).

Standardy dyfuzji kolorów

Standardy PAL lub SECAM nie mają związku ze skanowaniem obrazu, standardy te pozwalają jedynie na dodawanie koloru do obrazów czarno-białych, a mianowicie:

W początkach telewizji tylko luminancja określała obraz liczbą punktów poziomych, a także trzema współczynnikami skali szarości.

Kiedy pojawiła się telewizja kolorowa, telewizory czarno-białe musiały być w stanie odtworzyć obraz tak samo, sygnał luminancji został zachowany i dodano sygnał, że telewizor czarno-biały nie mógł odróżnić, a zatem nie mógł wyświetlić, nawet jako fałszywy sygnał jest to kompatybilność wsteczna lub kompatybilność wsteczna.

Dlatego dodaliśmy dwie różnice kolorów R'-Y i B'-Y ("oznacza, że ​​sygnały zostały poddane korekcji specyficznej dla krzywej gamma, aby przezwyciężyć w tym czasie problem nieliniowości restytucji katody -lampy promieniowe) dzięki czemu łącząc wszystko z luminancją, możemy wydobyć zieleń.

To dla koloru; teraz trzeba było móc przenosić te dwie różnice i tu zadeklarowano konflikt standardów, nie wszystkie kraje przyjęły ten sam sposób przesyłania sygnałów chrominancji.

A reszta świata, linia PAL Phase Alteration (rozróżnienie dwóch różnic wysyłanych w tym samym czasie iz różnymi fazami).

Sygnał chrominancji jest wtedy podnośną luminancji...

Liczba linii, szybkość skanowania, rodzaj dodatniego lub ujemnego sygnału podczas transmisji są częścią standardów w zależności od kraju i nie mają nic wspólnego ze standardami nadawania w kolorze (PAL, SECAM, MESECAM i NTSC).

Ze względu na przechwytywanie w dwóch klatkach po 1/50 sekundy każda, jest to czas ekspozycji w filmie ( 25i ).

Czujniki fotograficzne

Pierwsze kamery , działające na tej samej zasadzie co telewizory, analizowały obraz tworzony przez obiektyw za pomocą kineskopu . Od końca lat 80. wyposażane są w matrycę fotograficzną typu CCD lub CMOS.

Definicja obrazu i częstotliwość skanowania

Istnieją różne formaty obrazu wideo, które zasadniczo zależą od pionowej częstotliwości skanowania obrazu.

Widać, że istnieje różnica między liczbą wierszy tworzących obraz a liczbą wyświetlanych wierszy. Stanowi to różnicę 49 linii przy 50  Hz i 45 linii przy 60  Hz . Te utracone linie są niezbędne, reprezentują czas niezbędny do tego, aby wiązka elektronów omiatająca lampę katodową mogła wznieść się od dołu obrazu do góry. Ten problem techniczny nie występuje w przypadku paneli LCD i paneli plazmowych , ale jest zachowany w celu zapewnienia zgodności. Częściowo wykorzystywane są linie bezpłatne: umieszczane są tam sygnały teletekstu , napisy, a także kod czasowy profesjonalnego sprzętu wideo.

Musimy rozróżnić dwie częstotliwości skanowania obrazu:

Co daje następujące wartości:

Ten wynik nie jest przypadkowy. Jeśli częstotliwości poziome są prawie takie same przy 50  Hz i 60  Hz , to dlatego, że pozwala to na użycie tych samych obwodów skanowania poziomego, co pozwala zaoszczędzić pieniądze.

Kolor

Przez kilkadziesiąt lat specjaliści znali spektralne osobliwości oka ludzkiego, które wykazywało bardzo wyraźną preferencję dla niektórych kolorów. Ponadto wiedzieli, że spektrum kolorów oka można podzielić na trzy podstawowe kolory , które mieszając mogą odtworzyć prawie każdy inny kolor w spektrum. Kino kolorowe wykorzystuje to, używając emulsji z wieloma warstwami, z których każda jest wrażliwa na kolor podstawowy.

W ekranach emitujących światło inżynierowie zastosowali syntezę addytywną złożoną z czerwonego, zielonego i niebieskiego (odwrotnie papier pochłania światło i wykorzystuje syntezę subtraktywną złożoną z cyjanu, magenta i żółtego) Czerwony, zielony i niebieski to podstawowe kolory tej syntezy addytywnej. Podobnie cyjan, magenta i żółty są podstawowymi kolorami syntezy subtraktywnej.

Kolorowy obraz wykonywany jest za pomocą pryzmatu optycznego, który rozprowadza światło na trzy czujniki, przed którymi znajduje się odpowiednio czerwony, zielony i niebieski filtr. W ten sposób każdy czujnik rejestruje tylko informacje o świetle o jednym kolorze. Następnie wystarczy nagrać, a następnie odtworzyć 3 komponenty RGB na kolorowym monitorze akceptującym trzy wejścia RGB: zamiast jednego są trzy sygnały. Konieczne jest nie tylko potrojenie wszystkich połączeń kablowych między różnymi urządzeniami, ale także potrojenie ścieżek nagrywania na magnetowidzie, potrojenie wszystkich urządzeń produkcyjnych, aż do urządzeń do nadawania naziemnego. Wyzwaniem było zatem stworzenie pojedynczego sygnału obejmującego trzy różne informacje, który nie powinien się mieszać przed przetworzeniem przez stację odbiorczą.

Wyzwaniem było również zachowanie pełnej kompatybilności z wciąż obecnymi w domach zestawami czarno-białymi . Dlatego naukowcy pracowali nad stworzeniem sygnału wideo obejmującego czerwony, zielony, niebieski, a także czarny i biały w tej samej „rurze”, bez ich mieszania.

Zabronione było posiadanie kamery czarno-białej ORAZ kamery kolorowej. Dlatego konieczne było wyprodukowanie czerni i bieli z trzech komponentów RGB. Na podstawie wrażliwości oka na różne kolory specjaliści przyjęli 59% zieleni, 30% czerwieni i 11% niebieskiego. Właśnie wymyślili nowy termin: luminancja (Y). Telewizory czarno-białe mogły zatem oglądać obraz z kolorowej kamery w czerni i bieli. Jak teraz dodać do tego Y informację o kolorze pozwalającą na znalezienie naszego oryginalnego RGB? Ponieważ było już światło (Y), należało „zabarwić” tę czerń i biel informacją o kolorze, która nie zawierała wartości światła, a jedynie wskazania barwy i nasycenia .

Kiedy zgodziliśmy się na tę kolorową czerń i biel, musieliśmy znaleźć sztuczkę, która pozwoliłaby na przepuszczanie światła (Y) i chrominancji (C). Narodziły się procesy elektroniczne o bardzo długich nazwach. Istnieje na przykład „modulacja amplitudy w kwadraturze fazowej z wytłumioną podnośną”. Rozwiązania te musiały zarówno miksować dwa sygnały, aby móc je odróżnić przy odbiorze, ale także nie mieć widocznych zakłóceń w widmie sygnału czarno-białego.

Te rozwiązania zostały znalezione i zastosowane. W ten sposób narodził się NTSC w Stanach Zjednoczonych, SECAM we Francji i PAL w Niemczech. Do kodowania przekształca sygnał RGB w kolorze czarnym i białym kompatybilne. NTSC, SECAM i PAL to trzy różne typy kodowania, które są ze sobą niezgodne. Przełączanie z jednego typu kodowania na inny nazywa się „  transkodowaniem  ”.

Żadne z tych trzech rozwiązań nie jest jednak przejrzyste, dalekie od tego. W transkodowanym sygnale występują mniej lub bardziej widoczne artefakty, w zależności od kodowania.

Zakodowany w ten sposób sygnał wideo nazywany jest sygnałem złożonym, ponieważ zawiera kilka źródeł różnych typów. Standardy wideo wykorzystujące kompozyty obejmują zakres od U-matic / U-matic SP do VHS przez 8 mm lub Video 8 , Betamax , VCR lub nawet V2000 . W związku z degradacją powodowaną przez kodowanie, stało się pilne, aby rozgrzeszyć go w produkcji.

Na początku lat 80. firma Sony opracowała oddzielny komponentowy format wideo , składający się z kilku oddzielnych sygnałów przesyłanych osobnymi kablami: Betacam / Betacam SP . Aby zachować zgodność z czernią i bielą, firma ostrożnie unikała RGB i naturalnie wybrała format zawierający Y oraz informacje o chrominancji przekazywane przez 2 sygnały: U i V (zwane również Cr i Cb).

Składniki te są połączone wzorami U = R - Y i V = B - Y, gdzie Y = 0,30R + 0,59V + 0,11B (współczynniki różnią się w zależności od zastosowanego kodowania). Ta transformacja z RGB na YUV nazywa się macierzą. Matrycowanie jest prostszą operacją niż kodowanie, która nie generuje degradacji, a jednocześnie oferuje zaletę kompatybilności Y.

Kilka lat później pojawił się format mainstreamowy: S-Video lub Y/C, gdzie rozdzielono luminancję Y i chrominancję C (kodowane w NTSC, PAL lub SECAM) ( S-VHS , Hi-8 , Super-Betamax ). Ten format jest lepszej jakości niż format kompozytowy, ponieważ chrominancja nie narusza już pasma częstotliwości luminancji, co może prowadzić do kolorowych artefaktów na drobnych szczegółach. Rozdzielczość pozioma tych formatów mogłaby zatem zostać prawie podwojona (400 punktów na linię zamiast 240-250).

Akwizycja wideo

Wstęp

Flaga CCIR 601
Luminancja
Y
Chrominancja
Cr --- Cb
Pasmo 5,75  MHz 2,75  MHz
Częstotliwość próbkowania 13,5  MHz 6,75  MHz
Liczba próbek na linię 864 432 --- 432
Liczba przydatnych próbek na linię 720 360 --- 360
Struktura próbkowania Dwa splecione wątki
8-bitowa kwantyzacja 220 przydatnych poziomów 225 przydatnych poziomów
Kwantyzacja 10-bitowa 880 przydatnych poziomów 900 przydatnych poziomów
Stosunek sygnału do szumu Jakość 8-bitowa: 56  dB

Jakość 10-bitowa: 68  dB

Kodowanie Dwójkowy Przesunięty binarny
Przepływ brutto 8 bitów: 216  Mb/s

10 bitów: 270  Mb/s

Debet netto 8 bitów: 166  Mb/s

10 bitów: 207  Mb/s

Proces akwizycji wideo analogowego i jego konwersji do postaci cyfrowej można porównać do przejścia z języka mówionego na język pisany. Aby zanotować mowę ustną osoby, osoba ta nie powinna mówić zbyt szybko, w przeciwnym razie trudno będzie jednocześnie słuchać i transkrybować. Osoba może spowolnić tempo mowy, ale jeśli przyswoimy sobie te słowa z analogowym sygnałem wideo, łatwo zrozumieć, że tempo nie może być spowolnione. Dlatego kontynuujemy próbkowanie mowy (z kompresją lub bez), to znaczy, że wprowadzamy tylko „kawałki” wiadomości, aby je później przepisać. Dokładność transkrypcji zależy bezpośrednio od liczby pobranych próbek mowy.

W przypadku wideo zjawisko jest identyczne: należy przede wszystkim znać sygnał i wiedzieć, które sygnały należy zdigitalizować.

Historyczny

Historia cyfryzacji w wideo zaczyna się tak naprawdę od 1972 do 1982 roku . Pierwotnie sprzęt do synchronizacji, urządzenia stały się bardziej wyrafinowane przed wejściem do świata profesjonalnego. Od tego czasu producenci zdali sobie sprawę z pojawienia się tego nowego zjawiska i przedstawili standardy w zakresie cyfryzacji. Na rynku zapanowała wówczas pewna cyfrowa anarchia, która zmusiła rękę CCIR (Międzynarodowy Komitet Konsultacyjny ds. Radia) do standaryzacji formatu cyfrowego komponentowego wideo kompatybilnego na całym świecie: tym standardem jest CCIR 601 . Określa parametry kodowania sygnałów do digitalizacji (próbkowanie, kwantyzacja itp.). Od tego czasu innowacje następowały po sobie, aby umożliwić rozpowszechnienie cyfrowego wideo w centrach produkcyjnych, kanałach telewizyjnych i sterowniach postprodukcyjnych w celu wspomagania edycji wideo .

Dlaczego kodowanie komponentów?

Cyfrowy sygnał wideo był niewątpliwie taki sam we wszystkich krajach: chodziło o digitalizację danych wspólnych dla systemów 625-liniowych (PAL, SECAM) i 525-liniowych (NTSC). W związku z tym CCIR zdecydowało o oddzielnej cyfryzacji sygnałów luminancji (Y) i chrominancji (Cr; Cb). System oparty na cyfrowym komponentowym kodowaniu wideo eliminuje wszystkie problemy, jakie mogło wywołać kodowanie kompozytowego sygnału wideo, i zapewnia kompatybilność na całym świecie. System ten powinien zatem jawić się jako główne akcesorium do rozwoju nowego sprzętu, ale także i przede wszystkim do międzynarodowej wymiany danych, stanowiącej podstawę sektora audiowizualnego: komunikacji.

Próbowanie

Próbkowanie sygnału to cięcie na przedziały czasu lub „próbki” tego ostatniego. Bezpośrednio po nim następuje kwantyzacja polegająca na zamianie wartości próbki na wartość liczbową reprezentowaną przez liczbę całkowitą (patrz niżej). Dlatego konieczne jest, aby szybkość przerywania (częstotliwość próbkowania) była wysoka, aby móc transkrybować najkrótsze zmiany sygnału, ponieważ jeśli odstęp czasu między dwiema kolejnymi próbkami jest większy niż czas najszybszej zmiany oryginału sygnał, ten ostatni zostanie utracony i nie będzie uwzględniany w sygnale cyfrowym.

Dlatego, aby próbkować sygnał, zachowując jego informacje, konieczne jest poznanie najwyższej częstotliwości, przy której może się on zmieniać. Nyąuista-Shannona próbek twierdzenie przyjmuje się, że „sygnał, którego widmowa jest ograniczone do częstotliwości Fmax jest całkowicie określona przez kolejność jego próbek pobranych w równych odstępach czasu o wartości ” T „mniej niż 1 / (2 Fmax) .

Dlatego częstotliwość próbkowania musi wynosić ƒ e > 2 Fmax, aby zachować oryginalną reprezentację. Jeśli ten warunek nie jest spełniony, powtarzające się składowe widmowe próbkowanego sygnału nie są wystarczająco rozmieszczone i nakładają się. Strefa aliasingu, zwana również „strefą aliasingu”, powoduje powstanie częstotliwości pasożytniczej, powodując efekt mory na obrazie. Aby rozwiązać ten problem, przed konwersją umieszczony jest filtr dolnoprzepustowy (filtr antyaliasingowy). Filtr strome nachylenie odrzuca częstotliwości z sygnału analogowego wejściowego jest większa niż 1/2 ƒ e .

Sygnał wideo luminancji ma szerokość pasma około 6  MHz . Aby sygnał ten był prawidłowo zdigitalizowany, jego częstotliwość próbkowania musi być zgodna z kryteriami Shanona i Nyquista, a mianowicie:

ƒ e (Y)> 6 x 2 = 12  MHz

Jednak, aby być stosowany globalnie ƒ E (Y) może być wspólna wielokrotność częstotliwości liniowych układów 525 i 625 linii, to jest 15 625 15 734,2  Hz . W związku z CCIR stosunkiem częstotliwości próbkowania: ƒ E (Y) = 13,5  MHz . Częstotliwość ta jest 864 razy większa niż częstotliwość linii 625 systemów liniowych i 858 razy większa niż 525 systemów liniowych (jedna aktywna linia zawierająca 720 próbek).

W przypadku sygnałów chrominancji możliwe jest wykonanie podpróbkowania bez przeszkód wizualnych , ponieważ człowiek jest mniej wrażliwy na zmiany koloru niż na zmiany oświetlenia. Konkretnie, kontur obiektu będzie wydawał się ostry, jeśli luminancja zmienia się szybko, ale nie jest konieczne, aby chrominancja zmieniała się tak szybko. Szerokość pasma dla sygnałów chrominancji wynosi około 3  MHz . CCIR zdecydowało się na ich próbkowanie z częstotliwością dwukrotnie niższą niż luminancja, a mianowicie:

ƒ e (Cr) = ƒ e (Cb) = 6,75  MHz .

Dla tych sygnałów będzie zatem tylko 360 próbek na aktywną linię.

Te określone przez CCIR częstotliwości próbkowania są podobne do liczb 4, 2 i 2 . Dla grupy 8 pikseli (4  piksele/linia i na 2 linie) liczba 4 oznacza liczbę wartości wskazaną na linię dla luminancji (13,5  MHz ), 2 liczbę pikseli posiadających własną wartość chrominancji ( 6 , 75  MHz = 13,5 / 2 ) na liniach parzystych, a ostatnie 2 , tak samo dla linii nieparzystych. Tak więc norma CCIR 601 , zrodzona z tych badań, przyjęła potoczną nazwę normy 4:2:2 .

Okresowość dwóch ramek pozwala na trzy typy struktur próbkowania: ortogonalne, schodkowe rzędowe i schodkowe ramek. To właśnie struktura ortogonalna zwróciła uwagę w standardzie 4:2:2. W tej strukturze faza zegara próbkowania jest identyczna dla każdej linii i każdej ramki. Próbki znajdują się zatem w tych samych miejscach od jednej linii do drugiej i od jednej ramki do drugiej.

Ujęcie ilościowe

Każda próbka jest „ważona”, tak jak żywność, w celu określenia jej wagi. W technologii cyfrowej to ważenie nazywa się kwantyzacją. Dokonuje się tego, używając naszej analogii, używając wagi z dwiema płytkami: na jednej z płytek znajduje się próbka do ważenia, na drugiej odważniki niezbędne do znalezienia równowagi. Dokładność ważenia zależy zatem od wartości najmniejszej dostępnej masy. Na wideo waga próbki jest napięciem sygnału elektrycznego, który ma zostać zdigitalizowany, a waga jest kwantyfikatorem. To urządzenie zamienia napięcia na wartości cyfrowe, które mogą być wykorzystane na przykład przez wirtualną stację edycyjną.

Jednak kwantyzacja nie może idealnie reprezentować napięcia próbki oryginalnego sygnału analogowego. Rzeczywiście, sygnał analogowy (reprezentowany przez liczbę rzeczywistą) może przyjmować nieskończoną liczbę wartości lub zostanie przetworzony na sygnał utworzony przez skończoną liczbę wartości cyfrowych „N”, z których każda jest zakodowana na „n” bitach (czyli jako liczba całkowita z ograniczoną wartością maksymalną). Dlatego po kwantyzacji koniecznie wystąpi błąd zaokrąglenia. Dokładność konwertowanego sygnału będzie zatem powiązana z liczbą wartości dostępnych do przetłumaczenia każdej próbki. Odstęp między dwiema wartościami jest oznaczony jako „q” i nazywany „bez kwantyzacji”. W każdej chwili „t” amplituda sygnału w kroku jest zastępowana wartością najbliższego kroku. Łatwo zrozumieć, że im mniejsze kroki kwantyzacji, tym bardziej znajdują się one w danym zakresie, a zatem tym większa precyzja skwantowanego sygnału (stopa błędu kwantyzacji jest określona przez zależność Terr = 1/2n).

Kwantyzacja sygnału wideo jest jednorodna, liniowa i jest przeprowadzana oddzielnie na Cr i Cb. Początkowo ustalona na 8  bitów , kwantyzacja sygnału wideo w standardzie 4:2:2 została zwiększona do 10 bitów. Rzeczywiście, 8-bitowa kwantyzacja umożliwia posiadanie 256 poziomów cyfrowych (w tym 220 przydatnych do reprezentowania poziomów szarości), co czasami nie wystarcza. Na przykład w przypadku skali szarości od bieli do czerni po zeskanowaniu pojawia się „efekt schodów”. Ponadto stosunek S/N (sygnał do szumu) 8-bitowej kwantyzacji wynosi 56  dB, podczas gdy dzisiejsze kamery osiągają 60  dB . W związku z tym CCIR zdecydował się na kwantyzację sygnału wideo na 10 bitach, co daje 1024 poziomy (w tym 880 użytecznych), tj. 4 razy więcej niż kwantyzacja na 8 bitach, ze stosunkiem S/N wynoszącym 68  dB .

Sygnał luminancji jest zawsze dodatni i nie stwarza problemów z digitalizacją, natomiast sygnały chrominancji są dwubiegunowe. Musieliśmy więc ustawić wartość dla sygnału zerowego: wartości powyżej odpowiadają sygnałowi dodatniemu, a poniżej ujemnemu. Ta „wartość zerowa” została ustawiona przez CCIR na 512 (w połowie między 0 a 1024 ).

Kodowanie kanałów

Po próbkowaniu i kwantyzacji sygnał wideo musi być zakodowany w celu zoptymalizowania jego przechowywania lub transmisji. Istnieją różne formy kodowania i każda z nich ma swoje zalety i wady. Celem manewru jest zatem wybór kodu najbardziej odpowiedniego do zastosowania. W tym celu dostępnych jest kilka kodów:

  • Kod NRZ (Non Return to Zero): dana binarna „1” generuje wysoki poziom sygnału, a dana „0” niski poziom
  • Kod NRZI (Inverted Non Return to Zero): dana binarna „1” generuje przejście w środku okresu półgodzinnego, dane „0” nie działają. Ten rodzaj kodowania jest stosowany w wideo w łączach szeregowych 4:2:2, ponieważ umożliwia przesyłanie jego sygnału zegarowego z sygnałem wideo .
  • Kod Biphase Mark: używany dla sygnału LTC z magnetowidów. „0” powoduje przejście i utrzymanie poziomu przez cały okres zegara, a „1” powoduje przejście i zmianę poziomu w połowie okresu zegara.

Istnieją jeszcze inne kody (takie jak kod Millera lub kwadratowy kod Millera), które są używane tylko w niektórych cyfrowych rejestratorach wideo.

Struktura linii cyfrowej

Linie analogowe systemów liniowych 625 i 525 mają nieco inną długość. Zatem pojemność linii aktywnej musi być wystarczająca, aby pomieścić wystarczającą liczbę próbek, aby pokryć linie obu systemów. CCIR wybrała 720 próbek dla sygnału luminancji i 360 dla sygnałów chrominancji. Jest to wystarczające, ponieważ najdłuższe aktywne linie analogowe to te z systemów z 525 liniami, które wymagają pełnej analizy ponad 710 próbek. Aktywna linia 4:2:2 jest więc kodowana na 1440 słowach ( 720 x 2 ). Sygnały umożliwiające pozycjonowanie cyfrowej linii aktywnej są kodowane odpowiednio na 264 i 24 słowa dla systemów z 625 liniami oraz na 244 i 32 słowa dla systemów z 525 liniami. Krawędź czołowa impulsów synchronizacji linii (SAV) określa nadejście pierwszej próbki i czas odniesienia dla konwersji analogowo-cyfrowej. Krawędź spływu (EAV) określa koniec.

Uwagi dotyczące wykrywania i korygowania błędów

Nośnik zapisu (lub kanał transmisyjny ) może powodować błędy w cyfrowym strumieniu danych. To znaczy, że wartość binarna może zmienić wartość (z „0” staje się „1” i odwrotnie) lub w danym momencie może brakować informacji. Ten błąd może mieć wpływ na widoczny obraz wideo lub inne sygnały wideo, w zależności od bitów, na które ma wpływ. Może więc mieć mniej lub bardziej istotne konsekwencje, stąd przydatność ich wykrywania i korygowania.

Trudność z systemami korekcji błędów polega na tym, że przede wszystkim konieczne jest wykrycie błędu, zanim będzie można go naprawić. W tym celu podczas kodowania do danych użytkowych dodawane są nadmiarowe dane, zgodnie ze zdefiniowanym prawem znanym koderowi i dekoderowi. Za każdym razem, gdy prawo to nie jest weryfikowane podczas dekodowania, uruchamiany jest proces korekcji. Jeżeli brak informacji jest taki, że nawet nadmiarowe dane nie są wystarczające do znalezienia sygnału pierwotnego, przeprowadzane są procesy kompensacji, polegające na obliczeniu wartości średniej pomiędzy zbliżonymi próbkami. Skorygowany sygnał może być wreszcie wykorzystany przez różne urządzenia cyfrowe.

Współczynnik proporcji

Historycznie telewizja rozwijała się na ekranach w formacie 4/3 ( czyli w proporcji 1,33 ⁄ 1 ). Ten format został wybrany, ponieważ był używany przez kino podczas rozwoju telewizji w latach 40. XX wieku . Od tego czasu kino ewoluowało, a procesy takie jak cinemascope i inne panawizja oparte na wykorzystaniu obiektywu anamorficznego , obecne formaty w kinie to 1,85 ⁄ 1 i 2,35 ⁄ 1 . Kiedy podjęto decyzję o przełączeniu telewizora na format panoramiczny, wybrano format 16:9 . Odpowiada to współczynnikowi obrazu 1,77 ⁄ 1 , dość bliskiemu 1,85 i pozostaje dobrym kompromisem między 1,33 (czarne paski po lewej i prawej stronie) a 2,35 (czarne paski na górze i na dole. nisko). Puryści trzymają czarne pasy, aby zobaczyć cały obraz, podczas gdy ci, którzy wolą cieszyć się pełnym ekranem, używają zoomu telewizyjnego, ale przez to tracą niektóre krawędzie obrazu.

Formaty i standardy wideo

Analog

Cyfrowy

Standardy nagrywania wideo

Wideo i IT

Wyświetlacze komputerowe mają określone rozdzielczości i równie specyficzne tryby skanowania. Mikrokomputery 8-bitowe oraz pierwsze 16 i 32 bity były przeznaczone do podłączenia do telewizora, ich wyjście wideo było więc w 740/50 lub 525/60. Standardy używane na PC są różne:

  • CGA 320 × 200 × 4c lub 640 × 200 × 2c przy 60  Hz
  • Herkules 720x348 (czarno-biały) przy 72  Hz (?)
  • EGA 640 × 350 × 16c przy  60 Hz
  • 640 × 480 × 16c VGA przy  60 Hz

Inne tryby wyświetlania nie są tak naprawdę ustandaryzowane. Standardowe formaty obrazu są dostępne w zmiennej liczbie kolorów (od 16 do 4 294 967 296 i więcej):

  • 640 × 480
  • 800 × 600
  • 1024 × 768
  • 1 152 × 864
  • 1280 × 960
  • 1280 × 1024
  • 1600 × 900
  • 1600 × 1200
  • 1920 × 1080
  • 2048 × 1536
  • 2560 × 2048

Częstotliwość skanowania wynosi od 50  Hz do ponad 120  Hz . Wszystkie te wyświetlacze są skanowane progresywnie, chociaż przy wyższych rozdzielczościach można znaleźć tryby z przeplotem.

To ze względu na różne częstotliwości skanowania nie można podłączyć komputera bezpośrednio do telewizora, może to nawet zniszczyć telewizor. Dodatkowo do nagrania wideo obrazu komputerowego niezbędny jest koder kolorów (PAL, SECAM lub NTSC). Dlatego niektóre komputery są wyposażone w wyjście wideo niezależne od wyjścia przeznaczonego dla monitora.

Oprogramowanie do edycji

Uwagi i referencje

Załączniki

Bibliografia

  • Jean-Charles Fouché , Rozumienie cyfrowego wideo: analogowe wideo, cyfrowe wideo, wysoka rozdzielczość, kino cyfrowe, Internet i sieci , Nicea, Baie des Anges,2007, 244  s. ( ISBN  978-2-9524397-6-3 ).
  • Philippe Bellaïche , Tajemnice obrazu wideo: kolorymetria, oświetlenie, optyka, kamera, sygnał wideo, kompresja cyfrowa, formaty zapisu, formaty obrazu , Paryż, Eyrolles ,2015, 10 th  ed. , 682  s. ( ISBN  978-2-212-14212-9 ).
  • Françoise Parfait , Wideo, sztuka współczesna , Paryż, Éditions du Regard,2001, 366  s. ( ISBN  978-2-84105-133-5 ).
  • Marc Marcillac , Kino DV: jak zrobić kino , Lyon, Aléas,2004, 108  pkt. ( ISBN  978-2-84301-103-0 )
  • François Luxereau , Wideo, zasady i techniki , Paryż, Dujarric,2005, 175  pkt. ( ISBN  978-2-85947-050-0 i 978-8-594-70506-8 )
  • François Luxereau , Wideo: epoka cyfrowa , Paryż, Dujarric,1998, 157  s. ( ISBN  978-2-85947-024-1 )
  • Olivier Cotte , Wideo od A do Z: Twórz swoje filmy jak profesjonalista! , Ecuelles, KnowWare EURL, kol.  „Kompetencji mikrofonu” ( N O  58)2007, 95  s. ( ISBN  978-2-915605-92-1 ) i * strona play.no już wkrótce 31 maja 2017 r. telewizja Norwegia

Powiązane artykuły

Urządzenia Kolory komputerowe <img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">