Vous êtes sur la page 1sur 68

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 1
Informações técnicas – Sinal de vídeo

1080i um dos dois tipos de formatos HD ; o formato 1080i possui resolução vertical de
1080 linhas e seus quadros de imagem são montados através da forma entrelaçada (daí o
"i" após "1080").

23,97 (frames / seg) O frame rate real do sinal de vídeo no padrão NTSC é 29,97qps e
não 30qps, uma redução de 0,1%, correspondentes a, mais precisamente, um fator de
1000/1001. Já os filmes empregam desde o estabelecimento do cinema sonoro a
frequência de 24qps. Várias câmeras de vídeo permitem a gravação em 24qps, para
possibilitar a transferência do conteúdo gravado para película cinematográfica (processo
denominado transfer) com mais facilidade. No entanto as câmeras voltadas para o
segmento semi-profissional com esta característica geram os 24 quadros embutidos
dentro de um sinal padrão NTSC, utilizando a técnica Pull Down. Ou então o Pull
Down pode opcionalmente não ser feito (na opção de gravação direta em cartões de
memória como o cartão P2 por exemplo) mas ainda assim, a captura original das
imagens dentro da câmera antes das transformações internas para gerar os diversos tipos
de saída segue o padrão NTSC em termos de frame rate (mesmo utilizando 60qps no
modo progressive scan, como muitas câmeras HD fazem, o frame rate real é na verdade
59,94qps).

Com isso, os 24 quadros gerados também ficam submetidos à redução de 0,1% no


frame rate, tendo-se assim 24000/1001 = 23,97602397602397602397602397... o que é
representado em alguns sistemas como "23,97", em outros como "23,98", em outros
como "23,976" ou ainda simplesmente "23", querendo dizer a mesma coisa de forma
simplificada. Por outro lado, equipamentos profissionais permitem, como opção, a
gravação de exatos 24qps, utilizando técnicas como por exemplo a gravação em PsF
(Progressive Segmented Frame).

No caso das câmeras que não gravam 24 quadros reais (e sim 23,97 como visto acima),
se o conteúdo de imagem gerado sofrer transfer, após o mesmo, o filme será exibido em
uma cadência ligeiramente mais rápida do que a utilizada na captura.

24p referência ao padrão de sinal de vídeo NTSC utilizado em sua variação progressive
com 24 quadros por segundo. Cada quadro é montado linha a linha em 1/24seg., e essa
cadência (frame rate) é a mesma utilizada no cinema. O objetivo é obter um sinal que
possa com mais facilidade ser transferido para película - devido à coincidência de
frequência de quadros - além de imitar o aspecto de "borrão" existente nas películas
para imagens em movimento. O "24" em "24p" faz referência a 24 quadros progressivos
e o "p" ao referido modo.

25p o mesmo que 30p, porém para o sistema PAL, que utiliza frame rate de 25
quadros/segundo.

29,97 (frames / seg) No início da década de 50, nos EUA, o comitê National Television
System Committee estabeleceu o padrão para TV colorida conhecido como NTSC.
Como já existia uma grande base de aparelhos P&B funcionando, para manter a
compatibilidade com eles o novo sistema deveria ter suas imagens captadas sem
problemas por esses aparelhos também. Desenvolver um sistema completamente novo

www.therebels.com.br Página 2
Informações técnicas – Sinal de vídeo

faria com que todos esses televisores tornassem-se obsoletos da noite para o dia,
exigindo assim sua troca, e a coexistência de 2 sistemas não era algo prático nem viável.

A solução encontrada foi embutir os sinais de cores dentro do sinal já existente P&B, de
modo que televisores antigos simplesmente o ignorassem. Para isso, através da técnica
de multiplexação (que, de maneira simplificada, nesse caso significa ter diferentes tipos
ondas eletromagnéticas (chamadas subportadoras) "montadas" sobre uma mesma onda
principal (chamada portadora) onde varia-se a frequência dessas ondas subportadoras)
foi incluída uma nova onda no sinal, correspondendo a sua parte de cor. Como os
aparelhos antigos não "liam" essa frequência nova, estava revolvido o problema.

Os engenheiros perceberam no entanto que essa nova frequência de onda incluída


causava interferências no sinal de áudio do sistema, que possuía frequência próxima da
frequência do novo sinal de cor. Para minimizar o problema de poder ocorrer essa
interferência, algumas modificações no padrão original tiveram que ser feitas, sempre
de modo a não interferir na recepção dos sinais P&B pelos antigos televisores. E uma
dessas modificações foi reduzir ligeiramente o frame rate do sinal, em uma taxa de 0,1%
(mais precisamente o resultado da divisão de 1000/1001, ou seja,
0,999000999000999000999000999...).

Com isso, ao invés de se ter 30qps, passou a ter-se 30000/1001 = 29,97qps (ou, mais
precisamente, 29,97002997002997002997002997... qps). Esse fato levou a criação de
técnicas como a do drop frame Timecode, para opcionalmente ajustar a contagem de
tempo do vídeo com a do tempo real. Como o vídeo "corre" mais lentamente do que o
tempo real (em uma taxa de 0,1%, como visto acima), ao término de cada minuto
(exceto os terminados em "0") a numeração de contagem dos quadros no Timecode
avança 2 quadros, para compensar essa diferença do frame rate do sistema NTSC com o
tempo real.

2K / 4KCom o desenvolvimento dos sistemas de projeção digital em cinema, utilizando


vários formatos com diferentes resoluções de imagem (resolução de imagens digitais), o
DCI (Digital Cinema Initiative, consórcio formado pelos principais estúdios de cinema
de Hollywood) propôs em 2005, em uma tentativa de padronizar o assunto e garantir um
nível mínimo de qualidade projetiva, três níveis mínimos de resolução para uso nas
salas de cinema digital:

2K = 2048 x 1080 pixels a 24 qps


4K = 4096 x 2160 pixels a 24 qps (a)
2K = 2048 x 1080 pixels a 48 qps (b)

Filmes produzidos por esses estúdios só seriam liberados para projeção digital nas salas
equipadas para garantir as resoluções de imagem acima. O "K" em "2K" e "4K" refere-
se à resolução vertical em quantidade de linhas ( pixels ) dessas imagens: em Física,
K=1.000 unidades e em Informática, K=1024. A indicação "(a)" acima faz a ressalva de
que esta opção propicia qualidade de imagem visualmente idêntica à da opção 2K para
telas de até 12m de largura e é indicada pelo consórcio somente para projeções 3D (nas
quais os expectadores utilizam óculos especiais para visualizar o efeito tridimensional).
Em "(b)" a projeção é mais nítida e estável do que a 2K a 24qps, porém o espaço
consumido para armazenamento dos dados é maior.

www.therebels.com.br Página 3
Informações técnicas – Sinal de vídeo

Cinemas que não possuem projetores digitais dentro dessas especificações optam por
trabalhar digitalmente com filmes provenientes de estúdios paralelos, fora do circuito
Hollywoodiano ou então utilizam seu projetor para a exibição de traillers e comerciais
antes do filme em película.

3:1:1 taxa utilizada no processo de sampling (parte do processo de digitalização) de um


sinal de vídeo do tipo analógico, a partir do color space YUV. Os dois componentes
relacionados à parte de cor do sinal (cromitância, canais "U" e "V") tem resolução 3
vezes menor do que o componente relacionado à parte de brilho da imagem
(luminância, canal "Y").

Isso significa que a cada 3 pixels em uma linha de pixels da imagem, para todos é feita a
amostragem de luminosidade e para somente um é feita a amostragem de cor dos sinais
U / V, como ilustra o desenho abaixo:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os
pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para
todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color
difference U / V, ou seja, a amostragem de cor. Como indicado, ela é efetuada a cada 3
pixels.

O formato HDCAM no padrão NTSC utiliza esta taxa.

30p referência ao padrão de sinal de vídeo NTSC utilizado em sua variação progressive,
onde cada quadro é montado linha a linha em 1/30seg. O "30" em "30p" faz referência a
30 quadros progressivos e o "p" ao referido modo.

4:1:1 taxa utilizada no processo de sampling (parte do processo de digitalização) de um


sinal de vídeo do tipo analógico, a partir do color space YUV. Os dois componentes
relacionados à parte de cor do sinal (cromitância, canais "U" e "V") tem resolução 4
vezes menor do que o componente relacionado à parte de brilho da imagem
(luminância, canal "Y").

Isso significa que a cada 4 pixels em uma linha de pixels da imagem, para todos é feita a
amostragem de luminosidade e para somente um é feita a amostragem de cor dos sinais
U / V, como ilustra o desenho abaixo:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os
pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para
todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color
difference U / V, ou seja, a amostragem de cor. Como indicado, ela é efetuada a cada 4
pixels.

www.therebels.com.br Página 4
Informações técnicas – Sinal de vídeo

Os formatos DV Mini-DV, DVCAM e Digital-8 no padrão NTSC utilizam esta taxa. O


formato DV DVCPRO também utiliza esta taxa, tanto no padrão NTSC como no padrão
PAL.

4:2:0 taxa utilizada no processo de sampling (parte do processo de digitalização) de um


sinal de vídeo do tipo analógico, a partir do color space YUV. A resolução dos dois
componentes relacionados à parte de cor do sinal (cromitância, canais "U" e "V") é
semelhante à utilizada no sistema 4:1:1, ou seja, quatro vezes menor do que a de
luminosidade. No entanto, aqui a amostragem é feita em blocos de 4 pixels distribuídos
em uma área 2x2 (ao invés de 4x1 como no sistema 4:1:1). O desenho abaixo ilustra o
que ocorre: a cada duas linhas, para uma delas é efetuada a amostragem de cor e para a
outra não; para as duas, é efetuada sempre a amostragem de luminosidade:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os
pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para
todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color
difference U / V, ou seja, a amostragem de cor. Como indicado, ela é efetuada uma
linha sim, outra linha não.

Tomando-se os 2 primeiros pixels da linha superior e os dois primeiros da linha inferior,


tem-se um quadrado 2x2. Dentro desse quadrado, como mencionado acima, a
amostragem de cor ocorre somente uma vez. Isso é o mesmo que efetuar uma
amostragem do tipo 4:2:2 para a linha de cima, e uma amostragem hipotética "4:0:0"
para a de baixo. A notação para representar este sistema decorre deste fato: 4:2:0. Não é
uma notação intuitiva, porém o sistema não poderia ser representado nem por "4:0:0"
nem por "4:2:2". O algoritmo de compressão MPEG2 utilizado em DVD-Video
emprega este sistema, assim como o formato HDV e o AVCHD. O formato DV PAL
utiliza uma variação: também classificado como 4:2:0, emprega amostragem de cor em
todas as linhas, mas de maneira alternada: em uma delas é utilizado o componente U, na
outra o componente V, como mostra o desenho abaixo:

4:2:2 taxa utilizada no processo de sampling (parte do processo de digitalização) de um


sinal de vídeo do tipo analógico, a partir do color space YUV. Os dois componentes
relacionados à parte de cor do sinal (cromitância, canais "U" e "V") tem resolução 2
vezes menor do que o componente relacionado à parte de brilho da imagem
(luminância, canal "Y").

www.therebels.com.br Página 5
Informações técnicas – Sinal de vídeo

Isso significa que a cada 4 pixels em uma linha de pixels da imagem, para todos é feita a
amostragem de luminosidade e para dois deles é feita a amostragem de cor dos sinais U
/ V, como ilustra o desenho abaixo:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os
pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para
todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color
difference U / V, ou seja, a amostragem de cor. Como indicado, ela é efetuada a cada 2
pixels.

Os formatos Digital Betacam, DVCPRO50 e Digital-S são exemplos de formatos que


utilizam esta taxa. O algoritmo de compressão MPEG2 também pode opcionalmente
comprimir dados utilizando esta taxa.

4:4:4 representação da digitalização de um sinal de vídeo do tipo analógico a partir do


color space RGB, sem que seus componentes sofram redução em suas resoluções
originais, como ocorre nos processos 4:1:1, 4:2:2 e 4:2:0 .

Isso significa que a cada 4 pixels em uma linha de pixels da imagem, para todos é feita a
amostragem de luminosidade e também para todos é feita a amostragem de cor dos
sinais U / V, como ilustra o desenho abaixo:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os
pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para
todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color
difference U / V, ou seja, a amostragem de cor. Como indicado, ela também é efetuada
para todos os pixels.

50i o mesmo que 60i, porém para o sistema PAL (o frame rate é 50 e não 60).

59,97 (frames / seg) O frame rate real do sinal de vídeo no padrão NTSC é 29,97qps e
não 30qps. Nas câmeras voltadas para o segmento semi-profissional que disponibilizam
sinais HD utilizando frame rate 60p (60 quadros no modo progressive scan), a captura
original das imagens dentro da câmera antes das transformações internas para gerar os
diversos tipos de saída segue o padrão NTSC em termos de frame rate. Assim, como
neste a cadência das imagens é 0,1% menor (mais precisamente o resultado da divisão
de 1000/1001, ou seja, 0,999000999...), a cadência das imagens na captura é
60000/1001, ou seja, 59,9400599... . Já equipamentos profissionais HD permitem
geralmente a opção de se gerar conteúdo a exatos 60p ou então em 59,97p.

60i referência ao padrão de sinal de vídeo NTSC tradicional, onde 60 campos são
capturados / exibidos por segundo (daí o "60" em "60i") e no modo interlaced (daí o "i"
em "60i").

www.therebels.com.br Página 6
Informações técnicas – Sinal de vídeo

720p um dos dois tipos de formatos HD ; o formato 720p possui resolução vertical de
720 linhas e seus quadros de imagem são montados através da forma progressiva (daí o
"p" após "720").

amostragem o mesmo que sampling.

analógico, sinal o sinal de vídeo é gerado a partir da leitura sequencial, da esquerda para
a direita e de cima para baixo, da intensidade da voltagem de cada ponto do chip sensor
( CCD ) onde a imagem é projetada através das lentes da câmera. Quanto maior a
intensidade de luz em determinado ponto, maior a voltagem produzida pelo mesmo, ou
seja, existe uma analogia direta entre o brilho da imagem e a voltagem produzida, por
isso o sinal é dito analógico.

No sinal digital esta analogia também existe, porém não é direta: o sinal é dividido em
trechos com mesmo tamanho e para cada trecho é calculada a média da intensidade da
voltagem, sendo posteriormente o número obtido codificado no formato de número
binário (sistema de numeração que só possui 2 algarismos - o '0' e o '1' ) e assim
gravado por exemplo em uma fita do tipo DV. O sinal analógico por outro lado é
gravado em uma fita do tipo VHS por exemplo, com todas as milhares de variações de
voltagem obtidas.

O processo de gravação / transmissão de sinais elétricos é sempre sujeito a várias


interferências e perdas, que aumentam e se propagam quando o mesmo é copiado de um
meio a outro (degradação da imagem). A grande vantagem que o sinal digital tem sobre
o analógico é o fato destas perdas poderem ser virtualmente eliminadas. Assim por
exemplo, se os '1's e '0's forem representados por voltagem 1V e 0V, é muito fácil um
circuito eletrônico reconstruir um sinal que chegou a seu destino como 1 - 0 - 0,8 - 0,3 -
1 - 1 ao invés de 1 - 0 - 1 - 0 - 1 - 1 (houve danificação e o '1 V' chegou como '0,8 V',
assim como o '0 V' chegou como '0,3 V') pois sabe-se que o sinal só pode ser 0 ou 1 V,
então 0,8 é 'consertado' para 1 e 0,3 para 0 .

No entanto é impossível fazer o mesmo com o sinal analógico, pois os milhares de


valores diferentes de voltagem são gravados diretamente na fita.

O formato digital beneficia-se em qualidade ao digitalizar o sinal assim que o mesmo é


gerado no CCD: deste ponto em diante as perdas serão praticamente nulas.

artefatos de compressão quanto maior a taxa de compressão utilizada para reduzir o


tamanho ocupado por um sinal de vídeo digitalizado, maior a probabilidade de surgirem
'defeitos' na imagem final descomprimida. Isto ocorre porque os processos de
compressão utilizados para comprimir sinais de vídeo geralmente acarretam perdas de
detalhes durante a compressão e não há como reconstruí-los no processo inverso
(descompressão). Estes defeitos são mostrados na imagem na forma de falhas em cores
ou resolução em determinados pontos da imagem.

aspect ratio o mesmo que proporção da imagem.

AVC (Advanced Video Coding ou H.264 ou MPEG4 Part-10) padrão criado em 2003
pelo grupo MPEG em conjunto com o grupo Video Coding Experts do ITU-T
(International Telecommunication Union) para digitalização de imagens de vídeo. O

www.therebels.com.br Página 7
Informações técnicas – Sinal de vídeo

objetivo foi desenvolver um padrão que tivesse a qualidade apresentada pelo MPEG2
ou pelo MPEG4, porém que pudesse opcionalmente fazer isso utilizando taxas menores
de bit rate e sem ser excessivamente complexo, para viabilizar sua implementação em
circuitos não muito dispendiciosos. A flexibilidade de uso do padrão foi bastante
extendida em relação aos originais MPEG2 e MPEG4, permitindo sua utilização tanto
em sistemas de alta resolução (HD) quanto de baixa resolução (SD).

O nome H.264 deriva do grupo Video Coding Experts (que iniciou seu
desenvolvimento) e o nome AVC do grupo MPEG4 (que completou o trabalho). É
comum por este motivo o uso da referência "H.264/AVC". Foi incorporado ao padrão
MPEG4 original como sub-padrão 10, ou "part 10" do MPEG4.

Mais de 20 novas engenhosas técnicas envolvidas nos sofisticados processos internos de


compressão foram utilizadas, permitindo um comportamento melhor do que os demais
padrões em diversas situações. Com menos da metade da taxa de bit rate utilizada no
MPEG2 é possível obter a mesma qualidade de imagem. Da mesma forma que o
MPEG2, o AVC estabelece diversos níveis de profile, para uso desde aplicações móveis
(celulares por exemplo, exigindo menor poder de computação dos circuitos) e
videoconferência, até aplicações que exigem maior poder de processamento, como
exibição de imagens em alta-definição (HD), como em diversos sistemas de HDTV. Um
número muito grande de aplicações adota este padrão, como transmissões diretas de
programação de TV de satélites para residências, transmissões terrestes de TV digital,
aplicações de distribuição de imagem na Internet, etc... . Os discos Blu-ray e HD-DVD
também o empregam para gravação de suas imagens.

B-frame (bi-directionally frame) tipo de quadro utilizado na montagem dos GOPs de


compressões multi-frame como a MPEG2 por exemplo.

banda , largura de banda . As variações de voltagem do sinal de vídeo (analógico, sinal)


são inseridas em ondas de alta frequência, nas vizinhanças de Mhz (megahertz, milhões
de ciclos por segundo). Dentro desta faixa, as variações de frequência representam as
variações na intensidade do sinal, que formam as imagens. Este conjunto, englobando
desde a menor até a maior frequência, pode ser maior ou menor, dependendo da
quantidade de frequências diferentes que conseguir englobar - e assim, da quantidade de
informações que conseguir transmitir e portanto da qualidade final obtida. Assim, se na
faixa de frequências a menor frequência é 3 Mhz e a maior 5 Mhz, dizemos que a
largura de banda (bandwidth) deste sinal é de 2 Mhz.

bandwidth o mesmo que banda, largura de banda.

bit rate nome dado à taxa que mede a quantidade de bits que trafega por segundo em um
sinal digital. Formatos que utilizam fitas trabalham normalmente com valores sempre
constantes de bit rate, como os da família DV por exemplo, com 25Mbps (milhões de
bits por segundo) e o formato DVCPRO50 com 50Mbps. A este modo de gravação dá-
se o nome de CBR (Constant Bit Rate).

Formatos desenvolvidos originalmente para uso em discos ópticos (como DVD-Vídeo


por exemplo) podem ser gravados com diferentes taxas de bit rate, como o formato
MPEG2. É possível, a partir do mesmo original, gravar um DVD com bit-rate maior e
gravar outro DVD com bit-rate menor. Assim, nesses formatos a qualidade da imagem

www.therebels.com.br Página 8
Informações técnicas – Sinal de vídeo

depende do valor de bit-rate utilizado. O bit-rate de 9Mbps é considerado geralmente


como de ótima qualidade para imagens comuns (SD) e o de 19Mbps o equivalente para
imagens de alta definição (HD). A este modo de gravação dá-se o nome de VBR
(Variable Bit Rate).

BNC (British Naval Connector ou Bayonet Neil Concelman ou Bayonet Nut Connector)
Conector para cabos coaxiais (cabos que contém 2 condutores, um central - fio grosso
de cobre - e outro em forma de malha de fios de cobre envolvendo-o, sendo o condutor
central isolado da malha por uma camada de plástico) utilizado em aplicações de rede
de computadores, no transporte de sinais de aparelhos de medição de altas frequências
(osciloscópios por exemplo) e no transporte de sinais de vídeo (imagem) em aplicações
profissionais:

Este tipo de conector possui um engate que prende-o firmemente à fêmea (através de
um pino localizado nesta e encaixe do tipo girar/travar), impossibilitando com isso o
desencaixe acidental - cabo tracionado por exemplo. Inventado pelos americanos Paul
Neil e Carl Concelman, possui várias traduções de sua sigla, como Bayonet Neil
Concelman por exemplo, em alusão ao encaixe do engate (do tipo baioneta) e a seus
criadores. Ou então British Naval Connector, em referência à sua utilização na marinha
inglesa.

campo a imagem de vídeo é formada na tela através de linhas horizontais, desenhadas


da esquerda para a direita e de cima para baixo. Alternadamente são desenhadas linhas
de numeração par e linhas de numeração ímpar. Cada um destes conjuntos completos de
linhas (par / ímpar) denomina-se campo. O tempo que cada campo leva para para ser
desenhado na tela varia com o sistema de televisão utilizado e é igual ao inverso da
frequência da corrente alternada utilizada no país.

Assim, por exemplo, no Brasil, onde a frequência da corrente alternada é 60Hz, cada
campo é desenhado em 1/60 seg. e o sistema utilizado é o PAL-M:

Brasil 60Hz 1/60 seg PAL-M


EUA 60Hz 1/60 seg NTSC
França 50Hz 1/50 seg SECAM
Alemanha 50Hz 1/50 seg PAL-G

chart de resolução figura especial contendo linhas horizontais e verticais divergentes,


contendo numeração ao lado das mesmas indicando quantas linhas existem naquela
posição. Utilizada para avaliação da resolução horizontal / resolução vertical de
determinado equipamento de vídeo. No exemplo a seguir, uma câmera foi apontada para
a figura abaixo, tendo a seguir seus controles (foco, abertura, etc...) sido regulados da
melhor maneira possível. Em seguida sua imagem foi observada em um monitor de alta
resolução - sua resolução deve ser maior do que a da câmera, para permitir a medição. É

www.therebels.com.br Página 9
Informações técnicas – Sinal de vídeo

possível distinguir individualmente as linhas mostradas no terceiro conjunto de linhas


verticais até um pouco abaixo da indicação 500 ; ao lado da indicação 600 as linhas já
não podem mais ser individualmente distinguidas. Assim, pode-se afirmar que a
resolução horizontal da câmera avaliada é de cerca de 550 linhas.

Analogamente, as linhas divergentes horizontais permitem avaliar a resolução vertical


(525 linhas no padrão NTSC).

O desenho original (do qual apenas uma parte é mostrada acima) é denominado
EIA1956, padrão criado pela EIA (Electronic Industries Association - EUA).

A avaliação obtida com o chart é aproximada, pela subjetividade em si (diferentes


observadores podem ter diferentes avaliações) e pela dificuldade em determinar
exatamente o ponto a partir do qual as linhas não podem ser mais distinguidas. Métodos
mais precisos utilizam outros meios, como o emprego do osciloscópio por exemplo.
Existe um número, obtido através de medições práticas, que diz que cada 1 Mhz de
largura de banda pode carregar informações suficientes para produzir cerca de 80 linhas
de resolução horizontal.

Assim, para o exemplo acima, ao ligar-se o sinal de imagem gerado pela câmera em um
osciloscópio, poderia ser lido o valor 7,0 Mhz de largura de banda, que multiplicado por
80 resulta em 560 linhas de resolução horizontal.

A resolução medida tanto pelo método do chart quanto via osciloscópio refere-se à
luminância. A resolução relativa à parte de cor da imagem é sempre bem menor do que
a de brilho (definição de tons claros-escuros), uma vez que o olho humano é menos
sensível a este tipo de informação do que ao outro. Assim, geralmente nas câmeras do
segmento consumidor este tipo de resolução gira em torno de 500 Khz (e não Mhz, ou
seja, metade). Assim, no exemplo a resolução de cor na câmera avaliada seria 280
linhas (560 / 2).

codec (COmpressor / DECompressor) software / hardware que comprime um


determinado sinal de vídeo e também faz o processo inverso, descomprimindo-o.
Dentro de uma câmera de vídeo digital por exemplo, existe um CODEC que efetua a
compressão do sinal analógico lido no(s) CCD(s) para gravá-lo na fita / disco / HD. Por
outro lado, o mesmo CODEC faz a leitura do sinal já gravado na fita para apresentá-lo
no visor LCD ou viewfinder, quando a função PLAY é acionada. Os CODECS estão
presentes também em diversos outros aparelhos e momentos da produção de vídeo.
Assim, programas de edição-não-linear comprimem vídeo utilizando CODECS

www.therebels.com.br Página 10
Informações técnicas – Sinal de vídeo

específicos para cada tipo de formato, ou então players de DVDs reproduzem o sinal
gravado nos discos também utilizando CODECS.

color bars , conjunto de barras coloridas utilizadas como referência no ajuste de


equipamentos de vídeo. Existem modelos diferentes para cada tipo de sinal de vídeo
(abaixo, modelo para o sinal NTSC, denominado SMPTE color bars, porque foi
padronizado pela entidade SMPTE - Society of Motion Picture and Television
Engineers). Permite efetuar ajustes nos controles de cor e outros de monitores, câmeras,
etc... Algumas câmeras podem gerar opcionalmente este sinal (ou parte dele, sem as
camadas inferiores), assim como dispositivos eletrônicos em ilhas de edição.

Da esquerda para a direita, a figura apresenta as seguintes cores nas barras verticais
superiores: cinza (80%), amarelo, ciano, verde, magenta, vermelho e azul. Nos
segmentos intermediários, da esquerda para a direita, azul, preto, magenta, preto, ciano,
preto, cinza (80%). No segmento inferior, à esquerda um quadrado branco ladeado por
quadrados azuis e à direita, várias tonalidades de preto.

As cores vermelho, verde e azul são as cores primárias do sistema RGB e amarelo,
ciano e magenta a combinação de duas das cores primárias - estas, denominadas cores
secundárias. As cores estão arranjadas em ordem decrescente de brilho total, da
esquerda para a direita.

Para efetuar o ajuste, inicialmente o controle de contraste do monitor deve ser


posicionado em seu ponto médio. A seguir, o controle de cor deve ser totalmente
diminuído, de modo a que todo o quadro seja mostrado sem cores, apenas contendo
faixas cinzas. Observar então o canto inferior direito da imagem: entre duas faixas
pretas existem 3 pequenas faixas - no desenho abaixo, indicadas por A, B e C.

www.therebels.com.br Página 11
Informações técnicas – Sinal de vídeo

Ajustar então o controle de brilho de modo que a faixa B fique praticamente invisível -
preta. Neste momento a faixa C à direita deve ficar ligeiramente visível. A faixa B
representa a parte mais escura capaz de ser representada na imagem do vídeo; como a
faixa A é mais escura do que ela, deve ter ficado neste momento totalmente invisível, ou
seja, não deve ser notada nenhuma divisão entre as faixas A e B. A única divisão que
deve ser mostrada é entre as faixas B e C.

A seguir é efetuado o ajuste do nível do branco, o que é feito inicialmente aumentando


totalmente o controle de contraste. Neste momento o quadrado branco, no canto inferior
esquerdo, apresentar-se-á sem definição precisa nas bordas e com excesso de
luminosidade. O controle de contraste deve então ser lentamente reduzido até que o
referido quadrado ganhe definição e perca o excesso de luminosidade.

A seguir efetua-se o ajuste de cor, buscando-se um equilíbrio geral nos tons das cores e
observando-se que a cor com maior tendência à saturação é a vermelha, ao lado da
magenta à sua esquerda.

color depth quando um sinal de vídeo analógico (proveniente de um CCD por exemplo)
é digitalizado, sofre um processo de sampling, através do qual é gerada uma imagem
composta por um determinado número fixo de pixels, de acordo com a quantidade de
linhas e a resolução horizontal do formato empregado (no formato NTSC DV por
exemplo, este número é de 720 pixels de largura por 480 pixels de altura, ou seja
345.600 pixels). Cada um destes pixels possui características individuais de brilho e cor.
O sinal analógico de origem da imagem (video componentes) consegue reproduzir as
cores através da combinação das cores básicas do modelo RGB. Adicionalmente, este
sinal possui a indicação de brilho (luminância). Estas duas informações (brilho e cor)
são então combinadas durante o processo de digitalização, gerando 3 sinais, um para
cada cor RGB. Para um determinado pixel, o sinal Red possuirá um determinado valor
de intensidade luminosa, idem para o Green e idem para o Blue. Assim, cada um desses
sinais indica qual cor e que intensidade (brilho) a mesma deve ter para formar a imagem
do pixel.

O sinal cor+brilho recebe o nome de canal (channel); assim pode-se dizer que a imagem
colorida de cada pixel do vídeo digitalizado é representada através de 3 canais, um para
o vermelho, um para o verde e um para o azul. Existe em computação uma grande
diversidade de tipos de formatos de imagens digitais, onde a quantidade de canais
utilizados varia conforme o formato. O formato grayscale (escala de cinza) utilizando
somente 1 canal com 254 variações de tonalidades de cinza e mais o preto e o branco e
o formato CMYK com 4 canais (ciano, magenta, amarelo e preto) e 256 variações de
tonalidade para cada uma das 4 cores são alguns exemplos. No caso do RGB, a forma
mais utilizada emprega também 256 variações possíveis de tonalidade para cada canal.
O desenho abaixo simula essas 256 tonalidades, mostrando que o número total de cores
obtidas, combinando-se os 3 canais, ultrapassa 16 milhões de cores:

www.therebels.com.br Página 12
Informações técnicas – Sinal de vídeo

Essa quantidade de cores é aproximadamente também o número total de cores


discernidas pelo olho humano, por isso sistemas deste tipo são denominados true color.
Assim, a cor de um determinado pixel poderia ser representada por exemplo por R=41,
G=163 e B=72, que é um dos exemplos na figura abaixo:

Cada canal precisa de 3 dígitos no máximo para ser representado (até "255", mais o "0",
totalizando as 256 variações). Informações digitais são armazenadas na forma de bits
(estados "0" e "1"), que constituem o sistema binário de numeração. O maior número de
tonalidade, "255", necessita de 8 bits para ser representado no sistema binário:

2 = 10 (dois bits)
3 = 11 (dois bits)
4 = 100 (três bits)
5 = 101 (três bits)
...
253 = 11111101 (oito bits)
254 = 11111110 (oito bits)
255 = 11111111 (oito bits)

Como são 3 canais, tem-se um total de 24 bits para representar o aspecto de um


determinado pixel (8+8+8). Aumentando-se a quantidade de bits por pixel é possível
representar mais cores, diminuindo-a, menos cores. A expressão Color Depth é utilizada
para expressar esta variação.

color differencenome dado aos sinais de cor B-Y e R-Y do color space YUV, em alusão
à diferença entre os sinais de cor e luminosidade.

compatibilidade de sinais os sinais PAL, NTSC e SECAM não são compatíveis entre si:
assim por exemplo uma fita gravada no sistema PAL de 50 ciclos com 625 linhas não
apresentará imagem alguma quando reproduzida em um VCR também do sistema PAL,
porém com 60 ciclos e 525 linhas (sistema utilizado no Brasil). No entanto, em algumas
combinações de sistemas é possível obter-se a imagem, porém em preto e branco. O
quadro abaixo mostra as diferentes combinações desses sistemas, indicando onde não é
possível observar nenhuma imagem ( "X" ), onde a imagem aparece em preto e branco (
"P&B" ) e onde a imagem é OK (quando o sistema é o mesmo):

www.therebels.com.br Página 13
Informações técnicas – Sinal de vídeo

componentes , vídeo componentes; neste tipo de sinal as informações da imagem são


separadas em 3 partes: luminância (a parte que controla o brilho - quantidade de
luminosidade - na imagem) , cromitância-1 e cromitância-2 (partes que controlam as
informações de cor na imagem). Esses 3 componentes referem-se ao sistema de
codificação de cor YUV.

Formatos de vídeo profissionais analógicos gravam o sinal componentes YUV


diretamente nas fitas magnéticas, como por exemplo Betacam SP. Formatos digitais o
digitalizam e a seguir o comprimem, como por exemplo DV.

Este tipo de sinal, por manter as informações de cor separadas, possui uma melhor
definição de cores do que a de outros sinais, como o Y/C, o composto e o rf (nessa
ordem, ordenados da maior para a menor qualidade).

Um outro exemplo de utilização é o DVD-Vídeo: material gravado nesses discos


(filmes, shows, etc...) costumam ser codificados em MPEG2 a partir do sinal video
componentes - ao contrário do sinal composto, empregado na gravação de fitas no
formato VHS. É por este motivo que players de DVD mais elaborados podem
apresentar saídas RCA do tipo YPbPr.

composto, sinal ao contrário do Y/C, neste tipo de sinal as informações de cor e


luminosidade são combinadas gerando um único sinal. Posteriormente (no momento da
exibição por exemplo) estes sinais são novamente separados. A transformação acaba
acarretando perda de qualidade devido a interferências e distorções geradas no processo,
onde os sinais recuperados na separação não são exatamente idênticos ao que eram na
fase de codificação em sinal único. Este tipo de sinal é utilizado no formato VHS por
exemplo e na transmissão de TV a cabo.

compressão o sinal de vídeo armazenado na quase totalidade dos formatos digitais sofre
compressão antes de ser armazenado no meio magnético (fita, disco). Neste processo,
partes de informação da imagem são descartadas, de maneira que o resultado final
ocupe menos espaço para ser armazenado. Existem duas formas de se comprimir dados
de imagens digitais, com perda de qualidade (processos conhecidos como 'lossy', onde
há perda de detalhes) e sem perda ('lossless'). A maioria dos processos utilizados em
vídeo é do primeiro tipo, porém com perda mínima observável na qualidade da imagem.

www.therebels.com.br Página 14
Informações técnicas – Sinal de vídeo

Existem diversos algoritmos de compressão, a maioria deles extremamente complexa,


porém executados de forma extremamente rápida por microprocessadores embutidos no
interior das câmeras e outros dispositivos manipuladores de imagem de vídeo. Um
pequeno exemplo conceitual de processo de compressão seria guardar a informação
contida no número abaixo ocupando menos caracteres do que os 30 utilizados:

13487777770000031111111111111111118 (35 caracteres)

algoritmo: indicar entre parênteses a quantidade de algarismos repetidos e o algarismo a


ser repetido a seguir; sequência obtida:

1348(6/7)(5/0)3(18/1)8 (22 caracteres)

a sequencia assim obtida seria gravada no meio magnético; no momento da recuperação


das informações (play) um microprocessador decodificaria a mesma obtendo o sinal
reconstruído:

13487777770000031111111111111111118 (35 caracteres)

o número acima poderia ser o resultado do processo de digitalização de parte de uma


imagem, e a parte repetitiva (série de '1's por exemplo) estar representando um trecho de
céu azul. O exemplo mostra um processo rudimentar de compressão sem perdas, mas
nos algoritmos reais a perda acaba ocorrendo devido à necessidade de altas taxas de
redução do tamanho ocupado pela informação. No exemplo, o algoritmo poderia decidir
que o trecho '000003' poderia ser trocado na imagem por '111111' de maneira
praticamente imperceptível. Assim, a sequência comprimida passaria a ser:

1348(6/7)(24/1)8 (16 caracteres)

ilustrando um processo de compressão com perdas. Os processos de compressão


empregados em vídeo são normalmente do tipo que envolve perdas, porém estas são
geralmente minimizadas intervindo-se em outros fatores do processo, como por
exemplo aumentando-se a qualidade do original capturado.

Quanto maior a taxa de compressão empregada maiores serão estas perdas de qualidade,
gerando artefatos de compressão observáveis na imagem final.

compressão inter-frame o mesmo que compressão multi-frame.

compressão intra-frame tipo de compressão na qual cada quadro do sinal de vídeo


depende somente das informações contidas no mesmo para ser comprimido, ao
contrário da compressão multi-frame. No processo intra-frame cada quadro é
comprimido individualmente; para recuperar a imagem comprimida, é necessário
somente descomprimir este quadro que foi comprimido: todas as informações
necessárias à reconstrução da imagem estarão ali. A técnica empregada para realizar o
processo é relativamente simples, o que varia de formato para formato é somente a taxa
de compressão utilizada. A família de formatos DV e os formatos DVCPRO50,
DVCPRO 100HD e HDCAM são exemplos de formatos que utilizam este tipo de
compressão.

www.therebels.com.br Página 15
Informações técnicas – Sinal de vídeo

Quanto menor a taxa de compressão, mais dados são trafegados: com compressão de
5:1 por exemplo, a família DV trafega 25Mbps (taxa bit rate) e com 3,3:1 a DVCPRO50
trafega 50Mbps por exemplo. Outros formatos utilizam taxas ainda menores de
compressão e por isso possuem bit rates maiores, como o DVCPRO HD com 100Mbps
e o HDCAM com 140Mbps. Em outras palavras, a qualidade da imagem é medida pela
taxa de compressão utilizada: quando menor a compressão, melhor a imagem. Em
relação ao componente cor do sinal, taxas mais baixas permitem somente o sampling a
4:1:1 e as mais altas, sampling a taxas mais altas.

Os formatos que empregam compressão intra-frame são gravados em fita, o que exige
taxas fixas de bit-rate (25 Mbps, 50Mbps por exemplo, conforme o formato). Duas fitas
gravadas no mesmo formato a partir do mesmo original terão sempre a mesma
qualidade de imagem.

Basicamente o que ocorre durante a edição-não-linear de um formato do tipo intra-


frame é a descompressão, apresentação na tela, aplicação de cortes / efeitos e
recompressão.

compressão multi-frame tipo de compressão na qual cada quadro é comparado com o


anterior e as modificações anotadas entre um e outro constituem a informação a ser
digitalizada. Neste tipo de compressão, ao contrário do tipo intra-frame, a tecnologia
envolvida é bem mais complexa.

Em primeiro lugar, porque a compressão e descompressão de um quadro


individualmente envolve o armazenamento temporário em memória de um conjunto de
quadros anteriores e posteriores. Depois, porque os quadros são agrupados e
armazenados em conjuntos, para os quais aplicam-se regras diferentes a cada elemento
(quadro) do conjunto, alguns servindo somente para referência, outros para armazenar
somente determinados parâmetros da imagem, etc.. E por fim, porque o movimento dos
elementos dentro da imagem é calculado através de vetores analisados ao longo de todo
o conjunto de quadros.

Uma determinada imagem pode ser mais "simples" ou mais "complexa" em termos de
compressão: a imagem de uma estátua sobre o fundo azul do céu é mais fácil de ser
comprimida do que sobre o fundo cheio de detalhes de uma floresta. A uniformidade do
céu permite o armazenamento de poucos dados para que o mesmo possa ser
reproduzido, como se houvesse um "carimbo" de pixels azuis que pudesse ser utilizado
ao longo da maior parte do céu. O mesmo já não é possível para reproduzir os detalhes e
nuances particulares de cada folha das árvores no segundo exemplo, cujas informações
tem que ser individualmente armazenadas.

Enquanto os formatos que empregam compressão intra-frame são gravados em fita com
taxas fixas de bit rate, o mesmo não ocorre nos formatos que utilizam compressão
multi-frame. Estes formatos foram desenvolvidos originalmente para uso em discos
ópticos (como DVD-Vídeo por exemplo): esse tipo de mídia pode ser gravada com
diferentes taxas de bit-rate, resultando em imagens com qualidade diferente.

A compressão multi-frame utiliza o conceito de GOP (Group Of Pictures) no trabalho


de redução do volume de informações.

www.therebels.com.br Página 16
Informações técnicas – Sinal de vídeo

Control-L o mesmo que LANC.

Control-M (ou protocolo Panasonic de 5 pinos) protocolo de comunicação para edição-


linear desenvolvido pela Panasonic, utilizado em vídeoprodução para controle remoto,
através de um cabo, de determinados dispositivos, como por exemplo VCRs e câmeras.
Recebeu esse nome ("5 pinos") por utilizar como conector uma tomada do tipo DIN de
5 pinos. Foi, juntamente com o Control-L ou LANC, um dos protocolos mais populares
utilizados em edição linear voltada para o segmento semi-profissional, permitindo o
controle de câmeras da Panasonic através de um aparelho denominado controlador de
edição. Sua comunicação é efetuada em duas vias (bidirecional), ou seja, permite tanto
operações do controlador para a câmera ou VCR (PLAY, PAUSE, etc...) como a
transmissão de informações no sentido contrário (posição do tape counter da câmera ou
VCR lida pelo controlador).

Control-S protocolo de comunicação para edição-linear desenvolvido pela Sony,


permite controlar remotamente câmeras e VCRs transmitindo para os mesmos as
operações básicas de manuseio de fitas, como PLAY, PAUSE, REC, FF, RW e STOP.
Sua comunicação é efetuada via única, ou seja, permite enviar comandos para câmera
ou VCR mas não receber informações dos mesmos. Trata-se basicamente da
implementação dos mesmos comandos do controle remoto sobre fios, ao invés de
utilizar o infravermelho. Passou com o tempo a ser substituído pelo protocolo Control-
L.

controlador de edição dispositivo empregado em edição-linear. Trata-se de um aparelho


que, conectado a um VCR ou câmera contendo uma fita a ser editada, permite efetuar as
operações de PLAY, FF, RW, etc... e com isso escolher pontos de entrada e saída (IN /
OUT) em diversas cenas selecionadas pelo operador. Esses pontos são gravados em
uma memória existente no aparelho, formando o que se chama Edit Decision List
(EDL). Terminada a operação, através de um comando o controlador efetua a cópia
seletiva dessas cenas, sequencialmente (daí o nome edição linear) para o VCR destino.
Alguns softwares foram também desenvolvidos para efetuar a mesma função do
controlador de edição, só que através do computador. Abaixo, o controlador de edição
Videonics AB-1:

Todo o controle de PLAY, PAUSE, FF, etc... necessário sobre os VCRs é efetuado
através de cabos de controle remoto conectando o controlador aos VCRs. Conforme o
equipamento utilizado, diferentes tipos de sinais de controle (protocolos de edição)
podem ser empregados, desde os mais simples, de uma única via, como o infravermelho
(que não utiliza cabo e comanda as funções básicas do controle remoto da mesma
maneira que este) até os de duas vias, como o Control-L (LANC) ou o Control-M que
conseguem, além dessas funções, receber informações de retorno sobre o

www.therebels.com.br Página 17
Informações técnicas – Sinal de vídeo

posicionamento da fita no VCR ou câmera e o modo em que o aparelho está (REC,


PAUSE, etc...). Mesmo no entanto utilizando protocolos de duas vias, como os acima
citados, a simples leitura do contador de frames dos VCRs / câmeras envolvidos limita a
precisão na edição a cerca de 6 quadros, para mais ou para menos. Para ter-se precisão
maior, alguns tipos de controladores (os que trabalhavam com LANC) passaram a
utilizar informações de Timecode - quando disponíveis na fita origem - permitindo
assim a precisão de corte no nível de quadro individual. O controlador de edição pode
também estar integrado a outros aparelhos na cadeia do sinal de vídeo a ser gravado no
VCR destino, como aparelhos geradores de efeitos especiais (SEG - Special Effects
Generator)e aparelhos geradores de títulos (tituladores). Além disso, através do mesmo,
efeitos de transição podem ser acrescidos na mudança de uma cena para outra. Toda
essa estrutura e equipamentos foram substituídos, com vantagens, com o surgimento da
edição-não-linear e o uso da conexão FireWire para efetuar através de um único cabo, o
controle da câmera e a passagem dos dados de áudio e vídeo.

corretor de cor (Color Corrector ou Proc Amp) este equipamento permite efetuar ajustes
nas tonalidades de cor da imagem. Alguns TBCs possuem esta função embutida nos
mesmos.

cromitância cor, medida da parte de cor da imagem.

DCT (Discrete Cosine Transform) algoritmo utilizado para preparar para compressão
um sinal de vídeo já digitalizado no formato vídeo componentes para posterior gravação
em fita em formatos digitais, como DV ou Digital Betacam por exemplo. O algoritmo
DCT em si não reduz a quantidade de dados do arquivo digital, mas reorganiza os
componentes das imagens de forma a reduzir a presença de detalhes não percebidos
com tanta acuidade pelo olho humano, como os detalhes das cores por exemplo.

Nesses formatos (como o citado DV), após tratado pelo DCT, o arquivo entra
efetivamente na etapa de redução de tamanho (compressão) através da técnica intra-
frame, onde os valores gerados pelo DCT são reduzidos em um processo denominado
quantização. O conjunto DCT + compressão intra-frame supera o algoritmo MJPEG em
qualidade de imagem por utlizar processos mais sofisticados para comprimir as
informações. A forma de compressão também difere em um e outro algoritmo: enquanto
o MJPEG utiliza compressão do tipo multi-frame, aqui a compressão é do tipo intra-
frame. Os dois algoritmos (DCT + intraframe) e MJPEG são incompatíveis, isto é, não é
possível decodificar via DV algo gravado em MJPEG e vice-versa. O processo de
decodificação é rápido nos dois algoritmos, porém o de codificação é mais lento no
MJPEG quando comparado ao DCT + intra-frame.

degradação da imagem o sinal de vídeo no formato analógico sofre degradação de cor e


de detalhes de brilho ( luminância ) cada vez que é copiado. Estas distorções
introduzidas no sinal tornam-se parte do mesmo, não podem ser corrigidas (alguns
equipamentos tentam atenuá-las). Algumas providências podem atenuar um pouco -
porém não impedir - este processo: uso de cabos de conexão entre o aparelho reprodutor
e o gravador de boa qualidade, idem para suas conexões, uso de cabos com pequeno
comprimento, cabeças de reprodução / gravação limpas e desmagnetizadas, fitas de boa
qualidade, alta qualidade na imagem capturada pela câmera, etc...

digital , sinal ver analógico, sinal - para comparação.

www.therebels.com.br Página 18
Informações técnicas – Sinal de vídeo

Digital Component nome dado ao sistema de gravação de sinais de vídeo que digitaliza
sinais no formato vídeo componentes, comprimindos-os em seguida para gravar em fita.

DivX novo nome do padrão DivX;-) criado pelo hacker francês Jereme Rota.

DivX;-) padrão para compressão de imagens baseado em uma versão do MPEG4


desenvolvida em 1998 pela Microsoft. A intenção da Microsoft era a criação de um
sistema para copiar conteúdo de áudio e vídeo gravado em discos (DVDs por exemplo)
e gravar em arquivos do tipo ASF do Windows Media para permitir a realização de
streamming a partir desses dados. O padrão foi copiado na época pelo hacker francês
Jerome Rota e alterado a seguir para permitir a gravação em arquivos do tipo .avi,
possibilitando assim a gravação de clones dos discos originais a partir da autoração de
DVDs graváveis no micro.

O nome "DivX" faz referência ao fracassado sistema DIVX (Digital Video Express)
tentado nos EUA, um sistema de aluguel de vídeos onde um disco semelhante a um
DVD comum (denominado "DIVX") podia ser alugado e ser visto nas primeiras 48
horas após o início do aluguel. A seguir, poderia ser visto novamente através do
pagamento de uma taxa ao provedor do serviço. O disco funcionava somente em players
especiais, conectados via telefone com o provedor. O emoticon em "DivX;-)" faz
referência ao insucesso desse sistema. Em 2000 Rota criou a companhia DivX Inc para
melhorar e desenvolver o padrão, mudando seu nome para DivX (sem o emoticon no
final). O DivX é baseado no MPEG4 Part 2 (padrão original de vídeo do MPEG4, antes
do desenvolvimento do AVC - MPEG4 Part 10).

DSS (Digital Satellite system) sistema em que os sinais de vídeo e som são
comprimidos utilizando o algoritmo MJPEG, enviados a seguir a um satélite e
posteriormente direcionados à Terra, onde aparelhos nas residências os captam e fazem
a decodificação. Ao contrário dos sistemas de recepção de TV via antena mini-
parabólica, que também recebem sinal diretamente de um satélite, é possível selecionar
no momento em que se quiser o programa a ser visto / gravado. No caso de gravação, o
sinal é gravado sem decodificação, ou seja, em MJPEG, em um formato denominado D-
VHS. Somente no momento da reprodução é que o sinal é decodificado.

DSP (Digital Signal Processing) Circuito eletrônico existente em algumas câmeras


analógicas, que converte para digital o sinal obtido na leitura do CCD, efetua
processamentos de correção e melhoria no mesmo e o reconverte novamente para
analógico para ser gravado na fita. Muitas vezes este circuito exerce também
opcionalmente outras funções, como gerar efeitos especiais (strobe, still, p.ex.) que são
adicionados à imagem neste momento.

DTVLink nome padronizado pelo CEA (Consumer Electronics Association) para a


interface IEEE-1394.

DVI (Digital Visual Interface) conexão para áudio e vídeo em alta definição (HD), do
tipo digital sem compressão; assim como a conexão HDMI, é voltada para o segmento
consumidor, conectando televisores HD, DVD players, dispositivos com sinais HDTV e
outros, principalmente em home theaters. Proposta em 1999 por um consórcio de
empresas (Compaq, Fujitsu, HP, IBM, Intel, Silicon e NEC) denominado Digital
Display Working Group (DDWG). A conexão DVI prevê o uso de um ou dois links

www.therebels.com.br Página 19
Informações técnicas – Sinal de vídeo

(conjuntos independentes de fios), o que se reflete em seu conector, que possui espaço
para os dois conjuntos de links, mas pode usar somente um deles. Se for necessário o
uso de maior largura de banda (bandwidth) para transmissão das informações (como nos
formatos HD por exemplo) os dois conjuntos são utilizados. Este esquema foi pensado
com a idéia de que o conector DVI pudesse ter utilização a mais abrangente possível,
possibilitando seu uso para ligação de aparelhos tanto SD como HD. A abrangência de
seu uso é ainda maior ao possibilitar também a transmissão de sinal analógico para
monitores de vídeo tradicionais do tipo VGA, o que é feito através de pinos adicionais
incluídos no conector. A figura abaixo mostra os 5 tipos possíveis de plugs DVI:

A figura abaixo mostra um cabo com plug DVI e uma entrada para o mesmo em um
painel:

Este tipo de conexão também permite ligar monitores a computadores, servindo como
alternativa à tradicional conexão do tipo VGA, porém com qualidade bem melhor de
imagem. Para isso, o computador deve possuir uma placa gráfica com este tipo de saída
e o monitor uma entrada DVI.

EDH Error Sistema de verificação de erros na transmissão de sinais de vídeo digitais


através de conexões do tipo SDI. A transmissão de informações entre duas fontes,
quando feita através de um sinal analógico, está sempre sujeita a perdas durante o
processo. Na realidade, a rigor qualquer transmissão entre duas fontes, sejam elas
analógicas ou digitais, está sujeita à perdas. Seja por deficiências na condução elétrica
(cabos e conectores), mau contato, interferências eletromagnéticas (campos produzidos
por motores ligados, alto-falantes, telefones celulares etc...) e outras causas ela
invariavelmente cedo ou tarde acaba ocorrendo.

Não é possível corrigir um sinal analógico que chegou defeituoso no destino, pois
inexiste forma de se saber como era o sinal quando saiu da origem, daí os conhecidos

www.therebels.com.br Página 20
Informações técnicas – Sinal de vídeo

problemas de perda em gerações (loss generation) criadas através do processo analógico


de edição linear.

Já com os sinais digitais normalmente este problema não acontece, pois juntamente com
o envio do sinal, a fonte origem envia também junto com ele informações codificadas
que permitem que o receptor, no destino, efetue alguns cálculos matemáticos com essas
informações e descubra se algo ocorreu no caminho. Um exemplo simples que pode dar
a idéia do que ocorre é o cálculo dos dígitos de controle do número do CPF; o cálculo é
feito com os números anteriores aos dígitos de controle (o número de fato do CPF, o
principal), obtendo-se assim um número - o primeiro algarismo de controle. A seguir,
juntando-se o número principal com esse primeiro dígito de controle e re-efetuando o
cálculo, obtém-se o segundo dígito de controle. Quanto o computador tem que verificar
a validade da informação, refaz os cálculos com o número fornecido - qualquer
mudança em um dos algarismos, tornando-o diferente do número original, fará com que
o cálculo resulte em dígitos de controle diferentes, indicando assim ao sistema que
aquele número é um número de CPF inválido.

Com o sinal de vídeo, tudo se passa como se fosse efetuado um cálculo com trechos da
informação do sinal, obtendo-se "números de controle", que são enviados juntamente
com esse sinal. No destino, o cálculo é refeito, para verificar se houve algum problema
durante a transmissão. Dependendo do que ocorreu, o próprio sistema no destino pode
corrigir o erro, através de diferentes algoritmos matemáticos. Caso contrário, ele solicita
novamente à origem que efetue uma retransmissão do trecho da informação com
problema.

No caso da maioria dos sinais digitais de vídeo acontece a mesma coisa, no entanto,
para o SDI (e não o HD-SDI por exemplo), não há geração desses controles na emissão
(origem). Assim, um eventual problema durante a transmissão não seria detectado.
Desta forma, os sistemas que fazem a emissão desses sinais podem eles próprios
acrescentar seus dispositivos de controle particulares de integridade do sinal. E para não
alterar o conteúdo transmitido (os quadros de imagem), só existe um local onde o
mesmo pode ser colocado: o intervalo de controle vertical (vertical sync pulse) que fica
entre os quadros. Nos formatos digitais esse intervalo, próprio dos sistemas analógicos,
não existe - não é necessário para controlar as informações de desenho da imagem na
tela. No entanto, em estúdios é comum a comunicação de sinais entre equipamentos, e
em determinadas situações este sinal deve estar preparado para a forma padrão de
transmissão de TV - analógica, contendo portanto elementos como este intervalo.

Nesse local há uma área deixada vazia originalmente no projeto NTSC (ou pelo menos
não utilizada na quase totalidade das situações). É nessa áreas que é gravado por
exemplo o Timecode VITC (Vertical Interval Timecode) nos sistemas analógicos, e
também é nessa área que os sistemas que trabalham com SDI gravam o conteúdo de
controle chamado EDH (Error Detection and Handling).

Ao contrário dos procedimentos padrão existentes nos sinais digitais, que como
ilustrado acima permitem muitas vezes corrigir o defeito do sinal que chegou no
destino, ou então pedir sua retransmissão, no caso do EDH nada disso é feito: a
tecnologia utilizada é muito simples, pois no destino somente é refeito o cálculo e
verificado se a informação está correta. Se estiver, o sinal chegou sem problemas pelo
caminho. Se não estiver, isso indica que houve problemas e que o que está chegando no

www.therebels.com.br Página 21
Informações técnicas – Sinal de vídeo

destino não é idêntico ao que está sendo transmitido. Isso fará por exemplo acender uma
luz de alerta no hardware de destino, indicando a necessidade de procedimentos de
correção que, como visto, nesse caso não são automáticos.

Sua finalidade assim é permitir identificar equipamentos no sistema que estejam


apresentando eventuais falhas.

FireWire protocolo desenvolvido pela Apple Computer, que originou o IEEE-1394.

FireWire, conector o mesmo que IEEE-1394 conector.

frame rate quantidade de quadros exibidos por segundo em um vídeo ou filme. O


cinema, que é anterior à televisão, consolidou-se exibindo 16 qps (quadros por segundo)
na época do cinema mudo. Esta taxa permitia exibir os movimentos das cenas sem
utilizar quantidade demasiada de película, muito cara na época. Quando surgiu o cinema
sonoro, a velocidade de passagem do filme no projetor teve que ser aumentada para
garantir uma qualidade mínima ao som: a trilha sonora passou a fazer parte da película.
E a velocidade de 24 qps foi a menor encontrada que podia garantir esta qualidade
mínima ao som, sempre levando-se em conta o objetivo de economia de película. Mais
tarde, algumas experiências foram feitas em diferentes valores de frame rate, porém
permaneceu em uso o valor 24 qps.

A televisão, assim como o cinema, passou pelo uso de diferentes valores de frame rate.
No entanto, ao contrário deste, que usou durante um certo tempo 16qps antes de passar
para 24qps, a televisão consolidou-se com a criação do padrão NTSC, na década de 40,
exibindo, ainda em preto e branco, 30 qps. O sistema utilizado, em uso até hoje, é o
interlaced, onde um quadro é formado por 2 campos. Como cada campo representa uma
leitura da imagem de alto a baixo em um determinado intervalo de tempo, é usual
indicar seu frame rate como 60i (60 campos por segundo, no modo interlaced). Nos
sistemas PAL, existem 2 valores de frame rate em uso: 60i (sistema PAL-M) e 50i (nos
demais). No sistema SECAM o valor do frame rate é 50i.

O valor escolhido para frame rate nestes sistemas (60 e 50) tem ligação direta com a
ciclagem da corrente elétrica utilizada no país. Nos EUA, onde o sistema NTSC foi
criado, a corrente elétrica funciona em 60 ciclos; na maioria dos países europeus (onde
SECAM e sistemas PAL foram criados) a corrente elétrica funciona em 50 ciclos e no
Brasil (onde o sistema usado é o PAL-M) a corrente elétrica funciona em 60 ciclos.

A associação entre ciclagem e frame rate para televisão tem origem em várias questões
técnicas. Na época, o isolamento dos circuitos eletrônicos dos aparelhos de TV da rede
elétrica não era ainda muito desenvolvido: nos primeiros sistemas de TV criados, eram
comuns instabilidades na imagem causadas por interferências de frequência da rede
sobre o circuito de imagem. Pensou-se assim em minimizar estas interferências fazendo
com que a frequência de montagem da imagem fosse a mesma do sinal elétrico e
estivesse associada (em fase) com ela.

Outro problema era a questão incômoda para o expectador da imagem piscando,


fenômeno denominado flicker, bastante acentuado para o olho humano quando uma luz
pisca menos de 40 vezes por segundo. No cinema este problema já havia sido
enfrentado e contornado: apesar de serem mostrados 24qps, o obturador do projetor de

www.therebels.com.br Página 22
Informações técnicas – Sinal de vídeo

cinema (dispositivo com lâminas metálicas que abrem e fecham a passagem de luz) na
realidade abre e fecha duas vezes para cada quadro exposto. Assim, a película é
avançada e um quadro é posicionado em frente à objetiva. O obturador abre e fecha. A
seguir, abre novamente e fecha e só então o quadro seguinte é posicionado. Com isso, a
luz projetada pisca 48 vezes por segundo (frequência de 48Hz), o que é tolerável para o
expectador.

Na televisão, não era possível na época a transmissão de 48 quadros completos por


segundo para as antenas dos receptores: haviam limitações na largura de banda
(bandwidth) disponível. A solução foi o sistema interlaced, que transmitia somente
metade da imagem (linhas pares / ímpares) a cada vez. Ao mesmo tempo, a camada de
fósforo que recobria internamente os tubos de imagem não era suficientemente
desenvolvida para permitir taxas muito maiores de frequência no desenho de imagens.

Os primeiros sistemas experimentais de TV empregavam 48Hz, mas, ao mesmo tempo


em que era proposta a adoção do sistema 60i, novos tubos de imagem, mais luminosos,
acabavam de ser desenvolvidos. O aumento da frequência de 48Hz para 60Hz permitiria
assim também o uso desses novos tubos, reduzindo bastante a ocorrência de flicker
(neste caso beneficiando bem mais os sistemas de 60qps do que os de 50qps), sem
comprometer os requisitos de bandwidth.

Alem do modo interlaced, imagens em vídeo podem ser gravadas e exibidas no modo
progressive. No sistema NTSC, no modo progressive os principais valores de frame rate
utilizados são 24 e 30, indicados por 24p / 30p (24 ou 30 qps, no modo progressive). Os
sistemas PAL também possuem a opção do modo progressive, utilizando frame rate de
25 qps, ou, 25p.

O quadro abaixo mostra alguns valores de frame rate utilizados em cinema e vídeo:

Quando foi iniciado o desenvolvimento do sistema NTSC colorido, a grande base de


televisores P&B já instalada colocou aos especialistas um dilema: desenvolver um
sistema completamente novo faria com que todos esses aparelhos se tornassem
obsoletos, exigindo sua troca, e a coexistência de 2 sistemas não era prática. A solução

www.therebels.com.br Página 23
Informações técnicas – Sinal de vídeo

encontrada foi embutir os sinais de cores dentro do sinal já existente P&B, de modo que
televisores antigos conseguissem interpretar como P&B imagens transmitidas em cores.
Esta modificação exigiu algumas alterações, no entanto; assim, diversos requisitos
técnicos fizeram com que o frame rate tivesse que ser alterado ligeiramente, de 30 qps
para 29,97 qps (uma diferença de 0,1%).

Consequentemente, passaram a ser exibidos 59,94 campos por segundo neste sistema.
Este é o valor preciso utilizado até hoje, embora para facilidade de comunicação seja
usual a referência simplificada de "30" e "60". Esta diferença, que não ocorre em outros
sistemas, onde os valores são exatos (sistemas PAL (exceto PAL-M) e SECAM com 25
e 50), afeta a contagem e numeração dos quadros (processo denominado Timecode),
gerando os tipos drop e non-drop Timecode.

Apesar desta diferença, o frame rate para o sistema NTSC é indicado como 60i (e a
quantidade de quadros como 30qps) para facilidade de documentação e comunicação.

full HD termo aplicado a imagens com resolução vertical de 1080 pixels e resolução
horizontal de 1920 pixels (resolução de imagens digitais). Existem diversos sistemas
que propiciam imagens HD, com diversos níveis de resolução. Dentre estas, a resolução
1080x1920 pixels é a maior disponível em vários equipamentos de vídeo
comercializados e utilizados em diferentes aplicações, com exceção de alguns sistemas
experimentais e do cinema digital, que utiliza padrões de resolução acima destes, como
por exemplo 2K / 4K. Por este motivo, esta resolução (1080x1920) tornou-se conhecida
como full HD. O termo engloba ainda outras 2 características dessas imagens: o modo
progressive scan e o aspect ratio 16:9.

GOP (Group Of Pictures) técnica de agrupamento de imagens empregada na


compressão do tipo multi-frame, como por exemplo no formato MPEG2. Os quadros
que compõem a imagem de vídeo são trabalhados em conjuntos, dentro dos quais ocorre
o processo de compressão.

O primeiro quadro dentro de cada conjunto chama-se "I-frame" (abreviação de intra-


frame) e é comprimido isoladamente, utilizando não o modo multi-frame e sim o intra-
frame - daí seu nome. A partir deste quadro inicial, dois tipos de quadros são gerados:
os quadros "B" e os quadros "P". Quadros "P" ("P-frame", de predicted-frame) são
quadros que carregam as diferenças entre o primeiro quadro ("I-frame") do conjunto e
os demais.

Assim, o conjunto de quadros que compõem a cena de um avião cruzando o céu azul é
dividida em diversos sub-conjuntos. Para cada um desses subconjuntos, o primeiro
quadro é comprimido no modo intra-frame e a seguir armazenado: é o "I-frame". A
seguir, os quadros subsequentes ("P-frames") irão armazenar somente as diferenças em
relação ao "I-frame", ou seja, as diferentes posições ocupadas pelos pixels
www.therebels.com.br Página 24
Informações técnicas – Sinal de vídeo

correspondentes à imagem do avião em relação à suas posições no "I-frame". Com isso,


na maioria dos casos (dependendo da "complexidade" da imagem), o espaço ocupado
pelas informações do quadro será bem menor do que o ocupado pelo quadro completo
"I-frame". Com isso, por exemplo 10 quadros comprimidos e armazenados no modo
intra-frame irão ocupar mais espaço do que 10 quadros armazenados no modo multi-
frame, porque aqui somente o primeiro (comprimido) é armazenado e os demais
registram somente as diferenças em relação ao primeiro.

Para analisar as diferenças entre um quadro e outro, a imagem do primeiro quadro é


dividida em pequenas áreas de somente 16x16 pixels cada, chamadas macroblocos. O
processador procura cada macrobloco na segunda imagem, nas mesmas coordenadas
X,Y. Se encontrá-lo e o mesmo for idêntico ao da primeira imagem, um vetor de
mobilidade é marcado com o valor zero. Se não for idêntico, é porque ocorreu alguma
modificação deste trecho da primeira imagem para a segunda.

Esta modificação pode ser devida a algum movimento ocorrido nos elementos da cena
ou então porque uma nova cena completamente diferente da primeira apareceu. O
processador tenta verificar a primeira hipótese, procurando o macrobloco a um pixel de
distância à direita, à esquerda, acima e depois abaixo. Caso ainda não encontre
correspondência, aumenta a distância da procura em 1 pixel, passando agora a procurar
o macrobloco a 2 pixels de distância em todas as 4 direções. Se não houver
correspondência, o processador vai aumentando a distância da procura, e se não
encontrá-lo em nenhum local conclui que houve mudança de cena.

O processo é repetido para cada macrobloco (16x16 pixels) da primeira imagem,


permitindo com isso gerar uma tabela de vetores indicando as mudanças de posição dos
macroblocos entre uma imagem e outra, ou, em outras palavras, gerando as anotações
do que mudou entre uma imagem e outra. Esta tabela de vetores chama-se Motion
Compensation Block.

A seguir, com base nessa tabela de vetores e na imagem do "I-frame", o processador


constrói um novo quadro de imagem, considerando somente os vetores iguais a zero, ou
seja, somente os macroblocos que não se moveram da primeira imagem para a segunda
são copiados do "I-frame" e montados neste novo quadro. Este quadro assim montado,
como exemplifica a figura abaixo, será a base para a montagem do predicted-frame (
"P-frame"):

No exemplo, o quadro montado tem somente os pixels do céu, menos os do avião e


menos os do trecho de céu antes encoberto pelo mesmo (o avião moveu-se para frente -
no exemplo da figura acima foi considerado um deslocamento maior do que o que
ocorreria na realidade entre um aquadro e outro para demonstrar com mais clareza o
efeito). Em outras palavras, ele contém somente o que não mudou do primeiro para o
segundo quadro.
www.therebels.com.br Página 25
Informações técnicas – Sinal de vídeo

A seguir este quadro montado é subtraído da segunda imagem: como ele contém o que
ficou igual entre a primeira e a segunda imagem, o resultado desta subtração é
exatamente a diferença entre as imagens. Este conteúdo então será o conteúdo do
predicted-frame , como mostra a figura abaixo:

Ou seja, o "P-frame" contém somente os pixels correspondentes à imagem do avião e do


pequeno trecho de céu atrás dele correspondente ao seu movimento.

Juntamente com cada "P-frame" gerado é armazenada sua tabela de vetores de


deslocamento (gerada na primeira tarefa descrita acima, durante a comparação entre o
"I-frame" e o quadro seguinte). Esta tabela recebe o nome de Motion Compensation
Block. Armazenar somente os pixels que são diferentes entre uma e outra imagem e uma
tabela de vetores para montagem das áreas que não sofreram alteração ocupa
normalmente muito menos espaço do que se todos os pixels da segunda imagem fossem
armazenados, daí a grande economia de espaço proporcionada por este método de
compressão.

No momento da reprodução (play do vídeo gravado ou descompressão para permitir a


edição-não-linear), o quadro de imagem correspondente ao "P-frame" é reconstruído da
seguinte forma: o Motion Compensation Block é aplicado ao "I-frame" e com isso
permite gerar um quadro com o que não mudou do "I-frame" para o quadro a ser
regerado. A este quadro é então somado o conteúdo do "P-frame", permitindo assim a
reconstrução da imagem completa.

Existe no entanto ainda outro tipo de quadro utilizado na compressão multi-frame: o "B-
frame" (de bi-directionally frame). Após gerar sequências IPPPP ("I-frame" seguido de
vários "P-frames"), ou seja, IPPPPIPPPP, e armazená-las na memória, o processador
analisa as diferenças entre o primeiro "P" da sequência e o segundo "P" a seguir.
Registra então estas informações, que ocupam menos espaço do que o primeiro "P-
frame" isoladamente da sequência, e o substitui. Ou seja, a sequência torna-se
IBPPPIPPPP. O segundo quadro é portanto representado com base nas informações do
"I-frame" anterior e do "P-frame" posterior, ou seja, um processo nas duas direções (daí
o nome bi-directionally frame).

O processo de substituição de "P-frames" por "B-frames" continua, comparando-se "I-


frames" ou "P-frames" anteriores com "I-frames" ou "P-frames" posteriores, gerando a
sequência IBBBPIBBBP, que ocupa ainda menos espaço do que a original IPPPPIPPPP.

Os quadros assim reduzidos em volume de informação (alguns completos, como os "I-


frames", outros somente com diferenças e tabelas de vetores, como os "P-frames" e "B-
frames") são tratados individualmente através do algoritmo DCT e a seguir
comprimidos um a um através da compressão intra-frame.

www.therebels.com.br Página 26
Informações técnicas – Sinal de vídeo

O processo intra-frame permite o ajuste do nível de compressão a ser aplicado e é neste


estágio do processo que diferentes taxas de compressão podem ser escolhidas, gerando
vídeos comprimidos em MPEG2 com diferentes tamanhos, com diferentes bit rates
(VBR, Variable Bit Rate).

Cada um dos conjuntos IBBBBP chama-se "GOP", abreviação de Group of Images. A


maioria dos GOPs contém geralmente cerca de 15 quadros, podendo variar para menos
quando alterações bruscas na imagem (cenas de ação por exemplo) acontecem. GOPs
longos (15 quadros) são mais eficientes na compressão (ocupam menos espaço). No
entanto, introduzem maiores problemas para a edição-não-linear (é necessário mais
processamento para recuperar os quadros ao fazer-se por exemplo um simples corte:
mais quadros são necessários para a reconstrução do que no GOP menor).

O formato HDV tem sua edição facilitada em relação à edição de formatos MPEG2
tradicionais por utilizar GOPs menores, com 6 quadros.

Existem dois tipos de GOPs, os abertos e os fechados. Supondo-se o exemplo acima

que mostra dois GOPs; se as informações codificadas no "B-frame" indicado acima, no


final do primeiro GOP, forem dependentes do "P-frame" anterior a ele no mesmo GOP
e do "I-frame" do GOP seguinte, como indicado abaixo

diz-se que este tipo de GOP é um GOP aberto. Caso contrário, se forem só dependentes
de informações existentes dentro do próprio GOP, como mostrado abaixo

diz-se que este tipo de GOP é um GOP fechado. Um vídeo codificado com GOPs
abertos introduz problemas na edição: se em algum corte for deletado o GOP da direita,
no exemplo acima de GOPs abertos, será impossível o "B-frame" do GOP da esquerda
conseguir reconstruir o último quadro da imagem correspondente a esse GOP. Para
evitar este problema, os arquivos gerados no computador para edição MPEG2 codificam
suas informações através de GOPs fechados e não abertos. Mesmo assim, problemas
podem ocorrer se o corte for efetuado por exemplo no "P-frame" do primeiro GOP:

www.therebels.com.br Página 27
Informações técnicas – Sinal de vídeo

o primeiro GOP ficou incompleto, seus "B-frames" não podem mais reconstruir os
quadros porque dependem da informação do "P-frame" eliminado. Assim, mesmo cortar
dentro de um GOP fechado pode ser problemático.

Para alguns softwares de edição-não-linear estes problemas traduzem-se na falta de


precisão na edição de conteúdos codificados em MPEG2. Outros softwares,
notadamente os que trabalham com o formato HDV conseguem contornar estes
problemas decodificando os GOPs de determinado trecho do vídeo para recriar todos os
quadros do mesmo, efetuando o corte especificado e depois recodificando novamente
toda a sequência para gerar novos GOPs. Isso exige no entanto muito mais
processamento por parte do computador do que na edição de conteúdo comprimido no
modo intra-frame, como na família DV de formatos.

Não existe um padrão para montagem dos quadros dentro dos GOPs, diferentes
fabricantes adotam diferentes métodos, efetuando a codificação utilizando todos os tipos
de frames (I, B e P), utilizando somente alguns deles (somente I e P) ou até mesmo
somente (I). Neste último caso o conteúdo comprimido torna-se essencialmente
semelhante ao comprimido com o modo intra-frame. No caso do MPEG2 por exemplo,
se comprimido nesta forma, torna-se de alta qualidade e de fácil manipulação em
edição-não-linear, porém perde bastante em economia de espaço.

Os GOPs gravados com somente um frame/GOP acima referidos (do tipo I),
denominam-se short GOPs e os que contém mais de um frame (combinando os tipos I
e/ou B e P) denominam-se long GOPs.

H.262 o mesmo que MPEG2.

H.264 o mesmo que AVC.

HD (High Definition) termo genérico que descreve qualquer formato de vídeo que
possua vertical maior do que 480 linhas (definição válida para o padrão NTSC, para
outros padrões, o número de linhas da resolução HD excede a quantidade de linhas
utilizada em SD). A maior qualidade de seu conteúdo só pode ser observada em
aparelhos (TVs, monitores, etc...) especiais, de alta resolução. Quando exibidos em
aparelhos convencionais não apresentam diferença perceptível em relação aos sistemas
e formatos SD.

Uma das diferenças com os padrões de resolução SD é o aspecto da imagem. Enquanto


em SD este aspecto tem a proporção 4:3 (proporção entre largura e altura da imagem,
respectivamente), também representado por 1,33:1 (divisão de 4 por 3), em HD a
proporção é 16:9 (da mesma forma, também 1,77:1), formato este conhecido como
widescreen.

Existem dois tipos de resolução para imagens HD:

720 x 1280 (imagem progressiva)


1080 x 1920 (imagem entrelaçada)

HD-SDI (High Definition Serial Digital Interface) conexão para áudio e vídeo utilizada
no segmento profissional em estúdios, conectando câmeras e VCRs entre si ou com

www.therebels.com.br Página 28
Informações técnicas – Sinal de vídeo

sistemas de edição-não-linear. Utiliza sinal digital de alta definição (HD) sem


compressão que trafega através de cabos com conectores BNC. Existe em duas versões,
as mesmas utilizadas pelos formatos HDV HD1 e HD2.

HDMI (High-Definition Multimedia Interface) conexão para áudio e vídeo em alta


definição (HD), do tipo digital sem compressão, proposta em 2002 por um consórcio de
empresas (Hitachi, Panasonic, Philips, Silicon Image, Sony, Thomson e Toshiba) para
ser utilizada no segmento consumidor entre televisores HD, DVD players, dispositivos
com sinais HDTV e outros, principalmente em home theaters. Além de trabalhar com
sinais HD, a conexão HDMI também suporta conteúdo de áudio e vídeo tradicional
(SD), além de diversos padrões de áudio, como os multi-canal do tipo surround por
exemplo. Cabos HDMI não sofrem interferências (devido ao seu sinal ser digital) e
podem ainda ser construídos com considerável extensão (até 15m). A figura abaixo
mostra um plug HDMI e sua conexão no painel de um aparelho que suporta este tipo de
sinal:

HDTV (High Definition TeleVision) padrão de sistema de televisão de alta definição.


Proporciona avanços significativos na qualidade da imagem (grande resolução
horizontal e vertical). Uma modificação também significativa neste sistema em relação
ao sistema tradicional é o formato da imagem, que segue proporções parecidas com as
utilizadas no cinema, ou seja, imagem bem maior em largura do que em altura (16:9 ao
invés de 4:3).

Sistemas atuais de HDTV: ATSC (Advanced Television Systems Commitee)


americano, DVB-T (europeu) e ISDB-T (japonês). A China desenvolve seu próprio
padrão. O Brasil adota o sistema japonês, com algumas modificações como o uso do
H.264 no lugar do MPEG2 no padrão de codificação. O padrão de codificação é um dos
quatro elementos que compõem um sistema de TV digital. Os outros são o padrão de
modulação (ISDB-T no Brasil), o middleware (sistema operacional de controle geral do
sistema digital de TV) e o padrão de retorno (o que permite a interatividade entre o
público e a emissora). No Brasil o sistema de TV digital denomina-se SBTVD-T
(Sistema Brasileiro de TV Digital Terrestre), adotando tanto a transmissão em alta
definição (HD) como em baixa definição (SD).

helical scan processo de leitura / gravação de fitas de vídeo (e alguns tipos de áudio,
como por exemplo o DAT), onde as cabeças de leitura / gravação são fixas em um
cilindro giratório inclinado em relação ao plano de deslocamento da fita, fazendo com
que as trilhas nela registradas fiquem também inclinadas.

horizontal sync pulse (H-sync) código (denominado pulso) inserido em um sinal de


vídeo para indicar ao canhão de elétrons que desenha linha a linha as imagens na tela de
um CRT (ou ao circuito que carrega as linhas da imagem em uma tela do tipo LCD ou

www.therebels.com.br Página 29
Informações técnicas – Sinal de vídeo

plasma) que o desenho de uma determinada linha terminou. Juntamente com o vertical
sync pulse, é um dos pulsos utilizados para efetuar o sincronismo da imagem do vídeo.

i.Link nome para a interface baseada no protocolo IEEE-1394 utilizada pela Sony.

I-frame (intra-frame) tipo de quadro utilizado na montagem dos GOPs de compressões


multi-frame como a MPEG2 por exemplo. Sistemas que trabalham em MPEG2 e usam
somente este tipo de quadro possuem maior qualidade de imagem, por dispensarem os
processos de reconstrução dos demais tipos de quadro (B-frames e P-frames), sujeitos a
determinadas falhas.

IEEE units o nome "unidades IEEE" (abreviação de Institute of Electrical and


Electronics Engineers (EUA)) substituiu oficialmente o anterior "unidades I.R.E." na
indicação do brilho da imagem na tela, porém ambos são aceitos na terminologia usual.

IEEE-1394 (também chamado i.Link, FireWire ou DTVLink) protocolo padrão para


transmissão digital de áudio, vídeo e dados a curta distância. Desenvolvido
originalmente pela Apple Computer, foi proposto à organização IEEE - Institute of
Electrical and Electronics Engineers (EUA) e por ela tornado padrão em 1995.

FireWire é o nome utilizado pela Apple para sua versão do IEEE-1394 e por diversas
empresas que o empregam em seus produtos, i.Link é o nome criado pela Sony para a
mesma interface e DTVLink o nome padronizado pelo CEA (Consumer Electronics
Association) também para a mesma interface.

O formato DV foi a primeira aplicação a utilizar esta tecnologia, sendo parte opcional
do mesmo - pode ou não ser implementada, conforme o fabricante. Deverá no futuro ser
o substituto de protocolos como IDE, SCSI, etc...

O IEEE-1394 é um sistema de comunicação serial, bi-direcional de alta velocidade,


proposto para simplificar as conexões entre produtos digitais, como câmeras,
computadores, drives DVD, etc... Algumas características: sinais de áudio & vídeo &
outros trafegam por um único cabo/conector, sinais simultâneos podem trafegar nas
duas direções, pode conectar até 63 periféricos em uma única cadeia, os periféricos
podem ser conectados /desconectados ligados à cadeia (hot pluggable). Sinais digitais
de vídeo quando copiados de um equipamento para outro através deste tipo de conexão
não sofrem degradação da imagem.

Existem dois tipos de conectores usados: com 4 e com 6 pinos (unpowered e powered).

IEEE-1394, conector o padrão definido para o sinal IEEE-1394 possibilita a existência


de dois tipos de conectores (plugs macho / fêmea): com 4 pinos ou com 6 pinos. Quatro
conectores (pinos) são sempre utilizados para o sinal FireWire propriamente dito. Os
outros 2 são opcionais: o padrão IEEE-1394 prevê como opção que o mesmo cabo
utilizado para o sinal digital possa também fornecer energia para um equipamento
(periférico) conectado ao mesmo. Assim, um par de fios (energia e terra) é
opcionalmente adicionado ao cabo para esta finalidade, derivando daí a existência de
plugs com 4 e plugs com 6 pinos (unpowered e powered):

www.therebels.com.br Página 30
Informações técnicas – Sinal de vídeo

O desenho mostra o plug de 4 pinos (à esquerda) e o de 6 pinos (à direita). Os


equipamentos do segmento consumidor e semi-profissional utilizam a opção de 4 pinos:
como estes equipamentos são geralmente menores, os plugs de tamanho menor
adaptam-se melhor à eles. No entanto, existem placas de edição por exemplo com os
dois tipos de plugs / conectores, assim como conversores de plugs 4/6 pinos (onde na
realidade os pinos de energia não são conectados no lado 4 pinos). Existem cabos com
plugs iguais e com plugs diferentes em suas extremidades (em relação ao número de
pinos): 4-4, 4-6 e 6-6 .

O desenho abaixo mostra o interior de um cabo FireWire de 6 fios:

O desenho abaixo mostra o interior de um cabo FireWire de 4 fios, utilizado em


conexões de câmeras digitais:

IEEE-1394a (FireWire 400) especificação proposta pelo 1394 Trade Association


(organização mundial dedicada a pesquisar melhorias para o padrão IEEE-1394) em
2000 para melhorar a performance do tráfego de informações do protocolo FireWire
(IEEE-1394) tradicional de 1995, além de melhorar também o seu gerenciamento de
energia (existem dois tipos de conectores FireWire, um deles, o de 6 pinos, transporta
energia e dados). Nesta especificação 3 velocidades de transferência de dados foram
estabelecidas, 100 Mbps - (Mega = 1 milhão), 100 milhões de bits por segundo, 200
Mbps e a tradicional 400 Mbps. O protocolo IEEE-1394a é totalmente compatível com
o protocolo IEEE-1394 original.

IEEE-1394b (FireWire 800) especificação proposta pelo 1394 Trade Association


(organização mundial dedicada a pesquisar melhorias para o padrão IEEE-1394) em
2002 para aumentar a capacidade da conexão FireWire (IEEE-1394a) tradicional. O

www.therebels.com.br Página 31
Informações técnicas – Sinal de vídeo

volume de dados máximo possível de ser transportado aumentou de 400 Mbps - (Mega
= 1 milhão), 400 milhões de bits por segundo, para 3 níveis, o primeiro com 800Mbps,
o segundo com 1,6Gbps (Giga = 1 bilhão) e o terceiro com 3,2Gbps.

O comprimento máximo do cabo FireWire nesta especificação passou a ser de 100


metros (cabo de fibra óptica plástica) ou mais (cabo de fibra óptica de vidro), extensões
muito maiores quando comparadas aos 4,5 metros do cabo Fire Wire tradicional de fio
de cobre ou os 5 metros do cabo USB 2.0 sem reforço de sinal (o comprimento máximo
depende também do volume de dados transportado por segundo, quanto menor, maior a
extensão possível para o cabo).

Seus conectores utilizam 9 pinos (ao invés dos 4 ou 6 utilizados nos conectores do
protocolo FireWire tradicional). E assim como ocorre no FireWire tradicional, também
aqui existem conversores de plugs, de 9 pinos para 6 ou para 4 pinos. Assim, uma
câmera digital de vídeo, que normalmente possui encaixe para plugs de 4 pinos, pode
com um cabo conversor 4-9 pinos ser conectada a um periférico de computador que
trabalhe com FireWire 800. Dos 9 pinos utilizados, 2 são utilizados para transporte de
energia, da mesma forma que ocorre na versão 6 pinos do protocolo tradicional,
servindo para acionar determinados periféricos de computadores, como câmeras
utilizadas em vídeoconferência e HDs portáteis. Um outro exemplo de uso desta
tecnologia (dados & energia no mesmo cabo) são tocadores de mp3 que conectam-se ao
computador recebendo músicas e carga para suas baterias através de um único cabo
FireWire.

O protocolo IEEE-1394b é totalmente compatível com o protocolo IEEE-1394 proposto


originariamente em 1995 e com sua implementação IEEE-1394a. Sua utilização inicial
restringe-se a equipamentos de informática e algumas aplicações como redes em
estúdios de vídeo por exemplo.

image enhancer equipamento semelhante ao TBC, porém menos preciso e com menor
possibilidade de ajustes.

interlace de imagem quando as linhas exibidas na tela são desenhadas de maneira


alternada, primeiro as pares, depois as ímpares e assim por diante. O sistema de TV
tradicional mostra as linhas neste modo. Já os sistemas de computadores utilizam a
forma non-interlace, onde as linhas são desenhadas na sequência, uma a uma, sem
alternância.

I.R.E. (Institute of Radio Engineers) unidade utilizada para medir o brilho da imagem
na tela. A escuridão total recebe o valor 0 IRE e o branco total, 100 IRE. Um sinal ideal
de vídeo não deve nunca ter intensidade de brilho inferior a 7,5 IRE e nunca superior a
100 IRE - fora destes limites, haverá distorção na reprodução da imagem no monitor.

JPEG (Joint Photographic Experts Group) padrão de codificação / decodificação de


dados utilizado para comprimr / descomprimir imagens fotográficas estáticas. Neste
padrão, a imagem é dividida em quadrados de 8x8 pixels, e através de complexos
cálculos matemáticos é calculada uma cor 'média' para estes 64 pixels. Com isso ocorre
perda de detalhes na compressão. Processos em que isto ocorre são conhecidos como
'lossy'. Existem processos onde não ocorrem perdas ('lossless'), utilizados por exemplo
no padrão GIF (Graphic InterFace, desenvolvido pela Compuserve) de compressão de

www.therebels.com.br Página 32
Informações técnicas – Sinal de vídeo

imagens fotográficas. No entanto padrões como o GIF são apropriados para gráficos por
exemplo e não imagens fotográficas, por que o conjunto de cores tratados por eles (256
cores) é muito menor do o utilizado em padrões como o JPEG.

O tipo de compressão utilizado no padrão JPEG é o intraframe. Quando utilizado


individualmente sobre cada quadro de uma sequencia de imagens de vídeo recebe o
nome MJPEG (Motion JPEG).

LANC (ou Control-L) (Local Application Control) protocolo de comunicação para


edição-linear desenvolvido pela Sony, utilizado em vídeoprodução para controle
remoto, através de um cabo, de determinados dispositivos, como por exemplo VCRs e
câmeras. Introduzido pela Sony juntamente com suas câmeras analógicas de 8 mm (e
mais tarde Hi8), foi um dos protocolos mais populares utilizados em edição linear
voltada para o segmento consumidor e semi-profissional, permitindo que um aparelho
denominado controlador de edição pudesse comandar câmeras não só da Sony como
também da Canon. Sua comunicação é efetuada em duas vias (bidirecional), ou seja,
permite tanto operações do controlador para a câmera ou VCR (PLAY, PAUSE, etc...)
como a transmissão de informações no sentido contrário (posição do tape counter da
câmera ou VCR lida pelo controlador). Utiliza o mesmo conector mini-plug estéreo
usado em aplicações de áudio.

Com o domínio da edição-não-linear deixou de se utilizado nesta função, mas sua


capacidade de controlar remotamente não só as funções básicas de transporte de fita em
uma câmera, mas, principalmente outras como foco e zoom, despertou seu uso para
situações onde esse controle é necessário, como por exemplo em câmeras fixadas na
ponta de gruas. Ainda outra aplicação é em controles de zoom e foco instalados em
alavancas de pan, para câmeras montadas em tripés, como mostra a ilustração abaixo (o
cabo que conecta o dispositivo à entrada LANC da câmera não aparece):

Serviços especializados de assistência técnica usam também essa conexão para obter
dados específicos da câmera, como por exemplo a leitura do contador de giros do
cilindro das cabeças de vídeo da mesma.

linhas (imagem de vídeo) a imagem de vídeo é formada através de uma sequência de


linhas horizontais. Estas linhas são geradas por um dispositivo sensível à luz colocado
dentro das câmeras. Antigamente este dispositivo era um tubo de imagem denominado
vidicon; hoje é um chip denominado CCD. O resultado da leitura do CCD é um sinal

www.therebels.com.br Página 33
Informações técnicas – Sinal de vídeo

analógico que pode, opcionalmente, ser digitalizado logo em seguida ou não, resultando
nos formatos analógicos (VHS por exemplo) e digitais (MiniDV por exemplo).

As figuras abaixo mostram o sinal de vídeo para o padrão NTSC, como é desenhado na
tela de um tubo de imagens (CRT):

A primeira das 3 figuras, à esquerda, mostra a formação das linhas ímpares e o segunda
a formação das linhas pares. O sinal de vídeo trabalha com o processo de alternância
tanto na leitura como na apresentação das linhas porque, quando foi patenteado pela
RCA, em 1929, a camada de fósforo que recobria internamente o CRT possuía tempo
de resposta muito lento (tempo para um determinado ponto da tela ficar luminoso e em
seguida apagar-se) para trabalhar com um novo desenho de linha a intervalos muito
curtos; este fato, associado a outras limitações técnicas época, como restrição na largura
de banda (bandwidth) disponível para efetuar a transmissão do sinal até as residências
levou à criação desse sistema, onde o desenho das linhas é dividido em duas etapas,
linhas ímpares e linhas pares.

Na figura das linhas ímpares, a palavra "início" em azul mostra o ponto de partida da
trajetória do canhão no desenho da imagem no tubo. Ao chegar ao término da primeira
linha, o canhão tem que retornar seu feixe de elétrons para desenhar a segunda linha.
Neste momento o feixe é desligado, enquanto o canhão retorna para iniciar o desenho da
segunda linha, parte da trajetória denominada retrace horizontal, indicada na figura por
uma linha pontilhada. A trajetória do desenho das linhas não é perfeitamente horizontal,
como mostra a figura, sendo ligeiramente inclinada para baixo, ao contrário da trajetória
do retrace horizontal. Na figura, para facilidade de comunicação a inclinação das linhas
foi bastante exagerada. No tubo de imagem de um televisor comum a inclinação não é
percebida devido ao ajuste do mesmo na estrutura do aparelho (inclinação contrária para
compensar). A figura ilustra o que acontece em um tubo de imagem P&B; em um tubo
colorido existem algumas diferenças como a presença de uma máscara de pontos
coloridos e a existência de 3 canhões, mas a forma de desenhar as linhas é a mesma.

São desenhadas 262 linhas e meia (conforme a figura da esquerda); a última linha, de
número 525, é desenhada somente até a metade. A linha verde na figura mostra o
www.therebels.com.br Página 34
Informações técnicas – Sinal de vídeo

movimento de retrace vertical do canhão (com o feixe desligado) até atingir o topo
novamente, porém desta vez no meio da imagem ("fim" em azul na figura). O conjunto
todo destas linhas (incluindo os retraces) leva 1/60 seg. para ser desenhado e recebe o
nome de campo. Neste caso, trata-se portanto do campo ímpar (odd field).

O sinal de vídeo possui, embutido dentro do mesmo, indicações para o canhão de que
uma linha horizontal chegou ao fim ou de que um campo teve seu desenho completado.
Estas informações, denominadas pulsos de sincronismo, permitem que os retraces
sejam efetuados quando necessário.

A figura do meio mostra o desenho do campo par (even field), e a linha vermelha a
trajetória do retrace vertical até a posição de início do campo ímpar. São desenhadas
também 262 linhas e meia, sendo que a primeira linha tem início na metade da tela e
não é contada na numeração das linhas: a primeira do campo par é a linha 2 ("L2" no
desenho). A última linha deste campo é a de número 524. O processo todo também leva
1/60 seg. para ocorrer.

A soma dos dois campos, ilustrado na figura mais à direita recebe o nome de quadro,
sendo portanto desenhado em 1/30 seg. (1/60 + 1/60). Em outras palavras, a cadência de
apresentação das imagens (frame rate) é de 30 quadros por segundo (30qps). Ao término
deste tempo todas as linhas foram desenhadas na tela e o processo reinicia-se
novamente. Neste momento, as linhas do primeiro campo já estão-se tornando quase
que totalmente apagadas (o fósforo vai perdendo luminosidade gradativamente). Com a
criação do processo de alternância no desenho das linhas foi possível atender as
limitações de banda da época e ao mesmo tempo obter-se uma boa resolução na
imagem. Daí originou-se o nome interlaced para este tipo de sinal: o desenho das linhas
é entrelaçado, ou seja, ímpares / pares / ímpares e assim por diante.

Nem todas as 525 linhas disponíveis no sistema NTSC no entanto são visíveis na tela.
Das 262 linhas e meia de cada campo, as últimas 21 linhas são sempre reservadas para
armazenar diversas informações de controle do próprio sinal e outras mais. Assim, tem-
se um total de 483 linhas visíveis, 241 linhas e meia em cada campo (241,5 + 21 =
262,5 para cada campo):

As 9 primeiras linhas do conjunto de 21 armazenam, entre outras informações, os pulsos


de sincronismo vertical (V-Sync) e sinais de equalização. As 12 demais linhas podem
ser utilizadas para o armazenamento de diversas informações, como por exemplo close
caption e Timecode do tipo VITC (Vertical Interval Timecode). São essas linhas não

www.therebels.com.br Página 35
Informações técnicas – Sinal de vídeo

visíveis, sem imagem, que formam a faixa preta que pode ser vista quando o ajuste
vertical do monitor está fora da posição correta, como mostra a figura abaixo:

Em monitores de vídeo é possível visualizar estas 12 últimas linhas através do


acionamento de um botão denominado underscan. Em aparelhos de TVs comuns, não
só as 21 linhas como algumas a mais são escondidas pela máscara que forma a estrutura
do aparelho. Devido à persistência de imagens na retina, o olho humano não percebe
somente 241 linhas e meia na imagem (quando um campo está sendo desenhado o
anterior já está-se apagando) mas sim as 483. Com isso é possível manter-se uma
resolução vertical aparente de 483 linhas que na realidade é de somente 241 linhas.

Os sinais analógicos de vídeo podem ser digitalizados e convertidos para um formato


digital de vídeo, como o DV por exemplo. No formato NTSC DV são desconsideradas 1
linha e meia de cada campo do formato NTSC analógico, resultando em um total de 480
linhas ao invés de 483. As diversas informações de controle existentes nas 21 linhas não
mostradas são mantidas, sendo codificadas e digitalizadas de modo que os
equipamentos que tratam este tipo de sinal digital as entendam. O inverso também pode
ocorrer, quando um sinal digital é convertido para analógico: neste caso as informações
de controle são reconstruídas para entendimento dos equipamentos que tratam sinais
analógicos. Os sistemas PAL e SECAM funcionam de forma semelhante, porém com
número diferente de linhas em cada quadro.

Para facilidade de comunicação, a frequência de apresentação dos quadros no sistema


NTSC é considerada como sendo de 30 quadros por segundo. No entanto o frame rate
preciso é 29,97 e não 30.

uminância brilho, medida da luminosidade total da imagem.

MJPEG algoritmo de compressão / descompressão de dados JPEG utilizado em imagens


fotográficas, porém aplicado ao vídeo, onde cada quadro é comprimido
individualmente.

monitor de forma de onda (waveform monitor) utilizando como fonte geralmente uma
imagem do tipo color bars permite identificar e corrigir problemas referentes ao brilho,
cores e estabilidade da mesma. Analisa a variação de voltagem no sinal de vídeo (1V de
um extremo a outro) exibindo-a graficamente. Aparelhos deste tipo geralmente são
capazes de exibir diversos tipos diferentes de gráficos, propiciando a visualização e
análise de vários aspectos do sinal.

No exemplo abaixo, um monitor de forma de onda exibe o sinal gerado pela imagem
color bars. O tipo de gráfico selecionado exibe metade das linhas do sinal à esquerda e
metade à direita (desenho repetido). No eixo vertical, a intensidade do sinal é medida
em unidades I.R.E.. O pico máximo do branco (o gráfico mostra um sinal corretamente
ajustado) situa-se em 100 I.R.E.. A menor intensidade do sinal (cor preta) é ajustada em

www.therebels.com.br Página 36
Informações técnicas – Sinal de vídeo

7,5 I.R.E.. O eixo horizontal mostra informações de timing do sinal. As faixas cinza
claro verticais (7 em cada lado) representam a intensidade total do sinal ao longo do
eixo horizontal da imagem do color bars.

Diversos usos são possíveis com o aparelho: setup e sincronização de equipamentos em


estúdio, ajustes e verificação de problemas, etc...

O ajuste pode ser efetuado diretamente no equipamento a ser calibrado - conectando-se


sua saída ao monitor de forma de onda - ou ser utilizada a comparação - comparar o
sinal gerado pela fonte com o obtido após a gravação / reprodução em determinado
equipamento. Nesta comparação, também pode ser observado que quanto melhor o
formato de vídeo, mais os dois resultados se aproximarão. Alguns problemas apontados
na análise podem ser corrigidos pelo TBC .

MP@HL um dos tipos de profile@level empregados para classificar tipos de


compressão MPEG2.

MP@LL um dos tipos de profile@level empregados para classificar tipos de


compressão MPEG2.

MPEG (Motion Picture Experts Group) grupo de trabalho formado em janeiro de 1988
para criar padrões internacionais de CODECs (esquemas de compressão /
descompressão - COmpression / DECompression) de áudio e vídeo. Em 1989 era
formalizado o padrão MPEG1, tendo sido aprovado como padrão internacional em
1992. Em 1990 começava a ser concebido um novo padrão para substituí-lo,
denominado MPEG2, tendo sido aprovado em 1994. Novas melhorias, que levariam ao
padrão MPEG3, acabaram por ser incorporadas ao já existente MPEG2, fazendo com
que a sigla MPEG3 não fosse utilizada. Assim, em 1993 começou a ser estruturado o
padrão MPEG4, aprovado em 1998. O grupo ainda desenvolveu a partir de 1997 o
padrão MPEG7, voltado para técnicas facilitadoras de pesquisa de conteúdo de áudio e
vídeo (aprovado em 2002) e atualmente desenvolve o padrão MPEG21, denominado
multimedia framework. Trabalha ainda com outros padrões relacionados ao uso na
prática dos padrões de áudio e vídeo acima mencionados, como o IPMP (Intellectual
Property Management and Protection). O grupo MPEG faz parte da organização ISO -
International Standards Organization.

MPEG1 (Motion Picture Experts Group-1) primeiro padrão criado pelo grupo MPEG
para compressão de imagens de áudio e vídeo previamente digitalizadas. O padrão
MPEG1 começou a ser concebido em julho de 1989, tendo sido aprovado como padrão
www.therebels.com.br Página 37
Informações técnicas – Sinal de vídeo

internacional em 1992. Pequenos vídeos disponibilizados na Internet, discos do tipo


VCD e vídeo distribuído em discos do tipo CD-ROM, todos utilizam este padrão. O
padrão de compressão de áudio MP3 também é MPEG1 (na verdade trata-se do layer 3
do MPEG1, daí seu nome MP3). A taxa de compressão é variável (um mesmo padrão,
como o MPEG1, pode ser utilizado para comprimir mais ou comprimir menos o
conteúdo original), podendo atingir algo em torno de 200:1 (o original comprimido fica
com tamanho 200 vezes menor). No entanto, com esta taxa máxima as imagens
dificilmente podem ser assistidas: toda compressão introduz no resultado final pequenas
distorções na imagem (denominadas artefatos de compressão), presentes em maior ou
menor número, dependendo da qualidade do algoritmo de compressão utilizado (ex. o
algoritmo MPEG2 é melhor do que o MPEG1) e da taxa de compressão utilizada (maior
ou menor compressão). Assim, a maioria dos vídeos comprimidos com MPEG1 utiliza
compressão menor do que 50:1 . Mesmo com essa taxa, a resolução horizontal obtida
após a compressão é baixa: cerca de 320 linhas - semelhante à do formato VHS. A
compressão utilizada é do tipo multi-frame.

MPEG2 (Motion Picture Experts Group-2) segundo padrão criado pelo grupo MPEG
para compressão de imagens de áudio e vídeo previamente digitalizadas. O padrão
MPEG2 começou a ser concebido em julho de 1990, pelo grupo MPEG, em conjunto
com o grupo Video Coding Experts do ITU-T (International Telecommunication
Union), tendo sido aprovado como padrão internacional em 1994. É conhecido dentro
da comunidade ITU-T também como H.262, o nome do projeto dentro desse grupo.
Discos do tipo DVD e transmissão digital de TV utilizam este padrão. É um padrão
mais avançado do que o MPEG1 produzindo uma imagem de melhor qualidade do que
este. A taxa de compressão, assim como no MPEG1 também é variável (um mesmo
padrão, como o MPEG2, pode ser utilizado para comprimir mais ou comprimir menos o
conteúdo original); normalmente utilizam-se valores em torno de 40:1 (o original
comprimido fica com tamanho 40 vezes menor). Essa taxa é um pouco maior do que a
utilizada geralmente com MPEG1 (valores menores do que 50:1), no entanto o que
diferencia a qualidade da imagem obtida não é somente a taxa de compressão e sim o
processo (algoritmos) utilizado. No caso, o padrão MPEG2 é muito mais eficiente em
comprimir sem perda aparente de qualidade do que o MPEG1. Por outro lado, isso
exige um esforço computacional bem mais intensivo no processo, exigindo um
hardware mais potente do que o exigido no uso do MPEG1. A resolução horizontal
obtida após a compressão é superior à do formato VHS. A compressão utilizada é do
tipo multi-frame. Devido ao processo de montagem dos GOPs utilizados pela técnica
multi-frame, é muito mais trabalhoso comprimir um conteúdo MPEG2 do que
descomprimí-lo.

MPEG2-TS (MPEG2 Transport Stream) no formato HDV, é o tipo de sinal gravado


pela câmera na fita. Da mesma forma que no formato DV, onde o sinal gravado nas fitas
(tipo "DV") não pode ser editado diretamente na edição-não-linear, tendo que ser
convertido na fase de captura (para o tipo " .avi " por exemplo) para poder ser
manipulado no computador, o mesmo ocorre no formato HDV. Neste caso, o sinal
MPEG2-TS é convertido para a forma MPEG2 Program Stream ou então para um
arquivo do tipo " .avi ".

MPEG4 (Motion Picture Experts Group-4) padrão criado pelo grupo MPEG para
compressão de imagens de áudio e vídeo previamente digitalizadas. O padrão MPEG4
começou a ser concebido em julho de 1993, tendo sido aprovado como padrão

www.therebels.com.br Página 38
Informações técnicas – Sinal de vídeo

internacional em 2000. Vários vídeos transmitidos pela Internet fazem uso deste padrão,
assim como telefones celulares que utilizam imagens. Também é utilizado em diversos
padrões de transmissão de TV digital, especialmente os de alta definição (HDTV) em
sua versão AVC, como visto adiante. Assim como o padrão MPEG1 e MPEG2, o
MPEG4 permite o uso de diferentes "profiles", estabelecendo valores diversos de taxas
de compressão, conforme a aplicação a ser efetuada (em outras palavras, tem-se um
mesmo padrão sendo utilizado para comprimir mais ou comprimir menos o conteúdo
original). No entanto, ao contrário do MPEG2, cuja qualidade é mais ou menos fixa em
torno do padrão DVD-Vídeo de qualidade, para o MPEG4 essa variação é bem maior:
uma gama muito grande de valores pode ser utilizada, permitindo a visualização das
imagens do vídeo não importando a capacidade do meio de transmissão (Internet de
banda larga ou linha discada por exemplo). É por este motivo, entre outros, que sistemas
de transmissão de HDTV o tem escolhido como padrão de codificação, como alternativa
ao MPEG2.

O esforço computacional despendido na manipulação de vídeos no formato MPEG4 é


ainda maior do que o exigido no formato MPEG2, o que exige um hardware também
mais potente. O MPEG4 é um padrão mais avançado do que o MPEG2: além da
melhoria nos processos de compressão, que se traduzem em arquivos comprimidos com
tamanho muito menor sem perda aparente de qualidade, permite também o uso de
outros tipos de mídia interagindo com o vídeo (como textos e fotos digitais por
exemplo), acionados através de menus inteligentes. Estes menus, ao contrário dos
menus de DVDs de filmes por exemplo, que ao serem acionados são sempre mostrados
ocupando toda a tela com o aparelho retornando ao início do disco, podem ser exibidos
da forma que o criador do vídeo quiser - embutido dentro da tela de um laptop que surge
durante o filme por exemplo. Isso porque a interatividade não é dependente do aparelho
reprodutor do vídeo, e sim faz parte do próprio vídeo, seus comandos são codificados
juntamente com as imagens e não em um capítulo separado dedicado ao menu.

MPEG4, assim como MPEG1 e MPEG2, são na verdade nomes dados a um conjunto de
diversos tópicos denominados "parts". Cada parte aborda um aspecto diferente do
padrão. Assim por exemplo, no MPEG4 a parte 1 descreve a sincronização de áudio e
vídeo, a parte 2 o processo de compressão das imagens, a parte 3 o processo de
compressão do áudio, a parte 4 procedimentos para verificar a conformidade de
determinada amostra com outras partes do padrão, a parte 5 software para demonstrar e
ilustrar determinadas partes do padrão e assim por diante. A parte 10 do padrão foi
incluída quando uma versão mais otimizada da parte 2 (compressão de vídeo) foi
desenvolvida. Esta parte recebeu o nome AVC (Advanced Video Coding). Também
ficou conhecida como H.264, porque este foi o nome dado pelo grupo Video Coding
Experts do ITU-T (International Telecommunication Union), que o desenvolveu
conjuntamente com o grupo MPEG.

A organização ISO (International Standards Organization) definiu em 2002 o programa


QuickTime da Apple como padrão para distribuição de conteúdo de vídeo em MPEG4.
A resolução horizontal obtida após a compressão é variável, podendo ser ajustada para
diversos níveis de qualidade, desde ligeiramente inferior à do formato VHS até
equivalente à do formato DVD. A compressão utilizada é do tipo multi-frame.

MPEG4 Part-10 o mesmo que AVC.

www.therebels.com.br Página 39
Informações técnicas – Sinal de vídeo

non-interlace o oposto de interlace de imagem.

NTSC (National Televison Standards Committee) padrão definido por uma associação
entre um comitê com este nome, emissoras de TV e fabricantes de receptores, nos EUA,
no início dos anos 50, originalmente especificando como imagens em preto e branco
deveriam ser transmitidas analogicamente de um ponto a outro. O espectro de altas
frequências VHF havia sido dividido em 13 canais em 1945 pelo US Federal
Communications Commission, determinando com isso um tamanho máximo de banda
para cada um. Os engenheiros deste comitê tiveram então de criar especificações que
fizessem com que a quantidade de informação transmitida coubesse no espaço destinado
a cada canal.

Assim, foi estabelecido que a frequência de troca de quadros na imagem seria de 60/seg,
igual aos 60 Hz (ciclos/seg) utilizados na corrente elétrica nos EUA, a quantidade de
linhas na tela 525, a resolução horizontal 330 linhas e o sinal monoaural. Como a
largura de banda disponível não era suficiente para transmitir uma imagem completa,
com todas as linhas, 60 vezes por segundo, optou-se por dividi-la em 2 partes, uma com
as linhas pares e outra com as ímpares, mostradas alternadamente, a cada 1/60 seg -
conceito denominado interlace de imagem - fato para o olho humano imperceptível.

No início da década de 60 o padrão NTSC foi implementado, tendo sido acrescentadas


as especificações para imagens coloridas. Como não havia espaço para aumentar a
banda disponível para acrescentar as informações de cor, os engenheiros do comitê
criaram um segundo sinal, específico para cor, misturado de forma codificada ao
primeiro, destinado à luminância, criando assim um sinal composto. O requisito básico
era que o sinal de luminância deveria permanecer inalterado com esta modificação, para
permitir que antigos televisores em preto e branco continuassem a captar a mesma
imagem de antes.

Além disso, o frame rate utilizado teve que ser modificado de 30qps para 29,97qps por
uma série de questões de engenharia exigidas na mistura dos sinais de cor no de
luminância acima descrita. Enquanto a mudança não afetava de maneira perceptível a
imagem dos televisores P&B, era exigida para os novos aparelhos coloridos. Isso fazia
com que o ajuste da frequência de desenho das imagens na tela baseada no sincronismo
com a corrente elétrica que entrava pelo fio do aparelho conectado à tomada não era
mais possível, exigindo técnicas mais elaboradas e dispendiciosas para ser realizado.
Mas então a eletrônica já estava bem mais desenvolvida e avançada do que na época do
surgimento da TV P&B, o que possibilitou a realização desta mudança.

A forma como os sinais foram misturados apresentava no entanto muitas vezes falhas
nas cores, como enfraquecimento em determinados pontos, mistura com partes de outra
cor e supersaturação de determinadas cores - principalmente o vermelho. A ausência de
indicação de referência absoluta no sinal de cor ( x % de azul, mas em relação a qual
padrão de azul?) deixava os aparelhos livres para reproduzir as cores conforme seus
ajustes individuais (receptores colocados lado a lado mostravam a mesma cor com tons
diferentes); para ajustá-los eram necessários recursos como color bars e vetorscópios
por exemplo. Como melhoria deste padrão, foi proposto o padrão PAL, no final dos
anos 60. Mais tarde, dentro do possível permitido pelas restrições já estabelecidas nas
especificações de engenharia do sinal, diversas modificações foram feitas, propiciando a
minimização dos defeitos acima descritos.

www.therebels.com.br Página 40
Informações técnicas – Sinal de vídeo

Posteriormente, em 1986, o padrão NTSC foi novamente implementado, com o som


estéreo, as legendas para surdos embutidas no sinal e o sinal de som multi-língue SAP.

Alguns países que utilizam NTSC: Bahamas, Barbados, Bermudas, Bolívia, Cambodja,
Canadá, Chile, Colômbia, Coréia, Costa Rica, Cuba, El Salvador, Equador, Estados
Unidos, Filipinas, Guatemala, Honduras, Japão, México, Panamá, Peru, Porto Rico,
República Dominicana, Suriname, Trinidade e Tobago, Venezuela.

(Obs. em alguns poucos países há mais de um padrão em uso, geralmente um oficial e


outro introduzido por novos serviços de TV a cabo ou utilizado para recepção de sinal
proveniente de países vizinhos, em locais próximos às fronteiras. Ainda em outros
países existe diferença de padrão quando a transmissão / recepção é feita em VHF ou
UHF; no Brasil em ambos sistemas o padrão é o mesmo, PAL-M).

O sinal de um sistema geralmente não é compatível com outro: dependendo do sistema,


uma fita gravada em PAL por exemplo pode não apresentar imagem alguma em um
VCR do sistema SECAM por exemplo, ou mostrar imagens em preto e branco.

osciloscópio equipamento que mostra em uma tela um gráfico representando a variação


de voltagem de um sinal elétrico em função de um determinado intervalo de tempo.
Pode ser utilizado em vídeo produção para avaliar e calibrar equipamentos. Existem no
entanto osciloscópios construídos especificamente para este fim, como o monitor de
forma de onda (waveform monitor) - estes sim, comumente utilizados.

P-frame (predicted frame) tipo de quadro utilizado na montagem dos GOPs de


compressões multi-frame como a MPEG2 por exemplo.

PAL (Phase Alternate Lines) padrão criado na Alemanha no final dos anos 60, para
eliminar vários problemas existentes no padrão NTSC referentes à reprodução de cor,
invertendo-se a fase do sinal de cor para linhas alternadas na tela. A reprodução de cores
resultou mais precisa do que no padrão NTSC e o sistema foi adotado em vários países
do mundo, exceto os já comprometidos com investimentos no sistema NTSC.

Neste países a corrente elétrica alternada era gerada em 50 ciclos/seg (ao invés de 60,
como nos EUA), por isso a frequência de mudança de campos foi especificada como 50
e não 60, sendo as imagens transmitidas a 25 quadros/seg ao invés de 30/qps (frame
rate). Esta redução na cadência de mudança das imagens faz com que as mudanças
sejam um pouco mais 'visíveis' do que no padrão NTSC - a imagem 'pisca' mais.

Há um único país onde este problema não ocorre, o Brasil, porque a corrente utilizada é
de 60 ciclos/seg - e portanto as imagens são transmitidas com frequência de 30
quadros/seg.

Nos sistemas PAL de 50 ciclos, para compensar a perda na qualidade visual ao mostrar-
se 25 quadros/seg a quantidade de linhas na tela foi ampliada: estes sistemas mostram
625 linhas ao invés das 525 do sistema NTSC - a imagem aparenta-se mais nítida e
definida. Há outros fatores também no sinal PAL que o tornam superior ao NTSC:
maior contraste obtido nas imagens (a parte do sinal que controla esta característica é
mais abrangente) e maior detalhamento geral, por sobrar mais espaço de banda para a

www.therebels.com.br Página 41
Informações técnicas – Sinal de vídeo

luminância uma vez que o sinal de cor ocupa menos espaço por utilizar frequência
maior do que no NTSC.

A alternância de fase no sinal de cor exige mais campos para completar-se o ciclo
completo de cor, limitando ligeiramente a precisão dos equipamentos de edição neste
sistema em relação ao NTSC. Também em relação ao NTSC os sistemas PAL de 625
linhas ficam mais sujeitos a interferências em transmissões de um equipamento a outro,
devido a requerer maior banda. Outro problema frequente é a saturação das cores,
muitas vezes fugindo do original. Na mesma época em que o padrão PAL era
desenvolvido, também era criado o padrão SECAM.

O padrão PAL não é exatamente idêntico nos diversos países onde é adotado: ligeiras
variações em suas características básicas diferenciam um padrão de outro e para
identificá-los são adotados sufixos conforme o subtipo de PAL: PAL-M, PAL-N, PAL-
D, PAL-I, PAL-B, PAL-G e PAL-H.

Destes, PAL-D, PAL-I, PAL-B, PAL-G e PAL-H são todos todos essencialmente o
mesmo PAL, com as mesmas especificações (resolução vertical de 625 linhas, frame
rate de 50qps, etc..); o que os diferencia é o modo como o sinal é modulado para ser
transmitido para as residências. Desta forma, televisores de países que utilizam esses
padrôes devem estar preparados para receberem um (ou mais de um, como é comum em
televisores do continente europeu) desses tipos de sinais para poderem exibir as
imagens. Os sinais de vídeo desses padrões são gravados de forma idêntica em uma fita
/ disco (diz-se abreviadamente que o conteúdo está gravado em PAL). Assim, não
necessitam conversão de um padrão para outro (não existem aparelhos conversores de
padrão PAL-G para PAL-H por exemplo). No entanto, é necessária a conversão para os
padrões PAL onde as características de resolução vertical e frame rate sejam diferentes,
como o PAL-N e o PAL-M. Desta forma, pode-se dividir os padrões PAL em 3 tipos
(PAL / PAL-N / PAL-M), sendo que no caso do PAL, existem subdivisões utilizadas
somente para broadcast (transmissão). Um VCR ao gravar um sinal recebido da TV
aberta em PAL-B gravará conteúdo idêntico a outro fazendo o mesmo a partir de um
sinal PAL-G: ambos serão gravados em PAL. Já um VCR gravando sinal PAL-N e um
gravando sinal PAL-M gravarão sinais diferentes, PAL-N e PAL-M respectivamente.

Alguns países que utilizam PAL: Açores, Afeganistão, África do Sul, Albânia,
Alemanha, Algéria, Angola, Argentina, Austrália, Áustria, Bangladesh, Bélgica,
Botswana, Camarões, China, Dinamarca, Emirados Árabes, Espanha, Etiópia,
Finlândia, Gâmbia, Gibraltar, Grécia, Hong Kong, Ilhas Canárias, Índia, Indonésia,
Irlanda, Itália, Iugoslávia, Jordânia, Israel, Kuwait, Libéria, Luxenburgo, Madeira,
Malásia, Malta, Namíbia, Nepal, Nova Zelândia, Paquistão, Paraguai, Portugal, Reino
Unido, República Tcheca, Romênia, Serra Leoa, Singapura, Somália, Sudão, Suécia,
Suíça , Tailândia, Tanzânia, Turquia, Uganda, Uruguai, Vietnam, Yemen, Zâmbia,
Zimbabwe.

(Obs. em alguns poucos países há mais de um padrão em uso, geralmente um oficial e


outro introduzido por novos serviços de TV a cabo ou utilizado para recepção de sinal
proveniente de países vizinhos, em locais próximos às fronteiras. Ainda em outros
países existe diferença de padrão quando a transmissão / recepção é feita em VHF ou
UHF; no Brasil em ambos sistemas o padrão é o mesmo, PAL-M).

www.therebels.com.br Página 42
Informações técnicas – Sinal de vídeo

O sinal de um sistema geralmente não é compatível com outro: dependendo do sistema,


uma fita gravada em PAL por exemplo pode não apresentar imagem alguma em um
VCR do sistema SECAM por exemplo, ou mostrar imagens em preto e branco.

PAL-B variação do padrão PAL, utilizando 5,0 Mhz como largura de banda ; muito
semelhante ao PAL-G e PAL-H ; alguns países que o utilizam: Alemanha, Açores,
Albânia, Algéria, Austrália, Áustria, Bangladesh, Bélgica, Camarões, Dinamarca,
Espanha, Etiópia, Finlândia, Índia, Indonésia, Israel, Itália, Jordânia, Kuwait, Libéria,
Madeira, Malásia, Malta, Nepal, Nigéria, Nova Zelândia, Paquistão, Portugal,
Singapura, Sudão, Suécia, Suíça, Tailândia, Tanzânia, Turquia, Uganda, Vietnam,
Zâmbia, Zimbabwe.

PAL-D variação do padrão PAL, utilizando 6,0 Mhz como largura de banda (em alguns
tipos como PAL-M e PAL-N a largura é menor); alguns países que o utilizam: China,
Romênia.

PAL-G variação do padrão PAL, utilizando 5,0 Mhz como largura de banda ; muito
semelhante ao PAL-B e PAL-H ; alguns países que o utilizam: República Tcheca,
Suécia e Suíça (em UHF).

PAL-H variação do padrão PAL, utilizando 5,0 Mhz como largura de banda ; muito
semelhante ao PAL-B e PAL-G ; alguns países que o utilizam, em UHF: Gibraltar,
Libéria, Malta.

PAL-I variação do padrão PAL, utilizando 5,5 Mhz como largura de banda ; alguns
países que o utilizam: África do Sul, Angola, Botswana, Gâmbia, Irlanda, Namíbia,
Reino Unido (em UHF).

PAL-M variação do padrão PAL, utilizando 30 quadros por segundo ao invés de 25 e


525 linhas ao invés de 625; utilizado somente no Brasil.

PAL-N variação do padrão PAL, utilizando 4,2 Mhz como largura de banda (a mesma
do PAL-M): nos demais tipos a largura é maior; alguns países que o utilizam:
Argentina, Paraguai.

PAL60 (Pseudo-PAL ou Quasi-PAL) Televisores do sistema PAL não podem


reproduzir imagens do sistema NTSC; para contornar o problema, foi criado um sistema
híbrido denominado PAL60. Diferente do sistema PAL-M, embora com as mesmas
características de frame rate (60 campos entrelaçados por segundo, formando 30
quadros) e resolução vertical (525 linhas), o sinal para este sistema é gerado através de
um circuito eletrônico colocado no interior de VCRs ou DVD players, no momento em
que reproduzem uma fita ou DVD gravados no sistema NTSC. Os aparelhos (VCRs /
DVDs players) que geram sinal no modo PAL60 foram desenvolvidos para uso em
locais onde o sistema utilizado é um dos sistemas PAL. Como os televisores em uso
nesses países não aceitam sinal no modo NTSC, esta é uma forma de se permitir a
visualização de fitas e discos gravados neste sistema. É necessário que o aparelho de TV
aceite no entanto o modo PAL60, mas como a maioria dos televisores dos sistemas PAL
mais recentes aceita também este tipo de sinal, é possível haver neste caso uma certa
padronização entre os diversos tipos de PAL existentes. O padrão de formatos

www.therebels.com.br Página 43
Informações técnicas – Sinal de vídeo

estabelecidos para DVD players prevê a geração de sinais nos sistemas NTSC e PAL60.
O PAL60 é utilizado sobretudo nos países europeus.

Uma alternativa ao modo PAL60 é o uso de VCRs e DVD players que convertem o
sinal de fitas e discos NTSC para um dos sistemas PAL (como um VCR que lê uma fita
NTSC e converte o sinal de saída para o sistema PAL-M, permitindo a conexão com um
televisor neste sistema).

Outra alternativa é o uso de VCRs e DVD players emitindo o sinal de vídeo no sistema
NTSC, conectados a televisores que também aceitem sinais neste sistema.

profile@level o padrão de compressão de áudio/vídeo MPEG2 foi concebido para


abranger uma gama muito grande de aplicações: assim, um mesmo conteúdo pode ser
codificado em MPEG2 de diferentes maneiras. Um exemplo é a taxa variável de
compressão que pode ser utilizada durante a fase de geração do arquivo, resultando em
vídeos com qualidade diferente de imagem. Para organizar as diversas características
das formas de implementação do MPEG2 foi criada uma representação hierárquica,
empregando os termos "profile" e "level", cujos valores são separados por "@", na
forma "aaa@bbb".

Assim por exemplo, a profile "SP" (Simple Profile) estabelece que o conteúdo seja
comprimido utilizando somente os P-frames e os I-frames dos GOPs do string MPEG2
e que a taxa de sampling do sinal seja 4:2:0. Já a profile "MP" (Main Profile) estabelece
que o conteúdo seja comprimido utilizando todos os frames (P-frames , I-frames e
B-frames) e que a taxa de sampling seja também 4:2:0. Existem outras profiles
intermediárias, e a profile de maior qualidade é a "HP" (High Profile), que utiliza todos
os frames com sampling 4:2:2.

Os levels estabelecem outras características, como a quantidade de pixels por linha, a


quantidade de linhas por quadro e o bit rate do sinal comprimido. Assim por exemplo, o
level "LL" (Low Level) estabelece 352 pixels/linha (em uma resolução horizontal
semelhante à do formato analógico VHS, o que mostra que não necessariamente
"MPEG2" significa conteúdo com excelente resolução), com 288 linhas/quadro e bit
rate de 4 Mhz. Já o level "ML" (Main Level) estabelece 720 pixels/linha com 576
linhas/quadro e bit rate de 15 MHz. O maior é o "HL" (High Level), com 1920
pixels/linha e 1152 linhas/quadro (características de imagens HD), com 80 MHz de bit
rate.

Desta forma, encontram-se diversas combinações de "profile@level" em aplicações que


empregam imagem com compressão MPEG2, e o quadro a seguir exemplifica algumas
aplicações mais comuns:

proporção da imagem o formato (aspect ratio) tradicional da tela da TV é 4:3


(proporção das dimensões horizontal x vertical, também referida como 1,33:1) . No

www.therebels.com.br Página 44
Informações técnicas – Sinal de vídeo

novo padrão HDTV a proporção é mais parecida com as utilizadas em cinema, (16:9) .
Para exibição de filmes na proporção original com que foram captados (OAR - Original
Aspect Ratio) no sistema atual de TV utiliza-se um processo denominado widescreen
(ou letterbox).

quadro conjunto formato por 2 campos, um constituído pelas linhas pares e outro pelas
ímpares. A cadência de quadros/segundo gravada/mostrada na tela varia conforme o
padrão de transmissão utilizado: PAL, NTSC, SECAM.

RCA (imagem) (Recording Corporation of America) tipo de conector utilizado


normalmente em cabos que transmitem sinal de vídeo do tipo composto. Existe uma
convenção de cor para este tipo de plug - amarelo - para diferenciá-lo dos plugs do
mesmo tipo utilizados com sinal de som:

RGB (Red, Green, Blue) tipo de sinal em que as informações de cor são transmitidas de
modo separado, em 3 componentes, vermelho, verde e azul (o cabo que carrega este
sinal possui um fio exclusivo para cada uma destas cores básicas). Estas cores são as
cores básicas do modelo de cor RGB.

resoluçao (geradores de caracteres) a resolução horizontal medida em linhas não é


utilizada em equipamentos do tipo geradores de caracteres. Ao invés deste tipo de
medida, é analisado quantas vezes por segundo o aparelho é capaz de alternar o seu
sinal de saída de luminância.

Imaginando-se uma linha sendo desenhada na tela da TV, da esquerda para a direita,
com a imagem de uma cerca (alternância de linhas verticais claras e escuras), durante o
tempo em que a mesma leva para ser desenhada na tela, se a cerca tiver 100 estacas
haverá 100 alternâncias claro-escuro no sinal correspondente ao desenho desta linha. Se
forem 300 estacas, a frequência de alternância naquele mesmo tempo será maior.
Quanto mais linhas, melhor a resolução horizontal. Como o padrão NTSC desenha cada
quadro de 525 linhas em 1/30 seg. e portanto cada campo de 262 linhas e meia em 1/60
seg., temos que 1/60 = 0,016666 seg. (tempo que 262 linhas e meia levam para serem
desenhadas) e então 0,016666 / 262,5 = 0,000063 seg. (tempo que cada linha leva para
ser desenhada na tela). Isto equivale a 63 seg. / 1 milhão, ou seja, 63 milhonésimos de
segundo.

A resolução horizontal de geradores de caracteres é expressa em nanosegundos, ou seja,


1 seg. / 1 bilhão. Assim, se determinado equipamento possui como especificação 35
nanosegundos de resolução, quantas vezes mais rápido do que o tempo de desenho de
uma linha ele conseguir alternar a imagem de claro para escuro será o número máximo
de linhas verticais desenhadas. Multiplicando-se 63 por 1000 tem-se o tempo de
desenho de cada linha expresso também em bilhonésimos de segundo. Assim, fazendo-
se 63000 / 35 = 1800 linhas, que é a resolução horizontal do gerador de caracteres.

resolução horizontal medida em linhas. Se a câmera estiver apontada para uma cerca,
quanto mais estacas verticais próximas umas das outras a cerca possuir, mais estacas

www.therebels.com.br Página 45
Informações técnicas – Sinal de vídeo

aparecerão na tela do monitor de vídeo / aparelho de TV. No entanto, aumentando a


quantidade de estacas, cada vez ficará mais difícil distinguí-las umas das outras - isto
depende da capacidade maior ou menor do equipamento mostrar individualmente finos
traços verticais na imagem. A resolução horizontal mede o número máximo de 'estacas' ,
ou seja, de traços verticais que é possível distinguir em uma dada imagem. Em outras
palavras, quanto maior a capacidade de um dado sistema de imagem de representar
linhas verticais distintas, maior será sua resolução horizontal (e portanto melhor a
qualidade da imagem) .

A resolução horizontal depende também do formato de vídeo utilizado. Diferentes


formatos de vídeo oferecem resoluções máximas horizontais distintas (ex.: VHS - 240
linhas, SVHS - 400 linhas, etc...) ocorrendo o mesmo com diferentes equipamentos
dentro de um mesmo formato (câmeras profissionais variam de 500 a 700 linhas no
formato SVHS p.ex.). A resolução horizontal de imagens transmitidas por estações de
TV é de cerca de 330 linhas. Embora uma fita VHS comum seja capaz de exibir
somente 240 linhas e a programação da TV somente 330, imagens capturadas com
câmeras com maior número de linhas (700 por exemplo) apresentam resultado final em
240 / 330 linhas muito melhor do que as capturadas com câmeras com menor resolução,
isto porque no processo de edição (sucessivas cópias para montagem final) há também
sucessivas perdas na qualidade da imagem (degradação de imagem). Assim, iniciando-
se com um original melhor o resultado final também será melhor.

A avaliação (contagem) do número de linhas horizontais mostradas pode ser obtida


apontando-se a câmera para uma figura especial denominada chart de resolução.

A resolução horizontal é um tipo de resolução aplicado à imagens digitais


correspondente à etapa de armazenamento das informações captadas pela câmera.

resolução média medida em linhas: estudos mostram que na prática a resolução real
observada no monitor / aparelho de TV é menor do que a obtida nas medições (
resolução horizontal / resolução vertical ) porque na maioria das vezes a imagem
observada está em movimento.

Assim, para resolução vertical, supondo a imagem de uma escada sendo vista através
das lâminas de uma persiana (linhas verticais da imagem) podemos imaginar que os
degraus desta escada coincidam exatamente com as frestas da persiana; deste modo, o
número máximo de degraus observáveis coincide com o número de frestas, que é igual
ao número de linhas na tela. Porém, se o observador mover sua cabeça ao longo de um
eixo vertical para cima ou para baixo, passará em uma dada posição a não enxergar mais
os degraus, encobertos que estarão pelas lâminas da persiana. Na imagem da TV ocorre
processo parecido, pois a mesma é formada por linhas horizontais, ou seja, entre elas há
espaços sem imagem - as palhetas da persiana - intercalados com espaços com imagem -
as frestas da persiana - e quem se move não é a cabeça do expectador e sim a própria
imagem. Matemáticos concluiram, após cálculos estatísticos, que na persiana hipotética,
em média 70% dos degraus da escada observada sempre seriam vistos,
independentemente da posição do observador. Transpondo este cálculo para a TV, as
483 linhas do padrão NTSC poderiam mostrar na realidade uma resolução real de 483 x
0,7 = 338 linhas.

www.therebels.com.br Página 46
Informações técnicas – Sinal de vídeo

Para resolução horizontal ocorre situação análoga: supondo a imagem de uma cerca
sendo vista pela câmera, se esta cerca possuir dentro da área exibida tantas estacas
quanto o número de pixels existentes em cada linha do CCD, só será possível contá-las
se estas coincidirem exatamente com os mesmos. Assim, o mesmo fator 0,7 se aplica.
Porém, para resolução horizontal, após ter sido a mesma multiplicada pelo fator 0,7
deve ser o resultado obtido multiplicado ainda a seguir por 0,75 . Isto porque
convenciona-se medir a resolução em um quadrado de imagem (mesmas dimensões de
altura / largura), e a imagem na TV possui proporção 4:3 .

Existe uma regra prática para calcular-se a resolução média horizontal de um CCD .
Dada a quantidade de pixels no mesmo (ex. 380.000), subtrai-se 8% deste total a título
de perdas (imagem situada fora das bordas do monitor), logo tem-se 304.000 pixels.
Dividindo-se por 483 linhas (resolução vertical), obtém-se 629 pixels por linha.
Multiplicando-se pelo fator 0,7 obtém-se 440 linhas, que multiplicadas a seguir por 0,75
resultam 330 linhas. Esta é uma resolução teórica, porque o resultado final não depende
somente do CCD e sim também de vários outros fatores ( lentes, circuito eletrônico,
etc...) .

resolução vertical medida em linhas. A imagem em vídeo é exibida como se olhássemos


a cena de uma rua através de uma persiana ajustada para abertura quase total de suas
lâminas horizontais, ou seja, numa sequencia de faixas horizontais, denominadas linhas.
Nos sistemas NTSC e PAL-M tem-se um total de 525 linhas (outros sistemas possuem
números diferentes: SECAM e PAL-G possuem 625 por exemplo). Esta quantidade de
linhas é portanto fixa dentro de um mesmo sistema/país, não variando com a qualidade
do equipamento utilizado. No entanto, nem todas estas linhas são exibidas na tela do
monitor / aparelho de TV: no sistema NTSC por exemplo, 42 linhas são reservadas para
conter informações que orientam o desenho das imagens na tela, como por exemplo a
que diz que o feixe de elétrons do monitor deve retornar à parte superior esquerda da
mesma para iniciar o desenho de uma nova imagem. Estas linhas especiais, não exibidas
normalmente, compõem um bloco negro (faixa horizontal) que pode ser visto rolando
verticalmente pela tela quando o ajuste vertical do monitor não está correto. Assim,
restam 483 linhas, que é o número máximo que um aparelho de TV pode exibir no
sistema NTSC.

rf, sinal ao contrário do sinal do tipo composto, neste tipo de sinal as informações de
imagem, já reunidas em um único sinal, são combinadas com o sinal de som, gerando
um novo único sinal. Posteriormente (no momento da exibição por exemplo) estes
sinais são novamente separados. A transformação acaba acarretando bastante perda de
qualidade devido a interferências e distorções geradas no processo, onde os sinais
recuperados na separação não são exatamente idênticos ao que eram na fase de
codificação em sinal único. Este tipo de sinal é enviado às torres transmissoras de TV e
captado por antenas comuns nas residências. Opcionalmente, além de ser enviado à
torres transmissoras terrestres é também enviado a satélites retransmissores, podendo
então ser captado por antenas parabólicas.

S/N (vídeo) (Signal-To-Noise Ratio ou SNR) indicação do quanto de 'ruído' (imagem


granulada) uma imagem de vídeo possui, expressa em decibéis (dB). Esta indicação é
calculada através do valor da voltagem máxima atingida pelo sinal dividido pelo valor
residual da voltagem que permanece quando o sinal é removido - ou seja, a quantidade
de ruído no mesmo.

www.therebels.com.br Página 47
Informações técnicas – Sinal de vídeo

A escala dB é uma escala logaritmica; em termos práticos diz-se que o valor de S/N
dobra a cada 3dB de diferença entre o valor da voltagem do sinal e o valor da voltagem
do ruído. Assim, se o valor da voltagem do ruído for, em um dado sistema, igual a 0dB
e a do sinal for 3dB, a intensidade do sinal será 2x maior do que a do ruído. No mesmo
exemplo, se o sinal for 6dB, ele será 4x mais intenso que o ruído. E assim por diante:
9dB, 8x mais intenso, 12dB, 16x mais intenso, etc...

A indicação do valor de S/N é exibida (significando a mesma coisa) tanto na forma "-
dB" (sinal negativo na frente) como na forma "dB"

Geralmente os valores produzidos situam-se em torno de 38dB a 42dB. De maneira


geral, quanto maior esse valor, melhor a imagem. Sinais considerados como de
excelente qualidade geralmente situam-se acima de 54dB.

Este tipo de indicação é utilizado para medir e comparar a qualidade do sinal produzido
pelas câmeras de vídeo.

sampling no processo de digitalização, um sinal analógico é convertido para digital


através de um processo denominado 'sampleamento' , do inglês 'sample', amostra. O
sinal analógico é composto basicamente por uma onda, cuja variação de amplitude
traduz as informações nela contidas. O processo de sampleamento consiste em obter
medidas - amostras - em intervalos regulares, do valor da amplitude da onda. Se uma
sucessão de montanhas de diversas alturas representasse a parte superior da onda, se
tomássemos medidas sucessivas a cada 10 metros ao longo da extensão da cadeia de
montanhas da altura da montanha em relação a sua base e posteriormente marcássemos
em um papel quadriculado estes valores, teríamos a representação aproximada do
contorno das montanhas.

Assim, é possível representar em números (informação digital) uma onda (informação


analógica). Como as medidas foram tomadas em intervalos de 10 metros, teremos na
representação em papel o contorno desenhado parecido com degraus sucessivos, para
cima e para baixo. Se diminuirmos o intervalo entre as medidas para 5 metros, o
contorno ficará mais fiel ao original. Diminuindo ainda mais a aproximação com a
realidade será maior. Desta forma, quanto maior for a quantidade de amostras, melhor:
diz-se, quanto maior for a taxa de sampleamento, melhor a qualidade do resultado
digitalizado.

As lentes da câmera projetam sobre a superfície do CCD uma determinada imagem, que
é segmentada em uma quantidade imensa de pixels: quanto maior esta quantidade,
maior a resolução da imagem. A seguir, o processo de sampling analisa o sinal
analógico proveniente da leitura dos pixels e o digitaliza, gerando o sinal no formato
digital. O desenho abaixo ilustra esse processo, onde a linha azul representa o contorno
da imagem projetada sobre o CCD, a linha verde como o CCD enxerga esse contorno,
através de seus pixels e a linha rosa como fica o sinal após o sampleamento.
Normalmente a quantidade de pixels por linha horizontal no CCD é maior do que a que
terá o formato digital final, justamente para melhorar a qualidade da imagem capturada.
Esta diferença pode ser percebida no desenho, onde apesar da perda de resolução em
relação à imagem lida no CCD (e mais ainda em relação à imagem original) ainda assim
para o olho humano a imagem, quando vista à distância, aparentará bastante nitidez e
precisão.

www.therebels.com.br Página 48
Informações técnicas – Sinal de vídeo

Após a digitalização é gerada uma imagem composta por um determinado número fixo
de pixels, de acordo com o formato empregado. No formato NTSC DV por exemplo,
este número é de 720 pixels de largura por 480 pixels de altura, ou seja 345.600 pixels.
Para o padrão NTSC, que é do tipo entrelaçado, existirão 2 campos (linhas pares e
ímpares) formando cada quadro da imagem; assim, metade desses pixels estará
representando as linhas pares e a outra metade as linhas ímpares. Em softwares de
edição normalmente a menor unidade de imagem exibida na tela é um quadro (frame),
que contém os 2 campos. Assim, ao visualizar-se determinado quadro na tela do
microcomputador estarão sendo visualizadas todas as linhas que compõem a imagem
(os 2 campos juntos), ou seja, todos os 345.600 pixels. Esta forma de visualização
(todas as linhas) combina com o modo de exibição utilizado nas telas dos
microcomputadores, que é do tipo progressive scan ao invés de entrelaçado (como nas
TVs e monitores).

O sinal analógico lido do CCD contém as informações de luminosidade e ao mesmo


tempo também as de cor, seja através de lentes coloridas que recobrem os pixels em
forma de mosaico (RGB) ou através do uso de 3 CCDs separados, um para cada cor.
Este sinal gerado é do tipo RGB; a seguir, o mesmo é convertido para sinal outro sinal
ainda analógico, o YUV . A seguir, o sinal YUV é então digitalizado.

Na digitalização para o formato DV por exemplo, o componente luminância é


sampleado a uma taxa de 13,5 Mhz (frequência com que as amostras (medidas) são
tomadas por segundo). Os componentes U e V são sampleados a uma taxa menor, 3,37
Mhz - a informação de cor não é tão importante na formação da imagem para o olho
humano quanto a de luminosidade (tons claros-escuros). Este processo de redução de
cor na amostragem recebe o nome de chroma subsampling. Assim, pode-se dizer que a
taxa de sampleamento do sinal de luminosidade no formato de vídeo DV é quatro vezes
maior do que a do sinal de cor (3,37MHz contra 13,5MHz), o que é representado por

4:1:1

porque esta é a proporção de sampleamento (amostragem) entre os 3 componentes. Já


nos formatos Digital Betacam, DVCPRO50, DVCPRO HD e Digital-S por exemplo,
esta taxa é de

4:2:2

www.therebels.com.br Página 49
Informações técnicas – Sinal de vídeo

resultando em melhor qualidade de imagem (melhor resolução de cor). O algoritmo de


compressão MPEG2 também pode opcionalmente comprimir dados utilizando esta taxa.
Já o mesmo algoritmo quando utilizado em DVD-Video, as imagens em MPEG1, JPEG,
MJPEG , o formato DV no padrão PAL europeu e o formato HD HDV empregam a
mesma taxa 4:2:2 porém alternando-se a presença dos componentes "U" e "V" linha a
linha. Para representar este processo, utiliza-se a notação (menos intuitiva que as
demais)

4:2:0

e se durante a digitalização o sinal original RGB não sofrer redução de resolução de


seus componentes de cor, diz-se que o sinal é do tipo

4:4:4

por outro lado, a comparação direta de formatos utilizando somente estes números, se
não interpretados corretamente, leva a resultados falsos. Assim, por exemplo, o formato
HDCAM de alta definição (HD) emprega taxa de sampling de

3:1:1

o que significa que o componente luminância possui sampling 3 vezes maior do que a
dos componentes "U" e "V". Este formato no entanto possui imagem muito melhor do
que a do formato Digital Betacam, com 4:2:2. O que ocorre é que o valor "3" ou "4" na
indicação da taxa não tem valor absoluto, significando apenas a proporção de sampling
entre luminância e cor. De fato, enquanto a taxa de sampling de luminosidade (não de
cor) no DV é de 13,5Mhz, no HDCAM (idem) é de 74,5Mhz, muito maior portanto.

Formatos com pouca amostragem de cor, como os da família DV, apresentam maior
dificuldade para cromakey do que os com melhor amostragem, como por exemplo o
Digital Betacam. No desenho abaixo, a linha central corresponde à imagem original. A
linha de cima, corresponde à imagem obtida por um formato de vídeo com amostragem
4:1:1 e a linha de baixo, a um formato de vídeo com amostragem 4:2:2:

www.therebels.com.br Página 50
Informações técnicas – Sinal de vídeo

Pode-se perceber que, em relação à linha central, a linha superior reproduz as cores com
menor fidelidade em relação à linha inferior. Isso porque os programas de amostragem
na verdade lêem a informação de cor para todos os pixels, mas a seguir calculam a
média dos componentes RGB para um determinado grupo de pixels (p.ex. para grupos
de 4 no sistema 4:1:1), obtendo assim a "cor média" do trecho. A seguir, essa cor é
considerada como a cor dos pixels, aplicando-se sobre ela a seguir somente o
componente luminosidade, ou seja, se essa mesma cor possui uma tonalidade mais
escura ou mais clara em determinado pixel.

O fato aparentemente pode encerrar uma contradição, pois quando se observa no


monitor a imagem de um determinado conteúdo gravado em DV, as cores parecem
geralmente nítidas e precisas. O que acontece é que 4 pixels em uma linha de vídeo tem
um tamanho muito pequeno para um observador olhando para a tela toda. Por outro
lado, as cores na realidade na natureza dificilmente possuem variação muito brusca de
uma cor para outra completamente diferente, pixel a pixel. São normalmente trechos
maiores, como uma blusa rosa que teria início na linha central da figura acima, na parte
da direita. Ou uma camisa azul, na esquerda. E o verde da vegetação ao fundo, no meio.
Percebe-se que a falta de precisão de cor ocorre nos limites desses trechos maiores
dominados por uma única cor, ou, em outras palavras, nos contornos de determinada
figura, justamente onde o efeito cromakey vai buscar seu recorte.

Por esse motivo, quanto mais precisa for a representação das cores, mais fiel será o
recorte de cromakey. No entanto, tem-se por outro lado o desenvolvimento de inúmeras
ferramentas de composição (programas que fazem cromakey) que oferecem recursos
eletrônicos para corrigir essas falhas. A diferença que fica é que um é um processo
eletrônico de correção, enquanto outro (utilizar um formato com maior amostragem de
cor) tem nativamente um melhor recorte.

Em termos de custo, benefício e exigência de qualidade, os dois sistemas são


equivalentes, porém cada qual dentro de seu nicho de aplicação (profissionais e usuários
de aplicações gráficas poderão preferir, dependendo da qualidade necessária para
determinado tipo de trabalho, a captação nativa com maior resolução de cor).

www.therebels.com.br Página 51
Informações técnicas – Sinal de vídeo

SD (Standard Definition) nome dado ao grupo de formatos de vídeo e sistemas de


transmissão de imagem cuja definição de imagem (resolução horizontal / vertical) é
convencional, como os tradicionais VHS, S-VHS, Mini-DV, DVCAM e outros. Seu
conteúdo pode ser exibido em aparelhos (TVs, monitores, etc...) comuns.

SDI (Serial Digital Interface) conexão para áudio e vídeo utilizada no segmento
profissional em estúdios, conectando câmeras e VCRs entre si ou com sistemas de
edição-não-linear. Também utilizada em alguns modelos de mixers de vídeo. Utiliza
sinal digital SD sem compressão que trafega através de cabos com conectores BNC.
Cabos com este tipo de sinal não sofrem interferências (devido ao sinal ser digital),
podendo ser construídos com considerável extensão (100 metros por exemplo). Cabos
SDI podem transportar também, juntamente com o áudio e o vídeo, informações de
Timecode, o que permite sincronizar diversos equipamentos conectados entre si.

SDTV (Standard Definition Television) nome dado em contraposição aos sistemas


HDTV de alta-definição. Sistemas SDTV são os sistemas de vídeo e transmissão
tradicionais.

SECAM (Systeme Electronique Couleur Avec Memoire) padrão desenvolvido na


França no final dos anos 60, assemelha-se em alguns aspectos ao PAL. A maioria dos
países que o adotam utiliza 50 ciclos/seg em sua corrente elétrica, resultando em
imagens exibidas a 25 quadros/seg. - a Colômbia e a Jamaica são os dois únicos que
possuem o sistema em 60 ciclos - 30 quadros/seg.

As diferenças entre o padrão PAL e SECAM são tão pequenas que a conversão entre os
mesmos pode ser feita por um simples decodificador e a maioria dos receptores PAL é
capaz de exibir imagens (em preto e branco) transmitidas em SECAM. Alguns video
cassetes no formato SECAM chegam a traduzir o sinal SECAM para PAL, gravá-lo
desta forma e re-traduzí-lo para SECAM na reprodução. É impossível sincronizar dois
sinais SECAM a fim de mixá-los, devido a suas características. Para contornar este
problema, a maioria dos estúdios em emissoras costumam gerar os programas em PAL,
editá-los deste modo e só então convertê-los para SECAM no momento da transmissão.
A quantidade de linhas no sistema SECAM é sempre 625.

Os sistemas SECAM que utilizam 25 quadros/seg sofrem com a redução na cadência de


mudança das imagens: isto faz com que as mesmas sejam um pouco mais 'visíveis' do
que no padrão NTSC - a imagem 'pisca' mais. Também em relação ao NTSC são
desvantagens: menor resolução e brilho excessivo em desenhos compostos por linhas
muito próximas entre sí (moiré paterns) mais frequente. Por outro lado a saturação de
cores é bem mais estável do que no padrão NTSC.

O padrão SECAM não é exatamente idêntico nos diversos países onde é adotado:
ligeiras variações em suas características básicas diferenciam um padrão de outro e para
identificá-los são adotados sufixos conforme o subtipo de SECAM: SECAM-B,
SECAM-G, SECAM-H, SECAM-D, SECAM-K, SECAMK1 e SECAM-L.

Alguns países que utilizam SECAM: Afeganistão, Arábia Saudita, Bulgária, Burundi,
Chad, Colômbia, Coréia (Norte), Egito, Estônia, França, Gabão, Guadalupe, Guiana
Francesa, Grécia, Hungria, Irã, Iraque, Jamaica, Líbano, Líbia,

www.therebels.com.br Página 52
Informações técnicas – Sinal de vídeo

Luxenburgo,Madagascar, Mali, Marrocos, Martinica, Mauritânia, Mônaco, Mongólia,


Nigéria, Polônia, Polinésia, Ruanda, Rússia, Senegal, Síria, Tahiti, Tunísia, Zaire.

(Obs. em alguns poucos países há mais de um padrão em uso, geralmente um oficial e


outro introduzido por novos serviços de TV a cabo ou utilizado para recepção de sinal
proveniente de países vizinhos, em locais próximos às fronteiras. Ainda em outros
países existe diferença de padrão quando a transmissão / recepção é feita em VHF ou
UHF; no Brasil em ambos sistemas o padrão é o mesmo, PAL-M).

O sinal de um sistema geralmente não é compatível com outro: dependendo do sistema,


uma fita gravada em PAL por exemplo pode não apresentar imagem alguma em um
VCR do sistema SECAM por exemplo, ou mostrar imagens em preto e branco.

SECAM-B variação do padrão SECAM, utilizando 5,0 Mhz como largura de banda ;
muito semelhante ao SECAM-G e SECAM-H ; alguns países que o utilizam:
Afeganistão, Arábia Saudita, Irã, Iraque, Líbano, Líbia, Marrocos, Mauritânia, Síria,
Tunísia.

SECAM-G variação do padrão SECAM, utilizando 5,0 Mhz como largura de banda ;
muito semelhante ao SECAM-B e SECAM-H ; alguns países que o utilizam: Arábia
Saudita, Egito, Irã, Líbano, Líbia (todos em UHF)

SECAM-H variação do padrão SECAM, utilizando 5,0 Mhz como largura de banda ;
muito semelhante ao SECAM-B e SECAM-G .

SECAM-D variação do padrão SECAM, utilizando 6,0 Mhz como largura de banda ;
muito semelhante ao SECAM-D, SECAM-K, SECAM-K1 e SECAM-L ; alguns países
que o utilizam: Bulgária, Coréia (Norte), Hungria, Mongólia, Polônia, Rússia.

SECAM-K variação do padrão SECAM, utilizando 6,0 Mhz como largura de banda ;
muito semelhante ao SECAM-D, SECAM-K, SECAM-K1 e SECAM-L ; alguns países
que o utilizam: Bulgária, Estônia, Hungria, Polônia, Rússia (todos em UHF).

SECAM-K1 variação do padrão SECAM, utilizando 6,0 Mhz como largura de banda ;
muito semelhante ao SECAM-D, SECAM-K, SECAM-K1 e SECAM-L ; alguns países
que o utilizam: Burundi, Chad, Polinésia, Gabão, Guadalupe, Guiana Francesa,
Madagascar, Mali, Martinica.

SECAM-L variação do padrão SECAM, utilizando 6,0 Mhz como largura de banda ;
muito semelhante ao SECAM-D, SECAM-K, SECAM-K1 e SECAM-L ; alguns países
que o utilizam: França, Luxemburgo, Mônaco.

sincronismo da imagem , pulsos quando o sinal que resultará no desenho das linhas na
tela é enviado ao CRT, é preciso informar ao mesmo onde começa e termina cada linha.
Isto porque o sinal é linear, do tipo "aaaaabbbbb..." , onde "aaaaa" representa uma das
linhas e "bbbbb" a linha seguinte. É necessário informar ao canhão que emite o feixe de
elétrons que determinada linha acabou e tem que ser efetuado o retrace horizontal para
que a linha seguinte seja desenhada. Desta forma o sinal é acrescido de uma instrução
especial tornando-se do tipo "aaaaaHbbbbbH...", onde "H" representa a indicação de
término da linha, chamada pulso horizontal de sincronismo (horizontal pulse sync ou H-

www.therebels.com.br Página 53
Informações técnicas – Sinal de vídeo

sync). Quando o desenho de todas as linhas horizontais de determinado campo termina,


é necessário informar ao canhão que deve ser efetuado o retrace vertical para o desenho
do campo seguinte. Assim, representando por "V" o pulso vertical de sincronismo
(vertical sync pulse ou V-sync) o sinal de vídeo teria a seguinte configuração:

"...aaaaaHbbbbb...HcccccVaaaaaHbbbbbH..." ou, graficamente:

A figura acima está simplificada para melhor visualização; na realidade, o pulso V-Sync
localiza-se dentro das últimas 21 linhas de cada campo (mais precisamente no conjunto
das 9 primeiras linhas). Estas 21 linhas do final de cada campo são invisíveis na tela.
Apesar disso, são entendidas pelo circuito eletrônico do CRT. Em dispositivos de
exibição que não utilizam canhão de elétrons, como LCD e plasma, não há retrace, mas
ainda assim os mesmos pulsos são utilizados para orientação no desenho das linhas e
campos (início / término). No pulso V-Sync pode ser opcionalmente codificado o
Timecode do tipo VITC (Vertical Interval Timecode).

SP@LL um dos tipos de profile@level empregados para classificar tipos de compressão


MPEG2.

SP@ML um dos tipos de profile@level empregados para classificar tipos de


compressão MPEG2.

TBC (Time Base Corrector) este equipamento restaura os pulsos de sincronismo da


imagem eventualmente danificados, permitindo também ajustar o brilho da imagem
(aumentar ou diminuir). Alguns TBCs possuem corretor de cores embutido.

Menos preciso, o image enhancer é outro equipamento que também permite restaurar o
sincronismo e melhorar a qualidade da imagem.

track pitch é a distância entre o centro de duas trilhas adjacentes. Track pitchs maiores
dão maior garantia de que uma determinada fita será adequadamente reproduzida em
diferentes equipamentos do mesmo formato (câmeras / VCRs), independente de
eventuais diferenças microscópicas de alinhamento e montagem do jogo de cabeças e do
sistema de tracionamento e direcionamento da fita. O formato DV por exemplo
apresenta track pitch de 10 microns (cerca de 1/6 do diâmetro de um fio de cabelo
humano), enquanto que o formato DVCAM apresenta track pitch de 15 microns e o
formato DVCPRO 18 microns.

transcodificação processo de conversão do vídeo de um formato e/ou padrão para outro.

trilhas Os sinais de som e imagem são gravados de diferentes formas ao longo da fita de
vídeo, dispostos em trilhas na maioria das vezes diferentes uma das outras, tanto em sua
forma como na disposição ao longo da área disponível para gravação.

www.therebels.com.br Página 54
Informações técnicas – Sinal de vídeo

Na fita de vídeo VHS a trilha da imagem é gravada de forma descontinuada, ao


contrário das trilhas de uma fita cassete comum de som. Isto porque as informações de
imagem são muito mais volumosas do que as de som, e a fita precisaria correr a uma
velocidade enorme pela cabeça de leitura/gravação se a trilha fosse contínua. Isso é o
que de fato ocorria no primeiro gravador de áudio/vídeo construído na década de 50: a
fita era tracionada a uma velocidade de 5,08 m/seg. Para solucionar o problema, que
acarretava tempos muito curtos de gravação por fita, optou-se por fazer com que a
cabeça de gravação/leitura, que antes era estacionária (como nas fitas de áudio) passasse
a girar em um cilindro em contato com a fita. Como este cilindro era disposto de forma
inclinada em relação ao comprimento da fita, a trilha gravada deixava de ser contínua,
passando a ser um conjunto de segmentos ligeiramente inclinados, algo parecido como
hachuriar um retângulo. O desenho abaixo esquematiza as trilhas de som em uma fita
cassete comum (esquerda) e as de imagem em uma fita de vídeo (direita):

Embora houvessem quebras na continuidade da trilha (passou a ser um conjunto de


segmentos), o mecanismo, se bem ajustado e calibrado, conseguiria "emendar"
corretamente as mesmas no momento da leitura. E, com isso, a velocidade de
deslocamento da fita poderia ser bastante reduzida, aumentando o tempo de gravação. O
primeiro gravador a funcionar deste modo foi o Quad, desenvolvido pela Ampex em
1956. O nome "Quad" derivava do fato de terem sido colocadas não uma e sim 4
cabeças nas bordas do cilindro. Posteriormente, na década de 60, o processo foi
simplificado, em uma técnica denominada helical scan, passando a utilizar somente 2
cabeças, diametralmente opostas nas bordas do cilindro, com a fita passando a envolver
boa parte da cabeça. O formato VHS foi criado utilizando essa técnica, com velocidade
de deslocamento da fita de 33,35 mm/seg. no modo SP (Standard Play) mantida até
hoje. No entanto o formato VHS permite também outras velocidades menores, como a
LP (Long Play), com 16,7 mm/seg e a EP (Extended Play), com 11,4 mm/seg. O
desenho abaixo mostra o cilindro inclinado com uma das cabeças (a outra está atrás) e
em azul, na fita, os segmentos inclinados gravados / lidos por ela (as trilhas de imagem):

O desenho seguinte, abaixo, mostra o conjunto visto de cima e como a fita é envolvida
na superfície do cilindro das cabeças. A presença das duas cabeças garante que uma
delas esteja sempre em contato com a fita. O desenho mostra essas duas cabeças opostas
no cilindro e a indicação do percurso da fita / sentido de rotação do cilindro (no desenho
não aparece a inclinação do cilindro, por ser uma vista superior):

www.therebels.com.br Página 55
Informações técnicas – Sinal de vídeo

Além da fita ter que envolver boa parte do cilindro das cabeças, este tem diâmetro de
cerca de 1/3 do comprimento do cassete, ou seja, é grande. Por este motivo, ao contrário
das fitas cassete comuns de som, em um VCR a fita tem que sair para fora do cartucho
para poder ser esticada ao redor do cilindro. Esta tarefa é executada por pequenos pinos
e roletes-guia, que se movem para puxar a fita para fora do mesmo e posicioná-la
corretamente, o que explica o tempo de alguns segundos entre a introdução da fita no
aparelho e o início da reprodução / gravação. Entre estes roletes e pinos, um deles,
giratório, encarrega-se de tracionar a fita, ao pressioná-la contra um pequeno cilindro de
borracha.

No formato VHS, que até hoje utiliza este processo, a cada rotação completa do cilindro
das cabeças são gravadas 2 trilhas inclinadas, cada qual contendo um campo completo
do sinal de vídeo (cada cabeça grava um campo). No padrão NTSC e no padrão PAL-M
(60 ciclos) o cilindro gira 30 vezes por segundo, gravando assim 30 quadros (60
campos) por segundo, ou, em outras palavras, sua velocidade de rotação é 1.800 rpm
(rotações por minuto). Nos padrões PAL de 50 ciclos, onde são gravados 25 quadros
por segundo, a velocidade de rotação é 1.500 rpm.

O sinal de som, gravado em sincronismo com o de imagem na fita, por conter muito
menos informação não necessitava todo esse processo para poder ser gravado
corretamente. Assim, no formato VHS foi criada inicialmente para o som uma trilha
longitudinal, disposta em uma das bordas da fita, ao lado das trilhas inclinadas de vídeo.
A princípio mono, com o passar do tempo passou a ser estéreo, sofrendo ligeiro
estreitamento para que pudesse ser acrescentada outra trilha, paralela à mesma (canais
esquerdo e direito). Porém, vários anos mais tarde, outro problema surgiu, com o
advento da gravação de alta fidelidade (Hi-Fi): essas trilhas longitudinais eram trilhas de
baixa-fidelidade (Lo-Fi), devido à baixa velocidade de deslocamento da fita em relação
à cabeça estacionária de áudio (na velocidade maior, SP, a frequência máxima do som
dessas trilhas é de 9.000 Hz, cerca da metade da obtida com um bom gravador cassete
de som e na velocidade menor, EP, somente 5.000 Hz, similar à obtida em telefonia).
Para solucionar o problema, o som Hi-Fi passou a ser gravado juntamente com o de
vídeo, nas mesmas trilhas: 2 cabeças de áudio foram acrescentadas ao cilindro das
cabeças de vídeo. Mas, como gravar dois sinais na mesma trilha sem que um deles
interferisse no outro? Através de um processo denominado depth multiplexing.

Imaginando-se uma calha de água de chuva de telhado, pode-se enchê-la com areia
colorida (verde por exemplo) até a metade, e depois completar o enchimento até a borda
com areia vermelha. Se a calha é a fita de vídeo, ampliada milhares de vezes, os grãos
de areia são as partículas magnéticas da fita. A cabeça de áudio passa pela fita e
magnetiza com tal intensidade as partículas que consegue atingir a camada verde e a
vermelha. A seguir, vem a cabeça de vídeo, com intensidade menor para remagnetizar
somente a camada superficial vermelha. Assim, tem-se dois sinais gravados, som e

www.therebels.com.br Página 56
Informações técnicas – Sinal de vídeo

imagem, na mesma trilha, mas em profundidades diferentes ("depth"): na fita


propriamente dita, o áudio é gravado a 4 microns da superfície e o vídeo a 0,7 microns
(1 micron = 1 mm / 1000) . Essa trilha de som é lida em velocidade bem maior do que a
longitudinal devido ao movimento das cabeças, daí o som ter qualidade próxima a do
som de CD (Hi-Fi, onde a frequência varia de 20 a 20000 (Hertz, abreviado como hz
(vibrações por seg)). E são, na verdade duas trilhas, ou seja, este som também é estéreo.

Existem no entanto outras diferenças entre essas trilhas de som: se apagarmos a trilha de
som Hi-Fi, a trilha de imagem também é apagada (para desmagnetizar a "areia" verde
tem-se que passar pela vermelha). É por isso que não é possível fazer-se audio-dub
(substituição do som preservando a imagem) nessas trilhas. Em VHS, isso é possível
somente nas trilhas de baixa fidelidade, que podem ser substituídas sem afetar a
imagem. Durante a gravação, normalmente os dois tipos de trilhas são gravados.

O desenho abaixo esquematiza a disposição das trilhas de imagem e som na fita VHS:

Existe ainda outra trilha na fita: a Control Track. A cada volta completa do cilindro das
cabeças giratórias um pulso é gravado nessa trilha. Na realidade esses pulsos servem
para orientar o mecanismo no sincronismo da gravação/leitura das trilhas inclinadas de
imagem, para que iniciem a leitura/gravação no ponto exato da fita. Existe uma cabeça
estacionária de leitura e gravação somente para esta trilha, e é essa informação que
aciona o contador luminoso do painel do vídeo do VCR (horas, minutos, segundos).

A largura de cada trilha inclinada no formato VHS varia de acordo com alguns fatores.
Equipamentos profissionais gravam essas trilhas com 0,058mm de largura, no modo SP.
No mesmo modo SP no entanto, os equipamentos do segmento consumidor / semi-
profissional gravam as mesmas trilhas com 0,040mm de largura. Ainda, no primeiro
caso, a maior largura das trilhas acarreta ligeira sobreposição das mesmas (0,002mm),
enquanto que no segundo caso existe um espacejamento das mesmas (0,02mm). A
maior largura das trilhas nos equipamentos profissionais faz com que aumente a
tolerância a pequenos erros de deslocamento fita-cabeças durante a leitura. Esta
característica, entre outras, faz com que fitas gravadas por estes equipamentos sejam
bem reproduzidas mesmo em equipamentos com alguns desajustes, e explica porque as
de modo geral as fitas disponíveis em locadoras apresentam boa reprodução na maioria
dos VCRs. O desenho abaixo ilustra a diferença nas trilhas gravadas pelos dois tipos de
equipamentos:

www.therebels.com.br Página 57
Informações técnicas – Sinal de vídeo

Outro fator que influencia a disposição e dimensão (largura) das trilhas é a velocidade
de deslocamento da fita. Esta situação, que aplica-se somente aos VCRs do segmento
consumidor / semi-profissional faz com que, quanto menor a velocidade da fita, mais
próximas as trilhas fiquem umas das outras e mais estreitas elas sejam. Assim, enquanto
que para esse tipo de equipamento a largura de cada trilha é de 0,040mm no modo SP,
passa a ser de 0,030mm no modo LP e 0,020mm no modo EP. Nos modos LP / EP
também passa a ocorrer sobreposição das mesmas, 0,01mm nos dois casos. Trilhas mais
estreitas armazenam menos informação, acarretando imagem ruim. E a sobreposição, ao
contrário do que ocorre nos equipamentos profissionais, onde é uma "sobra", aqui faz
com que qualquer imprecisão no deslocamento fita-cabeça cause distúrbios na imagem.
O desenho abaixo ilustra a disposição e tamanho das trilhas nos 3 modos de gravação:

Com o passar dos anos, outras variações do formato VHS foram surgindo, como o
SVHS, VHS-C e SVHS-C. Porém para todos eles a disposição das trilhas na fita é a
mesma.

No entanto, em outros formatos esta disposição muda.

Na fita de 8 mm as trilhas de imagem também são compostas por segmentos inclinados,


como na VHS. A velocidade de rotação do cilindro é a mesma da do formato VHS,
1500 / 1800 rpm, e a velocidade de deslocamento da fita 14,4 mm/seg.. A largura de
cada trilha inclinada é de 20,5 microns. No entanto, não existe nenhuma trilha
longitudinal neste formato: o áudio é gravado juntamente com o vídeo, em um processo
parecido com o utilizado no VHS, aqui denominado AFM (Audio Frequency
Modulation). Apesar de ser um som Hi-Fi, geralmente não é estéreo: a maioria dos
equipamentos grava apenas uma única trilha. Assim, também que não é possível fazer-
se audio-dub nessa trilha, sem prejudicar a imagem. E junto com a informação de vídeo
também é gravada a informação de controle do mecanismo das cabeças (papel
desempenhado pela Control track no VHS).

O desenho abaixo esquematiza a disposição das trilhas de imagem e som na fita 8mm:

www.therebels.com.br Página 58
Informações técnicas – Sinal de vídeo

Embora as características de rotação do cilindro, dimensão das trilhas inclinadas e


deslocamento da fita sejam as mesmas do formato 8mm, na fita Hi8 surgem algumas
diferenças, com o aparecimento de duas novas trilhas: uma delas, destinada ao som, a
PCM (Pulse Code Modulation). Como está localizada na sequência, logo após a trilha
de imagem, a cabeça percorre a fita em velocidade alta: é uma trilha Hi-Fi (20Hz a
15.000Hz), aliás, duas, porque é estéreo. Neste caso é possível fazer-se audio-dub sem
perturbar o sinal de imagem. No entanto, poucas câmeras - geralmente as mais
sofisticadas - aproveitam o sinal de som PCM. E também nem todas as câmeras utilizam
a outra trilha própria do formato Hi8: a trilha de Timecode.

O desenho abaixo esquematiza a disposição das trilhas de imagem e som na fita Hi-8:

As fitas do formato DV também mantém o processo de gravação de segmentos


inclinados, porém com outros tipos de trilhas e disposição. No entanto, como a
quantidade de informação a ser gravada é muito maior, a velocidade de rotação do
cilindro das cabeças também é bem maior do que os 1.500 / 1.800 rpm dos formatos
VHS/8mm: 9.000 rpm. A velocidade de deslocamento da fita é de 18,9 mm/seg. e a
largura de cada trilha inclinada é 10 microns. Apesar da alta velocidade de rotação da
cabeça a fita não se desloca muito mais rapidamente do que uma fita de 8mm por
exemplo, porque aqui as trilhas somente tem que gravar informações digitais (zeros e
uns) e não um range imenso de variação de voltagens, como no sistema analógico, por
isso elas podem ser mais estreitas. E aqui estas trilhas dividem-se em quatro setores:
áudio e vídeo separadas, Subcode e ITI. Separando estes setores, minúsculos espaços
com informações para sincronismo do mecanismo todo, fazendo o papel da trilha de
Tracking no formato VHS.

O áudio neste formato (PCM (Pulse Code Modulation)) possui duas opções de
utilização: um par de trilhas estéreo de 16 bits de resolução sonora ou então dois pares
de trilhas estéreo de 12 bits de resolução cada. Ao ser efetuada uma determinada
amostra do som em um determinado instante, obtém-se um valor ' x ' para a frequência
desse som. Em um instante seguinte, obtém-se um valor ' y '. Quanto mais valores
diferentes forem possíveis de serem armazenados, melhor a qualidade sonora.
Utilizando-se 16 bits para armazenamento, podem-se ter até 65.536 valores diferentes
de frequências (é o maior número que é possível armazenar no sistema decimal quando

www.therebels.com.br Página 59
Informações técnicas – Sinal de vídeo

converte-se para este sistema os 16 bits do sistema binário). Para efeito de comparação,
a resolução de 16 bits é considerada semelhante á qualidade do som de um CD (o que
também acontece com as trilhas Hi-Fi do VHS e do Hi8). Utilizando-se 12 bits tem-se
4.096 valores possíveis. Por outro lado a opção de se gravar dois pares ao invés de um
permite a opção de audio-dub. Como há menos informação a ser armazenada, sobra
espaço físico para a utilização de 2 trilhas ao invés de uma.

Para a opção 16 bits, a taxa de sampleamento utilizada pode ser de 48 KHz, 44 KHz ou
32 KHz (48.000 amostras por segundo, 44.000 ou 32.000). Quanto mais amostras são
feitas por segundo, mais fiel e preciso é o som gravado em relação ao original. Nem
todas as câmeras oferecem essas 3 opções. Para efeito de comparação, a taxa de
sampleamento utilizada em um gravador DAT (Digital Audio Tape) é de 48 KHz e em
CDs comuns, de 44,1 KHz.

Para a opção 12 bits, a taxa de sampleamento é sempre 32KHz.

A trilha Subcode armazena dados do Timecode, a data, hora, numeração da trilha e


informações sobre o modo foto (still), entre outros.

A trilha ITI (Insert and Track Information) armazena informações para orientar o
circuito eletrônico de leitura / gravação, registrando que tipo de informação está
gravado em que trecho de cada trilha. As informações de insert consistem em um mapa
mostrando onde a imagem e o som estão gravados, para permitir a inserção de novos
sinais corretamente na fita. Ao contrário do sinal de imagem, o sinal destas trilhas
auxiliares não é comprimido.

O desenho abaixo esquematiza a disposição das trilhas de imagem e som na fita DV:

O padrão do formato DV é utilizado nas fitas DV tamanho standard, assim como nas
fitas Mini-DV e também nas do formato Digital-8. Há no entanto uma restrição com
relação às trilhas de som: as câmeras Digital8 não gravam trilhas de 16 bits, somente a
versão de 2 pares de 12 bits. E uma outra em relação à operação de audio-dub, não
possibilitada por estas câmeras.

tristímulus teoria que mostra que é possível reproduzir todas as cores através da
estimulação de somente 3 tipos de células sensíveis a cor no olho humano, em
diferentes proporções: as sensíveis ao vermelho, as sensíveis ao verde e as sensíveis ao
azul (RGB).

USB (Universal Serial Bus 1.1 ou Full-Speed USB) tipo de conexão disponível em
computadores do tipo PC, permitindo a conexão dos mesmos a diversos dispositivos
periféricos, como scanners por exemplo. Disponível desde o final da década de 90, é

www.therebels.com.br Página 60
Informações técnicas – Sinal de vídeo

uma conexão de baixa velocidade (12 Mbps - (Mega = 1 milhão), 12 milhões de bits por
segundo), não permitindo a conexão de câmeras de vídeo digitais do tipo Mini-DV por
exemplo, que geram uma enorme quantidade de informação / segundo. Permite no
entanto a conexão ao computador de câmeras digitais fotográficas e de vídeo que
trabalham com baixa resolução (MPEG1 por exemplo), gerando imagens pequenas (no
caso do vídeo) que podem ser trafegadas via Internet.

A conexão ao computador de câmeras do tipo Mini-DV e outras, com maior largura de


banda (quantidade de informação trafegada) pode ser efetuada através da conexão
FireWire, disponível em alguns computadores ou em placas de edição e/ou dispositivos
externos de captura. Com velocidade e capacidade ligeiramente superior ao Fire Wire,
existe um tipo de conexão USB que permite maior tráfego de informações, a conexão
USB 2.0 . No entanto, esta conexão está presente em equipamentos de informática e não
em câmeras de vídeo, porque o seu modo de funcionamento, onde é necessária a
presença do computador para controlar a tranferência de dados, impede por exemplo a
conexão de uma câmera digital a um VCR digital, o que é possível através do FireWire.

A conexão USB tradicional foi proposta em 1993 pela DEC, Microsoft, Compac e
NEC, aprovada em 1996 pelo USB Implements Forum e tornada padrão em 1998.
Apesar de baixa, sua velocidade de transmissão de dados era superior às opções
disponíveis à época (100 vezes mais rápida do que a conexão serial e 10 vezes mais
rápida do que a conexão paralela, existentes em computadores). Cabos USB podem ter
no máximo 3 metros de comprimento.

USB 2.0 (Universal Serial Bus 2.0 ou Hi-Speed USB) implementação efetuada na
conexão tipo USB tradicional, permite tráfego de informação semelhante ao
disponibilizado pela conexão FireWire tradicional. Enquanto a conexão USB tradicional
transporta no máximo 12 Mbps - (Mega = 1 milhão), 12 milhões de bits por segundo, a
conexão USB 2.0 permite transportar até 480 Mbps e a conexão FireWire até 400 Mbps.

Esta conexão está presente em equipamentos de informática e não em câmeras de vídeo,


porque o seu modo de funcionamento, onde é necessária a presença do computador para
controlar a tranferência de dados, impede implementações como por exemplo a conexão
de uma câmera digital a um VCR digital, o que é possível através do FireWire. Por
outro lado, a conexão Fire Wire também é utilizada em equipamentos de informática,
porém em menor escala, devido ao seu maior custo em comparação com a conexão
USB 2.0 . Em computadores permite aumentar em muito a velocidade de comunicação
com periféricos, como gravadores de discos ópticos (CDs, DVDs) por exemplo,
possibilitando a redução do tempo de gravação destes discos.

A conexão USB 2.0 foi proposta em 1999 (pelo mesmo grupo que havia antes
desenvolvido a conexão USB) tendo sido aprovada em 2000. Cabos USB 2.0 podem ter
até 5 metros de comprimento. Três velocidades de transmissão são possíveis, 1,5 Mbps,
12 Mbps e 480 Mbps, permitindo o trabalho tanto com periféricos de baixa velocidade
(como mouses e teclados) como de alta (webcams por exemplo). A conexão USB 2.0
totalmente compatível com a USB 1.1 .

vertical sync pulse (V-sync) código (denominado pulso) inserido em um sinal de vídeo
para indicar ao canhão de elétrons que desenha linha a linha as imagens na tela de um
CRT (ou ao circuito que carrega as linhas da imagem em uma tela do tipo LCD ou

www.therebels.com.br Página 61
Informações técnicas – Sinal de vídeo

plasma) que o desenho do quadro de imagem terminou. Juntamente com o horizontal


sync pulse, é um dos pulsos utilizados para efetuar o sincronismo da imagem do vídeo.

vetorscópio utilizando como fonte uma imagem do tipo color bars permite identificar e
corrigir problemas com a mesma, relacionados a cores. Cada cor presente na imagem do
color bars (amarelo, ciano, verde, magenta, vermelho e azul) é mostrada através de um
ponto luminoso distribuído ao longo de uma circunferência, como o apontado por 'A' na
figura abaixo. Quando as cores da imagem do vídeo estão corretamente ajustadas, estes
pontos devem-se situar dentro dos quadrados distribuídos ao longo da circunferência.
Na figura abaixo, 'B' mostra um destes quadrados, com seus cantos delimitados.

Quanto maior a intensidade de determinado componente de cor, mais distante do centro


da imagem estará o ponto luminoso, até atingir o ponto correto, dentro da área do
quadrado correspondente. A variação na forma do desenho permite medir e calibrar a
reprodução de cores e efetuar diversas aferições e testes sobre o sinal de vídeo, assim
como efetuar comparações (o sinal obtido diretamente da fonte e o obtido após ter sido
gravado / reproduzido por determinado equipamento). Nesta comparação, também pode
ser observado que quanto melhor o formato de vídeo, mais os dois resultados se
aproximarão.

Alguns problemas apontados na análise podem ser corrigidos pelo TBC e pelo corretor
de cores.

A parte de brilho da imagem é ajustada com outro aparelho, o monitor de forma de


onda.

waveform o mesmo que monitor de forma de onda.

WFM o mesmo que monitor de forma de onda.

Y/C, conector é o conector padrão para transportar o sinal de vídeo do tipo Y/C :

www.therebels.com.br Página 62
Informações técnicas – Sinal de vídeo

Este conector é composto por 4 pinos condutores e um em forma de barra guia


(retângulo preto no desenho). O sinal Y/C carrega as informações de cor (cromitância) e
luminosidade (luminância) separadamente. Cada uma delas é transportada por um cabo
isolado independente. Assim, o sinal de luminância é conectado ao pino "a" enquanto
que o de cromitância é conectado ao pino "c". O cabo que transmite a luminância é
revestido por uma blindagem (malha de fios de cobre), que é conectada ao pino "b". Da
mesma forma, o cabo que transmite a cromitância tem a sua blindagem conectada ao
pino "d". Os dois cabos internos são por sua vez revestidos também por uma blindagem
(terra), a qual é conectada à parte metálica externa do plug (círculo amarelo-escuro no
desenho).

Y/C, sinal ao contrário do componentes, neste tipo de sinal as informações de cor são
combinadas gerando um único sinal, ao passo que as informações de luminosidade
constituem um sinal independente. Posteriormente (no momento da exibição por
exemplo) os sinais de cor são novamente separados. A transformação acaba acarretando
pequena perda de qualidade devido a interferências e distorções geradas no processo,
onde os sinais de cor recuperados na separação não são exatamente idênticos ao que
eram na fase de codificação em sinal único. Este tipo de sinal é utilizado no formato
SVHS por exemplo.

YCbCr representação utilizada para indicar os sinais digitalizados a partir do color


space YUV.

YIQrepresentação dos três componentes do tipo de sinal video componentes, um para


luminosidade e outros dois para informação de cor. O YIQ é utilizado em aplicações
broadcast, no padrão NTSC, ao invés do YUV. Este color space proporciona registro
mais fiel e apurado das cores, utilizando para isso fórmulas matemáticas mais
complexas do que as empregadas no YUV. Por isso mesmo, exige maior complexidade
dos circuitos eletrônicos na codificação e decodificação dos sinais. Equipamentos do
segmento semi-profissional e consumidor empregam, por este motivo, o YUV,
barateando o custo dos mesmos.

YPbPr representação utilizada para indicar os sinais analógicos do color space YUV.

YUV representação dos três componentes do tipo de sinal vídeo componentes, um para
luminosidade e outros dois para informação de cor. O YUV é o sistema de codificação
de cor utlizado pelos padrões analógicos de TV (NTSC, PAL, SECAM). O color space
YUV é diferente do RGB, por trabalhar com componentes separados de luz e cor,
enquanto o RGB, color space através do qual tanto o olho humano como a câmera
enxergam, trabalha com cores básicas, também chamadas primárias.

O color space RGB ocupa muito espaço para ser representado numericamente, uma vez
que são necessárias 3 faixas distintas (intervalos) destinadas a registrar individualmente
os valores de cada de suas cores. Na década de 50, a implantação da TV colorida nos
EUA exigia que o novo sinal fosse compatível com as existentes TVs P&B. Propunha-
se um sinal que pudesse ser exibido na forma colorida pelos novos televisores e ainda
assim continuasse a ser exibido em P&B pelos antigos aparelhos.

Foi então desenvolvido um algoritmo denominado analog encoding, que conseguia,


através da separação da parte de luminosidade (Y) e cor do sinal (U / V - mais detalhes

www.therebels.com.br Página 63
Informações técnicas – Sinal de vídeo

adiante), codificá-los analogicamente de forma que o sinal resultante ocupasse bem


menos espaço do que o RGB. As TVs P&B decodificam somente a parte (Y) deste
sinal. A seguir, a descrição do que ocorre dentro de uma câmera de vídeo seguindo esse
processo.

O CCD produz um conjunto de 3 sinais analógicos, cada sinal correspondendo a uma


das cores básicas. Este sinal, chamado RGB puro, contém as informações de
luminosidade e ao mesmo tempo também de cor de cada pixel. Para economizar espaço,
tanto nas informações transmitidas como nas geradas, o sinal RGB puro é convertido
para sinal analógico YUV através de um circuito eletrônico no interior da câmera. A
seguir, este sinal pode ser gravado diretamente em uma fita, como ocorre no formato
analógico Betacam por exemplo. Ou ter suas informações de cor e brilho combinadas
para gerar sinais também analógicos como o Y/C do formato SVHS ou o vídeo
composto do formato VHS por exemplo. Por outro lado, pode sofrer um processo de
sampling e ser transformado em sinal digital, para ser gravado em formatos que utilizam
este tipo de sinal, como o Mini-DV por exemplo. Quando as imagens são exibidas em
um aparelho de TV ou de projeção, o sinal YUV é reconvertido para RGB antes de ser
utilizado.

A conversão RGB para YUV chama-se color space conversion e é efetuada através de
fórmulas matemáticas. A parte de luminosidade do sinal YUV, representada pela letra
"Y", é calculada somando-se as luminosidades dos sinais R+G+B, porém de maneira
desigual: a cor verde é a dominante, a que tem maior participação e a azul a menor. O
cálculo é efetuado através da fórmula:

Y = 0.299R + 0.587G + 0.114B

ou, aproximadamente, 30% de vermelho, 59% de verde e 11% de azul. O fator maior
utilizado para a cor verde decorre de experiências que mostraram que ao analisar-se o
brilho de determinada cena através de cada um dos componentes RGB como percebido
pelo olho humano, conclui-se que a cor verde é responsável por 60 a 70% de sua
intensidade. Este fato pode ser comprovado ao comparar-se a luminosidade no sistema
RGB da cor pura verde (RGB = 0,255,0) com a da cor pura azul (RGB = 0,0,255) como
mostra o desenho abaixo:

A luminosidade emitida pelas duas cores é a mesma, porém o olho humano enxerga
mais luz em uma e menos luz na outra. É para criar esse desequilíbrio que os fatores
numéricos são empregados na fórmula do cálculo da luminosidade, permitindo obter-se
assim o balanceamento do brilho entre as 3 cores básicas obtidas a partir da leitura do
CCD da forma como o olho humano as enxerga. É por este motivo também (maior
sensibilidade ao verde) que a implementação de cores utilizando um único CCD, através
do padrão Bayer (descrito no item "CCD") emprega o dobro de filtros coloridos na cor
verde em relação aos das cores vermelha e azul.

A parte de cor do sinal YUV, representada pelas letras "U" e "V" é calculada de modo a
economizar informações: ao invés de registrar as intensidades de cada uma das 3 cores,
www.therebels.com.br Página 64
Informações técnicas – Sinal de vídeo

são somente registradas as intensidades do vermelho e do azul. A intensidade do verde é


derivada a partir da luminosidade total, levando-se em conta as intensidades anotadas do
vermelho e do azul.

O sinal "U" é calculado subtraindo se "Y" do sinal "B" e multiplicando-o por um fator
igual a 0,492:

U = 0,492 x (B - Y)

O sinal "V" é calculado subtraindo se "Y" do sinal "R" e multiplicando-o por um fator
igual a 0,877:

V = 0,877 x (R - Y)

Esses fatores sâo determinados por normas internacionais estabelecidas pela ITU -
International Telecommunication Union , entidade internacional criada para padronizar
e regular assuntos técnicos relacionados a telecomunicações, a partir de
experimentações e testes práticos visando entre outros aspectos a melhor representação
do color space após a conversão. Não há compressão nem perda de qualidade nessa
conversão, um sinal é o equivalente matemático do outro. A transformação é efetuada
por um circuito eletrônico.

Para simplificação em diversos textos que referenciam-se ao color space YUV, os


componentes "U" e "V" são representados muitas vezes sem os seus fatores de
conversão, na forma:

U=B-Y

V=R-Y

Estes componentes também recebem o nome de canais color difference, em alusão à


subtração da luminosidade dos sinais "B" e "R".

O sinal YUV ocupa menos espaço do que o sinal RGB, porque apesar de conter também
3 sinais como o RGB, neste a luminosidade do pixel é repetida 3 vezes. No YUV ela
está presente somente 1 vez. E além disso o sinal de cor necessita no máximo metade da
informação do de luminosidade, característica conhecida desde que em 1931 uma
organização chamada CIE (Commission Internationale de L'Elairage) investigando a
visão de cores pelo olho humano concluiu através de experimentações que a visão do
olho humano era menos sensível a cores do que à luminosidade. Para economizar ainda
mais espaço, como o sinal verde é o que usa mais informação (59% como visto acima),
os dois outros (vermelho e azul) é que são utilizados para gerar as informações de cor.
Em sistemas analógicos a economia é de largura de banda de transmissão (bandwidth) e
em digitais de data rate (dados transmitidos). E em ambos, de informações
armazenadas, tanto se considerarmos o armazenamento dos 3 sinais componentes
separados (Betacam p.ex.), como os de cor juntos em 1 sinal e o de luminosidade em
outro (S-VHS p.ex.), como os 3 sinais combinados em um único (VHS p.ex.) como os 3
combinados com o de som (sinal RF p.ex.).

www.therebels.com.br Página 65
Informações técnicas – Sinal de vídeo

Uma das consequências da maior participação da cor verde na formação do sinal de


luminosidade é no cromakey: o recorte das imagens fica melhor em fundo verde do que
em azul e mesmo em vermelho, utilizados em cinema.

Quando os sinais YUV permanecem na forma analógica após a conversão a partir do


original RGB e são nesta forma transmitidos através de cabos de um dispositivo para
outro, os conectores destes cabos recebem uma nomenclatura diferente; ao invés da
notação YUV, os sinais são indicados por Y , B-Y e R-Y, como mostra a figura abaixo:

Dispositivos analógicos que trabalham com sinais do tipo video componentes possuem
entradas / saídas (conectores fêmea do tipo RCA ou BNC) para os 3 sinais:

Por outro lado, se os sinais YUV entram em um equipamento digital e são digitalizados,
ou então estão na forma digital e são convertidos para analógicos, recebem outra
nomenclatura: Y, Pb, Pr. Esta nomenclatura (Y, Pb, Pr) corresponde portanto ao mesmo
sinal Y, B-Y, R-Y, porém é empregada para indicar um sinal analógico deste tipo que
entra ou sai analogicamente de um aparelho digital qualquer. Em outras palavras,
entram ou saem do digital domain, o "domínio digital", espaço onde trabalha-se
digitalmente. Um exemplo é a saída de um player de DVD-Vídeo:

Por outro lado, quando o sinal Y, B-Y, R-Y é convertido para o formato digital, recebe
a nomenclatura Y, Cb, Cr:

www.therebels.com.br Página 66
Informações técnicas – Sinal de vídeo

Assim, (embora seja comum encontrar-se erros no uso dessas nomenclaturas), os termos
Y, Pb, Pr e Y, Cb, Cr só devem ser utilizados dentro do digital domain (sinais que
entram, trafegam e saem de aparelhos digitais). No analog domain (câmeras e VCRs no
formato Betacam SP por exemplo) a indicação permanece Y, B-Y, R-Y.

Alguns desses aparelhos, geralmente digitais, como players de DVD-Vídeo, exibem em


suas entradas / saídas analógicas a inscrição:

o que é incorreto, pois "Cb" e "Cr" referem-se a sinais digitais, não sinais analógicos. A
incrição correta no caso é somente Y - Pb - Pr, pois normalmente trata-se de um sinal
analógico .

YCbCr é empregado no padrão de compressão MPEG2 (utilizado em DVD-Video por


exemplo); câmeras digitais (no formato MiniDV por exemplo) transmitem sinais
YCbCr através da conexão FireWire.

Embora seja comum encontrar conectores RCA coloridos em entradas do tipo


componentes (como mostra o desenho acima), não são sinais RGB puro, como visto,
que trafegam nessas entradas / saídas e sim sinais com valores matematicamente
equivalentes a RGB. Assim, é incorreto dizer que YPbPr e YCbCr são o mesmo que
RGB: tratam-se de color spaces completamente diferentes. YPbPr e YCbCr são sinais
vídeo componentes e não sinais RGB.

Entradas / saídas para video composto (geralmente conectores RCA amarelos) trafegam
um sinal onde os componentes YUV estão todos combinados em um único sinal.
Entradas / saídas para sinal Y/C (ou S-Video, através de conector próprio) trafegam um
sinal onde somente os componentes "U" e "V" são combinados em um único sinal,
permanecendo "Y" separado dos demais.

Assim como na forma analógica o sinal vídeo componentes pode ter sua porção de cor
reduzida, como visto acima, criando os sinais Y/C e composto, também o sinal
componentes analógico (Y, B-Y, R-Y) pode sofrer opcionalmente uma compressão

www.therebels.com.br Página 67
Informações técnicas – Sinal de vídeo

adicional na parte de cor. Tem-se então diversos tipos de sinal Y, Cb, Cr, comprimidos
em diferentes taxas para cor e luminosidade, como 4:1:1, 4:2:2, etc...

Em aplicações broadcast, emprega-se para o padrão NTSC outro color space, o YIQ, ao
invés do YUV. O color space YIQ proporciona registro mais fiel e apurado das cores,
utilizando para isso fórmulas matemáticas bem mais complexas do que as empregadas
no YUV. Por isso mesmo, exigem maior complexidade dos circuitos eletrônicos na
codificação e decodificação dos sinais. Equipamentos do segmento semi-profissional e
consumidor empregam, por este motivo, o YUV, barateando desta forma o custo dos
mesmos.

www.therebels.com.br Página 68

Vous aimerez peut-être aussi