Académique Documents
Professionnel Documents
Culture Documents
Formação da Imagem
Antes de entender o funcionamento de qualquer tecnologia de produção de
imagem – seja fixa ou em movimento, analógica ou digital – é necessário compreender
como se dá a própria formação da imagem. Isso é: a forma pela qual a luz interage com
uma determinada superfície e traduz esse estímulo em informação visual.
A base para esse entendimento não está na película ou no sensor digital. Os
suportes nada mais são do que reproduções técnicas do nosso aparato visual biológico, e
é por isso que é imprescindível iniciar esse material com uma breve explicação sobre o
funcionamento do olho e do processo, como um todo, da visão.
Como sabemos, a luz entra pelos nossos olhos e é projetada na retina (vamos
pular toda a explicação sobre o que acontece nessa etapa, já que não é nosso foco aqui.
Uma vez projetada na retina, essa luz precisa ser traduzida em algum tipo de informação
para que possamos enxergar. Essa tradução depende de uma série de fenômenos que
acontecem em sequência, onde qualquer problema em uma das etapas pode ter
diferentes consequências.
A primeira é a própria percepção da luz. Nossa retina tem células especiais
destinadas a essa função: os cones e os bastonetes. Os bastonetes são responsáveis pela
visão em ambientes de pouca luz, enquanto os cones são responsáveis pela percepção
das cores e de detalhes. É por isso que em ambientes pouco iluminados temos uma
sensibilidade menor às cores.
Os cones, por sua vez, são divididos em três: os sensíveis ao vermelho, ao verde
e ao azul – ou seja, as cores primárias do sistema (aditivo) RGB, e não por acaso esse é
o sistema da fotografia, já que trabalha com luz. Eles se concentram em maior
quantidade no centro da nossa retina, em uma área chamada fóvea, que é onde melhor
enxergamos detalhes e cores. É por isso que percebemos com maior nitidez e separação
de cores aquilo que está no centro do nosso campo de visão, quando em ambientes bem
iluminados.
Ambos, cones e bastonetes, funcionam da mesma forma1 quando sensibilizados
pela luz: ao serem iluminadas, cada uma dessas células sofre reações químicas no seu
interior – os cones sensíveis ao vermelho reagem proporcionalmente à porção de
comprimentos de onda vermelhos que os atingem, os verdes aos comprimentos de onda
verdes, e os azuis aos comprimentos de onda azuis (óbvio, certo?) – e geram uma
corrente elétrica. Quanto maior a quantidade de luz, maior a corrente.
Essa corrente gerada nas células retinianas responsáveis por captar a luz deve,
então, ser enviada ao cérebro para que possa ser processada. Para isso, cada cone e
bastonete tem sua própria conexão nervosa. Elas se concentram em uma região da
retina, formando o nervo ótico, que fará o transporte de toda a informação luminosa
coletada. Nessa região, os cones e bastonetes estão ausentes, originando um ponto cego
em cada um dos olhos. Essa informação pode parecer gratuita aqui, mas será importante
para comprovar algo do qual trataremos em breve.
O nervo ótico conduz esses impulsos elétricos até a região do cérebro
responsável por decodificálos. É apenas aqui, após o processamento dos estímulos
captados na retina, que de fato enxergamos e se completa o sentido da visão. A
informação de cada cone, sensível a cada uma das cores primárias, deve ser combinada
para que possamos apreender as nuances de cada cor. Caso contrário, nossa visão seria
composta por minúsculos pontos vermelhos, verdes e azuis, tal qual uma pintura
pontilhista. Isso significa, então, que ela não é apenas um processo fisiológico, mas
também cognitivo. Ou seja, os dados recebidos pelo cérebro devem ser reorganizados e
combinados para que uma imagem seja percebida. E mais: nossas experiências,
memórias, conhecimentos e medos também estão diretamente envolvidos no resultado
final.
Para exemplificar de forma prática, recuperemos aquela informação sobre o
ponto cego. Por que não percebemos dois pontos sem imagem no nosso campo visual?
Parte da resposta é: temos dois olhos e cada um cobre o ponto cego do outro. Embora
isso seja verdade, essa informação não é suficiente. Mesmo que fechemos um dos olhos,
ainda assim não nos damos conta dessa ausência de visibilidade.
1
Na verdade, existem algumas pequenas diferenças em termos fisiológicos e químicos, mas há muito
mais semelhanças e as diferenças não acrescentam nada à discussão sobre fotografia.
Agora, experimente fechar o olho esquerdo e olhar para um ponto fixo à sua
frente. Depois, estique seu braço direito e posicione o polegar para cima bem próximo
ao centro do seu campo visual. Continue olhando para o ponto fixo e ao mesmo tempo
desloque seu dedo para a direita. Em alguns poucos graus você perceberá que não
consegue enxergar seu polegar. Ainda assim, não é exatamente a ausência de imagem
que vemos. O que acontece é que nosso cérebro completa a imagem desse ponto com a
informação existente ao redor.
Esse experimento serve para ilustrar o quanto nossa visão é resultado não apenas
do que chega aos nossos olhos, mas principalmente do que nosso cérebro faz com
aquilo que recebe. Existem ainda outros casos que poderiam ilustrar bem isso, como a
(não tão) recente polêmica do vestido azul e preto, percebido por alguns como branco e
dourado em função da forma como o cérebro de algumas pessoas interpretava os
estímulos.
Diante disso, podemos agora dividir todo o processo de formação da imagem na
nossa visão em três momentos:
1. Captação: é a etapa referente à apreensão da imagem projetada na retina
propriamente dita.
2. Imagem latente: as informações coletadas pelas células retinianas a serem
enviadas ao cérebro.
3. Processamento: o trabalho cognitivo sobre as informações recebidas pelo nervo
ótico, que resultará na imagem percebida e visualizada.
Agora, o que tudo isso tem a ver com a direção de fotografia? Absolutamente
tudo. Como dito no início, os suportes, sejam analógicos ou digitais, de fotografia fixa
ou em movimento, têm seu funcionamento rigorosamente igual ao processo da visão.
Compreender esse processo e suas etapas e saber identificálas é a base para entender
qualquer sistema.
● Na película, os bastonetes são os sais de prata, presentes em toda a emulsão, e
sua sensibilidade de cores diz respeito à sua camada nela.
● Nos sensores digitais, os bastonetes são os photosites e sua sensibilidade de
cores está nos filtros usados na frente de cada um2.
2
Usando como referência um sensor que utilize padrão Bayer, a ser explicado no capítulo sobre sensores,
bem como outros sensores existentes e em desenvolvimento.
Olhos Película Digital
Captação Cones e Bastonetes Sais de prata Photosites
Conversão da luz Mudança na estrutura química Conversão de
em corrente elétrica dos sais e desestabilização fótons em elétrons
Vermelho, verde e Vermelho, verde e azul Vermelho, verde e
azul azul
Imagem latente Retina sensibilizada Sais de prata sensibilizados Sensor
sensibilizado
Nervo ótico
Raw
Processamento Fenômeno cognitivo Fenômeno químico Fenômeno virtual
Os sensores digitais
A partir da compreensão sobre o processo da visão fica simples, por pura
analogia, entender todo o funcionamento tanto da película cinematográfica quanto dos
sensores digitais, que são nosso foco aqui. As especificidades de cada processo passam
a ser detalhes que apenas variam em função da natureza de cada mídia. Esses
conhecimentos são especialmente importantes na medida em que a tecnologia digital
está em desenvolvimento rápido e constante e os novos anúncios e rumores acontecem o
tempo todo. Os fundamentos da formação da imagem e conceitos básicos de informática
são a forma que temos de sermos capazes de nos adequarmos rapidamente ao ritmo das
mudanças. Sendo assim, fica inviável para uma apostila ou material didático dar conta
de manterse totalmente atualizado no que diz respeito a modelos de câmera e
tecnologias específicas.
Dito isso, hoje existem alguns diferentes tipos de sensores com características
próprias, vantagens e desvantagens, além de outros em desenvolvimento que devem
começar a aparecer no mercado em breve.
O CCD (ChargeCoupled Device) foi largamente utilizado nas primeiras
gerações de câmeras profissionais, sendo um chip desenvolvido especificamente para a
captação de imagem. Apesar dele apresentar algumas vantagens que em tese lhe
conferem mais qualidade, como maior sensibilidade e menor nível de ruído, os
fabricantes optaram pelo CMOS (
Complementary Metal–Oxide–Semiconductor) por
seu menor consumo de energia e maior velocidade. Tal escolha levou a um
desenvolvimento rápido dessa tecnologia, o que neutralizou suas desvantagens iniciais.
Atualmente o CMOS é o tipo mais utilizado pelos fabricantes, inclusive nos
modelos mais avançados tanto no mundo cinematográfico quanto fotográfico. Modelos
como: Arri Alexa, Sony F65, RED Dragon e Canon C500 atualmente as principais
câmeras utilizadas por produções de maior orçamento (inclusive em Hollywood) o
utilizam.
Funcionamento básico dos sensores
Talvez a melhor forma de entender o sensor digital seja pensar nele como a
retina, uma vez que é a superfície responsável por captar a luz e converter isso em
informação visual.
Nessa "retina", os
photosites desempenham a função das nossas células sensíveis
à luz: cones e bastonetes, sendo cada um deles o equivalente a um pixel. Ao serem
atingidos pelos raios luminosos, os fótons geram uma carga em elétrons a ser
transformada pelo sensor em voltagem. Essa é a primeira fase, ainda analógica.
Essa voltagem passa, então, por um conversor analógicodigital para ser
convertida em informação binária. A principal diferença entre os sensores CCD e
CMOS está na forma pela qual se dá essa conversão.
No CCD, todo o chip é dedicado exclusivamente à captação da imagem e não
realiza a transformação de sinal analógico para digital. Ou seja, o CCD envia para fora
do chip um sinal analógico, o que torna necessário um conversor externo, que
converterá a voltagem em informação binária. O conversor, então, envia essa
informação já digitalizada para um processador que a processará e/ou armazenará em
uma mídia.
Já o CMOS tem uma arquitetura diferente, incorporando o conversor
analógicodigital dentro do próprio chip. Isso elimina a necessidade de um conversor
externo, tornando o processo mais rápido. Porém, significa dedicar parte do chip para
desempenhar outra função além da captação propriamente dita. O que, em tese, implica
em uma menor sensibilidade e maior nível de ruído na imagem gerada. Pelo menos foi
assim durante as primeiras gerações de sensores digitais. À medida que essa tecnologia
foi desenvolvida, essas desvantagens foram anuladas para a maior parte das aplicações e
em alguns casos superadas.
As diferenças mais específicas e técnicas possivelmente causariam muita
confusão se colocadas aqui. O importante, agora, é entender a base do funcionamento
do processo de formação de imagem, que independente da tecnologia do sensor é a
mesma.
Resumindo e relembrando: a luz chega aos
photosites do sensor, os fótons geram
elétrons, produzindo uma determinada carga que será convertida em voltagem. Quanto
maior a voltagem gerada, mais luz aquele
photosite recebeu, portanto mais clara é
aquela porção da imagem. Essa voltagem será convertida em sinal digital.
Conversão analógicodigital: bits e alcance dinâmico
Eis a etapa final do funcionamento de um sensor CMOS antes de enviar os
dados para serem processados ou armazenados em uma mídia. A conversão
desempenha um papel que talvez passe despercebido com um olhar mais desatento que
considera apenas a transformação de um sinal em outro. Para não cometermos esse erro
precisamos entender a própria natureza das informações digitais que utilizamos: são
códigos numéricos binários. Isso também vai ser muito importante para entendermos
outras questões críticas da imagem mais adiante, como profundidade de cores.
A menor parte de uma informação digital é o bit (
bi t
nary digi), que pode ser 0
ou 1. Sendo assim, um bit apenas pode assumir 2 valores, e o número de bits define a
quantidade de informação. Isso significa que o número de possibilidades sempre será
uma potência de base 2 cujo expoente é o número de bits. Por exemplo: 1 bit significa
1 2 8
2, cujo resultado é 2. 2 bits é 2, que resulta em 4. 8 bits é 2 = 256 e assim por diante.
E o que isso significa se pensarmos no sensor?
É crucial que essa conversão seja feita com alta profundidade de bits (
bit depth)
alcance dinâmico (dynamic range)
para permitir que o sensor utilize todo o seu . Via de
regra, ele deve ter profundidade de bits equivalente ou maior ao seu alcance dinâmico,
que seria o equivalente digital ao conceito de latitude na película. A razão é que uma
conversão com profundidade de bits mais baixa seria incapaz de traduzir com a devida
suavidade as diferentes gradações de luminosidade captadas por um sensor, podendo
resultar em
color banding na imagem. Veremos a relação entre bits e latitude com mais
raw
detalhes quando falarmos sobre .
De todo modo, é necessário reforçar o quanto esse processo é determinante na
qualidade da imagem. Latitude, ou dynamic range para o mundo digital, é uma das
características que mais pesam na hora de julgarmos uma imagem. Sua importância é
muito maior do que a tão falada resolução, seja na fotografia fixa e seus megapixels, ou
na versão cinematográfica: os Ks.
Sensibilidade dos sensores
Durante a era da película diversas escalas foram utilizadas para especificar a
sensibilidade de um filme. As principais foram a ASA (Estados Unidos) e a DIN
(Alemanha). Sendo a primeira uma escala aritmética e a segunda uma escala
logarítmica. Para chegar a um padrão internacional a
International Organization for
Stardalization combinou as duas escalas em uma de suas normas. É a esse padrão que
nos referimos quando falamos que um filme tem determinado ISO.
A rigor, ainda usamos o mesmo padrão definido pela
American Standards
Association (ASA), uma vez que o padrão ISO nada mais seria que a sensibilidade em
ASA seguida da correspondente em DIN separadas por uma barra.
Legal, mas e daí? O que ISO, ASA ou DIN nos diz? De forma simplificada: a
quantidade de luz necessária para que um cartão cinza médio, ou 18%, ao ser exposto
corretamente, corresponda ao meio da
curva sensitométrica quando revelado de acordo
com os padrões designados pelo fabricante. Esses padrões são aquilo que ele entende
como o melhor resultado que o filme oferece, ou o mais seguro. Quanto maior o índice,
menos luz é necessária. Na escala ASA, aritmética, um filme ASA 200 tem o dobro de
sensibilidade em relação a um ASA 100, e metade de outro ASA 400.
O problema todo é que no digital não existe uma curva sensitométrica, ou um
material físico que pode ser submetido a testes de densitometria para medir
matematicamente a densidade da superfície sensibilizada e revelada. Ou seja, a rigor é
impossível dizer que um sensor tem uma sensibilidade ASA ou ISO usando um critério
exatamente igual ao da película. Foi então criada uma nova norma de padronização
destinado ao digital3 , mas que respeita a mesma escala. O que acontece é: todo o mundo
ligado à produção de imagens estava familiarizado demais com ela para que ela fosse
apenas abandonada. O caminho então foi usálas como referência no digital, de forma
que quando se fala em um valor de ISO estamos dizendo: resposta do sensor à luz
similar à resposta de uma película daquela sensibilidade.
Outra parte importante para se entender a sensibilidade nos sensores é derrubar o
mito de que eles podem variar de sensibilidade. Na verdade não. A capacidade de
aproveitamento da luminosidade neles será sempre a mesma, não importando a
configuração colocada na câmera. O que, na verdade, algumas câmeras oferecem são
ajustes de ganho aplicados sobre o sinal analógico gerado pelos photosites e convertidos
em sinal elétrico. Todos os sensores têm uma única sensibilidade nativa4, seja ele
divulgado ou não pelo fabricante. Outros, porém, divulgam um determinado intervalo
de ISOs nativos, como por exemplo de 200 a 1600. O que acontece realmente é que o
fabricante entende aquele intervalo como apresentando um resultado suficientemente
satisfatório dentro do seu controle de qualidade. Isso acontece sobretudo com as
prosumer5
câmeras de fotografia e filmadoras . Como os consumidores de câmeras
cinematográficas digitais necessitam de um maior rigor, é comum os fabricantes
divulgarem a sensibilidade nativa, ainda que algumas medições independentes possam
indicar valores diferentes dos anunciados.
É importante notar, porém, que algumas câmeras não variam o ganho aplicado
antes da conversão. Nesse caso, podemos dizer que esses sensores têm uma
sensibilidade fixa e toda e qualquer alteração feita é, na verdade, pósprocessamento.
3
Photography Digital still cameras Determination of exposure index, ISO speed ratings, standard
output sensitivity, and recommended exposure index.
http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=37777
4
A Panasonic seria uma exceção com a Varicam 35, sua topo de linha dedicada à cinematografia digital.
Segundo o própria fabricante, a câmera tem 2 ISOs nativos diferentes que se alternam automaticamente
para se adaptar melhor às condições de luz, oferecendo o mínimo de ruído.
5
Fatia de mercado ocupada por amadores avançados que buscam melhores equipamentos e profissionais
que utilizam modelos mais básicos ou não podem pagar por modelos topo de linha.
Exemplos de câmeras que operam desse modo são todas as da linha digital da Arri,
assim como as da Blackmagic Design. Nelas, quando se altera o ISO dentro dos menus,
tudo que se faz é pedir para que a câmera processe o arquivo alterando sua configuração
de gamma
curvas ou clippando
. Isso significa que se algo na imagem captada estiver ,
estourando, abaixar o ISO para reduzir a sensibilidade não resolverá o problema.
Diferentemente do que seria em uma câmera que varia o ganho aplicado no sinal
analógico. Não seria o caso aqui de discutir o que é melhor, mas sim perceber a
importância de entender o funcionamento da câmera que tem em mãos para que possa
tirar dela o melhor rendimento possível.
Processamento
Debayering
e interpolação
Aqui chegamos num ponto de intersecção entre estrutura e funcionamento do
raw
sensor, pósprocessamento e arquivo . Sobre o último, falaremos mais tarde.
Concentremonos em finalizar o funcionamento do sensor e começar a entender como
se dá o início do processamento de toda a luz captada.
Assim como a retina possui células dedicadas à percepção de cada cor primária,
que devem posteriormente ser combinadas e interpretadas para a formação da imagem,
o sensor funciona
exatamente da mesma maneira. É importante constatar, porém, que
diferentemente das células, os
photosites não são sensíveis a um comprimento de onda
específico, mas sim aos fótons. Eles são sensíveis à luz, não à cor.
A cor nos sensores digitais atuais6 é obtida através de filtragem da luz que atinge
photosite
o : antes de cada um há um filtro colorido que barra todos os outros
comprimentos de onda, deixando passar apenas um, o da cor primária à qual aquele
photosite está destinado a captar. Dessa forma, apenas os fótons de determinado
comprimento de onda conseguem interagir com a superfície de cada pedacinho do
sensor. Essa informação é então enviada para fora do sensor, onde será processada.
Devemos observar, então, que a estrutura desses sensores utilizados nas
principais câmeras desperdiça uma considerável quantidade de luz. Existem diferentes
projetos de uma nova geração de sensores CMOS em desenvolvimento. Um deles
utilizando prismas7 no lugar dos filtros, de forma a não descartar a luz, e sim separar os
comprimentos de onda. Dentro de cada
photosite haveria, então, uma área específica
para captar cada cor primária. Essa tecnologia permitiria aumentar a sensibilidade dos
sensores, melhorar a reprodução cromática, aumentar a definição das imagens e
eliminar por completo o
moiré existente em muitas câmeras com sensor por filtragem
com padrão Bayer.
6
A exceção foi o sensor Foveon X3, usado em DSLR da Sigma. A tecnologia usada busca imitar o
comportamento da película no que diz respeito à captura das cores.
7
Tecnologia em desenvolvimento pela Panasonic anunciada em 2013. Segundo a fabricante, a tecnologia
atual de filtros descarta entre 50 e 70% da luz que entra pela lente ou seja, pouco mais de um stop.
Remete diretamente ao processo da Tecnicolor, assim como das primeiras gerações de câmeras digitais
nas quais a luz era separada por prismas antes de ser projetada sobre 3 sensores dedicados a cada canal de
cor. Hoje já obsoletas no mercado em função do tamanho e peso necessário para o sistema.
Esse padrão consiste em um arranjo 2x2, no qual o verde aparece duas vezes e o
vermelho e o azul aparecem uma cada. Esse esquema é repetido por todo o sensor,
formando uma espécie de tabuleiro de xadrez. A maior presença de filtros verdes nos
photosites busca mimetizar a fisiologia do olho, uma vez que nossa visão é mais
sensível ao verde. São esses
photosites os responsáveis por detectar e reproduzir mais
apropriadamente o nível de luminosidade da cena.
O fato de cada
photosite captar exclusivamente um canal de cor significa que
para a formação de uma imagem reconhecível é necessário um processo complexo de
interpolação. Ou seja, combinar as informações captadas por cada
photosite com as dos
seus vizinhos. Para a formação de um pixel na imagem, são usados os dados captados
photosites
por vários debayering
adjacentes. Esse processo é chamado , ou seja, desfazer
a estrutura de dados captadas segundo o padrão Bayer e remontar a imagem. Todo esse
processo é crucial para duas características da imagem: riqueza de detalhes e reprodução
das cores.
Simulação de imagem sem passar pelo processo interpolação. Note que ela é inteiramente formada por
pontos de diferentes tons de verde, vermelho e azul.
Todo esse processo causa uma redução da resolução total do sensor de
aproximadamente 33% durante o processo de interpolação e formação da imagem. Por
isso alguns fabricantes utilizam uma quantidade de
photosites maior do que a resolução
final do arquivo. Isso teoricamente garante que os detalhes finos não sejam perdidos na
hora da combinação das informações de cada parte do mosaico de dados, aumentando
assim a definição da imagem,
ainda que a resolução seja a mesma
. Importante fazer
definição
uma clara distinção entre resolução
e resolução: diz respeito à quantidade de
definição
pixels que formam um quadro; diz respeito ao nível de detalhamento
percebido
.
Qualidade de imagem
Resolução e definição
Sem dúvidas a resolução é o aspecto mais alardeado em torno das câmeras
digitais. O marketing em torno de altas resoluções, como 4K, 5K e até 6K é forte e
somos bombardeados o tempo todo com novas câmeras e monitores ou TVs que
prometem melhor qualidade de imagem através de resoluções super altas. Para que não
sejamos levados pela onda é necessário termos um bom entendimento do que isso
significa, e no quanto isso afeta a nossa percepção e quando.
Primeiramente devemos compreender bem a diferença entre resolução e
definição. Como já falamos, resolução diz respeito ao número de pixels na imagem,
enquanto definição diz respeito à reprodução e percepção dos detalhes finos. É
impossível julgar a relevância da resolução de um determinado material sem levar em
consideração o tamanho da tela onde será exibido e a distância. A medida usada para
fazer esse julgamento é a altura da tela.
Usando a altura da tela como medida, temos uma ideia da área da visão ocupada
por ela e de sua ampliação na nossa retina. Quanto maior a resolução, mais perto
podemos ficar dela sem conseguirmos resolver individualmente os pixels que formam a
imagem, ou seja, não conseguimos ver com clareza os quadradinhos e a área entre eles.
standard definition
Para uma tela SD ( , 480 linhas), a distância na qual
começamos a perceber os pixels é de aproximadamente 7 alturas de tela. Isso significa
que a mais de 3 metros e 50 centímetros de distância de uma tela de 50 cm de altura
(50cm de altura de tela seria o equivalente a uma TV de aproximadamente 40
polegadas), uma pessoa de visão 20/20 (considerada uma visão normal em pessoas
saudáveis, embora algumas pessoas possam enxergar melhor) não será capaz de
distinguir individualmente os pixels. Ou seja, ela perceberá a imagem com a maior
definição que seu olho permite. Nesse caso não fará diferença se for colocada diante
dela uma TV de resolução maior, se mantido o mesmo tamanho da tela e distância.
Com a chegada do Full HD essa distância cai para aproximadamente 3 alturas de
tela. Ao mesmo tempo, o barateamento da tecnologia proporciona um acesso mais fácil
a telas maiores. Como para grande parte das pessoas a distância para a TV está situada
entre essa faixa de 3 a 7 alturas de tela, a diferença da chegada do novo padrão teve um
impacto muito significativo. Agora, por exemplo, numa mesma tela de 50cm de altura, a
distância na qual se percebe os pixels é de aproximadamente 1 metro e 50 centímetros.
Para o 4K, essa distância cai ainda mais, para aproximadamente 1 altura e meia de tela.
Se levarmos em consideração que poucas pessoas tem acesso a telas tão grandes
e dificilmente a distância entre a tela e o espectador é tão pequena em usos domésticos,
o 4K se mostra, no mercado de TV, como uma grande estratégia de marketing das
fabricantes para impulsionar vendas, muito mais do que um ganho significativo para a
maior parte dos usuários e usuárias.
A rigor, a exibição em 4K só se mostra relevante para exibições em salas de
cinema de grandes tamanhos de tela, na qual o público senta a não mais que duas alturas
de tela da imagem, como o iMax. Devese levar em conta, porém, que mesmo hoje o
padrão do iMax digital é 2K, apesar dos enormes tamanhos de tela em comparação a
salas de exibição comuns, em especial no Brasil.
Tudo isso fica ainda mais evidente ao notarmos que a maior parte dos filmes de
grande orçamento em Hollywood que recebe lançamento em iMax é rodada com a
câmera Alexa, que tem 2,8k de resolução. Diretores e diretoras de fotografia devem,
então, levar em consideração a forma de exibição final na hora de escolherem a câmera
e a resolução de captura.
O modo pelo qual as fabricantes podem classificar suas câmeras varia no que diz
respeito ao critério, levando em conta questões como marketing. Isso é motivo de
polêmica, e usuários desavisados podem acabar sendo enganados ou pelo menos não
entenderem o que estão escolhendo.
Como já vimos, a imagem é formada a partir de um complexo processo de
photosites
combinação entre as informações dos diferentes . Se um sensor possui 4096 x
2160
photosites e entrega um arquivo com a mesma resolução, o padrão 4K para
upscaling
cinema, sabemos que na verdade essa imagem está passando por , ou seja, está
sendo ampliada ligeiramente para a formação do arquivo final. A título de curiosidade,
recentemente a Arri passou a possibilitar que algumas de suas câmeras entreguem um
arquivo 4K, apesar de usarem o mesmo sensor que originalmente gerava uma imagem
de 2,8K. Todavia, a Arri justifica argumentando que a intenção é a de evitar que seja
necessário fazer
upscaling do material captado com a câmera durante a pósprodução,
nos casos em que a resolução seja demandada pela produção ou cliente.
Outra variável em toda essa equação é que, como dito, resolução e definição são
coisas diferentes. O que significa que existem ainda diversos outros fatores que podem
impactar a definição, ou nitidez, da imagem final. As lentes são um fator crucial nesse
aspecto. Não importa quão alta seja a resolução de uma câmera, se as lentes não tiverem
alta qualidade ótica e não forem capazes de resolver o nível de detalhamento necessário,
não se ganhará definição. A regra é de que a definição sempre será limitada pelo ítem de
menor qualidade envolvido no processo de formação da imagem. Pensar no todo ajuda a
otimizar os gastos e permite obter o melhor resultado.
A grande febre do 4K tem levado as fabricantes a lançarem modelos cada vez
mais baratos, fazendo com que muitos e muitas cineastas e estudantes adotem o formato
sem levar em consideração questões como lentes usadas, compressão e profundidade de
cor. O resultado é um grande gasto em armazenagem e processamento sem ganhos reais
na qualidade da imagem8. Se ainda colocarmos na equação a janela de exibição, que
8
Usando a mesma compressão, um arquivo em 4K ocupa 4 vezes mais espaço que um Full HD, embora
permita ganho máximo de 2 vezes na definição.
web
nesses casos geralmente são , TV ou festivais, que na maioria dos casos não contam
com projeção 4K, tudo passa a fazer ainda menos sentido.
O melhor modo de verificar o nível de definição que uma imagem pode ter é
através de um teste real e rigoroso, que permita medir a resolução espacial9 real de um
sistema, como o de Modular Transfer Function
MFT ( ). Esse teste dirá quantos pares de
linha por milímetro um determinado conjunto de câmera e lente é capaz de registrar e
reproduzir. Nos casos onde podemos fazer tais testes, estaremos imunes às estratégias
de marketing das fabricantes.
Exemplo de cartela usada para medir quantas linhas verticais por milímetro um sistema consegue
resolver. Existem outros modelos que permitem testar a resolução em todos os sentidos.
Outro ponto importante é ter em mente que resolução é apenas um fator da
qualidade de uma imagem, mas não a mais importante. Na frente estão: alcance
dinâmico (ou latitude), espaço de cor e profundidade de cor. Não por acaso são essas as
high end
características que as fabricantes reservam para suas câmeras . De acordo com
a IMS (Imaging Science Foundation), que trata de tecnologia de telas, a resolução é
apenas a quarta na hierarquia.
Na verdade, o excesso de definição das imagens digitais é visto como um
problema para grande parte dos diretores e diretoras de fotografia, sobretudo para quem
veio da cinematografia em película. Nesses casos, é muito comum o uso de filtros
difusores nas lentes para diminuir a definição, deixando a imagem com uma textura
mais orgânica, uma vez que a nitidez excessiva pode conferir à imagem um aspecto
hiperrealista. Um exemplo de filtro difusor frequentemente utilizado com essa função é
o Black Pro Mist, fabricado pela Tiffen e disponível em diversas intensidades. Uma
9
Resolução espacial é o quanto de detalhamento um sistema consegue registrar por unidade de espaço.
No caso, quantos pares de linhas o sistema consegue resolver por milímetro em cada eixo.
alternativa barata pode ser o uso de meiacalça preta de fio fino esticada na frente ou,
para um melhor resultado, no final da lente, junto ao último elemento ótico. Quanto
mais esticado, mais sutil o efeito. Essa técnica é antiga, já sendo utilizada no cinema
closes
clássico hollywoodiano para suavizar de estrelas sobretudo de mulheres dentro
star sistem
do , deixando suas peles com textura aveludada, diminuindo traços visíveis
de rugas.
Para não dizer que não foi citada nenhuma possível vantagem do 4K na
aliasing
cinematografia digital, moiré
e são problemas que tendem a ser menos
recorrentes, uma vez que as câmeras passam a ter mais capacidade para lidar com
detalhes finos. Outra possível vantagem é para quem lida com efeitos visuais e CGI
(
computer generated image)
, muito embora a compressão e profundidade de cor
também tenham uma importância grande nesse ponto.
Profundidade de Cor
A profundidade de cor é uma característica de grande relevância nas câmeras.
Medida em bits, ela é importante para garantir uma transição suave entre tons e
graduações. É geralmene expressa por canal de cor, não pela profundidade total.
Quando falamos em um
codec de 8 bits estamos dizendo que ele tem 8 bits de
8 8 8
informação em cada um dos canais de cor. Ou seja, 2x2x2 cores no total, ou
256x256x256, de forma que resulta em 16,7 milhões. Isso seria uma imagem de 24 bits
no total. Uma baixa profundidade de cores pode acabar resultando em efeitos negativos
color banding
na imagem, como .
color banding
Exemplo de . Note as faixas de cor formadas na suave transição de cores do céu.
A maior parte dos monitores domésticos é capaz de reproduzir apenas 8 bits por
canal de cor. Embora seja o suficiente para uma visualização sem grandes problemas,
para as etapas de pósprodução, como correção de cor, acaba muitas vezes não sendo o
bastante e limitando a flexibilidade do material. Como cada canal de cor tem apenas 256
tons, a diferença entre um e outro é mais significativa, o que não permite que se
manipule muito o material antes de efeitos colaterais, ou o que chamamos de artefatos,
que degradam a imagem, apareçam.
10
Em 10 bits, o número de tons cresce para 1024 (2 ). Isso não significa que as
cores em 10 bits sejam mais saturadas, por exemplo. O tom equivalente a 255 seria o
mesmo do tom 1023. O que acontece é que entre o tom mais claro e o mais escuro
existem mais tons intermediários em 10 bits. Isso acaba sendo uma grande vantagem na
hora de fazer os ajustes desejados nas cores para o material final.
Levando isso em conta, entendemos porque os fabricantes evitam possibilitar,
nos modelos mais acessíveis, arquivos com maior profundidade de cores. Dessa forma,
os profissionais que precisam de uma maior qualidade de cores e realizam correção de
cor no seu material se vêem forçados a investir em equipamentos mais caros. A primeira
câmera a oferecer um arquivo 10 bit e com um formato de compressão bem aceito pelos
profissionais abaixo da faixa de 3 mil dólares foi a Blackmagic Cinema Camera. Não
por acaso ela é considerada uma das melhores câmeras em termos de imagem para
projetos com orçamento limitado.
Compressão e chroma subsampling
Codecs
e compressão
Para que toda a informação captada seja transformada em imagem ela precisa ser
debayering
processada. Após a etapa do , esses dados estão prontos para dar origem a
um arquivo de vídeo propriamente dito. Para economizar espaço e exigir menos poder
de processamento dos computadores na pósprodução, é comum que os fabricantes
adotem métodos e padrões de compressão e codificação. Cada fabricante tem o seu
próprio método, adere a um existente ou ainda, em alguns casos, juntase com outro
para criar um novo. Esses padrões de compressão e codificação são os
codecs.
Aqui talvez esteja um dos primeiros grandes sustos que se toma quando se
começa a lidar com arquivos de câmeras digitais, sobretudo para quem está travando os
primeiros contatos com edição e correção de cor. As opções de
codecs e formatos são
enormes e costumam causar confusão. Mas tudo isso pode ser evitado se for
compreendido como eles funcionam.
codecs
Existem dois tipos de : os
lossy (com perda de informação) e os
lossless
(sem perda). Ambos codificam a imagem de forma a reduzir o tamanho total ocupado
pelo arquivo original, e necessitam de uma chave, ou decodificador, para serem lidos.
Ou seja, sem essa chave os arquivos não podem ser decodificados para permitir a
reconstrução do arquivo original, no nosso caso, o vídeo.
Existem ainda os formatos, que nada mais são do que o "envelope" no qual os
arquivos codificados estarão incluídos. Num arquivo audiovisual, além do
codec de
codec
imagem, você terá o de vídeo. Ambos estarão "embrulhados" juntos pelo formato.
Exemplos de formato são:
AVCHD
(utilizado por Panasonic e Sony),
DVCPRO
(Panasonic para câmeras DV, já obsoleto, embora ainda apareça nas listas de
exportação causando confusão) e
MOV (formato proprietário da Apple). Já
codecs são:
H.264 (mais usado em DSLRs e câmeras de linhas mais básicas), ,
MPEG2 MPEG4
,
ProRes
(codec da Apple),
DNxHD
(da Avid) e outros.
ProRes e DNxHD são dois dos principais codecs utilizados para pósprodução,
frame
uma vez que possuem cada codificado individualmente, ao contrário do H.264,
frames
que codifica em grupos de . Ao mesmo tempo que são capazes de manter a
qualidade alta e sem grandes perdas. Isso faz deles escolhas apropriadas para edição e
integração entre diversos softwares de finalização e efeitos. O que permite que não se
faça muitas conversões, já que uma parte da qualidade se perde na medida em que se faz
uma nova codificação e compressão.
A compressão pode ser mais ou menos prejudicial, dependendo de quão intensa
codec
e dos métodos utilizados por cada . Um
codec eficiente é aquele que consegue
reduzir significativamente o tamanho do arquivo original sem comprometer sua
qualidade. O índice que nos diz o quanto um arquivo é comprimido é o
bitrate e está
bitrate
expresso em MB/s. Quanto maior o , menos comprimido e maior a qualidade.
Chroma subsampling
Outro aspecto sobre o qual essa compressão atua é no registro das cores. Isso se
explica devido ao fato de que nossa visão é menos sensível à perda de informação
cromática do que de luminância. O nome que esse processo recebe é
chroma
subsampling
.
Como vimos, nosso aparato visual, assim como o da câmera, trabalha com as
cores primárias vermelho, verde e azul. Um arquivo que carreguasse toda a informação
de cada canal seria consideravelmente pesado, e é por isso que o RGB é frequentemente
transformado em outro espaço de cor, o YCbCr. Y é a informação de luminância da
cena, Cb e Cr são as diferenças dos canais azul e vermelho. O que significa que as
informações individuais dos canais RGB são descartadas. Para que a imagem seja
formada, agora, são essas informações luminância, diferença do canal vermelho e
diferença do canal azul que serão combinadas. É possível fazer a conversão de volta
para o RGB, embora ocorra perda de gama de cores que o YCbCr é capaz de registrar e
reproduzir. Essa primeira conversão de espaço de cor, do RGB para o YCbCr, reduz
aproximadamente um terço do tamanho do arquivo.
Comparação entre como imagens em RGB e YCbCr são formadas.
A intensidade do descarte da informação cromática é expressa por 3 números
que indicam uma proporção: X:X:X. Deixando de lado os detalhes técnicos sobre o que
precisamente significa cada número em cada posição, vamos falar sobre as principais
chroma subsamplings
compressões e usados nas câmeras digitais atuais no mercado.
chroma subsampling
● 4:4:4:4 Não existe , toda a informação dos canais RGB
são mantidas integralmente. O quarto número, que difere dos outros exemplos
vistos, diz respeito ao canal
Alpha uma espécie de canal de transparência.
Permite um arquivo de altíssima qualidade e muita informação. Muito
apropriado para correção de cor, e o mais próximo que se pode chegar do
arquivo Raw, embora ainda seja processado. É um dos melhores recursos que
uma câmera pode oferecer, e exatamente por isso reservado aos modelos
highend dos fabricantes. Poucos modelos abaixo dos 10 mil dólares oferecem,
sendo eles a CION, da Aja, e URSA e URSA Mini, ambas da Blackmagic
Design.
chroma subsampling
● 4:4:4 Forma de compressão mais leve com . Mantém o
máximo de resolução nos canais de cor após transcrição para o espaço de cor
YCbCr.
● 4:2:2 Apesar de apresentar perda de metade da resolução horizontal dos canais
de cor, talvez seja a melhor opção para captura de material para projetos de
baixo orçamento e que não exijam pósprodução pesada. Garantindo um arquivo
pequeno o bastante para economizar custos com armazenamento, com
aproximadamente metade do tamanho de um arquivo em 4:4:4:4, mantém ainda
qualidade e informação o suficiente para permitir uma pósprodução básica. A
título de curiosidade, a nona temporada da série americana
24 Horas foi rodada
utilizando essa compressão com a câmera Alexa, da Arri.
● 4:2:0 Uma das opções mais comprimidas, apresenta perda de metade da
resolução horizontal e vertical nos canais de cor. A compressão é pesada e
permite um arquivo bastante leve, tendo como consequência uma pequena
flexibilidade no material. Delicado para trabalhar na correção de cor,
apresentando artefatos e distorções nas cores com muita facilidade. Ao utilizála,
devese garantir que o material seja captado o mais próximo possível do
resultado final desejado. É a compressão de cor utilizada nos
codecs de câmeras
DSLR e nas câmeras de entrada.
Comparação entre diferentes compressões. As imagens em preto e branco ajudam a perceber a perda de
resolução no canal de cor.
Raw Log
, e
Rec.709
Os incríveis recursos de manipulação digital frequentemente levam a equipe a
pensar que problemas na fotografia e pequenos erros podem ser corrigidos facilmente
Log
durante o processo de pósprodução. Apesar dos formatos Raw
e apresentarem uma
enorme flexibilidade, e por isso serem os mais adequados para se utilizar a fim de
preservar informações e realizar correção de cor, a exposição adequada do material é tão
importante quanto seria ao se filmar em película. É importante que o diretor ou diretora
de fotografia não se deixe levar pela ilusão de que o digital necessita menos rigor.
Para expor adequadamente qualquer material sensível é necessário entender
como ele se comporta e sua natureza. Os olhos, assim como outros sentidos humanos,
não funcionam de modo linear, como é o caso dos sensores. Se acendemos uma
lâmpada em um quarto escuro e pouco tempo depois acendemos outra de mesma
potência certamente veremos o quarto mais claro, mas não duas vezes mais claro, apesar
da quantidade de luz ter dobrado. Isso acontece porque nossos sentidos sofrem uma
espécie de compensação. Quanto mais estímulo recebemos em um sentido, menor a
diferença que percebemos. É por isso que faz uma enorme diferença um fósforo aceso
em um quarto escuro, mas durante o dia, uma lâmpada acesa não tem quase nenhum
impacto na claridade que percebemos, apesar de uma lâmpada emitir mais luz que um
fósforo aceso.
Isso tem uma função no nosso organismo: permitir que sejamos facilmente
adaptáveis a uma enorme gama de situações. Podemos escutar pequenos ruídos em
lugares silenciosos para detectar algum perigo, ou podemos enxergar tanto em
ambientes de pouquíssima luz quanto quando expostos ao sol durante o dia em
ambientes abertos.
A película fotográfica mimetiza o olho, apresentando comportamento
semelhante. A placa de silício dos sensores digitais, entretanto, não tem as mesmas
características. Os sensores, uma vez que funcionam de acordo com a quantidade de
fótons que recebem, gerando uma carga elétrica, reagem de forma proporcional à
quantidade de luz. Para que a imagem resultante seja similar ao que percebemos com os
nossos olhos é necessária a aplicação de uma curva logarítmica sobre a informação
captada durante a etapa de processamento ou de pósprodução. A diferença mais
significativa entre um arquivo
Log ou
Raw está em quando e como essa curva é
aplicada.
Raw
O arquivo
Raw não deve ser confundido com um arquivo de imagem. Ele não é,
e isso é extremamente importante para evitar erros de julgamento quando se olha um
arquivo captado dessa forma. Esse arquivo nada mais é do que todos os dados captados
e digitalizados pelo sensor colocados em um formato apropriado para os softwares de
pósprodução lerem e interpretarem as informações. Essa interpretação é feita segundo
uma conversão padrão dessas informações, e que podem muitas vezes causar espanto ou
enganar muito os olhos desavisados.
Raw
Para saber a melhor forma de expor em , devemos entender como a
informação é registrada nesse arquivo para, desse modo, aproveitar o máximo possível
dynamic range
do do sensor.
Um sensor de conversão analógicodigital de 12 bits é capaz de registrar 4096
níveis de luminosidade. Metade deles será dedicada a capturar o
stop mais claro da
imagem, ou seja, 2048. A metade dos restantes, 1024, ao
stop abaixo. Depois, 512 ao
seguinte. 256 para o próximo, e assim sucessivamente. É por isso que, via de regra, um
sensor deve ter uma profundidade de
bits igual ou maior do que o seu
dynamic range
stops
medido em . Caso contrário,
color banding pode vir a ocorrer em gradientes uma
vez que as nuances captadas pelos
photosites são espremidas em uma quantidade
insuficiente de tons.
Por tudo isso, é comum encontrar referências ao modo de expor em
Raw pela
expressão
expose to the right (expor para a direita), ou ETTR. Expor para a direita
referese ao lado direito do histograma, que é o correspondente aos tons claros da
imagem. Isso quer dizer, expor tão para a direita quanto for possível sem permitir que se
perca informações nas altas luzes por exceder o limite do que o sensor suporta. No caso,
sem que o gráfico toque o lado direito. Uma ótima ferramenta para ajudar e presente em
diversas câmeras, além do próprio histograma, é o
overlay de zebra, que indica com
linhas quando uma determinada região da imagem está próxima do limite ou atingindo o
limite do que pode ser registrado, e a partir de onde todas nuances serão perdidas por
completo.
set
É precisamente nesses casos que outras pessoas da equipe, seja dentro do ou
da pósprodução, podem ficar assustadas e acharem que o material está muito claro, ou
até estourado. Algumas câmeras permitem que isso seja corrigido para visualização
set
imediata no , sem interferir no material captado que será entregue ao colorista, que
deve saber trabalhar com o material e aproveitar toda a informação presente,
recuperando e trazendo para baixo novamente os tons que ficaram muito mais claros do
que o pretendido.
Isso deve ser muito bem entendido, uma vez que não significa consertar um erro,
e sim o modo correto de trabalhar com o arquivo quando se pretende aproveitar ao
máximo o
dynamic range que a câmera oferece. Não entender isso pode levar a
acreditar que é possível recuperar informações em regiões estouradas da imagem, o que
certamente ocasionaá catástrofes e perda completa de planos irrecuperáveis. Esse modo
Raw
de trabalho é exclusivo dos formatos . Não deve
nunca ser utilizado em outros
formatos processados e comprimidos.
Log
Apesar de ser processado, o
Log é um tipo de arquivo que busca aproximar a
captação linear do sensor da curva de
gamma da película, mantendo o máximo possível
de informações em toda a faixa de tons e níveis de luminosidade, das sombras às altas
luzes. Isso resulta em um arquivo que, visto sem a etapa de correção de cor, parece sem
Raw
contraste e sem saturação. Assim como o , uma imagem em
Log pode assustar
aqueles que a vejam sem conhecimento técnico e entendimento de que esse tipo de
material é projetado para o trabalho de pósprodução, não sendo um arquivo final ou de
exibição.
Entretando, apesar da semelhança com o
Raw tanto na busca por preservar o
máximo de informações possíveis, quanto de precisar de um trabalho posterior, não se
Log
deve assumir que o modo de expor à luz é o mesmo. O material em , por já ser
processado internamente pela câmera, deve ser exposto de modo a ficar o mais próximo
possível do resultado final desejado. A etapa de correção de cor, nesse caso, está mais
associada a restaurar o nível de contraste pretendido para o plano, e ajustes de cor para
look
dar o que se estabeleceu para o projeto.
Uma última observação deve ser feita. Com a popularização das ferramentas de
correção de cor e barateamento das câmeras, cada vez mais usuários estão em busca de
recursos como Log
Raw e . A partir da crescente demanda, algumas soluções começam a
surgir para câmeras mais baratas, como perfis de cor super
flats (com pouquíssimo
Log
contraste e saturação, buscando imitar o comportamento de um arquivo ) ou até que
Log
utilizem uma curva de . O problema é que muitas dessas câmeras trabalham com
codecs inapropriados para esse tipo de material, como o H.264 das DSLRs e câmeras de
entrada.
Com a alta taxa de compressão e
chroma subsampling de 4:2:0, que já
significam um enorme descarte de informações, sobretudo cromática, utilizar um perfil
de cor pouco saturado para tentar recuperar a saturação das cores na pós pode apresentar
resultados catastróficos. Se em alguns casos podem ter um rendimento aceitável e trazer
vantagens, na maior parte das vezes pode introduzir artefatos significativos nos tons
médios, sobretudo nos tons de pele. Quando se considerar utilizar esse tipo de perfil de
cor em câmeras que utilizam
codec H.264 é obrigatória a realização de testes que
envolvam tanto a captura quanto a manipulação do material para ver se atenderá às
necessidades e traz benefícios reais. O
Log passa a ser um recurso interessante e
poderoso quando usado com
codecs apropriados: 10 bits, 4:2:2 e
bitrates altos, como
ProRes 422, XAVC, DNxHD e outros.
Rec.709
Ao contrário do Log
Raw e do , o
Rec.709 não é um padrão de captura, e sim de
distribuição. Tratase do padrão estabelecido para exibição de conteúdo em vídeo digital
(HDTV), determinando critérios como espaço de cor, taxas de quadro e demais aspectos
técnicos suportados. Algumas câmeras acabam, então, oferecendo a possibilidade de
fornecer um arquivo já pronto para a exibição, respeitando essas especificações.
Na verdade, a maior parte das câmeras mais básicas e de entrada, como as
DSLRs e diversas filmadoras com menos recursos, apenas oferecem a possibilidade de
Rec.709
se filmar processando a imagem e conformando de acordo com o padrão . Não
sendo um arquivo destinado a passar por um processo de pósprodução, quando
associado a um
codec de alta compressão e com
chroma subsampling de 4:2:0, como as
DSLRs, o processo de correção de cor é realmente limitado. Em função disso, essas
gamma
câmeras aplicam curvas de , contraste e saturação de modo a deixar a imagem o
mais finalizada possível. Costumam oferecer algumas opções de ajustes através dos
menus para dar algum controle, mas ainda assim o arquivo sempre será processado a
fim de resultar em uma imagem agradável e quase pronta para exibir.
Log
Algumas câmeras, entretando, oferecem a possibilidade de filmar em , mas
de mostrar tanto no visor como em monitores externos a imagem processada para os
Rec.709
padrões . Dessa forma, mantémse um modo de captura mais flexível, ao
mesmo tempo que permite que o diretor e demais pessoas no
set possam visualizar uma
imagem mais próxima da final. Um exemplo de câmera acessível com esse recurso são
as câmeras da Blackmagic Design.
Comparação entre uma imagem gravada em Log e guardando o máximo de informação, e uma imagem
final, com maior contraste e saturação.
Acessórios e
workflow
Não apenas de câmeras, lentes e tripés se faz o equipamento de câmera. Existem
dezenas itens dos mais diversos tipos para auxiliarem (ou até atrapalharem) a equipe de
câmera a realizar seu trabalho. Conhecêlos é extremamente importante para a
preparação.
Outra parte importante do trabalho diz respeito ao devido cuidado com o
workflow
, ou fluxo de trabalho, a fim de evitar problemas de pósprodução, como erros
de
codec e formato de arquivo, organização do material e diversas variáveis sobre as
quais devemos ter controle.
Assim como o próprio projeto estético deve ser adequado a cada proposta de
filme, o que implica na escolha da câmera e das lentes, o mesmo se aplica aos
workflow
acessórios e ao . Ambos devem ser pensados para cada caso específico levando
em conta o tamanho da produção, as necessidades da direção e
as necessidades da
própria equipe de câmera
. Esse último ponto é geralmente minimizado, e cabe ao
diretor ou a diretora de fotografia brigar (cordialmente!) pelas demandas da sua equipe
dentro dos limites de viabilidade. Isso ajuda a assegurar a qualidade do material captado
assim como permite manter a equipe de câmera ágil, evitando atrasos que podem
prejudicar o filme.
Infelizmente é muito comum que se veja alguns acessórios de câmera como
itens desnecessários e, no esforço de cortar gastos, comprometase o trabalho dos e das
assistentes de câmera. Muitas vezes essa economia e a escolha de gastar dinheiro com
itens de preço unitário mais baixo levam a problemas que fazem surgir gastos extras e
encarecem o projeto no final. Frequentemente isso não aconteceria se ouvidas as
demandas da equipe de câmera, fazendose o investimento inicial em um acessório
apropriado.
Acessórios de câmera
Com a cinematografia digital nasceu o conceito de câmeras modulares, do qual
talvez os exemplos mais significativos sejam as câmeras da RED. Ou seja, câmeras que
podem ser configuradas segundo a preferência da equipe para adicionar funcionalidades
necessárias para trabalhos específicos.
Por um lado isso oferece uma grande vantagem para situações em que se
necessita de câmeras extremamente compactas e pequenas para utilizar em lugares de
difícil acesso. Por outro, acaba adicionando um grande trabalho para os e as assistentes
e requerendo o uso de diversos acessórios pequenos que dependem de uma estrutura
rig
sobre a qual serão configurados. Essa estrutura é o , também chamada de
cangalha
shoulder rig
ou .
Em função dessa mudança no conceito das câmeras a ergonomia passou a
ocupar um lugar de menos destaque em seu design em relação ao que tinha na época das
câmeras de película. Os fabricantes acabaram deixando de desenhálas de modo a se
encaixarem bem ao corpo de quem as opera, ficando a cargo de quem as utiliza buscar
os acessórios necessários para que possam ser usadas em cada projeto específico.
Atualmente, com o amadurecimento do mercado, a demanda por corpos mais
ergonômicos cresceu. Assim, os fabricantes têm sido forçados a novamente
incorporarem no design de seus modelos a preocupação com a operação sem a
necessidade de tantos aparatos para o uso de funções básicas e modos mais tradicionais
de filmagem, como em tripé e ombro.
Tudo isso acaba sendo importante exatamente para saber o que se deve esperar
rig
de um determinado sistema de . Ele precisa permitir operar a câmera de modo fácil,
não atrapalhar o acesso a nenhum botão, entrada ou saída de sinal. Deve ser leve, mas
resistente e robusto, e permitir acomodar todos os demais acessórios necessários de
forma organizada.
Se usado no ombro, o
rig deve ser equilibrado, fazendo com o que o peso da
câmera e todo o sistema fique sobre ele, e não para frente ou para trás. Quando isso
acontece, sobrecarregase os braços do operador ou da operadora, gerando desgaste
físico desnecessário e fazendo com que depois de algum tempo a estabilidade da
imagem fique comprometida. A situação tende a piorar quando a câmera deve se mover,
fazendo com que cada passo seja muito mais perceptível.
Outro ponto importante e que não deve ser ignorado é que nenhuma parte do
rig
comprometa o sistema de refrigeração da câmera. Alguns modelos usam ventoinhas
para jogar o ar quente para fora através de pequenos buracos ao longo de alguma parte
do corpo. Tapar essa saída de ar pode levar a câmera a superaquecer, o que pode causar
danos ao equipamento, fazêlo desligar, travar, ou ainda comprometer seu rendimento
dropar frames10.
levando a corromper arquivos e
rig
Algumas das partes que podem integrar um :
● Baseplate
● Longarinas
● Cage
● Shoulder pad
● Cheese Plate
● Handles
Alguns acessórios que podem ser acoplados ao
rig através das longarinas ou
aparafusados em alguma parte de sua estrutura, quando oferecem suporte:
● Battery Mount
● Follow Focus
● Mattebox
● Braço articulado (ou mágico)
● Onboard Field Monitor (monitor onboard)
● Viewfinder (visor eletrônico)
10
Drop frame
, nesse caso, é gerado por um problema no processo de gravação da imagem no qual um
frame da sequência que forma o vídeo não é registrado, podendo aparecer como um frame totalmente
preto ou como um pequeno salto.