Vous êtes sur la page 1sur 33

APOSTILA DE CINEMATOGRAFIA DIGITAL 

Formação da Imagem 

Antes  de  entender   o   funcionamento  de  qualquer  tecnologia  de  produção  de 
imagem  –  seja  fixa  ou  em  movimento,  analógica  ou  digital – é necessário compreender 
como  se  dá  a  própria  formação  da  imagem.  Isso é: a forma pela qual a luz interage com 
uma determinada superfície e traduz esse estímulo em informação visual. 
A  base  para   esse  entendimento  não  está  na  película  ou  no  sensor  digital.  Os 
suportes  nada mais são do que reproduções técnicas do nosso aparato visual biológico, e 
é  por  isso  que  é  imprescindível  iniciar  esse  material  com  uma breve explicação sobre o 
funcionamento do olho e do processo, como um todo, da visão. 
Como  sabemos,  a  luz  entra  pelos  nossos  olhos  e  é  projetada  na  retina  (vamos 
pular  toda  a  explicação  sobre  o  que  acontece  nessa  etapa,  já  que não é nosso foco aqui. 
Uma vez projetada na retina, essa luz precisa ser  traduzida em algum tipo de informação 
para  que  possamos  enxergar.  Essa  tradução  depende  de  uma  série  de  fenômenos  que 
acontecem  em  sequência,  onde  qualquer  problema  em  uma  das  etapas  pode  ter 
diferentes consequências. 
A  primeira  é  a  própria  percepção  da  luz.  Nossa  retina  tem  células  especiais 
destinadas  a  essa  função:  os  cones  e  os  bastonetes.  Os bastonetes são responsáveis pela 
visão  em  ambientes  de  pouca  luz,  enquanto  os  cones  são  responsáveis  pela  percepção 
das  cores  e  de  detalhes.  É  por  isso  que  em  ambientes  pouco  iluminados  temos  uma 
sensibilidade menor às cores. 
Os  cones,  por  sua  vez,  são divididos em  três: os sensíveis ao vermelho, ao verde 
e  ao  azul  –  ou  seja,  as  cores  primárias do sistema (aditivo) RGB, e não por acaso esse é 
o  sistema  da  fotografia,  já  que  trabalha  com  luz.  Eles  se  concentram  em  maior 
quantidade  no  centro  da  nossa  retina,  em  uma  área  chamada  fóvea,  que  é  onde  melhor 
enxergamos  detalhes  e  cores.  É  por  isso que percebemos com maior nitidez  e separação 
de  cores  aquilo  que  está  no  centro  do nosso campo de visão, quando em ambientes bem 
iluminados. 
Ambos,  cones  e  bastonetes,  funcionam  da  mesma  forma1  quando  sensibilizados 
pela  luz:  ao  serem  iluminadas,  cada  uma  dessas  células  sofre  reações  químicas  no  seu 
interior  –  os  cones  sensíveis  ao  vermelho  reagem  proporcionalmente  à  porção  de 
comprimentos  de  onda  vermelhos  que  os  atingem, os  verdes aos comprimentos de onda 
verdes,  e  os  azuis  aos  comprimentos  de  onda  azuis  (óbvio,  certo?)  –  e  geram  uma 
corrente elétrica. Quanto maior a quantidade de luz, maior a corrente. 
Essa  corrente  gerada  nas  células  retinianas  responsáveis  por  captar  a  luz  deve, 
então,  ser  enviada  ao  cérebro  para  que  possa  ser  processada.  Para  isso,  cada  cone  e 
bastonete  tem  sua  própria  conexão  nervosa.  Elas  se  concentram   em  uma  região  da 
retina,  formando  o  nervo  ótico,  que  fará  o  transporte  de  toda  a  informação  luminosa 
coletada.  Nessa   região,  os  cones  e  bastonetes  estão ausentes, originando um ponto cego 
em  cada  um  dos olhos. Essa informação pode parecer gratuita aqui, mas será  importante 
para comprovar algo do qual trataremos em breve. 
O  nervo  ótico  conduz  esses  impulsos  elétricos  até  a  região  do  cérebro 
responsável  por  decodificá­los.  É  apenas  aqui,  após  o  processamento  dos  estímulos 
captados  na  retina,   que  de  fato  enxergamos  e  se  completa  o  sentido  da  visão.  A 
informação  de  cada  cone,  sensível  a  cada  uma  das  cores primárias, deve ser combinada 
para  que  possamos  apreender  as  nuances  de  cada  cor.  Caso  contrário,  nossa  visão seria 
composta  por  minúsculos  pontos  vermelhos,  verdes  e  azuis,  tal  qual  uma  pintura 
pontilhista.  Isso  significa,  então,  que  ela  não  é  apenas  um  processo  fisiológico,  mas 
também  cognitivo.  Ou  seja,  os  dados  recebidos  pelo cérebro devem ser reorganizados e 
combinados  para  que  uma   imagem  seja  percebida.  E  mais:  nossas  experiências, 
memórias,  conhecimentos  e  medos  também  estão  diretamente  envolvidos  no  resultado 
final. 
Para  exemplificar  de  forma  prática,  recuperemos  aquela  informação  sobre  o 
ponto  cego.  Por  que  não  percebemos  dois  pontos  sem  imagem  no  nosso  campo visual? 
Parte  da  resposta  é:  temos  dois  olhos   e  cada  um  cobre  o  ponto  cego  do  outro.  Embora 
isso seja verdade, essa informação não é suficiente. Mesmo que fechemos um dos olhos, 
ainda assim não nos damos conta dessa ausência de visibilidade.  

1
  Na   verdade,  existem   algumas  pequenas   diferenças  em   termos  fisiológicos  e  químicos,  mas há  muito 
mais semelhanças ­ e as diferenças não acrescentam nada à discussão sobre fotografia. 
Agora,  experimente  fechar  o  olho  esquerdo  e  olhar  para  um  ponto  fixo  à  sua 
frente.  Depois,  estique  seu  braço  direito  e  posicione  o  polegar  para   cima  bem  próximo 
ao  centro  do  seu  campo  visual.  Continue  olhando  para  o  ponto  fixo  e  ao mesmo tempo 
desloque  seu  dedo  para  a  direita.  Em  alguns  poucos  graus  você  perceberá  que  não 
consegue  enxergar  seu  polegar.  Ainda  assim,  não  é  exatamente  a  ausência  de  imagem 
que  vemos.  O  que  acontece  é  que  nosso  cérebro  completa a imagem desse ponto  com a 
informação existente ao redor. 
Esse  experimento serve para ilustrar o quanto nossa visão é resultado não apenas 
do  que  chega  aos  nossos  olhos,  mas  principalmente  do  que  nosso  cérebro  faz  com 
aquilo  que  recebe.  Existem  ainda  outros  casos  que  poderiam  ilustrar  bem  isso,  como  a  
(não  tão)  recente  polêmica  do  vestido  azul  e preto, percebido por alguns como branco e 
dourado  em  função   da  forma  como  o  cérebro  de  algumas  pessoas  interpretava  os 
estímulos. 
Diante  disso,  podemos  agora  dividir   todo o processo de formação da imagem na 
nossa visão em três momentos: 
1. Captação:  é  a  etapa  referente  à  apreensão  da  imagem  projetada  na  retina  
propriamente dita. 
2. Imagem  latente:   as  informações  coletadas  pelas  células  retinianas  a  serem 
enviadas ao cérebro. 
3. Processamento:  o  trabalho  cognitivo  sobre  as  informações  recebidas  pelo  nervo 
ótico, que resultará na imagem percebida e visualizada. 
Agora,  o  que  tudo  isso  tem  a  ver  com   a  direção  de  fotografia?  Absolutamente 
tudo.  Como  dito  no  início,  os  suportes,  sejam  analógicos  ou  digitais,  de  fotografia  fixa 
ou  em  movimento,  têm  seu  funcionamento  rigorosamente  igual  ao  processo  da  visão. 
Compreender  esse  processo  e  suas  etapas  e  saber  identificá­las  é  a  base  para  entender 
qualquer sistema. 
● Na  película,  os  bastonetes  são   os  sais  de  prata,  presentes  em  toda  a  emulsão,  e 
sua sensibilidade de cores diz respeito à sua camada nela. 
● Nos  sensores  digitais,  os  bastonetes  são  os  photosites  e  sua  sensibilidade  de 
cores está nos filtros usados na frente de cada um2. 

2
 Usando como referência um sensor que utilize padrão Bayer, a ser explicado no capítulo sobre sensores, 
bem como outros sensores existentes e em desenvolvimento. 
 
  Olhos  Película  Digital 
Captação  Cones e Bastonetes  Sais de prata  Photosites 
Conversão  da   luz  Mudança  na  estrutura química  Conversão  de  
em corrente elétrica  dos sais e desestabilização  fótons em elétrons 
Vermelho,  verde  e  Vermelho, verde e azul  Vermelho,  verde  e 
azul  azul 
Imagem latente  Retina sensibilizada  Sais de prata sensibilizados  Sensor 
sensibilizado 
Nervo ótico 
Raw 
Processamento  Fenômeno cognitivo  Fenômeno químico  Fenômeno virtual 
 

 
Os sensores digitais 
A  partir  da  compreensão  sobre  o  processo  da  visão  fica  simples,  por  pura 
analogia,  entender  todo  o  funcionamento  tanto  da  película  cinematográfica  quanto  dos 
sensores  digitais,  que  são  nosso  foco  aqui.  As  especificidades  de cada processo passam 
a  ser  detalhes  que  apenas  variam  em  função  da  natureza  de  cada  mídia.  Esses 
conhecimentos  são  especialmente  importantes  na  medida  em  que  a  tecnologia  digital 
está em desenvolvimento rápido e constante e os novos anúncios e rumores acontecem  o 
tempo todo. Os fundamentos da formação da imagem e conceitos básicos de informática 
são  a  forma  que  temos  de  sermos  capazes de nos adequarmos rapidamente ao ritmo das 
mudanças.  Sendo  assim,  fica  inviável  para  uma  apostila  ou  material  didático dar conta 
de  manter­se  totalmente  atualizado  no  que  diz  respeito  a  modelos  de  câmera  e 
tecnologias específicas. 
Dito  isso,  hoje  existem  alguns  diferentes   tipos  de  sensores  com  características 
próprias,  vantagens  e   desvantagens,  além  de  outros  em  desenvolvimento  que  devem 
começar a aparecer no mercado em breve. 
O  CCD  (Charge­Coupled  Device)  foi  largamente  utilizado  nas  primeiras 
gerações  de  câmeras  profissionais,  sendo  um  chip  desenvolvido  especificamente  para a 
captação  de  imagem.  Apesar  dele  apresentar  algumas  vantagens  que  em  tese  lhe 
conferem  mais  qualidade,  como  maior  sensibilidade  e  menor  nível  de  ruído,  os 
fabricantes  optaram  pelo  CMOS   (​
Complementary  Metal–Oxide–Semiconductor)  por 
seu  menor  consumo  de  energia  e  maior  velocidade.  Tal  escolha  levou  a  um 
desenvolvimento rápido dessa tecnologia, o que neutralizou suas desvantagens iniciais. 
Atualmente  o  CMOS  é  o  tipo  mais  utilizado  pelos  fabricantes,  inclusive  nos 
modelos  mais  avançados  tanto  no  mundo   cinematográfico  quanto  fotográfico. Modelos 
como:  Arri  Alexa,  Sony  F65,  RED  Dragon  e  Canon   C500  ­   atualmente  as  principais 
câmeras  utilizadas  por  produções  de  maior  orçamento  (inclusive  em  Hollywood)  ­  o 
utilizam. 
 
Funcionamento básico dos sensores 
Talvez  a  melhor  forma  de  entender  o  sensor  digital  seja  pensar  nele  como  a 
retina,  uma  vez  que  é  a  superfície  responsável  por  captar  a  luz  e  converter  isso  em 
informação visual. 
Nessa "retina", os ​
photosites desempenham a função das nossas células  sensíveis 
à  luz:  cones  e  bastonetes,  sendo  cada  um  deles  o  equivalente  a  um   pixel.   Ao  serem 
atingidos  pelos  raios  luminosos,  os  fótons  geram  uma  carga  em  elétrons  a  ser 
transformada pelo sensor em voltagem. Essa é a primeira fase, ainda analógica. 
Essa  voltagem  passa,  então,  por   um  conversor  analógico­digital  para  ser 
convertida  em  informação  binária.  A  principal  diferença  entre  os  sensores  CCD  e 
CMOS está na forma pela qual se dá essa conversão. 
No  CCD,  todo  o  chip  é  dedicado  exclusivamente  à  captação  da  imagem   e  não 
realiza  a  transformação  de  sinal  analógico  para  digital.  Ou  seja,  o  CCD  envia para fora 
do  chip  um  sinal  analógico,  o  que   torna  necessário  um  conversor  externo,  que 
converterá   a  voltagem  em  informação  binária.  O  conversor,  então,  envia  essa 
informação  já  digitalizada  para  um  processador  que  a  processará  e/ou  armazenará  em 
uma mídia. 
Já  o  CMOS  tem  uma  arquitetura   diferente,  incorporando  o  conversor 
analógico­digital  dentro  do  próprio  chip.  Isso  elimina  a  necessidade  de  um  conversor 
externo,  tornando  o  processo  mais  rápido.  Porém,  significa  dedicar  parte  do  chip  para 
desempenhar  outra  função  além  da  captação  propriamente  dita. O que, em tese, implica 
em  uma  menor  sensibilidade   e  maior  nível  de  ruído  na  imagem  gerada.  Pelo  menos foi 
assim  durante  as  primeiras  gerações  de  sensores  digitais.  À  medida que essa tecnologia 
foi  desenvolvida, essas desvantagens foram anuladas para a maior  parte  das aplicações e 
em alguns casos superadas. 
 

 
 
 
As  diferenças   mais  específicas  e  técnicas  possivelmente  causariam  muita 
confusão  se  colocadas  aqui.  O  importante,  agora,  é  entender  a  base  do  funcionamento 
do  processo  de  formação  de  imagem,  que  independente  da  tecnologia  do  sensor  é  a 
mesma. 
Resumindo e relembrando: a luz chega aos ​
photosites do sensor, os fótons geram 
elétrons,  produzindo  uma  determinada  carga  que  será  convertida  em  voltagem.  Quanto 
maior  a  voltagem  gerada,  mais  luz  aquele  ​
photosite  recebeu,   portanto  mais  clara  é 
aquela porção da imagem. Essa voltagem será convertida em sinal digital. 
 
Conversão analógico­digital: bits e alcance dinâmico 
Eis  a  etapa  final  do  funcionamento  de  um  sensor  CMOS  antes  de  enviar  os 
dados  para  serem  processados  ou  armazenados  em  uma  mídia.  A  conversão 
desempenha  um  papel  que  talvez  passe  despercebido  com  um  olhar mais desatento que 
considera  apenas  a  transformação  de  um  sinal em outro. Para não cometermos esse erro 
precisamos  entender  a  própria  natureza  das  informações  digitais  que  utilizamos:  são 
códigos  numéricos  binários.  Isso  também  vai  ser  muito  importante  para  entendermos 
outras questões críticas da imagem mais adiante, como profundidade de cores. 
A  menor  parte  de   uma  informação  digital  é  o  bit  (​
bi​ t​
nary  digi​),  que  pode  ser  0 
ou  1.  Sendo  assim,  um  bit  apenas  pode  assumir  2  valores,  e  o  número  de  bits  define  a 
quantidade  de  informação.  Isso  significa  que  o  número  de  possibilidades  sempre  será 
uma  potência  de  base  2  cujo  expoente  é  o  número  de  bits.  Por  exemplo:  1  bit  significa  
1​ 2​ 8
2​,  cujo  resultado  é  2.  2  bits  é  2​,  que  resulta  em  4. 8 bits é 2​ = 256 e assim por diante. 
E o que isso significa se pensarmos no sensor? 
É  crucial  que  essa  conversão  seja  feita  com  alta profundidade de bits (​
bit depth) 
alcance dinâmico (dynamic range)​
para  permitir  que  o  sensor  utilize  todo  o  seu ​ . Via de  
regra,  ele   deve  ter  profundidade  de  bits  equivalente  ou  maior  ao  seu  alcance  dinâmico, 
que  seria  o  equivalente  digital  ao  conceito  de  latitude  na  película.  A  razão  é  que  uma 
conversão  com  profundidade  de  bits  mais  baixa  seria  incapaz  de  traduzir  com  a devida 
suavidade  as  diferentes  gradações  de  luminosidade  captadas  por  um   sensor,  podendo 
resultar  em  ​
color  banding  na  imagem.  Veremos  a relação entre bits  e latitude com mais 
raw​
detalhes quando falarmos sobre ​ . 
De  todo  modo,  é  necessário  reforçar  o  quanto  esse  processo  é  determinante  na 
qualidade  da  imagem.  Latitude,  ou  dynamic  range  para  o  mundo  digital,  é  uma  das 
características  que  mais  pesam  na  hora  de  julgarmos  uma  imagem.   Sua   importância  é 
muito  maior  do  que  a  tão  falada  resolução, seja na fotografia fixa e seus megapixels, ou 
na versão cinematográfica: os Ks. 
 
Sensibilidade dos sensores 
Durante  a  era  da  película  diversas  escalas  foram  utilizadas  para  especificar  a 
sensibilidade  de  um  filme.  As  principais  foram  a  ASA  (Estados  Unidos)  e  a  DIN 
(Alemanha).  Sendo  a   primeira  uma  escala  aritmética  e  a  segunda  uma  escala 
logarítmica.  Para  chegar  a  um  padrão  internacional   a  ​
International  Organization  for 
Stardalization  combinou  as  duas  escalas  em  uma  de  suas  normas.  É  a  esse  padrão  que 
nos referimos quando falamos que um filme tem determinado ISO. 
A  rigor,  ainda  usamos  o  mesmo  padrão  definido  pela  ​
American  Standards 
Association  (ASA),  uma  vez  que  o  padrão  ISO  nada  mais  seria  que  a  sensibilidade  em 
ASA seguida da correspondente em DIN separadas por uma barra. 
Legal,  mas  e  daí?  O   que  ISO,  ASA  ou  DIN  nos  diz?  De  forma  simplificada:  a 
quantidade  de  luz  necessária  para  que  um  cartão  cinza  médio,  ou  18%,  ao  ser  exposto 
corretamente,   corresponda  ao  meio  da  ​
curva  sensitométrica  quando  revelado de acordo 
com  os  padrões  designados  pelo  fabricante.  Esses  padrões  são  aquilo  que  ele   entende 
como  o  melhor  resultado   que  o  filme  oferece, ou o mais seguro. Quanto maior o índice, 
menos  luz  é  necessária.  Na  escala  ASA,  aritmética,  um  filme  ASA  200  tem o dobro de  
sensibilidade em relação a um ASA 100, e metade de outro ASA 400. 
O  problema  todo  é  que  no  digital   não  existe  uma  curva  sensitométrica,  ou  um 
material  físico  que  pode  ser  submetido  a  testes  de  densitometria  para  medir 
matematicamente  a  densidade  da  superfície  sensibilizada  e  revelada.  Ou  seja,  a  rigor  é 
impossível  dizer  que  um  sensor  tem  uma  sensibilidade  ASA ou ISO usando um critério 
exatamente  igual  ao  da  película.  Foi  então  criada  uma  nova  norma  de  padronização 
destinado  ao  digital3 ,  mas que respeita a mesma escala. O que acontece é: todo o mundo 
ligado  à  produção  de  imagens  estava  familiarizado  demais  com  ela  para  que  ela  fosse 
apenas  abandonada.  O  caminho  então  foi  usá­las  como  referência  no  digital,  de  forma 
que  quando  se  fala   em  um   valor  de  ISO  estamos  dizendo:  resposta  do  sensor  à  luz 
similar à resposta de uma película daquela sensibilidade. 
Outra parte importante para se entender a sensibilidade nos sensores é derrubar o 
mito  de  que  eles  podem  variar  de  sensibilidade.  Na  verdade  não.  A  capacidade  de 
aproveitamento   da  luminosidade  neles  será  sempre  a  mesma,  não  importando  a 
configuração   colocada  na  câmera.  O  que,  na  verdade,  algumas  câmeras  oferecem  são 
ajustes  de ganho aplicados sobre o sinal analógico gerado pelos photosites e convertidos 
em  sinal  elétrico.  Todos  os  sensores  têm  uma  única  sensibilidade  nativa4,  seja  ele  
divulgado  ou  não  pelo  fabricante.  Outros,  porém,  divulgam  um  determinado  intervalo 
de  ISOs  nativos,  como  por  exemplo  de  200  a   1600.   O  que  acontece  realmente  é  que  o 
fabricante  entende  aquele  intervalo  como  apresentando  um  resultado  suficientemente 
satisfatório  dentro  do  seu  controle  de  qualidade.  Isso  acontece  sobretudo  com  as 
prosumer5 ​
câmeras  de   fotografia  e  filmadoras  ​ .  Como  os  consumidores  de  câmeras 
cinematográficas  digitais  necessitam  de  um  maior  rigor,  é  comum  os  fabricantes 
divulgarem  a  sensibilidade   nativa,  ainda  que  algumas  medições  independentes  possam 
indicar valores diferentes dos anunciados. 
É  importante  notar,  porém,  que  algumas  câmeras  não  variam  o  ganho  aplicado 
antes  da  conversão.  Nesse  caso,  podemos  dizer  que  esses  sensores  têm  uma 
sensibilidade  fixa  e   toda  e  qualquer  alteração  feita  é,  na  verdade,  pós­processamento. 

3
 ​Photography   ­­  Digital  still  cameras  ­­  Determination  of  exposure  index, ISO  speed  ratings,  standard 
output  sensitivity,  and  recommended  exposure   index. 
http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=37777 
4
  A Panasonic seria  uma  exceção com a  Varicam 35, sua topo  de linha dedicada à cinematografia digital. 
Segundo  o  própria  fabricante,  a  câmera  tem  2  ISOs  nativos diferentes  que  se  alternam  automaticamente 
para se adaptar melhor às condições de luz, oferecendo o mínimo de ruído. 
5
  Fatia de  mercado  ocupada  por  amadores  avançados  que buscam melhores equipamentos e profissionais 
que utilizam modelos mais básicos ou não podem pagar por modelos topo de linha. 
Exemplos  de  câmeras   que  operam  desse  modo  são  todas  as  da  linha  digital  da  Arri, 
assim  como  as  da  Blackmagic  Design. Nelas, quando se altera o ISO dentro dos menus, 
tudo  que  se faz é  pedir para que a câmera processe o arquivo alterando sua configuração 
de  ​ gamma​
curvas  ou  ​ clippando​
.  Isso  significa  que  se  algo  na  imagem  captada  estiver  ​ , 
estourando,  abaixar  o  ISO  para  reduzir  a  sensibilidade  não  resolverá  o  problema. 
Diferentemente   do   que  seria  em  uma  câmera  que  varia  o  ganho  aplicado  no  sinal 
analógico.  Não  seria  o  caso  aqui  de  discutir  o  que  é  melhor,  mas  sim  perceber  a 
importância  de   entender  o  funcionamento  da  câmera  que  tem  em  mãos  para  que  possa 
tirar dela o melhor rendimento possível. 
 
 
   
Processamento 
 
Debayering​
 e interpolação 
Aqui  chegamos  num  ponto  de  intersecção  entre  estrutura  e  funcionamento  do 
raw​
sensor,  pós­processamento   e  arquivo  ​ .  Sobre  o  último,   falaremos  mais  tarde. 
Concentremo­nos  em  finalizar  o  funcionamento  do  sensor  e  começar  a  entender  como 
se dá o início do processamento de toda a luz captada. 
Assim  como  a  retina  possui  células  dedicadas  à percepção de cada cor primária, 
que  devem  posteriormente  ser  combinadas  e  interpretadas  para  a  formação  da imagem, 
o  sensor  funciona  ​
exatamente  da  mesma  maneira.  É  importante  constatar,  porém,  que 
diferentemente  das  células,  os  ​
photosites  não  são  sensíveis  a  um  comprimento  de  onda 
específico, mas sim aos fótons. Eles são sensíveis à luz, não à cor. 
A  cor  nos sensores digitais atuais6 é obtida através de filtragem da luz que atinge 
photosite​
o  ​ :  antes  de  cada  um  há  um  filtro  colorido  que  barra  todos  os  outros 
comprimentos  de  onda,  deixando  passar  apenas  um,  o  da  cor  primária  à  qual  aquele 
photosite  está  destinado  a  captar.  Dessa  forma,  apenas  os  fótons  de  determinado 
comprimento  de  onda   conseguem  interagir  com  a  superfície  de   cada  pedacinho  do 
sensor. Essa informação é então enviada para fora do sensor, onde será processada. 
Devemos  observar,   então,  que  a  estrutura  desses  sensores  utilizados  nas 
principais  câmeras   desperdiça  uma  considerável  quantidade   de  luz.  Existem  diferentes 
projetos  de  uma  nova  geração  de  sensores  CMOS  em  desenvolvimento.  Um  deles 
utilizando  prismas7  no  lugar  dos  filtros,  de  forma  a  não descartar a luz, e sim separar os 
comprimentos  de  onda.  Dentro  de  cada  ​
photosite  haveria,  então,  uma   área  específica 
para  captar  cada  cor  primária.  Essa  tecnologia   permitiria  aumentar  a  sensibilidade  dos 
sensores,  melhorar  a  reprodução  cromática,  aumentar  a  definição  das  imagens  e 
eliminar  por  completo  o  ​
moiré   existente  em  muitas  câmeras  com  sensor  por  filtragem 
com padrão Bayer. 

6
  A  exceção   foi  o  sensor  Foveon  X3,  usado  em  DSLR  da  Sigma.  A  tecnologia  usada   busca  imitar  o 
comportamento da película no que diz respeito à captura das cores. 
7
  Tecnologia  em  desenvolvimento  pela  Panasonic  anunciada  em 2013. Segundo a fabricante, a tecnologia 
atual  de  filtros  descarta  entre  50  e  70%  da  luz  que  entra  pela  lente  ­  ou  seja,  pouco  mais de  um  stop. 
Remete  diretamente  ao  processo  da  Tecnicolor,  assim  como  das  primeiras  gerações  de câmeras  digitais 
nas  quais  a  luz era separada por prismas antes  de ser projetada sobre 3 sensores dedicados a cada canal de 
cor. Hoje já obsoletas no mercado em função do tamanho e peso necessário para o sistema. 
Esse  padrão  consiste  em  um  arranjo 2x2, no qual o verde aparece duas vezes e o 
vermelho  e  o  azul  aparecem  uma  cada.  Esse  esquema  é  repetido  por  todo  o  sensor, 
formando  uma  espécie  de  tabuleiro  de  xadrez.  A  maior  presença  de  filtros  verdes  nos 
photosites  busca  mimetizar  a  fisiologia  do  olho,  uma  vez  que  nossa  visão  é  mais 
sensível  ao  verde.  São  esses  ​
photosites  os  responsáveis  por  detectar  e  reproduzir  mais 
apropriadamente o nível de luminosidade da cena. 
 

 
 
O  fato  de  cada  ​
photosite   captar  exclusivamente  um  canal  de  cor  significa  que 
para  a  formação  de  uma  imagem  reconhecível  é  necessário  um  processo  complexo  de 
interpolação.  Ou  seja,   combinar  as  informações  captadas  por cada ​
photosite com as dos 
seus  vizinhos.  Para  a  formação  de  um  pixel  na  imagem,  são  usados  os  dados  captados 
photosites ​
por  vários  ​ debayering​
adjacentes. Esse processo é chamado ​ , ou seja, desfazer 
a  estrutura  de  dados   captadas  segundo  o  padrão  Bayer  e remontar  a imagem. Todo esse 
processo é crucial para duas características da imagem: riqueza de detalhes e reprodução 
das cores. 
 
Simulação de imagem sem passar pelo processo interpolação. Note que ela é inteiramente formada por 
pontos de diferentes tons de verde, vermelho e azul. 
 
Todo  esse  processo  causa  uma  redução  da  resolução  total  do  sensor  de 
aproximadamente  33%  durante  o  processo  de  interpolação  e  formação  da  imagem.  Por 
isso  alguns  fabricantes  utilizam  uma  quantidade  de  ​
photosites maior do que a resolução 
final  do  arquivo.  Isso  teoricamente  garante  que  os  detalhes finos não sejam perdidos na 
hora  da  combinação  das  informações  de  cada  parte  do  mosaico  de  dados,  aumentando 
assim  a  definição  da  imagem,  ​
ainda  que  a  resolução  seja  a  mesma​
.  Importante  fazer 
definição  ​
uma  clara  distinção  entre  ​ resolução  ​
e  resolução:  ​ diz  respeito  à  quantidade  de 
definição  ​
pixels  que  formam  um  quadro;  ​ diz  respeito  ao  nível  de  detalhamento 
percebido​

 
 
   
Qualidade de imagem 
 
Resolução e definição 
Sem  dúvidas  a  resolução  é  o  aspecto  mais  alardeado  em  torno  das  câmeras 
digitais.  O  marketing  em  torno  de  altas  resoluções,  como  4K,  5K  e  até  6K  é  forte  e 
somos  bombardeados  o  tempo  todo  com  novas   câmeras  e  monitores  ou  TVs  que 
prometem  melhor  qualidade  de  imagem  através  de  resoluções  super  altas. Para que não 
sejamos  levados  pela  onda  é  necessário  termos  um  bom  entendimento  do  que  isso 
significa, e no quanto isso afeta a nossa percepção e quando. 
Primeiramente  devemos  compreender  bem  a  diferença  entre  resolução  e 
definição.  Como  já  falamos,  resolução  diz  respeito  ao  número  de  pixels  na  imagem, 
enquanto  definição  diz  respeito  à  reprodução  e  percepção  dos  detalhes  finos.  É 
impossível  julgar  a  relevância  da  resolução  de  um  determinado  material  sem  levar  em 
consideração   o   tamanho  da  tela  onde  será  exibido  e  a  distância.  A  medida  usada  para 
fazer esse julgamento é a altura da tela. 
Usando  a  altura  da   tela como medida, temos uma ideia da área da visão ocupada 
por  ela  e  de  sua   ampliação  na  nossa  retina.  Quanto  maior  a  resolução,  mais  perto 
podemos  ficar  dela  sem   conseguirmos  resolver individualmente os pixels que formam a 
imagem, ou seja, não conseguimos ver com clareza os quadradinhos e a área entre eles. 
standard  definition​
Para  uma  tela  SD  (​ ,  480  linhas),  a  distância  na  qual 
começamos  a  perceber  os  pixels  é  de  aproximadamente  7  alturas  de  tela.  Isso  significa 
que  a  mais  de  3  metros  e  50  centímetros  de  distância  de  uma  tela  de  50  cm  de  altura 
(50cm  de  altura  de   tela  seria  o  equivalente  a  uma  TV   de  aproximadamente  40 
polegadas),  uma  pessoa   de  visão  20/20  (considerada  uma  visão  normal  em  pessoas 
saudáveis,  embora  algumas   pessoas  possam  enxergar  melhor)  não  será  capaz  de 
distinguir  individualmente  os  pixels.  Ou  seja,  ela  perceberá  a  imagem  com  a  maior 
definição  que  seu  olho  permite.  Nesse  caso  não  fará  diferença  se  for  colocada  diante 
dela uma TV de resolução maior, se mantido o mesmo tamanho da tela e distância. 
Com  a chegada do Full HD essa distância cai para aproximadamente 3 alturas  de 
tela.  Ao  mesmo  tempo,  o  barateamento  da  tecnologia proporciona um acesso mais  fácil 
a  telas  maiores.  Como  para  grande  parte  das  pessoas  a  distância  para  a  TV está situada 
entre  essa  faixa  de  3  a  7  alturas  de tela, a diferença da chegada do novo padrão teve um 
impacto muito significativo. Agora, por exemplo, numa mesma tela de 50cm de altura, a  
distância  na  qual   se  percebe  os  pixels  é  de  aproximadamente  1  metro e 50 centímetros. 
Para o 4K, essa distância cai ainda mais, para aproximadamente 1 altura e meia de tela. 
 

 
 
Se  levarmos  em  consideração  que  poucas pessoas tem acesso a telas tão grandes 
e  dificilmente  a   distância  entre  a  tela  e  o espectador é tão pequena em usos domésticos, 
o  4K  se  mostra,  no  mercado   de  TV,  como  uma  grande  estratégia  de  marketing  das 
fabricantes  para  impulsionar  vendas,  muito  mais  do  que  um  ganho  significativo  para  a 
maior parte dos usuários e usuárias. 
A  rigor,  a  exibição  em   4K  só  se  mostra  relevante  para  exibições  em  salas  de 
cinema  de grandes tamanhos de tela, na qual o público senta a não mais  que duas alturas 
de  tela  da  imagem,  como  o  iMax.  Deve­se  levar  em  conta,  porém,  que  mesmo  hoje  o 
padrão  do  iMax  digital  é  2K,  apesar  dos  enormes  tamanhos  de  tela  em  comparação  a 
salas de exibição comuns, em especial no Brasil. 
Tudo  isso  fica  ainda  mais   evidente  ao  notarmos  que  a maior parte dos filmes de 
grande  orçamento  em  Hollywood  que  recebe  lançamento  em  iMax   é  rodada  com  a 
câmera  Alexa,  que  tem  2,8k  de  resolução.  Diretores  e   diretoras  de  fotografia  devem, 
então,  levar  em  consideração  a  forma  de  exibição  final na hora de escolherem a câmera 
e a resolução de captura. 
O  modo pelo qual as fabricantes podem classificar suas câmeras varia no que diz 
respeito  ao  critério,  levando  em  conta  questões  como  marketing.  Isso  é  motivo  de 
polêmica,  e  usuários  desavisados   podem  acabar  sendo  enganados  ou  pelo  menos  não 
entenderem o que estão escolhendo. 
Como  já  vimos,  a  imagem  é  formada  a  partir  de  um  complexo  processo  de 
photosites​
combinação  entre  as  informações  dos diferentes ​ . Se um sensor possui 4096 x 
2160  ​
photosites  e  entrega  um   arquivo  com  a  mesma  resolução,  o  padrão  4K  para 
upscaling​
cinema,  sabemos que na  verdade essa imagem está passando por ​ , ou seja, está 
sendo  ampliada  ligeiramente  para  a  formação  do  arquivo  final.  A  título   de curiosidade, 
recentemente  a  Arri  passou  a  possibilitar  que  algumas  de  suas  câmeras  entreguem  um 
arquivo  4K,  apesar  de  usarem  o  mesmo  sensor  que  originalmente  gerava  uma  imagem 
de  2,8K.  Todavia,  a  Arri  justifica  argumentando  que  a  intenção  é  a   de  evitar  que  seja 
necessário  fazer  ​
upscaling  do  material  captado  com  a  câmera  durante  a  pós­produção, 
nos casos em que a resolução seja demandada pela produção ou cliente.  
Outra  variável  em   toda  essa equação é que, como dito, resolução e definição são 
coisas  diferentes.  O  que  significa  que  existem  ainda  diversos  outros  fatores  que podem 
impactar  a  definição,  ou  nitidez,  da  imagem  final.  As  lentes  são  um  fator  crucial  nesse 
aspecto.  Não  importa quão  alta seja a resolução de uma câmera, se as lentes não tiverem 
alta  qualidade ótica e  não forem capazes de resolver o nível de detalhamento necessário, 
não se ganhará definição. A regra é de que a definição sempre será limitada pelo ítem de 
menor qualidade envolvido no processo de formação da imagem. Pensar no todo ajuda a 
otimizar os gastos e permite obter o melhor resultado. 
A  grande  febre  do  4K   tem  levado  as  fabricantes  a  lançarem  modelos  cada  vez 
mais  baratos,  fazendo com que muitos e muitas cineastas e estudantes adotem o formato 
sem  levar  em  consideração  questões como lentes usadas, compressão e profundidade de 
cor.  O  resultado  é um grande gasto  em armazenagem e processamento sem ganhos reais 
na  qualidade  da  imagem8.  Se  ainda  colocarmos  na  equação  a  janela  de  exibição,  que 

8
  Usando a mesma  compressão, um arquivo  em 4K  ocupa  4  vezes  mais espaço que um Full HD, embora 
permita ganho máximo de 2 vezes na definição. 
web​
nesses  casos  geralmente  são  ​ , TV ou festivais, que na maioria dos casos não contam  
com projeção 4K, tudo passa a fazer ainda menos sentido. 
O  melhor  modo  de  verificar  o  nível  de  definição  que  uma  imagem  pode   ter  é 
através  de  um  teste  real  e  rigoroso,  que  permita  medir  a  resolução  espacial9  real  de um 
sistema,  como  o  de  ​ Modular  Transfer Function​
MFT  (​ ). Esse  teste dirá quantos  pares de 
linha  por  milímetro  um  determinado  conjunto  de  câmera  e  lente  é  capaz  de  registrar  e 
reproduzir.  Nos  casos  onde  podemos  fazer  tais  testes,  estaremos  imunes  às  estratégias 
de marketing das fabricantes. 
 

 
Exemplo de cartela usada para medir quantas linhas verticais por milímetro um sistema consegue 
resolver. Existem outros modelos que permitem testar a resolução em todos os sentidos. 
 

Outro  ponto  importante  é  ter  em  mente  que  resolução  é  apenas  um  fator  da 
qualidade  de  uma  imagem,  mas  não  a  mais  importante.  Na  frente  estão:  alcance 
dinâmico  (ou  latitude),  espaço  de  cor  e profundidade de cor. Não por acaso são essas as 
high  end​
características  que  as  fabricantes  reservam  para  suas  câmeras  ​ .  De acordo com 
a  IMS  (Imaging  Science  Foundation),  que  trata  de  tecnologia  de  telas,  a  resolução  é 
apenas a quarta na hierarquia. 
Na  verdade,  o  excesso  de  definição  das  imagens  digitais  é  visto  como  um 
problema  para  grande  parte  dos  diretores e diretoras de fotografia, sobretudo para quem 
veio  da  cinematografia  em  película.  Nesses  casos,  é  muito  comum  o  uso  de  filtros 
difusores  nas  lentes  para  diminuir  a  definição,  deixando  a  imagem  com  uma  textura 
mais  orgânica,  uma  vez  que  a  nitidez  excessiva  pode  conferir  à  imagem  um  aspecto 
hiperrealista.  Um  exemplo  de  filtro  difusor  frequentemente  utilizado com essa função é 
o  Black  Pro  Mist,  fabricado  pela  Tiffen  e  disponível  em  diversas  intensidades.  Uma 

9
  Resolução   espacial  é  o  quanto  de  detalhamento um sistema consegue  registrar por  unidade de  espaço. 
No caso, quantos pares de linhas o sistema consegue resolver por milímetro em cada eixo. 
alternativa   barata  pode  ser  o  uso  de  meia­calça  preta  de  fio  fino  esticada  na  frente   ou,  
para  um  melhor  resultado,  no  final  da  lente,  junto  ao  último  elemento  ótico.  Quanto 
mais  esticado,  mais  sutil  o  efeito.  Essa  técnica  é  antiga,  já  sendo  utilizada  no  cinema 
closes ​
clássico hollywoodiano para suavizar ​ de estrelas ­ sobretudo de mulheres ­ dentro 
star  sistem​
do  ​ ,  deixando  suas  peles  com  textura  aveludada,  diminuindo  traços  visíveis 
de rugas. 
 

 
 
Para  não  dizer   que  não  foi  citada  nenhuma  possível  vantagem  do  4K  na 
aliasing  ​
cinematografia  digital,  ​ moiré  ​
e  ​ são  problemas  que  tendem  a  ser  menos 
recorrentes,  uma  vez  que  as  câmeras  passam  a  ter  mais  capacidade  para  lidar  com 
detalhes  finos.  Outra  possível  vantagem  é  para  quem  lida  com  efeitos  visuais  e  CGI 
(​
computer  generated  image)​
,  muito  embora  a  compressão  e  profundidade  de  cor 
também tenham uma importância grande nesse ponto. 
 
Profundidade de Cor 
A  profundidade  de  cor  é  uma  característica  de   grande  relevância  nas  câmeras.  
Medida  em  bits,  ela  é  importante  para  garantir  uma  transição  suave  entre  tons  e 
graduações.  É  geralmene  expressa  por  canal  de  cor,  não  pela  profundidade  total. 
Quando  falamos  em  um  ​
codec  de  8  bits  estamos  dizendo  que  ele  tem  8  bits  de 
8​ 8​ 8
informação  em  cada  um  dos  canais  de  cor.  Ou  seja,  2​x2​x2​   cores  no  total,  ou 
256x256x256,  de  forma  que  resulta  em  16,7  milhões.  Isso seria uma imagem de 24 bits 
no  total.  Uma  baixa  profundidade  de  cores  pode acabar resultando em efeitos negativos 
color banding​
na imagem, como ​ . 
 

 
color banding​
Exemplo de ​ . Note as faixas de cor formadas na suave transição de cores do céu. 
 
A  maior  parte  dos  monitores  domésticos  é capaz de reproduzir apenas 8 bits por 
canal  de  cor.  Embora  seja  o  suficiente  para  uma  visualização  sem  grandes  problemas, 
para  as  etapas  de  pós­produção,  como  correção  de  cor,  acaba  muitas vezes não sendo o 
bastante e limitando a flexibilidade do material. Como cada canal de  cor tem apenas 256 
tons,  a  diferença  entre  um  e  outro  é  mais  significativa,  o  que  não  permite  que  se 
manipule  muito  o  material  antes  de  efeitos  colaterais,  ou  o  que  chamamos de artefatos, 
que degradam a imagem, apareçam. 
10​
Em  10  bits,  o  número  de  tons  cresce  para  1024  (2​ ).  Isso   não  significa  que  as 
cores  em  10  bits  sejam  mais  saturadas,  por  exemplo.  O  tom  equivalente  a  255  seria  o 
mesmo  do  tom  1023.  O  que  acontece  é  que  entre  o  tom  mais  claro  e  o  mais  escuro 
existem  mais  tons  intermediários  em  10 bits. Isso  acaba sendo uma grande vantagem na 
hora de fazer os ajustes desejados nas cores para o material final. 
 
 
Levando  isso  em  conta,  entendemos  porque  os  fabricantes  evitam  possibilitar, 
nos  modelos  mais  acessíveis,  arquivos  com  maior  profundidade  de  cores. Dessa forma, 
os  profissionais  que  precisam  de  uma   maior  qualidade  de  cores  e  realizam  correção  de 
cor no seu material se  vêem forçados a investir em equipamentos mais caros. A primeira 
câmera  a  oferecer  um arquivo 10 bit e com um formato de compressão bem aceito pelos 
profissionais  abaixo  da  faixa   de  3  mil  dólares  foi  a  Blackmagic  Cinema  Camera.  Não 
por  acaso  ela   é  considerada  uma  das  melhores  câmeras  em  termos  de  imagem  para 
projetos com orçamento limitado. 
 
 
   
Compressão e chroma subsampling 
 
Codecs ​
e compressão 
Para que toda a informação captada seja transformada em imagem ela precisa ser 
debayering​
processada.  Após  a  etapa  do  ​ ,  esses  dados  estão  prontos  para  dar  origem  a 
um  arquivo  de  vídeo  propriamente  dito.  Para  economizar  espaço  e  exigir  menos  poder 
de  processamento  dos  computadores  na  pós­produção,  é  comum  que  os  fabricantes 
adotem  métodos  e  padrões  de  compressão  e  codificação.  Cada   fabricante  tem  o  seu 
próprio  método,  adere  a  um  existente  ou  ainda,  em  alguns  casos,  junta­se  com  outro 
para criar um novo. Esses padrões de compressão e codificação são os ​
codecs. 
Aqui  talvez  esteja  um  dos  primeiros  grandes  sustos  que  se  toma  quando  se 
começa  a  lidar  com  arquivos  de  câmeras  digitais, sobretudo para quem está travando os 
primeiros  contatos  com  edição  e  correção  de  cor.  As  opções  de  ​
codecs  e  formatos  são 
enormes  e  costumam  causar  confusão.  Mas  tudo  isso  pode  ser  evitado  se  for 
compreendido como eles funcionam. 
codecs​
Existem  dois  tipos  de  ​ :  os  ​
lossy  (com  perda  de  informação)  e  os  ​
lossless 
(sem  perda).  Ambos  codificam  a  imagem  de  forma  a  reduzir   o   tamanho  total  ocupado 
pelo  arquivo  original,  e  necessitam  de  uma  chave,  ou  decodificador,  para  serem  lidos. 
Ou  seja,  sem  essa  chave  os  arquivos  não  podem  ser  decodificados  para  permitir  a 
reconstrução do arquivo original, no nosso caso, o vídeo. 
Existem  ainda  os  formatos,  que  nada  mais  são  do  que  o  "envelope"  no  qual   os 
arquivos  codificados  estarão  incluídos.  Num  arquivo  audiovisual,  além  do  ​
codec  de 
codec​
imagem, você terá o ​  de vídeo. Ambos estarão "embrulhados" juntos pelo formato. 
Exemplos  de  formato  são:   ​
AVCHD  ​
(utilizado  por  Panasonic  e  Sony), 
DVCPRO  ​
(Panasonic  para câmeras DV, já obsoleto, embora ainda apareça nas listas de 
exportação  causando  confusão)  e  ​
MOV  (formato  proprietário  da Apple). Já ​
codecs são: 
H.264  (mais  usado  em  DSLRs  e  câmeras   de  linhas  mais  básicas),  ​ , ​
MPEG2​ MPEG4​

ProRes ​
(codec da Apple), ​
DNxHD ​
(da Avid) e outros. 
ProRes  e  DNxHD  são  dois  dos  principais  codecs  utilizados  para  pós­produção, 
frame  ​
uma  vez  que  possuem  cada  ​ codificado  individualmente,  ao  contrário  do  H.264, 
frames​
que  codifica  em  grupos  de  ​ .  Ao  mesmo  tempo  que  são  capazes  de  manter  a 
qualidade  alta  e  sem  grandes  perdas.  Isso  faz  deles  escolhas  apropriadas  para  edição  e 
integração  entre  diversos  softwares  de  finalização   e  efeitos.  O  que  permite  que  não  se 
faça muitas conversões, já que uma parte da qualidade se perde na medida em que se faz 
uma nova codificação e compressão. 
A  compressão  pode  ser  mais  ou  menos  prejudicial,  dependendo de quão intensa 
codec​
e  dos  métodos  utilizados  por  cada  ​ .  Um  ​
codec  eficiente  é  aquele  que  consegue 
reduzir  significativamente  o  tamanho  do  arquivo  original  sem  comprometer  sua 
qualidade.  O  índice  que  nos  diz  o  quanto  um  arquivo  é  comprimido  é  o  ​
bitrate  e  está 
bitrate​
expresso em MB/s. Quanto maior o ​ , menos comprimido e maior a qualidade. 
 
Chroma subsampling 
Outro  aspecto  sobre  o  qual   essa  compressão  atua  é no registro das cores. Isso se  
explica  devido  ao  fato  de  que  nossa  visão  é  menos  sensível  à  perda  de  informação 
cromática  do  que  de  luminância.  O  nome  que  esse  processo  recebe  é  ​
chroma 
subsampling​

Como  vimos,  nosso  aparato  visual,  assim  como  o  da  câmera,  trabalha  com  as 
cores  primárias  vermelho,  verde  e  azul.  Um  arquivo  que carreguasse toda a informação 
de  cada  canal  seria consideravelmente pesado, e é por isso que o RGB é frequentemente 
transformado  em  outro  espaço  de  cor,  o  YCbCr.  Y  é  a  informação  de  luminância  da 
cena,  Cb  e  Cr  são  as  diferenças  dos  canais  azul  e  vermelho.  O  que   significa  que  as 
informações  individuais  dos  canais  RGB  são  descartadas.  Para  que  a  imagem  seja 
formada,  agora,  são  essas  informações  ­  luminância,  diferença  do  canal  vermelho  e 
diferença   do   canal  azul  ­  que  serão  combinadas.   É  possível  fazer  a  conversão  de  volta 
para  o  RGB,  embora  ocorra  perda  de  gama de cores que  o  YCbCr é capaz de registrar e 
reproduzir.  Essa  primeira  conversão  de  espaço  de  cor,  do  RGB  para  o  YCbCr,  reduz 
aproximadamente um terço do tamanho do arquivo. 

 
 
Comparação entre como imagens em RGB e YCbCr são formadas. 

 
A  intensidade  do  descarte  da  informação  cromática  é  expressa  por  3  números 
que  indicam  uma  proporção:  X:X:X.  Deixando  de lado os detalhes técnicos sobre o que 
precisamente  significa  cada  número  em  cada  posição,  vamos  falar  sobre  as  principais 
chroma subsamplings​
compressões e ​  usados nas câmeras digitais atuais no mercado. 
chroma  subsampling​
● 4:4:4:4  ­  Não  existe  ​ ,  toda  a  informação  dos  canais  RGB 
são  mantidas  integralmente.  O  quarto  número,  que  difere  dos  outros  exemplos 
vistos,  diz  respeito  ao  canal  ​
Alpha  ­  uma  espécie  de  canal  de   transparência. 
Permite  um  arquivo  de  altíssima  qualidade  e  muita  informação.  Muito 
apropriado  para  correção  de  cor,  e  o  mais  próximo  que  se  pode   chegar  do 
arquivo  Raw,  embora  ainda  seja  processado.  É  um  dos  melhores  recursos  que 
uma  câmera  pode  oferecer,  e  exatamente  por  isso  reservado  aos  modelos 
high­end  dos  fabricantes.  Poucos   modelos  abaixo  dos  10  mil  dólares  oferecem, 
sendo  eles  a  CION,  da   Aja,  e  URSA  e   URSA  Mini,  ambas  da  Blackmagic 
Design. 
chroma  subsampling​
● 4:4:4  ­  Forma  de  compressão  mais  leve  com  ​ .  Mantém  o 
máximo  de  resolução  nos  canais  de  cor  após  transcrição  para  o  espaço  de  cor 
YCbCr. 
● 4:2:2  ­  Apesar  de  apresentar perda de metade da resolução horizontal dos canais 
de  cor,  talvez  seja  a  melhor  opção  para  captura  de  material  para  projetos  de 
baixo  orçamento  e  que não exijam pós­produção pesada. Garantindo  um arquivo 
pequeno  o  bastante  para  economizar  custos  com  armazenamento,  com 
aproximadamente  metade  do  tamanho  de  um  arquivo  em 4:4:4:4, mantém ainda 
qualidade  e  informação  o  suficiente  para  permitir  uma  pós­produção  básica.  A 
título  de  curiosidade,  a  nona  temporada  da  série  americana  ​
24  Horas foi rodada 
utilizando essa compressão com a câmera Alexa, da Arri. 
● 4:2:0  ­  Uma  das  opções  mais  comprimidas,  apresenta  perda  de  metade  da 
resolução  horizontal  e  vertical  nos  canais  de  cor.  A  compressão  é  pesada  e 
permite  um  arquivo  bastante  leve,  tendo  como  consequência  uma  pequena 
flexibilidade  no  material.  Delicado  para  trabalhar  na   correção  de  cor, 
apresentando artefatos  e distorções nas cores com muita facilidade. Ao utilizá­la, 
deve­se  garantir  que  o  material  seja  captado  o  mais  próximo  possível  do 
resultado  final  desejado.  É  a  compressão  de cor utilizada nos ​
codecs de câmeras 
DSLR e nas câmeras de entrada. 
 

 
Comparação entre diferentes compressões. As imagens em preto e branco ajudam a perceber a perda de 
resolução no canal de cor. 
 
Raw​ Log​
, ​  e ​
Rec.709 
Os  incríveis  recursos  de  manipulação  digital  frequentemente  levam   a  equipe  a 
pensar  que  problemas   na  fotografia  e  pequenos  erros  podem  ser  corrigidos  facilmente 
Log ​
durante  o  processo  de pós­produção. Apesar dos formatos ​ Raw ​
e ​ apresentarem uma 
enorme  flexibilidade,  e  por  isso  serem  os  mais  adequados  para  se  utilizar   a  fim  de 
preservar  informações e realizar correção de cor, a exposição adequada do material é tão 
importante  quanto  seria  ao  se  filmar  em  película. É importante que o diretor ou diretora 
de fotografia não se deixe levar pela ilusão de que o digital necessita menos rigor. 
Para  expor  adequadamente  qualquer  material  sensível  é  necessário  entender 
como  ele  se  comporta  e  sua  natureza.  Os  olhos,  assim  como  outros  sentidos  humanos, 
não  funcionam  de  modo  linear,  como  é  o  caso  dos  sensores.  Se  acendemos  uma 
lâmpada  em  um  quarto  escuro  e  pouco  tempo  depois  acendemos  outra  de  mesma 
potência certamente veremos o quarto mais claro, mas não  duas vezes mais claro, apesar 
da  quantidade  de  luz  ter  dobrado.  Isso  acontece  porque  nossos  sentidos  sofrem  uma  
espécie  de  compensação.  Quanto  mais  estímulo  recebemos  em  um  sentido,  menor  a 
diferença   que  percebemos.  É  por  isso  que  faz  uma  enorme  diferença  um  fósforo  aceso 
em  um  quarto  escuro,  mas  durante  o  dia,  uma  lâmpada  acesa  não  tem  quase  nenhum 
impacto  na  claridade  que  percebemos,  apesar  de  uma  lâmpada  emitir  mais  luz  que  um 
fósforo aceso. 
Isso  tem  uma  função  no  nosso  organismo:  permitir  que  sejamos  facilmente 
adaptáveis  a  uma  enorme  gama  de  situações.  Podemos  escutar  pequenos  ruídos  em  
lugares  silenciosos  para  detectar  algum  perigo,  ou  podemos  enxergar  tanto  em 
ambientes  de  pouquíssima  luz  quanto  quando  expostos  ao  sol  durante  o  dia  em 
ambientes abertos. 
A  película  fotográfica  mimetiza  o  olho,  apresentando  comportamento 
semelhante.  A  placa  de  silício  dos  sensores  digitais,  entretanto,  não  tem  as  mesmas 
características.  Os  sensores,  uma  vez  que  funcionam  de  acordo   com  a  quantidade  de 
fótons  que  recebem,  gerando  uma  carga  elétrica,  reagem  de  forma  proporcional  à 
quantidade  de  luz.  Para que a imagem resultante seja similar ao que percebemos com os 
nossos  olhos  é  necessária  a  aplicação  de  uma  curva  logarítmica  sobre  a  informação 
captada  durante  a  etapa  de  processamento  ou  de  pós­produção.  A  diferença  mais 
significativa  entre  um   arquivo  ​
Log  ou  ​
Raw  está  em  quando  e  como  essa  curva  é 
aplicada. 
 
Raw 
O  arquivo  ​
Raw  não  deve  ser  confundido com um arquivo de imagem. Ele não é, 
e  isso  é  extremamente  importante  para  evitar  erros  de  julgamento  quando  se  olha  um 
arquivo  captado  dessa  forma.  Esse  arquivo  nada  mais  é do que todos os dados captados  
e  digitalizados  pelo  sensor  colocados  em  um  formato  apropriado  para  os  softwares  de 
pós­produção  lerem   e  interpretarem  as  informações.  Essa   interpretação  é  feita  segundo 
uma  conversão padrão dessas informações, e que podem muitas vezes causar espanto ou 
enganar muito os olhos desavisados. 
Raw​
Para  saber  a  melhor  forma  de  expor  em  ​ ,  devemos  entender  como  a 
informação  é  registrada  nesse  arquivo  para,  desse  modo,  aproveitar  o  máximo  possível 
dynamic range​
do ​  do sensor. 
Um  sensor  de  conversão  analógico­digital  de  12  bits  é  capaz  de  registrar  4096 
níveis  de  luminosidade.  Metade   deles  será  dedicada  a  capturar   o   ​
stop  mais  claro  da 
imagem,  ou  seja,  2048.  A  metade  dos  restantes,  1024,  ao  ​
stop  abaixo.  Depois,  512  ao 
seguinte.  256  para  o  próximo,  e  assim  sucessivamente.  É  por isso que, via de regra, um 
sensor  deve  ter  uma   profundidade  de  ​
bits  igual  ou  maior  do  que  o  seu  ​
dynamic  range 
stops​
medido  em  ​ .  Caso  contrário,  ​
color  banding  pode   vir  a  ocorrer  em  gradientes  uma 
vez  que  as  nuances  captadas  pelos  ​
photosites  são  espremidas  em  uma  quantidade  
insuficiente de tons. 
 

 
 
Por  tudo  isso,  é  comum  encontrar  referências  ao  modo  de  expor  em  ​
Raw  pela 
expressão  ​
expose  to  the  right  (expor  para  a  direita),  ou  ETTR.  Expor  para  a  direita 
refere­se  ao  lado  direito  do  histograma,  que  é  o  correspondente  aos  tons  claros  da 
imagem.  Isso quer dizer, expor tão para a direita quanto for possível sem permitir que se 
perca  informações  nas altas luzes por exceder o limite do que o sensor suporta. No caso, 
sem  que  o  gráfico toque o lado direito. Uma ótima ferramenta para ajudar e presente em 
diversas  câmeras,  além  do  próprio  histograma,  é  o  ​
overlay  de  zebra,  que  indica  com 
linhas quando uma determinada região da imagem está próxima do limite ou atingindo  o  
limite  do  que  pode  ser  registrado,  e  a  partir  de  onde  todas  nuances  serão  perdidas  por 
completo. 
set ​
É  precisamente  nesses  casos  que  outras  pessoas  da  equipe, seja dentro do ​ ou 
da  pós­produção,  podem  ficar  assustadas  e  acharem  que  o  material  está muito claro, ou 
até  estourado.  Algumas  câmeras  permitem  que  isso  seja  corrigido  para  visualização 
set​
imediata  no  ​ ,  sem  interferir  no  material  captado  que  será   entregue  ao  colorista,  que 
deve  saber  trabalhar  com  o  material  e  aproveitar  toda  a  informação  presente, 
recuperando  e  trazendo  para  baixo  novamente  os tons que  ficaram muito mais claros do 
que o pretendido. 
Isso deve ser muito bem entendido, uma vez que não significa consertar um erro,  
e  sim  o  modo  correto  de  trabalhar  com  o  arquivo  quando  se  pretende  aproveitar  ao 
máximo  o  ​
dynamic  range  que  a  câmera  oferece.  Não  entender  isso  pode  levar  a 
acreditar  que  é  possível  recuperar  informações em regiões estouradas da imagem, o que 
certamente  ocasionaá  catástrofes  e  perda  completa  de planos irrecuperáveis. Esse modo 
Raw​
de  trabalho  é  exclusivo  dos  formatos  ​ .  Não  deve  ​
nunca  ser  utilizado  em  outros 
formatos processados e comprimidos. 
 
Log 
Apesar  de  ser  processado,  o  ​
Log  é  um  tipo  de  arquivo  que  busca  aproximar  a 
captação  linear  do  sensor  da  curva  de  ​
gamma da película, mantendo o máximo possível 
de  informações  em  toda  a  faixa  de  tons  e  níveis  de  luminosidade,  das  sombras  às  altas 
luzes.  Isso  resulta  em  um  arquivo  que, visto sem a etapa de correção de cor, parece sem 
Raw​
contraste  e  sem  saturação.  Assim  como  o  ​ ,  uma  imagem  em  ​
Log  pode  assustar 
aqueles  que  a  vejam  sem  conhecimento  técnico  e  entendimento  de  que  esse  tipo  de 
material  é   projetado  para  o  trabalho  de pós­produção, não sendo  um arquivo final ou de 
exibição. 
Entretando,  apesar  da  semelhança  com  o  ​
Raw  tanto  na  busca  por  preservar  o 
máximo  de  informações  possíveis,  quanto  de  precisar  de  um  trabalho  posterior,  não   se 
Log​
deve  assumir  que  o  modo  de  expor  à  luz  é  o  mesmo.  O  material  em  ​ ,  por  já  ser 
processado  internamente  pela  câmera,  deve ser exposto de modo a ficar o mais próximo 
possível  do  resultado  final  desejado.  A  etapa  de  correção  de  cor,  nesse  caso,  está  mais 
associada  a  restaurar  o  nível  de  contraste  pretendido  para  o  plano,  e  ajustes de cor para 
look​
dar o ​  que se estabeleceu para o projeto. 
Uma  última  observação  deve  ser  feita.  Com  a  popularização  das  ferramentas de 
correção  de  cor  e  barateamento  das  câmeras,  cada  vez  mais  usuários estão em busca  de 
recursos  como  ​ Log​
Raw e ​ . A partir  da crescente demanda, algumas soluções começam a 
surgir  para  câmeras  mais  baratas,  como  perfis  de  cor  super  ​
flats   (com  pouquíssimo 
Log​
contraste  e  saturação,  buscando  imitar  o  comportamento de um arquivo ​ ) ou até que 
Log​
utilizem  uma  curva   de  ​ .   O  problema  é  que  muitas  dessas  câmeras  trabalham  com 
codecs  inapropriados   para esse tipo de material, como o H.264 das DSLRs e câmeras de 
entrada. 
Com  a  alta  taxa  de  compressão  e  ​
chroma  subsampling  de  4:2:0,  que  já 
significam  um  enorme  descarte  de  informações,  sobretudo  cromática,  utilizar  um perfil 
de cor pouco saturado para tentar recuperar a saturação das cores na pós pode apresentar 
resultados  catastróficos.  Se  em alguns casos podem ter um rendimento aceitável e trazer 
vantagens,  na  maior  parte  das  vezes  pode  introduzir  artefatos   significativos  nos  tons 
médios,  sobretudo  nos  tons  de  pele.  Quando  se  considerar  utilizar  esse tipo de perfil de 
cor  em  câmeras  que  utilizam  ​
codec  H.264  é  obrigatória  a  realização  de  testes  que 
envolvam  tanto  a  captura  quanto  a  manipulação  do  material  para  ver  se  atenderá  às 
necessidades  e  traz  benefícios  reais.  O  ​
Log  passa  a  ser  um  recurso  interessante  e 
poderoso  quando  usado  com  ​
codecs  apropriados:  10  bits,  4:2:2  e  ​
bitrates  altos,  como 
ProRes 422, XAVC, DNxHD e outros. 
 
Rec.709 
Ao  contrário  do  ​ Log​
Raw  e  do  ​ ,  o  ​
Rec.709  não  é  um padrão de captura, e sim de 
distribuição. Trata­se do padrão estabelecido para exibição de conteúdo em vídeo digital 
(HDTV),  determinando critérios  como espaço de cor, taxas de quadro  e demais aspectos 
técnicos  suportados.  Algumas  câmeras  acabam,  então,  oferecendo  a  possibilidade  de 
fornecer um arquivo já pronto para a exibição, respeitando essas especificações. 
Na  verdade,  a  maior  parte  das  câmeras  mais  básicas  e  de  entrada,  como  as 
DSLRs  e  diversas  filmadoras  com  menos  recursos,  apenas  oferecem  a  possibilidade  de 
Rec.709​
se  filmar  processando   a  imagem  e  conformando  de  acordo  com  o  padrão  ​ . Não 
sendo  um  arquivo  destinado  a  passar  por  um  processo  de  pós­produção,  quando 
associado  a  um  ​
codec  de alta compressão e com ​
chroma subsampling de 4:2:0, como as 
DSLRs,  o  processo  de  correção  de  cor  é  realmente  limitado.  Em  função  disso,  essas 
gamma​
câmeras  aplicam  curvas  de  ​ ,  contraste  e  saturação  de  modo a deixar a imagem o 
mais  finalizada  possível.  Costumam  oferecer  algumas  opções  de  ajustes  através  dos 
menus  para  dar  algum  controle,  mas  ainda  assim  o  arquivo  sempre  será  processado  a 
fim de resultar em uma imagem agradável e quase pronta para exibir. 
Log​
Algumas  câmeras,  entretando,  oferecem  a  possibilidade  de  filmar  em  ​ ,  mas 
de  mostrar  tanto  no  visor  como   em  monitores  externos  a  imagem  processada  para  os 
Rec.709​
padrões  ​ .  Dessa  forma,  mantém­se  um  modo  de  captura  mais  flexível,   ao 
mesmo  tempo  que  permite  que  o  diretor e demais pessoas no ​
set possam visualizar uma 
imagem  mais  próxima  da  final.   Um   exemplo  de  câmera  acessível  com esse recurso são 
as câmeras da Blackmagic Design. 
 

 
 
Comparação entre uma imagem gravada em ​Log​ e guardando o máximo de informação, e uma imagem 
final, com maior contraste e saturação.   
Acessórios e ​
workflow 
 
Não  apenas  de  câmeras,  lentes e tripés se faz o equipamento de câmera. Existem 
dezenas  itens  dos  mais  diversos  tipos  para  auxiliarem (ou até atrapalharem)  a equipe de 
câmera  a  realizar  seu  trabalho.  Conhecê­los  é  extremamente  importante  para  a 
preparação. 
Outra  parte  importante  do  trabalho  diz  respeito  ao  devido  cuidado  com  o 
workflow​
,  ou  fluxo  de  trabalho,  a  fim  de  evitar problemas de pós­produção, como erros 
de  ​
codec  e   formato  de  arquivo,  organização  do  material  e  diversas  variáveis  sobre  as 
quais devemos ter controle. 
Assim  como  o  próprio  projeto  estético  deve  ser  adequado  a  cada  proposta  de  
filme,  o  que  implica  na  escolha  da  câmera  e  das  lentes,  o  mesmo  se   aplica  aos 
workflow​
acessórios e ao ​ . Ambos devem ser pensados para cada caso específico levando 
em  conta  o  tamanho  da  produção,  as  necessidades  da  direção  e  ​
as  necessidades  da  
própria  equipe  de  câmera​
.  Esse  último  ponto  é  geralmente  minimizado,  e  cabe  ao 
diretor  ou  a  diretora   de  fotografia  brigar  (cordialmente!)  pelas  demandas  da  sua equipe 
dentro  dos  limites de viabilidade. Isso ajuda a assegurar a qualidade do material  captado 
assim  como  permite  manter  a  equipe  de  câmera  ágil,  evitando  atrasos  que  podem 
prejudicar o filme. 
Infelizmente  é  muito  comum  que  se  veja  alguns  acessórios  de  câmera  como 
itens  desnecessários  e,   no   esforço  de  cortar  gastos,  comprometa­se  o  trabalho dos e das 
assistentes  de  câmera.  Muitas  vezes  essa  economia  e  a  escolha  de  gastar  dinheiro  com 
itens  de  preço  unitário  mais  baixo  levam  a  problemas  que  fazem  surgir  gastos  extras  e 
encarecem  o  projeto  no  final.  Frequentemente  isso  não  aconteceria  se  ouvidas  as 
demandas  da  equipe  de  câmera,  fazendo­se  o  investimento  inicial  em  um  acessório 
apropriado. 
 
Acessórios de câmera 
Com  a  cinematografia  digital  nasceu  o  conceito  de  câmeras  modulares,  do  qual 
talvez  os  exemplos  mais  significativos  sejam  as câmeras da RED. Ou seja, câmeras que 
podem  ser  configuradas  segundo a preferência da equipe para  adicionar funcionalidades 
necessárias para trabalhos específicos. 
Por  um  lado  isso  oferece  uma  grande  vantagem  para  situações  em  que  se 
necessita  de  câmeras  extremamente  compactas  e   pequenas  para  utilizar  em  lugares  de 
difícil  acesso.  Por  outro,  acaba  adicionando  um  grande  trabalho  para   os e as assistentes 
e  requerendo  o  uso  de  diversos  acessórios  pequenos  que  dependem  de  uma  estrutura 
rig​
sobre  a  qual  serão  configurados.  Essa  estrutura  é  o  ​ ,  também  chamada  de  ​
cangalha 
shoulder rig​
ou ​ . 
Em  função  dessa  mudança  no  conceito  das  câmeras  a  ergonomia  passou  a 
ocupar um lugar de menos destaque em seu design em relação ao que tinha na época das 
câmeras  de   película.  Os  fabricantes  acabaram  deixando  de  desenhá­las  de  modo  a  se 
encaixarem  bem  ao  corpo  de  quem  as  opera,  ficando  a  cargo  de  quem  as  utiliza buscar 
os  acessórios  necessários  para  que  possam  ser  usadas  em  cada  projeto  específico. 
Atualmente,  com  o  amadurecimento  do  mercado,  a  demanda  por  corpos  mais 
ergonômicos  cresceu.  Assim,   os  fabricantes  têm  sido  forçados  a  novamente 
incorporarem  no  design  de  seus  modelos  a  preocupação  com  a  operação  sem  a 
necessidade  de   tantos  aparatos  para  o  uso  de  funções básicas e modos mais tradicionais 
de filmagem, como em tripé e ombro. 
Tudo  isso  acaba  sendo  importante  exatamente  para  saber  o  que  se  deve  esperar 
rig​
de  um  determinado   sistema   de  ​ .  Ele  precisa  permitir  operar  a  câmera  de  modo fácil, 
não  atrapalhar  o  acesso  a  nenhum  botão,  entrada  ou  saída  de  sinal.  Deve  ser  leve,  mas 
resistente  e  robusto,  e  permitir  acomodar  todos  os  demais  acessórios  necessários  de 
forma organizada. 
Se  usado  no  ombro,  o  ​
rig  deve  ser  equilibrado,   fazendo  com  o  que  o  peso  da 
câmera  e  todo  o  sistema  fique  sobre  ele,  e  não  para  frente  ou  para  trás.  Quando  isso 
acontece,  sobrecarrega­se  os  braços  do  operador  ou  da  operadora,  gerando  desgaste 
físico  desnecessário   e  fazendo  com  que  depois  de  algum  tempo  a  estabilidade  da 
imagem  fique comprometida. A situação tende a piorar quando a câmera deve se mover, 
fazendo com que cada passo seja muito mais perceptível. 
Outro  ponto  importante  e  que  não deve ser ignorado é que nenhuma parte do ​
rig 
comprometa  o  sistema  de  refrigeração  da  câmera.  Alguns  modelos  usam  ventoinhas 
para  jogar  o  ar  quente  para  fora  através  de  pequenos  buracos  ao  longo  de alguma parte 
do  corpo.  Tapar  essa  saída  de  ar  pode levar a câmera a superaquecer, o que pode causar 
danos  ao  equipamento,  fazê­lo  desligar,  travar,  ou  ainda  comprometer  seu  rendimento 
dropar frames10. 
levando a corromper arquivos e ​
rig​
Algumas das partes que podem integrar um ​ : 
● Baseplate 
● Longarinas 
● Cage 
● Shoulder pad 
● Cheese Plate 
● Handles 
Alguns  acessórios  que  podem  ser  acoplados  ao  ​
rig  através  das  longarinas  ou 
aparafusados em alguma parte de sua estrutura, quando oferecem suporte: 
● Battery Mount 
● Follow Focus 
● Mattebox 
● Braço articulado (ou mágico) 
● Onboard Field Monitor (monitor onboard) 
● Viewfinder (visor eletrônico) 
 

10
Drop  frame​
 ​ ,   nesse  caso,  é  gerado por  um  problema  no  processo de  gravação  da  imagem  no  qual  um 
frame  da  sequência  que  forma  o  vídeo   não  é  registrado,  podendo  aparecer  como  um  ​frame  totalmente 
preto ou como um pequeno salto. 

Vous aimerez peut-être aussi