Vous êtes sur la page 1sur 71

UFSC – UNIVERSIDADE FEDERAL DE SANTA CATARINA

CTC – CENTRO TECNOLÓGICO


DAS – DEPARTAMENTO DE AUTOMAÇÃO E SISTEMAS
S2I – SISTEMAS INDUSTRIAIS INTELIGENTES

Seminário em Sistemas de Visão


Aplicações no Controle de Qualidade e Rastreabilidade

Autores:
Alberto Xavier Pavim 9813023-4
Jair Coan Júnior 9813012-9
Marcel Gava da Silva 9813017-0

Prof. Ricardo Rabelo

Turma 830A – ECAI

Florianópolis – SC
07 de Março de 2002
Sumário
Sumário ........................................................................................................................................ ii
Lista de Figuras ........................................................................................................................... iv
1 Introdução..............................................................................................................................1
1.1 Sistemas de Visão..........................................................................................................1
1.2 Objetivos ........................................................................................................................1
2 Modelo de um Sistema de Visão ...........................................................................................2
2.1 Sistema Óptico ...............................................................................................................3
2.1.1 Filtros ......................................................................................................................3
2.1.2 Prismas e Espelhos.................................................................................................5
2.1.3 Técnicas de Iluminação...........................................................................................5
2.1.3.1 Direcional (Unilateral ou Bilateral)....................................................................5
2.1.3.2 Direcional Unilateral Perpendicular ao Eixo Óptico .........................................6
2.1.3.3 Anel Luminoso .................................................................................................6
2.1.3.4 Fundo Escuro (Darkfield) .................................................................................7
2.1.3.5 Axial Difusa ......................................................................................................8
2.1.3.6 Frontal Difusa...................................................................................................8
2.1.3.7 Iluminação de Fundo (Backlight)......................................................................9
2.1.3.8 Iluminação Linear (Structured ou Line Generating) .......................................10
2.1.3.9 Dia Nublado (Cloudy Day) .............................................................................10
2.1.3.10 Polarizada ......................................................................................................11
2.2 Câmera.........................................................................................................................12
2.2.1 Introdução às Câmeras .........................................................................................12
2.2.2 Princípio de Funcionamento..................................................................................12
2.2.3 Anatomia da Câmera ............................................................................................12
2.2.3.1 Sensores Charged Coupled Devices .............................................................12
2.2.3.2 Sensores CMOS ............................................................................................13
2.2.4 Sensores de Varredura Linear - Line-Scan...........................................................13
2.2.5 Técnicas de Varredura da Imagem .......................................................................13
2.2.5.1 Varredura por Entrelaçamento – Interlaced ...................................................13
2.2.5.2 Varredura Progressiva de Imagens – Progressive Scanning.........................15
2.2.5.3 Varredura Linear (Line Scan).........................................................................15
2.2.6 Sensores de Imagens Coloridas ...........................................................................15
2.2.6.1 Sensores com 3 Chips ...................................................................................16
2.2.6.2 Sensores com Único Chip – Esquema Mosaico ............................................17
2.2.6.3 Filtragem de Cores.........................................................................................17
2.2.6.4 Câmeras Coloridas ou em Tons de Cinza? ...................................................17
2.2.7 Tipos de Câmeras .................................................................................................18
2.2.7.1 Câmeras Analógicas ......................................................................................18
2.2.7.2 Câmeras Digitais............................................................................................19
2.2.7.3 Câmeras Inteligentes .....................................................................................19
2.2.7.4 WebCam ou PC-Cam ....................................................................................20
2.2.7.5 Câmeras Sem Fio (Wireless) .........................................................................21
2.2.7.6 Câmeras Especiais ........................................................................................22
2.3 Transmissão de Dados.................................................................................................23
2.3.1 Sinais Analógicos ..................................................................................................23
2.3.1.1 Padrões de Vídeo Comumente Empregados ................................................24
2.3.1.2 Cabos e Conectores ......................................................................................24
2.3.2 Sinais Digitais........................................................................................................25
2.3.2.1 Tipos de Sinais de Transferência de Dados ..................................................26
2.3.2.2 Protocolos Digitais de Comunicação .............................................................26
2.4 Sistema Processador ...................................................................................................29
2.4.1 Hardware...............................................................................................................29
2.4.1.1 Framegrabbers...............................................................................................29
2.4.1.1.1 Principais Características ...........................................................................29
2.4.1.1.1.1 Considerações sobre os formatos de entrada de vídeo ......................30
ii
2.4.1.1.1.1.1 Framegrabbers compatíveis com entradas analógicas de vídeo ..30
2.4.1.1.1.1.2 Framegrabbers compatíveis com entradas digitais de vídeo ........30
2.4.1.1.1.2 Taxa de Aquisição (“Frame Rate”).......................................................30
2.4.1.1.1.3 Barramento Utilizado ...........................................................................31
2.4.1.1.1.4 Alocação de Memória ..........................................................................31
2.4.1.1.1.5 Digitalização da Imagem......................................................................31
2.4.1.1.1.6 Processamento “On Board” em Aplicações Pesadas ..........................31
2.4.1.1.1.7 Interface com a Câmera ......................................................................32
2.4.1.1.1.8 Software...............................................................................................32
2.4.1.1.1.9 Outras considerações ..........................................................................33
2.4.1.2 E/S e Dispositivos de Atuação .......................................................................33
2.4.2 Software ................................................................................................................34
2.4.2.1 Bibliotecas de Aquisição de Imagens ............................................................35
2.4.2.1.1 As Bibliotecas TWAIN E WIA .....................................................................36
2.4.2.2 Bibliotecas de Processamento de Imagens ...................................................39
2.4.2.2.1 Imagem e ROI ............................................................................................39
2.4.2.2.2 Operações Básicas ....................................................................................40
2.4.2.2.3 Transformações Geométricas ....................................................................41
2.4.2.2.4 Threshold....................................................................................................42
2.4.2.2.5 Filtros (Convoluções)..................................................................................42
2.4.2.2.6 Operadores Morfológicos ...........................................................................43
2.4.2.2.7 Detecção de Formas Geométricas Básicas ...............................................44
2.4.2.2.7.1 Interpolação Linear ..............................................................................44
2.4.2.2.7.2 Transformada de Hough ......................................................................44
2.4.2.2.8 Segmentação .............................................................................................45
2.4.2.2.9 Contornos ...................................................................................................45
3 Aplicações ...........................................................................................................................46
3.1 Aplicações em Controle de Qualidade .........................................................................48
3.2 Aplicações em Rastreabilidade ....................................................................................50
3.2.1 Introdução à Rastreabilidade ................................................................................50
3.2.2 Histórico das Tecnologias Unidimensionais..........................................................50
3.2.3 Tecnologias 1-D ....................................................................................................51
3.2.4 Novas Técnicas de Marcação – Tecnologias 2-D.................................................54
3.2.4.1 Códigos de Pilhas (Stacked Codes) ..............................................................54
3.2.4.2 Códigos Matriciais..........................................................................................55
3.2.4.3 Códigos Compostos.......................................................................................57
3.2.5 Métodos de Marcação...........................................................................................58
3.2.5.1 Impressão a Laser .........................................................................................58
3.2.5.1.1 Laser com Tambor .....................................................................................58
3.2.5.1.2 Laser Direto ................................................................................................58
3.2.5.1.3 Laser Shot Peening ....................................................................................59
3.2.5.2 Impressão InkJet............................................................................................59
3.2.5.3 Impressão Tipográfica (Puncionamento) .......................................................59
3.2.5.4 Impressão Térmica ........................................................................................60
3.2.5.4.1 Transferência Térmica Direta .....................................................................60
3.2.5.4.2 Transferência Térmica Através de Substrato .............................................60
3.2.5.5 Outros Métodos..............................................................................................60
3.2.6 Métodos de Leitura ...............................................................................................61
3.2.6.1 Leitura com CCD............................................................................................61
3.2.6.2 Leitura com Scanners ....................................................................................63
4 Conclusões..........................................................................................................................64
5 Referências Bibliográficas ...................................................................................................65

iii
Lista de Figuras
Figura 2.1 – Arquitetura de um Sistema de Visão ........................................................................2
Figura 2.2 - a) Imagem. b) Escala de Tons de Cinza. c) Imagem
Digitalizada. ...........................................................................................................................3
Figura 2.3 - Exemplo de Filtros Ópticos.......................................................................................4
Figura 2.4 - Ilustração do Espectro Freqüencial da Luz. ..............................................................4
Figura 2.5 - Exemplo de uma Aplicação Utilizando o Filtro Verde................................................4
Figura 2.6 - Exemplo da Aplicação de Prismas para Desviar Feixes Luminosos.........................5
Figura 2.7 - Iluminação Direcional. ...............................................................................................6
Figura 2.8 - Iluminação Direcional Unilateral Perpendicular ao Eixo Óptico . ..............................6
Figura 2.9 - Iluminação em Anel . .................................................................................................7
Figura 2.10 - Iluminação de Fundo-Escuro (ou Darkfield). ...........................................................7
Figura 2.11 - a) Exemplo com Anel Luminoso. b) Exemplo com Fundo-Escuro (Darkfield).........8
Figura 2.12 - Iluminação Axial Difusa. .........................................................................................8
Figura 2.13 - Iluminação Frontal Difusa........................................................................................9
Figura 2.14 - Iluminação de Fundo (Backlight) . ...........................................................................9
Figura 2.15 - Iluminação Linear. .................................................................................................10
Figura 2.16 - Iluminação Dia Nublado (Cloudy Day). .................................................................11
Figura 2.17 - Iluminação Polarizada . .........................................................................................11
Figura 2.18- Varredura por Entrelaçamento. ..............................................................................14
Figura 2.19 – Espectro Visível. ...................................................................................................16
Figura 2.20 – Sensores com 3 chips. .........................................................................................16
Figura 2.21 – Câmeras Analógicas Monocromáticas e Coloridas ..............................................18
Figura 2.22 – Câmeras Digitais ..................................................................................................19
Figura 2.23 – Câmeras Inteligentes............................................................................................19
Figura 2.24 – WebCams. ............................................................................................................20
Figura 2.25 – Câmeras sem fio...................................................................................................21
Figura 2.26 – Sinais Analógicos. ................................................................................................23
Figura 2.27 – Conectores para sinais analógicos.......................................................................25
Figura 2.28 – Sinais Digitais. ......................................................................................................25
Figura 2.29 - Função do FrameGrabber . ...................................................................................29
Figura 2.30 – Modelagem da estrutura do software de um Sistema de Visão. ..........................34
Figura 2.31 – Módulo de aquisição de imagens e sua interface.................................................35
Figura 2.32 – Modelagem UML de um módulo de aquisição. ....................................................36
Figura 2.33 – Elementos da Interface TWAIN ............................................................................37
Figura 2.34 – Arquitetura em Camadas da Interface TWAIN .....................................................37
Figura 2.35 – Diagrama de Estados do Funcionamento da Interface TWAIN ............................38
Figura 2.36 – Exemplo de uma ROI Sobre Outra ROI. ..............................................................40
Figura 2.37 – Exemplo de Translação e Rotação de uma Imagem............................................41
Figura 2.38 – Exemplo de uma Imagem após a Operação de Threshold. .................................42
Figura 2.39 – Exemplos de Aplicações de Filtragem..................................................................43
Figura 2.40 – Os Elementos Estruturantes Padrão N4 e N8, Respectivamente. .......................43
Figura 2.41 – Exemplo de Aplicações de Morfologia..................................................................44
Figura 2.42 – Exemplo da Transformada Hough........................................................................44
Figura 2.43 – Exemplo de Aplicação de Segmentação em uma Imagem de uma Madeira. ......45
Figura 2.44 – Exemplos de Análise de Contornos......................................................................45
Figura 3.1 – Aplicação de controle de qualidade em equipamento eletrônico – interface DB25.
.............................................................................................................................................46
Figura 3.2 – Marcação em placa de circuito impresso. ..............................................................46
Figura 3.3 – Suporte de câmeras de monitoramento de ambientes externos. ...........................47
Figura 3.4 – Dispositivos de visão domésticos e de escritório. ..................................................47
Figura 3.5 – Embalagem de produto alimentício com iluminação específica para ressaltar a data
de validade e o lacre de segurança.....................................................................................49
Figura 3.6 – Análise da imagem – aprovação do lacre e reprovação da data de validade
(danificada)..........................................................................................................................49
Figura 3.7 – Estrutura do código de barras ................................................................................51
iv
Figura 3.8 – Escaneamento do código de barras .......................................................................52
Figura 3.9 – Resolução dos códigos de barras ..........................................................................52
Figura 3.10 – Tipos de códigos de barras ..................................................................................53
Figura 3.11 – Códigos de Pilhas.................................................................................................55
Figura 3.12 – Códigos 2D ...........................................................................................................56
Figura 3.13 – Codificação Data Matrix........................................................................................57
Figura 3.14 – Exemplos de aplicações com codificação Data Matrix.........................................57
Figura 3.15 – Tipos de Marcações. ............................................................................................61
Figura 3.16 – Leitura a partir de câmeras CCD. .........................................................................62
Figura 3.17 – Solução pr;atica para a leitura de códigos Data Matrix. .......................................63

v
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

1 Introdução
Produtos e serviços são diariamente absorvidos por um mercado consumidor cada vez
maior e mais exigente. A busca por excelência em qualidade de produtos vendidos e serviços
prestados levou principalmente o setor industrial a investir em uma tecnologia de processo que
garanta 100% (ou quase 100%) da qualidade de seus produtos/serviços. A tecnologia de Visão
Computacional não é relativamente nova, mas teve um grande desenvolvimento e maior
aplicação nas últimas décadas, após a criação e crescimento de órgãos especializados no
controle de qualidade, que atuam de forma a cobrar um padrão mínimo de qualidade dos
produtos/serviços que entram no mercado diariamente.
Foi neste cenário que verdadeiros Sistemas de Visão foram criados e tiveram uma
ascensão rápida, muito devido ao desenvolvimento da capacidade computacional e da
eletrônica.

1.1 Sistemas de Visão

Os Sistemas de Visão integram uma série de diferentes tecnologias em um único


sistema: a tecnologia óptica e de iluminação, a tecnologia de aquisição de imagens, a
tecnologia computacional e de processamento de sinais além da automação e controle do
sistema. Por abranger áreas multidisciplinares, estes sistemas requerem de seus
desenvolvedores conhecimentos suficientes em Matemática e Física, Óptica e Eletrônica,
Informática, Mecânica, Automação e Controle de Processos.
Estes sistemas têm uma ampla gama de aplicações, que atingem desde o setor
industrial até o conforto e comodidade de nossas casas. Dentre as aplicações mais comuns
podemos citar:
• Controle de Qualidade;
• Rastreabilidade;
• Segurança;
• Controle de Tráfego;
• Escritório e Lazer;

Outras aplicações podem ser citadas e muitas outras estão por ser inventadas devido a
grande flexibilidade oferecida pelos Sistemas de Visão.

1.2 Objetivos

Este relatório tem por objetivo apresentar um pouco sobre a estrutura que compõe um
Sistema de Visão, mostrando como estas diversas partes se somam e agregam informações
importantes para possibilitar o funcionamento do sistema como um todo.
Em seguida serão apresentadas duas aplicações existentes destes sistemas:
• Aplicação no controle de qualidade aplicado a indústria alimentícia –
“Verificação de Datas de Validade, Números de Lote e Lacre de Validade”;
• Aplicação em rastreabilidade de produtos – códigos de barras e em especial o
Data Matrix.
Por fim, expomos nossa conclusão sobre a viabilidade de utilização da tecnologia de
Sistemas de Visão atualmente.

1
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2 Modelo de um Sistema de Visão


Os Sistemas de Visão integram uma variada gama de tecnologias, que permitem o
surgimento das mais diversas aplicações, como já citado previamente.
Para entender melhor como funciona um Sistema de Visão, vamos abordar sua
arquitetura dividida em partes, assim podemos explanar sobre sua tecnologia e como ela se
encaixa com as demais.
Uma ilustração de um sistema como todo pode ajudar a visualizar as diferentes partes e
também a sua integração:

Figura 2.1 – Arquitetura de um Sistema de Visão

Assim, definimos a arquitetura de um Sistema de Visão nas seguintes partes:


• Sistema Óptico: responsável pelo projeto de iluminação, lentes e filtros
aplicados sobre a região de interesse;
• Câmera: responsável pela captura das informações provenientes da região de
interesse através de um sensor óptico;
• Transmissão de Dados: responsável pelo deslocamento da informação
adquirida pela câmera ao sistema processador, e também da resposta dada pelo
sistema processador ao sistema de atuação;
• Sistema Processador: responsável pela digitalização, pré-processamento e
processamento da informação recebida. Responsável também pela interação com o
usuário e controle do sistema.

2
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.1 Sistema Óptico

Os sistemas óptico e de iluminação desempenham um papel muito importante para o


processamento de imagens e conseqüentemente para os Sistemas Industriais de Visão. Como
a imagem é a incidência de luz sobre uma superfície de forma ordenada, a manipulação da luz
pode acarretar conseqüências que facilitem ou inviabilizem totalmente a interpretação correta
da imagem. Assim, uma correta aplicação das ferramentas de luz define a viabilidade ou não
de um sistema de visão.
Estes sistemas são formados por fontes de iluminação, prismas, filtros, lentes e outros
componentes ópticos que, em grupo, são utilizados para formar uma imagem do objeto com o
objetivo de ressaltar as características que serão analisadas. Tais sistemas são indispensáveis
na obtenção de imagens com alta definição, homogêneas e robustas em relação à
variabilidade de luz no ambiente. A imagem formada é, então, adquirida pela câmera,
digitalizada e processada pelo computador.
As imagens digitais são obtidas através do seguinte princípio básico:

1. Inicialmente, o sistema de iluminação (LEDs, estrobos, lâmpadas, luz natural etc.)


produz um tipo de luz que incide sobre a cena, especificamente na superfície do
objeto e no fundo da cena (background);
2. Esta luz é refletida da cena (objeto e fundo) em direção à lente da câmera;
3. A lente refrata a luz para o sensor da câmera, que transforma a imagem recebida
em uma imagem eletrônica1, onde cada pixel representa a intensidade de luz
incidida sobre uma fotocélula do sensor da câmera.
4. Em seguida, a placa de captura (framegrabber) digitaliza a imagem, formando uma
matriz numérica, onde cada elemento da matriz recebe um valor compatível com a
intensidade de luz do pixel correspondente. A Fig 2.2 apresenta um exemplo de uma
imagem digitalizada segundo um padrão de representação da intensidade de luz.
5. Por fim, o sistema processa a imagem com o intuito de extrair as informações
desejadas. Esta tarefa pode ser simples em alguns casos, porém, geralmente, é
uma das tarefas mais complexas do sistema de visão.

Figura 2.2 - a) Imagem. b) Escala de Tons de Cinza. c) Imagem Digitalizada.

2.1.1 Filtros

Os filtros são comumente utilizados para selecionar a freqüência luminosa que incide
sobre o sensor da câmera. A luz pode ser definida como sendo uma onda com uma
determinada freqüência. A freqüência da onda determina a cor que ela representa. Se um raio
luminoso contiver mais que uma freqüência, a cor resultante será a soma das cores básicas
presentes na imagem. O olho humano consegue distinguir ondas luminosas dentro do espectro
1
Defini-se Imagem Eletrônica como uma imagem representada por um sinal elétrico analógico.
3
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

com freqüências de 400 a 750 nm. As câmeras possuem uma sensibilidade à luz diferente do
olho humano, por isso pode-se, em alguns casos, capturar informações da cena com câmeras
que não são perceptíveis a “olho nu”. Existem câmeras especiais desenvolvidas para serem
sensibilizadas por determinadas freqüências, como câmeras sensíveis a luzes infravermelhas
ou a luzes ultravioletas.

Figura 2.3 - Exemplo de Filtros Ópticos.

Figura 2.4 - Ilustração do Espectro Freqüencial da Luz.

Quando se deseja impedir que uma determinada luz sensibilize o sensor, ou melhor,
permitir que apenas uma determinada freqüência sensibilize o sensor, emprega-se um filtro
compatível com a freqüência luminosa. A Fig. 2.5 mostra um exemplo de aplicação. Neste
caso, deseja-se ressaltar os comprimidos azuis dos comprimidos vermelhos. Usando uma
câmera monocromática, o contraste entre as duas cores é mínimo, inviabilizando a aplicação.
Entretanto, adicionando-se um filtro verde obtém-se quase 100% de contraste, viabilizando a
aplicação.

Figura 2.5 - Exemplo de uma Aplicação Utilizando o Filtro Verde.

4
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.1.2 Prismas e Espelhos

Uma dificuldade comum nos Sistemas de Visão ocorre quando se deseja analisar
simultaneamente aspectos que se localizam em diferentes ângulos do produto, tornando
necessário a utilização de mais de uma câmera ou de uma ferramenta manipuladora de
trajetória. Para esse problema a ferramenta mais barata é o espelho. Essa ferramenta pode
também ser usada para mudar a trajetória da luz quando não se pode colocar a câmera de
frente para o objeto (desvio do feixe de luz em um determinado ângulo). Na maioria das
aplicações com espelhos, pode-se substituí-los por prismas, mas seu custo é bem mais
elevado.
Outro tipo de problema é quando se necessita, devido a um requisito de técnicas de
iluminação, que a luz incidente no objeto e a refletida venham da mesma direção. Para tal é
necessário a utilização de um prisma. Os prismas são aplicados em sistema de visão para
desviar um feixe de luz ou separar as componentes da luz. Tanto os espelhos quanto os
prismas são comumente empregados em aplicações onde se deseja visualizar duas áreas
distintas de uma cena com uma única câmera.

Figura 2.6 - Exemplo da Aplicação de Prismas para Desviar Feixes Luminosos.

2.1.3 Técnicas de Iluminação

O objetivo da iluminação num sistema de visão é ressaltar as características de


interesse dos objetos e atenuar as partes da imagem (cena) que não interessam à aplicação.
Além da iluminação, diversos fatores afetam a quantidade de luz que incide sobre o
sensor da câmera: abertura da lente, magnitude primária, configuração da câmera, tempo de
exposição e filtros. Todos estes parâmetros precisam ser ajustados e testados em conjunto
para se certificar que o projeto está de acordo com as especificações.

O projeto do sistema de iluminação é subdividido em três etapas principais:


1. Determinar a geometria da luz (posição da fonte, direção, intensidade e espectro
freqüencial dos feixes de luz) requerida para ressaltar as características do objeto.
2. Determinar o tipo de fonte luminosa (LED, halogênia, estrobo etc.) mais adequado.
3. Determinar o tamanho do Campo de Visão1.

2.1.3.1 Direcional (Unilateral ou Bilateral)

1
Defini-se Campo de Visão como a área do objeto (ou da cena) visualizada pela câmera.
5
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Este tipo de iluminação é bastante simples, consistindo na emissão de um feixe


luminoso (unilateral ou bilateral) em uma direção fixa com pouca dispersão. Este feixe reflete
sobre o objeto, ressaltando algumas propriedades especiais .

a) Ilustração. b) Exemplo 1. c) Exemplo 2.


Figura 2.7 - Iluminação Direcional.

• Vantagens: forte e constante, ressaltando características dos objetos.


• Desvantagens: sombras e regiões com alto brilho.
• Fonte de Iluminação: fontes de LED’s ou fibra óptica.

2.1.3.2 Direcional Unilateral Perpendicular ao Eixo Óptico

Este é um caso especial da iluminação anterior, formada quando a direção do feixe


luminoso é perpendicular ao eixo óptico.

a) Ilustração. b) Exemplo 1. c) Exemplo 2.


Figura 2.8 - Iluminação Direcional Unilateral Perpendicular ao Eixo Óptico .

• Vantagens: forte e constante, ressaltando características dos objetos.


• Desvantagens: sombras e região com alto brilho na imagem.
• Fonte de Iluminação: fontes de LED’s ou fibra óptica.

2.1.3.3 Anel Luminoso

O Anel Luminoso é formado por uma fonte luminosa no formato de anel, fixada junto à
lente da câmera. Esta estratégia fornece uma iluminação forte, barata e com direção paralela
ao eixo óptico.

6
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

a) Ilustração. b) Exemplo 1. c) Exemplo 2. d) Nerlite.


Figura 2.9 - Iluminação em Anel .

• Vantagens: forte e constante, paralela ao eixo óptico, reduz sombras, fácil instalação.
• Desvantagens: pode formar um círculo mais iluminado em superfícies reflexivas,
iluminando mal no centro e intensivamente nas extremidades.
• Fonte de Iluminação: fontes de LED’s ou fibra óptica.

2.1.3.4 Fundo Escuro (Darkfield)

A iluminação de Fundo-Escuro (Darkfield) é um tipo especial de iluminação direcional,


onde a luz é emitida de diversas direções, entretanto, sempre perpendicular ao eixo óptico. A
Fig. 2.10 ilustra bem esta característica, onde a luz é emitida em todas as direções radiais do
plano do campo de visão mas sempre perpendicular ao eixo da câmera. Este tipo de
iluminação é muito útil para inspeções de objetos com superfícies em alto relevo. Um exemplo
deste tipo de aplicação é fornecido na Fig. 2.11.

a) Ilustração. c) Produto Erro! A


origem da
b) Exemplo da Lâmpada.
referência não foi
encontrada..
Figura 2.10 - Iluminação de Fundo-Escuro (ou Darkfield).

7
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Figura 2.11 - a) Exemplo com Anel Luminoso. b) Exemplo com Fundo-Escuro (Darkfield).

• Vantagens: grande contraste para superfícies transparentes ou em alto relevo.


• Desvantagens: difícil de instalar em alguns casos, devido à proximidade do objeto.
• Fonte de Iluminação: fontes de LED’s ou fibra óptica com adaptador (prismas e espelhos).

2.1.3.5 Axial Difusa

Na iluminação difusa axial, o feixe luminoso é emitido com um ângulo quase


perpendicular ao eixo óptico. Este feixe luminoso é, então, refletido por um difusor incidindo
sobre o objeto. Uma segunda parte do feixe luminoso é refratado pelo difusor, atingindo o
sensor da câmera. Esta estratégia faz com que as superfícies perpendiculares ao eixo óptico
apareçam uniformemente iluminadas na imagem, enquanto que as demais ficam escuras.
Desta forma, esta iluminação é muito utilizada para medições em superfícies planas.

a) Ilustração. b) Exemplo 1. c) Exemplo 2. d) Nerlite.


Figura 2.12 - Iluminação Axial Difusa.

• Vantagens: iluminação uniforme para superfícies planas, sem sombras, compacta, forma
imagens com grande qualidade e repetibilidade.
• Desvantagens: pouca intensidade luminosa incidente no objeto, devido ao difusor e não
distingue características em alto relevo na imagem.
• Fonte de Iluminação: fontes de LED’s ou fibra óptica com difusores.

2.1.3.6 Frontal Difusa

Esta iluminação é muito semelhante à técnica anterior, diferenciando-se na forma de


como a iluminação difusa é formada. A iluminação, neste caso, é formada por várias fontes
luminosas que emitem os feixes luminosos com ângulos variados entre 0º e 45º com o eixo
8
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

óptico. Então, estes raios são refletidos na direção do sensor da câmera. A grande diferença é
a não utilização do elemento difusor, o que aumenta a intensidade luminosa da imagem. As
aplicações são similares ao caso anterior.

a) Ilustração. b) Exemplo.
Figura 2.13 - Iluminação Frontal Difusa.

• Vantagens: iluminação boa para superfícies planas, poucas sombras.


• Desvantagens: não distingue características em alto relevo na imagem e requer várias
fontes de iluminação.
• Fonte de Iluminação: fontes de LED’s, fluorescentes, dicróica e fibra óptica.

2.1.3.7 Iluminação de Fundo (Backlight)

Esta técnica de consiste em posicionar o módulo de iluminação atrás do objeto, emitindo


a luz em direção à câmera passando pelo objeto no campo de visão. Os feixes luminosos
devem ser paralelos ao eixo óptico. Desta forma, esta técnica é muito útil para aplicações de
metrologia e para análise de objetos translúcidos.

• Vantagens: medição de contornos de objetos e análise de objetos translúcidos.


• Desvantagens: não permite análise da superfície do objeto, pois esta não é iluminada.
• Fonte de Iluminação: fontes de LED’s, fluorescentes e fibra óptica.

a) Ilustração. b) Exemplo da Lâmpada. c) Nerlite.


Figura 2.14 - Iluminação de Fundo (Backlight) .

9
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.1.3.8 Iluminação Linear (Structured ou Line Generating)

Um conjunto de LEDs é agrupado linearmente, formando uma fonte que produz uma
linha iluminada sobre o objeto. Através da movimentação desta linha ou do objeto, pode-se
analisar as características da forma do objeto em alto relevo.

a) Ilustração. b) Exemplo 1. c) Exemplo 2.


Figura 2.15 - Iluminação Linear.

• Vantagens: medição de características da forma do objeto em alto relevo.


• Desvantagens: requer potentes fontes de iluminação, difícil calibração e complexo sistema
de deslocamento e de sincronização.
• Fonte de Iluminação: normalmente fontes de LED’s, porém, a fibra óptica com espelhos e
prismas também pode ser utilizada.

2.1.3.9 Dia Nublado (Cloudy Day)

A técnica de iluminação Dia Nublado (Cloudy Day) é assim denominada pois esta imita
o comportamento da atmosfera em um dia nublado, ou seja, uma iluminação uniformemente
distribuída em todas as direções que incidem sobre o objeto. Este comportamento é obtido
através da projeção da luz em uma cúpula semi-esférica, que, por sua vez, distribui a luz em
várias direções. A luz é emitida da base da cúpula contra a sua parede e outra pequena parte
advém de uma fonte superior, do tipo axial difusa, para evitar que o centro do objeto possua
uma atenuação na iluminação devido ao espaço necessário para colocar a câmera.

a) Ilustração. b) Ilum.: Anel


c) Ilum.: Dia Nublado. d) Nerlite.
Luminoso.

10
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Figura 2.16 - Iluminação Dia Nublado (Cloudy Day).

Esta iluminação é muito importante para superfícies complexas (não planas), devido às
diferentes direções com que os feixes luminosos atingem o objeto. Esta é, também, muito
utilizada em superfícies muito reflexivas e como uma fonte difusa extremamente eficiente.

• Vantagens: iluminação difusa e uniforme, para objetos com formas complexas e reflexivas.
• Desvantagens: custo alto e difícil instalação (espaço de trabalho reduzido).
• Fonte de Iluminação: LED’s, fibra óptica e lâmpadas fluorescentes.

2.1.3.10 Polarizada

A iluminação polarizada é, na verdade, uma técnica de filtragem dos raios luminosos,


podendo ser empregada com as demais técnicas de iluminação apresentadas anteriormente.
Com o auxílio de filtros polarizadores (um posicionado na frente da fonte luminosa e outro na
frente da câmera), esta técnica faz com que somente feixes luminosos em uma direção
específica incidam sobre o sensor da câmera. Desta forma, feixes luminosos provindos de
outras direções distintas são impedidos de sensibilizar o sensor da câmera.
Desta forma, a iluminação polarizada aumenta o contraste do sistema de visão, evita
que fontes de iluminação do ambiente prejudiquem o sistema e, ainda, pode ser utilizado para
avaliar a deformação em materiais translúcidos.

a) Ilustração. b) Objeto sem c) Objeto com


d) Deformação.
Polarizador. Polarizador.
Figura 2.17 - Iluminação Polarizada .

11
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.2 Câmera

2.2.1 Introdução às Câmeras

Câmera é o elemento básico presente na maioria das soluções de sistemas industriais


de visão. O objetivo principal deste item é apresentar os conceitos básicos, assim como alguns
tipos de câmeras.

2.2.2 Princípio de Funcionamento

As câmeras obtêm imagens através de uma matriz de sensores sensíveis a


luminosidade. Estes sensores retornam a intensidade e luz que chega naquele ponto. O
princípio básico de funcionamento de uma câmera pode ser resumido da seguinte maneira:
1. Incidi-se uma iluminação sobre o objeto em análise;
2. Esta luz reflete no objeto, incidindo na lente da câmera;
3. A luz sofre uma difração nas lentes, sendo direcionada para incidir sobre a matriz
de sensores sensíveis a luz;
4. Esta matriz registra a intensidade de luz que chega em cada pixel, formando a
imagem do objeto.

2.2.3 Anatomia da Câmera

Este trabalho enfoca dois tipos de câmeras disponíveis atualmente: CCD (Charged
Coupled Device) e CMOS (Complementary Metal Oxide Semiconductor). Estas câmeras são
caracterizadas por utilizarem sensores sensíveis a luz com condutores de estado sólido. Estes
sensores são tipicamente construídos no formato retangular (imagens) ou na forma de uma
linha única (line scan) com sensores discretos eqüidistantes, chamados de foto-células (photos-
sites). Estas foto-células operam como conversores opto-eletrônicos, recebendo luminosidade
por um período de tempo e gerando uma carga elétrica proporcional a intensidade de luz e ao
tempo de exposição.

2.2.3.1 Sensores Charged Coupled Devices

Em câmeras Charged Coupled Devices (CCD), as foto-células são montados em uma


matriz com os sensores acoplados (coupled), desta forma a imagem poder ser obtida
diretamente desta matriz na forma digital ou pode ser processado na forma de um sinal de
vídeo analógico. Existem dois modos clássicos de composição das imagens a partir das foto-
células, formando o sinal de vídeo: transferência de cena (Frame-Transfer) e transferência
entrelinhas (Interline-Transfer).

12
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.2.3.2 Sensores CMOS

Sensores CMOS (Complementary Metal Oxide Semiconductor) diferem dos sensores


CCD na forma em que são fabricados e na forma como a imagem é adquirida da matriz de foto-
células. Do ponto de vista de custo, a grande vantagem dos sensores CMOS é que estes são
fabricados em linhas padrão de semicondutores, enquanto que os sensores CCD requerem
uma linha de produção dedicada. Isto permite que os fabricantes de sensores CMOS possam
estar constantemente melhorando as suas linhas de produção, reduzindo os custo, e
permitindo a integração de mecanismo de processamento de sinais nos próprios sensores, com
um custo bem reduzido. Entretanto, sensores CMOS possuem uma resposta dinâmica pobre
em relação aos sensores CCD. Porém, com o grande avanço do mercado das câmeras para
tele-conferência e das câmeras digitais, pequenas e de alta resolução, um grande esforço
científico esta sendo realizado para melhorar esta tecnologia. Uma vantagem definitiva da
estrutura dos sensores CMOS é que cada uma das suas foto-células possuem o seu próprio
amplificador e circuito de saída. Isto permite que cada foto-célula seja lida independentemente
das demais, eliminando a necessidade do acoplamento de carga que ocorria no CCD. Isto faz
com que os sensores CMOS possuem uma fácil programação onboard, facilitando a integração
com dispositivos microprocessadores, permitindo a criação de câmeras com processadores
internos.

2.2.4 Sensores de Varredura Linear - Line-Scan

Sensores Line-Scan adquirem imagens de uma dimensão, i.e. uma linha única de pixels,
podendo empregar tanto a tecnologia CCD como a tecnologia CMOS. Esta característica faz
com que estes sensores sejam muito úteis para inspeções em linhas de produção com objetos
cilíndricos ou arredondados, podendo-se obter imagens planas destes objetos. Outra aplicação
importante é em linhas de produção em movimento, onde imagens com dimensões maiores da
usuais podem ser formadas com esta tecnologia. Os sensores são muito simples e velozes, e
quando empregados apropriadamente, podem ser eficientes em inspeções requerendo alta
exatidão.

2.2.5 Técnicas de Varredura da Imagem

2.2.5.1 Varredura por Entrelaçamento – Interlaced

Quando as televisões foram criadas a uns 50 anos atrás, percebia-se que muitas
pessoas possuíam problemas para visualizarem imagens em movimento, denominado de
flicker, com taxas de atualização de até 30 imagens por segundo. Para minimizar este efeito, a
indústria de televisão criou a tecnologia entrelaçada (interlaced), que entrelaçava duas imagens
sucessivas lidas de uma câmera padrão. O método de entrelaçamento era muito simples e
ainda é empregado atualmente em televisões e monitores de computadores.
• Ler/mostrar todas a linhas pares (definido como campo par, metade da imagem);
• Reiniciar;
• Ler/mostrar todas a linhas ímpares (definido como campo ímpar, metade da
imagem);
• Unir o campo ímpar com o par, formando uma única imagem com o tamanho total;

13
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

• Enviar/Visualizar a imagem inteira.

Figura 2.18- Varredura por Entrelaçamento.

Neste sistema, a imagem é subdivida em dois campos, o campo par contendo todas a
linhas de índice par e o campo ímpar contendo todas a linhas de índice ímpar. O número de
linhas em um campo (par ou ímpar) é metade do número de linhas da imagem. Então, a cada
varredura atualiza-se um dos campos com uma taxa de 60 quadros/segundo, ou seja, em uma
varredura atualiza-se o campo ímpar e na seguinte o campo par, e assim sucessivamente. Esta
taxa de atualização não é perceptível ao olho humano. Câmeras que geram um sinal de vídeo
do tipo entrelaçado, são denominadas normalmente de câmeras de varredura por área (area
scan cameras).
Com o estabelecimento deste padrão, os fabricantes de câmeras projetaram esta
técnica de entrelaçamento 2:1 para as sua câmeras, assim as câmeras podiam se acopladas
diretamente a televisores e monitores. Duas variações simples desta técnica foi também
implementadas em algumas câmeras:
• Integração de Imagens: neste modo, somente o campo par ou o ímpar é
repetidamente lido do sensor da câmera, enquanto que o outro campo é descartado.
Isto resulta em uma imagem que contém somente as linhas pares ou ímpares do sensor
da câmera.
• Integração de Campo: neste modo, pares de linhas consecutivas são lidos do sensor
da câmera simultaneamente, usando-se todas as linhas do sensor da câmera para uma
única aquisição. Por exemplo, as linhas 1 e 2 seriam combinadas e lidas como a linha 1,
enquanto que as linhas 2 e 3 seriam combinadas e sendo lida como a linha 2, e assim
sucessivamente até que todo o sensor da câmera seja lido, formando uma única
imagem.

Através desta descrição, fica claro que a técnica de entrelaçamento requer uma quantia
finita de tempo para produzir a imagem final com tamanho completo. Além disso, se algum
movimento ocorre na cena entre os tempos de varredura par e ímpar, a imagem final aparecerá
borrada. Para evitar este efeitos foram criadas novas tecnologias de varreduras que empregam
a técnica de varredura progressiva.

14
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.2.5.2 Varredura Progressiva de Imagens – Progressive Scanning

Câmeras com Varredura Progressiva (Progressive Scanning), ou não-entrelaçadas,


operam de forma a transferir imediatamente a imagem inteira de uma única vez do sensor da
câmera, sem processar qualquer entrelaçamento das linhas pares e ímpares. Estas câmeras
adquirem a imagem toda como sendo um único campo, enviando linha por linha
seqüencialmente. O grande benefício é em aplicações com objetos em movimento, porém a
sua grande desvantagem esta na incompatibilidade com os padrões de vídeo para televisões.
Entretanto, aplicações de sistema de visão baseadas em computadores não precisam mostrar
as imagens da câmera diretamente em um monitor/televisão, empregado placas de aquisição
(framegrabber) para a transferências de imagens da câmeras e a sua digitalização. Algumas
destas placas suportam a tecnologia progressive scan, viabilizando a aplicação destas
câmeras em sistemas de visão. Câmeras progressivas estão ganhando popularidade na
aplicação de sistemas de visão, por que elas incorporam transferência de sinal digital da
imagem e eliminam muitas tarefas que consomem tempo e desnecessárias associados aos
mecanismos de televisão.

2.2.5.3 Varredura Linear (Line Scan)

A varredura linear é implementada por sensores lineares (line scan sensors), que
adquirem uma linha horizontal da imagem por vez. O computador, através da placa de
aquisição, agrupa estas “linhas” de acordo com o seu buffer de memória, construindo a imagem
inteira. Esta imagem pode possuir uma altura (tamanho) variável dependendo do tamanho de
buffer empregado. Uma variação deste modo é denominada de aquisição com altura da
imagem variável (VHA – variable height acquisition). Neste modo, a câmera fica enviando
linhas para formar imagem enquanto que um sinal de comando estiver ativo. Quando este sinal
é desativado, a câmera para de adquirir e enviar estas linhas, e o computador possuirá a
imagem completa. Freqüentemente, emprega-se um sensor de disparo (trigger) para notificar a
chegada do objeto e o início da varredura por linhas, confeccionando uma nova imagem. No
modo de altura da imagem variável (VHA), um segundo sensor de disparo pode ser empregado
para detectar o fim do objeto e finalizar a confecção da imagem. Isto é extremamente
importante em aquisição de imagens de objetos com comprimento variável ou desconhecido.

2.2.6 Sensores de Imagens Coloridas

Intensidade ou brilho (brightness) é somente um dos atributos usados para nós


percebemos as “cores” dos objetos. Os outros atributos que tornam uma imagem colorida são:
tom (hue) e saturação (saturation). O tom de um objeto representa o comprimento de onda da
luz que o nosso sistema de visão pode ver (sendo que no caso dos humanos, podemos
visualizar cores com comprimento de onda entre 400 e 750 nm, exemplificado na figura
abaixo). Tom é comumente referenciado como a cor do objeto, ou seja, vermelho, laranja,
verde, etc. Saturação representa a quantidade de luz cinza contida na cor relativa ao seu tom.
Saturação é comumente referenciada como a pureza da cor.

15
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Figura 2.19 – Espectro Visível.

Infelizmente, sensores de câmera que podem detectar tonalidade, saturação e


intensidade diretamente não existem. Porém em 1960, fisiologistas descobriram que os
humanos compõem as cores através da detecção de picos de intensidade em três faixas de
comprimentos de onda próximos as cores vermelha, verde e azul. Portanto, não é coincidência
que quando misturamos as cores primárias vermelho, verde e azul podemos produzir milhares
de cores diferentes. Este modelo de cores básicas é aplicado em quase todos os
equipamentos que operam com cores como, por exemplo, monitores ou impressoras. Como os
sensores CCD e CMOS são proporcionais a intensidade de luz incidente, podemos criar
sensores de cores simplesmente aplicando este princípio. Na prática, isto foi realizado
utilizando-se 3 tipos de foto-células, cada uma sensível a um espectro diferente de onda
(sensores com 3 chips), ou usando um único tipo de foto-célula em conjunto com filtro de cores
(sensores com único chip).

2.2.6.1 Sensores com 3 Chips

Figura 2.20 – Sensores com 3 chips.

Em uma arquitetura com 3 chips, a luz que incide na câmera é primeiramente dividida
em três feixes e cada um destes feixes é focado em um sensor diferente, cada sensor possui
uma lamina de filtro de cor para permitir a sensibilização por uma faixa do espectro de cor.
Cada um dos sensores, mede a intensidade da luz em um dos espectros das cores básicas,
16
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

desta forma pode-se reproduzir a cor daquele ponto conhecendo-se a intensidade das cores
básicas. Este método é muito popular, porque as características da função de resposta
espectral dos filtros de cores podem ser projetados para simular as dos olhos humanos,
permitindo que as câmeras possam visualizar as cores como os seres humanos fazem. Os
benefícios deste projeto incluem o processamento de sinais simplificado, alta precisão na
reprodução e controle das cores, e alta resolução. Entretanto, câmeras que empregam esta
tecnologia tendem a ser caras e possuírem grandes dimensões, devido a eletrônica associada
com os três sensores. Entretanto, a grande desvantagem está na baixa sensibilidade a luz
fraca devido a baixa intensidade de cada um dos feixes resultado da divisão do feixe luminoso
primário.

2.2.6.2 Sensores com Único Chip – Esquema Mosaico

Em uma arquitetura com um único chip, uma matriz de filtro de cores (DFA), selecionada
cuidadosamente, é colocada diretamente na parte sensível a luz de uma sensor de câmera.
Circuitos eletrônicos e algoritmos de interpolação mais complicados são aplicados neste
projeto, entretanto estas câmeras são tipicamente muito menores, menos caras e possuem um
sensibilidade maior a luz fraca que a arquitetura com 3 chips. As maiores desvantagens estão
na baixa resolução e na pouca precisão no controle e na reprodução das cores.

2.2.6.3 Filtragem de Cores

Filtros de cores são empregados para modificar a resposta espectral da câmera,


modificando o espectro de cores o qual a câmera é sensível. Estes filtros podem gerar imagens
com qualidade e exatidão muito maiores sem aumentar o tempo de processamento do sistema,
caso fosse empregado técnicas de filtragem por software.

2.2.6.4 Câmeras Coloridas ou em Tons de Cinza?

Quando uma câmera é escolhida para uma aplicação industrial, muitos integradores
instintivamente selecionam uma câmera colorida por que eles acham que as câmeras em tons
de cinza possuem qualidade inferior. O que está, entretanto, incorreto. Câmeras
monocromáticas possuem uma resolução superior, são menos susceptíveis a ruídos
eletromagnéticos, possuem uma sensibilidade à luz maior, e maiores contrastes que câmeras
coloridas na mesma faixa de preço. Embora que as imagens coloridas sejam preferidas, os
olhos humanos podem perceber diferenças espaciais de forma mais clara em imagens em tons
de cinza, enquanto que as imagens coloridas requerem maior tempo de processamento e não
necessariamente possuem mais informações sobre o objeto.
Quando uma imagem colorida de alta resolução é necessária, é melhor utilizar câmeras
coloridas com 3 chips (também denominadas Câmeras 3-CCD ou RBG). Através da utilização
de 3 sensores CCD, estas câmeras oferecem a melhor solução dos que as câmeras coloridas
de 1 chip em todos as características (exceto preço): possuindo uma alta resolução espacial e
resposta dinâmica. A imagem é direcionada para cada sensor, utilizando-se prismas, e então é
filtrada para separar as cores básicas, azul, verde, vermelho.

17
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.2.7 Tipos de Câmeras

Existem várias maneiras de se classificar câmeras, neste momento, entretanto, optamos


por classificar as câmeras segundo a sua tecnologia em:
1.câmeras analógicas;
2.câmeras digitais;
3.câmeras inteligentes;
4.WebCam ou Pc-Cam;
5.câmeras wireless;
6.câmeras especiais.
Nesta seção pretendemos apresentar as câmeras disponíveis, focando as aplicações,
sem entrar em detalhes pois a tecnologia envolvida já foi apresentada anteriormente.

2.2.7.1 Câmeras Analógicas

Figura 2.21 – Câmeras Analógicas Monocromáticas e Coloridas

As câmeras analógicas são câmeras que utilizam sensores de imagem do tipo CCD ou
CMOS gerando como saída um sinal de vídeo analógico, que transmite a imagem da câmera
para o computador ou monitor. Podem ser tanto coloridas como em tons de cinza. Além das
suas características próprias, o sinal de vídeo analógico é um grande limitador da sua
capacidade, impedindo que altas taxas de transmissão sejam alcançadas e sendo susceptível
a ruídos eletromagnéticos. Além disso, o sinal de vídeo também limita a resolução e dimensão
das imagens transmitidas. Câmeras analógicas possuem sistema de varredura tanto
entrelaçado como progressivo, gerando sinais de vídeo compatível com estes padrões.
As grandes vantagens das câmeras analógicas são o tamanho reduzido, a tecnologia já
estar segmentada e dominada, aliado ao baixo custo. Em aplicações onde a velocidade de
captura não é muito alta (até 20 quadros/segundo), onde resoluções em tons de cinza de 256
bits em um campo de visão de 480x600 atenda as especificações, estas câmeras são
recomendadas. Entretanto, devemos lembrar do fato que estas câmeras requerem uma placa
de aquisição para a digitalização das imagens.

18
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.2.7.2 Câmeras Digitais

Figura 2.22 – Câmeras Digitais

Câmeras digitais possuem várias vantagens em relação as câmeras analógicas.


Digitalizando a imagem diretamente no sensor da câmera, pode-se reduzir drasticamente a
susceptibilidade a ruídos e aumentar a resolução da câmera. Muitas câmeras digitais são
fabricadas atualmente com 8 a 12 bits de resolução em imagens em tons de cinza. Esta
resolução alta é muitas vezes requerida em diversas aplicações. Câmeras digitais utilizam
cabos para a conexão com o micro, com um número variável de canais, possuindo taxas de
transmissão bem superiores a taxas do sinais de vídeo analógico normais. Algumas câmeras
digitais podem transmitir dados a taxas superiores a 100 Mbytes/s.
Existem diversos padrões de comunicação entre a câmera e o computador, os padrões
mais promissores são o Camera Link e a USB 2.0. Este padrões podem limitar o desempenho
das câmeras digitais e, portanto, devem ser analisados em detalhe. Câmeras digitais podem
dispensar o emprego de placas de aquisição, o que reduz em parte o seu custo, tornando-se
mais atraente pela melhoria da qualidade fornecida. Para aplicações de alta velocidade, alta
resolução ou ambientes hostis com alta influência de ruídos eletromagnéticos, recomenda-se o
emprego de câmeras digitais.

2.2.7.3 Câmeras Inteligentes

Figura 2.23 – Câmeras Inteligentes.

Logo após o surgimento das câmeras digitais, os fabricantes começaram a filosofar por
que não adicionar um microprocessador a câmera e realizar parte ou todo o processamento da
imagem já na câmera. Foi então que criou-se as primeiras câmeras inteligentes ou Smart-Cam.
Estas câmeras possuem um processador embutido, fazendo com que além de já
digitalizar as imagens, elas conseguem também processar as imagens e transmitir parte delas
ou somente o resultado para o computador, diminuindo assim a taxa de transmissão
necessária para enviar a imagem inteira. Imagine que estamos trabalhando com uma aplicação
muito complexa, onde uma câmera com um sensor 2000x2000 pixels e com uma resolução de
14 bits por pixel é requerida. Além disso, faz-se necessário o processamento de 40 imagens
19
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

por segundo, isto nos levaria a uma transmissão de 280 Mbytes por segundo (2000 x 2000 x 14
x 40 / 8), o que dificilmente poderia ser realizado por uma câmera digital normal. Desta forma, a
Smart-Cam seria a sua única opção de viabilizar esta aplicação.
Mas está não é a única vantagem. Usando Smart-Cam diminuímos a utilização da CPU
do computador, pois parte ou todo o processamento da imagem será feito na própria câmera,
sobrando mais tempo para o computador efetuar outros cálculos ou gerenciar até outras
câmeras/dispositivos. Outra grande vantagem é a modularização do sistema, onde a Smart-
Cam pode esta ligada por portas de I/O na própria câmera com o sensor de Trigger e o sistema
de iluminação, interagindo com estes dispositivos sem a interferência do computador, que
receberá apenas o resultado do processamento. Estas câmeras podem ainda utilizar conexões
de rede, como Ethernet ou Fieldbus, para comunicar com o computador, podendo estar
localizadas a quilômetros do computador que as gerencia. Desta forma, a Smart-Cam pode até
dispensar o uso de computadores em alguns casos, diminuindo o custo do sistema de visão,
juntamente com a sua dimensão.
A performance destas câmeras esta diretamente relacionada com a performance do
sensor empregado (como as demais câmeras) e a performance do processador adotado. Com
a evolução constante da tecnologia de processadores, hoje já está disponível no mercado
câmeras com processadores Pentium de até 300Mhz embarcados. A sua programação pode
ser totalmente feita em Ansi C++ e enviada para a câmera através do protocolo FTP do
TCP/IP, pois esta câmera utiliza uma conexão Ethernet com o PC. Desta forma, fica totalmente
transparente a sua programação e algoritmos de processamento de imagens já utilizados no
computador, podem ser facilmente implementados nestas câmeras. Com certeza, esta é uma
evolução sem retorno, entretanto, o alto custo destes sistemas ainda implicam que o bom
senso e uma especificação bem feita, são pontos cruciais na escolha da câmera mais
adequada.

2.2.7.4 WebCam ou PC-Cam

Figura 2.24 – WebCams.

Esta é a opção mais agressiva em relação as câmeras disponíveis no mercado, pois


possui um custo extremamente baixo (em relação as demais) e boa resolução de imagem. Esta
câmera foi inicialmente desenvolvida para aplicações domesticas, de escritório e vídeo
conferência; entretanto pela sua fabricação em massa e pela alta tecnologia empregada,
tornou-se uma atrativa opção para os sistemas de visão, mesmo aquele aplicados em
ambientes industriais.
Como vantagens têm-se uma câmera digital, colorida, com possibilidade de ser
progressive scan e transmissão de imagens via porta USB por um preço extremamente baixo

20
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

de (US$ 100,00). Esta câmeras possuem uma alta taxa de captura de até 15 imagens por
segundo (com 640x480) ou até 30 imagens por segundo (com 320x240). Possuem um amplo
ajuste de foco e zoom, dispensando em vários casos o uso de lentes extra e dispensa também
a necessidade de placas framegrabbers. Possuem um tamanho e peso também reduzido e
vários aplicativos disponíveis na internet para testar e aplicar estes dispositivos.
Por não ser um produto desenvolvido para aplicações industriais, requer uma análise
maior em relação ao tempo de vida útil e a robustez do sistema. Por possuir um sistema óptico
próprio, dificulta o emprego de lentes especiais, necessárias em algumas aplicações.
O desenvolvimento do software requer também um tempo maior, haja visto que a
interface com a câmera será realizada através da biblioteca API do Windows, com
documentação ruim nas ferramentas comuns de desenvolvimento. A grande vantagem é que
uma vez construída esta interface, podemos aplicar qualquer tipo de WebCam que o sistema
funcionará, conseguindo assim uma independência em relação ao hardware e permitindo um
futuro up-grade facilitado do sistema.
Algumas WebCam entretanto utilizam placas de aquisição e operam no modo analógico.
Entretanto, estas câmeras estão em extinção pois não conseguem competir em performance e
nem em preço com as WebCam atuais que são digitais, coloridas e não requerem placas de
aquisição.
Existem ainda câmeras com outras facilidades, como microfone embutido com placa
digitalizadora de som, útil para aplicações de vídeo conferência e segurança. Outras WebCam
podem ser retiradas do PC e utilizadas como máquinas fotográficas digitais com pilhas e depois
religada ao computador.
Resumidamente, a tecnologia das WebCam esta crescendo exponencialmente,
tornando competitivas para o mercado de sistemas de visão, entretanto o seu enfoque ainda é
para o usuário de computador e vídeo conferência, portanto a assistência técnica ainda opera
de forma precária. Analisando-se com cuidado os requisitos da aplicação, pode-se optar por
esta tecnologia, que com certeza reduzirá consideravelmente o custo final dos sistemas de
visão.

2.2.7.5 Câmeras Sem Fio (Wireless)

Figura 2.25 – Câmeras sem fio.

Hoje em dia, já podemos obter soluções wireless conectando uma WebCam normal a
um Palmtop, e utilizando uma transmissão por rádio para comunicar com o computador. É
claro, neste caso, que o Palm Top precisa realizar um parte do processamento de imagem,

21
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

atuando como o processador das Smart-Cam, pois senão seria inviável transmitir a imagem
completa por rádio.
Prevê-se para um futuro bem próximo, que a tecnologia das Smart-Cam irão avançar
tanto, que logo teremos uma conexão por sinal de rádio ou por celular, através da WAP
(Wireless Application Protocol), permitindo que as Smart-Cam não precisem mais de um cabo
ligando elas aos computadores. Desta forma, poderemos projetar sistemas de visão muito
menores, com alta capacidade de processamento e modulares, onde os computadores PC
serão dispensados ou atuaram como gerentes controlando linhas com vários sistemas de visão
e outros dispositivos de automação.

2.2.7.6 Câmeras Especiais

Além destas câmeras com sensores de imagem normais, existem outras câmeras
consideradas especiais, pois foram desenvolvidas para aplicações específicas. Abstraindo o
conceito de câmera, pode-se considerar que uma câmera é um sistema que consegue extrair
determinadas informações de uma área de interesse e armazená-las na forma de uma matriz
n-dimensional, representando as informações daquela área em um determinado instante.
Assim sendo, podemos considerar que câmeras não servem somente para obter uma imagem
de uma área de interesse, mas pode também armazenar outras informações como a
distribuição de calor naquela área, ou a profundidade da superfície em análise. Claro, que para
estas aplicações especiais, requer-se procedimentos especiais, bem como sensores
adequados.
Existem câmeras para adquirir imagens de raio-x ou empregadas em tomografia
computadorizada. Pode-se aplicar sonares ou lasers para realizar a varredura de uma área e
gerar uma imagem com informações de alto relevo, contendo a profundidade da área sob
análise.
Câmeras especiais geralmente modificam a forma como o sensor de imagem funciona,
ou seja, o princípio de funcionamento das fotos células, e utilizam toda a arquitetura prontas
das câmeras para digitalizar e transmitir as informações capturadas pelos novos sensores.
Desta forma, elas possuem a forma das câmeras tradicionais e utilizam os mesmos sinais de
vídeo e placas de aquisição, com a diferença de estarem transmitindo outro tipos de
informações. Cabe ao desenvolvedor de software, criar as ferramentas e algoritmos
necessários para extrair as informações desejadas, para depois atuar sobre o sistema,
monitorando-o ou controlando-o.

22
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.3 Transmissão de Dados

Pode-se considerar que uma imagem é, na verdade, uma matriz, onde cada elemento
possui um valor de intensidade de cinza ou um valor de cor. A fim de compreender o processo
de transmissão de imagens das câmeras para os computadores, faz-se de suma importância o
entendimento de como são os sinais eletrônicos, analógicos e digitais, que enviam estas
imagens. Em muitos casos, estes sinais limitam o desempenho de todo o sistema de visão,
como a taxa máxima de imagens por segundo. Nesta parte apresentaremos os tipos de
formatos de sinais mais utilizados.
Ressalta-se aqui, que deve-se tomar muito cuidado ao projetar um sistema de visão
para considerar o desempenho dos sinais de transmissão da imagem. Estes sinais possuem
limitações quanto a velocidade de transmissão, a resolução da imagem transmitida, a
sincronização entre computador e câmera e a qualidade da imagem transmitida. Um sinal de
vídeo mal selecionado para uma aplicação critica, pode inviabilizar todo um projeto.

2.3.1 Sinais Analógicos

Um sinal de vídeo analógico consiste de um sinal de baixa-tensão contendo o dados da


intensidade para cada linha, em combinação com um sinal de temporização que garante a
sincronização entre a câmera e o micro/monitor. O sinal de vídeo para uma única linha
horizontal consiste dos seguintes partes (ver figura abaixo): sinal horizontal de sincronização,
sinal de referência posterior (back porch), sinal de cores (Color Burst), região de pixels ativa
(active pixel region) e sinal de referência anterior (front porch).

Figura 2.26 – Sinais Analógicos.

O sinal horizontal de sincronização (HSYNC) sinaliza o início de cada nova linha de


vídeo. Este é seguido pelo sinal de referencia posterior (Back Porch), o qual é usado como
nível de referência para remover qualquer ruído de componente DC do sinal de vídeo alternado
(AC-coupled). O sinal de cores (Color Burst) aparece somente em sinais de vídeo coloridos e
fornecem dados para decodificar as informações de cores contidas no sinal.

23
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Informações de cores podem ser incluídas junto com os sinais de vídeo monocromáticos
(NTSC e PAL são exemplos destes padrões). Um sinal colorido composto consiste de um sinal
monocromático padrão (RS-170 ou CCIR) com os seguintes componentes adicionados:
• Sinal de Cor (Color Burst):ocalizado no sinal de referencia posterior (back porch), é
uma região de alta-freqüência a qual fornece a referência da fase e da amplitude para as
informações de cores subseqüentes.
• Sinal Cromático: Este é a informação de cor propriamente dita. Este consiste de 2
componentes modulados de quadratura na freqüência do sinal de cor. A fase e a amplitude
deste componentes determinam o valor da cor de cada pixel.
Outro aspecto do sinal de vídeo é o pulso de sincronização vertical (VSYNC). Este é, na
verdade, uma série de pulsos que ocorrem entre campos para sinalizar o monitor para retornar
a posição inicial e preparar para a varredura do próximo campo. Existem várias linhas entre
cada campo que não contém dados concretos da imagem. Alguns contém somente pulsos,
enquanto outros contém uma série de equalização e pulsos VSYNC. Este pulsos foram
definidos no surgimento dos sinais de TV e permanecem até nos padrões de hoje, embora
alguns novas tecnologias de hardware eliminou a necessidade de alguns dos pulsos extras.
É importante entender que o tamanho horizontal (em pixels) de uma imagem obtida de
uma câmera analógica é determinada pela taxa a qual a placa de aquisição coleta cada linha
de vídeo horizontal. Esta taxa, por sua vez, é determinada pela taxa de campos/segundo da
câmera (quantos VSYNC por segundo) e pela arquitetura da câmera. A estrutura do sensor da
câmera determina a dimensão de cada pixel.

2.3.1.1 Padrões de Vídeo Comumente Empregados

• NTSC e EIA (RS-170)


O padrão EIA (RS-170) atende para a transmissão de sinais monocromático analógico.
Possui um custo baixo e uma resolução aproximada de 768x494 pixeis, empregando a técnica
de varredura entrelaçada (interlaced scanning).
O padrão NTSC é a versão colorida do padrão acima, que utiliza apenas um fio para a
transmissão dos dados de cor. Em geral, apresenta resolução e qualidade em nível médio.

• PAL
PAL é o padrão na Europa, menos para a França. Pode ser utilizado para imagens
monocromáticas ou coloridas e possui uma resolução norma de 768x576 pixeis.

• SECAM
SECAM é uma tecnologia de cabos analógicos empregados na França e no Leste
Europeu, com resolução superior ao PAL, padrão empregado no resto da Europa.

• Y-C
Este é um sinal de alta qualidade para câmeras coloridas. Este é um cabo com 2 fios de
cores. Os dois sinais enviados são luminância (Y) e chroma (C). A qualidade das cores é bem
superior que um cabo NTSC normal, por causa da separação das componentes de cores.

2.3.1.2 Cabos e Conectores

O padrão de cabos e conectores não deve ser confundido com o formato do sinal da
câmera. Câmeras CCD padrão geram um sinal composto, feito de informações de cores e
brilho. Sinais compostos, conhecidos por NSTC (cor) ou EIA (monocromático), transmitem por
24
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

um único canal requerendo apenas um cabo coaxial. Em um cabo coaxial, duas conexões
separadas são construídas entre os dispositivos, uma para o sinal de vídeo e outra para a
referência “fio-terra” (ground). Cabos de canais singulares possuem um conector do tipo “BNC”
ou “RCA”. Algumas câmeras coloridas produzem sinais em dois canais simultaneamente, uma
para a informação de cores e o outro para o brilho. Dispositivos de vídeo com canal duplo, ou
Y-C (algumas vezes chamados de S-Video ou SVHS), usam um conector “Y-C” de 4 pinos,
onde 2 canais compõem os dois canais e os outros 2 transmitem o “fio-terra” (ground).

Figura 2.27 – Conectores para sinais analógicos.

2.3.2 Sinais Digitais

Sinais de vídeo digitais são produzidos para câmeras que já digitalizam a imagem
diretamente no seu sensor, transmitindo esta imagem na forma digital para o computador.
Aplicações que requerem o uso destes sinais digitais de vídeo necessitam de alguns dos
requisitos abaixo:
• alta resolução especial (para grandes imagens);
• alta resolução de intensidade (número de bits por pixel);
• alta velocidade;
• flexibilidade na temporização ou nas características de varredura;
• imunidade a ruídos.
A temporização para sinais de vídeo digitais (figura abaixo) é muito mais simples que a
efetuada para sinais de vídeo analógico, pois o sinal está no formato digital. Eles utilizam um
clock de pixel, que temporiza a transferência entre a câmera e o computador, um comando de
linha (line enable) que indica o começo e o fim da transmissão de cada linha da imagem, e o
sinal de comando da imagem (frame enable) que indica o começo e o fim da transmissão de
cada campo ou imagem.

Figura 2.28 – Sinais Digitais.

Não existe um padrão de transmissão da imagem para estes sinais, portanto, o


computador, em especial a placa de aquisição, precisam ser configuráveis para os diferentes
tipos de transmissão existentes. Um fator importante é o número de canais (taps) que a câmera
disponibiliza para a transmissão. Algumas câmeras oferecem 2 canais, outras 4, ou mais pixels
em paralelo. Por exemplo, uma placa de aquisição de 32-bits (possuindo 32 portais de I/O) é

25
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

capaz de ler simultaneamente até 4 pixels contendo 8 bits cada um. Desta forma, a placa de
aquisição precisa ser configurada para posicionar estes pixels nas posições corretas no buffer
da imagem. A especificação da câmera indicará como será realizada a transmissão dos dados
para o computador.
A qualidade da transmissão da imagens é melhor, dependendo da resolução em bits por
pixel fornecida. Quanto maior a resolução, maior terá que ser a taxa de transmissão,
encarecendo os custos. Abaixo realizamos uma comparação para uma imagem
monocromática, indicando a resolução em bits:
• 8 bits: Este é o nível normal de qualidade, comparável ao EIA (RS-170) no formato
analógico. Em geral, o sinal é melhor devido a atenuação de ruídos. Permite até 256
níveis de cinza.
• 10 bits: A resolução já melhorou, agora pode-se obter até 1024 níveis de cinza;
• 12 bits: Um melhor significativa na resolução, que agora representa até 4096 níveis de
cinza. Poucos fabricantes oferecem câmeras com esta resolução.
• 14-16 bits: Resolução alta demais, empregada principalmente para aplicações
científicas como astronomia e micro-biologia. Muito rara e com elevado custo.

2.3.2.1 Tipos de Sinais de Transferência de Dados

• TTL
TTL é o tipo de sinal padrão existe na eletrônica digital, ele é baseado em um valor DC
de voltagem em relação a um sinal de referência zero, onde 0V indica o bit '0' e 5V indica o bit
'1'. Como não é um sinal diferencial, sofre grande influência de ruído eletromagnético e só pode
ser empregado em cabos com curto comprimentos.

• RS422
Este é um sinal diferencial que permite altas taxas de transmissão, sendo o padrão
atualmente empregado nas câmeras digitais, sendo menos susceptível a ruídos e podendo ser
empregado em cabos com grandes comprimentos.

• RS-644 ou LVDS – Low Voltage Differential Signaling


Entretanto, um novo padrão de transmissão de sinais digitais tem sido adotado pelos
fabricantes de placas e câmeras. O Sinal Diferencial de Baixa Voltagem (Low Voltage
Differential Signaling – LVDS, também conhecido por RS-644) opera com um sinal diferencial
de baixa voltage e com alta taxas de transmissão, superiores as taxas do RS-422. O padrão
LVDS fornece um sinal para aplicação de alta performance, baixa voltagem, e com baixa
susceptibilidade a ruídos de transmissão. Com o RS-644, pode-se empregar cabos com
comprimentos maiores que os utilizados com a RS-422.

2.3.2.2 Protocolos Digitais de Comunicação

• Porta Paralela
Algumas câmeras realiza a conexão com o computador através da porta paralela deste,
transmitindo de forma paralela as imagens para câmera. Entretanto, esta tecnologia já esta
obsoleta, limitando o comprimento do cabo devido a susceptibilidade a ruídos e possuindo uma
baixa taxa de transmissão, não sendo portanto recomendada para sistemas de visão.

26
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

• IEEE 1394
IEEE 1394, também conhecido como “FireWire” (Fio de Fogo), é um porta serial de alta
performance, originalmente desenvolvida pela Apple computadores no início dos anos 1990s. A
especificação indica taxas reais de transmissão de 100 Mbits/s, 200 Mbits/s, e 400 Mbits/s.
Esta alternativa de conexão digital é pequena, fácil de instalar e possui as características “plug-
in-play” de configuração da sua rede. IEEE 1394 também permite tecnologia de “conexão
quentes”, onde dispositivos podem ser conectados e desconcertados estando o sistema
energizado.
A Intel teve intenção em 1999 de lançar todas as suas placas mães com chipset para
esta interface, na tentativa de transformá-la em um padrão para a comunicação digital.
Entretanto, a sua baixa taxa de transmissão diminui da comunidade de sistemas de visão, que
preferiu investir em outras tecnologias, como a USB 2.0. Atualmente, a Intel direcionou os seus
esforços para a tecnologia USB 2.0 deixando a tecnologia da IEEE 1394 sem prioridade, com
pouca perspectiva de mercado.

• USB 2.0
USB é um barramento externo que dá suporte à instalação Plug and Play. Através da
porta USB (Universal Serial Bus, barramento serial universal), pode-se conectar e desconectar
dispositivos sem desligar ou reiniciar o computador (tecnologia denominada conexão quente).
É possível usar uma única porta USB para conectar até 127 dispositivos periféricos, incluindo
alto-falantes, telefones, unidades de CD-ROM, joysticks, unidades de fita, teclados, scanners e
câmeras. Uma porta USB está normalmente localizada na parte traseira do computador
próximo da porta serial ou da porta paralela.
Tomando lugar da IEEE 1394, Intel desenvolveu a especificação final da USB 2.0. Nesta
especificação, amplia-se a taxa de transmissão da USB 1.1 de 12 Mbit/s para 480 Mbit/s (60
Mbyte/s).
Apesar da taxa de transmissão não atender as necessidades de sistemas de velocidade
muito altas e com alta resolução, esta tecnologia recebe todo o apoio da Intel, possuindo
inúmeros drivers e ferramentas para o desenvolvimento de produtos integrados por USB.

• Camera Link
O Sinal Channel Link foi desenvolvido pela National Semicondutores baseado na
tecnologia do LVDS, e por isso fornece uma alta taxa de transmissão com baixa
susceptibilidade a ruídos. A transferência pelo protocolo Channel Link oferece uma alta taxa de
transmissão com cabos finos e compridos. O Channel Link, foi muito bem recebido pela
comunidade de sistemas de visão, onde vários fabricantes do ramo participaram da criação da
sua especificação, na intenção de torná-lo um padrão.
Camera Link é uma interface criada por vários desenvolvedores de placas e câmeras.
Camera Link é baseada no chip Channel Link da National Semicondutores. Camera Link utiliza
um cabo com 11 pares de fios terminados com um conector MDR 26, fornecendo uma
combinação do tradicional sinal diferencial de baixa voltagem (LVDS) com um fluxo de
transmissão digital serial. O resultado é um cabo menor que é capaz de transmitir até 255
Mbits/s de dados de forma paralela, mantendo a imunidade a ruídos dos cabos seriais
robustos.
Um grupo de empresas organizados pela Pulnix definiram o Channel Link como padrão
em Abril de 2000. Pode-se ainda ampliar a taxa de transmissão, adicionando-se um segundo
cabo Channel Link. Channel Link possui também uma comunicação assíncrona com as
câmeras, fornecendo 4 entradas de alta velocidade para sincronização externas (trigger) e
outras funcionalidades. Estas entradas extras de controle, permitem a configuração de
sistemas bem mais complexos, sendo portanto uma alternativa flexível. Em um único cabo
Camera Link, pode-se acoplar ainda mais de uma câmeras.
O uso de conectores e cabos padronizados, produz uma redução nos custos e facilita a
instalação do sistema. Pretende-se ainda melhorar o protocolo, deforma a criar características

27
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

“plug-in-play” na conexão de dispositivos através desta interface, desta forma a placa de


aquisição irá identificar automaticamente as câmeras conectadas.

• HOTLink
Uma das tecnologias de transmissão digitais mais antigas em sistemas de visão
continuam a serem defendidas como viáveis pelos seus desenvolvedores (Wintriss, PPT
Vision). O chipset HOTLink foi criado um pouco antes do IEEE 1394, oferecendo um cabo com
2 pares trançados com taxas de transmissão de até 33 MByte/s, podendo utilizar cabos com
grandes comprimentos de até 100m. O sistema de conexão serial digital HOTLink inclui um
equalizador, uma fonte e um protocolo específico para transmissões em alta velocidade.

28
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.4 Sistema Processador

O sistema processador é responsável por controlar todo o Sistema de Visão (parte


óptica, aquisição e processamento de imagens) e por acionar possíveis sistemas de atuação
quando necessário.
É composto por uma parte de Hardware (placas de aquisição, sistemas de atuação) e
por Software (programa computacional que processa as informações e controla o sistema).
Vamos ver um pouco mais sobre cada parte do sistema processador.

2.4.1 Hardware

2.4.1.1 Framegrabbers

Framegrabbers (“catadores de quadro”) são componentes de hardware que capturam e


convertem sinais de vídeo vindos de câmeras para que possam ser lidos pelo computador. Os
sinais de vídeo capturados são denominados “quadros”. O Framegrabber (Fig. 2.1) armazena
os sinais de vídeo na memória RAM do computador, memória RAM interna do próprio
Framegrabber ou placa VGA. Caso o sinal de vídeo seja analógico, como na maioria dos
casos, o Framegrabber necessita convertê-los antes em sinais digitais. Esse hardware é
essencial em sistemas de visão e ponto importante a ser considerado em projeto. Também são
conhecidos como Digitalizadores (Digitalizers), Placas de Captura de Imagens (Image Capture
Cards) ou Video Grabbers.

Figura 2.29 - Função do FrameGrabber .

O sinal de vídeo vindo da câmera é transmitido, geralmente via cabo coaxial, para o
Framegrabber. O mesmo captura o sinal de vídeo, digitaliza-o e guarda o quadro (frame) em
memória. Para a interface entre o Framegrabber e o programa aplicativo rodando no PC existe
um driver adequado, fornecido pelo fabricante. O programa aplicativo pode então executar as
funções de processamento e análise das imagens, utilizando, por exemplo, o auxílio de um
SDK (Software Development Kit - software específico com bibliotecas de tratamento de
imagens).
O Framegrabber, portanto, possibilita-se que sinais de vídeo vindos de uma câmera ou
outra fonte sejam capturados em um PC e colocados à disposição para tela do computador ou,
mais comumente, para softwares de processamento de imagens.

2.4.1.1.1 Principais Características

Certos requisitos de um sistema de visão, como por exemplo, a taxa de inspeção,


necessidades de qualidade de imagem para tratamento, necessidade de pré-processamento
29
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

da imagem, tipo específica de câmera, entre outros, determinam fatores como a velocidade,
resolução e outras características desejadas do Framegrabber a ser usado. É importante
conhecer as principais características dos Framegrabbers para sua correta escolha, de modo
que ele não prejudique eficiência do Sistema de Visão como um todo.

2.4.1.1.1.1 Considerações sobre os formatos de entrada de vídeo

Framegrabbers têm que ser capazes de manusear uma grande variedade de câmeras.
A câmera ligada ao Framegrabber fornecerá imagens segundo um padrão de vídeo específico
da mesma. Os padrões de vídeo podem ser divididos em analógicos e digitais. Aplicações
usuais utilizam câmeras analógicas comuns. Em casos específicos é necessário o uso de
câmeras digitais.

2.4.1.1.1.1.1 Framegrabbers compatíveis com entradas analógicas de vídeo

A maioria dos Framegrabbers utilizados é de tipo compatível com os formatos-padrão


analógicos de vídeo (Area Scan entrelaçado), por exemplo, NTSC, CCIR e PAL. A vantagem
do uso de tais sinais de vídeo está na compatibilidade com os diversos tipos diferentes de
câmeras já disponíveis e de baixo custo. A desvantagem está nas limitações impostas por
esses padrões, principalmente a resolução de display, velocidade de aquisição limitada e
também o fato que a imagem é formada de maneira “entrelaçada”, surgindo regiões borradas
(“blurring”) na imagem.

2.4.1.1.1.1.2 Framegrabbers compatíveis com entradas digitais de vídeo

Alguns formatos de vídeo fornecidos por câmeras digitais são, por exemplo, o RS422 e
EIA-644. Estes padrões têm algumas vantagens sobre os analógicos, como maior imunidade a
ruído, maior resolução e taxas de transmissão muito mais elevadas. Por exemplo, RS422
transmite a uma velocidade de 40 MB/segundo e EIA-644 a até 100 MB/segundo. Porém tanto
câmeras quanto Framegrabbers que operam com sinais digitais apresentam maior custo.

2.4.1.1.1.2 Taxa de Aquisição (“Frame Rate”)

É o número de quadros que um Framegrabber adquire por segundo. Para o caso


analógico o Frame Rate é limitado pelo padrão de vídeo. Assim, para o padrão CCIR têm-se
uma taxa de transmissão de 25 quadros por segundo e para o padrão NTSC, 30 quadros por
segundo. Para padrões digitais, a taxa de aquisição é expressa em MHz, que é equivalente a
milhões de pixels por segundo por canal de dados. Por exemplo, uma câmera que fornece
dados a uma taxa de 10 MHz fornece 10 milhões de pixels por segundo. Sendo sua resolução,
por exemplo, 1000x1000 pixels, isso significa 10 quadros por segundo. Deve considerar-se
também o número de bits por pixel (relacionado diretamente à profundidade da cor ou níveis de
cinza).

30
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.4.1.1.1.3 Barramento Utilizado

Os quadros capturados pelo Framegrabber passam para a memória do PC através do


seu barramento. Existem dois tipos principais de barramento, o ISA e o PCI. O barramento ISA
está caindo em desuso devido a suas limitações de velocidade de transferência, inadequado a
aplicações em tempo-real/altas resoluções de vídeo.
O tipo de barramento PCI (“Peripheral Component Interconnected bus”) possibilita ao
Framegrabber (ou outro componente de hardware) tomar o controle do barramento e transferir
dados diretamente entre ele e a memória principal sem necessitar passar pelo processador. O
barramento PCI possibilita uma transferência em tempo-real de imagens adquiridas.

2.4.1.1.1.4 Alocação de Memória

Aplicações com Framegrabbers necessitam uma grande quantidade de memória no PC


para guardar as imagens . Em sistemas Windows 95/98/NT, a maneira mais fácil de se
gerenciar esta memória é usar-se um driver a nível de kernel par capturar um bloco contíguo de
memória, o que é feito quando o sistema operacional é iniciado. Este método de se alocar
memória tem uma desvantagem significante: quando a aplicação é finalizada, a única maneira
de se liberar a memória é reiniciando-se o sistema operacional sem a requisição de alocação
de memória.
Uma alternativa a este tipo de requisição de memória é requisitá-la quando a aplicação
começa a rodar. Com isso, a aplicação pode liberar memória quando não for mais necessária..

2.4.1.1.1.5 Digitalização da Imagem

Tratando-se de sinais de vídeo analógicos, há uma necessidade de digitalização da


imagem antes de ser enviada à memória do PC. O quadro é recebido como matriz de pixels,
onde cada pixel deverá digitalizado.
O conversor analógico-digital do Framegrabber dita o faixa de valores que representam
os níveis de cinza ou cores na imagem. Dele depende a qualidade da amostragem do sinal.
Pequenos problemas nos conversores A/D do Framegrabber podem gerar efeitos desastrosos
em cálculos realizados durante a análise ou processamento de imagens.

2.4.1.1.1.6 Processamento “On Board” em Aplicações Pesadas

Processamento e análise de imagens envolvem freqüentemente cálculos complexos que


podem consumir tempo considerável. Por essa razão muitos Framegrabbers possuem
processadores on board que aceleram significativamente estas funções. Alguns
Framegrabbers possuem funções implementáveis em hardware na forma de circuitos
programáveis, onde o programador pode implementar seu próprio algoritmo (geralmente em
forma de DSP´s – Digital Signal Processors). Essa é a opção mais onerosa em termos de
Framegrabbers, porém é necessária em certas aplicações de alta velocidade.

31
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.4.1.1.1.7 Interface com a Câmera

Uma interface completa com uma câmera inclui arquivos de configuração de câmera e
cabos. Um arquivo de configuração é necessário para configurar o Framegrabber, tanto
analógico como digital, com uma câmera em particular. Cada arquivo é único para uma
câmera, e múltiplos arquivos podem ser necessários para operar-se uma câmera em seus
diferentes modos.
Principalmente no caso de câmeras digitais, algumas vezes as necessidades da
aplicação não conferem com nenhum arquivo de configuração disponível, ou necessita-se
modificar as configurações, ou até mesmo modificar-se câmeras. Nestes casos necessita-se de
uma maneira fácil de criar-se arquivos de definição de câmeras próprios. Assim, Aplicativos de
Configuração de Câmeras tornam-se muito úteis.
A escolha de cabos para câmeras analógicas é relativamente simples, resumindo-se na
maioria das vezes a cabos coaxiais normais. Já para câmeras digitais há diversas
possibilidades de cabos para a conexão com o Framegrabber . Existem designs de cabos com
um, dois ou quatro canais; 8, 10, 12 ou 14 bits por canal; cabos para sinais RS422 ou EIA-644.

2.4.1.1.1.8 Software

Um importante aspecto na decisão sobre o Framegrabber a ser utilizado para a


aplicação é a qualidade do suporte disponibilizado pelo fabricante ao desenvolvedor. Deve-se
considerar diversos pontos :
suporte à linguagens de programação de alto nível (C/C++, Pascal) e sistemas
operacionais (DOS, Windows 3.x, Windows 95/98, Windows NT/2000)
suporte à ambientes de desenvolvimento rápido de aplicativos (Visual Basic, Delphi,
Borland C++ Builder)
Suporte a bibliotecas de processamento de imagens de terceiros ou outros aplicativos
especializados: se a aplicação envolve processamento de imagens ou outros cálculos
especializados, é interessante poder-se aproveitar software fornecido por terceiros. É
interessante verificar se os fornecedores de Framegrabbers e os fornecedores das bibliotecas
de processamento de imagens trabalharam de forma a deixar seus produtos compatíveis.
Algumas vezes o próprio fabricante do Framegrabber desenvolve bibliotecas de
processamento.
Exemplos de código-fonte: não importa qual linguagem ou sistema operacional, é
sempre mais fácil começar o desenvolvimento de uma aplicação com bons exemplos de
código-fonte. Utilizar-se de rotinas fornecidas pelo próprio fabricante é a maneira mais rápida
de começar-se o desenvolvimento do software. Exemplos fornecidos pelo vendedor são
escritos de maneira a utilizar o Framegrabber ou outra biblioteca da maneira mais eficiente
possível, e as rotinas já vêm testadas e corrigidas.
Documentação: boa documentação também é indispensável. Ela deve ser completa,
mas concisa. Deve ser bem organizada, de modo que se possa localizar rapidamente a
informação. A documentação deve incluir tanto informações sobre o hardware quanto uma
referência detalhada sobre as funções da biblioteca de software.

O objetivo é assegurar-se que o Framegrabber virá com tudo o que é necessário para
desenvolver-se o sistema com sucesso. Seus drivers devem fornecer todas as funções
necessárias ao programador. Aquilo que não é fornecido ficará ao cargo do usuário
desenvolver.

32
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.4.1.1.1.9 Outras considerações

Muitas aplicações de visão industrial requerem que o computador “host” opera diversos
dispositivos e controle diversos eventos. A tendência atual é o uso de softwares multitarefa
voltados a interrupções. Portanto é desejável um Framegrabber que seja capaz de funcionar
em um sistema operacional como Windows NT usando interrupções e múltiplas threads.

2.4.1.2 E/S e Dispositivos de Atuação

Os dispositivos de atuação são normalmente equipamentos hidráulicos, pneumáticos ou


elétricos que quando acionados pelo software de controle, são capazes de efetuar uma tarefa
expulsão, manipulação, transporte, entre outras.
Por exemplo, numa linha de produção onde emprega-se um controle de qualidade
através de um Sistema de Visão, poderia ser necessário a expulsão dos produtos que fossem
detectados abaixo da média de qualidade, através de um sistema pneumático.

33
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.4.2 Software

O software de um Sistema de Visão é responsável pela parte de processamento das


informações digitalizadas provindas do hardware do sistema, pela interação deste com o
usuário e pelo controle de todas as outras partes do sistema.
Como pode ser visto, o software representa um papel de extrema importância, pois
define as regras a serem seguidas por todas as partes, controlando e atuando no sistema
quando necessário.
A metodologia de desenvolvimento de software evoluiu muito ao longo dos anos, com o
desenvolvimento da tecnologia de microprocessadores e conforme os aplicativos necessitavam
de uma rapidez maior de desenvolvimento e melhor reutilização. A linguagem de programação,
que há tempos atrás era empregada de forma estruturada e basicamente seqüencial, hoje deu
lugar a uma programação orientada a objetos e de certa forma “paralela”, que permite modelar
os sistemas com muito mais facilidade, além de acrescentar muitas vantagens ao software,
como por exemplo, modularidade, fácil reutilização, melhor organização do código, permitindo
uma legibilidade maior.
Portanto, o software do Sistema de Visão é hoje dividido modularmente, em diversas
bibliotecas, cada uma referente ao controle/processamento de informações e dispositivos do
sistema. Podemos destacar, dentre as principais bibliotecas, a biblioteca de aquisição de
imagens e a biblioteca de processamento de imagens. Estas e outras bibliotecas fornecem
serviços ao que chamamos de kernel do sistema, um módulo que define todas as operações
realizadas, desde a interação com o usuário através de uma interface gráfica, até a atuação
dinâmica no sistema. O kernel utiliza freqüentemente os serviços das bibliotecas integrantes do
sistema para realizar o controle do mesmo e atualizar as informações repassadas ao usuário.

Figura 2.30 – Modelagem da estrutura do software de um Sistema de Visão.

34
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Quanto a modularidade e reutilização das bibliotecas de software de um Sistema de


Visão, podemos afirmar que tanto o kernel quanto a interface com o usuário variam muito de
um sistema para outro, devido as diferentes necessidades encontradas em cada aplicação. Já
as bibliotecas de aquisição e processamento de imagens podem muito bem ser reutilizadas em
várias diferentes aplicações, pois permitem abstrair uma série de serviços comuns a todas elas.

2.4.2.1 Bibliotecas de Aquisição de Imagens

As bibliotecas de aquisição de imagem procuram abstrair todas as funcionalidades


referentes à aquisição, pré-processamento e transferência de imagens a partir do sensor da
câmera, passando pela placa de aquisição de imagens (framegrabber) até chegar à memória
do computador.
A biblioteca é modelada de forma a definir funções genéricas como Aquisição de
imagem única, Aquisição de imagem contínua, Configuração de parâmetros de aquisição,
Carregamento/Salvamento de imagens, Gerenciamento de câmeras e placas de aquisição,
dentre outras.
Para realizar todas estas tarefas, a biblioteca deve conhecer a linguagem dos hardwares
que manipula (câmeras e framegrabbers), ou seja, ela deve utilizar-se dos drivers1 destes
dispositivos para viabilizar a comunicação com estes. É claro que cada dispositivo de aquisição
de imagens tem o seu próprio driver, porém, isto não inviabiliza nem compromete a modelagem
de uma biblioteca genérica para comunicação com estes, pois a interface da biblioteca é
sempre a mesma, o que muda é a implementação interna de chamada aos recursos do
hardware.

Figura 2.31 – Módulo de aquisição de imagens e sua interface.

A biblioteca é modelada internamente de forma a abstrair para cada objeto do conjunto


de aquisição de imagens as suas respectivas funções.

1
O driver de um dispositivo é uma interface (várias funções) fornecida pelo fabricante do dispositivo que
permite a integração deste com o aplicativo usuário.
35
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Desta forma, ao modelarmos uma placa de aquisição, atribuímos a ela funções como
Gerenciamento de câmeras, Transferência de imagens, Pré-processamento de imagens, entre
outras. Já para uma câmera, atribuímos funções como Aquisição de imagens, Configuração de
parâmetros de aquisição, entre outras. As imagens em si também devem ser armazenadas em
objetos próprios, que desempenhariam funções de Carregamento/Salvamento destas, além de
informar sobre características da imagem.

Figura 2.32 – Modelagem UML de um módulo de aquisição.

2.4.2.1.1 As Bibliotecas TWAIN E WIA

Atualmente existem drivers que implementam uma interface genérica para dispositivos
de aquisição de imagens – por exemplo, a biblioteca TWAIN (Windows e Mac) e a WIA (do
Windows) – fruto do esforço por padronização destes serviços. Elas são relativamente novas e
utilizadas para controle de periféricos como Webcams, Scanners e Máquinas fotográficas
digitais – dispositivos de auxílio doméstico e em escritórios.
A biblioteca TWAIN destaca-se em relação a WIA por manter maior compatibilidade com
os periféricos de aquisição de imagens atuais. Além disso, a própria biblioteca WIA do
Windows utiliza dos recursos da biblioteca TWAIN para realizar seus serviços.
Quanto ao princípio de funcionamento da biblioteca TWAIN, ela apresenta uma estrutura
em camadas, de forma a facilitar a comunicação do aplicativo usuário com os dispositivos de
imagem. O aplicativo conversa com a interface TWAIN através de mensagens (conhecidas
como operation triplet) passadas a um elemento chamado Data Source Manager – DSM, o qual
detém todo o controle sobre os periféricos de aquisição de imagens conectados ao
computador:

36
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Figura 2.33 – Elementos da Interface TWAIN

O protocolo de comunicação entre as camadas é ilustrado abaixo, onde visualizamos as


quatro camadas da arquitetura TWAIN e como o fluxo de informações percorre cada uma
delas:

Figura 2.34 – Arquitetura em Camadas da Interface TWAIN

Cada camada é responsável pela implementação de serviços para outras camadas:


• Camada do Aplicativo: onde é implementado o programa aplicativo que
usufruirá dos serviços da TWAIN;
• Camada de Protocolo: o TWAIN utiliza uma metodologia baseada em
mensagens para comunicar aplicativos com os dispositivos. Esta interação é gerenciada
e realizada nesta camada, através de um protocolo específico que é controlado pelo
Data Source Manager ;
37
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

• Camada de Aquisição: esta é uma parte do software do dispositivo,


responsável pela implementação dos serviços de aquisição de imagens junto ao
hardware, recebendo instruções do protocolo. Este também pode ser virtual, adquirindo
imagens a partir de uma base de dados;
• Camada do Dispositivo: implementa a interface com os dispositivos,
adaptando-se as característica deste a fim de realizar os serviços padronizados da
TWAIN.

A interface TWAIN limita seu funcionamento a um diagrama de 7 estados. A cada


estado correspondem atividades específicas realizadas pela biblioteca em si e pelos periféricos
conectados:

Figura 2.35 – Diagrama de Estados do Funcionamento da Interface TWAIN

38
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

• Estado 1 – Pre-Session: o Gerenciador de Dispositivos ainda não foi


carregado na memória e linkado com um aplicativo;
• Estado 2 – Gerenciador de Dispositivos Linkado: o aplicativo está linkado
com o Gerenciador de Dispositivos;
• Estado 3 – Gerenciador de Dispositivos Ativo: o aplicativo ativou o
Gerenciador de Dispositivos. Este está agora pronto para prestar serviços ao aplicativo;
Estado 4 – Dispositivo Linkado: O dispositivo foi selecionado e linkado ao
Gerenciador de Dispositivos. É neste estado que ocorrem todas as operações de configuração
dos parâmetros de aquisição da imagem, também chamada de “negociação de capacidades”;
• Estado 5 – Dispositivo Ativo: O dispositivo foi ativado e inicia o processo de
aquisição de imagem/som. Este pode abrir uma caixa de diálogo, para que o usuário
configure os parâmetros de aquisição;
• Estado 6 – Transferência Pronta: O dispositivo terminou a aquisição e está
pronto para transferir os dados. Neste momento, o aplicativo prepare-se para recebê-
los.
• Estado 7 – Transferindo Dados: O dispositivo está transferindo os dados
(imagem/som) para o aplicativo.

Tendo em vista a crescente procura de usuários pelos sistemas operacionais UNIX –


sistema de código aberto – a biblioteca TWAIN já está providenciando uma versão para este
sistema, que será chamada SANE.

2.4.2.2 Bibliotecas de Processamento de Imagens

Analogamente às bibliotecas de aquisição de imagem, as bibliotecas de processamento


de imagens também são projetadas de forma modular e genérica para que possam ser
reutilizadas em várias aplicações.
Porém há uma grande diferença no projeto destas duas bibliotecas. Esta diferença é
evidenciada pela aplicação, pois em cada caso detectaremos características e informações
diferentes para serem analisadas pelo software, o que implica em diversas formas diferentes de
se realizar o processamento da imagem (existem inúmeras técnicas e algoritmos para fazer o
processamento das imagens, que podem até serem usados de maneira simultânea). Desta
forma, são projetadas normalmente várias bibliotecas de processamento de imagens, utilizadas
em diferentes áreas de aplicação, enquanto que as bibliotecas de aquisição são projetadas
para abranger quase todos os diferentes modos de aquisição de imagens.
Após a aquisição da imagem, esta é digitalizada e armazenada na memória do
computador na forma de uma matriz de dados, onde cada elemento da matriz representa um
pixel1 da imagem. A partir desta matriz numérica realiza-se o processamento para extrair as
informações desejadas da imagem.
Vamos analisar alguns dos principais métodos e algoritmos para realização do
processamento de imagens.

2.4.2.2.1 Imagem e ROI

A imagem digital é composta de uma matriz numérica onde cada elemento representa a
intensidade luminosa em um determinado ponto. Já uma região de interesse, ROI (Region Of

1
Representa a menor unidade de tamanho da imagem
39
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Interest), caracteriza-se como um segmento desta imagem, ou uma sub-imagem. As ROIs são
normalmente utilizadas quando deseja-se analisar apenas uma parte específica da imagem.

Figura 2.36 – Exemplo de uma ROI Sobre Outra ROI.

Existem dois tipos de ROI:


• ROI Normal: cópia da região da imagem selecionada (nova imagem com as
dimensões da área selecionada), permitindo que operações sejam executadas sobre
esta parte da imagem sem afetar a imagem original. Esta também é denominada como
ROI Primária ou ROI Pai;
• ROI Virtual: representa uma determinada região da imagem sem realizar uma
cópia (utiliza a mesma matriz de dados que a imagem original), sendo que as operações
realizadas sobre esta ROI alteram o conteúdo da imagem original. Esta também é
denominada como ROI Secundária ou ROI Filha.

Outra característica da ROI é a sua hierarquia múltipla, i.e., cria-se uma ROI
referenciando-se uma região da imagem. Entretanto, pode-se criar uma segunda ROI
referenciando-se uma região de uma ROI pré-existente (ver Figura). Isto significa que pode-se
referenciar ROI em relação umas com as outras e em relação com imagens.

2.4.2.2.2 Operações Básicas

As operações mais simples realizadas sobre imagens são operações aritméticas e


lógicas entre imagens e entre imagens e um valor constante.
As imagens são representadas na forma de matrizes (geralmente de valores inteiros) e
a elas aplicam-se todos os tipos de operações efetuadas com matrizes.
Porém imagens possuem um valor de saturação (nível máximo ou mínimo de
intensidade luminosa registrado), o que limita o valor dos pixels da imagem a cada operação
feita. Por exemplo, suponha que uma imagem monocromática com resolução de 8 bits (0 – 255
tons de cinza) seja multiplicada por 2. Todos os pixels que possuírem valores iniciais
superiores a 123, terão os seus valores finais (resultado da operação) saturados em 255, pois
este é o valor máximo suportado pela resolução da imagem.
As operações lógicas consideram que um pixel possui valor ‘verdadeiro’ se o seu
conteúdo for diferente de ‘0’(zero), senão o valor será ‘falso’. O resultado da operação é
sempre uma imagem binária, onde os pixels com conteúdos verdadeiros assumem o valor
máximo (255, em uma imagem em tons de cinza com resolução de 8 bits) e os pixels com
conteúdos falsos assumem o valor ‘0’.
40
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Algumas das operações comumente realizadas com imagens:


• Cópia: copiar uma imagem para outra imagem;
• Soma/Subtração: somar/subtrair os pixels de duas imagens com dimensões
idênticas, ou pixels de uma imagem com uma constante;
• Inversão: inverte uma imagem, ou seja, os pixels com cor ‘branca’ passam a conter
a cor ‘preta’ e vice-versa (complemento).
• Multiplicação: multiplicação de uma imagem por outra ou por um valor constante;
• Operação Binária &, OR, XOR: realiza-se a operação binária (&, OR ou XOR) entre
os pixels de duas imagens ou entre os pixels de uma imagem e uma constante;
• Operação Binária NOT: operação idêntica a inversão da imagem, ou seja, calcula o
complemento desta;
• Mínimo: retorna o valor mínimo presente em uma imagem;
• Máximo: retorna o valor máximo presente em uma imagem;
• Soma dos Pixels: soma o valor de todos os pixels presentes na imagem;
• Num. dos Pixels Nulos: calcula quantos pixels na imagem possuem o valor ‘0’;
• Num. dos Pixels Não Nulos: calcula quantos pixels na imagem possuem os
valores diferentes de ‘0’;
• Média: calcula a média dos valores de todos os pixels presentes na imagem.
• Desvio padrão: calcula o desvio padrão dos valores de todos os pixels presentes
na imagem;
• Norma: calcula a norma dos valores dos pixels presentes na imagem;
• Operação Lógica &, OR, XOR: realiza-se uma operação lógica (&, OR ou XOR)
entre os pixels de duas imagens ou entre os pixels de uma imagem e uma
constante;
• Igualdade: operação lógica para dizer se duas imagens são idênticas ou se uma
imagem é idêntica ao valor de uma constante;
• Maior Que/ Menor Que: indica se todos os pixels de uma imagem são
maiores/menores que os pixels de outra imagem ou maiores/menores que uma
constante.

2.4.2.2.3 Transformações Geométricas

Transformações geométricas alteraram a posição dos pixels de uma imagem sem


alterar o valor de intensidade luminosa representado por estes.
Podemos alterar a posição dos pixels de uma imagem através de transformações
lineares, considerando que as imagens são definidas em um espaço vetorial de base
ortonormal cartesiana (por exemplo, pelos vetores (1,0) e (0,1)).

Figura 2.37 – Exemplo de Translação e Rotação de uma Imagem.

As seguintes operações são implementadas através de transformações na base vetorial


que representa uma imagem:

41
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

• Zoom: amplia/reduz a resolução da imagem (o número de pixels utilizados


para representar um objeto). Esta função é degenerativa, ou seja, algumas informações
da imagem podem ser perdidas;
• Translação: translada uma imagem inteira em qualquer uma das direções de suas
dimensões (horizontal ou vertical);
• Rotação: rotaciona uma imagem a partir de qualquer ângulo e ponto de referência
fornecido.

2.4.2.2.4 Threshold

Threshold é uma técnica desenvolvida para aumentar o contraste de um objeto em


relação ao fundo da imagem, ou seja, ressaltar o objeto em relação ao fundo. Define um valor
mínimo ou máximo de intensidade luminosa para que os pixels pertençam à imagem. Valores
fora deste patamar, serão apagados da imagem e valores dentro do intervalo serão ressaltados
ou mantidos.
Na binarização da imagem, o valor de treshold é zero, e tudo que for diferente de zero é
saturado para o valor de intensidade luminosa máxima da imagem.

b) Intensidade Luminosa Plotada


a) Original. c) Após o Threshold.
em 3D (Renderização).
Figura 2.38 – Exemplo de uma Imagem após a Operação de Threshold.

2.4.2.2.5 Filtros (Convoluções)


Filtros são transformações aplicadas na imagem considerando o valor de um
determinado pixel e de seus vizinhos. Os filtros produzem diferentes tipos de efeitos sobre a
imagem, dentre eles: atenuam ruídos na imagem, suavizam imagens, segmentam regiões
com valores de intensidade parecidos, detectam contornos na imagem.
Os filtros são, geralmente, implementados através de convoluções sobre a imagem
(operação sobre imagens que utiliza uma máscara para processar um determinado pixel –
considera o valor deste e de seus vizinhos).
A partir do princípio da convolução, implementa-se uma série de filtros conhecidos
apenas definindo-se a matriz de convolução apropriada:
• Sobel: aplica um operador de derivada na imagem, ressaltando os contornos.
Entretanto, ruídos presentes na imagem são amplificados;
• Laplace: também aplica um operador de derivada na imagem;
• Min/Max: filtros não-lineares. Substituem o valor de um determinado pixel pelo
valor do pixel com menor/maior intensidade na sua vizinhança de convolução;
• Média: filtro não-linear. Substitui o valor de determinado pixel pelo valor médio
contido nos pixels da sua vizinhança de convolução
42
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

• Gauss: muito utilizado para suavizar imagens e atenuar ruídos, utilizando uma
curva de Gauss para calcular os ganhos da matriz de convolução.

Figura 2.39 – Exemplos de Aplicações de Filtragem.

2.4.2.2.6 Operadores Morfológicos

Define-se Morfologia como a forma e a estrutura de um objeto, ou ainda, os arranjos e


inter-relacionamentos entre as partes de um objeto. Morfologia digital é uma estratégia para
descrever e analisar a forma de um objeto digital.
Operadores morfológicos realizam um conjunto de operações a partir da sobreposição
(ou subtração) da forma de uma imagem pela forma de um elemento estruturante (outra
imagem). O elemento estruturante está para a morfologia assim como o núcleo de convolução
(kernel) está para teoria de filtragem linear.
Os dois tipos principais de operações morfológicas são dilatação e erosão. A operação
morfológica de dilatação faz com que o objeto dilate, enquanto que a erosão faz com que o
objeto encolha. O modo e a proporção (magnitude) da expansão ou redução da imagem
dependem, necessariamente, do elemento estruturante. Aplicar uma dilatação ou erosão numa
imagem sem especificar um elemento estruturante não causará nenhum efeito nesta.

Figura 2.40 – Os Elementos Estruturantes Padrão N4 e N8, Respectivamente.

Pode-se, ainda, combinar a dilatação com a erosão para construir operadores mais
importantes:
• Abertura (Open): erosão seguida de uma dilatação. Esta operação ressalta furos
internos do objeto e tende a separar elementos na extremidade do objeto;
• Fechamento (Close): dilatação seguida de uma erosão. Esta operação tende a
fechar furos internos no objeto e a conectar elementos na extremidade do objeto;
• Acerto e Erro (Hit and Miss): aplica os operadores de abertura e fechamento para
ressaltar os contornos do objeto;
• Grandiente: aplica os operadores de abertura e fechamento de forma a calcular o
gradiente da imagem;
• Top-Hat: aplica os operadores de abertura e fechamento para ressaltar os
contornos do objeto, principalmente no caso de objetos claros com fundo escuro;
• Black-Hat: aplica os operadores de abertura e fechamento para ressaltar os
contornos do objeto, principalmente no caso de objetos escuros com fundo claro.

43
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

a) Abertura. b) Fechamento. c) Exemplo 1. d) Acerto e Erro.


Figura 2.41 – Exemplo de Aplicações de Morfologia.

2.4.2.2.7 Detecção de Formas Geométricas Básicas

A detecção de formas geométricas é utilizada para localizar, em uma imagem, padrões


de formas com uma geometria bem-definida tais como: retas, círculos e elipses.
Busca-se destacar somente os pontos que definem as formas, os contornos da imagem,
através de filtros de derivada, segmentação e threshold. Com os contornos da imagem
destacados (valores bem maiores que os pixels de fundo), empregam-se os algoritmos de
detecção de formas para determinar as formas existentes na imagem.

2.4.2.2.7.1 Interpolação Linear

Interpolação é a técnica mais conhecida para detectar formas. Dado um conjunto de


pontos conhecidos, utiliza-se a interpolação para localizar a curva (ou o polinômio) que melhor
representa este conjunto de pontos (por exemplo o cálculo da melhor reta através de mínimos
quadrados).

2.4.2.2.7.2 Transformada de Hough

Serve para detectar formas geométricas que são facilmente parametrizadas (linhas,
círculos, elipses) em imagens computacionais binárias.
Inicialmente, a imagem precisa ser processada a fim de ressaltar apenas os pontos que
definem essas formas. Deste modo, aplicam-se algoritmos de filtragem derivativa para ressaltar
apenas os pontos que pertençam a contornos. Após esta análise, os pontos com intensidade
maior que zero (‘0’) são armazenados em um conjunto. Em seguida, define-se qual a equação
que melhor representa o conjunto de pontos a serem processados.

Imagem exemplo Contornos resultado


Figura 2.42 – Exemplo da Transformada Hough.

44
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

2.4.2.2.8 Segmentação

Segmentação é uma técnica utilizada para dividir a imagens em partes (segmentos)


distintas de acordo com algum padrão de semelhança. Dentre os parâmetros de uma imagem
utilizados para a segmentação, pode-se destacar os mais importantes: intensidade luminosa,
tonalidade de cor, textura, contornos e espectro de freqüência.

Figura 2.43 – Exemplo de Aplicação de Segmentação em uma Imagem de uma Madeira.

2.4.2.2.9 Contornos

Em uma imagem bidimensional, pode-se descrever um objeto a partir da sua coloração


ou textura e a partir da sua forma. A forma de um objeto pode ser perfeitamente representada
por um conjunto de contornos que delimitam o objeto externa e internamente. Nota-se então
que a detecção e análise de contornos são ferramentas fundamentais para a correta
interpretação de uma imagem.
Contornos podem ser ressaltados nas imagens através de diferentes técnicas, ou
mesmo, da combinação destas técnicas, como: filtragem, threshold, morfologia, segmentação.
Uma vez que a imagem foi binarizada, mantendo-se somente os pontos pertencentes ao
objeto com valores acima de zero (‘0’), basta aplicar um algoritmo de varredura simples para
detectar todos os contornos existentes e armazená-los em vetores de pontos, para posterior
análise. A partir destes vetores que definem os contornos existentes na imagem, pode-se
calcular diversos parâmetros, como medição de dimensões, área do contorno, momento,
centróide, orientação, cálculo das extremidades superior, inferior, lateral esquerda e lateral
direita.
Através dos contornos, pode-se também compactar uma imagem, representando-a
apenas pelos seus contornos.

a) Detecção de Contornos. b) Cálculo das Extremidades do Contorno.


Figura 2.44 – Exemplos de Análise de Contornos.

45
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

3 Aplicações
Devido a grande diversidade de tecnologias base que integram a tecnologia de
Sistemas de Visão, há uma certa flexibilidade quanto aos tipos de aplicações disponíveis.
Dentre os principais ramos de aplicação encontram-se:
• Controle de Qualidade: rígido monitoramento sobre características particulares
de produtos industriais, procurando evitar o contato de produtos defeituosos com o
mercado consumidor.
Exemplos: verificação de presença de tampas, lacres e rótulos em garrafas de
refrigerantes, verificação de presença de comprimidos e sua coloração em blisters1,
verificação de números de lote, referências e datas de validade em produtos
alimentícios, verificação da integridade física de peças para veículos automotivos,
verificação de trilhas e componentes eletrônicos em placas de circuito impresso, ...

Figura 3.1 – Aplicação de controle de qualidade em equipamento eletrônico – interface DB25.

• Rastreabilidade: localização e reconhecimento de padrões e informações


gravadas ou codificadas sobre a superfície de produtos.
Exemplos: leitura de códigos de barras em produtos de supermercados, localização e
leitura de códigos bidimensionais, como o Datamatrix2, ...

Figura 3.2 – Marcação em placa de circuito impresso.

• Segurança: monitoramento de ambientes.


Exemplos: monitoramento inteligente de ambientes, verificando a presença de padrões
estranhos na imagem, ...

1
Matriz de alumínio que envolve comprimidos.
2
Código bidimensional em forma matricial com grande capacidade de armazenamento de informações.
46
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Figura 3.3 – Suporte de câmeras de monitoramento de ambientes externos.

• Controle de Tráfego: análise e controle de tráfego rodoviário de forma a


manter um fluxo normal de automóveis.
Exemplos: controle de redes de semáforos através da análise do fluxo de automóveis,
desvios inteligentes e informações de alerta em autovias através da análise do fluxo
automotivo, ...

• Escritório e Lazer: dispositivos e sistemas para ampliar a comunicação e


armazenamento de informações.
Exemplos: videoconferências, escaneamento de imagens e textos, controle de sistemas
computacionais para deficientes físicos, ...

Figura 3.4 – Dispositivos de visão domésticos e de escritório.

Nosso enfoque neste trabalho é mostrar uma aplicação clássica dos Sistemas de Visão,
na área de controle de qualidade, e posteriormente abordar um pouco sobre a extensa área de
Rastreabilidade, apresentando uma das mais novas tecnologias utilizadas para marcação e
rastreamento de produtos.

47
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

3.1 Aplicações em Controle de Qualidade

As aplicações em controle de qualidade são as mais clássicas e conhecidas. Em geral,


são de aplicação industrial, devido a regulamentação imposta por órgãos fiscais de qualidade.
Visando atingir a melhor qualidade possível para seus produtos e evitar com que algum
produto defeituoso caia nas mãos de consumidores exigentes, as empresas (indústrias)
passaram a investir bastante em aplicações de Sistemas de Visão para o controle de seus
processos de manufatura.
Na maioria destas aplicações, identifica-se um ponto vulnerável do processo de
manufatura do produto, onde seja desejável ou necessário a fiscalização do correto
desempenho das atividades do processo. Verifica-se então a viabilidade da utilização de um
Sistema de Visão no local, levando-se em conta aspectos físicos (projeto do sistema óptico e
mecânico para se adaptar às condições do ambiente local) e também identificando todas as
características e informações dos produtos que se deseja averiguar/controlar (projeto do
software de processamento de imagens e controle do processo).
Como estudo de caso, vamos analisar uma aplicação de verificação de datas de
validade e números de lote em produtos alimentícios. Para este tipo de aplicação normalmente
não é necessária utilização de câmeras coloridas, pois estamos apenas interessados em
ressaltar (criar um maior contraste) entre o fundo do objeto e as informações escritas sobre a
data de validade e número de lote.
O projeto óptico poderia adotar uma iluminação frontal difusa, com estrobos de leds,
visando congelar a imagem no momento da captura e evitar sombreamento sobre a superfície
que contenha as informações. Os estrobos seriam disparados quando da ocorrência de um
sinal de trigger1 disparado por um sensor capacitivo ou indutivo junto às amostras. Quando
uma amostra cruza o caminho do sensor, este avisa o software do sistema, que por sua vez
dispara os leds.
A aquisição poderia ser feita através de uma câmera CCD monocromática, entrelaçada
(tendo em vista a utilização de estrobos para o congelamento da imagem). Algum filtro óptico
poderia ser testado visando ressaltar as informações gravadas na superfície, ou, o que é mais
provável, para filtrar reflexões provenientes de algum objeto ou superfície metálica (espelhada)
no produto.
O processamento da imagem seria focado em abstrair uma região de interesse da
imagem (ROI) para analisar somente as informações referentes a data de validade e número
de lote. Este tipo de aplicação utilizaria de técnicas de processamento de imagens do tipo OCR
e OCV (caracter recognition and validation), ou seja, fazer reconhecimento de caracteres.
Vejamos um exemplo:

1
Um sinal de trigger representa o acontecimento de algum evento, que provavelmente deverá ser
tratado.
48
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Figura 3.5 – Embalagem de produto alimentício com iluminação específica para ressaltar a data de validade e
o lacre de segurança.

Podemos ver que na embalagem de leite já estão ressaltadas as informações desejadas


no canto esquerdo superior. Porém notamos também que o lacre de validade do canto direito
superior pode vir a atrapalhar o processamento destas informações em algumas amostras.
Para fazermos o reconhecimento dos caracteres, e por conseqüência aprovar ou
reprovar uma amostra, devemos tomar por base uma imagem de uma amostra padrão, ou seja,
uma amostra em perfeitas condições, que sirva de base para a análise. Assim, poderemos
comparar as imagens (normalmente as comparações não são feitas sobre a imagem original, e
sim sobre uma imagem gerada a partir do processamento da imagem original, após a aplicação
de filtros e outras técnicas que realcem a informação que deseja ser analisada).

Figura 3.6 – Análise da imagem – aprovação do lacre e reprovação da data de validade (danificada).

Podemos ver que alguns filtros foram aplicados a imagem antes de realizarmos a
comparação. Mais do que isto, a imagem foi dividida em 4 partes distintas, e a cada uma dela
foi aplicado um processamento diferente. Por exemplo, para a data de validade aplicou-se um
filtro visando ressaltar os contornos das letras. Já para o lacre de validade, tentou-se suavizar a
imagem para reduzir ainda mais o reflexo emitido pelo lacre de metal.
Esta aplicação poderia muito bem incorporar um sistema de rejeito, digamos, um pistão
pneumático, responsável pela expulsão da linha de produção de todos as embalagens que
tivessem defeito na data de validade, ou não contivesse o lacre de validade,...
Mais ainda, poderíamos embutir funcionalidades de log e relatórios automáticos para o
sistema, visando um controle a nível gerencial da linha de produção.

49
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

3.2 Aplicações em Rastreabilidade

3.2.1 Introdução à Rastreabilidade

Rastreabilidade é a forma pela qual marcamos, armazenamos/codificamos e acessamos


informações referentes a produtos em sua própria superfície.
Quando falamos em Rastreabilidade, normalmente mencionamos códigos de barras e
bancos de dados que são acessados para se obter as informações a respeito destes produtos.
Em grande parte, é isto mesmo que acontece. Não obstante, isto está mudando
rapidamente, pois já estão sendo amplamente utilizadas técnicas inovadoras com este mesmo
propósito, viabilizadas pela tecnologia de Sistemas de Visão.
Para podermos apresentar estas novas técnicas de rastreabilidade, enunciaremos um
histórico das técnicas já utilizadas, abordando um pouco do funcionamento destas tecnologias,
e como elas evoluíram para um sistema mais complexo e robusto, a partir do desenvolvimento
paralelo da tecnologia de visão.
Estas técnicas de rastreabilidade serão definidas com base em três aspectos. Veremos
como os variados métodos de impressão sobre os produtos podem facilitar o processo de
rastreabilidade. E, por fim, veremos como os métodos de leitura das marcações podem influir
neste processo.

3.2.2 Histórico das Tecnologias Unidimensionais

Nesta seção abordaremos, rapidamente, um pouco da história das tecnologias de


marcação mais utilizadas, e como e porque novas técnicas começaram a se tornar
necessárias.
No início da década de 1930, um grupo de estudantes da universidade de Harvard
propuseram um sistema inovador para a produção de formulários a serem utilizados em
compras por catálogos. Cartões perfurados descrevendo produtos seriam enviados pelos
clientes diretamente, sem que estes tivessem que se preocupar em anotar nome de produtos,
quantidades, modelos, etc. Assim que os cartões eram recebidos pelos fornecedores, estes
eram lidos por maquinário especializado, e os pedidos eram enviados aos depósitos, ao
mesmo tempo que as cobranças eram enviadas ao cliente. Desta forma, buscava-se simplificar
o processo, envolvendo o menor número possível de pessoas a fim de evitar erros humanos.
Era o início dos sistemas de coleção e identificação automática de dados (automated data
collection and identification).
O padrão mais similar aos códigos de barra utilizados hoje em dia foi criado no final dos
anos 40, por dois estudantes da universidade de Drexel. A proposta era a criação de um
sistema de identificação de padrões de tinta iluminados por infravermelho. Apesar de um tanto
limitado, o sistema de Bernard Silver e Norman Woodland acabou facilitando a criação dos
códigos de barras atuais. Ambos morreram sem obterem frutos de sua invenção (ou as
evoluções deste). Apesar disto, já em 1981, o departamento de defesa dos Estados Unidos
determinou que somente aceitaria de seus fornecedores, produtos que incluíssem marcas de
Code 39, para diminuição de erros e facilidade de rastreabilidade. Esta consta como sendo a
primeira implementação que deu bons resultados.
Hoje em dia, praticamente não se encontra produto algum que não inclua códigos de
barras, dos mais simples aos mais complexos. Contudo, o tal Code 39 utilizado pelo
departamento de defesa americano é apenas um dentre uma variedade de métodos de
codificação da informação para rastreabilidade. Os métodos comumente chamados de códigos
de barras são também designados de códigos unidimensionais, ou 1-D, uma vez que a
50
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

informação é armazenada em apenas um eixo (apesar dos símbolos, em si, serem


bidimensionais). Uma série de vantagens destes métodos fizeram com que se tornassem
amplamente utilizados, e um número de variações foram criadas. Contudo, uma série de
necessidades adicionais fizeram com que se pesquisasse novos métodos de codificação, que
respeitassem uma série de requisitos não atendidos por tecnologias tradicionais. Estes
métodos passaram a se chamar de tecnologias bidimensionais, ou 2-D.

3.2.3 Tecnologias 1-D

Uma série de tecnologias unidimensionais existem, e cada uma possui suas próprias
características. A diferença básica entre estas tecnologias e as novas técnicas que estão
aparecendo é que as tecnologias unidimensionais codificam a informação em apenas um eixo.
Ou seja, apesar de serem símbolos em duas dimensões, uma dimensão é lida, enquanto a
outra fica como um alto grau de redundância para esta leitura. Uma vantagem óbvia desta
forma de codificação é que se torna possível a obtenção de boas leituras mesmo com alta
porcentagem de destruição das etiquetas. Esta redundância, como veremos, não aparece em
algumas das tecnologias de marcação bidimensionais que serão vistas. Leitura bastante
rápida, por intermédio de scanners a laser, é outra vantagem destas técnicas de marcação. Os
maiores problemas destas técnicas de marcação são a limitada capacidade de
armazenamento, a necessidade de acesso a bases de dados (uma vez que a informação
codificada é, simplesmente, utilizada como um valor de referência a arquivos de dados), e a
necessidade de existência de grande contraste entre as linhas para leituras de qualidade
aceitável.
Os códigos de barras mais comuns consistem de uma série de barras e espaços
verticais agrupados, aplicados na identificação de pacotes, cartões, garrafas, produtos
comercializados em geral, etc. As barras e espaços estão agrupados de tal forma a representar
caracteres ASCII. Cada caractere tem sua própria codificação, e cada código (code 39, code
128, ...) tem sua própria padronização (simbologia). Atualmente há mais de 400 simbologias
diferentes em uso no mercado. Algumas suportam codificação de dados numéricos, outras
alfanuméricos, e outras suportam toda a tabela ASCII.
Normalmente estes códigos não contém as informações do produto em si, mas apenas
uma identificação que ajude o sistema de leitura a acessar um banco de dados onde estão as
informações do produto.
Cada código é estruturado da seguinte forma: inicia com um espaço em branco (quiet
zone), seguido de um código de inicialização (start code), as informações propriamente ditas
(data), um código de parada (stop code) e mais um espaço em branco (quiet zone). Para
melhor entendimento, podemos verificar a estrutura de um código de barras na figura seguinte:

Figura 3.7 – Estrutura do código de barras

Ao passar um scanner sobre o código a ser lido, a luz emitida pelo scanner é absorvida
pelas barras pretas e refletida pelos espaços, esta luz refletida é recebida por uma fotocélula
do próprio scanner, a qual converte este sinal luminoso em sinal elétrico. Podemos ver este
processo na figura abaixo:

51
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Figura 3.8 – Escaneamento do código de barras

Algumas simbologias suportam dígitos verificadores (check digits), para a verificação da


integridade dos dados. Este dígito verificador é normalmente acrescentado antes do código de
parada.
A resolução de um código de barras é relacionada com a espessura das barras e
espaços do código (dimensão X), e varia entre: alta resolução (< 0.23 mm), média resolução
(entre 0.23 e 0.5 mm) e baixa resolução (> 0.5 mm). Quanto menor a resolução, mais fácil fica
a leitura do código e normalmente também a sua impressão.

Figura 3.9 – Resolução dos códigos de barras

Quanto as diferentes simbologias, vamos apresentar os códigos mais comuns e suas


principais características:
• Code 39 - O código 39 tem comprimento variável e é a simbologia mais usada
nos sistemas industriais hoje em dia. Suporta codificações alfanuméricas. Três dos nove
elementos (barras e espaços) de cada caractere são largos, daí vem seu nome código
39, ou seja “3 of 9”. Este código ainda utiliza 4 caracteres especiais, “$”, “/”, “+”, “%”, que
são unidos a outros caracteres para estender a capacidade de codificação a toda cadeia
ASCII. Há possibilidade de inserir um dígito verificador no final do código. Além disso,
há a possibilidade de se truncar longas informações em menores símbolos (append).
52
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Assim, sempre que o primeiro caractere de um código 39 for um espaço (ASCII 32), o
símbolo deve ser anexado a um buffer, e assim continua até aparecer um símbolo sem
o espaço no início do código, sendo este anexado ao buffer que é em seguida liberado
(enviado).
• CODE 128 - O código 128 tem comprimento variável e suporta toda a tabela
ASCII (128 caracteres). Cada caractere é representado por 11 elementos (barras e
espaços) que podem variar dentre 4 possíveis espessuras. Este é o código mais fácil de
se ler, com maior integridade de código devido a várias mensagens de verificação de
erros inclusas no código. Este é o código mais flexível de todos os existentes. Possibilita
também, como o code 39, fazer truncamento de mensagens (append).
• CODE 93 - Similar ao código 39, suporta toda a tabela ASCII. Arranja seu
caracteres em 9 elementos arranjados em 3 barras com espaços adjacentes. Suporta
também truncamento de mensagens.
• UPC-A (UPC-12) - Universal Product Code-A, tem comprimento fixo, podendo
armazenar no máximo 12 dígitos numéricos. Os seis primeiros dígitos são determinados
pela UCC (Uniform Code Council) em Dayton, Ohio, outros 5 dígitos são determinados
pelo fabricante do produto a ser identificado e o último dígito é um dígito verificador.
• EAN/JAN-13 - Similar ao UPC-12, tendo comprimento fixo de 13 dígitos. Os
últimos 3 dígitos podem representar o código de um país.
• INTERLEAVED 2 OF 5 - De comprimento variável, sempre de tamanho par,
suporta números. Possui 2 elementos espessos e 3 finos. Suporta dígito verificador
sendo este o último no código.
• CODABAR - De comprimento variável capaz de codificar até 16 caracteres.
• MSI PLESSEY - Simbologia de comprimento variável que suporta números.
Cada caractere é composto de 4 barras com espaços adjacentes. Suporta até dois
dígitos verificadores.

Dentre as diferentes simbologias acima citadas, apenas code 39, code 128 e code 93
são consideradas linguagens de codificação atuais. As demais são mais antigas. Temos alguns
exemplos de diferentes códigos abaixo, e também uma tabela resumo dos principais códigos
existentes:

Figura 3.10 – Tipos de códigos de barras

53
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

3.2.4 Novas Técnicas de Marcação – Tecnologias 2-D

Dadas as necessidades cada vez maiores de codificação direta da informação, uma


série de métodos foram criados, que permitem armazenamento de uma grande quantidade de
informação. A idéia é que esta informação, por estar codificada diretamente, não precisa ser
acessada remotamente em algum banco de dados.
As características de leitura (normalmente por meio de câmeras CCDs) permitem que se
trabalhe com níveis de contraste muito baixos. A utilização de métodos de redundância ou
correção de erros também permite que se obtenha leituras boas mesmo quando as marcas
estão parcialmente destruídas. A possibilidade de se trabalhar com tamanhos muito menores
que códigos de barras tradicionais também permite que se possa colocar estas marcas em
locais antes inacessíveis. Marcação direta sobre o produto (ao invés da utilização de etiquetas)
também permite que sejam postas marcações em uma grande quantidade de produtos que não
podem, por um motivo ou outro, ser etiquetados.
As técnicas de marcação bidimensionais podem ser divididas em três grupos: aquelas
que fazem uso de pilhas de marcas unidimensionais, aquelas que fazem uso de codificação em
formato matricial, e códigos compostos, que agregam tecnologia de marcação bidimensional
junto com marcas unidimensionais.
As pilhas de marcas unidimensionais (stacked codes) simplesmente utilizam uma série
de marcas unidimensionais, diminuídas em tamanho e empilhadas. Não são tão versáteis
quanto as outras, mas não deixam de ter seus usos. Os exemplos mais famosos são Code 49,
Codablock, Code 16k, PDF417, e MicroPDF417.
Já métodos de codificação matricial incluem UCD5, Vericode, Data Matrix, ArrayTag,
Dot Code, Code One, LEB Code, QR Code, Calra Code, Aztec Code, e Ultracode. Alguns
destes serão vistos em maiores detalhes nas próximas sessões. O terceiro grupo são os
chamados códigos compostos (composite codes), que unem códigos de ambos tipo (uma e
duas dimensões). Os mais conhecidos destes são RSS e suas variações.

3.2.4.1 Códigos de Pilhas (Stacked Codes)

• Code 49 – Desenvolvido por David Allais em 1987, visava adicionar o máximo


de informação possível a um código em pouco espaço. Consiste, simplesmente de uma
série de códigos de barras comums empilhados uns sobre os outros. Tem comprimento
variável, e pode codificar todo o grupo de 128 caracteres ASCII. Sendo de domínio
público, pode ser usado livremente, e sua leitura pode ser feita através de scanners a
laser e câmeras CCD.
• Codablock – Originalmente, era uma pilha de códigos Code 39. A versão atual,
Codablock F, consiste em pilhas de Code 128. Também variável quanto ao
comprimento, este código pode ser lido por scanner com movimentação de facho,
tornando-o mais versátil.
• Code 16k – Desenvolvido em 1989 pelo mesmo inventor do Code 128.
Coincidência ou não, 128 ao quadrado são 16000, ou, 16k. Foi desenvolvido para
resolver o maior problema que ocorria com Code 49, que era a necessidade de haver
grande memória disponível para a execução dos algoritmos de leitura e decodificação.
Também pode codificar os 128 caracteres ASCII, e suas linhas podem ser lidas em
qualquer ordem. Pode ser lido por scanner a laser ou câmeras CCD.
• PDF417 – É, de longe, a mais utilizada das tecnologias de marcação 2D
baseadas em pilhas. Criada em 1991, consiste de 17 módulos, que contém quatro
barras e espaços. É de domínio público, e pode codificar de 1000 a 2000 caracteres por
símbolo. Pode ser lido por qualquer scanner a laser (com algumas modificações) ou

54
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

câmera CCD, mas requer a utilização de impressoras de alta definição para qualidade
aceitável.
• MicroPDF417 – Uma variação do PDF417, que permite gravar símbolos
menores, mas contendo menos informação. Pode codificar todos os caracteres ASCII,
até um máximo de 250 alfanuméricos por símbolo.

Code 49 Code 16k PDF417


Figura 3.11 – Códigos de Pilhas

3.2.4.2 Códigos Matriciais

• Array Tag – Código de propriedade da ArrayTech Systems, foi criado na


universidade de Victoria, Canadá. Sua principal utilização é na indústria madeireira, para
marcação de toras de madeira durante transporte. Composta de blocos hexagonais,
pode ser impressa em grupos ou isoladamente. Dependendo do tamanho das marcas,
pode ser lido de até 50 metros, e é muito robusto quanto à variações na iluminação.
• Dot Code A- Também conhecido como Phillips Dot Code, é apenas uma de
uma quantidade de marcações baseadas em pontos. Foi desenvolvida para permitir,
com maior facilidade, a marcação em pequenas áreas, e para impressão direta através
da utilização de tecnologias de baixa precisão. Em formato de quadrado, pode variar
em tamanho, de 6x6 até um máximo de 12x12, e, neste caso, pode ter 42x1036 de
combinações diferentes.
• Code One – Primeiro símbolo matricial a se tornar de domínio público, foi criado
em 1992, por Ted Williams. Variável em tamanho, pode codificar de 13 alfanuméricos
ou 22 numéricos (Code 1A), até um máximo de 2218 alfa ou 3550 numéricos (Code 1H).
è bastante utilizado na indústria farmacêutica, na marcação de produtos de beleza, e em
empresas de reciclagem.
• QR Code – O Quick Response Code também é uma tecnologia matricial de
marcação, e foi desenvolvida pela Nippodenso ID Systems, mas é de domínio público.
Pode ser facilmente identificado pelo padrão de três cantos com alvos quadrados para
orientação. Em sua configuração máxima (quadrado de 177 módulos), pode armazenar
7366 numéricos ou 4464 alfanuméricos. Pode, inclusive, codificar caracteres Kanji e
Kana.
• 3DI – Desenvolvido pela Lynn Ltd, é de forma circular, ideal para marcação de
elementos curvos ou bastante reflexivos.
• CP Code – Desenvolvido pela CP Tron, é bastante similar aos Data Matrix,
inclusive em suas marcas de orientação (L centrado no canto inferior esquerdo).
• DataGlyphs – Código de propriedade da Xerox Parc, foi desenvolvido para ser
uma das mais robustas formas de marcação de papéis e assemelhados. Composto de
uma série de barras e barras invertidas, codifica dados binários, junto com padrões de
sincronização e correção de erros. As marcas individuais podem variar de tamanho, até
um mínimo de ¼ mm, possibilitando densidades de até 1000 bytes (8 bits) por polegada
quadrada. È extremamente tolerante quanto à falhas na marcação, cópias mal-feitas, e,
devido aos padrões de sincronização e correção de erros, pode ler, com sucesso,
símbolos danificados por grampos de papel. Alguns usos comuns incluem questionários
de pesquisa por correio, catálogos de vendas, entre outros.

55
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

• Datastrip – Código desenvolvido pela Softstrip Systems, é o mais antigo dentre


as tecnologias de marcação bidimensionais. Só pode ser lido ou criado por técnicas
patenteadas que permitem a impressão de gráficos, dados, e inclusive som digitalizado.
Pode, contudo, em suas configurações mais simples, ser impresso, com sucesso, com
as mais simples impressoras disponíveis, inclusive dot-matrix. Já para símbolos com
maior densidade de dados, requer a utilização de técnicas fotográficas. Em sua maior
densidade, pode codificar até 4800 bytes em cada símbolo. A intenção inicial para esta
técnica era a publicação de software em livros e revistas.
• MaxiCode – Desenvolvido pelo United Parcel Service (UPS), em 1992, não é
composto de pontos quadrados, mas sim por 866 hexágonos. Isto permite que se criem
símbolos com densidades ate 15% maiores que nos códigos similares (que fazem uso
de quadrados). Contudo, requer a utilização de impressoras de alta definição para
impressão de qualidade. Um quadrado de lado 254 mm pode armazenar até 100
caracteres ASCII. Pode ser lido, com sucesso, mesmo com 25% do símbolo destruído.
• Snowflake Code – Código de propriedade da Electronic Automation Ltd, é
bastante similar ao Phillips Dot Code. Em um quadrado de 25 mm2, pode codificar até
100 dígitos. De acordo com o grau de correção de erros, pode-se ler, com sucesso,
com até 40% de destruição do código. Pode ser impresso de várias formas, e inclusive,
marcação direta através de perfuração.
• Aztec Code – Código do domínio público, foi desenvolvido em 1995 com a
intenção de facilitar leitura e gravação do símbolo. Em sua menor configuração
(quadrado de 15 módulos), pode codificar 13 dígitos ou 12 elementos alfanuméricos. Já
em sua maior configuração, pode codificar até 3822 elementos numéricos ou 3067
alfanuméricos. Níveis de correção de erros Reed-Solomon podem ser definidos,
podendo ocupar de 5 a 95% da área do símbolo.
• Ultracode – Foi desenvolvido pela Zebra Technologies, e é de domínio público.
Pode variar de comprimento, e grau de correção de erros Reed-Solomon. Tem,
inclusive, uma versão colorida que permite maior densidade de dados.

Array Tag Dot Code Code One QR Code 3DI CP Code

Data Glyphs Data Strip Maxi Code SnowFlake Aztec Code Ultra code
Code
Figura 3.12 – Códigos 2D

• Data Matrix – Uma das técnicas de marcação bidimensionais mais utilizadas,


Data Matrix é de domínio público. Podendo variar de tamanho, até um mínimo de 1mm2,
permitindo densidade de dados de até 500 milhões de caracteres em áreas de 60 mm2.
Contudo, os limites inferiores e superiores são, sempre, determinados pelas técnicas de
marcação e leitura disponíveis. Permite que o código seja lido a partir de qualquer
orientação (a correta orientação é feita por software, baseando-se nas duas linhas
perpendiculares – esquerda e inferior). Os dados são armazenados espalhados dentro
do símbolo, de forma a permitir leituras boas com parte do código destruído (há um grau
de redundância de informações que pode ser definido pelo próprio usuário). Duas
versões são as mais utilizadas: aquelas que utilizam correção de erros por convolução
56
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

(ECC000 a ECC140), e aquelas que fazem uso de técnicas de correção de erros Reed-
Solomon (ECC200), com o grau de proteção podendo ser escolhido pelo usuário.
Permite leituras boas com apenas 20% de contraste, permitindo a utilização de várias
técnicas diferentes de marcação, boa resistência a ambientes industriais e uma grande
robustez no armazenamento de informações.

Figura 3.13 – Codificação Data Matrix

Figura 3.14 – Exemplos de aplicações com codificação Data Matrix.

3.2.4.3 Códigos Compostos

Os códigos compostos são construídos a partir de códigos unidimensionais e os novos


códigos bidimensionais. Eles são colocados em tal posição que, devido à proximidade entre os
dois, este se tornam uma entidade apenas, e são referenciados como tal. Contudo, a leitura
pode ser feita separadamente, de forma que se podem definir diferentes graus de informação.
Lendo-se a parte unidimensional, obtêm-se a chave de acesso à uma base de dados. Já
lendo-se a parte bidimensional, não é preciso que se faça este acesso, pois toda informação já
está disponível.
RSS – A Reduced Space Symbology foi desenvolvida para servir um mercado onde
vários níveis de informações precisam estar disponíveis para diferentes usuários. Na verdade,
RSS é uma simbologia unidimensional, mas que foi planejada para poder ser, facilmente,
associada a algumas variedades de simbologias bidimensionais, de forma a proporcionar uma
distinção mais visível a diferentes tipos de leitores e scanners. Geralmente é utilizado
juntamente com códigos PDF417.

57
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

3.2.5 Métodos de Marcação

Serão analisadas, nesta seção, características técnicas de cada uma das variadas
formas de se aplicar as marcações necessárias para rastreabilidade sobre os produtos. Serão
vistos rapidamente métodos de impressão de etiquetas, mas daremos mais ênfase aos
métodos de impressão diretamente sobre o produto, uma técnica que vem ganhando bastante
espaço em variadas indústrias. Métodos amplamente conhecidos, como impressoras dot-
matrix, utilizadas para impressão de etiquetas, não serão vistos.

3.2.5.1 Impressão a Laser

Marcação a laser é uma das técnicas mais utilizadas de marcação, pois permite tanto
que se imprima etiquetas quanto o próprio produto (é claro que não com a mesma impressora).
Para etiquetas, impressoras a laser com tambor são utilizadas, e para marcação direta de
partes utilizam-se métodos que vaporizam ou deformam parte da superfície do produto.

3.2.5.1.1 Laser com Tambor

Utilizada comumente para impressão de etiquetas, apesar de chamada de impressão a


laser, esta técnica pode, ou não, utilizar lasers nos processos de impressão. Um tambor é
exposto à luz, nas posições e formas desejadas (aquilo que se quer imprimir), criando uma
imagem eletrostática. A rotação deste tambor através de uma reservatório de finíssimo pó de
tinta (toner) faz com que partículas deste pó se grudem ao tambor naquelas posições onde a
imagem eletrostática aparece. Nas outras partes do tambor, nada se adere. Ao pressionar-se
este tambor contra a etiqueta a ser impressa, esta recebe a carga de tinta que estava no
tambor. Em alguns casos, utiliza-se calor para que a aderência do pó ao meio desejado se dê
de maneira mais eficiente. A vantagem de poderem imprimir códigos de barras de alta
definição pode não ser suficiente para rebater algumas desvantagens, como a do toner poder
ser removido da etiqueta impressa sob condições adversas.

3.2.5.1.2 Laser Direto

A impressão que utiliza lasers para marcação direta de partes é também chamada de
Third Thermal, pelo fato dos raios serem utilizados de tal forma a criar altas temperaturas em
posições determinadas. Esta alta temperatura faz com que parte do substrato evapore, ou
queime, tornando a marcação permanente.
Geralmente utilizam-se dois raios laser separados, que, com a utilização de dois
espelhos e lentes são movidos de forma a descreverem, no substrato, a rota que criará a
imagem desejada.
As vantagens de se ter uma marca permanente e inerte quimicamente na parte são
óbvias. Partes marcadas diretamente podem, por exemplo, ser submetidas a tratamentos
químicos que uma parte etiquetada ou marcada com tintas possivelmente não poderia.
Contudo, algumas características deste processo de marcação tornam-no um pouco caro.
Como lasers de alta potência são utilizados, é necessário que se isole a aparelhagem, a fim de
não serem causados acidentes. Se total isolamento não é possível, pode-se também utilizar
lasers fora do espectro visível, o que também tende a encarecer o produto.

58
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Outra consideração a ser feita é quanto ao material que será tratado. As características
de absorção de calor dos materiais influi na forma como esta impressão deve ser feita.
Especialmente com plásticos, que mudam sua capacidade de absorção de calor à medida que
a temperatura é elevada, o processo de impressão pode, muito rapidamente, fugir do controle,
e destruir a parte. Mas, adicionando-se outros materiais (mais estáveis) à composição destes
polímeros, pode obter maior controle sobre o processo. Outra vantagem deste método, em se
utilizando lasers gerados por neodymium (yttrium alluminum garnet, ou YAG), é que estes
podem, por curtos períodos de tempo, armazenar a energia produzida, para gerar pulsos de
altíssima potência. Como exemplo, com a pulsação deliberada de lasers de apenas 50 watts
de potência, pode-se produzir pulsos na casa dos milhares de watts, capazes de derreter aço.

3.2.5.1.3 Laser Shot Peening

Um terceiro método para a utilização de lasers para marcação é o chamado lasershot


peening. Neste processo a idéia não e derreter ou evaporar parte da superfície a ser marcada,
mas sim de, através de lasers, deformar mecanicamente a superfície. Cobre-se a superfície
com substâncias absorventes, a em seguida, com água sobre esta camada de absorventes.
Um raio laser de alta intensidade pode, então, criar um pulso de pressão ao atingir a água.
Esta pressão sobre a água cria um onda de pressão sobre a superfície a ser marcada,
efetivamente deformando-a.
Esta técnica é mais utilizada na marcação de metais, mas qualquer material que reaja
de forma plástica pode ser marcado.

3.2.5.2 Impressão InkJet

Para impressão direta de partes, os métodos de impressão por jato de tinta talvez sejam
os mais versáteis e fáceis de implementar. Uma ampla gama de tipos de tinta, cada uma com
suas características óticas, tempos de secagem, entre outros, podem ser utilizadas com a
mesma aparelhagem. São, portanto, bastante flexíveis.
São também muito utilizadas pelo fato de serem marcas permanentes mas removíveis.
As próprias características químicas destas tintas permitem que, com a combinação apropriada
de produtos, uma marca seja removida. Mas, em outros casos, pode-se garantir que a marca
não pode ser removida.
Além disto, impressoras a jato de tinta são capazes de produzir um grau de detalhes
impressionante. Como exemplo, uma impressora da VideoJet Systems pode produzir jatos de
tinta de 36 microns de espessura.

3.2.5.3 Impressão Tipográfica (Puncionamento)

Métodos de impressão tipográfica fazem uso de contato físico entre o produto a ser
marcado e a aparelhagem de marcação. O método em si pode ser descrito como sendo o de
um prego deformando a superfície nas posições apropriadas, de forma a, permanentemente,
marcar a parte. Também se utilizam agrupamentos de tipos, de forma que a imagem toda seja
gravada de uma só vez. Estes métodos são chamados de die-stamping, ou roll-marking, de
acordo com a maneira de serem aplicados sobre os produtos.

59
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

3.2.5.4 Impressão Térmica

Métodos de impressão que fazem uso de calor para marcar etiquetas ou superfícies são
divididas em dois tipos. Transferência direta de calor para o produto (ou etiqueta a ser
marcado), e transferência através de um substrato. Estes dois tipos de impressão térmica são
mais utilizados em impressão de etiquetas, ao invés de trabalharem com marcação direta.
Além disto, um terceiro tipo de impressão por calor pode ser utilizado, o chamado Third
Thermal. Este método faz uso de lasers para evaporar parte da superfície a ser gravada, e por
isto será visto, em maiores detalhes, na seção sobre marcação a laser.

3.2.5.4.1 Transferência Térmica Direta

Esta técnica requer que a superfície a ser gravada seja, antes, coberta por alguma
substância que mude de cor quando aquecida. O produto pode, diretamente, ser coberto por
esta substância, mas esta técnica é mais utilizada para marcação de etiquetas, pela facilidade
de manuseio. O exemplo mais clássico do uso desta técnica são as impressoras de fax. São
mecanismos muito simples e que consomem baixa quantidade de energia, e portanto, estão
entre os mais baratos meios de impressão de códigos de barras. Contudo, a camada sensitiva
a calor tem sua qualidade degradada rapidamente, quando exposta a condições adversas
(calor, luz solar, luzes ultravioleta, produtos químicos), e portanto só são utilizadas em produtos
que tenham um ciclo de vida reduzido.

3.2.5.4.2 Transferência Térmica Através de Substrato

A única diferença desta técnica para a de transferência direta de calor, é que esta
coloca uma fita de cera ou resina entre o produto a ser impresso e o elemento produtor de
calor. A vantagem é que, desta forma, as imagens criadas não degradam com calor ou
incidência de luz, além de serem mais rápidas. Apesar destas vantagens, as fitas precisam ser
trocadas periodicamente, e as impressoras requerem linguagens de controle que não são de
domínio público, encarecendo o produto.

3.2.5.5 Outros Métodos

Uma variedade de outro métodos para marcação direta das partes existe, mas estas
são, geralmente, mais específicas para um certo tipo de material. Por exemplo, marcação por
abrasão, similar a jatos de areia, pode ser utilizada para marcar vidros ou outros materiais
“duros”. Para tecidos, marcas de bordados são comumente utilizadas.

60
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Marcação a laser Marcação inkjet

Marcação de puncionamento Marcação térmica


Figura 3.15 – Tipos de Marcações.

3.2.6 Métodos de Leitura

Neste capítulo abordaremos os métodos mais comumente utilizados para a leitura de


códigos de marcação. Especificamente, trataremos de descrever em maiores detalhes os
métodos de leitura das novas tecnologias de marcação. Um ponto importante a ser destacado
é sobre a iluminação. Muitas vezes, a simples iluminação das marcações a serem lidas são
tão, ou mais importantes, que o próprio método de leitura e a qualidade da impressão.
Contudo, técnicas de iluminação serão tratadas em outro trabalho.
A maioria das novas tecnologias de marcação bidimensionais só podem ser lidas
através de câmeras CCD. Isto tanto traz vantagens, como desvantagens. O fato das câmeras
CCD diferenciarem tons de cinza permite que se façam leituras boas mesmo em casos onde o
contraste entre as marcações é de apenas 20%. Códigos lidos por scanners a laser,
geralmente, requerem maiores graus de contraste. Contudo, métodos de leitura por CCD são
mais caros, apesar disto estar mudando rapidamente. Veremos cada uma destas técnicas, em
maiores detalhes, a seguir, algumas características básicas destes métodos de leitura.

3.2.6.1 Leitura com CCD

Como já foi dito, a maioria das novas tecnologias de marcação bidimensionais, só


podem ser lidas através do uso de leitor providos de Charge-Coupled Devices. O
funcionamento destes facilita o processamento das marcações, pois o leitor só tem o trabalho
de “tirar uma fotografia” da marcação em questão. Após a aquisição, faz-se o processamento.
Pode-se, pois, escolher de que forma se deseja fazer este processamento, uma vez que ele
não precisa ser feito pela mesma unidade que efetua a leitura, o que facilita, mas atrasa, o
processo de identificação. Pode-se, por outro lado, escolher que o próprio leitor faça esta
decodificação, a fim de que a informação esteja disponível no momento em que se faz a leitura.

61
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Os dois maiores problemas com métodos de leitura que fazem uso de câmeras CCDs
eram o preço e a performance destes. Comparando-se com scanners comuns, estes leitores
eram mais caros e menos robustos. Como é preciso que se faça o processamento de uma
imagem, o consumo de energia é maior do que a simples leitura por scanner. Isto poderia
impossibilitar a criação, por exemplo, de leitores manuais, pois a bateria que estes precisariam
carregar certamente os tornaria muito pesados e incômodos.
Contudo, estes problemas estão, rapidamente, desaparecendo. Tanto em termos de
preço, como em termos de performance, novas tecnologias que estão sendo desenvolvidas
não deixam a desejar. Desenvolvimentos na área de sensitividade à luz (especialmente com o
desenvolvimento de leitores com tecnologia CMOS) tem feito os preços baixarem rapidamente,
ao mesmo tempo em que a tecnologia se torna mais flexível e robusta.
A leitura feitas através de CCDs tem algumas grandes vantagens, contudo, sobre as
leituras feitas com scanners a laser. Ao passo que os scanners a laser só podem ler símbolos
unidimensionais (e alguns poucos bidimensionais, como veremos na próxima parte), métodos
de leitura por CCDs podem, com sucesso, ler tanto as marcações bidimensionais que estão
surgindo, como as marcas unidimensionais já existentes.
É, também possível, fazer a leitura de múltiplos símbolos ao mesmo tempo. Ao passo
que scanners a laser precisam ler um símbolo de cada vez, os leitores com CCDs podem ler
vários ao mesmo tempo, sendo estes depois processados separadamente. Com isto,
economiza-se tempo e trabalho. Outra grande vantagem é o fato destes leitores poderem ler
os símbolos de qualquer direção. Um pacote que está de cabeça para baixo demandaria que
um scanner a laser fosse posicionado de acordo. Contudo, se utiliza-se um leitor com CCDs,
esta mudança em posicionamento não é necessária, uma vez que a imagem adquirida terá que
ser processada. Uma pequena mudança na imagem recebida não acarretaria grandes
demoras no tempo de decodificação.
Uma outra vantagem dos leitores com CCDs é a possibilidade de se fazer
rastreabilidade da qualidade das próprias marcações. Ao ser adquirida uma imagem, esta pode
ser avaliada quanto à qualidade do rótulo (ou símbolo) que foi lido. Detectando-se problemas
neste rótulo (ele pode estar rasgado, sujo, incompleto), pode-se, automaticamente, dar início a
um processo de recuperação ou recriação deste. Scanners a laser não tem esta possibilidade,
uma vez que não se tem uma imagem do símbolo, e sim uma interpretação do que seja este
símbolo. A degradação da qualidade na marcação pode não ser sentida quando pequena, mas
no momento em que se ultrapassa um certo ponto, um dado rótulo pode nunca mais ser lido,
pois a falta de qualidade deste não o permite. Em outras palavras, com leitores CCDs pode-se
fazer manutenção preventiva sobre este rótulos.

Figura 3.16 – Leitura a partir de câmeras CCD.

62
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

Figura 3.17 – Solução pr;atica para a leitura de códigos Data Matrix.

3.2.6.2 Leitura com Scanners

Em muitos casos, especialmente em se tratando das tecnologias bidimensionais


empilhadas (stacked), as leituras podem ser realizadas através de simples sistemas de
scanners a laser, ao invés da utilização de câmeras CCDs mais caras. Para PDF417, por
exemplo, é possível a utilização de scanners modificados. Com a instalação de um pequeno
motor na aparelhagem, é possível fazer com que o ponto de laser seja movido em formato de
ziguezague. A cada passada deste feixe de laser, um dos estágios do símbolo impresso é lido,
e adicionado a um buffer. Quando da leitura do último estágio do símbolo, completa-se a leitura
e combinam-se os dados de cada um destes estágios.

63
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

4 Conclusões
Os Sistemas de Visão tiveram um grande desenvolvimento muito devido à necessidade
de inspeção de qualidade dos processos de manufatura industriais, com o objetivo de isolar
produtos defeituosos de consumidores exigentes, e para atender ao rigor de órgãos fiscais
governamentais de controle de qualidade.
Mas por lidarem com a integração de uma série de tecnologias em constante
desenvolvimento, os Sistemas de Visão tornaram-se cada vez mais flexíveis, e passaram a
atender uma grande faixa de aplicações, das quais podemos citar áreas de controle de
qualidade, rastreabilidade, controle de tráfego rodoviário, segurança, dentre outras.
Por sua extrema eficiência e flexibilidade, os Sistemas de Visão vem ganhando um
mercado cada vez mais abrangente, mas no entanto, deve ser ressaltado que a grande parte
do mercado consumidor destes produtos trata-se de corporações, grandes empresas,
indústrias, órgãos governamentais, etc. Ou seja, são todos consumidores potenciais que lidam
com transações financeiras de grande porte. Para estes consumidores, normalmente o
investimento de capital em caros Sistemas de Visão resulta, de certo modo, num retorno
positivo à empresa.
Os Sistemas de Visão são uma tecnologia de ponta e relativamente cara para
consumidores normais (pessoas, pequenas empresas, pequenos comércios), tendo em vista
que um sistema completo pode variar custos numa faixa de U$10.000,00 a U$100.000,00 (ou
mais), dependendo é claro da aplicação.
Os altos custos destes sistemas vem de uma série de fatores, dentre os quais podemos
citar alguns:
• Exigência de mão-de-obra muito especializada (aliás uma equipe completa);
• Componentes de hardware como câmeras CCDs, kits de iluminação, sistemas
de atuação mecânicos, placas de aquisição de imagens, etc. são muito caros;
• O software que acompanha os sistemas tem um custo altíssimo (custo “zero”
para o fabricante, mas custo alto para o cliente);
• Preços sobre a qualidade dos produtos, manutenção e atendimento.

Apesar do alto custo do sistema, ele provém, na maioria das vezes, uma relação custo-
benefício de extrema importância para seus potenciais consumidores, o que faz com que cada
vez mais esta tecnologia seja difundida e utilizada em novas aplicações.
Temos também aplicações mais baratas, já bem conhecidas dos consumidores
“menores”, que são a tecnologia de webcams e scanners em casa e escritórios, viabilizando
videoconferências, aquisição de imagens e textos, dentre outras.
Para o futuro, já comenta-se bastante sobre novas aplicações utilizando-se de
tecnologias de câmeras embarcadas ou Smart Cameras, onde praticamente todo o hardware e
software do sistema estaria literalmente embarcado dentro de uma câmera, provida de um
microprocessador de última geração e comunicação com computadores/controladores centrais
via rede, capaz de realizar aplicações antes inviáveis devido principalmente a falta de espaço
físico.
Acompanhando estas inovações de hardware, espera-se também grandes inovações na
parte de software dos sistemas. Aplicações envolvendo algoritmos baseados em inteligência
artificial já são utilizados atualmente, mas com muito pouca eficiência. Investimentos pesados
em pesquisas nesta área podem viabilizar o aparecimento de verdadeiros sistemas
inteligentes, capazes de tomar decisões autônomas, fazer reconhecimento de padrões,
adaptar-se ao meio e a situações pela qual é submetido, estimar automaticamente métodos e
parâmetros para o melhoramento de atividades e processos, dentre outros.

64
Sistemas de Visão – Aplicações em Controle de Qualidade e Rastreabilidade

5 Referências Bibliográficas
[1] ORTH, A.: Desenvolvimento de um Sistema de Visão para medir o Desgaste de
Flanco de Ferramentas de Corte, Dissertação para o Programa de Pós-Graduação
em Engenharia Elétrica, UFSC, Brasil, Dezembro, 2001.
[2] PAVIM, A.; CUNHA, E. e BECK, F.: Rastreabilidade – Marcação, Leitura e
Armazenamento, Programa Multiplicadores de Conhecimento, Pollux Sistemas de
Visão, Brasil, Novembro, 2000.
[3] ORTH, A.: Câmeras – Olhos Eletrônicos dos Sistemas de Visão, Programa
Multiplicadores de Conhecimento, Pollux Sistemas de Visão, Brasil, Janeiro, 2001.
[4] PUCHALSKI, G.: Frame Grabbers, Programa Multiplicadores de Conhecimento,
Pollux Sistemas de Visão, Brasil, Novembro, 2000.
[5] LUDOVICO, C.: Hardware de Iluminação – Tratamento da Luz para a Aquisição
de Imagem, Programa Multiplicadores de Conhecimento, Pollux Sistemas de Visão,
Brasil, Novembro, 2000.
[6] TWAIN ORG: Twain Specification, version 1.9, em http://www.twain.org, Twain
Org, Janeiro, 2000.
[7] SANE: Linux Scanner – Camera API, em http://www.mostang.com/sane/, SANE,
Novembro, 2001.
[8] MICROSOFT: Still Image and WIA, em http://www.microsoft.com/DDK, Microsoft,
Outubro, 2001.
[9] POLLUX: Sistemas de Visão, em http://www.pollux.com.br, Pollux Sistemas de
Visão, Março, 2002.
[10] POLLUX: Data Matrix, em http://www.datamatrix.com.br, Pollux Sistemas de Visão,
Março, 2002.
[11] MACHINEVISIONONLINE: Machine Vision, em
http://www.machinevisiononline.com, Machine Vision Online, Março, 2002.

65
This document was created with Win2PDF available at http://www.daneprairie.com.
The unregistered version of Win2PDF is for evaluation or non-commercial use only.

Vous aimerez peut-être aussi