Vous êtes sur la page 1sur 7

USTHB Faculté d'Informatique Cours de Traitement d'Image

F. Z. Bellala

Chapitre I Introduction
_Toc36562313La vision humaine ......................................................................................... 1
Les capteurs CCD................................................................................................................... 3
Du signal analogique au signal numérique ............................................................................ 3
L'image numériques et ses caractéristiques ............................................................................ 6
Pixel image et le système de convention ................................................................................ 6

Avec l’évolution du matériel informatique et la digitalisation de la machine, la


communauté scientifique essaie d'en tirer profil pour améliorer des résultats de
recherche parfois, et pour les accélérer dans d'autres cas. L'image est une des
informations traitées par la machine pour des applications de plus en plus variées. A
titre non exhaustif, nous citons l'imagerie médicale pour diagnostiquer en médecine
et l'imagerie microscopique pour l'étude des microorganismes en agroalimentaire
afin de garantir une meilleure conservation.
Dans tous les domaines, les images acquises sont d'abord traitées avant d'être
interprétées. Les traitements appliquées sur les images sont globalement les mêmes,
mise à part quelques spécificités parfois liées aux domaines d'application. La chaine
de traitement d'une image est représentée en figure I.1, dans laquelle les différentes
phases sont présentées. Il s'agit là de l'acquisition, prétraitement, traitement et enfin
l'interprétation.

Acquisition--> Prétraitement-->Traitement (Segmentation) --> Post-traitement -->


Analyse et interprétation

Figure I.1. Les phases de traitement d'images

Les outils d'acquisition d'images se basent principalement sur les caméras de type
CCD inspiré de la vision humaine.
Dans cette introduction, nous présentons succinctement la vision biologique avant de
décrire les caméras CCD et les phases qui permettent d'avoir une image numérique
pouvant être traitée par la machine.

La vision humaine
La fonction optique de l'oeil est de focaliser un stimulus de couleur sur sa partie
photosensible, la rétine. Cette fonction est réalisée par les principaux éléments
suivants (voir figure I.2) :

1
Version non finale
USTHB Faculté d'Informatique Cours de Traitement d'Image
F. Z. Bellala

Figure I.2. Coupe de l'œil humain [Van2000]

- La cornée est une zone circulaire, transparente et résistante de la sclère située de la


face avant de l'œil. Son rôle est de protéger l'avant du globe oculaire.
- L'iris est une membrane colorée qui entoure l'ouverture circulaire dite la pupille.
Elle fonctionne comme un diaphragme en contrôlant la quantité de la lumière qui
pénètre dans l'œil à travers la pupille.
- Le cristallin est situé derrière la pupille. C'est une lentille flexible biconvexe qui
permet d'ajuster la focalisation grâce au changement de courbure. Le cristallin se
bombe pour focaliser les objets de près et devient plus plat pour rendre nets ceux
situés au loin.
Le corps vitré est un liquide continuellement sécrété et absorbé dont le rôle est
d'assurer la structure autonome de l'œil.
Après avoir traversé ces différents éléments, le stimulus couleur arrive sur une zone
photosensible localisé au fond de l'œil, la rétine (dite aussi pellicule) où viennent se
projeter les images de la scène que nous observons.
La rétine contient deux types de cellules photosensibles. Les cônes et les bâtonnets.
Ces derniers permettent une vision nocturne (vision scotopique). Ils sont très
sensibles à la lumière mais ne permettent pas la perception des couleurs. Tandis que
les cônes, plus concentrés au niveau de la fovéa, permettent la vision diurne (vision
photopique).

2
Version non finale
USTHB Faculté d'Informatique Cours de Traitement d'Image
F. Z. Bellala

Les rayons lumineux réfléchis par l'objet observé traversent la cornée, la pupille puis
le cristallin pour ensuite être absorbé par les bâtonnets et les cônes qui transmettent
le stimulus en nerf optique et enfin vers le cerveau pour interpréter l'image.
L'œil humaine est un capteur chimique de l'image. En s'inspirant de la vision
humaine, les capteurs photoélectriques de type CCD ont été réalisés. Les appareils
numériques disponibles sur le marché sont généralement équipés de ce type de
capteur [Ling04].

Les capteurs CCD


Un CCD Charge Coupled Device (Récepteur à transfert de charge).comporte un
réseau d'éléments sensibles à la lumière analogiquement aux cellules de la rétine.
Chacun de ces éléments est appelé photosite (voir figure I.3).

Figure I.3. Les photosites [RM2004]


Selon le modèle de capteur, un photosite délibère un courant (tension analogique)
proportionnel à la quantité de la lumière qu'il reçoit (lumière issue de la scène et
transmise par l'objectif lors de la prise de vue). Les tensions sont ensuite converties
en signaux numériques et transférées vers l'unité de traitement. Pour accélérer ce
processus, les appareils d'acquisition d'images (caméra, appareil photo numérique,
scanner) contiennent souvent de la DRAM (Dynamic Rondom Acces memory) ou
un mini disque dur permettant de stocker plusieurs images avant de les transférer en
blocs [RM2004].

Du signal analogique au signal numérique


Une image est une représentation planaire d'une scène ou d'un objet situé en général dans un
espace tridimensionnel [CP1995]. Le signal numérique est obtenu à partir du signal
analogique en appliquant deux opérations primordiales par la caméra CCD. L'échantillonnage
et la quantification.

L'échantillonnage est l'opération qui permet la discrétisation du signal continu. A


chaque unité spatiale est associée un nombre fini de points de même forme. Suivant
le matériel utilisé, trois formes de partition dites pavage existent. Le pavage
rectangulaire dont le carré et le quinconce font partie, le pavage triangulaire et
hexagonal, (voir figure I.4). Le plus utilisé est le pavage carré, objet de notre cours.

Figure I.4. Différents pavages


Plus le nombre d'éléments par unité spatial est élevé, plus l'image est plus nette (voir
figure I.5). Ce nombre permet de définir la résolution spatiale de l'image qui est
exprimé en ppp (points par pouce ou encore dpi en anglais)

3
Version non finale
USTHB Faculté d'Informatique Cours de Traitement d'Image
F. Z. Bellala

Figure I.5 Echantillonnage

La quantification permet d'attribuer le nombre de bits qui peuvent représenter une valeur
d'intensité lumineuse. Pour un bit attribué, deux valeurs d'intensité lumineuse (21) sont
possibles. Il s'agit là d'une image en noir et blanc. Si par contre l'intensité est représentée par
un octet (huit bits), 256 valeurs (28) d'intensité sont donc possibles (voir figure I.6).

4
Version non finale
USTHB Faculté d'Informatique Cours de Traitement d'Image
F. Z. Bellala

Figure I.6. Quantification par un bit et 8 bits


Le nombre de valeurs d'intensités possibles L pour une quantification sur k bits est donc
donné par :

L=2k

5
Version non finale
USTHB Faculté d'Informatique Cours de Traitement d'Image
F. Z. Bellala

L'image numériques et ses caractéristiques


Nous considérons dans notre cours, les images obtenues par un pavage carré, le plus proche à
une représentation matricielle sur machine. La représentation de l'image obtenue après
échantillonnage et quantification est donnée donc par une matrice d'éléments de mêmes tailles
appelés "Pixels" pour PIcture ELements.

Si l'opération d'échantillonnage nous permet d'avoir une image de M x N pixels et que


l'opération de quantification permet de coder l'intensité de chaque pixel sur un k bits alors,
l'image occupe MxNxk bits en mémoire. Ce qui représente la taille de l'image.

Taille image = MxNxk

MxN est obtenue suivant la résolution spatiale qui défini le nombre de pixels par pouce (ppp).

k étant le nombre de bits et L=2k représente le niveau de tons, dite aussi résolution tonale.

Pixel image et le système de convention


Un pixel de l'image est caractérisé par :

- Ces coordonnées (i,j) suivant le repère image dans le cas discret (voir figure I.7)

- Son intensité lumineuse : le niveau de gris ou la couleur, suivant qu'il s'agit d'une image en
niveaux de gris ou en couleur.

Figure I.7 Repère analogique et numérique

Dans ce chapitre, nous considérons les images en niveaux de gris où chaque pixel est codé sur
8 bits (k=8) pour donner 256 valeurs de gris possible.

Les intensités des pixels de coordonnées (i, j) sont données par la fonction I définie par :

I: N  N

(i,j)  I(i,j)

Les valeurs I d'intensité varient donc de 0 à 28=256 (voir figure I.2). et les valeurs de
coordonnées i et j varient de M (w: width) et N(h: height) suivant la matrice de la figure I.8.

6
Version non finale
USTHB Faculté d'Informatique Cours de Traitement d'Image
F. Z. Bellala

Figure I.8 Image en niveaux de gris (voir annexe pour le programme)

(0,0) (1,0) ⋯ (𝑤 − 1,0)


(0,1) (1,1) ⋯ (𝑤 − 1,1)
( )
⋮ ⋱ ⋮
(0, ℎ − 1) ⋯ (𝑤 − 1, ℎ − 1)
Figure I.9 Matrice de coordonnées des pixels
- Son voisinage. Le pavage carré permet de définir deux types de voisinage d'un
pixel suivant la distance utilisée.
Soit un point pixel Pij de coordonnées iP et jP d’une image I et un autre point pixel Q
de coordonnées iq et jq de même image. Deux métriques sont couramment utilisées
pour définir le voisinage [14] :
• La métrique d4 (distance Mahattan []) définie par : d4(P,Q) = |ip − iq| + |jp − jq|
Elle permet d’associer à P un ensemble de points V4(P) appelé voisinage et défini
par : V4(P) ={XI/ d4(P,X) 1}
En appliquant cette distance, le point P possède 4 voisins adjacents situés à une
distance d4 = 1 (voir figure 1.10). V4 est dit un voisinage 4-connexe. Le voisinage 4-
connexe de point Pij est données par les quatre voisins horizontaux et verticaux (ip ±
1, j) et (ip, jp ± 1)
• La métrique d8 (distance Chebychev []) définie par : d8(P,Q) = max(|ip −iq|, |jp
−jq|) Elle permet d’associer à P un voisinage V8(P) donné par les quatre points
horizontaux et verticaux (ip ± 1, j) et (ip, jp ± 1), ainsi que quatre autres diagonaux
(ip ± 1, j± 1) (voir figure I.10)

Figure I.10 Le 4 et 8-voisinage.

7
Version non finale

Vous aimerez peut-être aussi