Vous êtes sur la page 1sur 78

Vision Intelligente

le traitement d’images est l’ensemble des méthodes et


techniques opérant sur celles-ci, permettant d’améliorer
l’aspect visuel de l’image et d’extraire des informations
jugées pertinentes
Les systèmes de traitement d’images :

Le passage de cet objet externe (l’image d’origine) à sa


représentation interne (dans l’unité de traitement) se fait grâce à
une procédure de numérisation. Ces systèmes de saisie,
dénommés optiques, peuvent être classés en deux catégories
principales : les caméras numériques et les scanners.
Définition de l’image :

L’image est une représentation d’une personne ou d’un objet


par la peinture, la sculpture, le dessin, la photographie, le
film, etc.
C’est aussi un ensemble structuré d’informations qui, après
affichage sur l’écran, a une signification pour l’oeil humain.

Elle peut être décrite sous la forme d’une fonction


I(x, y)
Image analogique :

une image analogique est liée à un support matériel: plaque


photo, pigments de peinture et toile, par exemple. Il n'est pas
possible de reproduire l'image originale à l'identique. Les
copies sont nécessairement dégradées par rapport à l'original
photo argentique,
 · diapositive,
 · radiographie,
· peinture,
· bobines de film
Image numérique :

Contrairement aux images obtenues à l’aide d’un appareil


photo, ou dessinées sur du papier, les images manipulées par un
ordinateur sont numériques (représentées par une série de bits).
L’image numérique est l’image dont la surface est divisée en
éléments de tailles fixes appelés cellules ou pixels

image "web",
· image d'un film d'animation,
· sortie des appareils photos et camescopes
numériques, ·
image de TV numérique.
La numérisation d’une image est la conversion de celle-ci de
son état analogique en une image numérique représentée par
une matrice bidimensionnelles de valeurs numériques
f(x, y) où :
x, y : coordonnées cartésiennes d’un point de l’image.
f(x, y) : niveau de gris en ce point.
Une image ne comportant que 2 niveaux de gris : 0 (noir) et 1
(blanc) est appelée une image binaire
Pourquoi le traitement d’images ? Le futur est au multimedia
: les images sont partout! Les applications sont multiples
Télédétection ´ : météo, cartographie, astronomie ´
Imagerie médicale ´ : aide au diagnostic,
tomographie, suivi automatique, reconstruction 3D
Applications militaires : guidage de missile,
reconnaissance terrestre Robotique :
reconnaissance/assemblage de pieces, vehicules
autonomes, controle de qualité
Sécurité: identification de visages, reconnaissance
d’empreintes digitales, tatouage d’image
(watermarking), data hiding
Divertissement : HDTV, images haute qualite ( ´
DVD), compression (normes JPEG et MPEG
Exemples de traitement d’images

Amélioration : augmenter la qualité de la perception visuelle qu’on a


d’une image
Restoration : compenser les dégradations (bruit, flou, ...)
´ Compression : stocker et transférer efficacement ´
 Segmentation : délimiter les “objets” ´
Reconstruction 3D : obtenir un volume a partir de plans ` (images)
Représentation ´ : modéliser ´ Bas niveau : texture, couleur, forme, etc.
Haut niveau : caractéristiques ( ´ features), apprentissage statistiques, graphes
Analyse : convertir en informations
Reconnaissance / Comprehension ´ : identifier le contenu
Définition d’une image réelle

Une image est la projection sur un plan d’une scene 3D


` Elle peut être définie comme une fonction à deux
variables ` f(x, y)
(x, y) est la position d’un point de l’espace sur le plan
de projection f(x, y) est l’intensité (ou brillance) au
point de coordonnées (x, y)

Une image est un plan analogique dans lequel les


intensités sont réelles
Définition d’une image numérique

Matrice dont la valeur de chaque élément


représente une ´ intensité discrète de la lumière
Plan discret dérivé d’une image analogique aprés
numérisation ´ (digitization)

Echantillonnage spatial ´ (sampling) :


discrétisation des coordonnées de l’image réelle ´
Quantification des luminances (quantization) :
discrétisation des intensités de l’image reelle
Echantillonnage spatial

Définit la résolution spatiale de l’image


 Pas de division du plan image : nombre d’éléments par
´ unité de longueur
 Plus petits détails discernables dans l’image
Quantification des luminances

L’intensité I est quantifie sur ´ m bits et peut prendre L = 2 m


valeurs : I ∈ [0, . . ., 2 m − 1] Plus petit changement d’intensité
discernable dans l’image

Attention Un quantification trop faible provoque des


“faux contours”
m = 1 : 2 valeurs possibles (images binaires)
m = 8 : 256 valeurs possibles (images en niveaux de
gris)
m = 16 : 65535 valeurs possibles (images en couleurs)
Caractéristiques d’une image

Surface divisée en éléments de taille fixe, ou ´ pixels


(picture element), définie par : Le nombre N de pixels en
largeur et le nombre M de pixels en hauteur (obtenus
après échantillonnage)
L’étendue L des intensités ( ´ dynamique) que peut
prendre chaque pixel après quantification

Exemple ; Image en niveaux de gris (8 bits) de


taille 128 × 128 : 128 × 128 × 8 = 131072 octets =
16 Koctets
Image en couleurs (32 bits) de taille 256 × 256 :
256 × 256 × 32 = 256 Koctets
Niveau de gris : valeur de l’intensité lumineuse f(x, y)
au pixel de coordonnées (x, y)

Image binaire : deux valeurs possibles d’intensité (0 ou 1)


pour les pixels Image en niveaux de gris :
Quantification des luminances sur l’intervalle [0, 255]
 Codage sur 8 bits (1 octet) : 2 0 − 1 ≤ k ≤ 2 8 − 1
Convention : noir=0, blanc=255
Qualité

Lignage : phénomène d’alternance des lignes claires


(ou ` sombres) de meme direction et qui tranchent avec
le reste ˆ de l’image
Contraste : qualité de la dynamique des intensités de ´
l’image
 Bruit : signal “parasite” dont la distribution dans
l’image est aléatoire et la plupart du temps inconnue ´
Déformations géométriques ´ : défauts dus à la
différence ´ d’axe entre le capteur d’acquisition et le
centre de la scène ` observée
Caractéristiques d’une image numérique :

Pixel :
est le plus petit point de l’image, c’est une entité calculable
qui peut recevoir une structure et une quantification. Si le bit
est la plus petite unité d’information que peut traiter un
ordinateur,
La lettre A, par exemple, peut être affichée comme un
groupe de pixels dans la figure ci-dessous :
La taille du pixel définit la résolution par rapport à l'image analogique
originale, c'est-à-dire la finesse de la grille. Plus la résolution baisse,
plus le nombre de pixels dans l'image diminue, et plus la qualité de
l'image numérique se dégrade
Dimension :

C’est la taille de l’image. Cette dernière se présente sous


forme de matrice dont les éléments sont des valeurs
numériques représentatives des intensités lumineuses (pixels).
Le nombre de lignes de cette matrice multiplié par le nombre
de colonnes nous donne le nombre total de pixels dans une
image..
Résolution

C’est la clarté ou la finesse de détails atteinte par un


moniteur ou une imprimante dans la production d’images.
Sur les moniteurs d’ordinateurs, la résolution est exprimée
en nombre de pixels par unité de mesure (pouce ou
centimètre).
Bruit :

Un bruit (parasite) dans une image est considéré comme un


phénomène de brusque variation de l’intensité d’un pixel
par rapport à ses voisins. Il provient de l’éclairage des
dispositifs optiques et électroniques du capteur.
Contours et textures :

Les contours représentent la frontière entre les objets de l’image, ou


la limite entre deux pixels dont les niveaux de gris représentent une
différence significative. Les textures décrivent la structure de ceux-
ci. L’extraction de contour consiste à identifier dans l’image
les points qui séparent deux textures différentes.
Luminance :

La luminance est le degré de luminosité des points de


l’image. Elle est définie aussi comme étant le quotient de
l’intensité lumineuse d’une surface par l’aire apparente de
cette surface Pour un observateur lointain, le mot
luminance est substitué au mot brillance, qui correspond à
l’éclat d’un objet.
Contraste : :

C’est l’opposition marquée entre deux régions d’une


image, plus précisément entre les régions sombres et les
régions claires de cette image. Le contraste est défini en
fonction des luminances de deux zones d’images..
Image à niveaux de gris :

Le niveau de gris est la valeur de l’intensité lumineuse en


un point. La couleur du pixel peut prendre des valeurs
allant du noir au blanc en passant par un nombre fini de
niveaux intermédiaires. Donc pour représenter les images
à niveaux de gris, on peut attribuer à chaque pixel de
l’image une valeur correspondant à la quantité de lumière
renvoyée. Cette valeur peut être comprise par exemple
entre 0 et 255.
Image en couleurs :

La représentation des couleurs s’effectue de la même


manière que les images monochromes avec cependant
quelques particularités. En effet, il faut tout d’abord
choisir un modèle de représentation. On
peut représenter les couleurs à l’aide de leurs composantes
primaires. Les systèmes émettant de la lumière (écrans
d’ordinateurs,...) sont basés sur le principe de la synthèse
additive : les couleurs sont composées d’un mélange de
rouge, vert et bleu (modèle R.V.B.).
Le traitement, souvent appelé prétraitement, regroupe toutes les
techniques visant à améliorer la qualité d'une image. De ce fait, la
donnée de départ est l'image initiale et le résultat est également une
image. L'amélioration a pour but de satisfaire l’œil de l'observateur
humain. C'est pourquoi l'image produite peut être différente de la
réalité.
Notion de bruit d'image :

• A chaque étape de l'acquisition d'une scène, des perturbations


(rayures, poussières, caméra, amplification, quantification) vont
détériorer la "qualité" de l'image. Ces perturbations sont
regroupées sous le nom de "bruit d'image".
• Ce bruit d'image sera ici considéré comme aléatoire, additif,
haute-fréquence et centré.
• Le bruit d'image est en toute rigueur considérée comme un champ
aléatoire.
n
f(a)  Cexp(-K | a | )

Avec C et K des constantes de normalisation liées à la


variance
Filtrage pour amélioration d’images

Filtrage linéaire :
Parmi les filtres linéaires 3 catégories de filtres sont
envisagées qui se distinguent par des propriétés dans le
domaine fréquentiel.
•Filtres passes-bas : ils sont utilisés pour atténuer quelques
détails de l’image.
•Filtres passe-haut : contrairement aux précédents, ils sont
utilisés pou atténuer les caractéristiques neutres et mettre en
évidence les détails.
•Filtres passe-bande : ils ont peu d’intérêt pour le
rehaussement d’image, mais par contre sont utilisés dans la
restauration d’image.
Filtrage non linéaire :

Ces opérateurs ont été développés pour pallier aux


insuffisances des filtres linéaires. Dans ces filtres le niveau
d’un pixel de l’image filtrée est toujours fonction du niveau
des pixels environnants, mais le calcule n’est plus basé sur
des combinaisons linéaires.
Rehaussement d’image :

Le rehaussement d’images est l’ensemble des


méthodes qui modifient l’apparence d’une image de
manière à ce qu’un observateur ou une machine
puisse extraire plus facilement une certaine
information désirée.
Rehaussement par filtrage :

D’une manière générale, on peut augmenter le


contraste d’une image par filtrage linéaire passe-haut

0 1 0
D 1 4 1
0 1 0
Rehaussement par modification de la forme
d’histogramme :

L’histogramme permet de donner un grand nombre d’information


sur la distribution des niveaux de gris (couleur) et de voir entre
quelles bornes est repartie la majorité des niveaux de gris
(couleur) dans les cas d’une image trop claire ou d’une image
trop foncée.
fréquence d’apparition fréquence d’apparition

Image trop foncée Image trop claire

niveau niveau

0 N 0 N
Etalement d’histogramme

Il s’agit ici d’améliorer le contraste d’image, en général, la


distribution des valeurs de niveaux de gris n’est étalée entre 0 et N-
1, mais regroupée entre deux valeurs Min et Max, pour rehausser le
contraste d’une telle image, on peut étaler la dynamique de cette
dernière en portant le niveau Min à 0 et le niveau Max à N-1.
Etalement d’histogramme d’une image entre deux
valeurs de niveaux de gris(Min = 50, Max =220 ).
Egalisation d’histogramme :

Cette transformation consiste à rendre le plus plat possible


l’histogramme des niveaux de gris de l’image. L’image est
associée à une modélisation probabiliste dont l’histogramme
représente la densité de probabilité de la variable niveau de gris.
Cette méthode permet souvent de renforcer le contraste sur des
détails de l’image qui sont masqués par des variables d’intensité
de plus grande amplitude et à plus grande échelle
Lissage :

Dans certains cas, la dégradation subie par une image consiste


en un bruit très localisé et très perturbant. Dans d'autres cas, la
dégradation consiste à avoir des trous ou coupures sur une
forme et des frontières pas nettes.
Lissage par la moyenne :

Le niveau de gris du pixel central est remplacé par la


moyenne des niveaux de gris des pixels environnants. La taille
du de la matrice h dépend de l'intensité du bruit
1 1 1
1 1
h1  h  1 1 1
9 9
1 1 1
On peut généraliser le procédé : pour un filtre hp de taille
(2n+1)x(2n+1) :
n n
g ( x, y )    h p (i, j ).I ( x  i, y  1)
i n j n
La Vidéo
Les premières mise en point la télévision en couleurs
datentent 1954 son développement massif ne
commence qu’à partir 1963 aux etats unis et 1967 en
Europe.
En télévision couleurs l’analyse de l image requiert
trois tubes .ceux ci fournissent trois signaux vidéos
représentatifs de trois images de l’objets obtenus au
travers 03 filtres : rouge, vert et bleu
En numérique, la qualité des images dépend de plusieurs
éléments : définition, résolution, taille d'image, taux de
compression. Par exemple si le fichier original comporte
trop peu de pixels, les images ne pourront pas être
agrandies sans perte de qualité (effet de pixellisation). Ce
paramètre est essentiel pour le choix de l'appareil mais
aussi quand on choisit la "qualité d'image" au moment de
la prise de vues
La Définition : fixée une fois pour toute C'est le nombre de
pixels qui constitue l’image numérique. Par exemple un appareil
qui fournit 4000 x 3000 pixels a une résolution de 12 000 000
pixels (pour simplifier on parle de 12 mégapixels ou 12 Mpix).
Les premiers appareils photo numériques n'offraient que 640 x
480 pixels, c’est à dire des images de 300.000 pixels.
La Résolution : varie avec le format d’agrandissement (un
peu de math !) Exprimée en « pouces anglo-saxons » la
résolution définit la densité des informations et varie avec le
rapport d'agrandissement de l’image pour un format donné.
Exemple : avec un appareil de 12 Mpix, on obtient une
résolution de 300 points par pouce (ou ppp) pour un format
de 25 x 33 cm Mais la résolution diminue à mesure
qu'augmente le rapport d'agrandissement. Notre photo de 12
millions de pixels (4000 x 3000) verra sa résolution tomber
à 72 ppp en format 104 x 140 cm.
capteur : 4000x3000 =12 000 000 pixels soit : 12 millions de
pixels
résolution : 300 ppp (dpi) dimension de l'image : 3000/300 x
4000/300 = 10 x 13.3 pouces en cm : (10 x 2.54) x
(13.3x2.54) = 25.4 x 33.8cm image moyenne en taille mais de
bonne qualité visuelle
Qu'est-ce que la résolution d'un appareil photo
numérique ???

La résolution se caractérise par le nombre de pixels par unité


de longueur, c'est en fait la densité de pixel de l'image. Celle-
ci n'a rien à voir avec le nombre de pixels." Elle s'exprime en
dpi (dot per inch = point d'encre par pouce) pour une
imprimante, ou en ppp (pixel par pouce) pour un fichier
image. Évidemment plus la résolution de l'image est élevée
(beaucoup de pixels pour un pouce), plus la qualité théorique
est importante.
Poids des fichiers et compression
La taille des fichiers numériques varie avec la définition
car plus il y a de pixels à définir, plus le volume augmente.
Une photo de 4000 x 3000 pixels représente, nous l'avons
vu, 12 millions de points. Chacun d'eux étant codé sur 24
bits, le poids du fichier final sera de 8,6 Megaoctets ( 8,6
Mo),
Une série de normes et standards de télévision a été
développée pour simplifier l'industrialisation et la diffusion
commerciale des téléviseurs puis des appareils vidéo et
informatiques; ces accords internationaux définissent les
spécifications de compatibilité entre les systèmes et
équipements exploités.
.
La norme concerne principalement le mode de
télédiffusion. Elle définit le type de modulation.
Le standard concerne le signal vidéo, lequel doit être
modulé (émis) conformément à la norme. Il définit
plus particulièrement le système couleurs
NTSC : National Television System Committee

PAL : Phase Alternation Line

SÉCAM : Séquentiel couleur à mémoire


NTSC

Développé aux États-Unis, il est le premier standard de


télévision national en couleurs commercialisé. Les
retransmissions publiques débutent officiellement en
1954 (téléviseur couleurs mécaniques de type RCA).
standard NTSC (américain)

lignes/nombre de trames 525/60

fréquence horizontale 15.734 kHz

fréquence verticale 60 Hz

fréquence porteuse couleur 3.579545 MHz

largeur de bande vidéo 4.2 MHz

porteuse audio 4.5 MHz (FM)


PAL

Développé en Allemagne, il exploite plusieurs brevets du


NTSC, dont il réduit la distorsion de phase des couleurs.
Les retransmissions commencent en 1967.
Caractéristiques techniques des normes B-G-H, I, D, N et M utilisant le standard PAL

PAL B-G-H PAL I PAL D PAL N PAL M


lignes/ 625/ 50 625/ 50 625/ 50 625/ 50 525/ 60
trames
fréquence 15.625 kHz 15.625 kHz 15.625 kHz 15.625 kHz 15.734 kHz
horizontale
fréquence 50 Hz 50 Hz 50 Hz 50 Hz 60 Hz
verticale

fréquence
porteuse 4.433618 4.433618 4.433618 3.582056 3.575611 M
vidéo MHz MHz MHz MHz
couleurs

largeur de ba 5.0 MHz 5.5 MHz 6.0 MHz 4.2 MHz 4.2 MHz.
nde
vidéo
porteuse 5.5 MHz (FM) 6.0 MHz 6.5 MHz 4.5 MHz 4.5 MHz
audio
SÉCAM

développé en France. Début de la diffusion commerciale en


1967.
Caractéristiques techniques des normes B-G-H, D, K-K1 et L exploitant le
standard SECAM
SECAM B-G-H SECAM D SECAM K-K1 SECAM L
lignes/
nombre de 625/50 625/50 625/50 625/50
trames
fréquence 15.625 kHz. 15.625 kHz. 15.625 kHz. 15.625 kHz.
horizontale
fréquence
verticale 50 Hz 50 Hz 50 Hz 50 Hz

largeur de ba 5.0 MHz 6.0 MHz 6.0 MHz 6.0 MHz


nde
vidéo
porteuse
audio 5.5 MHz (FM) 6.5 MHz (FM) 6.5 MHz (FM) 6.5 MHz (AM)
La SDTV (définition standard pour la télévision), ou SD, est une
série de normes définissant la résolution d’images vidéo conformes
aux normes NTSC, PAL et SECAM. Elles ont pour objet de
distinguer la définition de ces normes historiques, d’une part, de
celle des signaux de télévision à haute définition, dits « HD »,
d’autre part :
Les formats 480i (NTSC), 576i (PAL et SECAM) font partie des
normes à définition SDTV ;
Les formats dont la définition verticale (nombre de lignes) est égale
ou supérieure à 720 pixels sont classés dans la haute définition.
Balayage progressif

Le balayage progressif (progressive scan) est un mode


d'affichage utilisé par les écrans électroniques. On l'oppose
en général au balayage entrelacé. Ce type de balayage est
utilisé notamment par les écrans d'ordinateurs et les
téléviseurs haute définition.
Le principe du balayage progressif est d'afficher la totalité de
l'image en une seule fois, ce qui l'oppose au balayage entrelacé,
dans lequel les lignes impaires de l'image sont affichées, suivies
ensuite des lignes paires. Chaque trame correspond donc ici à
une image entière, et la fréquence de rafraîchissement de l'écran
correspond également à la cadence d'image.
balayage entrelacé

balayage entrelacé, est une technique destinée à doubler le


nombre d'images perçues par seconde sans augmenter le débit.
Elle consiste à afficher dans une trame les lignes impaires
d'une image puis dans la trame suivante les lignes paires de
l'image suivante. L'entrelacement a d'abord été utilisé pour
réduire l’impression de scintillement sur un écran à faible
fréquence de balayage (50–60 Hz).
Les caméras et caméscopes

• Première projection par les frères Lumière (Auguste


et Louis) à Lyon en 1895
• Première caméra « grand public» en 1922 par
Charles Pathé : 16 mm et 25 img/sec
• 1932 : 8 mm par Kodak
• 1965 : super 8 par Kodak
• 1967 : premier « caméscope » par Sony • 1970 :
premier magnétoscope 1" par Ampex et Sony.
l’eclairage
Comment la mesurer/quantifier ?
– le flux lumineux : puissance lumineuse emise par
une source en lumen. Il depend de la longueur
d’onde !!
• 1 watt a 555 nm (vert-jaunatre) = 683 lumens
• 1 watt a 610 nm (orange) = 344 lumens
– l'éclairement lumineux : flux lumineux recu par
unite de surface calcule en lux.
– l'éclat percu par l'oeil humain d'une source
lumineuse se mesure en candela.
Caracterisation d’une lampe

Une lampe est caracterisee par


– Sa puissance (Watt)
– Son efficacite lumineuse (lumens par Watt)
– Son IRC (Indice de Rendu des Couleurs) :
• La capacite d’une lampe a nous faire distinguer toutes
les couleurs des objets qu’elle eclaire.
• La valeur maximale d’IRC est 100 (lumiere du soleil)
– Sa temperature de couleur (Kelvin) :
• De 2700°K pour les lampes a incandescence a 5600°K
pour les neons lumieres du jour
HD
La haute définition (HD) désigne une classification
d'équipements de télédiffusion et de vidéo numérique
ayant une définitiond'au moins 720p (1280 par
720 pixels). Elle est l'évolution du SDTV.
Le terme HD s'étend à l'ensemble des techniques
audiovisuelles numériques telles que le HDV (grand
public), le HDCam, la télévision (DVB-T, DVB-S,
DVB-C), les supports disque Blu-ray, HD DVD,
l'enregistrement multimédia sur disque dur, ainsi qu'au
stockage de données informatiques.
Les industriels considèrent qu'un équipement vidéo peut être
qualifié HD dès lors qu'il traite ou exploite un signal vidéo
dont la définition verticale (nombre de lignes) est supérieure
à 720 pixels.
Par exemple, un film DVD avec une définition de 576 lignes
(codage MPEG-2 PAL) exploite un volume moyen de 4 à 8
Go, alors qu'en Haute Définition, le même film, d'une
définition plus que doublée, exploitera des fichiers pouvant
atteindre 9 à 50 Go à la norme MPEG-4, selon le
taux de compression appliqué. La haute définition nécessite
un écran compatible avec celle-ci.
Changer la définition des téléviseurs, des supports vidéo et
des moyens de télédiffusion engendre des surcoûts, tant
pour le consommateur que pour les diffuseurs et opérateurs
techniques. La Haute Définition apporte certaines
améliorations et avantages sur des plans distincts
la résolution 480p, correspondant à la résolution d'un film
en DVD sur un téléviseur cathodique (720 x 480 pixels,
format 16/9).
- la résolution 720p, correspondant à la norme d'affichage HD
Ready (1280 x 720 pixels, format 16/9).
- la résolution 1080p, correspondant à la norme
d'affichage Full HD (1920 x 1080 pixels, format 16/9).
- la résolution 2160p, correspondant à la norme
d'affichage UHDTV1 (3840 x 2160 pixels, format 16/9),
couramment appelée UHD-4K ou simplement 4K.
- la résolution 4320p, correspondant à la norme
d'affichage UHDTV2 (7680 x 4320 pixels, format 16/9),
couramment appelée UHD-8K ou simplement 8K.

Vous aimerez peut-être aussi