Vous êtes sur la page 1sur 108

Ecole Nationale des Sciences Appliquées,

Kenitra

Traitement d’images

Tarik BOUJIHA

Année Universitaire 2020/2021


Fonctionnement du cours:

• Chaque séance de 1h30

Travaux dirigés:

• Chaque séance de 1h30

Travaux pratiques:

• Programmation sous Matlab, C/C++.


• Complétés par des périodes de pratiques libres

Evaluation:

• Examens théorique ………………......%


• Travaux pratiques……………………....%
• Projet appliqué…………………………...%
2
Traitement d’images !???

Un ensemble de méthodes dont l’objectif est:

• Transformer l’image: améliorer l’apparence ou coder de manière plus


compacte en vue d’une transmission

• Extraction de l’information: Reconnaissance automatique de l’écriture,


de visage ou la détection d’objets, …

• Traitement de scène en temps réel: La perception par des automates

Exemple: Navigation autonome des véhicules.

• Restauration : Corriger les défauts liés à l’acquisition

• Domaine très vaste: il trouve de plus en plus d’applications


3
Introduction aux images numériques

 Domaines d’applications

 TI et les autres disciplines

 Définitions

 Schéma d’un système de traitement d’images

 Formats d’images

 Images couleurs

4
Domaines d’applications

Transformation ou amélioration d’image

5
Domaines d’applications

Retouche d’image

6
Domaines d’applications

Création de panoramas

Photo au format allongé, c’est également un angle de champ vaste

7
Domaines d’applications

Imagerie médicale

Rehaussement du
contraste

Détection des tumeurs


cancéreuses

8
Domaines d’applications

Imagerie médicale

Picture Archiving and Communication System (Pacs)

9
Domaines d’applications

Imagerie médicale

Objectifs du PACS

 Améliorer l’accessibilité

 Images accessibles rapidement dès leur production


 Même image accessible en plusieurs endroits
 compte rendu rattaché aux images
 comparaison et suivi des différents examens d'un patient

 Permettre la disparition des supports de l'image tels que le film,


le papier:
 Acte économique
 Acte écologique
 Acte organisationnel

10
Domaines d’applications

Imagerie médicale

Aide au diagnostic

Examen

Système de recherche Base de données

Cas sélectionnés par


le système
+ + +
informations + informations 11
informations
informations
Domaines d’applications

Route intelligente

Localisation de voiture Radars automatiques

Reconnaissance des
panneaux routiers

12
Domaines d’applications

Télédétection

• Météo
• Cartographie
• Analyse des ressources terrestres
• Etc.

13
Domaines d’applications
Analyse d’images de documents

Reconnaissance de caractères Séparation texte/dessin

Reconnaissance de structure fine d’un document

14
Domaines d’applications

Autres domaines d’applications

 Domaine industriel: le contrôle automatique par la vision


est de plus en plus répandu dans les chaînes de fabrication.

15
Domaines d’applications

Autres domaines d’applications

 Domaine militaire: des dispositifs de plus en plus


performants, capable de détecter et de reconnaître
automatiquement leurs cibles.

16
Domaines d’applications

Autres domaines d’applications

 Sécurité:

Reconnaissance d’empreintes

Détection de mouvement
Vidéosurveillance

17
Domaines d’applications

Autres domaines d’applications

 Sécurité:

Reconnaissance de visage

18
Domaines d’applications

Autres domaines d’applications

 Multimédia:

• Indexation, restauration d’images, fouille (descripteurs)


• Reconnaissance d'action dans un match de tennis (œil de faucon)
. Recherche d'images dans une base de données à partir d'une
requête visuelle

19
Traitement d’images et les autres disciplines

Analyse numérique
Analyse des Théorie de
données l’information

Traitement
Programmation Statistique
d’images

Electronique Théorie du signal

Optique

20
Définitions

 La vision humaine est une source d’inspiration pour les chercheurs


en traitement d’images et vision par ordinateur mais ...

 Le système de vision humain est extrêmement complexe

 On voit plus avec le cerveau qu’avec les yeux

 Rôle du cerveau :
 Intègre les vues gauche et droite (stéréovision) pour recréer
l’information de profondeur

 Effectue la segmentation, la reconnaissance et l’interprétation

 Est spécialisé dans la reconnaissance de visages

 La vision par ordinateur désigne la compréhension d'une scène ou


d'un phénomène à partir d'informations « image ».
21
Définitions

Du SVH au système de vision par ordinateur

Remplacer l’œil humain par des caméras.


 Elle ne souffrent pas de fatigue.
 Sont plus efficaces
 Mais ont une plage d’utilisation (en terme de luminosité) pour l’instant
plus petite que celle de l’œil.

Remplacer la vision humaine fait face à de nombreuses problématiques.

Donner à un dispositif électronique et informatique la capacité à interpréter


l’image pour en retirer les informations qu’elle souhaite.

22
Définitions
Concevoir un système de vision
Trois étapes:
 Définition du cahier de charges
 Etude de la faisabilité:
 Conception de l’éclairage.
 Choix du capteur.
 Conception logicielle.
 tests
 Mise en production
 Un capteur est un semi conducteur qui convertit la lumière en tension
électrique en fonction du degré de luminosité

Phénomène physique Grandeur mesurée Capteur


Lumière visible Flux photonique émis ou réfléchi CCD, CMOS, Scanner,..

Rayonnement Infra-rouge Luminance Infra-rouge (chaleur) Bolomètres,…

Echo ultrasonore Distance Echographie

Résonance magnétique Présence d’un corps chimique IRM

Echo électromagnétique Distance Radar


23
Définitions

Chaîne de traitement des images:

 Acquisition: Convertir l’image d’une vue réelle en une image numérique

 Pré-traitement: Préparer l’image au traitement et à l’analyse (filtrage,


simplification, changement d’espace couleur, …).

 Traitement:

* Traitement bas-niveau : l’image est décrite de manière numérique


(structurelle), il n’y a pas de liens avec la réalité qu’elle représente.
* Traitement haut-niveau : l’image est décrite de manière symbolique,
un lien existe avec la scène observée.

 Analyse (décision ou interprétation): Interpréter les informations et


décider d’une action à engager : l’image est alors décrite de manière
sémantique.

24
Définitions

 Qu’est-ce qu’une image: point de vue mathématique.

 une image avant numérisation est un signal continu 2D ou 3D


(en tenant compte de la profondeur de l’image ou de temps)

 Une image peut donc être vue comme une fonction :


I : S ---------> Ω
(x, y) ---------> I(x, y)

Dans le domaine continu :


S = [0, nl-1]×[0, nc-1]
Ω = [0, ValMax]

Dans le domaine discret :


S = {0,1,…, nl-1}×{0,1,…, nc-1}
Ω = {0,…, Ng}
25
Définitions

D’un signal continu à un signal discret


Signal continu (référence) Signal échantillonné

Étape 1

Echantillonnage: Les valeurs du signal sont prises régulièrement à


une période d’échantillonnage Te. Signal quantifié (4 niveaux)
Codage (4 niveaux  2bits)

Étape 2
Étape 3

Quantification : l’amplitude du signal échantillonné est


représentée par un nombre fini de valeurs d’amplitude
(niveaux de quantification). 26
Définitions
 Qu’est-ce qu’une image numérique:
image numérique = échantillonnage + quantification + codage

L’ échantillonnage est le procédé de discrétisation spatiale


d’une image consistant associer à chaque pixel une valeur
unique

Quantification: désigne le nombre de valeurs différentes que


peut prendre un pixel
27
Définitions

Codage : les niveaux de quantification sont codés sous la forme


d’un mot binaire sur k bits ( 2k niveaux possibles).

1 BITS 2 BITS 3 BITS

4 BITS 5 BITS 8 BITS

 Attribuer une valeur numérique pour chaque pixel de l'image.

 Le nombre de niveaux de quantification de la luminance est


généralement de 256, chaque niveau étant alors codé sur 8
bits. 28
Définitions

Résolution

 La résolution correspond à la finesse de la description spatiale

 La résolution d'une image est définie par un nombre de pixels par unité de
longueur de la structure à numériser en dpi (dots per inch) ou ppp (points par
pouce)
1 inch= 1 pouce = 2,54 cm

Définition
 La définition est le nombre de pixels que comporte une image
numérique en longueur et en hauteur.
29
Définitions

Comment calculer une résolution / Définition ?

Il faut mettre en relation 3 paramètres :

 Les dimensions physiques de l’image finale sur un écran.

 Les dimensions physiques de l’image source ( page à scanner).

 Le nombre de points par unité de mesure.

Exemple:

 Le nombre de pixels par unité de mesure est de 300 dpi.

 Les dimensions physiques de l’image source est de 30 cm ×20 cm.

 La taille en pixels du fichier image est 3543*2362 pixels

30
Schéma d’un système de traitement d’images

Monde réel

Acquisition Scène physique  représentation numérique

Suppression du bruit, augmentation de


Pré-Traitement contraste, lissage, rehaussement de
contours  description structurelle de
l’image.

Segmentation Créer une partition de l’image en région

Analyse Extraction de l’information

Stockage
Visualisation
ou/et
Transmission
31
Schéma d’un système de traitement d’images

32
Différents types d’image

 Image Binaire: les pixels sont représentés par deux états logiques 0
(noir) et 1 (blanc). C’est un codage de l’image sur 1 bit.

Un pixel correspond à un bit: en noir et blanc


33
Différents types d’image

 Image en niveaux de gris : chaque pixel est codé sur N bits, ce qui lui
affecte des valeurs entières comprises entre 0 (noir) et 2N-1 (blanc).

Un pixel correspond à 8 bits (soit un octet): 256 niveaux de gris


34
Différents types d’image

 Image Couleur (RVB): chaque pixel correspond à la synthèse additive de 3


images, rouge, verte et bleu. Chaque pixel est donc codé sur 3× N bits.

Un pixel correspond à 24 bits: 16 777 216 couleurs

35
Différents types d’image

 Image indexée : la couleur ou l’intensité des niveaux de gris est


déterminé par un index auquel correspond la couleur en question.

Un pixel correspond à un indice


36
Voisinage d’un pixel

Voisinage d’un pixel, pavage ou maillage est l'arrangement géométrique des


pixels dans l'image.
On utilise généralement un des 3 types:
 le maillage carré qui correspond plus à la réalité.
 le maillage rectangulaire.
 le maillage hexagonal (maillage de référence pour le domaine de la
morphologie mathématique).

pavage rectangulaire : pavage hexagonal :

4-voisins 8-voisins
6-voisins
37
Voisinage d’un pixel

Distance: Tout pixel d'une image est caractérisé par un couple de


coordonnées (x,y). On peut donc calculer des distances entre pixels.
Les distances les plus courantes sont (pour deux pixels P(i,j) et Q(k,l)):

 Distance Euclidienne :  ( P(i, j ), P(k , l ))  (i  k ) 2  ( j  l ) 2

 Distance de Manhattan :  ( P(i, j ), P(k , l ))  i  k  j  l

 Distance « tour d’échiquier » :  ( P(i, j ), P(k , l ))  max( i  k , j  l )

j l
Tour d'échiquier
i
Euclidienne

Manhattan

k
38
Taille d’un pixel

Taille écran en (cm*cm)

14" soit 35,56 cm 17" soit 43,18 cm 19" soit 48,26 cm 21" soit 53,34 cm

28,8 cm × 21,6 cm 34,4 cm × 25 cm 38,4 cm × 28,8 cm 42,4 cm × 31 cm

Définition de l'écran Taille pixel en (mm*mm)

VGA(640*480 ) 0,45 × 0,45 0,54 × 0,54 0,60 × 0,60 0,66 × 0,66

XGA(1024*768) 0,28 × 0,28 0,34 × 0,34 0,37 × 0,37 0,41 × 0,41

SXGA(1280*1024) 0,22 × 0,21 0,27 × 0,25 0,30 × 0,28 0,33 × 0,31

UXGA(1600*1200) 0,18 × 0,18 0,21 × 0,21 0,24 × 0,24 0,26 × 0,26

39
Images Couleur

Couleur = sensation physiologique liée à trois facteurs :

 la lumière qui éclaire une scène,

 la nature des objets de la scène,

 le système visuel de l’observateur.


40
Images Couleur
 la lumière:
onde électromagnétique, se propageant dans l'espace et le temps.
• Ondes caractérisées par leur longueur d'onde λ,
• Trajet parcouru par l'onde pendant une période T, et leur
fréquence υ; λ = c /υ , c est la vitesse de la lumière dans le
vide , soit environ 300 000 km/s.

Les particules de la lumière sont appelées les photons

violet : 0.4 - 0.446 mm


Chaque longueur d'onde bleu : 0.446 - 0.500 mm
correspond a une vert : 0.500 - 0.578 mm
sensation perceptive jaune : 0.578 - 0.592 mm
appelée "couleur". orange : 0.592 - 0.620 mm
rouge : 0.620 - 0.7 mm

41
Images Couleur

 La nature des objets :


 les objets qui produisent de la lumière, comme le Soleil, les
flammes, les lampes, etc.

 les objets qui ne sont visibles que s'ils sont éclairés (invisibles
dans l'obscurité).

42
Images Couleur

 La nature des objets :

 Un corps de couleur blanche , renvoie en principe toutes les radiations.

 Un corps de couleur noir absorbe au contraire toutes les radiations.

 Selon l’absorption des longueurs d’ondes, la couleur de l’objet est différente.

La couleur d’un objet est liée à la lumière qui


l’éclaire.
(objet qui paraît de couleur jaune à la lumière du jour, éclairé
par une lumière rouge, ce corps paraîtra rouge clair. Eclairé
par une lumière verte, il paraîtra brun).

43
Images Couleur
 Le système visuel de l’observateur :
L’œil humain est constitué de trois types de photorécepteur (les cônes),
chacun particulièrement sensible à une longueur d’onde du domaine
visible :
 Les Cônes L sensibles au rouge (ondes longues : 700 nm)
 Les Cônes M sensibles au vert (ondes moyennes : 546.1 nm)

 Les Cônes S sensibles au bleu (ondes courtes : 438.8 nm)

Grâce à la superposition de trois sources colorées à différentes intensités,


notre œil est capable de distinguer des millions de couleurs.

Pas de couleur sans lumière : la nuit tous les chats sont gris 44
Images Couleur

 Colorimétrie:

Ensemble des techniques qui permettent la


définition, la comparaison et l’étude des
couleurs.

 Trichromie:

Le principe est de reproduire un très grand


nombre de couleurs à partir de trois couleurs
primaires

45
Espace colorimétriques

 La question principale que nous allons considérer dans la


suite est :

« Comment représenter ces couleurs dans un espace qui soit a


la fois facile a manipuler et qui soit pertinent en termes
d'analyse d'images couleur ? »

 Toute couleur peut être représentée comme une combinaison


linéaire de trois primaires C1, C2 et C3.

 Beaucoup d'espaces de couleur :


Espaces définis par la CIE (Commission Internationale de l'Éclairage) :
RGB, XYZ, HSV, YUV, Lab, ...

46
Espace colorimétriques

 Espace RGB :

 L'espace RGB est l'espace vectoriel engendré par les 3 composantes


primaires (Rouge, Vert, Bleu).

 RGB est un espace permettant de définir les couleurs de manière


additive.

 L’espace RGB reste de loin le plus utilisé et le plus simple à manipuler.

 Les cartes d’acquisition, les caméras, les écrans,… effectuent leurs


échanges d’information uniquement en utilisant le triplet (R,G,B).

 La relation pour convertir une image couleur en niveau de


gris d’après CIE est :
Ng = 0.299R + 0.587G + 0.114B
 Limite :
l’impossibilité de reproduire un certain nombre de couleurs par superposition
des trois spectres.
47
Espace colorimétriques

 Espace XYZ :
L'espace XYZ (CIE 1931) est défini à diagramme CIE
partir d'une transformation linéaire sur Triangle XYZ (spectre visible)
l'espace RGB telle que toutes les
couleurs du spectre visible soient
contenues dans le triangle xyz.

Transformation des coordonnées RGB en


coordonnées XYZ:

 X   2,769 1,7518 1,1300  R 


    
  
Y  1, 000 4,5907 0, 0601 G 
 Z   0,000 0,0565 5,5943  B 
    

Triangle de maxwell

48
Espace colorimétriques

 Espace HSV ou TSV :

Le principe de l'espace HSV est de caractériser les couleurs de façon plus


intuitive, conformément à la perception naturelle des couleurs, en termes
de :

1- Teinte (Hue): déterminée par la longueur d’onde dominante (rouge,


jaune ,...).

2- Saturation : c'est le taux de pureté de la couleur, qui doit varier


entre la pureté maximale (couleur éclatante) et l'achromatisme
(niveau de gris).

3- Valeur (value): c'est la mesure de l'intensité lumineuse de la


couleur, qui doit varier entre le noir absolu et le blanc.

49
Espace colorimétriques

Le passage de RGB à HSV se fait par une transformation non linéaire.


Plusieurs opérateurs ont été proposés pour la conversion.

 Espace HSV ou TSV :

Image couleur

50
Composante Valeur Composante Teinte Composante Saturation
Modèles et outils fondamentaux

 Le modèle linéaire

 Le modèle fréquentiel

 Le modèle statistique

 …

51
Modèles et outils fondamentaux

 Le modèle linéaire

Dans le modèle linéaire, la structure mathématique sous-jacente est


l'Espace Vectoriel. Les opérateurs fondamentaux sont ceux qui
préservent la structure d'espace vectoriel, c'est-à-dire les applications
linéaires :

f (I  J )  f (I )  f ( J )
f (aI )  af ( I )

Pour les images, ces opérateurs correspondent aux convolutions

52
Modèles et outils fondamentaux

 La convolution

Soit I une image numérique.


Soit h une fonction de [x1,x2]×[y1,y2] à valeurs réelles.

La convolution de I par h est définie par :

( I * h)( x, y )    h(i, j ) f ( x  i, y  j )
i j

La fonction h est dite le noyau de convolution

Propriétés de la convolution

Commutativité f *g = g * f
Associativité (f *g) * h = f * (g* h)
Distributivité f * (g+ h) = (f *g) + (f*h)
53
Modèles et outils fondamentaux

 Le modèle fréquentiel

Le modèle fréquentiel tend à décrire l'image en termes de structures


périodiques, en la décomposant dans une base de fonctions périodiques
simples, comme des sinusoïdes.

La transformée de Fourier

La transformée de Fourier permet la décomposition d'un signal f(x,y) en


combinaison linéaire de sinusoïdes complexes, dont les coefficients F[u,v]
dit coefficients de Fourier, fournissent des informations sur les fréquences
(u,v) et permettent des manipulations dans le domaine fréquentiel.

54
Modèles et outils fondamentaux

 Le modèle statistique

On s'intéresse dans ce modèle aux propriétés statistiques des images :

 La distribution des valeurs prises par les pixels,

 La corrélation existant entre les pixels spatialement proches,

 La fréquence d’occurrence de certaines structures spatiales,


 …

les mesures statistiques fournissent des grandeurs et fonctions empiriques


sur lesquelles peuvent s’appuyer des modèles probabilistes utilisés par les
algorithmes d’analyse d’images.

55
Modèles et outils fondamentaux

 Histogramme
 L’histogramme est une fonction H(x) permettant de
donner la fréquence d’apparition des différents
niveaux de gris x qui composent l’image.
 En abscisse on représente les niveaux de gris et en
ordonnée leurs fréquences d’apparition.
 L’histogramme des niveaux de gris nous informe sur
la concentration de l’image.
 Pour une image couleur, il y a un histogramme par
composante

Image originale Niveau de gris

il fournit diverses informations comme les statistiques d’ordre1.


56
Modèles et outils fondamentaux

 Histogramme cumulé

Image originale Histogramme cumulé

l’histogramme cumulé représente le nombre de pixels dont le niveau de gris


<= x .

57
Modèles et outils fondamentaux
quelques traitement d’analyse effectués à partir de l’histogramme :

 Normalisation

la normalisation de l’histogramme, ou expansion de dynamique, est une


transformation affine du niveau de gris des pixels de telle sorte que l’image
utilise toute la dynamique de la représentation.

1
D
2
f (i, j )  [ f (i, j ) _ N g min ] 
N g max  N g min

58
Modèles et outils fondamentaux

 Egalisation d’histogramme

l’égalisation d’histogramme est une transformation de niveau de gris dont le


principe est d’équilibrer le mieux possible la distribution des pixels dans la
dynamique (l’obtention d’un histogramme plat).

HC[ f (i, j )]
f (i, j )  [2 _ 1] 
D

nl * nc

59
Modèles et outils fondamentaux

 Luminance ou brillance de l’image:

 La luminance (ou brillance) est définie comme la moyenne de tous


les pixels de l’image.

 Pour augmenter la luminance, il suffit de décaler l’histogramme :


A(i,j) = B(i, j) + b

 Dans les deux images suivantes, seule la luminance est différente

60
Modèles et outils fondamentaux

 Contraste de l’image: Peut être défini de plusieurs façons

 Variance des niveaux de gris (N nombre de pixels dans l’image)

 Variation entre niveaux de gris max et min

 Modifier le contraste d’une image c’est multiplier chaque valeur


des pixels par un facteur.

61
Modèles et outils fondamentaux

 Segmentation

La segmentation d’images est un domaine vaste où l’on retrouve de très


nombreuses approches:

– Le seuillage
– La détection de frontières

– La recherche de régions
– L’approche de la classification

62
Modèles et outils fondamentaux

Addition des images

 Soient f et g sont deux images, on peut définir l’addition R pixel


à pixel de ces deux images par :
R(x,y) = f(x,y) + g(x,y)
 L’addition d’images peut permettre :
 De diminuer le bruit d’une vue dans une série d’images
 D’augmenter la luminance en additionnant une image avec
elle-même

+ =

63
Modèles et outils fondamentaux
Soustraction d’images
• On peut définir la soustraction S pixel à pixel de deux images f et
g par :
S(x,y) = f(x,y) - g(x,y)
• La soustraction d’images peut permettre:
– Détection de défauts
– Détection de mouvements

64
Modèles et outils fondamentaux
Multiplication d’images
 La multiplication M d’une image f par un ratio (facteur) peut se définir
par :
M(x,y) = f(x,y) * ratio
 La multiplication d’images peut permettre d’améliorer le contraste ou
la luminosité

x 1.5 =

x 1.2 =

65
Modèles et outils fondamentaux
Opérations logiques ET, OU et Ou exclusif

Images Binaires

 ET logique: intersection logique

 OU logique: Union logique

 OU exclusif: exclusion logique

66
Modèles et outils fondamentaux
Changement d’échelle
 Interpolation du plus proche voisin par copie des pixels

12 12 20 20
12 20 Zoom
12 12 20 20
18 14 18 18 14 14
18 18 14 14
 Interpolation bilinéaire :

 Plus complexe
 Offre de bien meilleur résultats
P(1,1) n1 P(1,2)
 n1 = (p(1,1)+p(1,2))/2
 n2 = (p(1,1)+p(2,1))/2 n2 n3 n4
 n3 = (p(1,1)+p(1,2)+p(2,1)+p(2,2))/4
 n4 = (p(1,2)+p(2,2))/2 P(2,1) n5 P(2,2)
 n5 = (p(2,1)+p(2,2))/2

67
Modèles et outils fondamentaux
Changement d’échelle

Image originale

Interpolation du plus proche voisin

Interpolation bilinéaire 68
Filtrage et détection de contour

69
Pourquoi filtrer une image?

 Pour réduire le bruit dans l’image (sujet de ce chapitre)

 Pour détecter les contours d’une image (sujet du chapitre


suivant)

70
Filtrage

Le bruit d’image:

Le bruit d’image est la présence d’informations parasites qui


s’ajoutent de façon aléatoire aux détails de la scène
photographiée numériquement.

71
Filtrage
Les sources de bruit

 Bruits liés aux conditions de prise de vues:

 Flou de bougé

 Problèmes liés à l’éclairage


de la scène observée

72
Filtrage
Les sources de bruit

 Bruits liés au capteur:


 Capteur mal réglé
 Capteur de mauvaise qualité
 Types de capteur (radar, laser, microscope électronique…)

 Bruits liés à l’échantillonnage ET/OU à la quantification

 Bruits liés à la nature de la scène :


 Nuage sur les images satellitaires
 Poussières dans les scènes industrielles
 Brouillard pour les scènes routières

73
Filtrage
Modèles de bruit

Flou de bougé Bruit multiplicatif

Un bruit gaussien ou bruit


blanc

Poivre et sel Bruit additif 74


Filtrage

Définition
Le principe du filtrage est de modifier la valeur des pixels d'une image, généralement
dans le but de:

 Améliorer la perception de certains détails,


 Réduction du bruits,
 Compenser certains défauts du capteur.

En pratique, il s'agit de créer une nouvelle image en se servant des valeurs des pixels
de l'image d'origine, i.e obtenir une image qui soit la plus proche possible de l’image
idéale qui aurait était obtenue si le système d’acquisition était parfait.

Il ne faut pas confondre le filtrage avec toutes les transformations de l'image d'origine :
zoom, découpage, …

75
Filtrage

Objectif :

 Le lissage: il s’agit de supprimer le bruit, ou les petites variations, présent dans une
image.

 La restauration d’images : a pour but de supprimer les dégradations subies par une
image à l’aide de connaissance a priori sur ces dégradations.

 L’amélioration d’images : consiste à modifier les caractéristiques visuelles de l’image


pour faciliter son interprétation par l’oeil humain.

76
Filtrage

Type :
 Filtrage global: chaque pixel de la nouvelle image est calculé en prenant en compte
la totalité des pixels de l’image de départ. Le passage du domaine spatial au domaine
fréquentiel .

 Filtrage local: chaque pixel de la nouvelle image est calculé en prenant en compte
Seulement un voisinage du pixel correspondant dans l'image d'origine.

77
Filtrage
catégories :
Deux catégories de filtres locaux :
 Filtres linéaires exprimés sous forme de convolution
 Filtres non linéaires: une forme non linéaire

généralité :
Il est d'usage de choisir un voisinage carré et symétrique autour du pixel considéré.

Il est caractérisé par: la forme, la taille et l’algorithme de calcul de la valeur finale

un voisinage de 7×7 pixels un voisinage de 3×3 pixels

Pixel à traiter un voisinage de 5×5 pixels


La somme des coefficients du filtre doit être égale à 1 => ne pas modifier la luminance
de l’image
78
Filtrage

Principe du filtrage linéaire

Considérons une image I et un filtre bidimensionnel h.

Le filtrage de l’image I par le filtre h est une image F dont les luminances sont
données par :

F ( x, y )   h ( a , b ) I ( x  a , y  b )
a ,b

Si le filtre est de taille (2n+1)*(2n+1) alors les indices a et b varient de – n à + n.

79
Filtrage
Exemple:

Masque ou Noyau de convolution

Image originale

Les nouvelles valeurs sont calculées par le produit scalaire entre le noyau de convolution
et le voisinage du pixel.

La nouvelle valeur = (1×12 + 2×20 + 1×8 + 2×13 + 5×4 + 2×10 + 1×16 + 8×2 + 1×22) = 180

Ou = 180/16 = 11 (si normalisé)


La nouvelle valeur du pixel est 11 80
Filtrage

Réponse fréquentielle d’un filtre

La réponse fréquentielle d’un filtre est donnée par :

H(w1,w2)  h(n1,n2)e j(w1n1w2n2)


n1,n2

Ou w1 et w2 varient de – π à + π. Les variables w1 et w2


représentent respectivement la fréquence ligne et la fréquence
colonne.

81
Filtrage

Exemple:
 1 1 1 
 
h1 1 8 1 H(w1, w2)  9  (2 cosw1  1)(2 cosw2  1)
 
 1 1 1 
 

 1 1 1 
 
h2 1 9 1 H2(w1, w2) 10  (2 cosw1  1)(2 cosw2  1)
 
 1 1 1 
 

82
Filtrage
Problèmes:
Effets de bords: On ne peut pas calculer
directement la nouvelle valeur d’un pixel situé sur le
bord de l’image.

Solution:
Plusieurs méthodes existent pour traiter les bords
d’une image :

 Zero-padding : le voisinage en dehors de l’image est considéré comme un


ensemble de pixels à valeurs nulles.

 Duplication : Le voisinage en dehors de l’image prend la valeur du pixel de


l’image le plus proche.

 Négliger les bords

83
Filtrage
Passe-bas:

 Réduit le bruit
 Réduit les faibles détails de l’images
 Créé du flou (haute fréquence)

Exemple 1: Filtres Moyenneurs


Le choix: dépend de l’importance à donner au pixel d’analyse et à ses voisins

Propriété :
1. la valeur d’un pixel est relativement similaire à celle de ses voisins
2. La somme des coefficients du filtre =1 (Luminance conservée)
3. Plus d est grand, plus le lissage sera important, et plus l’image filtrée
perd les détails de l’image originale

Si tous les coefficients du noyau sont positifs : le filtre est passe-bas

84
Filtrage

Exemple 1: Filtres Moyenneurs

Image originale Image filtrée


 Rend l’image floue, en particulier les contours
 Élimine les dégradations locales de faibles dimensions
85
Filtrage
Exemple 2: Filtres Gaussien

Le filtre Gaussien est défini par:

1 x2  y2
h ( x, y )  . exp( )
2 2
2 2

σ détermine la largeur de la cloche


Gaussienne

 Le filtre gaussien donne un meilleur lissage et une meilleure réduction du bruit


que le filtre moyenneur.
 Les pixels près du centre ont un poids plus important que ceux des autres.
 En général, un filtre Gaussien avec :
 σ<1 est utilisé pour réduire le bruit,
 σ>1 est utilisé pour rendre l’image floue.
 A noter que plus σ est grand, plus la cloche Gaussienne est large et plus
le flou appliqué à l’image sera marqué.

86
Filtrage
Exemple 2: Filtres Gaussien

  1.0 avec taille 5x5   1.6 avec taille 7x7

 4 18 29 18 4  2 7 12 14 12 7 2
   
 18 80 132 80 18  7 18 32 38 32 18 7 
1 
1  12 32 57 69 57 32 12 
29 132 218 132 29  14 38 14 
1344  
1279 12
38 69 84 69
 18 80 132 80 18  32 57 69 57 32 12 
 4 18 29 18 4   
  7 18 32 38 32 18 7 
2 7 2 
 7 12 14 12

Avantage :
 limite l’effet de flou (contours mieux conservés)
 Filtre séparable: possibilité d'obtenir le même résultat en filtrant les lignes
puis les colonnes avec un même masque 1D

87
Filtrage
Exemple 3: Filtre médian (non linéaire)

Les filtres moyenneurs ont tendance à rendre l'image floue et donc à perdre de
l'informations sur les contours caractérisés par des fortes variations d'intensité.
Pour diminuer cet effet, on ne moyenne plus sur le voisinage mais on prend la valeur
médiane sur ce voisinage.
Valeurs triées dans un tableau

12 13 14 15 18 19 21 27 29
Valeur médiane

15 18 14
29 27 13 18
12 19 21
Zone de l’image avant filtrage Zone de l’image après filtrage

88
Filtrage
Exemple 3: Filtre médian (non linéaire)

 Filtre non-linéaire.
 Élimine le bruit impulsionnel.
 Préserve l'information de contour
 peut être appliqué itérativement.

Application du filtre médian

Image bruitée «Poivre et Sel » Image filtrée

89
Filtrage
Passe-haut:

 Accentue les contours ( rehaussement)


 Augmente les détails de l’images
 Amplifie le bruit

Exemple 1:
0 -1 0 Si le noyau contient des coefficients positifs et
négatifs. Le filtre correspondant a en partie ou
-1 5 -1 totalement un comportement de type passe-haut

0 -1 0

90
Filtrage
Exemple 1: Laplacien
Principe : Le Laplacien mesure la rapidité des changements d'intensité sur le voisinage
afin de rendre les contours visible

Le coefficient central est ajusté de manière à ce que la somme


des coefficients du filtre soit égale à zéro.

91
Pourquoi filtrer une image?

 Pour réduire le bruit dans l’image (sujet de ce chapitre)

 Pour détecter les contours d’une image (sujet du chapitre


suivant)

92
Détection de contour

Définition de contour
L’image est représentée par son intensité lumineuse (la fonction d’intensité de
l’image).
Les contours d’une image correspondent aux plus importantes variations de sa
fonction d’intensité.
Les contours représentent la partie la plus informative de l’image.

f Lieu d’une forte transition

A B

A B profil

Les contours représentent des hautes fréquences de l’image .

93
Détection de contour

Rôle

Le rôle de cette étape dans la chaîne de traitement est l’extraction de contours.


C’est une étape préliminaire de nombreuses applications de l’analyse d’images.
Il existe plusieurs modèles de contours:

Marche escalier Toit Pointe

94
Détection de contour

Détection de contour

La détection de contours est une technique de réduction d’information et de


reconnaissance des formes. Elle consiste à transformer l’image en un ensemble
de courbes, pas forcément fermées, formant les frontières significatives de
l’image.

Extraction de contours de l’image de LENA

95
Détection de contour
Détection de contour

Profile de l’image

Dérivée première
(Gradient)

Dérivée seconde
(Laplacien)
96
Détection de contour

Approche gradient

Le gradient d’une image I(x,y) est le vecteur :

t
 I I 
I ( x, y )   ( x, y ), ( x, y ) 
 x y 

Il est caractérisé par un module m et une direction θ dans l’image:

I ( x, y ) 2 I ( x, y )
2
I ( x, y ) I ( x, y )
m 
y
  arctan( )
x y x

On distingues deux catégories de méthodes de calcul de gradients:

 Gradients niveaux de gris

 Gradients couleur
97
Détection de contour

 Gradients niveaux de gris

• Le calcul du gradient niveaux de gris est réalisé par les opérateurs


classiques de détection de contours dans des images monochromatiques.

• La détection de contours dans les images niveaux de gris repose sur


une opération de convolution locale de l’image par un filtre 2D donné.

• La convolution consiste à balayer d’une manière séquentielle l’image par


une fenêtre et appliquer le filtre aux pixels afin d’estimer les transitions
significatives dans l’image.

• Quelques opérateurs: Sobel, Prewitt, Roberts, Kirsch, Canny, Deriche,


Shen et Castan, etc.
98
Détection de contour
Approche gradient

 Roberts:
0 0 0   0 0 0
   
hx   0 1 0  hy   0 0 1 
 0 0  1  0 1 0
   

99
Détection de contour
 Prewitt:

-1 0 1 1 1 1
hx= -1 0 1 hy= 0 0 0
-1 0 1 -1 -1 -1

Image originale Détection de contours avec l’opérateur


Prewitt
100
Détection de contour
 Sobel:

1 0 1  1 2 1
   
hx  14  2 0  2 hy  4  0 0 0 
1

1 0  1    1  2  1
  

Image originale Détection de contours avec


l’opérateur Sobel

101
Détection de contour
 Kirsch:

  3  3  3   3  3 5
   
hx  15   3 0  3 
1
hy  15   3 0 5 
1

5 5 5   3  3 5
   

Image originale

Somme des résultats


obtenus avec les 2 noyaux 102
Détection de contour

 Gradients couleur

On distingues trois approches de calcul de gradients dans les


images couleur:

• Approches scalaires

• Approches perceptuelles

• Approches vectorielles

103
Détection de contour

 Approches scalaires

Approches scalaires ou approches marginales effectuent un calcul de


gradient sur chaque composante de l’espace étudié, puis fusionnent les
différents gradients pour donner naissance à un seul gradient couleur.

104
Détection de contour

 Approches perceptuelles

• Elles sont basées sur des caractéristiques du système visuel humain

Exemple: Gradient TLS

1. Conversion de l’espace RGB à l’espace TLS

2. Calcul du gradient sur chaque composante couleur (T, L et S)

3. Calcul de :

4. Calcul de gradient par :

105
Détection de contour

 Approches vectorielles

Elles traitent les couleurs des pixels comme vecteurs et s’efforçent de


garder la nature vectorielle de la représentation de la couleur tout au
long du processus, sans considérer chaque canal de façon indépendante.

Exemple: Gradient Di-Zenzo

Le gradient de Di-zenzo est défini à partir des deux valeurs propres λ1


et λ12 selon l’équation suivante :

106
Détection de contour

Illustration de différents gradients couleur

107
Mini-Projets

1. Tatouage d’images.

2. Compression d'images par La Transformée de Cosinus Directe (DCT).

3. Compression d'images par La méthode de HUFFMAN.

4. Détection de contour par la méthode de Dériche et comparaison avec les méthodes


classiques.

5. Détection de contour par la méthode de Canny et comparaison avec les méthodes


classiques

6. Détecteur Harris

7. Contours actifs

8. Transformée de Hough

9. Morphologie Mathématique des images binaires et aux niveaux de gris.

108

Vous aimerez peut-être aussi