Vous êtes sur la page 1sur 17

Chapitre 5 : Extraction de caractéristiques et représentation Page 46

EXTRACTION DE
CARACTERISTIQUES ET
REPRESENTATION

5.1 Introduction
5.2 Vecteur de Caractéristiques & Hyper-Espace
5.3 Les descripteurs de formes
5.4 Les descripteurs de contours
5.5 Les descripteurs basés sur l’histogramme
5.6 Les descripteurs de texture

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 47

5.1 INTRODUCTION
L'objectif commun des techniques d'extraction et de représentation de caractéristiques est de
convertir les objets segmentés en représentations qui décrivent le mieux leurs principales
caractéristiques. Le type et la complexité de la représentation résultante dépendent de
nombreux facteurs, tels que le type d'image (binaire, en niveaux de gris ou couleur) et du
contexte de l'application finale.

L'extraction de caractéristiques est le processus par lequel certaines caractéristiques


d'intérêt dans une image sont détectées et représentées pour un traitement ultérieur. C'est une
étape critique dans la plupart des solutions de vision et de traitement d'images par ordinateur
car elle marque la transition de la représentation de données picturale (pixels) vers une
représentation quantitative (vecteur de données). La représentation résultante peut ensuite
être utilisée comme entrée pour un certain nombre de techniques de reconnaissance et de
classification de formes, qui vont ensuite étiqueter, classer ou reconnaître le contenu sémantique
de l'image ou de ses objets.

5.2 VECTEUR DE CARACTERISTIQUES & HYPER-ESPACE


Un vecteur de caractéristiques est un tableau (n × 1) qui code les ‘n’ caractéristiques (ou
mesures) d’une image ou d’un objet. Le contenu du tableau peut être symbolique ou numérique.
Mathématiquement, un vecteur de caractéristiques numériques X est donné par :

( )

Où : n représente le nombre total d’entités (mesures)

Le vecteur de caractéristiques est une représentation compacte d'une image (ou d'un objet
dans l’image) qui peut être associé à la notion d’espace de caractéristiques appelé aussi Hyper-
espace permettant la visualisation et l'interprétation des caractéristiques contenues dans ce
vecteur.

EXEMPLE PRATIQUE :
Etant donnés les objets de la figure 5.1 (a) et leurs représentation par les deux caractéristiques :
« Area » et « Perimeter » qui ont été calculées comme suit:

Objet Area Perimeter


Square (Sq) 1024 124
Large Circle (LC) 3209 211
Small circle (SC) 797 105

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 48

Figure 5.1 : (a) Image résultante de la segmentation et (b) Hyper-espace et vecteurs de caractéristiques 2D

Les vecteurs de caractéristiques pour chaque objet sont :


( ) ( ); ( )

La figure 5.1(b) montre les 3 vecteurs de caractéristiques sur un plan 2D ayant comme axes les
deux caractéristiques ‘Perimeter’ et ‘Area’.

INVARIANCE ET ROBUSTESSE DES DESCRIPTEURS


La technique de représentation adoptée et le choix des caractéristiques doivent garantir:
 Une invariance à la translation, à la rotation et à la mise à l'échelle (zoom) ;
 Une robustesse à la mauvaise résolution spatiale, à l'éclairage non uniforme, aux distorsions
géométriques et au bruit ;
 Une solution au problème d’occultation (objet incomplet ou partiellement caché).

5.3 LES DESCRIPTEURS DE FORMES


Nous présentons dans ce qui suit plusieurs fonctionnalités utiles pour les objets binaires.
Un objet binaire est une région connectée dans une image binaire. Mathématiquement, nous
pouvons définir une fonction I(x, y) comme suit:

I(x,y) = {

Dans MATLAB, la fonction ’bwlabel’ implémente l'opération d’étiquetage des régions (pixels
connectés).

5.3.1 LA SURFACE (AREA)


La surface A d’un objet, mesurée en pixels2 est donnée par :

∑∑

Dans MATLAB, cette caractéristique est obtenue de la manière suivante :

[L,nombre]=bwlabel(Ic); % Etiquetage des objets connectés


s=regionprops(L,'Area'); % Calcul des surfaces de chaque objet

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 49

5.3.2 LE CENTRE DE MASSE OU BARYCENTRE (CENTROID)


Les coordonnées C ( du centre de masse (centroid) d’un objet sont données par :

∑∑

∑∑

Dans MATLAB, cette caractéristique est obtenue de la manière suivante :

[L,nombre]=bwlabel(Ic); % Etiquetage des objets connectés


s=regionprops(L,'Centroid'); % Calcul des 2 coordonnées du centroid de chaque l’objet

5.3.3 L’ORIENTATION  DE L’OBJET (ORIENTATION)


L’orientation  représente l’angle que fait l’axe de l’objet (plus petit moment d’ordre 2) avec
l’axe vertical. Il faut noter que l’origine est prise au centre de masse de l’objet (voir figure 5.2).

C (𝑋𝑐 𝑌𝑐

Plus petit moment


d’ordre 2
Figure 5.2 : Orientation  de l’objet

La valeur de  est donnée par la formule :


∑ ∑
∑ ∑ ∑ ∑

Dans MATLAB, cette caractéristique est obtenue de la manière suivante :

[L,nombre]=bwlabel(Ic); % Etiquetage des objets connectés


s=regionprops(L, 'Orientation'); % Calcul de l’orientation de chaque objet

5.3.4 LES PROJECTIONS DE L’OBJET :


Les projections horizontal h(x) et verticale v(x) d’un objet binaire (voir figure 5.3) sont
exprimées par les vecteurs suivants:

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 50

hi(x) =(0,0,2,4,4,3,6,1,0,0)
vi(y) =(0,1,2,4,5,3,1,3,1,0)

Figure 5.3 : Illustration des deux projections horizontale et verticale de l’objet

Dans MATLAB, cette caractéristique peut être obtenue de la manière suivante :

V=sum(I,2) ; % vecteur de projection verticale


H= sum(I,1) ; % vecteur de projection horizontale

5.3.5 LE PERIMETRE (PERIMETER) :


Le périmètre ‘P’ représente la longueur totale du contour fermé de l’objet en pixels. Il
consiste à calculer le nombre total de pixels de l’objet qui a au moins un pixel 0 (background)
comme voisin.

Dans MATLAB, cette caractéristique est obtenue de la manière suivante :

[L,nombre]=bwlabel(Ic); % Etiquetage des objets connectés


s=regionprops(L, 'Perimeter'); % Calcul du périmètre de chaque objet

5.3.6 LA COMPACITE
La compacité ‘Cp’ d’un objet binaire définit le degré de compacité d’un objet (voir figure 5.4)
et est exprimé par :

Où : A est la surface de l’objet et P son périmètre.

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 51

Figure 5.4 : Exemples d’objet compact (a) et d’objet non compact (b)

5.3.7 LE NOMBRE D’EULER


Le nombre d’Euler d’un objet E est défini comme le nombre de composants connectés (C)
moins le nombre de trous (H) (voir exemple de la figure 5.5) :
E=C-H

(a) (b)
Figure 5.5 : Exemples de deux régions avec un nombre d’Euler E égal à ‘0’ (a) et ‘-1’ (b)

[L,nombre]=bwlabel(Ic); % Etiquetage des objets connectés


s=regionprops(L, ''EulerNumber''); % Calcul du périmètre de chaque objet

5.3.8 RAPPORT D’ASPECT (RAPPORT D’APPARENCE)


Le rapport d'aspect (AR) est une mesure de la relation entre les dimensions de la boîte
englobante d'un objet (voir figure 5.6). Il est donné par :

Où (xmin, ymin) et (xmax, ymax) sont les coordonnées des coins supérieur gauche et inférieur droit
du cadre entourant un objet (boite englobante – Bounding box).

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 52

Figure 5.6 : Objets et boites englobantes correspondantes

5.3.9 LES MOMENTS INVARIANTS DE HU [1962]


La formulation générale des moments géométriques dans le domaine discret est donnée par
l’équation suivante:

∑∑

Où :
M: nombre de lignes ;
N: nombre de colonnes :
p et q : des entiers non nuls.
Image entière ou l’objet d’intérêt.

On peut retrouver quelques paramètres déjà vus précédemment tels que:


- L’aire de l’objet (Area): A=  (MN)
- Les coordonnées du barycentre (Centroid):
Ces moments de base sont d’utilité limitée puisqu’ils varient à chaque changement d’origine,
d’échelle et d’orientation de l’objet. Un ensemble de moments invariants serait plus utile.
Ceci peut être dérivé en calculant d’abord les moments centrés par l’équation suivante :

∑∑

Les moments centrés sont utilisés pour le calcul des moments centrés normalisés par
l’expression suivante:

A partir des moments centrés normalisés, nous obtenons un ensemble de sept paramètres
invariants, appelés moment de Hu, qui sont :

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 53

[
[ ]]

[ ]

[ ]
[ ]

Les six premiers paramètres invariants caractérisent la forme avec l’invariance aux translations,
rotations et changements d’échelle. Le septième paramètre invariant permet de distinguer des
formes symétriques (Mirrored image).
Nous montrons ci-dessous (figures 5.7 et 5.8) deux images (niveau de gris et binaire) avec leurs
moments de Hu respectifs.

Figure 5.7 : Tableau des 7 moments de Hu relatifs à 3 objets identiques


avec des postures différentes (objets en niveaux de gris)

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 54

Figure 5.8 : Tableau des 7 moments de Hu relatifs à 3 objets identiques


avec des postures différentes (objets binaires)

5.4 LES DESCRIPTEURS DE CONTOURS


Dans cette section, nous présentons les techniques de représentation et de description à base
de courbes (contours). Ces techniques supposent que le contour (ou la limite) d'un objet peut
être représenté dans un système de coordonnées pratique (cartésien-le plus commun, polaire,
ou tangentielle) et s'appuyer exclusivement sur les pixels du contours pour décrire la région ou
l'objet.

5.4.1 LA TRACE DU CONTOUR


La trace d’un contour d’un objet est définie par un vecteur B (N  2) contenant les
coordonnées des N pixels contour Pi(xi,yi) (i = 1 … N).

Dans MATLAB, la fonction « bwboundaries » trace les contours des objets dans une image binaire.
Les coordonnées du point de départ et de la direction de recherche initiale (N, NE, E, SE, S, SW,
W, ou NW) doit être passé en tant que paramètres. En option, le type de connectivité (4 ou 8) et
la direction du tracé (dans le sens des aiguilles d'une montre ou dans le sens inverse des aiguilles
d'une montre) peut également être des arguments. La fonction « bwboundaries » renvoie un
tableau contenant les coordonnées des pixels formant le contour.

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 55

Exemple :
Dans ce qui suit, nous faisant la trace du contour des 4 objets présents dans l’image ‘ TP7-1 ’ à
l’aide de la commande Matlab « bwboundaries» :

I= imread('TP7-1.png');
imshow(I);
[B,L] = bwboundaries(J);
figure; imshow(I); hold on;
for k=1:length(B),
bord = B{k};
plot(bord(:,2),bord(:,1),'g','LineWidth',2);
end

Figure 5.9 : Tableau des 7 moments de Hu relatifs à 3 objets identiques


avec des postures différentes (objets binaires)

Cette commande renvoie un tableau pour chacun des 4 objets présents dans l’image. Le premier
tableau est de la forme :
B1 = [ 38 , 150 ; 38 , 160 ; 38 , 161 ; … ; 40 , 159 ; 39 , 159 ; 38 , 159]

5.4.2 CODE DE CHAINE ET CODE DE FREEMAN


Les codes de chaîne sont des méthodes alternatives pour tracer et décrire un contour. Une
chaîne code est une technique de représentation de limite par laquelle un contour est représenté
comme séquence de segments de droite de longueur spécifiée (généralement 1 pixel) et de
direction. Le mécanisme de code de chaîne le plus simple, également connu sous le nom de code
de fissure (crack-code), consiste à assigner un nombre à la direction suivie par un algorithme de
suivi comme suit: droite (0), vers le bas (1), vers la gauche (2) et vers le haut (3).
En supposant que le nombre total de points formant le contour est p (le périmètre du
contour), le tableau C (de taille p), où C (p) = 0, 1, 2, 3, contient le code de chaîne de la frontière.
Une version modifiée du code de chaîne de base, connu sous le nom de « Code de Freeman »,
utilise huit directions au lieu de quatre. La figure 5.10 montre un exemple de contour, son code
de chaîne, et son code Freeman.

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 56

Figure 5.10 : Code de chaine et code de Freeman d’un contour


(a) contour original (b) version discrète du contour;
(c) Représentation en code de chaine (d) Représentation en code de Freeman

5.4.3 SIGNATURES
Une signature est une représentation 1D d'un contour, généralement obtenue en
représentant la frontière dans un système de coordonnées polaires. La distance r est calculée
entre chaque pixel du contour et le centroïde pour un angle θ allant de 0 à 2π.

Figure 5.11 : Signature de deux contours de formes différentes : cercle et carré

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 57

5.4.4 DESCRIPTEURS DE FOURIER


L'idée derrière les descripteurs de Fourier est de parcourir les pixels appartenant à une
frontière, en partant d'un point arbitraire, et d'enregistrer leurs coordonnées.
Chaque valeur dans la liste résultante des paires de coordonnées (x 0, y0), (x1, y1), ..., (xk-1, yk-1) est
alors interprété comme un nombre complexe :
« xk + j . yk » pour k = 0, 1,. . . , k- 1.

La transformée de Fourier Discrète (DFT) de cette liste de nombres complexes est le


descripteur de Fourier du contour. La DFT inverse restaure le contour d'origine.

Exemple :
La figure 15.12 montre un exemple d’un contour contenant 1467 points (partie (a)) et les
résultats de la reconstruction (application de la TFD suivie par IDFT) en utilisant un nombre
variable de termes. La partie (b) montre les résultats de la reconstruction avec le même nombre
de points pour des raisons de vérification. Les parties (c) - (f) montrent les résultats pour la
reconstruction avec progressivement moins de points: 734, 366, 36 et 15, respectivement. Les
valeurs choisies pour les parties (c) - (f) correspondent respectivement à environ 50%, 25%,
2,5% et 1% du nombre total de points.
Une inspection minutieuse des résultats montre que l'image reconstruite en utilisant 25% des
points est pratiquement identique à celle obtenue avec 50% ou 100% des points.
Le contour reconstruit en utilisant 2,5% des points conserve encore une grande partie de sa
forme globale, et les résultats utilisant seulement 1% du nombre total de points peuvent être
jugés inacceptables.

Figure 5.12 : Exemple de reconstruction de contours à base de descripteurs de Fourier


(a) contour original; (b–f) contours reconstruits en utilisant, respectivement,
les 100%, 50%, 25%, 2.5%, et 1% du nombre total de coefficients de Fourier.

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 58

5.5 DESCRIPTEURS STATISTIQUES BASES SUR L’HISTOGRAMME


Les histogrammes fournissent une représentation concise et utile des niveaux d'intensité
dans une image en niveaux de gris. Au chapitre 1, Nous avons appris comment calculer et
afficher l'histogramme d'une image et nous avons utilisé des techniques basées sur
l'histogramme pour l'amélioration de l'image. Dans cette section, nous souhaitons utiliser des
histogrammes (ou des descripteurs numériques pouvant en être dérivés) en tant que
caractéristiques décrivant une image (ou ses objets).

 Le descripteur basé sur l'histogramme le plus simple est la « luminance », représentant son
intensité moyenne µ:

∑ ∑∑
 
Où :
I(x,y) : Le pixel de coordonnées (x,y) de l’image I ;
MN : représente les dimensions de l’image;
d: la dynamique de l’image en bits
k: le niveau de gris
H(k) : la valeur de l’histogramme relatif au niveau de gris k.
La luminance µ est un descripteur très compact (une valeur à virgule flottante par image ou
objet) qui fournit une mesure de la luminosité globale de l'image ou de l'objet correspondant.

 L'écart-type σ d'une image est donné par :

√ ∑∑

Le carré de l'écart type est la variance, également appelée moment de second ordre
normalisé de l'image. L'écart type fournit une représentation concise du contraste global.

 L'asymétrie (the skew) d'un histogramme est une mesure de son asymétrie par rapport au
niveau moyen. Il est défini par :

∑ ∑

p(k) représente la probabilité de présence du niveau de gris k dans l’image

 L’énergie fournit une autre mesure de la distribution des valeurs de pixel le long de la plage
de niveaux de gris: des images avec une seule valeur constante d'énergie a un maximum
(c'est-à-dire, énergie = 1); Les images avec peu de niveaux de gris auront une énergie plus
élevée que celles avec beaucoup de niveaux de gris. Le descripteur d'énergie peut être calculé
comme suit :

∑[ ]

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 59

 Les histogrammes fournissent également des informations sur la complexité de l'image, sous
la forme d'un descripteur d'entropie. Plus l'entropie est élevée, plus l'image est complexe.
L'entropie et l'énergie ont tendance à varier inversement les unes par rapport aux autres.
La formulation mathématique pour l'entropie est déjà vue en chapitre 1 et est donnée par:

5.6 DESCRIPTEURS DE TEXTURE


La texture peut être un descripteur puissant d'une image (ou d'une de ses régions). Bien qu'il
n'y ait pas de définition universellement acceptée de la texture, les techniques de traitement
d'image associent habituellement la notion de texture à des propriétés d'image (ou de région)
telles que lissage (ou son opposé, rugosité), grossièreté et régularité.
La figure 5.13 montre un exemple de chacun et la figure 5.14 montre leurs histogrammes.

Figure 5.13 : Exemples d’images avec une texture lisse (a), rugueuse (b) et régulière (c)

Figure 5.14 : histogrammes relatifs aux images de la figure 5.13

Il existe trois approches principales pour décrire les propriétés de texture dans le traitement
d'image: structurelle, spectrale et statistique. Dans cette section, nous nous concentrerons sur les
approches statistiques, en raison de leur popularité, leur utilité et leur facilité de calcul.

Un des ensembles statistiques les plus simples pour la description de texture consiste en des
descripteurs basés sur l'histogramme de l'image (ou région): moyenne (luminance), variance (ou
sa racine carrée, l'écart-type), l’asymétrie, l’énergie (utilisée comme mesure de l'uniformité) et
l’entropie.

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 60

La variance est parfois utilisée comme un descripteur normalisé de rugosité (R), défini par :

Où :
σ2 : est la variance normalisée (à un intervalle [0, 1]).
La valeur de R = 0 pour les zones d'intensité constante, c'est-à-dire de texture lisse.

Exemple :
Le tableau 5.1 montre les valeurs des descripteurs de texture statistiques représentatifs pour
les trois images de la figure 5.13.

Tableau 5.1 : Les descripteurs de texture relatifs aux 3 images de la figure 5.13

Luminance Ecart-type Rugosité


Texture Skew Entropie
µ R
Lisse 147.1459 47.9172 0.0341 -0.4999 5.9223
Rugueuse 138.8249 81.1479 0.0920 -1.9095 5.8405
Régulière 79.9275 89.7844 0.1103 10.0278 4.1181

Comme prévu, la texture régulière a l'entropie la plus faible des trois. De plus, la texture
grossière montre une valeur plus élevée pour la rugosité normalisée que la texture lisse, ce qui
est également conforme à nos attentes.
Les descripteurs de texture basés sur l'histogramme sont limités par le fait que l'histogramme ne
porte aucune information sur les relations spatiales entre les pixels. Un moyen de contourner
cette limitation consiste à utiliser une représentation alternative pour les valeurs de pixel qui
encode leur position relative les unes par rapport aux autres. Une telle représentation est la
matrice de cooccurrence de niveau de gris G, définie comme une matrice dont l'élément g (i, j)
représente le nombre de fois que des paires de pixels d'intensités zi et zj apparaissent dans
l'image I(x, y) par un opérateur d. Le vecteur d est connu comme vecteur de déplacement:

Où :
dx et dy sont les déplacements, en pixels, le long des lignes et des colonnes, de l'image,
respectivement.

Exemple :
La figure 5.15 montre un exemple de matrice de cooccurrence de niveau de gris pour d = (0, 1).
- Le tableau de gauche est une image de taille (6 × 6) et k = 8 (k est le nombre total de
niveaux de gris - dynamique).
- Le tableau de droite est la matrice de cooccurrence de niveau de gris G, en utilisant une
convention 0 ≤ i , j <k.
Chaque élément dans G correspond au nombre d'occurrences d'un pixel de niveau de gris x
se trouve à gauche d'un pixel de niveau de gris j. Par exemple, puisque la valeur 6 apparaît
quatre fois à gauche de la valeur 3 dans l'image originale, la valeur de g (6, 3) est égale à 4.

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 61

Figure 5.15 : Une image (a) et sa matrice de cooccurrence pour d =(0,1) (b)

Le contenu de G dépend clairement du choix de d. Si nous avions choisi d = (1, 0) (qui peut
être interprétée comme "un pixel plus bas"), la matrice de cooccurrence de niveau de gris
résultante pour la même image de la Figure 5.15 (a) serait celle de la Figure 5.16.

Figure 5.16 : Une image (a) et sa matrice de cooccurrence pour d =(1,0) (b)

La matrice de cooccurrence de niveau de gris peut être normalisée comme suit:

∑ ∑
Où : est la matrice de cooccurrence de niveau de gris normalisée.

Puisque toutes les valeurs de sont comprises entre 0 et 1, on peut les considérer
comme la probabilité qu'une paire de points satisfaisant d ayant des valeurs (z i, zj).
Les matrices de cooccurrence peuvent être utilisées pour représenter les propriétés de texture
d'une image. Au lieu d'utiliser toute la matrice, des descripteurs plus compacts sont préférés.
Ce sont les caractéristiques basées sur la texture les plus populaires qui peuvent être calculées à
partir d'une matrice de cooccurrence de niveau de gris normalisée :

∑∑

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL
Chapitre 5 : Extraction de caractéristiques et représentation Page 62

∑∑

∑∑

∑∑
| |

∑ ∑

Où :
sont les moyennes ;
sont les écarts-types de la ligne

Exemple :
Le tableau 5.2 montre les valeurs des descripteurs de texture statistiques représentatifs pour
les trois images de la figure 5.13. Ces descripteurs ont été obtenus en calculant les matrices
normalisées de cooccurrence de niveau de gris avec d = (0, 1).
Comme prévu, la texture régulière a l'uniformité la plus élevée, la plus grande homogénéité et la
plus faible entropie des trois. Bien que la distinction entre les textures grossière et lisse utilisant
ces descripteurs soit possible (par exemple, l'image avec une texture grossière montre une
corrélation, une uniformité et une homogénéité significativement supérieures à l'image avec une
texture lisse), elle n'est pas aussi intuitive.

Tableau 5.2 : Descripteurs statistiques de texture pour les 3 images de la figure 5.13
Probabilité Energie
Texture Corrélation Contraste Homogénéité Entropie
maximale (Uniformité)
Lisse 0.0013 0.5859 33.4779 0.0005 0.0982 7.9731
Rugueuse 0.0645 0.9420 14.5181 0.0088 0.3279 6.8345
Régulière 0.1136 0.9267 13.1013 0.0380 0.5226 4.7150

Support de cours - Vision Artificielle (Master ESE – Semestre 3 – 2018/2019) Pr. Abdelhamid LOUKIL

Vous aimerez peut-être aussi