Vous êtes sur la page 1sur 102

UE : TRAITEMENT DE SIGNAL ET D’IMAGE

Description Nbr. de Crédits : 2 CM : 15 heures TD : 5 heures TP : 00 heures TPE : 10 heures


Parcours : Niveau 5, (GCI) Code : CI418_2

Objectif Général L’objectif général est de permettre aux étudiants de se familiariser aux
Opérations de filtrage des signaux mono et bidimensionnelle.

Objectifs Spécifiquement, il s’agit de maîtriser la synthèse des filtres RIF/RII et de se familiariser


spécifiques Aux fondamentaux du traitement d’image.

Contenu des CM Les chapitres suivants seront abordés pendant les cours magistraux :
Chapitre 1 : Filtrage Analogique
Chapitre 2 : Synthèse Des Filtres Récursifs
Chapitre 3 : Synthèse Des Filtres Non Récursifs
Chapitre 4 : Acquisition d’image Couleur
Chapitre 5 : Segmentation d’image

Contenu des TD A la fin de chaque chapitre, des exercices sont proposés et corrigés pendant les séances
de travaux dirigés.

Mode La note finale de chaque étudiant est obtenue à partir :


d’évaluation  De la note du TPE (10 %)
 De la note du CC (20 %)
 De la note de l’examen (70 %)

Quelques 1. V.K. Ingle, J.G. Proakis : Digital Signal Processing Using MatLab, PWS
références Publishing Company, 1997
bibliographiques 2. Chris Solomon, Toby Breckon., “Fundamentals of Digital Image Processing a
Practical Approach with Examples in MATLAB”, Wiley Blackwell, 2011.

Coordonnées de Dr. Libouga Li Gwet David, Assistant, SFTI/EGCIM/UN*


l’Enseignant(e) Tél. : 675310236 / 658970635
E-mail: gwet.david@gmail.com
Partie 1:
Traitement du signal
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

1.1 Introduction
Le filtrage est l’opération qui consiste à modifier les composantes spectrales d’un signal.
Le filtre est un circuit qui réalise cette opération. Les intervalles de fréquence où les
composants du signal sont transmises sont appelées bandes passantes ; les intervalles où
les signaux sont bloqués sont désignés sous le nom de bandes d’arrêt ou d’atténuation.

1.1.1 Filtre idéal

Un filtre idéal est caractérisé par :


1. une réponse fréquentielle dont le module vaut 1 dans les bandes passantes ;
2. une réponse fréquentielle dont le module vaut 0 dans les bandes d’arrêt ;
3. un temps de propagation t p qui est le même pour toutes les composantes spectrales.
Ce temps de propagation constant est équivalent à une réponse fréquentielle à phase
linéaire.
Ce type de filtres, purement théorique et bien entendu impossible à réaliser pratiquement,
est celui vers lequel on tend avec un filtre réel. Les réponse fréquentielles des 4 filtres
idéaux de base sont représentés à la figure 1.1.

1.1.2 Formes canoniques

Les filtres réels sont généralement représentés par des fonctions de transfert H(s) dont les
numérateurs et dénominateurs sont des polynômes en s. Ces polynômes sont ordonnés de
manière croissante (forme de Bode) ou dans l’ordre décroissant (forme de Laplace). Dans
chaque cas, le premier coefficient de ces polynômes doit être égal à un.
Afin de faciliter l’analyse, le tracé des réponses fréquentielles et la réalisation des filtres,
ces polynômes sont généralement décomposés en facteurs simples d’ordre 1 ou 2. Ces
facteurs simples font intervenir une pulsation caractéristique et, pour ceux d’ordre 2, un
facteur de qualité Q0 ou, son inverse, le coefficient d’amortissement ζ = 1/2Q0 .
L’ensemble des possibilités de description des filtres se réduit donc aux facteurs simples
suivants représentés sous la forme de Bode :
 2
s
ω1 1 + Q0 ω0 + ωs0
1 s

(1.1)
 2
1 + ωs1 1 + 2ζ ωs0 + s
ω0

(C)2005 freddy.mudry@eivd.ch 1
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

H(ω) H(ω)
1 1

Passe-Bas Passe-Haut

ω ω
-ωc +ωc -ωc +ωc

H(ω) H(ω)
1 1

Passe- Coupe-
Bande Bande

ω ω
−ω2 −ω1 ω1 ω2 −ω2 −ω1 ω1 ω2

F IG . 1.1: Réponses fréquentielles des filtres idéaux

On y trouve :
– les pulsations caractéristiques ω1 et ω0 ;
– le facteur de qualité Q0 ;
– le coefficient d’amortissement ζ = 1/(2Q0 ).
Voici un exemple d’écriture de fonctions de transfert dans les formes de Bode et de La-
place :
1 + s/ω1
H(s) =
1 + 2ζ (s/ω0 ) + (s/ω0 )2
ω20 (s + ω1 )
H(s) =
ω1 s + 2ζω0 s + ω20
2

1.1.3 Formes normalisées

Il est d’usage de décrire ces fonctions de transfert à l’aide de polynômes normalisés dans
lesquels les pulsations caractéristiques sont unitaires. Les polynômes normalisés d’ordre
1 s’écrivent alors sous la forme :
P1 (s) = s + 1 (1.2)
et il est sous-entendu qu’ils correspondent à l’un des deux polynômes suivants :
 s + ω1

P1 (s) = (1.3)
 1+ s
ω1

2 (C)2005 freddy.mudry@eivd.ch
1.1 Introduction

Les polynômes normalisés d’ordre 2 s’écrivent sous la forme :

P2 (s) = s2 + 2ζ s + 1 (1.4)

et il est sous-entendu qu’ils correspondent à l’un des deux polynômes suivants :

 s + 2ζω0 s + ω0
 2 2

P2 (s) = (1.5)
 1 + 2ζ s + s22

ω0 ω 0

1.1.4 Filtres d’ordre 2

Les filtres fondamentaux sont du type passe-bas, passe-haut, passe-bande et coupe-bande.


A ceux-ci, on peut en ajouter beaucoup d’autres tels que, par exemple, les filtres correc-
teurs d’amplitude et les filtres déphaseurs.

Passe-
Bande
R

u(t) Passe-
L Haut

Coupe-
Bande

C Passe-
Bas

F IG . 1.2: Filtres d’ordre 2 réalisé avec un circuit série RLC

La figure 1.2 montre comment le circuit RLC permet de réaliser les 4 filtres de base.
Suivant l’endroit où l’on recueille la tension de sortie, on trouve en effet :
– le filtre passe-bas aux bornes de la capacité
1
HPB (s) = (1.6)
1 + 2ζ (s/ω0 ) + (s/ω0 )2
– le filtre passe-bande aux bornes de la résistance
2ζ (s/ω0 )
HP∆ (s) = (1.7)
1 + 2ζ (s/ω0 ) + (s/ω0 )2
– le filtre passe-haut aux bornes de l’inductance

(s/ω0 )2
HPH (s) = (1.8)
1 + 2ζ (s/ω0 ) + (s/ω0 )2

(C)2005 freddy.mudry@eivd.ch 3
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

– le réjecteur de bande aux bornes de l’inductance et de la capacité


1 + (s/ω0 )2
HR∆ (s) = (1.9)
1 + 2ζ (s/ω0 ) + (s/ω0 )2
Dans le cas du filtre passe-bande d’ordre 2, on n’oubliera pas les relations importantes
suivantes :
ω0
∆ω ≡ ωs − ωi = , ω20 = ωs · ωi (1.10)
Q0
où ωi , ωs , ∆ω sont, respectivement, les pulsations de coupure inférieure, supérieure et la
bande passante du filtre.

1.2 Filtres optimums

1.2.1 Gabarit

Contrairement au filtre idéal, un filtre réel possède une bande de transition entre les bandes
passantes et d’arrêt et les spécifications du filtre sont généralement données à l’aide d’un
gabarit (figure 3.1). Celui-ci précise les bandes passantes, bandes de transition et bandes
d’arrêt souhaitées.
A la donnée du gabarit, on peut ajouter des spécifications telles que
– l’amplitude de l’ondulation acceptée dans les bandes passantes et/ou d’arrêt
– l’uniformité du temps de propagation dans la bande passante (phase linéaire).
Il est important de relever ici que les gabarits ne sont pas toujours aussi simples que
celui de la figure 3.1. Pour exemple, vous trouverez à la figure 1.4 le gabarit que doivent
respecter les transmissions téléphoniques aux USA.

1.2.2 Approximations

Suivant le cahier des charges donné, la réalisation d’un filtre passe-bas conduit à des
fonctions de transfert dont les dénominateurs sont des polynômes qui optimisent au mieux
les contraintes demandées. Ces polynômes, appelés polynômes d’approximation, réalisent
des filtres caractérisés par l’une ou l’autre des propriétés suivantes :
– une bande passante plate au maximum pour les filtres de Butterworth ;
– un temps de propagation uniforme (ou une phase linéaire) dans la bande passante pour
les filtres de Bessel ;
– une bande de transition étroite obtenue au dépend d’une ondulation de la réponse fré-
quentielle dans la bande passante pour les filtres de Tchebycheff de type I.
Les filtres ci-dessus sont des filtres dits tout pôles pour lesquels le numérateur est d’ordre 0.
Leurs fonctions de transfert s’écrivent alors sous la forme :
1
H(s) = (1.11)
A(s)

D’autres approximations de filtres réels existent comme par exemple :

4 (C)2005 freddy.mudry@eivd.ch
1.2 Filtres optimums


 

  

  
  

"!

 ! 

F IG . 1.3: Gabarit pour un filtre passe-bas

F IG . 1.4: Gabarit de transmission téléphonique (Copyright 1975, ATT Company)

(C)2005 freddy.mudry@eivd.ch 5
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

– les filtres de Tchebycheff de type II qui n’ont pas d’ondulations dans la bande pas-
sante mais en possèdent dans la bande d’arrêt ;
– les filtres elliptiques pour lesquels on accepte des ondulations dans les bandes pas-
santes et d’arrêt.
Les fonctions de transfert de ces filtres sont alors décrites par un rapport de deux poly-
nômes ;
B(s)
H(s) = (1.12)
A(s)
Suivant la nature du filtre les performances sont sensiblement différentes ; elles sont pré-
sentées dans le tableau 1.1.
Butterworth Bessel Tchebycheff I Tchebycheff II

Régularité de la courbe d’amplitude excellente satisfaisante ondulations bonne

Raideur de la transition faible médiocre bonne moyenne

Régularité du temps de propagation faible excellente médiocre faible

Qualité de la réponse temporelle satisfaisante excellente mauvaise bonne

Facteurs de qualité moyens faibles élevés moyens

Disparité des composants faible très faible forte faible

TAB . 1.1: Caractéristiques selon le type de filtres [4]

1.2.3 Temps de propagation

On sait que le déphasage est une mesure du décalage temporel td entre deux signaux
périodiques de même nature et que l’on a la relation suivante :
ϕ td
=
2π T
De manière équivalente, cela s’écrit
2π ϕ(ω) ϕ(ω)
ϕ(ω) = td = ωtd ⇔ td = =T
T ω 2π
Lorsque l’on s’intéresse au temps de propagation t p d’un filtre réel, celui-ci est négatif et
on le définit comme suit
ϕ(ω)
t p (ω) = − (1.13)
ω

6 (C)2005 freddy.mudry@eivd.ch
1.2 Filtres optimums

Sa valeur est généralement donnée pour les basses fréquences

ϕ(ω)
tp = − (1.14)
ω ω→0

Dans le cas où le temps de propagation est constant, toutes les composantes spectrales
d’un signal sont retardées du même temps t p et le signal temporel est ainsi peu déformé.

1.2.4 Illustration des réponses fréquentielles et temporelles

Pour cette illustration, on considère quatre filtres d’ordre 5 et de nature différente. Les
figures 1.5 à 1.8 illustrent le comportement temporel et fréquentiel des filtres de Butter-
worth, Bessel et Tchebycheff I en utilisant des échelles logarithmiques (diagrammes de
Bode).
Dans un but de comparaison, on y a ajouté un filtre passe-bas composé de 5 cellules
identiques d’ordre 1. Afin que les comparaisons se fassent sur une base commune, tous
les filtres ont la même pulsation de coupure, à savoir, ωc = 1 [rad/sec].
La figure 1.9 permet de comparer les réponses de l’ensemble des filtres. La figure 1.10
utilise des axes linéaires afin de mettre en évidence le comportement de la phase et celui
du temps de propagation des 4 filtres.

(C)2005 freddy.mudry@eivd.ch 7
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

Diagrammes de Bode Réponse indicielle


0

−10

Module [dB] −20 1

−30

−40
0.8
−50

−60
−1 0 1

Amplitude
10 10 10 0.6

0
0.4
−100
Phase [deg]

−200
0.2

−300

−400 0

−500
10
−1
10
0 1
10 0 5 10 15 20 25
pulsation [rad/sec] temps [sec]

F IG . 1.5: Filtre de Butterworth (n=5)

Diagrammes de Bode Réponse indicielle


0

−10
Module [dB]

−20 1

−30

−40
0.8
−50

−60
−1 0 1
Amplitude

10 10 10 0.6

0
0.4
−100
Phase [deg]

−200
0.2

−300

−400 0

−500
10
−1
10
0 1
10 0 5 10 15 20 25
pulsation [rad/sec] temps [sec]

F IG . 1.6: Filtre de Bessel (n=5)

8 (C)2005 freddy.mudry@eivd.ch
1.2 Filtres optimums

Diagrammes de Bode Réponse indicielle


0

−10
Module [dB]
−20 1

−30

−40
0.8
−50

−60
−1 0 1

Amplitude
10 10 10 0.6

0
0.4
−100
Phase [deg]

−200
0.2

−300

−400 0

−500
10
−1
10
0 1
10 0 5 10 15 20 25
pulsation [rad/sec] temps [sec]

F IG . 1.7: Filtre de Tchebycheff (n=5)

Diagrammes de Bode Réponse indicielle


0

−10
Module [dB]

−20 1

−30

−40
0.8
−50

−60
−1 0 1
Amplitude

10 10 10 0.6

0
0.4
−100
Phase [deg]

−200
0.2

−300

−400 0

−500
10
−1
10
0 1
10 0 5 10 15 20 25
pulsation [rad/sec] temps [sec]

F IG . 1.8: Filtre composé de 5 cellules d’ordre 1

(C)2005 freddy.mudry@eivd.ch 9
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

Diagrammes de Bode Réponses indicielles

−5
Module [dB]

1
o Btw
x Bsl
−10
+ Tchb
v 5xRC
0.8
−15

−20
−1 0 1

Amplitude
10 10 10 0.6

0
0.4
−100
Phase [deg]

−200
0.2

−300

−400 0

−500
10
−1
10
0
10
1 0 5 10 15 20 25
pulsation [rad/sec] temps [sec]

F IG . 1.9: Comparaison des réponses fréquentielles et indicielles

Amplitude Phase
0
1

0.8 −2
Amplitude[/]

Phase [rad]

0.6
o Btw −4
x Bsl
0.4
+ Tchb
v 5xRC −6
0.2

0 −8
0 0.5 1 1.5 2 0 0.5 1 1.5 2
pulsation [rad/sec] pulsation [rad/sec]

Temps de propagation
8

6
t [sec]

4
p

0
0 0.5 1 1.5 2
pulsation [rad/sec]

F IG . 1.10: Diagrammes linéaires et temps de propagation

10 (C)2005 freddy.mudry@eivd.ch
1.3 Filtres de Butterworth

1.3 Filtres de Butterworth

Les filtres de Butterworth sont caractérisés par une réponse en amplitude extrêmement
plate dans la bande passante. Le carré du module de cette réponse fréquentielle est décrite
par :
1
|H( jω)|2 = H( jω)H(− jω) = (1.15)
1 + (ω/ωc )2n

√ rapport à la pulsation de coupure ωc pour


On notera que cette réponse est normalisée par
laquelle le filtre possède une atténuation de 2 = 3 dB.
En écrivant la fonction de transfert avec la variable de Laplace et en choisissant ωc = 1,
on obtient une description équivalente :

1
H(s)H(−s) = n (1.16)
1 + (−s2 )

On voit ainsi que le dénominateur de cette description est un polynôme d’ordre 2 n


n
D(s) = 1 + −s2 =0 (1.17)

dont les racines sont uniformément réparties sur un cercle de rayon unité. L’angle entre
chaque racine vaut π/n et, suivant que l’ordre est pair ou impair, on aura les situations
illustrées par la figure 1.11.
On notera que les pôles à parties réelles positives sont instables. Ils sont dus à H(−s),
la partie non réalisable de la fonction de transfert utilisée pour décrire le module de la
réponse fréquentielle. Les pôles restant représentent la fonction de transfert H(s) du filtre
que l’on désire réaliser.
 
ω/ω  ω/ω 
    


π 
σ/ω  π σ/ω 

F IG . 1.11: Position des pôles pour un filtre de Butterworth

(C)2005 freddy.mudry@eivd.ch 11
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

Comme on l’a dit plus haut, les filtres passe-bas étudiés ici sont des filtres tout pôles
décrits de manière générale par :
1 1
H(s) = = (1.18)
A(s) 1 + a1 s + a2 s2 + · · · + an sn

Pour calculer le polynôme A(s), il suffit de connaître les coordonnées de chacun des pôles
correspondant aux trinômes constitutifs du polynôme. En effet, si l’on a p1,2 = −a ± jb,
il vient : 

 (s + a + jb) (s + a − jb)



A(s) = s2 + 2a s + a2 + b2 (1.19)




s2 + 2a s + 1

avec a2 + b2 = 1 car les racines normalisées par rapport à ωc se situent sur un cercle de
rayon unité.
Dans le cas d’un polynôme d’ordre 5, ce dernier sera décomposé en 3 polynômes de base
provenant du pôle réel et des 2 paires de pôles complexes :

Pôles Polynômes
p1 = −1 P1 (s) = 1 + s
p2,3 = −0.809 ± j0.588 P2 (s) = 1 + 1.618 s + s2
p4,5 = −0.309 ± j0.951 P3 (s) = 1 + 0.618 s + s2

On notera que pour chaque cellule d’ordre 2, le facteur de qualité correspondant Q0k est
donné par l’inverse du deuxième coefficient. Ainsi, pour le polynôme d’ordre 5, on aura
Q02 = 1/1.618 et Q03 = 1/0.618.

1.3.1 Tableau des polynômes de Butterworth

Connaissant la position des pôles d’un polynôme d’ordre n quelconque, il est aisé d’en
calculer les trinômes constitutifs. Ceux-ci sont donnés dans le tableau 1.2.

1.3.2 Ordre et pulsation caractéristique d’un filtre

Dans l’analyse des filtres, il est fréquent d’exprimer la réponse fréquentielle à l’aide de
l’atténuation A( jω) définie comme l’inverse de H( jω) :
1
A( jω) ≡ (1.20)
H( jω)
L’atténuation d’un filtre de Butterworth est alors décrite par

ω
 2n
2
|A( jω)| = 1 + (1.21)
ωc

12 (C)2005 freddy.mudry@eivd.ch
1.3 Filtres de Butterworth

n P(s)

1 (1 + s)

1 + 1.414s + s2

2

(1 + s) 1 + 1.000s + s2

3

1 + 1.848s + s2 1 + 0.765s + s2
 
4

(1 + s) 1 + 1.618s + s2 1 + 0.618s + s2
 
5

1 + 1.932s + s2 1 + 1.414s + s2 1 + 0.518s + s2


  
6

(1 + s) 1 + 1.802s + s2 1 + 1.247s + s2 1 + 0.445s + s2


  
7

1 + 1.962s + s2 1 + 1.663s + s2 1 + 1.111s + s2 1 + 0.390s + s2


   
8

(1 + s) 1 + 1.879s + s2 1 + 1.532s + s2 1 + 1.000s + s2 1 + 0347s + s2


   
9

1 + 1.975s + s2 1 + 1.782s + s2 1 + 1.414s + s2 1 + 0.908s + s2 1 + 0.313s + s2


    
10

TAB . 1.2: Quelques polynômes de Butterworth

(C)2005 freddy.mudry@eivd.ch 13
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

Comme la connaissance des 2 paramètres n et ωc suffit à caractériser la réponse fréquen-


tielle d’un filtre de Butterworth, la donnée d’un gabarit passe-bas à l’aide de 2 coordon-
nées suffit pour déterminer complètement le filtre (figure 1.12).
 
 
 

 

   

F IG . 1.12: Gabarit et réalisation d’un filtre de Butterworth

En effet, sachant que les atténuations aux points P (fin de la bande passante) et A (début
de la bande d’arrêt) s’écrivent :
ωp
 2n
2 2
A( jω p ) ≡ A p = 1 + (1.22)
ωc
ωa
 2n
2 2
|A( jωa )| ≡ Aa = 1 + (1.23)
ωc
On résout aisément ce système de 2 équations à 2 inconnues en effectuant le rapport
des deux équations après avoir passé la valeur 1 dans le membre de gauche. Prenant le
logarithme des deux membres de l’équation, on obtient finalement :
1 log A2p − 1 / A2a − 1
  
n≥ (1.24)
2 log (ω p /ωa )
Une fois l’ordre connu, on peut calculer la pulsation de coupure à partir d’une des deux
équations d’atténuation. Ce qui donne
ωm
ωc = 1/2n
(1.25)
(A2 (ωm ) − 1)
avec
ωm = ω p ou ωa
Comme la valeur trouvée pour l’ordre n du filtre n’est généralement pas un entier, on
l’arrondit à une valeur entière supérieure. On peut ainsi calculer deux valeurs différentes
pour ωc : l’une avec la pulsation ω p et l’autre avec la pulsation ωa .
En choisissant l’une ou l’autre de ces deux pulsations caractéristiques, la courbe de ré-
ponse fréquentielle touchera l’une ou l’autre partie du gabarit (figure 1.12a) ; ce qui n’est
pas satisfaisant. Par contre, en prenant pour ωc la moyenne géométrique des deux valeurs
ainsi trouvées, on permettra à la courbe de réponse fréquentielle de ne pas toucher le
gabarit (figure 1.12b).

14 (C)2005 freddy.mudry@eivd.ch
1.3 Filtres de Butterworth

1.3.3 Synthèse d’un filtre de Butterworth

Dans l’exemple qui suit, on souhaite réaliser un filtre passe-bas de gain unité ne compor-
tant pas d’oscillations dans la bande passante et satisfaisant au gabarit suivant :

H p = −1 dB f p = 1 kHz

Ha = −40 dB fa = 3 kHz

Pour ce faire on demande de :

1. trouver l’ordre n et la fréquence de coupure fc du filtre ;


2. calculer les facteurs de qualité et le polynôme de réalisation ;
3. tracer les réponses fréquentielle et temporelle.

Solution :
1. On a :

A p = 1/H p = +1 dB = 1.122 ⇒ A2p − 1 = 0.2589

Aa = 1/Ha = +40 dB = 100 ⇒ A2a − 1 ' 104

d’où l’on tire :

1 log s A2p − 1 / A2a − 1


  
1 log 0.2589/104

n≥ = = 4.80 ' 5
2 log (ω p /ωa ) 2 log (1/3)

fp 1 kHz
fc,p = 1/2n = = 1.145 kHz
A2p − 1 0.25891/10

fa 3 kHz
fc,a = 1/2n
= = 1.194 kHz
(A2a − 1) 104/10

On peut ainsi calculer la fréquence de coupure


p
fc = fc,p · fc,a = 1.17 kHz

2. D’après le tableau 1.2, le polynôme normalisé d’ordre 5 vaut :

P5,n (s) = (1 + s) 1 + 1.618s + s2 1 + 0.618s + s2


 

On en déduit immédiatement les facteurs de qualité en prenant l’inverse des coeffi-


cients d’ordre 1 des deux trinômes :
1
Q02 = = 0.618 = −5.7 dB
1.618

(C)2005 freddy.mudry@eivd.ch 15
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

1
= 1.618 = +5.7 dB
Q03 =
0.618
En remplaçant la variable s par s/(2π fc ) = 1.36 · 10−4 s, on obtient le polynôme de
réalisation :
P5 (s) = 1 + 1.36 · 10−4 s ·


1 + 2.20 · 10−4 s + 1.85 · 10−8 s2 ·




1 + 0.84 · 10−4 s + 1.85 · 10−8 s2




3. Partant du polynôme P5 (s), on en déduit H(s) = 1/P5 (s) et on peut calculer puis
tracer les réponses fréquentielles de chaque cellule (figure 1.13). La somme (en dB)
de ces 3 réponses donne la réponse fréquentielle du filtre de Butterworth d’ordre 5
(figure 1.14). Les réponses impulsionnelle et indicielle sont également présentées
dans la figure 1.15.
Cellule No.1 Cellule No.2 Cellule No.3
5 5 5

0 0 0

−5 −5 −5

−10 −10 −10


amplitude [dB]

−15 −15 −15

−20 −20 −20

−25 −25 −25

−30 −30 −30

−35 −35 −35

−40 −40 −40


2 3 4 2 3 4 2 3 4
10 10 10 10 10 10 10 10 10
fréquence [Hz]

F IG . 1.13: Réponses fréquentielles de chaque cellule

1.4 Filtres de Tchebycheff

Lorsque les spécifications du gabarit permettent une ondulation dans la bande passante du
filtre, on utilise fréquemment un filtre de Tchebycheff de type I dont la réponse fréquen-
tielle est décrite par :
1
|H( jω)|2 = H( jω)H(− jω) = (1.26)
1 + ε2Cn2 (ω/ωr )2n

16 (C)2005 freddy.mudry@eivd.ch
1.4 Filtres de Tchebycheff

Bode d’un Btw PBas d’ordre 5 Btw PBas d’ordre 5

0 1

0.9

−10
0.8

0.7
−20
amplitude [dB]

amplitude [/]
0.6

−30 0.5

0.4

−40
0.3

0.2
−50

0.1

−60 0
10
2
10
3
10
4 0 1000 2000 3000
fréquence [Hz] fréquence [Hz]

F IG . 1.14: Réponse fréquentielle d’un filtre de Butterworth d’ordre 5

Réponse impulsionnelle
3000

2000
amplitude [/]

1000

−1000
0 0.5 1 1.5 2 2.5 3
−3
x 10
Réponse indicielle
1.4

1.2

1
amplitude [/]

0.8

0.6

0.4

0.2

0
0 0.5 1 1.5 2 2.5 3
temps [sec] x 10
−3

F IG . 1.15: Réponses temporelles d’un filtre de Butterworth d’ordre 5

(C)2005 freddy.mudry@eivd.ch 17
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

avec ωr délimitant la bande dans laquelle on accepte une ondulation r généralement expri-
mée en dB. On voit donc que pour les filtres de Tchebycheff, la pulsation de normalisation
n’est plus la pulsation de coupure mais la pulsation d’ondulation ωr .
La fonction Cn décrivant la réponse fréquentielle du filtre est oscillante dans la bande
passante et croissante dans la bande d’arrêt. Elle est décrite par :

 cos (n arccos (ω/ωr )) si ω/ωr ≤ 1


Cn (ω/ωr ) = (1.27)
cosh (n acosh (ω/ωr )) si ω/ωr > 1

L’amplitude ε de la fonction Cn est liée à l’ondulation r acceptée dans la bande passante


au travers de la relation suivante :

1 + ε2 = r 2 ⇔ ε2 = 10 rdB /10 − 1 (1.28)

1.4.1 Caractéristique des filtres de Tchebycheff

La réponse fréquentielle des filtres de Tchebycheff est illustrée par la figure 1.16 pour
laquelle on a pris r = 1 dB. On constate que le nombre d’extrémas présents dans la bande
d’ondulation est égal à l’ordre du filtre et que les ondulations se situent au-dessus ou
au-dessous de 1 suivant que le filtre est d’ordre pair ou impair.
On se souviendra que la pulsation de la bande d’ondulation ωr sert de pulsation de nor-
malisation et qu’elle est reliée à la pulsation de coupure ωc par la relation :
 
1
ωc = ωr cosh acosh(1/ε) (1.29)
n

1.4.2 Calcul de l’ordre d’un filtre de Tchebycheff

Comme la donnée de la largeur de la bande d’ondulation fixe la pulsation de normalisation


ωr , il suffit de connaître un point de la bande d’arrêt et l’amplitude ε de l’ondulation
admise pour déterminer l’ordre n du filtre [1] :
p 
Aa − 1 + Aa − 1 − ε − log(ε)
p
log 2 2 2
n≥  q  (1.30)
2
log (ωa /ωr ) + (ωa /ωr ) − 1

Dans la situation fréquente où l’atténuation Aa est plus grande que 10, cette expression
peut être simplifiée pour donner :

log (2 Aa /ε)
n≥  q  (1.31)
2
log (ωa /ωr ) + (ωa /ωr ) − 1

18 (C)2005 freddy.mudry@eivd.ch
1.4 Filtres de Tchebycheff

1.2

r = 1.12 = + 1 dB

Amplitude
n=6
1

n=5
1/r = 0.89 = - 1 dB
0.8

0.707 = - 3 dB

0.6

bande d'ondulation

0.4

bande passante
0.2 ωc
ωr

0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Pulsation normalisée ω/ωr

F IG . 1.16: Réponse fréquentielle des filtres Tchebycheff

1.4.3 Tableau des polynômes de Tchebycheff

On peut montrer que les racines des polynômes réalisant la réponse fréquentielle décrite
par l’équation (1.26) se situent sur une ellipse dont le petit diamètre dépend de l’ondu-
lation r. A partir de cette ellipse, on peut calculer les polynômes de Tchebycheff dont
quelques uns sont données dans le tableau 1.3 pour r = 0.5 et 1.0 dB.

1.4.4 Synthèse d’un filtre de Tchebycheff

Dans l’exemple qui suit, on souhaite réaliser un filtre passe-bas de gain unité pour le-
quel on accepte une ondulation de 1 dB dans la bande passante et satisfaisant au gabarit
suivant :
Hr = 1 dB fr = 1 kHz
Ha = −40 dB fa = 3 kHz
Pour ce faire on demande de :

1. calculer l’ordre n du filtre et sa fréquence de coupure fc ;


2. calculer les fréquence caractéristique et facteur de qualité de chaque cellule ;
3. calculer le polynôme de réalisation ;
4. tracer les réponses fréquentielle et temporelle.

(C)2005 freddy.mudry@eivd.ch 19
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

n P(s) pour r = 0.5 dB = 1.059 ou ε = 0.3493

1 (1 + 0.349s)

1 + 0.940s + 0.659s2

2

(1 + 1.596s) 1 + 0.548s + 0.875s2



3

1 + 2.376s + 2.806s2 1 + 0.330s + 0.940s2


 
4

(1 + 2.760s) 1 + 1.230s + 2.097s2 1 + 0.216s + 0.965s2


 
5

1 + 3.692s + 6.370s2 1 + 0.719s + 1.695s2 1 + 0.152s + 0.977s2


  
6

(1 + 3.904s) 1 + 1.818s + 3.939s2 1 + 0.472s + 1.477s2 1 + 0.112s0.984 + s2


  
7

1 + 4.981s + 11.36s2 1 + 1.037s + 2.788s2 1 + 0.335s + 1.349s2 1 + 0.086s + 0.988s2


   
8

n P(s) pour r = 1.0 dB = 1.122 ou ε = 0.5089

1 (1 + 0.509s)

1 + 0.996s + 0.907s2

2

(1 + 2.024s) 1 + 0.497s + 1.006s2



3

1 + 2.411s + 3.579s2 1 + 0.283s + 1.014s2


 
4

(1 + 3.454s) 1 + 1.091s + 2.329s2 1 + 0.181s + 1.012s2


 
5

1 + 3.722s + 8.019s2 1 + 0.609s + 1.793s2 1 + 0.126s + 1.009s2


  
6

(1 + 4.868s) 1 + 1.606s + 4.339s2 1 + 0.392s + 1.530s2 1 + 0.092s + 1.007s2


  
7

1 + 5.010s + 14.23s2 1 + 0.876s + 2.934s2 1 + 0.276s + 1.382s2 1 + 0.070s + 1.006s2


   
8

TAB . 1.3: Quelques polynômes de Tchebycheff

20 (C)2005 freddy.mudry@eivd.ch
1.4 Filtres de Tchebycheff

Solution :
1. On a :
p
A p = 1/Hr = r = 1 dB = 1.122 ⇒ ε= r2 − 1 = 0.5089
Aa = 1/Ha = +40 dB = 100 et ua = f a / f r = 3
d’où l’on tire :
log (2 Aa /ε)
n ≥  q 
2
log (ωa /ωr ) + (ωa /ωr ) − 1

log (200/0.5089)
≥  √  = 3.39 '4
log 3 + 32 − 1

 
1
fc = fr cosh acosh(1/ε)
n
 
1
= 1 kHz · cosh acosh(1/0.5089) = 1053 Hz
4
2. Du tableau 1.3, on tire le polynôme normalisé pour une ondulation de 1 dB
P4,n (s) = 1 + 2.411s + 3.579s2 1 + 0.283s + 1.014s2
 

On en déduit immédiatement les 2 facteurs de qualité


√ √
3.579 1.014
Q01 = = 0.785 = −2 dB Q02 = = 3.56 = +11 dB
2.411 0.283
et les 2 fréquences caractéristiques
fr fr
f01 = √ = 528 Hz f02 = √ = 993 Hz
3.579 1.014
3. Effectuant le changement de variable
s
s → = 1.59 · 10−4 s
2π fr
sur le polynôme normalisé
P4n (s) = 1 + 2.411s + 3.579s2 1 + 0.283s + 1.014s2
 

on obtient le polynôme de réalisation :


P4 (s) = 1 + 3.84 · 10−4 s + 9.066 · 10−8 s2 1 + 0.45 · 10−4 s + 2.568 · 10−8 s2
 

À ce polynôme correspond la fonction de transfert suivante :


1
H4 (s) =
(1 + 3.84 · 10−4 s + 9.066 · 10−8 s2 ) (1 + 0.45 · 10−4 s + 2.568 · 10−8 s2 )
dont les pulsations caractéristiques, facteurs d’amortissement et de qualité valent :

(C)2005 freddy.mudry@eivd.ch 21
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

ω01 = √ 1
= 3321 rad/sec ω02 = √ 1
= 6240 rad/sec
9.066·10−8 2.568·10−8

ω01 ω02
f01 = 2π = 528 Hz f02 = 2π = 993 Hz

3.84·10−4 ω01 0.45·10−4 ω02


ζ1 = 2 = 0.637 ζ2 = 2 = 0.1405

1 1
Q01 = 2ζ1
= 0.785 = −2 dB Q02 = 2ζ2
= 3.56 = 11 dB

Les réponses fréquentielles des deux cellules sont tracées à la figure 1.17. La somme (en
dB) de ces 2 réponses donne la réponse fréquentielle du filtre de Tchebycheff d’ordre 4
(figure 1.18). Les réponses impulsionnelle et indicielle sont présentées dans la figure 1.19.

Cellule No.1 Cellule No.2


15 15

10 10

5 5

0 0

−5 −5
amplitude [dB]

−10 −10

−15 −15

−20 −20

−25 −25

−30 −30

−35 −35

−40 −40
2 3 4 2 3 4
10 10 10 10 10 10
fréquence [Hz]

F IG . 1.17: Réponses fréquentielles des 2 cellules

1.5 Filtres de Bessel

Comme on vient de le voir, les filtres de Butterworth et Tchebycheff conduisent à des


réponses indicielles ayant un fort dépassement malgré le fait que les amplitudes des com-
posantes spectrales soient pratiquement maintenues à leurs valeurs dans la bande passante.
Ce phénomène provient du fait que le déphasage de chacune de ces composantes n’est pas
proportionnel à sa fréquence.
Avec les filtres de Bessel (dits également de Thomson), on obtient des réponses indicielles
presque sans dépassement grâce au temps de propagation qui, dans la bande passante, est

22 (C)2005 freddy.mudry@eivd.ch
1.5 Filtres de Bessel

Bode d’un Tchb PBas d’ordre 4 Tchb PBas d’ordre 4

0 1

−10
0.8

−20
amplitude [dB]

amplitude [/]
0.6

−30

0.4
−40

0.2
−50

−60 0
10
2
10
3
10
4 0 1000 2000 3000
fréquence [Hz] fréquence [Hz]

F IG . 1.18: Réponse fréquentielle d’un filtre de Tchebycheff d’ordre 4

Réponse impulsionnelle
2500

2000

1500
amplitude [/]

1000

500

−500

−1000
0 0.5 1 1.5 2 2.5 3
−3
x 10
Réponse indicielle
1.4

1.2

1
amplitude [/]

0.8

0.6

0.4

0.2

0
0 0.5 1 1.5 2 2.5 3
temps [sec] −3
x 10

F IG . 1.19: Réponses temporelles d’un filtre de Tchebycheff d’ordre 4

(C)2005 freddy.mudry@eivd.ch 23
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

pratiquement indépendant de la fréquence. Cela se paye naturellement par une réponse


fréquentielle en amplitude moins abrupte dans la bande de transition que les filtres précé-
dents (le filtre idéal n’existe pas encore !).
Un temps de propagation constant (indépendant de la fréquence) signifie que toutes les
composantes spectrales d’un signal sont transmises avec le même décalage temporel. L’in-
tégrité de la forme du signal est ainsi respectée sauf pour les composantes spectrales que
l’on désire supprimer par filtrage des amplitudes.

1.5.1 Phase linéaire et temps de propagation

On a vu au paragraphe 1.2.3 que le temps de propagation t p est défini comme suit

ϕ(ω)
t p (ω) = − (1.32)
ω
et que sa valeur est généralement donnée pour les basses fréquences

ϕ(ω)
tp = − (1.33)
ω ω→0

Dans le cas où le temps de propagation est constant (indépendant de la fréquence du


signal), on dit que l’on a affaire à des filtres à phase linéaire car, dans ce cas, on a bien
évidemment
ϕ(ω) = −ωt p (1.34)

C’est la propriété essentielle des filtres de Bessel.

1.5.2 Temps de propagation des filtres passe-bas

On montre aisément que la phase de cellules d’ordre 1 ou 2


1
H1 ( jω) = (1.35)
1 + jω/ω1

1
H2 ( jω) = (1.36)
1 + 1/Q0 jω/ω0 + ( jω/ω0 )2
valent respectivement
ϕ1 (ω) = −atan (ω/ω1 ) (1.37)
!
ω/ (Q0 ω0 )
ϕ2 (ω) = −atan (1.38)
1 − (ω/ω0 )2

Les temps de propagation valent alors

ϕ1 (ω) atan (ω/ω1 )


t p,1 (ω) ≡ − =
ω ω

24 (C)2005 freddy.mudry@eivd.ch
1.5 Filtres de Bessel

ω/(Q0 ω0 )
 
ϕ2 (ω) atan
1−(ω/ω0 )2
t p,2 (ω) ≡ − =
ω ω
La valeur du temps de propagation est généralement donnée pour les basses-fréquences
(ω → 0) ; on obtient alors pour les cellules d’ordre 1 et 2, respectivement

1 1
t p,1 = , t p,2 = (1.39)
ω1 Q0 ω 0
Comme un filtre d’ordre quelconque est constitué de cellules d’ordre 1 et 2, les temps de
propagation s’ajoutent pour donner

1
tp = ∑ (1.40)
k Q0,k ω0,k

avec Q0,k = 1 pour les cellules d’ordre 1.

1.5.3 Fonctions de transfert

Les fonctions de transfert conduisant à un temps de propagation constant dans la bande


passante possèdent un dénominateur décrit par des polynômes de Bessel

1
P(s) = = 1 + b1 s + b2 s2 + · · · bn sn (1.41)
H(s)

dont les coefficients se calculent de manière itérative


2 (n − k + 1)
bk = bk−1 avec b1 = 1 (1.42)
k (2n − k + 1)

Le tableau 1.4 donne quelques polynômes de Bessel décomposés en produits de binômes


et trinômes normalisés par rapport à la pulsation de coupure du filtre. Le tableau a été
construit en recherchant numériquement les racines des polynômes originaux et les pul-
sations de coupure.

1.5.4 Synthèse d’un filtre de Bessel

D’un point de vue analytique, il n’existe malheureusement pas d’approche simple pour
trouver les pôles de H(s). On ne peut donc pas déterminer analytiquement la valeur de la
pulsation de coupure et trouver l’ordre du filtre à partir d’un gabarit. On se contente alors
d’une approche itérative conduisant à vérifier si un filtre donné (ordre et pulsation de
coupure) entre bien dans le gabarit requis. La synthèse se résume donc à définir la bande
passante (-3 dB) désirée et à choisir un ordre du filtre suffisamment élevé pour atteindre
l’atténuation souhaitée.
À titre illustratif, considérons le cas d’un filtre de Bessel d’ordre 6 et de pulsation de
coupure ωc = 1 [rad/sec]. Du tableau 1.4, on tire le polynôme normalisé par rapport à

(C)2005 freddy.mudry@eivd.ch 25
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

n P(s)

1 (1 + s)

1 + 1.3614s + 0.6178s2

2

(1 + 1.3225s) 1 + 0.9998s + 0.4773s2



3

1 + 1.3389s + 0.4883s2 1 + 0.7738s + 0.3885s2


 
4

(1 + 1.5015s) 1 + 1.1408s + 0.4133s2 1 + 0.6219s + 0.3249s2


 
5

1 + 1.2224s + 0.3891s2 1 + 0.9691s + 0.3509s2 1 + 0.5133s + 0.2759s2


  
6

(1 + 1.6840s) 1 + 1.0946s + 0.3396s2 1 + 0.8305s + 0.3012s2 1 + 0.4333s + 0.2382s2


  
7

1 + 1.112s + 0.3166s2 1 + 0.976s + 0.2984s2 1 + 0.721s + 0.2625s2 1 + 0.373s + 0.209s2


   
8

TAB . 1.4: Quelques polynômes de Bessel-Thomson

la pulsation de coupure ωc . Comme nous avons choisi de prendre ωc = 1 [rad/sec], ce


polynôme n’a pas besoin d’être modifié et l’on a
1
H(s) =
(1 + 1.2224s + 0.3891s2 ) (1 + 0.9691s + 0.3509s2 ) (1 + 0.5133s + 0.2759s2 )

De cette fonction de transfert, nous déduisons que le filtre est réalisé à l’aide de trois
cellules d’ordre 2 caractérisées par :
 
1 rad 1
ω01 = √ = 1.60 Q01 = = 0.51
0.3891 sec 1.2224 · ω01
 
1 rad 1
ω02 = √ = 1.69 Q02 = = 0.61
0.3509 sec 0.9691 · ω02
 
1 rad 1
ω03 = √ = 1.90 Q03 = = 1.02
0.2759 sec 0.5133 · ω03
Comme le temps de propagation total est égal à la somme des temps de propagation de
chaque cellule, on a
3
1
tp = ∑ Q0k · ω0k
= 1.22 + 0.97 + 0.51 = 2.70 [sec]
k=1

La figure 1.20 montre la réponse fréquentielle de ce filtre d’ordre 6 dont la pulsation de


coupure vaut 1 rad/sec. La figure 1.21 illustre la réponse indicielle du filtre. Il est inté-
ressant de relever que le temps nécessaire pour atteindre le 50% de la réponse indicielle

26 (C)2005 freddy.mudry@eivd.ch
1.6 Largeur de bande et durée de la réponse temporelle

correspond au temps de propagation du filtre. Enfin, la figure 1.22 montre comment la


phase et le temps de propagation changent avec la pulsation. On voit bien que, dans la
bande passante, la phase varie linéairement et que le temps de propagation est pratique-
ment indépendant de la pulsation.

Réponse fréquentielle
10

−10

−20

−30
HdB(ω)

−40

−50

−60

−70

−80
−1 0 1
10 10 10
ω/ωc

F IG . 1.20: Réponse fréquentielle d’un filtre de Bessel d’ordre 6

1.6 Largeur de bande et durée de la réponse temporelle

Lors de l’utilisation des filtres, on souhaite souvent avoir simultanément une bande pas-
sante étroite et un régime transitoire rapide. Or, cela est inconciliable. Pour le voir, consi-
dérons un filtre passe-bande dont la fonction de transfert est décrite par sa pulsation ca-
ractéristique ω0 et son facteur de qualité Q0 :

1/Q0 (s/ω0 )
H(s) = (1.43)
1 + 1/Q0 (s/ω0 ) + (s/ω0 )2

Sachant que le facteur de qualité et la largeur de bande sont reliés entre eux par
ω0
∆ω = (1.44)
Q0

la fonction de transfert du filtre passe-bande peut également s’écrire sous la forme

∆ω s
H(s) = (1.45)
s2 + ∆ω s + ω20

(C)2005 freddy.mudry@eivd.ch 27
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

Réponse indicielle

0.8

0.6
y(t)

0.4

0.2

0
0 1 2 3 4 5 6 7 8 9 10
ω c⋅ t

F IG . 1.21: Réponse indicielle d’un filtre de Bessel d’ordre 6

Phase et temps de propagation


4

2
∠ H(jω)

−2

−4
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

2.74

2.72

2.7
tp (ω)

2.68

2.66

2.64

2.62
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
ω/ωc

F IG . 1.22: Phase et temps de propagation d’un filtre de Bessel d’ordre 6

28 (C)2005 freddy.mudry@eivd.ch
1.7 Réalisations des filtres analogiques

Les pôles de cette fonction de transfert valent :


s
∆ω ∆ω
 2
p1,2 = − ± − ω20
2 2
∆ω
 q 
= − 1 ± 1 − 4 Q0 2
2
Si le filtre passe-bande est sélectif, le facteur de qualité est élevé et l’expression des pôles
se simplifient pour donner :
∆ω
p1,2 ' − ± jω0 (1.46)
2
La réponse transitoire du filtre est alors décrite par :
∆ω
 
yh (t) = A1 e + A2 e = A exp − t cos (ω0t + α)
p1 t p2 t
(1.47)
2
Ceci est une réponse oscillante amortie dont la constante de temps τ vaut 2/∆ω = 1/π∆ f .
Considérant que la durée du régime transitoire vaut environ 3 constantes de temps, on en
tire la relation importante suivante :
3 1
∆t ' 3τ = ' (1.48)
π∆ f ∆f
Cette relation montre que l’on ne peut pas avoir simultanément une grande sélectivité
(∆ f petit) et un régime transitoire court (∆t petit). Une conclusion similaire est vérifiée
pour les filtres autres que passe-bande pour lesquels on ne peut pas avoir simultanément
une bande de transition étroite et un temps d’établissement rapide.

1.7 Réalisations des filtres analogiques

1.7.1 Filtres normalisés

Comme on l’a déjà dit, les filtres sont représentés par des fonctions de transfert dont les
numérateurs et dénominateurs sont des polynômes P(s) décomposés en facteurs simples
d’ordre 1 ou 2 :
P1 (s) = 1 + s/ω1 (1.49)
 2
1 s s
P2 (s) = 1 + + (1.50)
Q0 ω0 ω0
Aussi, pour caractériser un filtre d’ordre quelconque, suffit-il de donner les pulsations
caractéristiques et les facteurs de qualité de chaque cellule. C’est ce qui est fait pour les
filtres passe-bas dans le tableau 1.5.
On notera que pour les filtres de Butterworth et Bessel, la pulsation de normalisation est la
pulsation de coupure ωc (3 dB d’atténuation). Alors que, pour les filtres de Tchebycheff,
la pulsation de normalisation est celle correspondant à la bande dans laquelle on accepte
une ondulation. L’amplitude r de l’ondulation admise s’exprime généralement en dB et
les valeurs les plus souvent proposées sont 0.5 dB (5.9% d’ondulation) et 1.0 dB (12.2%
d’ondulation).

(C)2005 freddy.mudry@eivd.ch 29
1 É LÉMENTS DE FILTRAGE ANALOGIQUE

Cellules
Ordre
Btw (1) Bessel Tchb. 0.5 dB Tchb. 1 dB

ωk ωk ωk
Qk ωc Qk ω 0.5dB Qk ω 1dB Qk

1 1 1.000 2.8628 1.9652


2 1 0.7071 1.2723 0.5774 1.2313 0.8637 1.0500 0.9565
3 1 1.3225 0.6265 0.4942
2 1.0000 1.4474 0.6910 1.0689 1.7062 0.9971 2.0177
4 1 0.5412 1.4310 0.5219 0.5970 0.7051 0.5286 0.7845
2 1.3066 1.6043 0.8055 1.0313 2.9406 0.9932 3.5590
5 1 1.5015 0.3623 0.2895
2 0.6180 1.5555 0.5635 0.6905 1.1778 0.6552 1.3988
3 1.6180 1.7545 0.9165 1.0177 4.5450 0.9941 5.5564
6 1 0.5176 1.6030 0.5103 0.3962 0.6836 0.3531 0.7609
2 0.7071 1.6882 0.6112 0.7681 1.8104 0.7468 2.1980
3 1.9319 1.9037 1.0233 1.0114 6.5128 0.9954 8.0037
7 1 1.6840 0.2562 0.2054
2 0.5550 1.7160 0.5324 0.5039 1.0916 0.4801 1.2969
3 0.8019 1.8221 0.6608 0.8227 2.5755 0.8084 3.1559
4 2.2470 2.0491 1.1263 1.0080 8.8418 0.9963 10.8987
8 1 0.5098 1.7772 0.5060 0.2967 0.6766 0.2651 0.7530
2 0.6013 1.8308 0.5596 0.5989 1.6107 0.5828 1.9565
3 0.8999 1.9518 0.7109 0.8610 3.4657 0.8506 4.2661
4 2.5629 2.1872 1.2257 1.0059 11.5308 0.9971 14.2405
9 1 1.8570 0.1984 0.1593
2 0.5321 1.8788 0.5197 0.3954 1.0664 0.3773 1.2600
3 0.6527 1.9483 0.5895 0.6727 2.2131 0.6622 2.7129
4 1.000 2.0808 0.7606 0.8885 4.4780 0.8806 5.5266
5 2.8794 2.3228 1.3219 1.0046 14.5793 0.9976 18.0286
10 1 0.5062 1.9412 0.5039 0.2372 0.6734 0.2121 0.7495
2 0.5612 1.9790 0.5376 0.4878 1.5347 0.4761 1.8645
3 0.7071 2.0606 0.6205 0.7293 2.8913 0.7215 3.5605
4 1.1013 2.2021 0.8098 0.9087 5.6114 0.9025 6.9367
5 3.1962 2.4487 1.4153 1.0037 17.9871 0.9980 22.2630

(1) Pour toutes les cellules des filtres de Butterworth, on a ωk /ωc = 1

TAB . 1.5: Pulsations et facteurs de qualité des filtres normalisés

30 (C)2005 freddy.mudry@eivd.ch
2 S YNTHÈSE DES FILTRES RÉCURSIFS

2.1 Réponse fréquentielle d’un filtre numérique

Avant de considérer la synthèse d’un filtre numérique, rappelons que celui-ci est décrit
par sa fonction de transfert en z qui peut s’écrire sous deux formes équivalentes

b0 zn + b1 zn−1 + · · · + bn
H(z) = (2.1)
zn + a1 zn−1 + · · · + an

b0 + b1 z−1 + · · · + bn z−n
H(z) = (2.2)
1 + a1 z−1 + · · · + an z−n
La première forme sert essentiellement à l’analyse des performances du filtre (recherche
des pôles et zéros), alors que de la deuxième on tire immédiatement l’équation aux diffé-
rences qui servira à réaliser le filtre :

y[n] = b0 x[n] + b1 x[n − 1] + b2 x[n − 2] + · · ·


−a1 y[n − 1] − a2 y[n − 2] − · · ·

Si l’on souhaite connaître la réponse fréquentielle d’un filtre, il suffit de remplacer l’opé-
rateur de retard z−1 par sa transformée de Fourier

z−1 ⇔ exp(− jωTe ) ≡ exp(− jΩ) (2.3)

où Ω est la pulsation numérique ou normalisée qui se mesure en [rad/échantillon]. On


obtient alors
b0 + b1 exp(− jΩ) + · · · + bn exp(− jnΩ)
H( jΩ) = (2.4)
1 + a1 exp(− jΩ) + · · · + an exp(− jnΩ)

Comme l’exponentielle imaginaire est périodique, la réponse fréquentielle d’un filtre nu-
mérique est également périodique de période fe et sa représentation se fait dans le do-
maine de fréquences allant de 0 à fe /2 (ou fe ). Si l’on considère la pulsation numérique
Ω, la représentation se fait alors de 0 à π (ou 2π) .
On notera que les valeurs particulières de H(0) (composante DC) ou H(π) (fréquence de
Nyquist fN = fe /2) se calculent aisément et qu’elles valent :
b0 + b1 + b2 + b3 + · · · + bn
H( j0) =
1 + a1 + a2 + a3 + · · · + an
b0 − b1 + b2 − b3 + · · · + bn
H( jπ) =
1 − a1 + a2 − a3 + · · · + an

(C)2005 freddy.mudry@eivd.ch 45
2 S YNTHÈSE DES FILTRES RÉCURSIFS

Exemple Considérons un filtre passe-bas résonant d’ordre 2 décrit par

z−1 z
H(z) = −1 −2
= 2
1 − 1.7 z + 0.81 z z − 1.7 z + 0.81

On en tire immédiatement deux valeurs particulières de la réponse fréquentielle : la com-


posante DC (z = 1) et celle à la fréquence de Nyquist fe /2 (z = −1) :

1
H( j0) = = +9.091
1 − 1.7 + +0.81
−1
H( jπ) = = −0.285
1 + 1.7 + +0.81

En remplaçant l’opérateur de retard z−1 par son équivalent fréquentiel exp(− jΩ), on peut
calculer la réponse fréquentielle du filtre H( jΩ) qui s’écrit

exp(− jΩ)
H( jΩ) =
1 − 1.7 exp(− jΩ) + 0.81 exp(− j2Ω)

cos(Ω) − j sin(Ω)
H( jΩ) =
1 − 1.7 cos(Ω) + j 1.7 sin(Ω) + 0.81 cos(2Ω) − j 0.81 sin(2Ω)

De cette fonction complexe, on tire facilement le module et l’argument de H( jΩ) :

1
|H( jΩ)| = q
(1 − 1.7 cos(Ω) + 0.81 cos(2Ω))2 + (1.7 sin(Ω) − 0.81 sin(2Ω))2
 
1.7 sin(Ω) − 0.81 sin(2Ω)
∠H( jΩ) = −Ω − arctan
1 − 1.7 cos(Ω) + 0.81 cos(2Ω)
La figure 2.1 présente les réponses temporelles (impulsionnelle et indicielle) et fréquen-
tielles (module et argument) de ce filtre.

2.2 Le problème de l’approximation

La synthèse des filtres numériques consiste à rechercher les coefficients ak et bk de la


fonction de transfert H(z) de manière à ce que la réponse harmonique du filtre satisfasse
au cahier des charges fixé au préalable. Cette synthèse peut être basée sur les connais-
sances que l’on a de la réponse des filtres analogiques ou sur des méthodes spécifiques
aux filtres numériques. Dans ce qui suit, on se contentera, partant des filtres analogiques,
de rechercher des filtres numériques au comportement similaire.
Sachant que le comportement fréquentiel des filtres analogiques est complètement déter-
miné par la donnée de la fonction de transfert H(s),

d0 + d1 s + d2 s2 + · · · + dn sn
H(s) = (2.5)
c0 + c1 s + c2 s2 + · · · + cn sn

46 (C)2005 freddy.mudry@eivd.ch
2.3 La transformation associée

2.5 20

2
15
1.5

|H(jf)|
h(n)

10
0.5

0
5
−0.5

−1 0
0 10 20 30 40 50 0 0.2 0.4 0.6 0.8 1

14 0

12 −1

10 −2

8 −3

∠ H(jf)
g(n)

6 −4

4 −5

2 −6

0 −7
0 10 20 30 40 50 0 0.2 0.4 0.6 0.8 1
n f [Hz]

F IG . 2.1: Réponses temporelles et fréquentielles d’un filtre numérique passe-bas

on cherche à obtenir le même type de réponse fréquentielle avec des filtres numériques
décrits par
b0 + b1 z−1 + b2 z−2 + · · · + bn z−n
H(z) = (2.6)
a0 + a1 z−1 + a2 z−2 + · · · + an z−n
Comme les correspondances que l’on établira entre s et z conduisent toutes à des approxi-
mations des réponses temporelle et fréquentielle analogiques, on peut imaginer un grand
nombre de transformations possibles. Parmi celles-ci, il en est deux que l’on rencontre
fréquemment et qui seules sont présentées ici : la transformation associée et la transfor-
mation bilinéaire.

2.3 La transformation associée

Cette transformation associe les pôles et zéros de H(z) à ceux de H(s). Autrement dit,
connaissant la position des pôles et zéros du filtre analogique situés dans le demi-plan
complexe, on construit un filtre numérique ayant les pôles et zéros correspondants situés
dans un cercle de rayon unité (figure 2.2).
Sachant que la variable z représente un décalage temporel d’une période d’échantillon-
nage Te , on a
z = exp(s Te ) (2.7)

(C)2005 freddy.mudry@eivd.ch 47
2 S YNTHÈSE DES FILTRES RÉCURSIFS

Im(s) Im(z)

+jω
ωTe

Re(s) e-σTe
Re(z)

-jω

F IG . 2.2: Position des pôles analogiques et des pôles numériques

On en déduit alors que la variable s peut simplement être remplacée par la fonction
1
s = ln(z) (2.8)
Te
qui, à une racine analogique ra , fait correspondre une racine numérique rn telle que
rn = exp(ra Te ) (2.9)
De manière équivalente, cette approche revient à relier les polynômes analogiques Pa (s)
aux polynômes numériques Pn (z).
Considérant que tout filtre est représenté fondamentalement par des polynômes d’ordre 1
et 2, on peut se contenter d’analyser les deux situations suivantes.
1. À un polynôme analogique d’ordre 1 et sa racine ra
Pa1 (s) = 1 + s/ωc ⇒ ra = −ωc (2.10)
correspond un polynôme numérique d’ordre 1
Pn1 (z) = 1 + a1 z−1 avec (2.11)
a1 = − exp(−ωc Te ) (2.12)
2. À un polynôme analogique d’ordre 2 et ses racines ra1,2
Pc2 (s) = 1 + a1 s + a2 s2 ⇒ ra1,2 = −σ ± jω0 (2.13)
correspond un polynôme numérique d’ordre 2
Pn2 (z) = 1 − 2R cos(Ω0 )z−1 + R2 z−2 avec (2.14)
R = exp(−σ Te ) Ω0 = ω0 Te (2.15)
Une fois les correspondances polynomiales obtenues, il reste à ajuster le gain de H(z) afin
que, pour une fréquence donnée, on ait la même amplitude de la réponse fréquentielle en
numérique qu’en analogique.

48 (C)2005 freddy.mudry@eivd.ch
2.3 La transformation associée

2.3.1 Exemple de transformation associée

Considérant un filtre analogique passe-bas de Butterworth d’ordre 3 ayant sa fréquence de


coupure en fc = 1 kHz (figure 2.3), on désire réaliser un filtre numérique au comportement
similaire sachant que l’on a choisi une fréquence d’échantillonnage fe = 1/Te de 10 kHz.

0.3 10

0.25

0.2
0
0.15
h(t)

0.1
−10
0.05

−0.05 −20
0 0.5 1 1.5 2 2.5

|H(jf)| [dB]
1.4 −30

1.2

1
−40
0.8
g(t)

0.6
−50
0.4

0.2

0 −60
0 0.5 1 1.5 2 2.5 10
2 3
10 10
4

t [ms] f [Hz]

F IG . 2.3: Réponses d’un filtre analogique passe-bas de Butterworth

Solution On sait qu’un filtre passe-bas de Butterworth d’ordre 3 est décrit par une cel-
lule d’ordre 1 suivie d’une cellule d’ordre 2 telles que
1
H(s) =   (2.16)
(1 + s/ωc ) 1 + s/ωc + (s/ωc )2

On en déduit que les pôles de ce filtre analogique valent

pa1 = −ωc = −2000 π


 √   √ 
pa2,3 = −ωc 1 ± j 3 /2 = −1000 π 1 ± j 3 ≡ −σ ± jω0

Tenant compte des équations (2.12) et (2.15), il vient :

1. un polynôme numérique d’ordre 1 :

P1 (z) = 1 + a1 z−1 avec

(C)2005 freddy.mudry@eivd.ch 49
2 S YNTHÈSE DES FILTRES RÉCURSIFS

a1 = − exp(−ωc Te ) = −0.5335
d’où
P1 (z) = 1 − 0.5335 z−1 (2.17)
2. un polynôme numérique d’ordre 2 :
P2 (z) = 1 − 2R cos(Ω0 )z−1 + R2 z−2 avec

R = exp(−σ Te ) = exp(−π/10) = 0.730 Ω0 = ω0 Te = π 3/10 = 0.544
d’où
P2 (z) = 1 − 1.25 z−1 + 0.5335 z−2 (2.18)

Ces deux polynômes décrivent la fonction de transfert du filtre passe-bas numérique dont
les gains G1 et G2 sont inconnus :
G1 G2
H(z) =
(1 − 0.5335 z ) (1 − 1.25 z + 0.5335 z−2 )
−1 −1

Il reste donc à adapter les gains de chaque cellule du filtre de manière à ce que l’amplitude
du filtre numérique soit la même que celle du filtre analogique pour une fréquence donnée.
Comme il s’agit ici d’un filtre passe-bas, c’est le comportement DC des filtres qui doit
être identique. Sachant que les valeurs DC des réponses analogique et numérique sont
obtenues pour s = 0 et, respectivement, z = 1, il vient :
H(s → 0) = 1
G1 G2 G1 G2
H(z → 1) = = = H(s → 0) = 1
(1 − 0.5335) (1 − 1.25 + 0.5335) 0.4665 0.2835
En choisissant G1 = 0.4665 et G2 = 0.2835, on obtient la fonction de transfert recherchée
qui s’écrit dans l’une des deux formes suivantes
0.4665 0.2835
H(z) =
(1 − 0.5335 z−1 ) (1 − 1.25 z−1 + 0.5335 z−2 )
0.4665 z 0.2835 z2
H(z) =
(z − 0.5335) (z2 − 1.25 z + 0.5335)

Remarque On notera que l’égalité des ordres du numérateur et dénominateur conduit le


filtre à répondre instantanément à l’excitation. Cette situation peu réaliste, en particulier
pour un filtre passe-bas, nous incite à ajouter un retard unitaire z−1 à H(z). Les fonctions
de transfert s’écrivent alors dans l’une ou l’autre des deux formes suivantes :
0.4665 0.2835
H(z) = z−1 (2.19)
(1 − 0.5335 z ) (1 − 1.25 z−1 + 0.5335 z−2 )
−1

0.4665 z 0.2835 z
H(z) = (2.20)
(z − 0.5335) (z2 − 1.25 z + 0.5335)
Les réponses temporelle et fréquentielle de ce filtre sont représentées dans la figure 2.4
où on les compare avec celles du filtre analogique.

50 (C)2005 freddy.mudry@eivd.ch
2.3 La transformation associée

0.3 10

0.25

0.2
0
0.15
h(n)

0.1
−10
0.05

−0.05 −20
0 5 10 15 20 25

|H(jf)| [dB]
1.4 −30

1.2

1
−40
0.8
g(n)

0.6
−50
0.4

0.2

0 −60
0 5 10 15 20 25 10
2 3
10 10
4

n f [Hz]

F IG . 2.4: Réponses d’un filtre numérique obtenu par transformation associée

2.3.2 Modification de la transformation associée

En observant la réponse fréquentielle du filtre numérique, on remarquera que son atté-


nuation à la fréquence de Nyquist ne dépasse pas 30 dB environ. Ceci représente un des
inconvénients majeurs de la méthode. On peut pallier ce défaut en remplaçant les zéros
de la fonction de transfert qui se situent en z = 0 par des zéros situés en z = −1. Comme
le gain introduit par chaque nouveau zéro est égal à deux, il ne faut pas oublier de réduire
d’autant le gain global. La nouvelle fonction de transfert s’écrit alors

1 0.4665 (z + 1) 0.2835 (z + 1)
H(z) = 2
(2.21)
4 (z − 0.5335) (z − 1.25 z + 0.5335)

1 0.4665 (1 + z−1 ) 0.2835 (1 + z−1 )


H(z) = z−1 (2.22)
4 (1 − 0.5335 z−1 ) (1 − 1.25 z−1 + 0.5335 z−2 )

Les réponses temporelle et fréquentielle du filtre obtenu par la modification de la trans-


formation associée sont représentées dans la figure 2.5 où on les compare avec celles du
filtre analogique.

(C)2005 freddy.mudry@eivd.ch 51
2 S YNTHÈSE DES FILTRES RÉCURSIFS

0.3 10

0.25

0.2
0
0.15
h(n)

0.1
−10
0.05

−0.05 −20
0 5 10 15 20 25

|H(jf)| [dB]
1.4 −30

1.2

1
−40
0.8
g(n)

0.6
−50
0.4

0.2

0 −60
0 5 10 15 20 25 10
2
10
3 4
10
n f [Hz]

F IG . 2.5: Réponses d’un filtre numérique obtenu par modification de la transformation


associée

2.4 La transformation bilinéaire

2.4.1 Introduction

Le but de la transformation bilinéaire est de trouver une équation aux différences du filtre
H(z) dont la solution est proche de celle de l’équation différentielle du filtre analogique
H(s), solution que l’on obtient par intégration. Parmi les différentes méthodes numériques
d’intégration, il en est une qui offre un bon compromis entre la qualité des résultats et
la facilité de mise en oeuvre ; il s’agit de l’intégration trapézoïdale. Celle-ci revient à
remplacer l’intégrale
Z t Z t−Te Z t
y(t) = x(t)dt = x(t)dt + x(t)dt
0 0 t−Te

par l’opération suivante


(x[n] + x[n − 1])
y[n] = y[n − 1] + Te
2
On montre alors aisément que cela revient à remplacer la variable s par une fonction
bilinéaire en z
2 1 − z−1 2 z−1
s= −1
= (2.23)
Te 1 + z Te z + 1

52 (C)2005 freddy.mudry@eivd.ch
2.4 La transformation bilinéaire

Remarque Si l’on se souvient que l’on a


1
z = e+sTe ⇔ s= ln(z)
Te
il est intéressant de relever que la transformation bilinéaire revient à ne conserver que le
premier terme du développement en série de la fonction logarithme naturel

z−1 2
   
z−1
ln(z) = 2 + +···
z+1 z+1

2.4.2 Transformation bilinéaire d’une fonction de transfert

Comme tout filtre est représenté par des produits de polynômes d’ordre 1 et 2, on se
contente d’analyser les deux situations suivantes dans lesquelles on remplacera la variable
s par la fonction
1 − z−1 2
s→γ −1
avec γ = (2.24)
1+z Te

Polynôme d’ordre 1 Dans ce cas, le polynôme

Pa1 (s) = a0 + a1 s (2.25)


est remplacé par une fraction d’ordre 1

1 − z−1
F1 (z) = a0 + a1 γ
1 + z−1
(a0 + a1 γ) + (a0 − a1 γ) z−1
=
1 + z−1
d’où
q0 + q1 z−1
F1 (z) = (2.26)
1 + z−1
avec q0 = a0 + a1 γ (2.27)
q1 = a0 − a1 γ (2.28)

Polynôme d’ordre 2 Dans ce cas, le polynôme

Pa2 (s) = a0 + a1 s + a2 s2 (2.29)

est remplacé par une fraction d’ordre 2


2
1 − z−1 1 − z−1

F2 (z) = a0 + a1 γ + a2 γ
1 + z−1 1 + z−1
a0 + a1 γ + a2 γ2 + 2 a0 − a2 γ2 z−1 + a0 − a1 γ + a2 γ2 z−2
  
=
1 + 2z−1 + z−2

(C)2005 freddy.mudry@eivd.ch 53
2 S YNTHÈSE DES FILTRES RÉCURSIFS

d’où

q0 + q1 z−1 + q2 z−2
F2 (z) = (2.30)
1 + 2z−1 + z−2
avec q0 = a0 + a1 γ + a2 γ2 (2.31)
= 2 a0 − a2 γ2

q1 (2.32)
q2 = a0 − a1 γ + a2 γ2 (2.33)

2.4.3 Exemple de transformation bilinéaire

Reprenons l’exemple du filtre de Butterworth d’ordre 3 vu précédemment

1
H(s) =  
(1 + s/ωc ) 1 + s/ωc + (s/ωc )2

avec ωc = 2π fc = 2000 π rad/sec et fe = 10 kHz.

Solution Prenant en compte les valeurs numériques, on a γ = 2/Te = 2 · 104 [sec−1 ]. La


transformation des polynômes donne alors les résultats suivants :

1. Polynôme d’ordre 1 : Pa1 (s) = 1 + 1.5915 · 10−4 s

q0 = a0 + a1 γ = 1 + 1.5915 · 10−4 · 2 · 104


= +4.1831
q1 = a0 − a1 γ = 1 − 1.5915 · 10−4 · 2 · 104
= −2.1831

d’où

1 1 + z−1 1 + z−1
H1 (z) = = =
F1 (z) q0 + q1 z−1 4.1831 − 2.1831 z−1
0.239 1 + z−1

=
1 − 0.5219 z−1

2. Polynôme d’ordre 2 : Pa2 (s) = 1 + 1.5915 · 10−4 s + 2.533 · 10−8 s2

q0 = a0 + a1 γ + a2 γ2 = 1 + 1.5915 · 10−4 · 2 · 104 + 2.533 · 10−8 · 4 · 108


= +14.315
2 a0 − a2 γ2 = 2 1 − 2.533 · 10−8 · 4 · 108
 
q1 =
= −18.264
q2 = a0 − a1 γ + a2 γ2 = 1 − 1.5915 · 10−4 · 2 · 104 + 2.533 · 10−8 · 4 · 108
= +7.949

54 (C)2005 freddy.mudry@eivd.ch
2.4 La transformation bilinéaire

d’où

1 1 + 2z−1 + z−2
H2 (z) = =
Fn2 (z) q0 + q1 z−1 + q2 z−2
1 + 2z−1 + z−2
=
14.315 − 18.264 z−1 + 7.949 z−2
0.06986 1 + 2z−1 + z−2

=
1 − 1.2759 z−1 + 0.5553 z−2

La fonction de transfert globale est ainsi égale au produit de ces deux fonctions de transfert
partielles qui correspondent à deux cellules passe-bas bas à gain unité. La fonction de
transfert globale s’écrit alors sous l’une des deux formes suivantes

0.239 1 + z−1 0.06986 1 + 2z−1 + z−2


 
H(z) = (2.34)
1 − 0.5219 z−1 1 − 1.2759 z−1 + 0.5553 z−2

0.239 (z + 1) 0.06986 z2 + 2z + 1

H(z) = (2.35)
z − 0.5219 z2 − 1.2759 z + 0.5553
Les réponses temporelle et fréquentielle de ce filtre sont représentées dans la figure 2.6
où elles sont comparées avec celles du filtre analogique.

0.3 10

0.25

0.2
0
0.15
h(n)

0.1
−10
0.05

−0.05 −20
0 5 10 15 20 25
|H(jf)| [dB]

1.4 −30

1.2

1
−40
0.8
g(n)

0.6
−50
0.4

0.2

0 −60
0 5 10 15 20 25 10
2 3
10 10
4

n f [Hz]

F IG . 2.6: Réponses d’un filtre numérique obtenu par transformation bilinéaire

(C)2005 freddy.mudry@eivd.ch 55
3 S YNTHÈSE DES FILTRES NON
RÉCURSIFS

3.1 Introduction

Les filtres non récursifs que l’on appelle également filtres à réponse impulsionnelle finie
(RIF) se distinguent des filtres récursifs étudiés dans le chapitre précédent par les points
suivants :
– ils sont toujours stables ;
– ils peuvent être conçus pour avoir une phase linéaire exacte ;
– ils nécessitent généralement plus de matériel et de temps de calcul.
Un filtre non récursif d’ordre N comporte N + 1 coefficients et peut être décrit de manière
équivalente par :

1. sa réponse impulsionnelle de longueur L = N + 1


N
h[n] = {h[0], h[1], h[2], · · · , h[N]} = ∑ h[k] δ[n − k] (3.1)
k=0

2. son équation aux différences


N
y[n] = ∑ h[k] x[n − k] (3.2)
k=0

3. sa fonction de transfert d’ordre N


N
Y (z)
H(z) = = ∑ h[n] z−n (3.3)
X(z) n=0

4. sa réponse fréquentielle que l’on évalue en remplaçant z−1 par e− jΩ


N
Y ( jΩ)
H( jΩ) = = ∑ h[n] e− jnΩ (3.4)
X( jΩ) n=0

3.2 Spécifications

Les spécifications d’un filtre se donnent sous la forme d’un gabarit en valeurs réelles ou
relatives (dB). Un exemple de gabarit pour un filtre passe-bas est illustré dans la figure
3.1. On y trouve :

(C)2005 freddy.mudry@eivd.ch 63
3 S YNTHÈSE DES FILTRES NON RÉCURSIFS

1. la bande passante [0, Ω p ] ;


2. les bandes de transition (Ω p , Ωa ) et d’arrêt[Ωa , π] ;
3. l’ondulation acceptée dans la bande passante, exprimée par δ1 ou R p [dB] ;
4. l’atténuation souhaitée dans la bande d’arrêt, exprimée par δ2 ou Aa [dB].

|H(jΩ)|

1+δ1 Ωp
Ωa π Ω
1 0
1-δ1 Rp

Aa

δ2
AdB
0 Ωp Ωa π Ω

F IG . 3.1: Gabarit d’un filtre


Le gain du filtre passe-bas valant 1 lorsque Ω → 0, les relations entre les valeurs réelles
ou relatives du gabarit sont alors définies comme suit :
R p = |20 log (1 ± δ1 )| > 0 (3.5)
Aa = −20 log(δ2 ) > 0 (3.6)

ou inversément :  
δ1 = ± 10+R p /20
−1 (3.7)

δ2 = 10−Aa /20 (3.8)

3.3 Propriétés des filtres RIF à phase linéaire

De manière générale, un filtre RIF ne possède aucune propriété particulière concernant le


module ou la phase de la réponse fréquentielle mis à part que c’est le seul type de filtres
pouvant offrir une phase linéaire exacte (qui est une des propriétés du filtre idéal). C’est
donc essentiellement pour cette propriété que l’on utilise les filtres à réponse impulsion-
nelle finie.

3.3.1 Réponses impulsionnelle et fréquentielle

Dans le cas où on désire avoir une phase linéaire, la réponse impulsionnelle doit posséder
une symétrie paire ou une symétrie impaire ou, de manière équivalente, une symétrie
axiale ou ponctuelle. La justification en est donnée ci-dessous.

64 (C)2005 freddy.mudry@eivd.ch
3.3 Propriétés des filtres RIF à phase linéaire

Symétrie paire

Considérons un filtre RIF d’ordre N = 6 représenté par une séquence h[n] à symétrie paire
par rapport à Ns = 3 (figure 3.2a). Cette séquence provient d’une réponse impulsionnelle
paire h p [n] non causale dont la réponse fréquentielle est réelle.
Le décalage temporel (ici, un retard) nécessaire pour rendre le filtre causal entraîne le
déphasage linéaire souhaité. On a donc

 |H| = Hp
H( jΩ) = exp (− jNs Ω) H p ( jΩ) ⇒ (3.9)
∠H = {0, ±π} − Ns Ω

Le module de H( jΩ) est égal à celui du filtre non causal H p ( jΩ) et la phase varie linéai-
rement avec la pulsation. Le cas échéant, on devra, ajouter ±π à cette phase linéaire pour
tenir compte de la valeur négative éventuelle de H p ( jΩ).

5 5

4 a) 4 b)

3 3

2 2

1 1

0 ^ 0
Ns = 3 ^ N = 3.5
s
−1 −1
−5 0 5 10 −5 0 5 10

3 3

2 c) 2 d)

1 1

0 0
^ ^
Ns = 3 Ns = 3.5
−1 −1

−2 −2

−3 −3
−5 0 5 10 −5 0 5 10

F IG . 3.2: Réponses impulsionnelles à symétrie paire ou impaire

Symétrie impaire

Considérons un filtre RIF d’ordre N = 6 représenté par une séquence h[n] à symétrie
impaire par rapport à Ns = 3 (figure 3.2b). Cette séquence provient d’une réponse impul-
sionnelle impaire hi [n] non causale dont la réponse fréquentielle est purement imaginaire.
Le décalage temporel nécessaire pour rendre le filtre causal entraîne le déphasage linéaire
souhaité. On a donc

(C)2005 freddy.mudry@eivd.ch 65
3 S YNTHÈSE DES FILTRES NON RÉCURSIFS


 |H| = |Hi |
H( jΩ) = exp (− jNs Ω) Hi ( jΩ) ⇒ (3.10)
∠H = ±π/2 − Ns Ω

Le module de H( jΩ) est égal à celui du filtre non causal Hi ( jΩ) et sa phase varie linéai-
rement avec la pulsation à partir de ±π/2 suivant le signe de la valeur imaginaire.

Remarque

On peut bien sûr considérer des filtres d’ordre N impair (figures 3.2c et 3.2d). Dans ce
cas, l’axe ou le point de symétrie se situe entre
 2 valeurs de la réponse impulsionnelle h[n]
et le déphasage linéaire s’écrira − Ns + 21 Ω. Dans le cadre de ce cours, on n’analysera
que des filtres d’ordre N pair (c’est-à-dire de longueur L = N + 1 impaire) dont le point
ou axe de symétrie se situe obligatoirement sur une valeur entière de l’axe n.

Exemple

Considérons comme exemple un filtre causal dont la réponse impulsionnelle finie (fi-
gure 3.3a) est décrite par une séquence non-nulle de longueur L = 9 à symétrie paire

h[n] = {+1, +2, +3, +4, +5, +4, +3, +2, +1, 0, 0, · · ·} avec n = 0, 1, 2, · · ·

Par transformation en z de cette réponse impulsionnelle, on obtient la fonction de transfert


du filtre RIF :
N
H(z) = ∑ h[n] z−n
n=0
2z−1 + 3z−2 + 4z−3 + 5z−4 + 4z−5 + 3z−6 + 2z−7+ 1z−8
= 1 +
= z−8 1 + 2z + 3z2 + 4z3 + 5z4 + 4z5 + 3z6 + 2z7 + 1z8

On en conclut que ce filtre RIF, décrit par un polynôme d’ordre N = 8, possède 8 pôles
situés en z = 0 et 8 zéros dont les positions dans le plan complexe sont présentées dans la
figure 3.3b.
En remplaçant l’opérateur de retard z−1 par sa transformée de Fourier e− jΩ , on obtient la
réponse fréquentielle du filtre
N
H( jΩ) = ∑ h[k] e− jΩ
k=0
= 1 + 2e− jΩ + 3e− j2Ω + 4e− j3Ω + 5e− j4Ω + 4e− j5Ω + 3e− j6Ω + 2e− j7Ω + 1e− j8Ω

En mettant en évidence le phaseur central e− j4Ω , on obtient une forme illustrant claire-
ment la symétrie paire du filtre
 
H( jΩ) = e− j4Ω 1e+ j4Ω + 2e j3Ω + 3e j2Ω + 4e jΩ + 5 + 4e− jΩ + 3e− j2Ω + 2e− j3Ω + 1e− j4Ω

66 (C)2005 freddy.mudry@eivd.ch
3.3 Propriétés des filtres RIF à phase linéaire

6
a) 25
5 c)
20
4

3 15

|H(jΩ)|
h[n]
2 10
1
5
0
0
−1
0 5 10 −1 −0.5 0 0.5 1
n Ω/π

2 15
1
b) d)
2 10
0.5
5

∠ H(jΩ)
8
Im(z)

0 0

−5
−0.5 2
−10
2
−1
−15
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
Re(z) Ω/π

F IG . 3.3: Réponse impulsionnelle, pôles et zéros, amplitude et phase d’un filtre RIF à
symétrie paire

Utilisant la formule d’Euler 2 cos ϕ = exp(+ jϕ) + exp(− jϕ), on obtient finalement
H( jΩ) = e− j4Ω (5 + 8 cos(Ω) + 6 cos(2Ω) + 4 cos(3Ω) + 2 cos(4Ω))
Ce résultat montre à l’évidence que l’on a affaire à un filtre à phase linéaire puisque le
seul terme complexe de l’expression est le phaseur e− j4Ω . Ce filtre RIF possède donc une
réponse fréquentielle en amplitude (figure 3.3c) qui vaut
|H( jΩ)| = |5 + 8 cos(Ω) + 6 cos(2Ω) + 4 cos(3Ω) + 2 cos(4Ω)|
et une phase (figure 3.3d) décrite par
∠H( jΩ) = −4Ω

À titre de comparaison, il est intéressant de tracer les mêmes graphes (figure 3.4) pour
un filtre réalisé avec une réponse impulsionnelle similaire à la précédente mais avec une
symétrie impaire cette fois-ci :
h[n] = {+1, +2, +3, +4, 0, −4, −3, −2, −1, 0, 0, · · ·} avec n = 0, 1, 2, · · ·
dont la réponse fréquentielle vaut
 
H( jΩ) = e− j4Ω 1e+ j4Ω + 2e j3Ω + 3e j2Ω + 4e jΩ + 0 − 4e− jΩ − 3e− j2Ω − 2e− j3Ω − 1e− j4Ω
= 2 j e− j4Ω (4 sin(Ω) + 3 sin(2Ω) + 2 sin(3Ω) + sin(4Ω))
= 2 | (4 sin(Ω) + 3 sin(2Ω) + 2 sin(3Ω) + sin(4Ω)) | ∠ + π/2 − 4Ω

On peut relever que la symétrie paire conduit à un filtre passe-bas alors que la symétrie
impaire fournit un filtre passe-haut ou passe-bande.

(C)2005 freddy.mudry@eivd.ch 67
3 S YNTHÈSE DES FILTRES NON RÉCURSIFS

5
25
a) c)
20

15

|H(jΩ)|
h[n]
0
10

0
−5
0 5 10 −1 −0.5 0 0.5 1
n Ω/π

15
1.5 d)
b) 10
1

0.5 5

∠ H(jΩ)
3 8
Im(z)

0 0

−0.5 −5
−1
−10
−1.5
−15
−2 −1 0 1 2 −1 −0.5 0 0.5 1
Re(z) Ω/π

F IG . 3.4: Réponse impulsionnelle, pôles et zéros, amplitude et phase d’un filtre RIF à
symétrie impaire

3.4 Synthèse par fenêtrage

3.4.1 Principe du fenêtrage

Le point de départ de la synthèse des filtres RIF est donné par la considération des ré-
ponses impulsionnelles des filtres idéaux. Comme celles-ci sont infiniment longues et
non causales, on voit immédiatement que les filtres idéaux ne sont pas réalisables. On
doit donc manifestement se contenter d’une approximation de leurs réponses en les tron-
quant avant de les rendre causales.
Pour voir plus précisément comment cela se passe, considérons la réponse fréquentielle
Hd ( jω) d’un filtre analogique passe-bas idéal (figure 3.5a). Sa réponse impulsionnelle
hd (t) se calcule par transformation de Fourier inverse. On obtient ainsi une réponse tem-
porelle en forme de sinus cardinal et de longueur infinie (figure 3.5b).
De manière à ce que ce filtre soit réalisable, il faut tronquer cette réponse en respectant sa
symétrie paire (figure 3.5d). On obtient alors un filtre à réponse impulsionnelle de durée
finie, mais non causale puisque h(t) n’est pas nulle pour t < 0. Un décalage de cette
réponse à symétrie paire suffit à rendre le filtre causal (figure 3.5f), donc à phase linéaire
(figure 3.5e). Bien entendu, le module de sa réponse fréquentielle ne sera plus qu’une
approximation de l’idéal (figure 3.5c).
D’un point de vue mathématique, le fait de tronquer la réponse impulsionnelle hd (t) re-
vient à multiplier celle-ci par une fenêtre rectangulaire wr (t) et la réponse impulsionnelle

68 (C)2005 freddy.mudry@eivd.ch
3.4 Synthèse par fenêtrage

s’écrit alors :
h(t) = hd (t) · wr (t) (3.11)
Pour un filtre numérique, on aura de manière équivalente :

h[n] = hd [n] · wr [n] (3.12)

3.4.2 Effet de la troncation

L’opération de troncation qui, dans une première approche peut sembler anodine, modifie
sensiblement la réponse fréquentielle et entraîne des ondulations dans les bandes pas-
santes et d’arrêt. Ceci provient de la convolution entre la réponse fréquentielle du filtre
idéal et le spectre en sinus cardinal de la fenêtre rectangulaire :

H( jΩ) = Hd ( jΩ) ⊗W ( jΩ)


Z +π
1
H( jΩ) = Hd ( jθ)W ( jΩ − jθ) dθ (3.13)
2π −π

La figure 3.6 montre à l’évidence que l’ondulation caractérisant la réponse obtenue H( jΩ)
provient du spectre W ( jΩ) de la fenêtre choisie, ici rectangulaire.
Afin d’obtenir le meilleur compromis possible entre une faible ondulation et une bande
de transition étroite, on sera donc amené par la suite à choisir une fenêtre w[n] dont le
comportement fréquentiel est satisfaisant du point de vue du filtre à réaliser. C’est-à-
dire que l’on cherchera un compromis entre l’amplitude des ondulations et la largeur des
bandes de transition.

(C)2005 freddy.mudry@eivd.ch 69
3 S YNTHÈSE DES FILTRES NON RÉCURSIFS

1
10 a) b)

amplitude
module 0.5
5
0
0
−0.1 −0.05 0 0.05 0.1 −50 0 50

1
10 c) d)

amplitude
module

0.5
5
0
0
−0.1 −0.05 0 0.05 0.1 −50 0 50

10 1

5 e) f)
amplitude 0.5
phase

−5 0
−10
−0.1 −0.05 0 0.05 0.1 0 20 40 60 80 100
fréquence temps

F IG . 3.5: Passage du filtre idéal au filtre réalisable

1.5

0.5 W(jΩ−jθ) Hd(jΩ)

−1 −0.5 0 θ 0.5 1 1.5 2 2.5 3

1.5

H(jΩ)=H (jΩ) ⊗ W(jΩ)


d
1

0.5

Hd(jΩ)
0

−1 −0.5 0 0.5 1 1.5 2 2.5 3


Ω/π

F IG . 3.6: Convolution circulaire dans le domaine des fréquences

70 (C)2005 freddy.mudry@eivd.ch
3.5 Réponses fréquentielles et impulsionnelles idéales

3.5 Réponses fréquentielles et impulsionnelles idéales

Comme la synthèse par fenêtrage utilise les réponses impulsionnelles des filtres idéaux, il
est nécessaire de les connaître. Ces réponses impulsionnelles sont calculées en partant des
réponses fréquentielles idéales des 4 filtres de base passe-bas, passe-haut, passe-bande et
réjecteur de bande (figure 3.7).

3.5.1 Filtre passe-bas

Avec Ωc comme pulsation de coupure, la réponse fréquentielle du filtre s’écrit :

 1 si |Ω| ≤ Ωc

Hb ( jΩ) = (3.14)
0 si |Ω| > Ωc

Sa transformée inverse n’est autre que sa réponse impulsionnelle :


Z +π
1
hb [n] = Hb ( jΩ)exp(+ jnΩ) dΩ (3.15)
2π −π

Tenant compte de la réponse fréquentielle idéale du filtre passe-bas, il vient :


Z +Ωc
1
hb [n] = exp(+ jnΩ) dΩ
2π −Ωc

exp(+ jnΩc ) − exp(− jnΩc )


=
j2πn

Utilisant les relations d’Euler, on obtient finalement :

Ωc sin (nΩc )
hb [n] = − ∞ < n < +∞ (3.16)
π nΩc

Cette réponse temporelle est infiniment longue et non causale. Afin de la rendre causale,
il faut tout d’abord la tronquer pour avoir une réponse impulsionnelle de d’ordre N puis
la décaler de la moitié de sa longueur.
En choisissant de travailler avec une réponse impulsionnelle d’ordre N pair centrée en
Ns = N/2, il vient :

Ωc sin((n−Ns )Ωc )



 π (n−Ns )Ωc si 0 ≤ n 6= Ns ≤ N



hb [n] = Ωc (3.17)
 π si n = Ns




0 sinon

(C)2005 freddy.mudry@eivd.ch 71
3 S YNTHÈSE DES FILTRES NON RÉCURSIFS

Passe-Bas 

−Ω 
Ω 
π 2π Ω

Passe-Haut


−Ω  Ω  π 2π Ω

Passe-Bande


−Ω  −Ω  Ω  Ω 

π 2π Ω

Coupe-Bande 

−Ω  −Ω  Ω  Ω 
π 2π Ω

F IG . 3.7: Réponses fréquentielles idéales des 4 filtres standard

72 (C)2005 freddy.mudry@eivd.ch
3.5 Réponses fréquentielles et impulsionnelles idéales

Filtre passe−bas

0.8

0.6

0.4
h[n]

0.2

−0.2
0 10 20 30 40 50 60

0.8
|H(jΩ)|

0.6

0.4

0.2

0
−3 −2 −1 0 1 2 3

F IG . 3.8: Réponses impulsionnelle et fréquentielle d’un filtre passe-bas

3.5.2 Filtre passe-haut

Dans ce cas, avec Ωc comme pulsation de coupure, la réponse fréquentielle du filtre


s’écrit :
|Ω| ≤ Ωc

 0 si
Hh ( jΩ) = (3.18)
1 si Ωc < |Ω| < π

On peut remarquer que les réponses fréquentielles d’un passe-bas et d’un passe-haut sont
reliées entre elles par :
Hh ( jΩ) = 1 − Hb ( jΩ) (3.19)
Ce qui, dans l’espace temps, correspond à :

hh [n] = δ[n] − hb [n] (3.20)

On en déduit donc immédiatement que :

− Ωπc sin((n−N

s )Ωc )


 (n−Ns )Ωc si 0 ≤ n 6= Ns ≤ N



hh [n] =
 1 − Ωπc si n = Ns (3.21)




0 sinon

(C)2005 freddy.mudry@eivd.ch 73
3 S YNTHÈSE DES FILTRES NON RÉCURSIFS

Filtre passe−haut

0.8

0.6

0.4
h[n]

0.2

−0.2
0 10 20 30 40 50 60

0.8
|H(jΩ)|

0.6

0.4

0.2

0
−3 −2 −1 0 1 2 3

F IG . 3.9: Réponses impulsionnelle et fréquentielle d’un filtre passe-haut

3.5.3 Filtre passe-bande et réjecteur de bande

Les filtres passe-bande et réjecteur de bande possèdent 2 pulsations caractéristiques Ω1 et


Ω2 limitant les bandes passante et d’arrêt. On montre aisément les deux résultats suivants :

1. Réponse impulsionnelle d’un filtre passe-bande

Ω sin((n−Ns )Ω ) Ω sin((n−Ns )Ω )

 π2 (n−Ns )Ω2 2 − π1 (n−Ns )Ω1 1

 si 0 ≤ n 6= Ns ≤ N



h∆ [n] = Ω2 −Ω1 (3.22)
 π si n = Ns




0 sinon

2. Réponse impulsionnelle d’un filtre réjecteur de bande

Ω1 sin((n−Ns )Ω1 )
− Ωπ2 sin((n−N

s )Ω2 )


 π (n−Ns )Ω1 (n−Ns )Ω2 si 0 ≤ n 6= Ns ≤ N



hr [n] =
 1 − Ω2 −Ω
π
1
si n = Ns (3.23)




0 sinon

Le calcul de ces réponses impulsionnelles est laissé comme exercice.

74 (C)2005 freddy.mudry@eivd.ch
3.6 Caractéristiques de quelques fenêtres

Filtre passe−bande

0.8

0.6

0.4
h[n]

0.2

−0.2
0 10 20 30 40 50 60

0.8
|H(jΩ)|

0.6

0.4

0.2

0
−3 −2 −1 0 1 2 3

F IG . 3.10: Réponses impulsionnelle et fréquentielle d’un filtre passe-bande

Exemple Réalisation d’un filtre non récursif élémentaire basé sur la réponse fréquen-
tielle idéale d’un filtre passe-bas ayant une bande passante de 1 kHz alors que la fréquence
d’échantillonnage est de 10 kHz.

3.6 Caractéristiques de quelques fenêtres

Du choix de la fenêtre, dépendra la qualité de l’approximation ; il est donc nécessaire


de passer en revue les caractéristiques de celles-ci. On rappellera tout d’abord que si on
désire conserver la phase linéaire du filtre, il faut que les fenêtres possèdent une symétrie
paire ou impaire.

Comme on l’a vu plus haut, la troncation simple de la réponse impulsionnelle de longueur


infinie conduit à une réponse fréquentielle avec des ondulations importantes. Celles-ci
sont dues au phénomène de Gibbs et ne peuvent être diminuées que si la fenêtre possède
des transitions douces, contrairement à la troncation simple.

Les fenêtres susceptibles de satisfaire les besoins de synthèse des filtres et d’analyse spec-
trale ont fait l’objet d’études extensives [3]. Parmi les nombreuses fenêtres proposées,
seules celles qui sont le plus souvent citées sont présentées ci-après.

(C)2005 freddy.mudry@eivd.ch 75
3 S YNTHÈSE DES FILTRES NON RÉCURSIFS

Filtre réjecteur de bande

0.8

0.6

0.4
h[n]

0.2

−0.2
0 10 20 30 40 50 60

0.8
|H(jΩ)|

0.6

0.4

0.2

0
−3 −2 −1 0 1 2 3

F IG . 3.11: Réponses impulsionnelle et fréquentielle d’un filtre réjecteur de bande

3.6.1 Fenêtres analytiques

Pour chacune des fenêtres étudiées, on présentera son équation w[n] et une figure com-
portant 4 graphes :

1. son graphe temporel w[n]


2. son spectre d’amplitudes W ( jΩ) = T F {w[n]}
3. son spectre d’amplitudes en dB WdB = 20 log (|W ( jΩ)|)
4. son spectre cumulé défini comme suit [1] :
Z Ω
1
Wcum ( jΩ) = W ( jθ)dθ (3.24)
2π −π

Cette représentation peu commune est importante car grâce à elle, on peut mesurer
le niveau d’atténuation possible ainsi que la largeur de la bande de transition pour
un filtre RIF. Sa définition découle de la convolution entre une réponse fréquentielle
constante et le spectre de la fenêtre w[n].

Fenêtre rectangulaire

 1 si 0≤n≤N
wr [n] = (3.25)
0 sinon

76 (C)2005 freddy.mudry@eivd.ch
3.6 Caractéristiques de quelques fenêtres

Fenêtre triangulaire (ou de Bartlett)


2 Nn

 si 0 ≤ n ≤ N/2
wt [n] = 2 − 2 Nn si N/2 < n ≤ N (3.26)
0 sinon

Rectangle

1 0

0.8
−20
0.6

WdB(jΩ)
w[n]

−40
0.4

0.2 −60

0
−80
0 10 20 30 40 50 −1 −0.5 0 0.5 1
n Ω /π

60
0

40
−20
∫ W(jΩ)dΩ
W(jΩ)

20 −40

0 −60

−20 −80
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
Ω /π Ω /π

F IG . 3.12: Fenêtre rectangulaire

Fenêtre cosinusoïdale (ou de Hann)


 0.5 1 − cos 2π Nn
 
si 0≤n≤N
wc [n] = (3.27)
0 sinon

Fenêtre de Hamming
 0.54 − 0.46 cos 2π Nn
 
si 0≤n≤N
wh [n] = (3.28)
0 sinon

Fenêtre de Blackman
 0.42 − 0.5 cos 2π Nn + 0.08 cos 4π Nn
  
si 0≤n≤N
wb [n] = (3.29)
0 sinon

(C)2005 freddy.mudry@eivd.ch 77
3 S YNTHÈSE DES FILTRES NON RÉCURSIFS

Triangle

1 0

0.8
−20
0.6

WdB(jΩ)
w[n]

−40
0.4

0.2 −60

0
−80
0 10 20 30 40 50 −1 −0.5 0 0.5 1
n Ω /π

35
0
30
25
−20
20

∫ W(jΩ)dΩ
W(jΩ)

15 −40
10
5 −60
0
−5 −80
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
Ω /π Ω /π

F IG . 3.13: Fenêtre triangulaire

Cosinus

1 0

0.8
−20
0.6
WdB(jΩ)
w[n]

−40
0.4

0.2 −60

0
−80
0 10 20 30 40 50 −1 −0.5 0 0.5 1
n Ω /π

35
0
30
25
−20
20
∫ W(jΩ)dΩ
W(jΩ)

15 −40
10
5 −60
0
−5 −80
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
Ω /π Ω /π

F IG . 3.14: Fenêtre cosinusoïdale (ou de Hann)

78 (C)2005 freddy.mudry@eivd.ch
3.6 Caractéristiques de quelques fenêtres

Hamming

1 0

0.8
−20
0.6
w[n]

−40
0.4

0.2 −60

0
−80
0 10 20 30 40 50 −1 −0.5 0 0.5 1
n

35
0
30
25
−20
20

∫ W(jΩ)dΩ
W(jΩ)

15 −40
10
5 −60
0
−5 −80
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
Ω /π Ω /π

F IG . 3.15: Fenêtre de Hamming

3.6.2 Fenêtre de Kaiser-Bessel

Les fenêtres présentées ci-dessus ont des formes et des atténuations fixes apportant cha-
cune sa largeur du lobe principal et son atténuation des lobes latéraux. La contribution
de Kaiser fut de proposer une fenêtre s’adaptant à l’atténuation désirée. Cette fenêtre est
définie par une fonction de Bessel :

  √ 
 I0 β 1−(1−n/Ns )2
si 0≤n≤N


I0 (β)
wk [n] = (3.30)


 0 sinon

avec :
– I0 = fonction de Bessel modifiée de première espèce et d’ordre zéro
– β = paramètre de forme de la fenêtre
– Ns = N/2 = point de symétrie de la fenêtre

Calcul de la fonction de Bessel

L’usage fréquent des fenêtres de Hann ou de Hamming est dû à ce que ces fonctions sont
familières et faciles à calculer. Cependant, bien que la fonction de Bessel soit en général

(C)2005 freddy.mudry@eivd.ch 79
3 S YNTHÈSE DES FILTRES NON RÉCURSIFS

Blackman

1 0

0.8
−20
0.6

WdB(jΩ)
w[n]

−40
0.4

0.2 −60

0
−80
0 10 20 30 40 50 −1 −0.5 0 0.5 1
n Ω /π

35
0
30
25
−20
20

∫ W(jΩ)dΩ
W(jΩ)

15 −40
10
5 −60
0
−5 −80
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
Ω /π Ω /π

F IG . 3.16: Fenêtre de Blackman

peu connue, il est aisé de la calculer en utilisant son développement en série :


1  x n 2
 
I0 (x) = 1 + ∑ (3.31)
n=1 n! 2

Cette série converge rapidement et la procédure de calcul proposée par Kaiser est très
simple à mettre en oeuvre :

function Bessel0 (x :real) :real ;


const eps = 1.0e-6 ;
var d, ds, s : real ;
begin
d := 0.0 ; ds := 1.0 ; s := 1 ;
repeat
d := d + 2.0 ;
ds := ds * (x / d) * (x / d) ;
s := s + ds ;
until abs (ds/(s+eps)) < eps ;
Bessel0 := s ;
end ;

80 (C)2005 freddy.mudry@eivd.ch
3.6 Caractéristiques de quelques fenêtres

Calcul des paramètres des fenêtres de Kaiser

La figure 3.18 montre les caractéristiques fréquentielles de quelques fenêtres de Kaiser.


On en tire les conclusions suivantes :
– en augmentant la longueur du filtre N, on diminue la largeur du lobe principal
– en augmentant le paramètre de forme β, on diminue l’amplitude des lobes latéraux.

Kaiser β = 9

1 0

0.8
−20
0.6

W (jΩ)
w[n]

−40

dB
0.4

0.2 −60

0
−80
0 10 20 30 40 50 −1 −0.5 0 0.5 1
n Ω /π

35
0
30
25
−20
20
∫ W(jΩ)dΩ
W(jΩ)

15 −40
10
5 −60
0
−5 −80
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
Ω /π Ω /π

F IG . 3.17: Fenêtre de Kaiser avec β = 9

Après une simulation numérique extensive, Kaiser a obtenu une paire de formules qui
permettent de trouver β et N à partir des spécifications demandées. Ces spécifications
sont l’atténuation AdB et la largeur de la bande de transition ∆Ω exprimée en radians.
Le facteur de forme β dépend uniquement de l’atténuation AdB


 0.1102 (AdB − 8.7) si AdB > 50



β= 0.5842 (AdB − 21)0.4 + 0.078862 (AdB − 21) si 21 ≤ AdB ≤ 50 (3.32)




0 si AdB < 21

La longueur du filtre est déterminée par l’atténuation AdB et la bande de transition ∆Ω


souhaitée
AdB − 8
N≥ (3.33)
2.285 ∆Ω

(C)2005 freddy.mudry@eivd.ch 81
3 S YNTHÈSE DES FILTRES NON RÉCURSIFS

0 0
− − − beta = 0 − − − N = 10
−10 . . . . . beta = 3 −10 . . . . . N = 20
−−−− beta = 5 −−−− N = 40
−20 −20

−30 −30

−40 −40

−50 −50

−60 −60

−70 −70

−80 −80

−90 N = 20 −90 beta = 5

−100 −100
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5

F IG . 3.18: Caractéristiques fréquentielles de quelques fenêtres de Kaiser

3.7 Conclusions sur l’usage des fenêtres

3.7.1 Propriétés et utilisation des fenêtres

L’ensemble des propriétés concernant les fenêtres et les filtres étudiés ci-dessus sont
réunies dans les tableaux 3.1 à 3.3. On y trouve les caractérisitques spectrales de quelques
fenêtres usuelles, les caractéristiques des filtres RIF en fonction des fenêtres utilisées, les
avantages et inconvénients de ces fenêtres.

Largeur du Atténuation du Décroissance des


Fenêtres 1er lobe 1er lobe [dB] lobes suivants
Rectangle 4π/N -13 20 dB/déc
Triangle (Bartlett) 8π/N -27 40 dB/déc
Cosinus (Hann) 8π/N -32 60 dB/déc
Hamming 8π/N -43 20 dB/déc
Blackman 12π/N -58 60 dB/déc
Kaiser β = 4.54 7.2π/N -30 20 dB/déc
Kaiser β = 5.66 8.4π/N -42 20 dB/déc

TAB . 3.1: Caractéristiques spectrales des fenêtres usuelles

82 (C)2005 freddy.mudry@eivd.ch
3.7 Conclusions sur l’usage des fenêtres

Ondulation Atténuation max. Bande de transition


Fenêtres R p [dB] Amax [dB] ∆Ω
Rectangle 0.74 21 1.8 π/N
Triangle (Bartlett) 0 25 6.1 π/N
Cosinus (Hann) 0.055 44 6.2 π/N
Hamming 0.014 53 6.6 π/N
Blackman 0.0017 74 11 π/N
Kaiser β = 4.54 0.025 50 5.8 π/N
Kaiser β = 5.66 0.009 60 7.2 π/N

TAB . 3.2: Caractéristiques des réponses fréquentielles des filtres RIF

Fenêtres +/− Remarques


Triangle + simple à calculer ; pas de sinus ou cosinus
(Bartlett) + bande spectrale étroite
− faible réjection (25 dB)
= décroissance spectrale moyenne (-40 dB/déc)
Cosinus + simple à calculer
(Hann) + bande spectrale étroite
= réjection raisonnable (44 dB)
+ forte décroissance spectrale (-60 dB/déc)
Hamming + simple à calculer
+ bande spectrale étroite
+ bonne réjection (53 dB)
− faible décroissance spectrale (-20 dB/déc)
Blackman + simple à calculer
= bande spectrale moyenne
++ très bonne réjection (74 dB)
+ forte décroissance spectrale (-60 dB/déc)
Kaiser − moins simple à calculer
= bande spectrale moyenne
++ excellente réjection (100 dB)
− faible décroissance spectrale (-20 dB/déc)
++ meilleur compromis atténuation / bande de transition

TAB . 3.3: Avantages et inconvénients des fenêtres utilisées dans la réalisation de filtres
RIF

(C)2005 freddy.mudry@eivd.ch 83
3 S YNTHÈSE DES FILTRES NON RÉCURSIFS

3.7.2 Démarche pour calculer un filtre

La démarche à suivre pour obtenir les coefficients du filtre souhaité est la suivante :

1. connaissant le gabarit du filtre désiré, choisir le filtre idéal correspondant ;


2. calculer les pulsations caractéristiques Ωk se situant au centre des bandes de transi-
tion ;
3. rechercher la réponse impulsionnelle hd [n] du filtre idéal ; si celle-ci n’est pas connue,
on peut la calculer par transformation de Fourier inverse ;
4. choisir une fenêtre w[n] satisfaisante du point de vue de l’atténuation (table 3.2) ;
5. connaissant la largeur de la bande de transition ∆Ω, calculer l’ordre du filtre N ;
6. calculer les coefficients du filtre en multipliant la réponse impulsionnelle par la
fenêtre choisie
h[n] = hd [n] · w[n]

3.8 Réalisation d’un filtre passe-bas

Considérons la réalisation d’un filtre passe-bas satisfaisant au cahier des charges suivant :

f p = 1 kHz, A p = 0 dB; fa = 1.4 kHz, Aa = 50 dB

alors que la fréquence d’échantillonnage est de 10 kHz.

3.8.1 Préliminaires

La réponse du filtre sera construite à partir de celle d’un filtre passe-bas idéal tel que :

1. la fréquence de coupure se situe au centre de la bande de transition

f p + fa
fc = = 1.2 kHz
2
donc :
fc 1.2 kHz
Ωc = 2π = 2π = 0.24 π
fe 10 kHz
2. la largeur de la bande de transition requise vaut

∆ f = fa − f p = 0.4 kHz

on a donc :
∆f 0.4 kHz
∆Ω = 2π = 2π = 0.08 π
fe 10 kHz

84 (C)2005 freddy.mudry@eivd.ch
3.8 Réalisation d’un filtre passe-bas

3. la réponse impulsionnelle désirée est celle d’un filtre passe-bas (équ. 3.17)
Ωc sin((n−Ns )Ωc )



 π (n−Ns )Ωc si 0 ≤ n 6= Ns ≤ N



hd [n] = hb [n] = Ωc
 π si n = Ns




0 sinon

4. le tableau 3.2 montre que pour cet exemple, on peut utiliser la fenêtre de Hamming
ou la fenêtre universelle de Kaiser. Considérons ces deux cas.

3.8.2 Fenêtrage de Hamming

La fenêtre de Hamming apporte une atténuation de 53 dB et une bande de transistion de


largeur
6.6 π
∆Ω =
N
On en déduit immédiatement la longueur N du filtre :
6.6 π 6.6 π
N= = = 82.5 ' 84
∆Ω 0.08 π
que l’on a arrondi à la première valeur paire supérieure. Le point de symétrie se situe
donc en Ns = 42. Portant ces valeurs dans la réponse impulsionnelle désirée (équ. 3.17),
on obtient :
Ωc sin ((n − Ns )Ωc )
hd [n] =
π (n − Ns )Ωc
sin (0.24 π (n − 42))
=
π (n − 42)
En multipliant cette réponse par la fenêtre de Hamming wh [n], on obtient la réponse im-
pulsionnelle du filtre RIF recherché
h[n] = hd [n] · wh [n]
sin(0.24 π (n−42))

n


 π (n−42) · 0.54 − 0.46 cos 2π 84 si 0 ≤ n ≤ 84
h[n] = 0.24 si n = 42

 0 sinon
Les réponses impulsionnelle et fréquentielle de ce filtre RIF sont présentées dans la fi-
gure 3.19. Il est intéressant de relever que, en plus de la phase linéaire offerte par le filtre
RIF, sa bande de transition est remarquablement étroite.
À titre comparatif, on y a ajouté en pointillé la réponse d’un filtre de Butterworth d’ordre
12 (filtre RII). Ce filtre d’ordre 12 réalisé avec 6 cellules biquadratiques requiert environ
36 multiplications-additions contre 84 pour le filtre RIF. Théoriquement, le gabarit aurait
pu être respecté avec un filtre RII d’ordre 24.
La figure 3.20 illustre la différence de comportement des réponses indicielles des filtres
RIF ou RII.

(C)2005 freddy.mudry@eivd.ch 85
3 S YNTHÈSE DES FILTRES NON RÉCURSIFS

Réponse impulsionnelle
0.25

0.2

0.15

0.1
h[n]

0.05

−0.05

−0.1
0 10 20 30 40 50 60 70 80 90

Réponse fréquentielle

−20
H(f) [dB]

−40

−60

−80
0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000

F IG . 3.19: Réponses impulsionnelle et fréquentielle (Hamming)

Réponses temporelles
2

1
x [n]

−1

−2
0 0.002 0.004 0.006 0.008 0.01 0.012 0.014 0.016 0.018 0.02

1
yRIF [n]

−1 RIF

−2
0 0.002 0.004 0.006 0.008 0.01 0.012 0.014 0.016 0.018 0.02

1
yRII [n]

−1 RII

−2
0 0.002 0.004 0.006 0.008 0.01 0.012 0.014 0.016 0.018 0.02

F IG . 3.20: Comparaison des réponses temporelles

86 (C)2005 freddy.mudry@eivd.ch
Partie 2:
Traitement d’image
Chapitre I : Image numérique

I.1. Définition d’une image


Une image peut être définie comme une fonction bidimensionnelle, I (m, n), où m et n
représentent les coordonnées spatiales, et l'amplitude I à n'importe quelle paire de coordonnées
(m, n) s'appelle l'intensité ou le niveau gris de l'image à ce point. Quand m, n et les valeurs de I
sont tous des quantités finies et discrètes, nous appelons cette image une image numérique. Le
domaine du traitement d'image numérique se rapporte au traitement numériques des images à
l'aide d'un processeur. Noter qu'une image numérique se compose d’un nombre fini d'éléments,
dont chacun est à un endroit particulier et a une valeur. Ces éléments sont désignés sous le nom
de pixels (Picture Element) ou éléments d'image. Le Pixel est le terme le plus largement répandu
pour nommer les éléments d'une image numérique. Nous considérons ces définitions en termes
plus formels au chapitre III.

I.1.1. Coordonnées spatiales d’une image


L’image numérique I (m, n) représente la réponse de certains capteurs ( telle la technologie
CCD). Les index m et n indiquent respectivement les lignes et les colonnes de l'image. Les
différents éléments d'image ou Pixel de l'image sont ainsi mentionnés par l’index (m, n). Selon
les règles du logiciel de Matlab, I (m, n) représente la réponse du Pixel située à la m-ième ligne
et à la n-ième colonne à partir d'une origine dessus-gauche d'image (voir Figure 1.1).

Position (m, n)
de l’image,
note : I (m, n)

Figure1.1 : Coordonnées spatiale (m, n) d’une image numérique

Dans d'autres systèmes de formation image, une convention de colonne-ligne peut être employée
et l'origine d'image peut également changer. Bien que les images que nous considérons soient
discrètes, il est souvent théoriquement commode de traiter une image comme un signal spatial
continu : I(x, y). En particulier, ceci permet parfois de faire une utilisation plus normale des
techniques puissantes de l'intégrale et du calcul différentiel pour comprendre des propriétés des
images et à les manœuvrer efficacement. L'analyse mathématique des images discrètes mène
généralement à un algébrique matricielle, formulation qui est parfois meilleure.

3
I.1.2. L’image couleur
Une image contient un ou plusieurs canaux de couleur qui définissent l'intensité ou la
couleur à cet endroit particulier I (m, n). Dans le cas le plus simple, chaque Pixel contient
seulement une valeur numérique simple représentation du niveau de signal à ce point dans l'image.
La conversion de cet ensemble de nombres à une image (affichée) réelle est réalisés par une carte
couleur. Une carte couleur assigne une nuance spécifique de couleur à chaque niveau numérique
dans l'image pour donner une représentation visuelle des données. La carte couleur la plus
commune est celle qui assigne toutes les nuances du noir (zéro) au blanc (maximum) selon le
niveau de signal. Les images à niveau de gris sont des images qui expriment seulement l'intensité
du signal comme valeur simple à chaque pixel dans une région. Dans certains exemples, il peut
être meilleur d'afficher l'intensité des images en utilisant une carte de fausses-couleur. Une des
raisons principales de l'utilisation de cette carte de fausses-couleur repose sur le fait que le
système visuel humain est seulement sensible à approximativement 40 nuances de gris dans la
gamme allant du noir au blanc, ou notre sensibilité à la couleur est meilleure. La carte de fausses-
couleur peut également servir à accentuer ou tracer certaines structures, facilitant ainsi leur
identification par l'observateur humain. Cette approche est souvent adoptée dans des images
médicales et astronomiques.

Figure1.2 : Image à niveau de gris (à gauche) et celle conçue à partir d’une carte de fausses-couleur (à droite).

La figure 1.2 montre une image astronomique d'intensité à niveau de gris et à carte de fausses-
couleur. Dans cet exemple la carte couleur (comme défini dans Matlab) a été utilisé pour
accentuer les structures et le détail plus fin de l'image pour le système visuel humain en utilisant
une échelle de couleurs linéaire s'étendant du bleu-foncé (valeurs de basse intensité) au rouge
foncé (intensité élevée). La définition des cartes couleur, c.-à-d. assignant des couleurs aux
valeurs numériques, peut être fait de quelque façon que ce soit, pourvu que l'utilisateur y trouve
un sens. Bien que le tracé entre la valeur numérique d'intensité et la nuance de couleur ou à fond
gris est en général linéaire, il existe des situations dans lesquelles le tracé non-linéaire est plus
approprié. De tels tracés non-linéaires sont discutés au chapitre 4, lorsque nous parlerons du
rehaussement d'une image. En plus des images à niveau de gris où nous avons une valeur
numérique simple à chaque pixel, nous avons également des images de vraies-couleur où le plein
éventail de couleurs peut être représenté comme vecteur de triplet, typiquement (R : red, G :
green, B : bleu) des composants à chaque endroit de pixel. Ici, la couleur est représentée comme
combinaison linéaire des couleurs de base et l'image peut être considérée comme ayant trois
composantes sur un plan a 2-Dimensions. D'autres représentations de couleur existent également
et sont souvent utilisées comme (H, S, V : hue, saturation and value).

4
I.1.3. Résolution d’une image
La qualité de la représentation d'une image est observée au travers de sa résolution. La
résolution d'une d'image peut être indiquée en termes de trois quantités : les résolutions spatiale,
temporelle et en termes du codage utilisé.
La résolution spatiale est le nombre de colonnes (C) multiplié par le nombre de lignes
(L) de l'image, c'est-à-dire le nombre de pixel employé pour couvrir l'espace visuel capturé par
l'image. Ceci renvoie à l'échantillonnage du signal image et est souvent considérée comme étant
la résolution numérique de l'image. Elle est généralement présentée sous forme C x L (par
exemple 480 x 800).
La résolution temporelle pour un système continu de capture tel que la vidéo, est le
nombre d’images capturé dans une période de temps donné. Elle est généralement présentée sous
forme de "frame par seconde" (fps), où chaque image est individuelle désignée sous le nom de
"video frame" (exemple généralement l'émission TV fonctionne à 25 fps ;25-30 fps convient à la
plupart de surveillance visuelle).
La résolution en termes de bit définit le nombre de valeurs possibles d'intensité ou
couleur qu'un Pixel peut avoir et est liée à la quantification des informations de l'image. Par
exemple une image binaire a juste deux couleurs (noires ou blanc), une image à niveau de gris
codé sur 8 bits à 256 différents niveaux gris s'étendant du noir au blanc tandis que pour une image
de couleur elle dépend de la gamme de couleur en service. La résolution en termes de bit est
généralement citée comme nombre de binaire nécessaire pour le stockage par exemple le binaire
est de 2 bits, le niveau de gris est de 8 bits et la couleur (le plus généralement) est de 24 bits. La
gamme des valeurs qu’un pixel peut prendre dans une image est souvent désignée sous le nom de
dynamique d'une image.

I.2. Formats des images


D'un point de vue mathématique, n'importe quelle matrice de 2 dimensions peut être
considérée comme image. Dans la réalité, nous avons besoin d'afficher efficacement des images,
les stocker, les transmettre à travers les réseaux et identifier les données numériques
correspondant aux images.
ACRONYME NOM PROPRIETES
Limité aux images 8 bits,
GIF Graphics interchange format avec peu de perte dans la
compression
Joint Photographic Experts Très utilisé, avec peu de
JPEG
Group variantes existante
Généralement limité avec
BMP Bit map picture peu de perte dans la
compression
PNG Portable network graphics Conçu pour améliorer le GIF
Très flexible, adapté pour
TIF/ TIFF Tagged image (file) format plusieurs résolutions
d’images
Tableau1.1 : Quelques formats d’images et leurs propriétés.

5
Ceci a été à l'origine du développement des formats standard d’image numérique. En termes
simples, les formats d'image comportent un en-tête de dossier (contenant l'information sur la
façon dont exactement les données d'image sont stockées) et les valeurs des Pixels numériques.
Il existe un grand nombre de formats d’image ; les plus communs sont énumérés dans le tableau
1.1. Comme suggéré par les propriétés énumérées dans le tableau 1.1, les différents formats
d'image sont généralement appropriés pour différentes applications. Les images de GIF sont des
images donc le format est limité à seulement 256 niveaux de gris ou couleurs. En revanche, le
format JPEG est capable de stockage une image de couleur de 24-bit RGB, et jusqu'à 36 bits pour
des images médicales et est le plus largement répandu dans la plupart des appareils-photo
numériques. Un Autre format d'image de base le BMP, provenant du développement du logiciel
d'exploitation de Microsoft Windows, et le format PNG, ont été conçu pour remplacer le GIF. Le
format TIFF représente un format capable de stocker un éventail d'images de données différentes.
En général, il est suggéré d'utiliser les formats JPEG ou le TIF pour le stockage, tandis que les
images de couleur/détail limité sont plus adaptées au GIF ou au PNG.

I.3. Les Espaces Couleur


La couleur est perçue par des humains comme combinaison de trois stimuli : R (rouge),
G (vert), et B (bleu) qui sont habituellement appelés, couleurs primaires. De la représentation
RGB, nous pouvons obtenir d'autres espaces de couleur en employant des transformations
linéaires ou non-linéaires. Les composants rouge, vert, et bleu peuvent être représentés par :

𝜆2

𝑅 = ∫ 𝐸(𝜆)𝑆𝑅 (𝜆)𝑑𝜆
𝜆1

𝜆2

𝐺 = ∫ 𝐸(𝜆)𝑆𝐺 (𝜆)𝑑𝜆
𝜆1

𝜆2

𝐵 = ∫ 𝐸(𝜆)𝑆𝐵 (𝜆)𝑑𝜆
𝜆1

Figure1.3 : Représentation de l’espace couleur RGB

Où 𝐸(𝜆) est la radiance suivant la longueur d’onde 𝜆 de la lumière ; 𝑆𝑅 (𝜆), 𝑆𝐺 (𝜆) 𝑒𝑡 𝑆𝐵 (𝜆) les
filtres couleur respectif des composants rouge, vert et bleu dans le domaine du visible [𝜆1 , 𝜆2 ].
L'espace couleur RGB peut être géométriquement représenté dans un cube à trois dimensions
(figure 1.3). Les coordonnées de chaque point à l'intérieur du cube représentent les valeurs du
rouge, du vert et du bleu, respectivement. La colorimétrie définie trois lois :

6
(1) n'importe quelle couleur peut être créé par ces trois couleurs et la combinaison de ces
trois couleurs est unique.
(2) si deux couleurs sont équivalentes, elles seront encore équivalent après une
multiplication ou une division des trois composants par le même nombre non nul et positif.
(3) La luminance d’un mélange de couleur est équivalent à la somme des luminances de
chacune des couleurs.

Les valeurs des tristimulus servant de base de couleur sont :425.8 nm pour le bleu, 546.1 nm pour
le vert, et 700.0 nm pour le rouge. Un très grand nombre de couleur peut être exprimée par ces
bases de trois couleurs. Le RGB est le modèle le plus généralement utilisé par le système de
télévision ainsi que les images acquises par les appareils-photo numériques. Le RGB est un espace
fortement corrélé. Par l’expression corrélation élevée, l'on sous-entend que si l'intensité change,
tous les trois composants changeront en conséquence.

I.3.1. Transformations linéaires


YIQ est un espace couleur employé pour coder l'information couleur dans le signal de
Télévision par le système Américain. Il est obtenu à partir du modèle de RGB par une
transformation linéaire :

𝑌 0.299 0.587 0.114 𝑅


( 𝐼 ) = (0.596 −0.274 −0.322) (𝐺 ) Avec R, G et B appartenant à [0 ; 1]
𝑄 0.211 −0.253 −0.312 𝐵

La composante Y, est une mesure de la luminance. Les composants de I et de Q décrivent


conjointement la tonalité et la saturation de l'image. L'espace de YQI se débarrassent en partie de
la corrélation du rouge, vert et du bleu dans une image. La transformation linéaire a besoin de
moins de temps de calcul que le non linéaire.

L’espace YUV est aussi une autre représentation de l’espace couleur, particulièrement
utilisé par le système de télévision Européenne. Cette transformation est définie par :

𝑌 0.299 0.587 0.114 𝑅


(𝑈) = (−0.147 −0.289 0.437 ) (𝐺 ) Avec R, G et B appartenant à [0 ; 1]
𝑉 0.615 −0.515 −0.100 𝐵

L’espace I1 I2 I3 est une autre espace couleur obtenu par la transformation :

1⁄ 1⁄ 1⁄
𝐼1 3 3 3 𝑅
(𝐼2 ) = 1⁄ 0 − 1⁄2 (𝐺 ) Avec R, G et B appartenant à [0 ; 1]
2
𝐼3 −1⁄ 1⁄ −1⁄ 𝐵
( 4 2 4)

7
I.3.2. Transformations non linéaires
L'espace RGB Normalise (N-rgb) est un espace couleur qui assure une variation uniforme
d'intensité à travers la distribution spectrale. La normalisation rend cette espace robuste aux
changements de la luminance, bien qu’il soit sensible aux bruits dans des conditions de faibles
intensités. Cette espace est obtenue par la transformation suivante :

𝑟 = 𝑅⁄(𝑅 + 𝐺 + 𝐵) 𝑔 = 𝐺⁄(𝑅 + 𝐺 + 𝐵) 𝑏 = 𝐵⁄(𝑅 + 𝐺 + 𝐵)

Le système HSI (Hue, saturation, intensity) est un autre espace couleur généralement
utilisé dans le traitement d'image, qui est plus intuitif à la vision humaine. Il existe des variantes
du systèmes HSI, tels que HSB (Hue, saturation, brightness), HSL (Hue, saturation, lightness).
Le système de HSI sépare l'information couleur d'une image de son information d'intensité.
L'information couleur est représentée par la teinte et la saturation, alors que l'intensité, qui décrit
l'éclat d'une image, est déterminée par la quantité de la lumière. La teinte est déterminée par la
longueur d'onde dominante dans distribution spectrale des longueurs de la lumière. Elle se
retrouve au niveau du peak de la distribution spectrale. La saturation est une mesure de la pureté
de la couleur, et représente la quantité de lumière blanche mélangée avec la teinte. L'espace
couleur HSI peut être décrit géométriquement tel que présenté à la figure1.4. Généralement, la
teinte est considérée comme l’angle entre une ligne de référence et le point de couleur dans
l'espace RGB. La gamme de la valeur de la teinte est de 0 à 360 degré, par exemple, le bleu est
243 degré, le jaune est 60 degré, le vert est 120 degré, et le magenta est 300 degré. La composante
saturation représente la distance radiale du centre du cylindre. L'intensité est la taille dans la
direction de l'axe du cylindre décrit par les niveaux gris, par exemple, le zéro (minimum)
l'intensité est noir, pleine intensité (maximum) est blanche. Chaque section perpendiculaire à l'axe
du cylindre est un ensemble de couleur de même intensité. Les coordonnées de HSI peuvent être
obtenus à l'aide de l’espace RGB par les formules suivantes :

√3(𝐺 − 𝐵) (𝑅 + 𝐺 + 𝐵) 𝑚𝑖𝑛(𝑅, 𝐺, 𝐵)
𝐻 = 𝑎𝑟𝑐𝑡𝑎𝑛 ( ); 𝐼= ; 𝑆 =1−
(𝑅 − 𝐺) + (𝑅 − 𝐵) 3 𝐼

Figure1.4 : L’espace couleur HSI

8
I.3.3. Les espaces CIE
Le système de couleur CIE (Commission International de l'Eclairage) a été développé
pour représenter l'uniformité perceptuelle, et satisfait ainsi le besoin psychophysique d'un
observateur humain. Il a trois primaires dénotés X, Y et Z. N'importe quelle couleur peut être
obtenue par la combinaison de ces trois primaires. Les valeurs de X, Y et Z sont obtenus par une
transformation linéaire de RGB. En particulier, la matrice de transformation pour le NTSC
(National Television System Commission, United States) est :
𝑋 0.607 0.174 0.200 𝑅
(𝑌 ) = (0.299 0.587 0.114) (𝐺 )
𝑍 0.000 0.066 1.116 𝐵

Des espaces CIE peuvent être obtenu à partir des trois primaires X, Y, Z tels que : l’espace CIE
(L*a*b*), l’espace CIE (L*u*v*). Ils sont issus d’une transformation non linéaire à savoir :

3 𝑌
𝐿∗ = 116 ( √𝑌 ) − 16
0

3 𝑋 3 𝑌
𝑎∗ = 500 (√ − √ )
𝑋0 𝑌0

3 𝑌 3 𝑍
𝑏 ∗ = 200 ( √ − √ )
𝑌0 𝑍0
𝑋 𝑌 𝑍
Où > 0.01, > 0.01 𝑒𝑡 > 0.01 ; (𝑋0 , 𝑌0 , 𝑍0 ) sont les valeurs pour le blanc standard.
𝑋0 𝑌0 𝑍0
Pour l’espace CIE (L*u*v*) on a :

3 𝑌
𝐿∗ = 116 ( √𝑌 ) − 16
0

𝑢∗ = 13𝐿∗ (𝑢′ − 𝑢0 )

4𝑋 6𝑌
𝑣 ∗ = 13𝐿∗ (𝑣 ′ − 𝑣0 ) Où 𝑢 ′ = 𝑣′ =
𝑋+15𝑌+3𝑧 𝑋+15𝑌+3𝑧

I.4. Les Images Sur Matlab


Après avoir présenté les éléments de base de la représentation d'une image, nous nous
tournons maintenant vers la pratique en utilisant Matlab. Des exemples sont présentés à l’annexe
Code1, il s’agit de :
• Lire, écrire et questionner les propriétés d’une image
• Afficher une image
• Accéder aux valeurs des pixels
• Convertir une image couleur en une image à niveau de gris

9
Chapitre II : Formation d’une image couleur

Un dispositif d’acquisition d’images capture une information lumineuse et la


convertit en un signal électrique analogique, le signal vidéo. Ce signal peut être
échantillonné, quantifié et stocké dans un fichier informatique sous la forme d’une
image numérique. Afin de pouvoir analyser et traiter sans encombre une image,
il est extrêmement important de maîtriser la phase d’acquisition de l’information.
Comme dans tout processus de mesure, non seulement le capteur mais également sa
mise en œuvre sont déterminants quant à la qualité du résultat. Dans tous les cas, un
capteur médiocre ne fournira jamais que des mesures approximatives. Un capteur
performant délivrera des mesures de qualité sauf si les conditions d’exploitation
sont hors normes. La phase d’acquisition conditionne et fixe les limites de l’utilisation des images
numériques. Un capteur à la dynamique ou à la résolution inadaptée peut, par
exemple, conduire à la perte d’informations cruciales, une image trop bruitée risque
d’être source d’erreurs de mesure ou de diagnostic, etc. Si, en outre, l’information couleur est
déterminante dans une application, non seulement il faut veiller à la qualité de son codage lors de
l’acquisition, mais il est également nécessaire de se pencher sur sa gestion au fil des équipements.
L’idéal serait de pouvoir garantir un rendu des couleurs fidèle de la scène d’origine aux
différents supports de reproduction. Même si un long chemin a été parcouru depuis l’apparition
de la télévision couleur, il reste encore beaucoup à faire avant d’atteindre cet idéal.

II.1. La Photodétection
Tout dispositif d’acquisition d’images, pellicule photographique mise à part,
est construit sur la base d’un composant, le photodétecteur, dont le rôle est de
transformer l’énergie lumineuse en énergie électrique. Le passage d’une image optique à son
correspondant électronique repose généralement sur deux étapes : la photodétection à proprement
parlé, associée à une phase dite de balayage. La photodétection exploite l’effet photoélectrique
c’est-à-dire les modifications des propriétés électriques d’un milieu solide, modifications initiées
par interaction avec des photons incidents. Suivant la nature du milieu, l’effet photoélectrique se
traduit de différentes manières :
- La photoémission : des électrons sont émis par le matériau (un métal) lorsque
sa surface est éclairée.
- La photoconduction : le flux (l’énergie que transporte un rayonnement
électromagnétique par unité de temps. Exprimé en watts, il porte le nom de flux
énergétique) incident instantané augmente la conductivité du matériau (un semi-
conducteur homogène intrinsèque ou extrinsèque).
- La création de paires : l’interaction des photons avec un matériau hétérogène modifie
les niveaux d’énergie des atomes et donne ainsi naissance à des charges mobiles : des
paires électron-trou.
La phase de balayage permet d’analyser et d’exploiter l’effet photoélectrique inhérent au matériau
composant le photodétecteur. Par exemple, dans les caméras à tube, de type Vidicon, l’image
photonique est formée sur un matériau photoconducteur. La conductivité du photodétecteur,
proportionnelle au flux incident, est analysée par un faisceau d’électrons balayant

10
séquentiellement et cycliquement la couche photosensible. Dans le cas des caméras dont le
capteur est composé d’un réseau de photoéléments (tels des hétérojonctions MOS, par exemple),
les charges mobiles sont recueillies grâce à des circuits dédiés, pilotés par un signal d’horloge.
Ce signal d’horloge permet de balayer l’ensemble des éléments photosensibles en vue de traduire
le signal lumineux d’entrée (i.e. image projetée sur le capteur) en un signal électrique exploitable.
Dans les caméras dites CCD (Charge-Coupled Device), la photodétection est réalisée par des
hétérojonctions MOS organisées en barrette ou en matrice et le balayage se fait par l’intermédiaire
de registres à décalage analogiques appelés circuits à transfert de charges. De nos jours, la
technologie CCD est de loin la plus répandue que ce soit pour les applications industrielles,
scientifiques ou grand public.

II.2. Quelques caractéristiques des cameras CCD


II.2.1. La résolution
En raison de sa structure discrète, le capteur d’une caméra CCD échantillonne en
horizontal et en vertical l’image qu’il reçoit. Le nombre de photoéléments (i.e. pixels) formant le
capteur donne ainsi une indication sur la résolution maximale que la caméra peut théoriquement
fournir c’est-à-dire une indication quant au plus petit détail qu’elle permet de discriminer pour un
grandissement donné. En pratique, cette résolution n’est jamais atteinte car de nombreux facteurs
limitatifs viennent dégrader le signal. Sur les documentations des caméras CCD apparaît
généralement une mention dénommée résolution TV ou résolution horizontale. Cette mention
indique la résolution la plus élevée que la caméra peut réellement atteindre. Elle correspond au
nombre maximal de lignes noires et blanches verticales que la caméra est capable de résoudre sur
une largeur égale à la hauteur de l’image. Pour avoir une idée plus précise des performances d’une
caméra en termes de résolution, il est intéressant de se tourner vers sa fonction de transfert de
modulation, fonction qui relie le niveau de sortie à la fréquence spatiale du signal lumineux.
Malheureusement une telle donnée est bien souvent très difficile à obtenir de la part des
constructeurs.

II.2.2. La sensibilité
Pour caractériser la sensibilité d’une caméra deux approches coexistent : l’une
conduit à la notion de sensibilité absolue et l’autre à celle de sensibilité relative. La sensibilité
absolue correspond au nombre minimal de photons incidents par unité de surface nécessaires pour
générer un signal de sortie autre que du bruit. Généralement les constructeurs fournissent une
valeur d’éclairement (flux reçu par unité de surface) minimale exprimée en lux. Une telle valeur
indique à partir de quel niveau lumineux la caméra va commencer à délivrer un signal de sortie
utile. Il est à noter que l’éclairement fourni pour caractériser la sensibilité absolue n’est pas
spécifié en unité énergétique mais en unité lumineuse. Cela sous-entend donc que seuls les
rayonnements de la fenêtre du visible (longueurs d’onde comprises entre 380 et 780nm environ)
sont pris en compte et que le système visuel humain sert de référence. La sensibilité relative d’une
caméra est liée à sa caractéristique de transfert : elle correspond, pour un flux donné, à la pente
de la courbe reliant signaux d’entrée et de sortie. D’un point de vue numérique, cela revient à dire
que la sensibilité relative quantifie le nombre de photons incidents nécessaires pour passer d’un
niveau de gris au suivant.

11
II.2.3. Le rapport signal sur bruit
Au sein d’une caméra, de multiples facteurs sont générateurs de bruit et ont tendance à
venir perturber et dégrader le signal électrique de sortie. Par exemple, la nature corpusculaire
même de la lumière est source d’un bruit fondamental appelé bruit de grenaille photonique. Un
autre exemple, plus facilement observable, est fourni par le bruit appelé courant d’obscurité, bruit
qui vient s’ajouter au signal utile délivré par une caméra. Il s’agit d’un faible courant mesurable
lorsque le capteur ne reçoit aucun flux. Son origine est à rechercher essentiellement du côté de
l’agitation thermique. Suivant la qualité du capteur lui-même et en fonction de la taille des
photoéléments, le rapport signal/bruit d’une caméra CCD évolue dans une fourchette de 45 à 60
dB (est égal à 20log de la valeur du rapport entre l’amplitude du signal de sortie et l’amplitude du
bruit mesuré ou estimé). En toute rigueur, le niveau d’intensité lumineuse pour lequel le rapport
signal/bruit a été mesuré devrait être spécifié. À défaut d’indication il y a tout lieu de penser que
le rapport signal/bruit donné a été évalué pour le flux maximal accepté par le capteur. À moins
qu’il ne s’agisse tout simplement de la valeur la plus avantageuse pour la caméra. Quoiqu’il en
soit, avec un rapport signal/bruit supérieur à 45 dB, les images générées apparaissent, dans leur
ensemble, non bruitées pour le système visuel humain dont la capacité à distinguer des différences
de luminance n’excède pas 100 :1 en vision photopique. Cependant, pour des applications moins
subjectives, il peut être nécessaire de traiter le signal délivré par la caméra afin de tenter de le
débarrasser de ses parasites.

II.3. Les dispositifs CCD couleur


Moyennant les filtres adéquats, les caméras CCD peuvent capturer des images
en couleurs. Le principe traditionnellement retenu repose sur l’aspect tridimensionnel de la
couleur dérivé de l’étude du système visuel humain. C’est pourquoi les caméras « classiques »
comportent trois canaux respectivement dédiés aux faibles, moyennes et fortes longueurs d’onde
du domaine du visible. Cependant, d’un point de vue traitement des images couleurs, une telle
architecture présente plusieurs limites :
- Les systèmes de vision sont sujets au métamérisme tout comme le système
visuel humain. Deux objets possédant des spectres de réflectance différents
peuvent être associés à un même triplet sous certaines conditions d’éclairage
- À partir de la seule information contenue dans l’image d’une scène acquise
avec un illuminant, il n’est pas possible d’estimer correctement le rendu des couleurs
sous un autre illuminant.
De plus, à la différence de la colorimétrie, les systèmes d’acquisition couleur ne reposent pas sur
un triplet standard de primaires. Les images sont dépendantes du dispositif employé pour le
codage de la couleur. Sans traitement particulier, il est ainsi impossible de garantir une constance
chromatique au fil des équipements. Tous ces problèmes conduisent de plus en plus à développer
des systèmes d’acquisition multi-spectraux exploitant plus de trois canaux.

12
II.3.1. Les caméras matricielles mono-capteur
Une acquisition trichromatique grossière peut être obtenue en n’utilisant qu’un seul
capteur matriciel dont les pixels sont recouverts par des filtres colorés. Ces filtres peuvent être
organisés de différentes façons, en bandes ou en mosaïques (Contrairement au système visuel
humain, les photorécepteurs des capteurs CCD sont uniformément répartis sur toute la surface du
capteur et renvoient tous un signal à part entière), comme le montrent les exemples de la figure
2.1. Les approches sont nombreuses et varient d’un constructeur à l’autre. Il n’y a pas vraiment
de configuration optimale : chaque approche possède ses avantages et ses inconvénients.

Figure2.1 : Exemples de répartition de filtres sur le capteur d’une caméra couleur


matricielle mono-CCD et sur la rétine humaine

Figure2.2 : Caméra couleur matricielle mono-CCD

Dans tous les cas une interpolation appelée dématriçage est nécessaire pour combler le déficit en
pixels. Une telle opération ne masque cependant pas la perte de résolution : des franges colorées
apparaissent dans les zones de l’image riches en hautes fréquences spatiales. L’importance du
défaut dépend directement de la méthode d’interpolation retenue vis-à-vis de l’organisation
spatiale des filtres colorés. C’est ainsi, par exemple, qu’afin de faciliter et d’améliorer l’étape
d’interpolation, le capteur de certaines caméras mono-CCD est recouvert d’une mosaïque de
filtres RGB (cf. figure 2.2). Il est également courant de trouver des capteurs recouverts par des
filtres travaillant en couleurs complémentaires CMJ (Cyan, Magenta, Jaune). La sensibilité de la
caméra se trouve ainsi augmentée car les bandes passantes de tels filtres sont plus larges que celles

13
des filtres RGB. En contrepartie l’obtention du signal couleur est le fruit de calculs plus nombreux
du fait de la reconstruction implicite de l’information RGB. Le rapport signal/bruit peut alors se
trouver quelque peu dégradé. Quelle que soit l’approche retenue, chaque pixel du capteur ne
recevra qu’une portion plus ou moins importante du rayonnement incident, celle passant à travers
le filtre. Le reste de la lumière est réfléchi et donc perdu en termes de détection. De ce fait une
caméra matricielle mono-CCD aura une sensibilité plus faible dans sa version couleur que dans
sa version niveaux de gris c’est-à-dire en l’absence de filtres sur les photoéléments. La
technologie des caméras matricielles mono-CCD est plutôt réservée aux applications grand
public, les coûts sont minimisés au détriment de la résolution et de la qualité du codage couleur.

II.3.2. Les caméras matricielles 3-capteurs


Le seul moyen de tirer profit d’un codage tridimensionnel de la couleur est d’affecter un
capteur par canal. La lumière est décomposée par des prismes ou des miroirs semi-réfléchissants
pour être projetée sur trois matrices distinctes (Figure 2.2). Ainsi chaque matrice enregistre une
seule composante RGB. Évidemment la qualité du bloc optique est prépondérante pour garantir
à la fois une résolution et une sensibilité maximales de la caméra couleur.

II.3.3. Les caméras multispectrale


L’imagerie multispectrale est actuellement en plein développement car l’utilisation de
plus de trois capteurs permet d’affiner les qualités colorimétriques des systèmes d’acquisition. Le
principe des caméras multispectrale est le même que celui des caméras 3-CCD : seul le nombre
de canaux est augmenté. Le spectre du visible est découpé en plages de longueurs d’ondes plus
fines que dans le cas de l’approche RGB. La mise en œuvre repose sur une caméra matricielle
CCD à niveaux de gris. Les filtres adéquats viennent se placer entre la scène à acquérir et le
capteur. Il peut s’agir, par exemple, de filtres à cristaux liquides accordables ou bien de filtres
interférentiels suivant le nombre de canaux recherchés et la largeur de bande passante désirée.

Figure2.3 : Un dispositif d’acquisition multi-spectral

La figure 2.3 montre un dispositif d’acquisition multi-spectral où une roue vient placer
séquentiellement devant l’objectif de la caméra des filtres interférentiels. Un tel dispositif requiert
une partie mécanique de qualité afin d’assurer un positionnement des filtres parfaitement contrôlé
dans le temps et dans l’espace. Cette contrainte disparaît lorsqu’une solution basée sur des filtres

14
accordables est retenue. Cependant, dans ce cas, il est possible que le filtrage soit d’une qualité
moindre. Les caractéristiques de transfert de chaque canal peuvent en effet présenter, autour des
fréquences de coupure, des pertes moins abruptes que celles des filtres interférentiels. Le
comportement des filtres accordables est également susceptible d’être modifier dans le temps.
Quelle que soit l’approche, un certain nombre de problèmes optiques, essentiellement liés à la
réfraction, sont à régler afin d’éviter d’avoir des décalages géométriques entre canaux. De plus,
il est nécessaire d’effectuer autant de prises de vue qu’il y a de canaux. Le temps d’acquisition
s’en trouve affecté et il n’est pas possible d’envisager des applications vidéo. Par contre, les
dispositifs multi-spectraux bénéficient de la résolution spatiale et de la dynamique des meilleures
caméras CCD niveaux de gris actuelles, deux paramètres largement supérieurs à ce que peuvent
offrir les caméras 3-CCD du marché.

15
Chapitre III : Les Pixels

III.1. Définitions
Le mot Pixel est une abréviation de "picture element". Généralement, les Pixels
contiennent la réponse de la couleur ou de l'intensité de l'image comme échantillon de point de
lumière colorée de la scène. Cependant, toutes les images ne contiennent pas nécessairement
strictement l'information visuelle. Une image est simplement un signal 2-D numérisé comme
grille des Pixels, dont les valeurs peuvent se relier à des propriétés autres que la couleur ou
l'intensité de la lumière. L'information des Pixels peut changer considérablement selon le type
d'image nous avons :

- Les images Couleur et à niveau de gris généralement rencontrées sont des images
portant l'information concernant la couleur ou l'intensité à niveau de gris à un point
donné dans la scène.
- L'imagerie infrarouge (IR) ; le spectre visuel est seulement une petite partie du
spectre électromagnétique. Le rayonnement IR est émis proportionnellement à la
chaleur générée/réfléchi par un objet et, ainsi, une formation de l’image est
généralement appelée image thermique. Comme la lumière IR est invisible à l'œil nu
humain, ces systèmes de formation d'image offrent une méthode utile pour la
surveillance.
- L'imagerie médicale ; beaucoup d'images médicales contiennent les valeurs qui sont
proportionnelles aux caractéristiques d'absorption de tissu en ce qui concerne un signal
projeté par le corps. Les types les plus communs sont la tomographie (CT : computed
tomography) et l'imagerie par résonance magnétique (MRI). Les images de CT,
comme les rayons X conventionnels, représentent les valeurs qui sont directement
proportionnel à la densité du tissu par lequel le signal est passé. Les images obtenues
par MIR présentent beaucoup de détails mais pas une relation directe avec les
propriétés des tissus.
- L'imagerie radar/sonar ; le Radar/sonar représente une section transversale d'une
cible proportionnelle avec sa distance du capteur et son signal réfléchi associée. Le
radar est généralement utilisé dans la navigation d'avion, bien qu'il ait été également
employé sur des projets de véhicule routier. Le radar par satellite pour la surveillance
de temps est maintenant une banalité, de même que l'utilisation du sonar sur la plupart
des navires de haute mer modernes. Le radar Terre-pénétrant est de plus en plus utilisé
pour des investigations archéologiques et légales de la science.

Dans la suite de ce chapitre voir l’annexe Code 2 pour les codes Matlab correspondant.

III.2. Operations sur les pixels


L'une des opérations les plus basiques en traitement d'images est la modification des
valeurs des pixels d'une image suivant une intension particulaire. Dans le sens mathématique,
c'est établir une correspondance pixel par pixel entre l'image initiale et l'image souhaitée. Les
exemples les plus simples de telles transformations d'image sont des opérations arithmétiques ou

16
logiques. Chacune étant exécutée comme une opération entre deux images ou entre une image et
une valeur constante.

III.2.1. Les opérations arithmétiques


Les opérations arithmétiques basiques peuvent être appliquer sur les pixels d’une image, pour
satisfaire plusieurs objectifs.
- L’addition d’une valeur constante en chaque pixel d’une image permet d’augmenter
l’effet de brillance et donc d’ajuster le contraste. L’addition de plusieurs images
permet de superposer plusieurs objets dans une seule image
- La soustraction d’une valeur constante en chaque pixel d’une image permet de
diminuer l’effet de brillance et donc d’ajuster le contraste. La soustraction de deux
images donne la différence de ces deux images. Cela peut être utilisée dans le cadre
de la vidéo surveillance lorsque l’on souhaite observer un éventuel changement
(comme exemple voir la figure3.1)
- La multiplication ou la division peuvent également être effectuées sur des images.

Figure3.1 : La différence d’images utilisant la soustraction arithmétique

Pour toutes les opérations arithmétiques entre les images il faut s'assurer que les valeurs des Pixels
résultant demeurent dans la marge disponible de nombre entier des données type/taille
disponibles. Par exemple, une image de 8 bits (ou l'image de couleur de trois canaux, 24-bit) peut
représenter 256 valeurs de Pixel. Une première valeur de Pixel de 25 multipliés par une constante
de 12 excédera la gamme de la valeur 0-255. Ceci est généralement connu comme saturation dans
la dynamique de l'image : la valeur excède la capacité de représentation de l'image. Une solution
est de détecter ce débordement et l'évitent en plaçant toutes les valeurs à un maximum.
III.2.2. Les opérations logiques
Nous pouvons effectuer des opérations logiques standard entre les images comme le NOT,
le OR, le XOR et le AND. En général, l'opération logique est exécutée entre les bits correspondant
des pixels.
- NOT : inverse la représentation d'image. Dans le cas le plus simple d'une image
binaire, les Pixel (noirs) de fond deviennent l'avant plan (de blanc) et vice versa. Pour
les images à niveau gris et les images couleur, le principe est de remplacer chaque
valeur de Pixel comme suit : 𝐼𝑜𝑢𝑡𝑝𝑢𝑡 (𝑖, 𝑗) = 𝑀𝑎𝑥 − 𝐼𝑖𝑛𝑝𝑢𝑡 (𝑖, 𝑗) ; où « Max » est la

17
valeur maximale que prendre un pixel dans le codage qui a été choisi. Comme exemple
on peut avoir Max=255 pour un codage fait sur 8 bits.
- OR et XOR : les opérateurs logiques OU et XOR sont utiles pour traiter des images
binaires, pour détecter les objets qui ont quittés la scène. Les objets binaires sont
typiquement produits par l'application de seuillage sur les images à niveau de gris.
- AND : operateur logique généralement employé pour détecter des différences dans les
images.
La combinaison de ces opérateurs peut être également considérée comme un opérateur
dans le traitement d’image.
III.2.3. Le seuillage
Le seuillage produit une image binaire à partir d'une image à niveau de gris ou de couleur
en plaçant des valeurs de Pixel à 1 ou à 0 selon qu'elles sont au-dessus ou en-dessous de la valeur
seuil. Ceci est généralement employé pour séparer ou segmenter une région ou objet dans l'image
basé sur ses valeurs de Pixel, comme représenté sur la figure 3.2. Dans cette opération de base, le
seuillage opère sur l'image I comme suit :

Pour tout pixel 𝐼(𝑖, 𝑗) présent


dans l’image I
Si 𝐼(𝑖, 𝑗) > Seuil
𝐼(𝑖, 𝑗) = 1
Sinon
𝐼(𝑖, 𝑗) = 0
Fin
Fin
Figure3.2 : Seuillage sur image à niveau de gris

III.3. Les transformations logarithmiques et exponentielles


La dynamique d'une image est définie comme étant la différence entre la plus petite et la
plus grande valeur de Pixel dans l'image. On peut définir certaines transformations qui rendent
efficace l'utilisation de la dynamique. Celles-ci améliorent principalement le contraste de l'image.
Cette amélioration est réalisée en changeant la relation entre la dynamique de l'image et les
niveaux de gris.

III.3.1. Transformation logarithmique


La dynamique d'une image peut être comprimée en remplaçant chaque valeur de Pixel par
son information logarithmique : 𝐼𝑜𝑢𝑡𝑝𝑢𝑡 (𝑖, 𝑗) = 𝑙𝑛 (𝐼𝑖𝑛𝑝𝑢𝑡 (𝑖, 𝑗)), avec 𝐼(𝑖, 𝑗) la valeur du pixel à

18
la position(𝑖, 𝑗) et ln la fonction logarithme népérienne. Dans la pratique, comme le logarithme
n'est pas défini pour zéro, la forme logarithmique suivante est souvent utilisée :

𝐼𝑜𝑢𝑡𝑝𝑢𝑡 (𝑖, 𝑗) = 𝑐 𝑙𝑛[1 + (𝑒 𝜎 − 1)𝐼𝑖𝑛𝑝𝑢𝑡 (𝑖, 𝑗)] Avec


255
𝑐=
𝑙𝑜𝑔 [1 + 𝑀𝑎𝑥 (𝐼𝑖𝑛𝑝𝑢𝑡 (𝑖, 𝑗))]

Noter que le facteur 𝜎 commande la marge d'entrée de la fonction logarithmique, tandis


que, c limite la dynamique de quantification de l'image de 0 à 255. L'addition de 1 est simplement
pour empêcher que le logarithme soit face à une valeur nulle. Le niveau de la compression de la
dynamique est efficacement commandé par le paramètre 𝜎 .Comme montré à la figure 3.3 La
fonction logarithmique est presque linéaire à l'origine, c'est dire que la compression est faible
pour une image contenant une basse gamme des valeurs d'entrée plutôt qu'une image contenant
une large gamme des valeurs de Pixel. La constante c, est calculé sur la base du maximum permis
(255 pour une image codée à 8 bits) et la valeur maximale de l'image d'entrée.

Figure3.3 : Transformation logarithmique en fonction Figure3.4 : Transformation exponentielle en fonction


de 𝜎 de 𝜎

III.3.2. Transformation exponentielle


La transformation exponentielle est l'inverse de la transformation logarithmique elle est
conçue dans la base e. La fonction est définie par 𝐼𝑜𝑢𝑡𝑝𝑢𝑡 (𝑖, 𝑗) = 𝑒 𝐼𝑖𝑛𝑝𝑢𝑡(𝑖,𝑗) . En générale une base
légèrement supérieure à 1 est satisfaisante pour rehausser une image en photographie. On peut
donc l’étendre à l’expression 𝐼𝑜𝑢𝑡𝑝𝑢𝑡 (𝑖, 𝑗) = 𝑐 [(1 + 𝜎)𝑒 𝐼𝑖𝑛𝑝𝑢𝑡(𝑖,𝑗) − 1] . Ici, (1 + 𝜎) est la base
et c le scalaire nécessaire pour s’assurer que l’image de sortie reste dans une marge de valeur
souhaitée. La figure 3.4 nous présente ses courbes en fonction de 𝜎. Cette transformation
augmente le détail dans des régions de grandes valeur (lumineuse) et diminue la gamme
dynamique dans les régions de basses-valeurs (foncées).

19
III.3.3. Transformation gamma
Une autre transformation qui combine les deux précédentes est la transformation gamma
encore appelée la transformation de loi de puissance. Elle se présente comme suit :
𝛾
𝐼𝑜𝑢𝑡𝑝𝑢𝑡 (𝑖, 𝑗) = 𝑐 (𝐼𝑖𝑛𝑝𝑢𝑡 (𝑖, 𝑗))

En générale pour 𝛾 > 1 on observe une croissance de la gamme des hautes valeurs et inversement
pour 𝛾 < 1. La constante c conserve son rôle. Une de ses applications est la correction gamma
effectuée dans le processus d’acquisition d’image.

III.4. Distribution des pixels : les histogrammes


L’histogramme d’une image est une courbe de la fréquence relative des valeurs de Pixel
dans l'image. L’on normalise souvent une telle courbe de fréquence, de sorte que la somme des
fréquences relatives soit également à l'unité, nous pouvons considère l'histogramme d'image
comme une fonction discrète de densité de probabilité qui définit la probabilité d’avoir une valeur
donnée de Pixel présent dans l'image. L'inspection visuelle d'un histogramme d'image peut
indiquer le contraste de base qui est présent dans l'image et toutes les différences potentielles des
distributions des couleurs. Pour une image à niveau de gris, l'histogramme peut être construit en
comptant simplement le nombre de fois que chaque valeur de pixel (0-255) se produit dans
l'image.

Figure3.5 : Une image et son histogramme Figure3.6 : Une image et son histogramme
correspondant correspondant

III.4.1. Histogramme : outil pour déterminer un seuil


Dans l'exemple représenté sur la figure 3.5, nous observons l'histogramme d’une image.
L'axe des abscisses représente la plage des valeurs dans l'image (0-255 pour une image codée sur

20
8 bits) et l'axe des ordonnés présente le nombre de fois que chaque valeur se produit réellement
dans l'image. En choisissant une valeur seuil entre les deux crêtes d'histogramme nous pouvons
avec succès séparer les pièces du fond de l'image en utilisant le seuillage de la section I.2.3 (à un
seuil pris autour de 120 pour le cas de la figure3.5). Généralement, le seuillage est adapté pour
les cas de distributions bimodales. Pour des cas plus complexes, telles que celui de la figure 3.13,
l’histogramme est plus complexe se et le seuillage simple n'est pas approprié pour distinguer le
fond et les objets de l'image. Dans de tels cas, nous devons recourir à des techniques plus
sophistiquées. Sur Matlab, nous pouvons employer l'histogramme d'image comme base pour le
calcul automatique d'une valeur seuil à l'aide par exemple de la méthode de OTSU.

III.4.2. Seuillage adaptatif


Le seuillage adaptatif est conçu pour surmonter les limitations du seuillage simple en
employant un seuil différent à chaque position de Pixel dans l'image. Ce seuil local est
généralement déterminé par les valeurs des Pixels à proximité d’un Pixel choisi. Ainsi, le seuillage
adaptatif fonctionne sur l'hypothèse que l'illumination peut varier dans l'image mais demeurer
constant dans un voisinage suffisamment petit et local. La valeur seuil locale t dans le seuillage
adaptatif est une information essentiellement statistique. Concrètement, le seuil est choisi pour
être
𝑡 = 𝑚𝑜𝑦𝑒𝑛𝑛𝑒 + 𝑐 𝑜𝑢 𝑡 = 𝑚é𝑑𝑖𝑎𝑛𝑒 + 𝑐 𝑜𝑢 𝑡 = (𝑚𝑎𝑥 − 𝑚𝑖𝑛)/2 + 𝑐
Pour un voisinage 𝑁 × 𝑁. Le choix de N est important et doit être assez grand pour couvrir
suffisamment le fond et l'avant plan de l’image, mais pas aussi grand de peur que la variation de
l'illumination affecter le seuil. La constante « C » est utilisée pour fixer le seuil au-dessus de la
variation du bruit dans la zone concernée de l'image.

III.4.3. Extension du contraste


Les histogrammes d'images sont également employés pour faire varier le contraste et cela
en étirant l’intervalle des intensités des Pixels de l'image pour occuper une plus grande gamme
dynamique dans l'image résultante. Pour effectuer cette opération, il faudrait connaitre ses valeurs
limites supérieur et inferieure, notons les a et b respectivement. Celles-ci sont généralement les
limites supérieures et inférieures de la quantification de Pixel. On choisit ensuite les valeurs
maximale et minimale de l'image souhaitée, notons les respectivement c et d. Les valeurs des
Pixels sont étirées selon la formule suivante :
𝑎−𝑏
𝐼𝑜𝑢𝑡𝑝𝑢𝑡 (𝑖, 𝑗) = [𝐼𝑖𝑛𝑝𝑢𝑡 (𝑖, 𝑗) − 𝑐] ( )+𝑎
𝑐−𝑑
En réalité, cette méthode fait un choix naïf de c et d, cependant ce choix pourrait affecter le
rehaussement de l'image. L'on peut améliorer cette méthode en s'assurant que c et d soient
vraiment représentatives du contenu de l'image. Par exemple, on peut déterminer l'histogramme

21
de l'image et choisir c et d en tant que 5ième et 95ième centile de la distribution cumulative (c.-
à-d. 5% des Pixel d'image aurons des valeurs inferieures à c et 5% supérieures à d).

III.4.4. Histogramme compensateur (histogram equalization)


Une autre opération de rehaussement du contraste basée sur la manipulation de
l'histogramme est l''histogramme compensateur. Les valeurs des pixels dans une image numérique
peuvent occuper un nombre fini de valeurs discrètes. Supposons que cette image possède S
valeurs possible que nous notons 𝑥𝑘 , de densité de probabilité 𝑝𝑥 (𝑥𝑘 ) où 𝑘 ∈ {0,1,2, … , 𝑆 − 1}.
Soit la fonction
𝑦 = 𝑓(𝑥𝑘 ) Définie par :
𝑘 𝑘 𝑘
1
𝑦(𝑥𝑘 ) = 𝑦𝑘 = ∑ 𝑝𝑥 (𝑥𝑘 ) = ∑ 𝑝𝑥 (𝑗) = ∑ 𝑛𝑗
𝑁
𝑗=0 𝑗=0 𝑗=0

Cette fonction représente l’histogramme cumulatif ; N est le nombre total de pixels de l’image.
La fonction discrète y est conçue pour approcher la fonction continue d’uniformité de
l’histogramme encore appelée histogramme compensateur. Deux éléments principales
caractérisent de l'histogramme compensateur, c'est un procédé entièrement automatique et simple
à implémenter. La transformation d'intensité 𝑦(𝑥𝑘 ) dépend uniquement de l'histogramme de
l'image d'entrée. Modeler l'histogramme permet de modifier la gamme dynamique de l’image tel
que sa distribution se conforme à une forme donnée. Dans l''histogramme compensateur une
correspondance non-linéaire est utilisée tels que les Pixels de l'image d'entrée sont utilisés pour
produire une image donc l'histogramme a une distribution uniforme. Cette correspondance ou
fonction peut être définie comme étant l’histogramme cumulatif.

III.4.5. Histogramme d’appariement (histogram matching)


En dépit de ses caractéristiques attrayants, l'histogramme compensateur n'est pas pour
autant une panacée. Il y a beaucoup d'exemples dans lesquels la compensation produit des effets
tout à fait indésirables. La technique connue sous le nom d'histogramme d'appariement est parfois
plus appropriée et peut être utilisées pour améliorer le contraste visuel et pour régulariser une
image avant le traitement ou l'analyse suivante. Le principe de l'histogramme d'appariement est
très simple. Etant donné l'image d’entrée 𝐼𝑖𝑛𝑝𝑢𝑡 et son histogramme correspondant 𝑝𝑥 (𝑥) , l'on
cherche à effectuer une transformation 𝑓(𝑥) sur les intensités d'entrée tels que l'image transformée
𝐼𝑜𝑢𝑡𝑝𝑢𝑡 ai un histogramme d’une configuration voulue. Souvent, l'histogramme voulu est par
rapport à un modèle souhaité.

22
III.4.6. Histogramme de compensation adaptatif (adaptive histogram equalization)
Parfois l'histogramme global d'une image peut avoir une distribution large tandis que
l'histogramme des régions locales est présenté dans une partie étroite de la distribution des
niveaux de gris. Dans de tels cas, il est souvent souhaitable d'augmenter le contraste de ces
régions locales, mais l'histogramme global de compensation est inefficace. Ceci peut être réalisé
par l''histogramme de compensation adaptatif. Le terme adaptatif implique que différentes régions
de l'image sont traitées différemment selon les propriétés locales.
III.4.7. L’histogramme pour les images couleur
Jusqu'à ce point, nous avons seulement considéré l'application des histogrammes sur les images
à niveaux de gris. Essayer d'améliorer le contraste d’une image couleur est une issue légèrement
plus complexe que pour des images à niveaux de gris. L'on pourrait appliquer les différents types
d’histogramme à chaque plan couleur (R, G, B). Cependant, les valeurs RGB d'un Pixel
déterminent son intensité et sa chromaticité (c.-à-d. le subjectif impression de couleur). La
transformation des valeurs de RGB des Pixels pour améliorer le contraste, va en généralement
altérer la chrominance de l'image. La solution serait de transformer l'image couleur RGB en une
image donc les composantes luminance et chrominance sont distinctes, tels les espaces couleur
HSV, L*a*b* ; ensuite d'appliquer l'histogramme voulu, et enfin convertir l'image résultante dans
l'espace RGB.

23
Chapitre IV : Rehaussement d’une image
Les techniques que nous avons présentées à la fin du chapitre III, permettent de
manipulation la gamme dynamique d'une image numérique donnée pour améliorer la visualisation
de son contenu. Dans ce chapitre nous considérons une amélioration plus générale de l''image.
Pour cela nous présentons la notion du filtrage d'image, ensuite nous décrivons l'action que
peuvent avoir les filtres pour le débruitage et le rehaussement des contours dans une image. Dans
la suite de ce chapitre voir l’annexe Code3 pour les codes Matlab correspondant.

IV.1. Le but du rehaussement d’image


Le but de base du rehaussement d'image est de traiter l'image de sorte que nous puissions
regarder et évaluer l'information visuelle qu'elle contient avec une plus grande clarté. Le
rehaussement d'image est, donc, plutôt subjectif parce qu'il dépend fortement de l'information
spécifique que l'utilisateur espère extraire. La première condition pour le rehaussement d'image
est que l'information que l'on souhaite extraire soit présente et ne soit pas totalement submergée
par le bruit. De façon plus général, le but du rehaussement est que l'image traitée soit plus
appropriée que l'original pour la tâche ou le but vise. L'évaluation de l'image par rapport à son
rehaussement reste plutôt subjective et, par conséquent, est difficile quantifiable indépendamment
du domaine d'application.

IV.2. Le voisinage d’un pixel


Une mesure importante dans les images est le concept de la connectivité. Beaucoup
d'opérations dans le traitement image utilise le concept du voisinage local d'image pour définir
un secteur local d'influence, de pertinence ou d'intérêt. Cette notion de voisinage local est
généralement manipulé sous le terme de connectivité qui définit quels Pixels sont reliés entre eux.
Quand nous parlons de 4-connexe, c'est seulement les Pixels qui sont au Nord (N), au Sud (S), à
l'Est (E) et à l'Ouest (O) du Pixel donné (i, j), qui sont reliés. Cependant, si, en outre, les Pixel sur
les diagonales doivent également être considérés, alors nous avons 8-connexe (c.-à-d. N, S, E, O,
NO, NE, SO, SE ; voir la figure 4.1).

NO N NE
O (i, j) E
SO S SE

Figure 4.1 : Connectivité d’un voisinage

IV.3. Masque d’un filtre et mécanisme du filtrage linéaire


Dans les filtres spatiaux linéaires la nouvelle valeur d'un pixel après filtrage est déterminée
par une combinaison linéaire des valeurs de Pixel dans son voisinage. Tout autre type de filtre est

24
considéré comme filtre non-linéaire. La combinaison linéaire spécifique des Pixels voisins est
obtenue à l’aide du masque du filtre (encore appelé noyau du filtre). C'est juste une matrice de la
même taille que le voisinage contenant le pixel cible. Le filtrage procède en plaçant
successivement le noyau de sorte que l'endroit de son centre coïncide avec le pixel cible, et chaque
fois la valeur filtrée résultante est calculé par la somme pondérée des Pixels du voisinage. Ce
filtrage peut être visualisé comme un glissement du noyau au-dessus de tous les endroits d'intérêt
dans l'image original, multipliant l'élément de matrice du noyau par le pixel du voisinage
correspondant, calculant ensuite la nouvelle valeur en additionnant le total et en le copiant à la
même position dans une nouvelle image (dite filtrée) f, par exemple la figure 4.2. Les mécanismes
du filtre spatial linéaire exprimés dans le domaine discret est un processus appelé « convolution »,
un phénomène physique et mathématique important.

Figure 4.2 : Mécanisme du filtrage linéaire avec un masque 𝑁𝑥𝑁 = 3𝑥3

Beaucoup de masques de filtre sont parfois décrits comme noyaux de convolution, l'on comprend
ainsi qu'ils sont appliqués à l'image sous l’une des formes linéaires décrite ci-dessus.
𝐼𝑚𝑎𝑥 𝐽𝑚𝑎𝑥

𝑓(𝑥, 𝑦) = ∑ ∑ 𝑤(𝑖, 𝑗) ∙ 𝐼(𝑥 + 𝑖, 𝑦 + 𝑗)


𝑖=𝐼𝑚𝑖𝑛 𝑗=𝐽𝑚𝑖𝑛

𝑓𝑖 = ∑ 𝑤𝑘 𝐼𝑘 (𝑖)
𝑘=0

𝑤(𝑖, 𝑗) Est le masque du filtre, de taille (𝐼𝑚𝑎𝑥 − 𝐼𝑚𝑖𝑛 + 1, 𝐽𝑚𝑎𝑥 − 𝐽𝑚𝑖𝑛 + 1) où, (𝑖 = 0, 𝑗 = 0)
correspond à son pixel central. 𝐼𝑘 (𝑖) Est le voisinage du i -ème pixel

IV.4. Filtrage spatial non linéaire


On peut facilement concevoir des filtres spatiaux non-linéaires. Le mécanisme est comme
celui du cas linéaire. Le noyau du filtre glisse au-dessus de l'image comme le cas linéaire, la seule

25
différence étant que la valeur filtrée est la résultante d'une certaine opération non-linéaire sur les
Pixels du voisinage. Par exemple, en utilisant la même notation que précédemment, nous pouvons
définir un filtre quadratique :
𝑁

𝑓𝑖 = ∑ 𝑤𝑘1 𝐼𝑘2 (𝑖) + 𝑤𝑘2 𝐼𝑘 (𝑖) + 𝑤𝑘3


𝑘=0

Dans ce cas-ci, l'action du filtre est définie par les coefficients de pondération qui indiquent la
contribution du deuxième, du premier et de l'ordre zéro. Les filtres non-linéaires de ce type ne
sont pas commun dans le traitement d'image. Les filtres d'ordre sont par contre plus utilisés. Ils
fonctionnent en rangeant les Pixels dans le voisinage indiqué et en remplaçant le Pixel cible par
la valeur correspondant à un rang choisi. Dans ce cas, le masque et une équation telle la forme
linéaire ne peut être réalisés, la convolution n'est pas applicable.

IV.5. Filtres pour extraire le bruit


L’une des premières applications du filtrage linéaire et non linéaire dans le rehaussement
d’image, est l’extraction du bruit. Plusieurs bruits sont souvent rencontres, tels que le bruit additif,
le bruit gaussien. Quatre filtres adaptés à ces bruits sont présentés dans la suite de cette section à
savoir le moyenneur, le filtre médian, le filtre d’ordre et le gaussien.
- Le moyenneur est un des filtres linéaires les plus simple, qui attribue le même
coefficient pondération à chaque pixel du voisinage à savoir 𝑤𝑘 = 1/(𝑁 ∙ 𝑀), avec le
produit 𝑁 ∙ 𝑀 vu comme le nombre de pixels du voisinage. En remplaçant, chaque
pixel par la moyenne de son voisinage. Le moyenneur a pour effet d’uniformiser
l’image. Le moyenneur permet d’éliminer le bruit gaussien par contre il élimine
suffisamment les informations de hautes fréquences et produit donc du floue. C’est un
filtre qui n’est pas robuste pour un bruit suffisamment répandu dans l’image.

- Le filtre médian corrige certains défauts du moyenneur, notamment la conservation


des hautes fréquences. Il élimine aussi bien le bruit additif. Il est cependant couteux
en temps d’implémentation. Son principe consiste à remplacer chaque pixel par la
médiane statistique des 𝑁 ∙ 𝑀 pixels voisins. La valeur médiane statistique d’un
ensemble de valeurs est la valeur qui est supérieure à 50% des valeurs de l’ensemble
et inférieure à 50% des valeurs de l’ensemble.

- Le filtre d’ordre est un filtre non linéaire qui est construit en quatre étapes à savoir :
on définit un voisinage 𝑁 ∙ 𝑁 pixels, on classe les valeurs de ces pixels du plus petit
au plus grand, on choisit l’ordre souhaité (par exemple le minimum, la médiane, le
maximum…) et on attribue au pixel de l’image résultante la valeur choisie.

- Le filtre gaussien défini sur un voisinage 𝑁 ∙ 𝑁 a un masque construit à partir de la


fonction gaussienne 𝑓(𝑥, 𝑦) de variance 𝜎 2

26
1 𝑥2 + 𝑦2
𝑓(𝑥, 𝑦) = 𝑒𝑥𝑝 (− )
2𝜋𝜎 2 2𝜎 2
Comme le moyenneur, il élimine le bruit gaussien par contre il élimine suffisamment
les informations de hautes fréquences. Toutefois l’on peut contrôler le taux
d’élimination des hautes fréquences à l’aide du choix de la variance 𝜎 2

IV.6. Filtres pour la détection des contours


Dans une image les contours sont vus comme des points de discontinuités, c’est-à-dire des pixels
donc les valeurs ont des variations brusques par rapport à leur voisinage. Les filtres dérivés
constituent donc de bons détecteurs de contours. Le tableau 4.1 présente la définition formelle
des opérateurs de dérivations, dans le domaine continue et discret pour une image 𝑓(𝑥, 𝑦).
Tableau 4.1 Des opérateurs de dérivations

L’opération de dérivation est une opération linéaire, il peut donc être implémenter à partir de son
masque de filtre. Une condition importante à imposer à ce filtre est que sa réponse soit nulle dans
une région complétement uniforme. Cela peut être assure si la somme des coefficients du masque
du filtre est nulle.

27
IV.6.1. Filtres dérivés de premier ordre
Un certain nombre de masque de filtres ont été conçus pour être approximatif à l’opérateur
de dérivation du premier ordre. Nous pouvons citer comme exemples, les filtres de Roberts, de
Prewitt et de Sobel. Ces trois filtres sont chacun implémenté en combinant deux masques de filtre,
l’une suivant la direction des abscisses (x) l’autre suivant l’axe des ordonnées (y). Les masques
de ces filtres sont présentés à la figure 4.3.

Figure 4.3 : Des filtres dérivés de premier ordre

IV.6.2. Filtres dérivés de second ordre


Pour une détection plus robuste des contours, l’opérateur de dérivation de second ordre (le
Laplacien) est plus approprié que celui du premier ordre. Le laplacien et le laplacien gaussien
sont présentés dans la suite de cette section.
- Le laplacien est l’opérateur de dérivation de second ordre donc la forme continue et
discrète sont respectivement :
𝜕 2𝑓 𝜕 2𝑓
∇2 𝑓(𝑥, 𝑦) = 2 + 2
𝜕𝑥 𝜕𝑦

Et ∇2 𝑓(𝑥, 𝑦) = 𝑓(𝑥 + 1, 𝑦) + 𝑓(𝑥 − 1, 𝑦) − 4𝑓(𝑥, 𝑦) + 𝑓(𝑥, 𝑦 + 1) + 𝑓(𝑥, 𝑦 − 1)

- Le laplacien Gaussien, est adapté pour simultanément détecter les contours et extraire
le bruit gaussien. Il s’implémente de façon séquentielle, c’est-à-dire le Laplacien puis
le gaussien ou inversement.

IV.7. Rehaussement des contours


Les filtres de détection de contours du premier et du second ordre sont utilisés pour
rehausser l’image, notamment les contours des objets dans l’image. Le Laplacien permet de
détecter des variations plus fines mais produit par contre une réponse nulle pour région uniforme.

28
L’on peut l’utiliser pour rehausser les contours simplement en effectuant une somme algébrique
de l’image original et son laplacien :
𝐼𝑜𝑢𝑡𝑝𝑢𝑡 (x, y) = 𝐼𝑖𝑛𝑝𝑢𝑡 (x, y) ± ∇2 𝐼𝑖𝑛𝑝𝑢𝑡 (x, y)

29
Chapitre V : Segmentation d’une image

La segmentation est le nom donné au processus générique par en lequel on subdivise une
image en ses régions ou objets constitutifs. En général, la segmentation non supervisée est une
des tâches les plus difficiles dans la conception des systèmes de vision par d'ordinateur et demeure
un domaine très actif dans la recherche. La segmentation occupe un rôle très important dans le
traitement d'image parce que c'est généralement l'une des premières tâches les plus délicates à
effectuer. Après tout, si l'on ne peut pas identifier les objets dans une image, comment peut-on
les décrire ? Le but de la segmentation, est de partitionner l'image en des régions mutuellement
exclusives auxquelles nous pouvons plus tard attacher des étiquettes significatives. Les objets
segmentés sont souvent considérés comme étant l'avant plan et le reste de l'image comme
l'arrière-plan. Une bonne segmentation dépend fortement du type d'objet ou de région cibles.
Deux approches sont souvent utilisées.
• L’approche contours. Elle est basée sur la détection des frontières des objets. Elle
recherche des différences importantes entre les groupes de Pixels.
• L’approche régions. Elle assigne des Pixels à une région donnée basée sur leur degré de
similitude mutuelle.
Dans la suite de ce chapitre voir l’annexe Code 4 pour les codes Matlab correspondant.

V.1. Propriétés d’une image et la segmentation


Parmi les techniques de segmentation les plus élémentaires (seuillage d'intensité), la
segmentation utilise uniquement l'intensité des pixels individuellement. Cependant, les propriétés
plus sophistiquées de l'image sont généralement requises pour une segmentation réussie. Avant
de commencer notre discussion les techniques, il est utile de reconnaître qu'il existe trois
propriétés de base dans les images que nous pouvons exploiter dans nos tentatives de
segmentation d’images.
(1) La couleur est, dans certains cas, la manière la plus simple et la plus évidente de
discriminer entre les objets et l'arrière-plan. Objets qui sont caractérisés par certaines
couleurs (c'est-à-dire sont confinées à une certaine région d'un espace de couleur)
peuvent être séparées de l'arrière-plan. Par exemple, segmenter une orange à partir
d'un arrière-plan comprenant une nappe bleue est une tâche triviale.
(2) La texture est un concept polysémique dans le traitement d'image. Il n'a pas une seule
définition, mais, néanmoins, s'accorde raisonnablement bien avec nos notions
quotidiennes d'un Objet d’une forme globalement régulière. Ainsi, la texture fait
référence à la variation spatiale des valeurs d'intensité ou de couleur dans l'image sur
une certaine échelle spatiale. Un certain nombre de métriques de texture sont basées
sur le calcul de la variance ou d'autres moments statistiques des intensités sur une
certaine échelle d’un voisinage. Nous l'utilisons dans un sens très général ici.

30
(3) Le mouvement d'un objet dans une séquence d'image peut être un repère puissant.
Quand cela prend placer sur un fond fixe, de simples techniques de soustraction image
par image sont souvent suffisants pour donner un aperçu précis de l'objet en
mouvement.
En résumé, la plupart des procédures de segmentation utilisent et combinent des
informations sur l'une des propriétés à savoir la couleur, la texture et le mouvement.

V.2. La segmentation par seuillage


L'idée de base de l'utilisation du seuil d'intensité dans la segmentation est très simple.
Nous choisissons une valeur seuil telle que les pixels possédant des valeurs supérieures au seuil
sont affectés à une région tandis que ceux qui tombent en dessous du seuil sont assignés à une
autre (adjoint) région. Le seuillage crée une image binaire 𝑏(𝑥, 𝑦) à partir des niveaux de gris de
l’image 𝐼(𝑥, 𝑦) selon le seuil T choisi. Dans les cas les plus simples, cette approche est assez
satisfaisante.
1 𝑠𝑖 𝐼(𝑥, 𝑦) > 𝑇
𝑏(𝑥, 𝑦) = {
0 𝑠𝑖𝑛𝑜𝑛
La sélection automatique des seuils repose essentiellement sur une prise en compte conceptuelle
ou réelle de l'histogramme de l'image. Dans les situations où le seuillage peut réussir
à segmenter des objets de l'arrière-plan, l'histogramme 1-D de l'image présentera typiquement
deux modes ou pics : un correspondant aux pixels des objets et un aux pixels de l'arrière-plan.
C'est en fait le cas de notre exemple choisi ; voir la figure 5.1 (image sur droite). Le seuil doit être
choisi pour que ces deux modes soient clairement séparés l'un et l'autre. Une approche simple
consiste à calculer l'histogramme de l'image et à adapter une fonction polynomiale, à condition
que l'ordre de la fonction polynomiale soit choisi judicieusement et que le polynôme correspond
parfaitement à la forme de base de l'histogramme, un seuil approprié peut être identifié au point
de virage du minimum de la courbe. Une approche plus raisonnée de la sélection automatique des
seuils est donnée par la méthode d'Otsu. La méthode d'Otsu est basée sur une analyse relativement
simple qui trouve que le seuil est celui qui minimise la variance intra-classe des pixels noir et
blanc seuillés. En d'autres mots, cette approche sélectionne le seuil qui se traduit par le
regroupement le plus proche des deux groupes représentés par les pixels de premier plan et de
l’arrière-plan. La figure 5.1 montre les résultats obtenus en utilisant à la fois un seuil sélectionné
manuellement et celui calculé automatiquement par la méthode d'Otsu. Toutefois, il existe
plusieurs limites sérieuses au seuillage simple :
• Il n'y a aucune garantie que les pixels seuillés seront contigus (le seuillage ne tient pas
compte des relations spatiales entre les pixels).
• Il est sensible aux variations accidentelles et incontrôlées du champ d'éclairage.
• Il n'est vraiment applicable qu’à des cas simples dans lesquels l'image entière est divisible
en un premier plan d'objets d'intensité similaire et un fond d'intensité distincte aux
objets.

31
Figure 5.1 : Image originale plus en haut à gauche. Au milieu en haut, image après une sélection
manuelle du seuil. Image en bas à gauche est obtenue après le seuillage automatique à
l’aide du polynôme et de l’histogramme. Image en bas au milieu est celle obtenue par le
seuillage automatique de la méthode d’Otsu.

V.3. Croissance de régions et subdivision de régions


La croissance de région est une approche de la segmentation dans laquelle les pixels sont
regroupés en régions en fonction de leur similarité selon des critères de similarité prédéfinis. Il
est à noter que la seule spécification des critères de similarité ne constitue pas une base efficace
pour la segmentation et il est nécessaire de considérer les relations spatiales d'adjacence entre les
pixels. Dans la croissance des régions, nous commençons généralement à partir d'un certain
nombre de pixels échantillon distribués au hasard sur l’image et ajoutons ensuite des pixels dans
le voisinage à la même région s'ils satisfont aux critères de similarité à leur intensité, couleur ou
propriétés statistiques connexes. Des exemples simples de critères de similarité pourraient être :
• La différence absolue d'intensité entre un pixel candidat et le pixel de départ doit
dans une plage spécifiée.
• La différence absolue d'intensité entre un pixel candidat et la moyenne des intensités de
la région de croissance doit se situer dans une fourchette spécifiée.
De nombreux autres critères peuvent être spécifiés en fonction de la nature du problème.
La subdivision des régions utilise essentiellement une philosophie similaire, mais c'est
l'approche inverse de la croissance de région. Dans ce cas, nous commençons la procédure de
segmentation en traitant l'ensemble image comme une seule région qui est ensuite divisée en plus
petits régions jusqu'à ce que toute autre subdivision se traduise par les différences entre
régions tombant en dessous d'un seuil choisi. Une approche populaire et directe est l'algorithme
de fractionnement et de fusion (split-and-merge).

32
V.4. L’algorithme Split-and-merge
Cet algorithme se divise en deux étapes successives. Le but de la division de la région est
de scinder l’image en un ensemble de régions disjointes dont chacune est régulière en elle-même.
Ces quatre étapes de base sont :
• Considérer l'image dans son ensemble comme la zone d'intérêt initiale.
• Regardez cette zone d'intérêt et décidez si tous les pixels contenus dans la région satisfont
au critère de similarité.
• Si VRAI, la zone d'intérêt (également appelée bloc) correspond à une région dans l’image
et est étiquetée.
• Si FAUX, divisez la zone d'intérêt (généralement en quatre sous-zones égales) et
considérez chacune des sous-zones en tant que zone d'intérêt à son tour.
Ce processus continue jusqu'à ce qu'il n'y ait plus de division. Dans le pire des cas, cela peut
arriver lorsque certaines zones ont un seul pixel. La procédure de fractionnement est un
exemple de ce que l'on appelle parfois des méthodes de division pour mieux régner. Cependant,
si seule la division est effectuée, la segmentation finale contient de nombreuses régions voisines
qui ont des propriétés identiques ou similaires. Ainsi, un processus de fusion est utilisé après
chaque division qui compare les régions adjacentes et les fusionnes si nécessaire. Lorsqu'il n'y a
plus de division ou de fusion, la segmentation est achevée. La figure 5.2 illustre ce processus de
base de la division par décomposition. A la figure 5.2 La procédure de division et de fusion de
base, l'image initiale est divisée en quatre régions. Dans ce cas par exemple, les régions 1 et 3
satisfont au critère de similarité et ne sont plus divisées. Les régions 2 et 4 ne satisfont pas aux
critères de similarité et sont ensuite divisés en quatre sous-régions. Les régions (2,1) et (2,3)
sont alors jugés suffisamment similaires pour les fusionner en une seule région. Le critère de
similarité est appliqué aux sous-régions désignées jusqu'à ce qu'il n'y ait plus de fractionnement
ou de fusion.

Figure 5.2 : Procédure de base de l’algorithme split-and-merge.

33
V.5. La détection des contours et ses difficultés
La détection des contours est l'un des aspects les plus importants et les plus étudiés du
traitement de l'image. Si nous pouvons trouver la limite d'un objet en localisant tous ses bords,
alors nous avons effectivement segmenté. Superficiellement, la détection des contours semble
relativement simple. Après tout, les contours des régions sont simplement des transitions
d'intensités entre différents objets. Cependant, malgré sa simplicité conceptuelle, la détection des
contours reste un champ de recherche actif. La plupart des détecteurs de bord sont
fondamentalement basés sur l'utilisation de filtres différentiels à gradient. Des exemples
importants (les noyaux de Prewitt et Sobel) ont déjà été discutés. Cependant, ces filtres ne
trouvent pas de bords en soi, mais donnent seulement quelques indications de l'endroit où ils sont
le plus susceptibles de se produire. La plupart des contours réelles ne sont pas discontinues ; ils
sont réguliers en ce sens que le gradient augmente progressivement puis diminue sur une région
finie. Ce sont des problèmes et nous allons essayer de montrer comment ils sont abordés dans les
techniques discutées dans les sections suivantes.

V.6. La méthode CANNY de détection des contours


Bien que la recherche d'algorithmes fiables de détection des contours se poursuit, la
méthode Canny est généralement reconnue comme étant bonne méthode de détection des contours
développée à ce jour. Canny visait développer un détecteur de bord répondant à trois critères clés,
à savoir :
• Un taux d'erreur faible. En d'autres termes, il est important que les contours apparaissant
dans les images ne soient pas manqués et qu'il ne devrait y avoir aucune réponse là où les
contours n'existent pas.
• Les pixels de contours détectés doivent être bien localisés. En d'autres termes, la distance
entre les pixels de contours tels que trouvés par le détecteur et le contour réel doivent être
un minimum.
• Il devrait y avoir une seule réponse à un seul contour.
Il est hors de la portée de cette discussion de présenter l'analyse mathématique détaillée et
raisonnement entrepris par Canny, mais la procédure de base peut être résumée dans les
étapes suivantes :
(1) L'image est d'abord lissée à l'aide d'un noyau gaussien : Les opérateurs de gradient
sont sensibles au bruit et cette étape préliminaire est considérée pour réduire le bruit de l'image.
Plus large est le masque du filtre, plus lissant (c'est-à-dire la réduction du bruit) est atteint.
Cependant, les masques de grandes dimensions entraînent une plus grande erreur dans
l'emplacement des contours.
(2) Trouver le « support » des contours : Ceci est obtenu en prenant le gradient de l'image
avec l’opérateur de Sobel dans les directions horizontales et verticales, puis en additionnant
l'amplitude de ces composants en tant que mesure de la « support » des contours. Ainsi,

𝐸(𝑥, 𝑦) = |𝐺𝑥 (𝑥, 𝑦)| + |𝐺𝑦 (𝑥, 𝑦)|

34
(3) Calculer la direction du contour : Ceci est facilement calculé comme étant
𝐺𝑦 (𝑥, 𝑦)
𝜃 = 𝑡𝑎𝑛−1
𝐺𝑥 (𝑥, 𝑦)
(4) Numériser la direction du contour : Une fois la direction du bord est connue, nous
l'approchons d'une direction du contour qui peut être tracée dans une image numérique.
Considérant un pixel arbitraire, la direction d'un contour à travers ce pixel peut prendre l'une des
quatre seules valeurs possibles : 00 (voisins à l'est et à l'ouest), 900 (voisins au nord et au sud), 450
(voisins au nord-est et au sud-ouest) et 1350 (voisins du nord-ouest et du sud-est).
En conséquence, nous approximons 𝜃 calculé, par celui de ces quatre angles qui est la plus proche
de celle-ci.
(5) suppression non maximale : Après que les directions de contours sont connues, la
suppression non maximale est appliquée. Cela fonctionne en traçant le long du contour et dans sa
direction et de supprimer toute valeur de pixel qui n'est pas considéré comme étant celui du
contour. Cela donnera une ligne fine dans l'image de sortie.
(6) Hystérésis : Après les cinq premières étapes, la dernière étape consiste à suivre
le long des pixels restants qui n'ont pas été supprimés et seuiller l'image afin d’identifier les pixels
de contour. La méthode Canny distingue deux seuils - une valeur élevée 𝑇2 et une valeur
inférieure 𝑇1 . Le sort de chaque pixel est ensuite déterminé selon les critères suivants :
• Si |𝐸(𝑥, 𝑦)| < 𝑇1 le pixel est rejeté et n'est pas un pixel du contour
• Si |𝐸(𝑥, 𝑦)| > 𝑇2 le pixel est accepté et est un pixel du contour
• Si 𝑇1 < |𝐸(𝑥, 𝑦)| < 𝑇2 le pixel est rejeté sauf si un chemin est constitué des pixels du
contour connectés à un pixel du contour inconditionnel |𝐸(𝑥, 𝑦)| > 𝑇2

V.7. La ligne de partage des eaux


La segmentation basée sur la ligne de partage des eaux, est une approche relativement
récente qui est devenue de plus en plus utilisée ces dernières années et tend à être favorisée dans
les tentatives de séparer les objets se touchants. Ce qui est une opération difficile dans le
traitement d'image. Dans la ligne de partage des eaux, nous envisageons l'image 2D à échelle des
niveaux de gris comme une surface topologique ou « paysage » dans laquelle l'emplacement est
donné par les coordonnées de l'image et la hauteur à cet endroit correspond à l'intensité ou la
valeur du niveau de gris. La pluie qui tombe sur le paysage se drainera naturellement vers le bas,
sous l'action de la gravité, à son point le plus bas. Un bassin versant définit une région connectée
ou zone pour laquelle les précipitations se drainent au même point bas ou minimum. En termes
d’image numérique, le bassin versant est donc constitué d'un groupe de pixels connectés. En
observant cette analogie avec un paysage physique, nous notons qu'il y aura des points sur le
paysage (maximum local) où les précipitations seront susceptibles de tomber dans deux bassins
versants adjacents. Ceci est analogue au fait de marcher de la dorsale d'une montagne. Un point
de vue alternatif est d'imaginer le paysage comme étant progressivement inondé d'en bas avec

35
l'eau entrant par les minima locaux. Comme le niveau d'eau augmente, nous construisons des
barrages qui empêchent le déversement de l'eau des bassins versants adjacent. Lorsque le niveau
d'eau atteint la hauteur du plus haut sommet, le processus de construction s'arrête. Les barrages
construits de cette manière sont les bassins versants qui séparent le paysage en régions. Le calcul
réel des bassins versants dans les images numériques peuvent être effectuées de plusieurs façons,
mais tous sont réalisés fondamentalement par itération des opérations morphologiques. Ces
concepts de base sont illustrés pour un paysage 1D à la figure 5.3.

Figure 5.3 : Bassins versant

La segmentation basée sur la ligne de partage des eaux, présente certains avantages par rapport
aux autres méthodes discutées dans ce chapitre. Un avantage notable est que, contrairement aux
méthodes basées sur la détection de contours, elle produit généralement des contours fermés
permettant de délimiter les objets. Un certain nombre d'approches différentes peuvent être prises
pour cette segmentation, mais l’idée centrale est que nous essayons de transformer l'image initiale
(celle que nous souhaitons segmenter) en autre image telle que les bassins versants correspondent
aux objets que nous essayons de segmenter.

36

Vous aimerez peut-être aussi