Vous êtes sur la page 1sur 35

COURS TS CHAMBERY 2009

Coriandre Vilain

GIPSA-Lab

coriandre.vilain@gipsa-lab.grenoble-inp.fr

Table des matières


1. INTRO : présentation générale du TdS..............................................................................1
1.1 Définition d’un signal.....................................................................................................1
1.2. Classification des signaux :...........................................................................................2
1.3. Les signaux déterministes continus et discrets et les outils de base pour les étudier
................................................................................................................................................3
1.4 Représentation fréquentielle des signaux déterministes ............................................6
1.5. Lien entre représentations temporelles et fréquentielles ..........................................7
1.6. Lien entre corrélations temporelles et densités spectrales : le théorème de
Wiener-Khintchine...............................................................................................................8
2. Filtrage linéaire invariant dans le temps............................................................................9
2.1. Principe et définitions...................................................................................................9
2.2. Caractérisation des filtres LIT dans le domaine temporel .....................................10
2.2. Caractérisation des filtres LIT dans le domaine fréquentiel ..................................11
2.3. Classification des filtres LIT......................................................................................11
3. Echantillonnage et quantification......................................................................................12
3.1 Echantillonnage idéal...................................................................................................13
3.2. Quantification..............................................................................................................14
4. Transformée de Fourier discrète.......................................................................................15
4.1 Transformée directe.....................................................................................................15
4.2 Transformée inverse.....................................................................................................16
4.3. Propriétés de la TFD...................................................................................................16
4.4. TFD rapide (FFT)........................................................................................................16
4.5 Energie et corrélations temporelles des signaux discrets à support fini.................18
5. Transformées en z...............................................................................................................19
5.1.Définition.......................................................................................................................19
5.2. Domaine de convergence.............................................................................................19
5.3 Transformées en z inverses..........................................................................................20
5.4 Propriétés de la TZ.......................................................................................................20
6. Filtrage numérique et TZ...................................................................................................20
6.1 Fonctions de transfert en z d'un filtre LIT causal.....................................................21
6.2. Filtres à RIF ou RII.....................................................................................................22
6.3. Stabilité des filtres numériques..................................................................................22
6.4. Caractérisation de la réponse en fréquence..............................................................23
6.5 Introduction à la synthèse de filtres............................................................................23
7. Notions de Traitement des signaux aléatoires..................................................................24
7.1. Rappels de probabilités...............................................................................................25
7.2. Processus aléatoires.....................................................................................................29

1
1. INTRO : présentation générale du TdS
1.1 Définition d’un signal
support mathématique d’une information (physique) que l’on veut traiter.
o Traitement : Acquisition, conversion, analyse, synthèse, transmission, stockage
etc.
o Information : tout type de message susceptible de modifier l’environnement.
Exemples : Ondes électromagnétiques (incluant lumière ou courant électrique), ondes
acoustiques

Conversion
acoustico- Traitement du
electrique signal sonore
Ondes
acoustiques
Influx nerveux par le cerveau

1.2. Classification des signaux :


1.2.1 Signaux physiques (de phusis : la nature) vs signaux mathématiques
(abstraits)
Les signaux physiques dépendent généralement de l’espace (x,y,z) et du temps (t). Ils
sont contraints par des principes généraux tels que la conservation de l’énergie, la
causalité , la réalité…

Les signaux mathématiques sont des abstractions des signaux physiques définies par des
fonctions qui peuvent être indépendantes du monde physique et de ses contraintes. Ainsi
on peut définir un système non causal manipulant des entités complexes (par opposition à
réelles) de façon mathématique alors qu’on ne le trouvera jamais en physique.

1.2.2 Signaux analogiques (continus) vs signaux numériques (discrets)


Monde physique :

Convertisseur
signal Signal
Numérique/analogique
analogique numérique

Monde mathématique :

Fonction Echantillonnage Fonction


continue discrète

2
1.2.3 Signaux déterministes vs signaux aléatoires

Signal déterministe : signal évoluant selon une loi caractérisable de façon analytique.
On peut théoriquement connaître la valeur du signal à un instant t si on connaît la
valeur en t0. En fait dans de nombreux cas, une petite imprécision sur la valeur initiale
entraîne de grosses différences à l’instant t (systèmes chaotiques déterministes).

Exemple de signaux déterministes:

Continus Discrets
Sinus d'amplitude A, de fréquence f, de phase à Sinus d'amplitude A, de fréquence f, de phase à
l'origine φ0 : l'origine φ0 échantillonné à Fs:

A.sin(2πft + φ0) A.sin(2πfk/Fs + φ0)


Porte de largeur T, centrée sur 0. Porte de largeur 2N+1, centrée sur 0.

∏T(t) = 1 si t∈[-T/2, T/2] ∏2N+1(k) = 1 si k∈[-N,+N]


0 sinon 0 sinon
Échelon . Échelon unité.

U(t) = 1 si t≥0 U(k) = 1 si k≥0


0 sinon 0 sinon
Impulsion (distribution) de Dirac : δ(t) Impulsion unité : δ(k)
Propriétés
∞
δ(k) = 1 si k=0
∫−∞ δ x∗ f  x dx= f 0 0 sinon
Cas particulier
∞
∫−∞ δ x dx =1
Signal aléatoire : Signal dont on ne connaît pas avec certitude la valeur à un instant
donné. Traité par des théories de probabilité, statistiques … (Fin d'année)

Exemples de signaux aléatoires

Continus Discrets
Bruit blanc Bruit de quantification
Bruit thermique (souffle d'un enregistrement
sonore)

1.3. Les signaux déterministes continus et discrets et les outils de base pour
les étudier
Dans ce chapitre, on va traduire mathématiquement les notions abordées
précédemment. On se place donc dans le « monde mathématique »

3
1.3.1. Définitions
• Signal continu : fonction réelle ou plus généralement complexe d'une ou plusieurs
variables continues.

signal monodimensionnel (son) R→R


t → s(t)

Signal bidimensionnel (image N&B) R*R → R


x,y → s(x,y)
Signal tridimensionnel (film N&B) R*R*R → R
t,x,y → s(t,x,y)

Dans ce qui suit, on se limitera principalement aux signaux unidimensionnel


En revanche on sera amené à travailler dans l'espace des complexes, espace englobant les
réels permettant de résoudre certains problèmes de façon plus simple (ex : théorème des
résidus pour calculer certaine intégrales incalculables dans R etc.)
Rappel sur les complexes
Exercice :
Définition générale d'un complexe z = x + i y ou z = ρeiθ, (représentation cartésienne vs
polaire), , représentation graphique, calcul du module et de l'argument, complexe conjugué,
produit, somme de complexes.
On gardera cependant bien en tête que les signaux du monde physiques sont toujours
réels, l'abstraction mathématique permet ensuite de manipuler des nombres complexes

• Signal discret :
Suite réelle ou complexe indexées par une ou plusieurs variables de Z (entiers relatifs)
On se limitera aux signaux unidimensionnels :
Z → C
n → x(n)
• signal causal
La causalité est une autre propriété des signaux du monde réel. Elle peut se traduire de la
façon suivante : si un signal s(t) dépend d'un ensemble de causes c(t) alors ∀t, s(t) = f(c(t'))
avec t'≤t.
On verra par la suite que lorsqu'on manipule des signaux abstraits, on peut fabriquer des
signaux non causaux.

1.3.2. Energie des signaux


• Une caractéristique importante des signaux est leur énergie. En effet, ce paramètre est
primordial dès qu'il y a des transformations de systèmes physiques. La conservation
ou la dissipation de l'énergie joue alors un rôle crucial. La forme générale de l'énergie
∞ 2
d'un signal x(t) est : E=∫ ∣x t ∣ dt
−∞

4
NB : Cette forme générale est obtenue par analogie avec des formes d'énergie de signaux
physiques :
∞
Rayonnement d'onde électro-magnétique : E EM =1/ Z 0∫−∞ ∣E  t 2∣dt
∞
Rayonnement d'onde acoustique : E acous =1 / ρ0 c∫−∞ ∣E t 2∣dt
∞ 2
On pose alors l'expression générale de l'énergie d'un signal : E=K ∫−∞ ∣x t ∣ dt , avec K =
1
∞ 2
Pour les signaux discrets : l'expression de l'énergie est : E =K ∑−∞ ∣x n ∣

L'énergie est caractéristique des signaux dans leur globalité temporelle. Un signal infini dans
le temps (ex : signal périodique, sinus) est donc généralement à énergie infinie. Dans les 2
cas, il s'agit d'abstraction qui peuvent être envisagées dans le monde mathématique mais qui
n'ont pas de sens physique.
Un signal à Energie finie est donc soit un signal borné dans le temps (cas des signaux du
monde réel) soit un signal qui décroit 'suffisamment vite' dans le temps (exemple d'un signal
gaussien
• La puissance d'un signal est l'énergie de ce signal divisée par une durée. On parle de :
◦ Puissance instantanée Pi x(t) = |x(t)|2
T
1 2
◦ Puissance moyenne P x t = lim
T ∞
∫ ∣x t ∣2 dt
T −T2
NB : Un signal à énergie finie est par définition un signal à puissance moyenne
nulle

1.3.3 Comparaison entre signaux : auto et inter corrélation


Pour certains problèmes, on peut être amené à comparer des signaux entre eux pour mesurer
des similitudes temporelles (ex : périodicité d'un signal bruité, trouver la trace d'un signal
dans un autre).
Problème 1 : Comment éliminer le bruit dans un signal périodique bruité : auto corrélation
(voir TD)
Problème 2 : Comment trouver la trace d'un signal dans l'autre : inter corrélation
Exemple concret : Enregistrement multi canaux geste + parole ( capture du mouvement
optotrak + audio (Low Fi) avec en parallèle enregistrement audio Hi Fi). VOIR DEMO
Définitions :
• Autocorrélation d'un signal à énergie finie :
∞

 x = ∫ x t  x ∗ t − dt où x*(t) est le complexe conjugué de x(t)


−∞
∞
 x n = ∑ ∗
x  k  x k −n
k=−∞

Propriétés :

5
◦ Symétrie hermitienne : γx(-τ) = γx*(τ)
◦ Maximum en 0 (issu de l'inégalité de Cauchy-Schwartz)

Autocorrélation d'un signal à puissance moyenne finie


T

2
1
 x = lim
T ∞ T
∫ x t  x ∗ t− dt
T

2
N
1
 x n= lim
N ∞
∑ x k  x ∗ k −n 
2N1 −N
Propriétés : γx est doté d'une forme de symétrie particulière appelée symétrie hermitienne,
caractéristique de certaines fonctions à valeurs complexes : γx(-t) = γx*(t).

• Intercorrélation d'un signal à énergie finie :


∞

 xy = ∫ x t  y ∗ t − dt
−∞
∞
 xy n= ∑ ∗
x k  y k −n
k =−∞

Intercorrélation d'un signal à puissance moyenne finie


T

2
1
 xy = lim
T ∞ T
∫ x t  y ∗ t− dt
T

2
N
1
 xy n= lim ∑
N ∞ 2N1 −N

x k  y k −n 

1.4 Représentation fréquentielle des signaux déterministes


1.4.1 Transformées de Fourier des signaux continus
Rappel : Fourier est nommé préfet de l'isère par Napoléon en 1801. C'est à Grenoble qu'il
conduit ses expériences sur la propagation de la chaleur qui lui permettront de modéliser
l'évolution de la température au travers de séries trigonométriques. Ces travaux, qui apportent
une grande amélioration à la modélisation mathématique de phénomènes, ont contribué aux
fondements de la thermodynamique. Ils ont ouvert la voie à la théorie des séries de Fourier et
des transformées de Fourier (source WIKIPEDIA).

Définition :
∞ ∞

X = ∫ x t  exp− j2   t dt et x t = ∫ X  exp j2  t d 


−∞ −∞
NB : X(ν) est complexe. |X(ν)| note le module de X(ν). Arg(X(ν)) est l'argument ( ou
phase) de X(ν).

• Conditions d'existence (voir cours de mathématique)

6
On peut noter que Si x(t) est à énergie finie, X(ν) existe (c'est le cas de tous les signaux qu'on
rencontre en pratique).
Si x(t) est à puissance moyenne finie, X(ν) peut n'exister qu'au sens des distribution (cas des
signaux périodiques par exemple) :
1
x t =cos  2  0 t  alors X =  −0  0 
2

• Cas des signaux réels :


◦Si x(t ) est réel,X(ν) est douée de symétrie hermitienne : X(-ν) = X(ν)* (à faire en
exercice). Donc |X(-ν)| = |X(ν)| (module pair) et arg(X(ν)) = -arg (X(ν)) (phase impaire). On
peut se contenter d'étudier la TF pour ν>0 et appliquer la symétrie hermitienne

• Propriété de la TF :
◦Linéarité : TF(ax(t)+by(t)) = aX(ν)+bY(ν)
◦Translation temporelle : TF(x(t+τ)) = exp(j2π ν τ)X(ν)
1 
◦Similitude : TF(x(at)) = X 
∣a∣ a
◦Dérivée : TF(dx/dt) = (2πj ν) X(ν)

1.4.2 Transformées de Fourier des signaux à temps discret (TFTD)


∞
Définition : X  f = ∑ x  k  exp− j2  f k 
−∞
1
2

x k = ∫ X  f exp j 2  f k df
1

2
Propriétés :
• f = fréquence réduite (sans dimension, de même que le numéro d'échantillon k est sans
dimension) alors que ν a les dimensions d'un Hz (s-1)
• X(f) est périodique de période 1, on peut se contenter d'étudier sur [-1/2 +1/2]
• Symétrie hermitienne pour x(k) réels : X(-f) = X*(f)
• Linéarité, translation temporelle : idem que pour cas continu
• dérivée continue remplacée par équation aux différences :
dx / dt [ x k 1−x k −1]/ 2

1.5. Lien entre représentations temporelles et fréquentielles


Il y a équivalence entre représentations temporelles et fréquentielles, chacune permettant de
calculer l'autre. Une des principales relations décrivant cette équivalence est l'égalité de
Parseval (Marc-Antoine Parseval des Chênes (27 avril 1755 – 16 août 1836) : mathématicien
français.)

1.5.1. Égalité de Parseval et densité spectrale d'énergie (DSE)


Pour un signal x(t) à énergie finie (continu ou discret) on peut montrer que :
∞ ∞
2 2
E x = ∫ ∣x t ∣ dt= ∫ ∣X ∣ d  (signaux continus)
−∞ −∞

7
1

∞ 2
2 2
E x= ∑ ∣x k ∣ = ∫ ∣X exp j2  f ∣ df (signaux discrets)
k =−∞ 1
k =−
2

On définit alors la densité spectrale d'énergie pour un signal à énergie finie :


2 2
S x =∣X ∣ ou S x  f =∣X exp j2  f ∣

1.5.2. Égalité de Parseval et densité spectrale de puissance (DSP)


Pour un signal à énergie infinie mais à puissance moyenne finie on utilise la densité spectrale
de puissance.
1 2
 x = lim
T
∣X T ∣ Avec XT(ν) = TF(xT(t)) et xT(t) = x(t).∏T(t)
T ∞

1 2
ou  x exp j2  f = lim ∣X 2N 1 exp j2  f ∣ Avec X2N+1(exp(j2πf)) =
N ∞ 2N1
TF(x2N+1(k)) et x2N+1(k) = x(k).∏2N+1(k)

NB : La DSE et la DSP s'expriment en fonction uniquement du module de la transformée de


fourier et non de la phase.

1.6. Lien entre corrélations temporelles et densités spectrales : le théorème


de Wiener-Khintchine
La relation entre l'auto- ou l'intercorrélation est donnée par le théorème de Wiener
Khintchine :
Dans le cas des signaux à énergie finie : TF(γx) = |X(ν)|2
La densité spectrale d'énergie est égale à la TF de la fonction d'autocorrélation.

NB : Cette relation peut s'obtenir à partir des définitions de γx et de sa TF.

∞ ∞ ∞

TF  x = ∫  x exp−2   d = ∫ ∫ x  t  x∗t − exp −2   d  dt


−∞ −∞ −∞
∞

en posant u = t – τ, on a du = -  x = ∫ x t  x∗t− dt dt et donc :


−∞

∞ ∞

TF  x = ∫ ∫ x t  x∗u exp−2  t−u  du dt


−∞ −∞
∞ ∞

TF  x = ∫ x t  exp− j2  t  dt ∫ x∗u exp j2  u du


−∞ −∞
2
TF  x = X . X ∗=∣X ∣

8
Cette relation se transpose aux signaux discrets, aux signaux à puissance moyenne finie :
Signaux continus Signaux discrets
EF : TF( γx)= Sx(ν) TFTD( γx) = Sx(exp(j2πf))
PMF TF( γx)= Гx(ν) TFTD( γx) = Гx(exp(j2πf))

En résumé : Les relations entre le domaine temporel et fréquentiel sont de 3 sortes :


• une relation directe et symétrique des signaux permettant d'obtenir la valeur d'un
signal pour un instant donné ou pour une fréquence donnée: les transformées de
Fourier et leurs inverses
• une relation globale sur l'énergie des signaux : la relation de Parseval
• une relation entre une forme proche de l'énergie globale des signaux (l'autocorrélation)
et la valeur du module du signal en une fréquence donnée (via la des ou la DSP : le
théorème de wiener khintchine
Ce sont 3 outils qui permettent de décrire le signal dans son aspect temporel ou
fréquentiel.

2. Filtrage linéaire invariant dans le temps

2.1. Principe et définitions


2.1.1. Principe

Filtrage = transformation du contenu temporel ou fréquentiel d'un signal.

Monde physique :

Filtre
entrée sortie

Monde mathématique :
• Signal d'entrée x(t)
• signal de sortie y(t)
• filtre = fonction f permettant de passer de x à y : y = f(x)

2.1.2 Exemple de transformations :


• fréquentielle : filtre passe-bas (low-pass filter), passe-haut (high-pass filter), passe-
bande (band-pass filter) , réjecteur de bande (band-stop filter).
• temporelle : pondération du signal (atténuation, amplification)

9
Faire dessins

2.1.3 Propriétés
Parmi toutes les transformations possibles, on va se restreindre à des filtrages respectant 2
propriétés essentielles : la linéarité et l'invariance temporelle.
• Linéarité : Si l'entrée du filtre est multipliée par un facteur donné, la sortie sera
multipliée par le même facteur. Si l'entrée du filtre s'écrit comme la somme de 2
signaux, la sortie sera la somme des sorties associées à chaque signal. Traduit en
langage mathématique, cela donne : f(ax1(t)+bx2(t)) = a.f(x1(t))+b.f(x2(t))
• Invariance temporelle : la sortie associée à un signal décalé dans le temps est la même
que la sortie du signal normal, décalée dans le temps. Soit : f(x(t-τ)) = y(t- τ)
Les filtres qui obéissent à ces 2 propriétés seront appelés par la suite filtre LIT (linéaires et
invariant dans le temps)

2.2. Caractérisation des filtres LIT dans le domaine temporel

Filtre LIT
entrée sortie

Quelles sont les caractéristiques d'un filtre qui permettent de connaître le signal de sortie en
fonction de l'entrée ? ie. Dans le monde mathématique, comment calculer la fonction f
permettant d'écrire y = f(x) étant donné un filtre particulier.
Réponse : la réponse impulsionnelle !
Question : Kesaco?
En fait, les propriétés de linéarité et d'invariance temporelle des filtres considérés permettent
d'utiliser un outil mathématique bien connu appelé produit de convolution associé aux
propriétés de la distribution de Dirac, rappelées en début de cours.
∞

x t = ∫ t −u  x u  du
−∞

Si on note h(t) la réponse impulsionnelle, i.e. La réponse du filtre à une entrée égale à une
impulsion de dirac, on aura f(δ(t))=h(t)
∞

on a donc y= f  x t = ∫ f  t−u x u du du fait des propriétés de LIT.


−∞
∞

Et donc y= ∫ h t−u x u  du
−∞

Cette relation correspond au produit de convolution des signaux h(t) et x(t). On écrit cette
relation y(t) = x(t)*h(t).
Rappel sur le produit de convolution:

10
∞

• Définition : x∗ y t = ∫ x t −u y u du


−∞

• Commutativité : x*y(t) = y*x(t)


• Associativité : (x*y)*z(t) = x*(y*z)(t)

Comparaison entre produit de convolution et intercorrélation : la différence principale est que


l'intercorrélation compare 2 signaux évoluant dans le même sens temporel (sens des t>0) alors
que la convolution compare ces 2 signaux en retournant l'un d'eux temporellement. Cette
différence se traduit notamment dans le fait que l'intercorrélation n'est pas associative alors
que la convolution l'est.

2.2. Caractérisation des filtres LIT dans le domaine fréquentiel


L'expression caractérisant les filtres dans le domaine temporel peut être transposée dans le
domaine fréquentiel en utilisant la transformée de Fourier.
TF[y(t)] = TF[x(t)*h(t)]
Par calcul simple on montre que cette relation donne : Y(ν) = H(ν).X(ν) où Y(ν), H(ν) et X(ν)
sont les TF de y(t), h(t) et x(t) respectivement.
A faire en exercice
H(ν) est appelée fonction de transfert du filtre. Elle est caractéristique du rôle
fréquentiel joué par le filtre. Elle est souvent représenté graphiquement en module et en
phase.

A garder en mémoire : la transformée de Fourier d'un produit de convolution de 2


signaux est le produit des transformées de Fourier de ces signaux.
On peut aussi montrer le résultat inverse, si z(t) = x(t).y(t) alors Z(ν) = X(ν).Y(ν).

Ce résultat est applicable aussi aux signaux discrets :


∞
y n = ∑ h k  x  n−k  et Y  f =H  f . X  f 
k =−∞

2.3. Classification des filtres LIT


Les filtres sont classés en fonctions des contraintes physiques qu'ils respectent ou pas.

2.3.1 Finitude de la réponse impulsionnelle


Une des premières classification se base sur la finitude de la réponse impulsionnelle. RIF =
réponse impulsionnelle finie, RII = réponse impulsionnelle infinie.

2.3.2. Causalité
Un filtre est causal si la réponse impulsionnelle h(t) est nulle pour t<= 0, ou h(n) est nulle
pour n<0. En effet, la cause (l' impulsion unité d'entrée de filtre) étant non nulle en 0, il faut
que l'effet (la réponse impulsionnelle) soit nul pour t<0.

11
Dans certains cas, on pourra être amené à définir des filtres non-causaux (qui n'auront pas de
sens dans l'espace du monde physique, mais qui peuvent être intéressants à utiliser dans
l'espace du monde mathématique.
On définit ainsi des filtres non causaux par : ∃ t 0/ h t ≠0
Un cas particulier de filtre non causal est le filtre anticausal défini par : ∀ t0, h t =0

2.3.3. Stabilité
Dans certains cas, le filtre peut conduire à un phénomène d'amplification permanente du
signal d'entrée, donnant ainsi un signal de sortie s'amplifiant de façon permanente et non
souhaitée. Un tel filtre est dit instable.
Un filtre stable est défini par le fait que toute entrée finie doit donner après filtrage un
signal de sorti fini (borné, majoré en amplitude).
On peut montrer qu'un filtre est stable ssi h(t) respecte une propriété de convergence appelée
∞ ∞
convergence en norme L1, définie par : ∫ ∣h t ∣dt∞ ou ∑ ∣h t ∣∞ pour un
−∞ −∞
signal discret.

Pour un signal à RIF, cette propriété est assurée par définition. Pour un signal RII, ce n'est pas
le cas et on pourra voir par la suite une condition assurant la stabilité des filtres RII causaux
liés à des signaux discrets.

3. Echantillonnage et quantification

On revient au schéma présenté en début de cours.

Convertisseur
signal Signal
Analogique/Numérique
analogique numérique

On va regarder en détail le fonctionnement du CAN et notamment la représentation


mathématique associée.
Un CAN a 2 fonctions :
• l'échantillonnage du signal, ie le prélèvement de valeurs du signal à plusieurs instants
généralement séparés d'une durée fixe notée Te et appelée Période d'échantillonnage
(exceptionnellement, : échantillonnage à intervalles irréguliers).
• La quantification du signal, ie la conversion de la valeur échantillonnée en une valeur
la plus proche appartenant à nombre fini de valeurs.

12
3.1 Echantillonnage idéal
Le prélèvement d'une valeur à un instant donné d'un signal quelconque est opéré
mathématiquement grâce à l'impulsion de dirac. On peut ainsi définir l'échantillonnée idéale
∞
du signal x(t) par : x e t =x t . ∑ t −kT e  . C'est un peigne de dirac dont chaque pic
k =−∞
est modulé par la valeur du signal x(t) correspondant.

Si on calcule la transforméede Fourier de ce signal xe(t) on obtient :


∞ ∞
1
X e =TF [ x t . ∑ t −kT e ]=
T
∑ X − Tk 
k=−∞ e k=−∞ e

On utilise pour cela la relation suivante ( à démontrer en exercice) :


∞ ∞
1 k
TF  ∑ t −kT e = ∑
T e k=−∞
− 
Te
k=−∞

|X(ν)|
TF
x(t) X(ν)

échantillonnage ν
|Xe(ν)| max

TF
xe(t) Xe(ν)
−νech/2 νech/2 νech
L'échantillonnage du signal x(t) entraîne une périodisation du spectre à la période νech=1/Te.

13
3.1.1 Critère de Shannon
Le schéma ci dessus montre clairement que si νech/2< νmax on peut avoir un problème dit de
'repliement spectral'.
C'est le critère de Shannon : pour qu'un échantillonnage ne dégrade pas le signal il faut
que la fréquence d'échantillonnage νech soit supérieure à 2 νmax. Dans le cas contraire, on
observe le phénomène de repliement ou de recouvrement spectral.

Dans le cas où le critère de Shannon est respecté, on peut théoriquement retrouver l'intégralité
du signal x(t) à partir de son échantillonnée idéale xe(t) :
∞
x t = ∑ x e kT e . sincech t −kT e  .
k =−∞

En pratique, cette écriture est difficile à implémenter puisque le support du sinc est infini. La
valeur de x pour un t donné dépend de valeurs de xe pour des indices k tels que kTe >t : dans
ce cas, le principe de causalité n'est pas respecté.

3.1.2 Lien entre la TF de l'échantillonnée idéale et la TFTD

Si on compare Xe(ν) avec X(f) on obtient :


∞ ∞
j2  k  T e
X e =TF  x e t =TF  ∑ x kT e t −kT e = ∑ x  kT e exp =X  f 
k=−∞ k =−∞

à condition de prendre f = νTe.

3.2. Quantification
Une fois échantillonné, le signal est quantifié ie la valeur de chaque échantillon est convertie
en la valeur la plus proche parmi un nombre fini N de valeurs :
x k   x i avec i ∈ {1,2... N} et i est tel que tq d(x(k),xi) est minimale (voir schéma).
La différence entre la valeur échantillonnée et la valeur quantifiée est appelée erreur (ou
bruit ) de quantification et notée q(k) : q(k) = x(k)-xi.
Une bonne quantification est une quantification que minimise la valeur du bruit de
quantification et notamment sa puissance moyenne : Pq.

La quantification la plus simple est la quantification uniforme. Dans ce cas, l'espace des
valeurs de x supposé être de largeur 2A est découpé en N intervalles de largeur identique :
2A
= . En général, N, le nombre de valeurs de quantifications est pris comme une
N
puissance de 2 : N =2 b et b est appelé résolution du quantificateur. C'est le nombre de bits
pour coder les valeurs quantifiées.
Dans la figure présentée ci dessus, la résolution b est de 3 bits. N = 23 = 8.

14
− 
le bruit de quantification est tel que : q k  . Si on suppose que la distribution
2 2
des valeurs de q est uniformément répartie au sens statistique on en déduit la puissance
2 A 2
moyenne du bruit de quantification : P q = = 2−2b
12 3

Exercices.
1. Si on augmente la résolution du quantificateur d'une valeur de 1 bit, de quelle valeur
évolue Pq.
2. Quelle est l'espace mémoire occupée par 1 seconde de signal audio stéréo qualité CD :
b = 16, Fech = 44100 Hz.

4. Transformée de Fourier discrète.


Les signaux numériques étudiés concrètement ont toujours une durée finie, correspondant à
un nombre fini N d'échantillons.
La transformation de Fourier TFD est une transformation adaptée à ces signaux discrets
'réalistes'.

4.1 Transformée directe


N −1
km
X  m= ∑ x k  exp− j2   Où N est le nombre d'échantillons, m est alors un
k =0 N
échantillon dans l'espace des fréquences, k est l'échantillon dans le domaine temporel.

La TFD est périodique de période N.


• Liens avec la TFTD et la TF :
On peut voir la TFD de x(k) comme la TFTD d'un signal x i(k) qui serait nul pour k<0 et k
> N-1 et égal à x(k) pour k ∈[0, N-1]. Dans ce cas on voit que Xi(f=m/N) = X(m).
On avait vu le lien entre la fréquence réduite f et la fréquence analogique ν pour que la TFTD
du signal x(k) soit équivalente à la TF du signal échantillonnée idéale de x(t) : f = νTech. On
peut donc voir le lien entre ν et m dans le cas d'un signal x(k) constitué de N échantillons :
m m
T e = d'où =ech
N N

La différence fréquentielle correspondant à 2 échantillons successifs est appelée résolution


ech
fréquentielle. La résolution fréquentielle est égale à . Plus la résolution est petite,
N
meilleure elle est. Pour améliorer (diminuer) la résolution il faut soit diminuer la fréquence
d'échantillonnage soit augmenter le nombre d'échantillons. C'est cette deuxième solution qui
est généralement utilisée.
Ex: si un signal est échantillonné à νech= 44100 et dure 1 s. Il contient alors 44100
échantillons. La résolution fréquentielle de la TFD sera alors de 1 Hz.

15
NB : La TFD ne mesure pas la valeur du spectre pour chaque fréquence mais pour des valeurs
ech
discrètes m correspondant à des multiples de la résolution . Si l'on souhaite mesurer la
N
valeur précise d'un pic de résonance d'un filtre, on peut être amené à désirer une plus grande
précision fréquentielle. On peut le faire soit en augmentant le nombre d'échantillons, soit en
utilisant la TFTD. Dans ce dernier cas, le domaine de fréquence est continu donc la valeur
précise considérée, au choix de l'utilisateur. Il suffit de noter le lien entre f et ν : f = ν/ν ech.

4.2 Transformée inverse


Connaissant X(m), on peut retrouver x(k) par le relation de transformée inverse (TFD-1):
N −1
1 km
x k = ∑ X  mexp  j2   avec k ∈ [0,...,N-1]
N m=0 N

NB : le facteur 1/N assure la normalisation (afin d'avoir TFD(TFD-1(X(m)) = X(m)


ou TFD-1(TFD(x(k))= x(k) )

4.3. Propriétés de la TFD


Idem que la TFTD :
• Linéarité
• Périodicité : x(n) et X(m) sont périodiques de période N. Si n sort de l'intervalle [0, N-
1] on peut voir que ∃ k tq x(n) = x(n-kN) avec n-kN ∈ [0,...,N-1]. On peut donc voir la
TFD et la TFD-1 comme la répétition du motif correspondant au signal X(m) pour m ∈
[0,...,N-1] et x(k) pour k ∈ [0,...,N-1].

répétition motif initial répétition


x(k), 0≤k≤N-1

0 N-1

m
• Retard : TFD [ x n−k ]=exp − j 2  k  TFD[ x n ]
N

4.4. TFD rapide (FFT)

Si on calcule le nombre d'opérations élémentaires permettant de calculer la TFD du


signal x(k) de longueur N pour un échantillon fréquentiel m on obtient N multiplications

16
complexes et N-1 additions complexes. Pour le calcul de X(m) sur N échantillons
fréquentiels on à donc N2 multiplications complexes et N2-N .additions complexes

L'algorithme FFT développé par Cooley et Tuckey en 1965 permet de réduire le nombre de
MAC pour le calcul de la TFD. Il est applicable à un signal dont le nombre d'échantillons est
égal à une puissance de 2 : N = 2p.
Principe :
N −1
m
1. On a X  m= ∑ x k  exp− j2  k  . On note WN = exp(-j2π/N). On a donc
k =0 N
N −1
mk
X  m= ∑ x k W N . On peut noter que WN0 = WNN = 1, que WN2p = WN/2p et que
k =0
WNN/2 =-1.
2. le calcul de la TFD du signal x(k) est décomposé en 2 :
TFD des échantillons paires xp(k) = x(2k) et TFD des échantillons impaires xi(k)=
x(2k+1)

N N
−1 −1
2 2
m m
X  m= ∑ x 2k  exp − j2  2k  ∑ x 2k 1exp − j2  2k1
k =0 N k=0 N
N N
−1 −1
2 2
X  m= ∑ x p k W km m
N W N ∑ x i k W km
N
k =0 2 k =0 2

3. On réitère le procédé sur les signaux xp et xi. (algorithme récursif) jusqu'à arriver à
l'élément final ne contenant que 2 échantillons.
Illustration pour un signal v(k) à 2 et à 4 échantillons (schémas 'papillon') :

Se lit comme :
• V(0) = v(0)+W20.v(1)=v(0)+v(1) V(0) = [v(0)+W40.v(2)]+[v(1)+ W40v(3)]
V(1) = [W40.v(0)+W42.v(2)]+[v(1)+W42.v(3)].W41
• V(1) = v(0)+W21.v(1) = [v(0)+W42.v(2)]+[v(1)W41+ W43v(3)]
etc...
2. On peut alors montrer qu'au final sur N = 2p échantillons on réitère p fois ce procédé et
le nombre total de MAC est égal à Nlog2(N) = Np.

17
Application sur un calcul de N = 2^16 échantillons (65536), le nombre de mac pour calculer
la TF est N2/Np=N/p = 65536/16/ = 4096 fois plus important que pour calculer la FFT.
Application numérique avec Matlab : comparaison entre tfd 'maison' et fft.

4.5 Energie et corrélations temporelles des signaux discrets à support fini


4.5.1 Energie & puissance
N −1
2
L'énergie du signal x est donnée par : E x = ∑ ∣x k ∣
k =0

Les signaux à support fini sont forcément à énergie finie. La puissance moyenne est alors
N −1
1 2
définie sur le support du signal : P x = ∑ ∣x  k ∣ . C'est l'énergie moyenne de chaque
N k =0
échantillon!

NB : Dans le cas où l'on considère le signal x(n) comme la répétition d'un signal périodique
de période N, on retrouve que la puissance moyenne du signal sur une durée N est aussi égale
à la puissance moyenne intégrée sur un nombre d'échantillon infini. En revanche, l'énergie
définie ci-dessus ne correspond alors qu'à l'énergie d'un période du signal. L'énergie du signal
périodisé étant infinie.
On définit aussi les énergies et puissances d'interaction :
N −1 N −1
1
E xy = ∑ x k  y  k  , P xy= ∑ x k  y k 
k =0 N k=0

4.5.2 Relations de Parseval


On retrouve pour les signaux à support fini les même relations entre représentations
temporelles et fréquentielles de l'énergie.
N −1 N −1
2 2
E x = ∑ ∣x k ∣ = ∑ ∣X m ∣ (Parseval)
k =0 m=0

La densité spectrale d'énergie de x est donc : DSE = |X(m)|2


1 2
De même, la densité spectrale de puissance de x est : DSP = ∣X m∣
N

4.5.3 Corrélations et convolutions circulaires


La corrélation d'un signal avec lui même (autocorrélation) ou avec un autre (intercorrélation)
est définie dans le cas général pour des signaux à support infini. Dans le cas contraire, on est
amené à considérer le signal x(k) pour k ∈ [0,...,N-1] comme une répétition d'un signal
périodique.
N −1
On garde alors la notation  x n = ∑ x k  x k −n . Mais on note que si k-n <0, ∃q tq
k =0
x(k-n) = x(k-n+qN) avec ( k-n+qN) ∈ [0,...,N-1]. On parle alors de corrélation circulaire!
N −1
Idem pour l'intercorrélation :  xy n= ∑ x k  y k −n
k =0

18
De même, la convolution des signaux x(k) et y(k) à support fini mais périodisés dans le temps
N −1
est appelée convolution circulaire et notée ⊗. On a x⊗ψ = x ⊗y= ∑ x  k  y n−k  . On
k =0
retrouve alors : TFD( x⊗y(k)) = X(m).Y(m)
NB: Sous Matlab, la fonction xcorr permet de calculer la corrélation d'un (autocorrélation) ou
de 2 (intercorrélation) signaux. Il s'agit d'un corrélation basée sur un signal NUL en dehors de
n ∈ [1,N] (et pas d'une corrélation circulaire)

4.5.4 Wiener Khintchine


On note Γx(m) = TFD(γx(k)) et Γxy(m) = TFD(γxy(k)).
On a alors les relations de Wiener Khintchine :
• Γx(m)=|X(m)|2, Γxy(m)=X(m)Y(m)

5. Transformées en z
5.1.Définition
La TZ est une généralisation de la TFT. Elle est équivalente, dans le domaine numérique, à la
transformée de Laplace vue comme une généralisation de la TF dans le domaine analogique.
La TZ permet de caractériser des filtres numériques plus facilement que la TFTD, d'où son
utilité.
∞
Soit x(n), un signal numérique. Sa transformée en Z est donnée par : X  z = ∑ xk z
−k

k =−∞
où z ∈ C

On peut voir que si l'on prend z = exp(-j2πf) (cercle unité), on retrouve X(z) = X(f). La
TFTD est donc un cas particulier de TZ limité au cercle unité

5.2. Domaine de convergence


Comme toute série infinie, X(z) est susceptible de diverger ou de converger en fonction de z.
Le domaine de convergence est l'ensemble des z tq X(z) converge. Dans le cas général, le
domaine de convergence est une couronne du plan complexe.
−1 ∞
X  z = ∑ x  k  z  ∑ x k  z
−k −k

k=−∞ k =0

Le terme de gauche converge pour les z petits (|z|<Rmax). Le terme de droite


converge pour les z grands (|z|>Rmin).
Si Rmax > Rmin il y a une région non vide de C pour laquelle X(z) converge, le domaine Dx
Dans ce cas, on peut écrire X(z) comme une fraction de polynômes en z : N

∑ ak zk
X  z = k M=0
∑ bk z k
k=0

19
NB : 1. Dans le cas particulier où x est à support fini, on a R min = 0 et Rmax= +∞. Le domaine
de convergence est égal au plan C.
2. On peut dire que la TFTD X(f) est définie si le cercle unité appartient à Dx.

Exemples de TZ élémentaire et domaine de convergence associé :


∞ ∞
1
• U(z) = TZ(u(n)) = U  z = ∑ u  k  z =∑ z =
−k −k

1−z
−1 pour |z| >1.
k =−∞ k =0

Le domaine de convergence est donc le domaine extérieur au cercle unité :


Du = {z ∈ C / |z|>1}
∞

• ∆(z) = TZ(δ(n)) = ∑ −k
 k  z =1
k =−∞

5.3 Transformées en z inverses


Soit X(z) définie dans le domaine de convergence Dx. Alors x(k) est donné par :
1
x k = ∫
2 j 
X  z  z k −1 dz où Ω est un contour fermé de C, élément de Dx entourant

l'origine et parcouru dans le sens trigonométrique positif.

A la différence des transformées de Fourier, pour lesquelles les calculs des transformées
directes et inverses sont quasi similaires, le calcul de la TZ-1 est beaucoup plus complexe que
le calcul de la TZ. Il passe par l'utilisation du théorème des résidus. On limitera le plus
possible son utilisation dans ce qui suit.

5.4 Propriétés de la TZ
• Linéarité : TZ[ax(k)+by(k)] = aX(z)+bY(z)
• Retard : TZ(x(k-1)) = z-1 X(z) (un décalage d'1 échantillon dans le domaine temporel
correspond à une multiplication par z-1 dans le domaine des z). Plus généralement :
TZ(x(k-m)) = z-m X(z)
Application : Calculer la TZ inverse de X(z) = z2(1-z-1)(1+2z-1)
X(z) = (z2-z)(1+2z-1) = z2+2z-z+2 = z2+z+2.
x(k) = 2δ(k)+δ(k+1)+δ(k+2)

Les propriétés de retard permettent de calculer simplement quelques TZ inverses sans passer
par le calcul complexe utilisant l'intégration dans le plan complexe. C'est ce même genre de
calcul qui sera effectué dans la résolution d'équations aux différences.

6. Filtrage numérique et TZ

20
Soit un filtre LIT caractérisé par sa réponse impulsionnelle h(n) permettant de passer d'une
∞
entrée x(n) à une sortie y(n) : y n =x  n∗h n = ∑ h k  x n−k 
k =−∞

∞
Si le filtre est causal on a h(k) = 0 pour k<0 donc y n = ∑ h k  x n−k  (1)
k =0

Une autre façon de voir un système causal reliant la sortie aux entrée est de considérer la
sortie à l'instant n comme fonction d'un nombre fini d'entrées aux instants k≤n et de sorties
aux instants k<n : ie
M N
y n = ∑ bk x n−k − ∑ a k y n−k  (2)
k =0 k =1

NB : Cette expression est appelée équation aux différences, c'est la forme générale d'un
système physique causal pour lequel la valeur d'une propriété y est définie par une équation
différentielle mettant en jeu une variable x :

[ an
dn
dt n
a n−1
d n−1
dt n−1
d
dt ]
...a 1 a 0 y t =...

...= b n
[ dn
dt n
bn−1
d n−1
dt n−1
d
...b1 b0 x t 
dt ]
dy y n− y n−1
Une fois discrétisée, les dérivées se transforment en différences :  où
dt t
∆t est le pas d'échantillonnage temporel. On obtient au final l'expression (2)

Les définitions (1) et (2) sont 2 représentations différentes d'un même système causal. La
différence principale est l'utilisation pour (1) d'une infinité d'échantillon et d'un nombre fini
pour (2). Ce nombre fini d' échantillon est rendu possible par l'utilisation des sorties aux
instants antérieurs, elles même fonctions des sorties antérieures et donc 'mémoire' du système
entier.
NB : Le filtrage numérique sous Matlab est effectué grâce à la fonction filter qui implémente
l'expression (2). Pour un signal x et pour des coefficients a et b donnés filter donne la sortie
y : y = filter(b,a,x). Il est à noter que cette fonction de filtrage contient un régime transitoire.
En effet, l'expression (2) montre que y(n) est pleinement définie quand n>max(N,M). Lorsque
0<n<max(N,M) le filtre est en régime transitoire.

6.1 Fonctions de transfert en z d'un filtre LIT causal


La fonction de transfert H(z) est la TZ de la réponse impulsionnelle h(n). De même que pour
les TF, on peut montrer que dans l'espace des z, on a : Y(z) = H(z).X(z) (la TZ du produit de
convolution de x(k) et h(k) est le produit des TZ)
On a donc H(z) = Y(z)/X(z) quand X(z) ≠ 0

En utilisant la relation (2) et les propriétés de linéarité et de retard de la TZ on peut aussi noter
M N
que : Y  z =∑ bk z X  z − ∑ a k z Y  z 
−k −k

k =0 k=1

21
M

Y  z  k =0
∑ b k z −k
soit H  z = = en notant a0 = 1 (3)
X z N

k =0
ak z −k

Cette forme générale de H(z) est très communément utilisée. Elle décrit la fonction de
transfert d'un système comme le rapport de 2 polynômes complexes de degré M et N.
Les valeurs qui annulent le polynôme du numérateur sont appelées les zéros du système. Les
valeurs qui annulent le dénominateur sont appelées les pôles du système. Dans ce cas la
valeur de H(z) est infinie et on parle de résonance du système
Etant donné que tout polynôme complexe de degré d admet d racines complexes, on aura M
zéros et N pôles (parfois identiques).
On peut aussi représenter la fonction de transfert sous une forme directement liée aux valeurs
de pôles et de zéros :
M M

∑ bk z −k
∏ 1−z k z−1
H  z = k N=0 =G k =0
N où zk et pk sont les zéros et les pôles de H(z).

k =0
ak z −k

k =0
1− p k z
−1

NB. N est aussi appelé l'ordre du filtre numérique.

6.2. Filtres à RIF ou RII


On a vu que un critère permettant de catégoriser les filtres LIT était la finitude du support de
la réponse impulsionnelle. Dans le cas ou celle ci est a support fini (filtre RIF), on peut noter
que l'expression donnant y comme convolution de h et x peut s'écrire :
N2

y n = ∑ h  k  x  n−k  .
k=N 1

N2

Dans ce cas, la fonction de transfert en z s'écrit H  z = ∑ h  k  z −k


k=N 1

La fonction de transfert d'un filtre RIF ne contient que des zéros.

Dans le cas où le filtre a une réponse impulsionnelle infinie on est dans le cas général :
M

∑ b k z−k
H  z = k N=0

k=0
a k z −k

6.3. Stabilité des filtres numériques


Rappel : Un filtre est stable si pour toute entrée x(n) bornée on a une sortie y(n) bornée.
On a vu qu'une condition nécessaire et suffisante pour qu'un filtre de réponse impulsionnelle
∞
h(n) soit stable est que ∑ ∣h k ∣∞ . On peut monter que cette condition est
k =−∞

22
équivalente au fait que le module des pôles du système soit strictement inférieur à 1, ie que les
pôles soient situés à l'intérieur du cercle unité.

6.4. Caractérisation de la réponse en fréquence


La réponse en fréquence d'un système est le module de la TFTD de h(n), c'est donc aussi le
module de la fonction de transfert H(z) pour z appartenant au cercle unité , ie le module de
H(z)|z= exp(j2πf)
Etant donné la forme générale de H(z) (3) on peut caractériser la réponse en fréquence en
fonction des pôles et des zéros du système. Si |H(z)|z= exp(j2πf) s'approche d'un zéro, elle a
tendance à diminuer (anti-résonance) alors que si |H(z)|z= exp(j2πf) s'approche d'un pôle elle a
tendance à augmenter (résonance).

NB : Si le pôle est situé sur le cercle unité on voit que le filtre n'est pas stable car sa fonction
de transfert diverge. La condition de stabilité d'un filtre est que le pôle soit situé à l'intérieur
strict du cercle unité. Plus il sera proche de celui-ci, plus la résonance sera importante.

6.5 Introduction à la synthèse de filtres

But: On cherche à réaliser le filtre qui caractérise au mieux une fonction de transfert donnée
que l'on se donne à priori. Il faut donc trouver les coefficients ak et bk de ce filtre.

6.5.1 Synthèse de filtre RIF


On a vu que lorsque la réponse impulsionnelle est finie de durée M, la forme
générale de l'équation de convolution d'un système causal donne
M
y n = ∑ h k  x n−k  . Cette forme est équivalente à la forme générale de
k =0
M N
l'équation aux différence : y n = ∑ bk x n−k − ∑ a k y n−k  en prenant
k =0 k =1
ak = 0 et bk =h(k)

On va utiliser la méthode de l'approximation de la réponse impulsionnelle pour déterminer


les coefficients bk d'un filtre passe-bas de fréquence de coupure νc.
On prend la forme analogique de la fonction de transfert d'un filtre passe-bas idéal de
fréquence de coupure νc. H(ν) = ∏2νc(ν). La réponse impulsionnelle associée est égale à :
h(t) = TF-1[H(ν)] = 2νc sinc (2πνct)
On échantillonne cette réponse impulsionnelle à la fréquence Fe pour obtenir la forme discrète
de h(t) : h(n) = 2νc sinc (2πνcn/Fe).
On pose alors fc = νc /Fe
On obtient h(n) = 2 fc Fe sinc( 2πfcn)
Cette forme est donc la réponse impulsionnelle associée à un filtre passe-bas idéal de
fréquence fc. Deux problèmes se posent alors : le 1er problème se pose du fait du support
infini de h(n), le second est que h(n) n'est pas causale.

23
Pb 1 : Pour rendre le support de h(n) fini, il faut réaliser une troncature de h(n), ie la
multiplication par une porte de durée M= 2N+1. On pose hRIF(n) = h(n).∏M(n)
Pb 2 : Pour rendre causal le filtre hRIF on le décale de N échantillons vers les n positifs : On
pose alors hRIFc (n) = hRIF(n-N) (on a alors hRIFc (0) = hRIF(-N) … hRIFc (2N) = hRIF(N))
On obtient ainsi :
hRIFc (n) = hRIF(n-N) = 2 fc Fe sinc( 2πfc[n-N])∏M(n-N)
La fonction de transfert du filtre est alors HRIFc = TFTD(hRIFc (n). C'est l'approximation la plus
proche d'un filtre passe-bas de fréquence de coupure νc qui respecte les contraintes de finitude
de la réponse impulsionnelle et de causalité.
NB 1 : Du fait de la parité de la réponse hRIF (hRIF(-k) = hRIF(k)), la fonction de transfert est
réelle (HRIF est appelé, filtre à phase nulle). En revanche, hRIFc a une phase linéaire
décroissante: arg( HRIFc )= arg(HRIF) + arg(exp(-j2πNf) = - 2πNf du fait de la translation en
échantillons temporels.
NB 2 : On peut réaliser tous les filtres FIR basés sur l'approximation d'une fonction porte
centrée sur une fréquence quelconque (filtres passe-bande, passe-haut).

6.5.2 Synthèse de filtre RII

A FINIR

NB : Outils de manipulation de filtres numériques sous matlab : fvtool

7. Notions de Traitement des signaux aléatoires


Jusqu'à présent nous avons parlé de signaux déterministes, ie de signaux dont nous
connaissons la valeur avec exactitude et de façon reproductible. A présent nous allons traiter
de signaux dont on ne connait qu'une valeur possible parmi d'autres : du fait par exemple de la
trop grande complexité du système étudié rendant une détermination exacte et reproductible
impossible.
A partir des réalisations des signaux aléatoires nous devons inférer des propriétés générales
des systèmes considérés.
Exemple : Mesure d'une résistance avec un Ohmmètre de très grande précision.
Mes 1 : R1
Mes 2 : R2

Mes N : RN
On a en général R1 ≠ R2 ...≠RN car les conditions de mesure ne sont pas rigoureusement
identique (Température, degré humidité, bruit électronique de l'appareil de mesure...) . Etant
donné qu'on ne peut pas prendre en compte tous les paramètres modifiant la valeur de R, on
peut représenter le système par la relation R = R0 + b(t) où R0 est une composante fixe,
reproductible (déterministe) et b(t) une composante aléatoire, non reproductible à l'identique
(bruit).

24
A partir des N valeurs mesurées, nous pouvons estimer R en prenant la moyenne des
N
1
réalisation : 〈 R N 〉= ∑ Ri . Si le bruit oscille autour de 0 on peut penser que la moyenne
N i=1
pour N échantillons compensera les fluctuations. On aura donc R0 = <RN>.

Ici nous avons fait une estimation de la valeur R0 à partir de la moyenne de plusieurs valeurs
du signal prises à différents instants. Nous traiterons dans ce chapitre de la caractérisation des
signaux aléatoires en faisant les liens avec le traitement des signaux déterministes étudiés
jusqu'à présent.

7.1. Rappels de probabilités


7.1.1 Expérience aléatoires E
Une expérience aléatoire est un acte dont le résultat n'est pas connaissable d'avance (ex tirer
un dé, mesurer une résistance)

7.1.2 Événements aléatoires e


Un résultat d'une expérience aléatoire. Ex : résultat d'un tirage de dé = face n° 2, Une mesure
de la résistance = R1

7.1.3 Univers Ω
Ω est l'ensemble des évènements aléatoires élémentaires associés à une expérience E .
Exemples :
• Ω = {1,2,3,4,5,6} pour le tirage d'un dé (espace discret),
• Ω = [0 +∞[ pour la résistance (espace continu).

7.1.4. Ensemble des évènements d'une expérience


A partir des éléments élémentaires, on peut réaliser tout un ensemble d'évènement (ex pour le
tirage d'un dé : tirer une face <2, tirer une face >3) . L'ensemble de tous les évènements
possibles est appelée une tribu et noté B. B contient notamment un événement appelé
évènement impossible (∅) et un évènement appelé évènement certain.
Exemple pour le tirage d'un dé de 4 faces :
Ensemble des évènements de l'expérience: {∅, {1}, {2}, {3}, {4}, {1,2}, {1,3}, {1,4}, {2,3},
{2,4}, {3,4}, {1,2,3}, {1,2,4}, {2,3,4}, {1,2,3,4}}. Ici ∅ est l'évènement impossible et
{1,2,3,4} (comprendre : le résultat du tirage est soit 1, soit 2, soit 3, soit 4) est l'évènement
certain.
Parmi tous ces évènements, certains sont complémentaires l'un de l'autre. A et Ac sont
complémentaires si le résultat de l'expérience aléatoire est obligatoirement compris dans
l'événement A ou dans l'événement Ac (dans l'exemple précédent {1,2} et {3,4} sont
complémentaires car le résultat d'un tirage est forcément dans l'un des 2 événement ; de même
{1} et {2,3,4} sont complémentaires).
La définition mathématique de la tribu est d'ailleurs associée à cette notion d'évènement
complémentaire :

25
Définition d'une tribu: Soit E un ensemble quelconque. Une tribu (ou σ-algèbre) sur E est
une famille A de parties de E telle que:
(i) E ∈ A ;
(ii) P∈ A ⇒ Pc ∈ A où Pc = complémentaire de P
U
(iii) Si Pn ∈ A pour tout n ∈ N, on a aussi P∈A
n∈N n
Les éléments de A sont appelés parties mesurables, ou parfois A-mesurables s’il y a
ambiguïté. On dit que (E, A) est un espace mesurable.

De cette définition il ressort que comme l'évènement certain appartient à la tribu, son
complémentaire ∅ y appartient aussi.

7.1.5. Variable aléatoire X


Association entre 1 événement aléatoire et une valeur de R ou C. Ce choix de variable
aléatoire est généralement déterminé par l'expérimentateur. On désigne par X une variable
aléatoire et par x les valeurs possibles de X pour l'expérience E.
Exemples :
• E = 'tirer à pile ou face'
Ω = {'pile','face'}
X1 : pile → -1
face → +1
Mais on peut aussi choisir :
X2 : pile → 0
face → +1
• E = 'Mesurer une résistance à l'ohmmètre'
Ω = R+
X : e → R (en Ohm)

7.1.6. Probabilité et loi de probabilité


Chaque évènement possible d'une expérience aléatoire (chaque partie de la tribu B) a une
certaine probabilité d'être réalisé. Cette probabilité est comprise entre 0 (événement
impossible) et 1(évènement certain).
Ex : probabilité d'obtenir la face {1} dans le tirage d'un dé à 6 faces = 1/6
probabilité d'obtenir la face {1} ou la face {3} = 1/3
probabilité d'obtenir une des faces du dé = 1 (événement certain)
probabilité de n'obtenir aucune face = ∅ (événement impossible)

Propriétés des probabilités :


• Le calcul des probabilités associées à une expérience aléatoire est généralement lié au
calcul des probabilités que la variable aléatoire X ait une valeur donnée.
• Pour une expérience aléatoire p(ei) représente la probabilité d'occurrence de
l'événement aléatoire ei . Si X associe ei à la valeur xi on a p(ei) = p(X=xi) = pX(xi).

26
• La somme des probabilité de chaque événement aléatoire élémentaire est égale à 1
(d'où le calcul simple de la probabilité d'un tirage de dé suivant une loi uniforme).
∞

Pour une loi discrète : ∑ p X  x i =1 et pour une loi continue : ∫ p X  x dx=1
i
−∞

• Combinaison d'événements : Soient A et C 2 événements de la tribu T. p(A+C)=


probabilité d'occurrence de l'événement A ou de l'événement C ; p(A.B) = probabilité
d'occurrence de l'événement A et de l'événement C
Relation fondamentale de la probabilité d'occurrence de 2 événements combinés :
p(A+C) = p(A)+p(C) – p(A.C)
Si les 2 événement ne peuvent être réalisés simultanément on parle alors d'évènements
incompatibles ou disjoints et on a p(A.C) = 0
Exemples:
• événements compatibles
évènement A : tirer la face 1 ou 5. p(A) = 1/3
évènement C : tirer la face 5 ou 6 p(C) = 1/3
évènement A.C (A et C): tirer la face 1 ou 5 et tirer la face 5 ou 6 = 1/6 (=
probabilité de tirer 5)
Évènement A+B (A ou B) : p(A+B) = 1/3+1/3-1/6 = 3/6 = 1/2
• événement incompatibles
événement A : tirer 1 ou 2 . p(A) = 1/3
événement C : tirer une face >3. p(B) = 1/3
événement A.C incompatible p(A.C) = 0
Événement A+B (A ou B) : p(A+B) = 1/3+1/3 = 2/3

Loi de probabilité :
Une loi de probabilité est l' ensemble des probabilités associées à une variable aléatoire
donnée (continue ou discrète).
Exemple de lois de probabilités:
• Loi uniforme discrète (tirage de dé) ou continue (bruit blanc)
• Loi de probabilité discrète dite de Bernoulli : Expérience aléatoires à 2 résultats
possibles (ex : Ω = {résultat1,résultat2})
X: résultat1 → 1
résultat2 → 0
avec pX(1) = q et pX(0) = (1-q) (le tirage à pile ou face est une loi uniforme mais aussi
une loi de bernoulli avec q = 0.5)

27
2

• Loi de probabilité gaussienne : pX(x) =


1
e

 
1 x −

, où μ est la moyenne et σ
2 

 2 
est l'écart type. Ces 2 paramètres suffisent à caractériser la loi dans son ensemble (d'où
∞

la facilité d'utilisation de cette loi). On a bien ∫ p X  x dx=1


−∞

7.1.7. Fonction de répartition


FX(x) = proba (X<x) où x ∈ R.
Intérêts : La fonction de répartition est continue quelque soit le type de variable aléatoire
(continue ou discrète).

F(x) F(x)

+1

0.5
x
-1 +1 x
Tirage pile ou face Loi gaussienne de moyenne nulle

Propriétés :
• FX(-∞) = 0
• FX(+∞) = 1
• Lien entre F(x) et p(x)
• Loi de probabilité continue : pX(x)dx = proba(X∈ [x, x+dx]) = pX(X<x+dx)
-pX(X<x) = FX(x+dx)-FX(x)
x
dF X
d'où p X  x =  x  et F X  x = ∫ p  x dx
dx −∞
x

• Loi de probabilité discrète : proba(X=xi) = pi. F X  x = ∫ pi  x−x i dx


−∞

7.1.8. Caractérisation des variables aléatoires: Moments


On appelle moment d'ordre 1 ou moyenne ou espérance mathématique de la variable

aléatoire X et on note m ou E(X), la valeur définie par : m=E  X = ∫ x p X  x dx (cas


−∞

continu) et m=E  X =∑ x i p i (cas discret)


i

Si la moyenne de X est nulle on dit que X est une V.A. centrée.

28
NB : La moyenne n'est pas la valeur la plus probable, c'est la valeur autour de laquelle la
6
1
densité de probabilité se répartit. Ex au dés : m=∑ i. =3.5 (alors que 3.5 n'est jamais
i=1 6
réalisé avec les dés!)

On généralise aux moments d'ordre n définis par E  X n =∫ x n p X  x dx (cas


−∞

continu) et E  X n =∑ x ni pi (cas discret).


i

on définit aussi les moments centrés d'ordre n par n=E  X −m n = ∫  x −mn p X  x  dx


−∞

(cas continu) et n=E  X = ∑  x i −m p i (cas discret).


n n

Cas particulier pour n = 2 : µ2 est appelée la variance. Elle traduit la dispersion autour de la
valeur moyenne. On note aussi  = 2 où σ est appelé écart type.

Exercice :
1) Calcul de la moyenne et l'écart type d'une loi continue uniforme sur [0 1]
1
m = 0.5, µ2 = 1/12, σ =
2 3
2) Calcul de la moyenne et l'écart type d'une loi discrète uniforme sur [1 6] (tirage de dé)
m = 3.5, µ2 = 1/6.[(1-3.5)2+(2-3.5)2+(3-3.5)2+(4-3.5)2+(5-3.5)2+(6-3.5)2]= 2.92, σ =
1.71

7.2. Processus aléatoires


On va considérer maintenant des expériences aléatoires faisant intervenir le temps. Un
événement aléatoire sera la réalisation d'une séquence temporelle de valeurs liées à
l'expérience.

Exemple: expérience aléatoire consistant à effectuer un nombre N de tirages de dé.


Voici un exemple de réalisations possibles de cette expérience :

Tirage 1 : 1, 6, 3, 4, 2, 5, 3, 3, …., 2
Tirage 2 : 2, 6, 5, 3, 3, 2, 5, 1, …., 1

Tirage i : 1, 3, 2, 5, 6, 4, 3, 2,....., 5

Le tirage n° i est appelé une trajectoire du processus. La trajectoire n° i est donc une des
trajectoires possibles de l'expérience.
Si l'on fixe l'instant k et que l'on regarde l'ensemble des valeurs de chaque tirage, on a une
variable aléatoire.

29
NB : Dans ce qui suit, on se place dans le cas idéal où l'on suppose connu l'ensemble des
trajectoires possibles liées à l'expérience

7.2.1. Définitions
Soit E une expérience aléatoire. Soit Ω ={ ω} l'ensemble des résultats possibles de cette
expérience. On appelle processus aléatoire la fonction :
X : R*Ω → R (ou C)
t,ω → X(t, ω)
t est une variable unidimensionnelle représentant le temps (t peut être discrète ou continue)
Si l'on fixe la variable t en t = t0 : X(t0, ω) est une variable aléatoire
Si l'on fixe ω = ω0 , X(t, ω0) est une fonction déterministe du temps. C'est une
réalisation ou une trajectoire du processus aléatoire.
NB : dans la littérature on trouve indifféremment les appellations : processus aléatoire, signal
aléatoire, fonction aléatoire, processus stochastique. Nous utiliserons principalement les 2
premières.

7.2.2. Etude statistique au 1er ordre


On caractérise le comportement aléatoire de X(t, ω) en fixant la valeur de t. X(t,ω) est alors
une variable aléatoire standard dont on peut calculer la fonction de répartition : FX(t,x)=
∂ F X t , x 
proba(X(t,ω)<x) et la densité de probabilité : p X t , x = (noter l'utilisation des
∂x
dérivées partielles puisque maintenant pX dépend du temps et de la valeur x que peut prendre
X.
L'espérance mathématique ou moyenne est donnée par
m X t =E [ X t ,]=∫ x.p X t , x  dx : c'est la moyenne du processus X à l'instant t.
R

NB : mX(t) n'est pas une moyenne temporelle du processus X : mX(t) est susceptible de varier
dans le temps.

7.2.3 Etude au 2nd ordre :


On cherche à caractériser les relations statistiques entre les valeurs possibles de X(t,ω) à 2
instants différents t1 et t2. X(t1,ω) et X(t2,ω) sont 2 variables aléatoires dont on peut étudier les
liens statistiques.
On définit la fonction de répartition au 2nd ordre :
FX(t1,x1,t2,x2) = proba (X( t1,ω) <x1 et X(t2,ω) <x2)
De même la densité de probabilité au 2nd ordre :
F X t 1, x 1, t 2, x 2 
p X t 1, x 1, t 2, x 2 =∂2
∂ x1 ∂ x2
Dans certains processus, les valeurs prises par X(t1, ω) peuvent être liées aux valeurs prises
par X(t2, ω). Dans d'autres processus, elles n'ont pas de lien entre elles.
Définition :
• On dit que les variables aléatoires X(t1, ω) et X(t2, ω) sont indépendantes si :
pX(t1,x1,t2,x2) = pX(t1,x1).pX(t2,x2).

30
• De même, on dit que le processus aléatoire X(t, ω) est indépendant si X(t1,ω) et
X(t2,ω) sont indépendantes ∀( t1,t2).
• On appelle autocorrélation statistique du processus X(t, ω) la fonction
 X t 1, t 2=E [ X t 1,  . X t 2, ]=∫∫ x 1 x ∗2 p X t 1, x 1, t 2, x 2  dx 1 dx 2 . Cette fonction
mesure (comme pour les signaux déterministes) un degré de ressemblance (ici
statistique) entre un signal et sa version décalée dans le temps.
Cas particulier si X(t, ω) est réel et t1 = t2 = t, on a
 X t , t =E [ X t ,. X t , ]=∫∫ x1 x 2 p X t , x 1, t , x 2 dx 1 dx 2=∫ x 2 p X t , x  dx= P X t 
PX(t) est la moyenne statistique du carré du processus aléatoire pris à l'instant t, c'est à dire la
puissance statistique moyenne à l'instant t.
Exercice : calculer la puissance d'un processus aléatoire uniformément distribué sur [-
∆/2,∆/2]
 
2 2

P X t = ∫ x 2 p X t , x  dx avec ∫ p X  t , x dx =1 et donc pX(t,x) = 1/∆. On a donc


− −
2 2
 
2

[ ]
3 3 2
3
1 1 x 2
P X t = ∫ x 2 dx= = =
 −  3 − 24 12 . On retrouve la valeur de la puissance du
2
2
bruit de quantification pour une quantification uniforme.

• Covariance statistique : Par souci de simplification on peut être amené à utiliser un


signal aléatoire centré, c'est à dire dont la valeur moyenne est nulle en chaque instant.
On a ainsi Xc(t,ω) = X(t,ω)-mX(t). La comparaison entre les variables aléatoires issues
du signal Xc(t,ω) pris aux instants t1 et t2 donne la covariance statistique :
cX t 1, t 2 =E [ X c t 1,  X c∗ t 2, ]=∫∫  x 1−m X  t 1 . x 2−m X t 2 ∗ . p X t 1, x 1, t 2, x 2  dx 1 dx 2
En particulier si t1 = t2 = t0 et X(t, ω) est réel :
cX t 0, t 0 =E [ X c t 0,  X c t 0, ]=∫  x−m X t 0 2 p X  t 0, x  dx= 2X  t 0 
σX2(t) est la variance et σX(t) l'écart type de la variable aléatoire X(t,ω) .
NB : La variance σX2(t) est reliée à la puissance statistique et à l'espérance mathématique par
l'expression suivante : σX2(t) = PX(t) – mX2(t)

• Coefficient de corrélation : On définit aussi le coefficient de corrélation du processus


aléatoire X(t, ω) : . On peut montrer que −1≤ X t 1, t 2 ≤1 .
 cX t 1, t 2 
 X t 1, t 2=
 X t 1  X t 2 
Ce coefficient de corrélation représente une version normalisée entre -1 et +1 de la
covariance statistique.
• Si  X t 1, t 2 =1 les variables aléatoires X(t1,ω) et X(t2,ω) évoluent
conjointement avec la même tendance.

31
Exemple : si X(t2,ω) = 2*X(t1,ω) alors  X t 1, t 2 =1 .
• Si  X t 1, t 2 =−1 , X(t1,ω) et X(t2,ω) évoluent conjointement avec une tendance
opposée.
Exemple : si X(t2,ω) = -2*X(t1,ω) alors  X t 1, t 2 =−1 .
• Si  X t 1, t 2 =0 on ne peut pas dire grand chose

NB : Si le processus X(t, ω) est indépendant, on a pX( t1,x1 ,t2,x2) = pX( t1,x1).p(t2,x2) et donc
cX t 1, t 2 =∫  x 1 −m X t 1  p X t 1, x 1 dx 1 ∫  x 2 −m X t 2 ∗ p X t 2, x 2 dx 2 =0 . On a ainsi
ρX(t1,t2) = 0.

7.2.4. Stationnarité
On va maintenant chercher à caractériser l'évolution des propriétés statistiques du processus
au cours du temps . C'est la notion de stationnarité. Si les propriétés statistiques sont stables
on parle de processus stationnaire, sinon de processus non-stationnaire (ou instationnaire).
• Stationnarité au 1er ordre : la moyenne et la variance ne varient pas dans le temps :
mX(t) = mX et σX(t) = σX.
X(t,ω) est un processus strictement stationnaire au 1er ordre ssi ∀(t,θ) ∈ R*R, pX(t,x) =
pX(t+ θ,ξ).
• Stationnarité au 2nd ordre : X(t,ω) est un processus strictement stationnaire au 2 nd ordre
si pX(t1,x1,t2,x2) ne dépend que de la différence t2-t1 .
∀(t1,t2,θ) ∈ R*R*R, pX(t1,x1,t2,x2) = pX(t1+ θ,x1,t2+θ,x2).
En particulier, si on pose θ= - t1, on a pX(t1,x1,t2,x2) = pX(0,x1,t2-t1,x2). L'autocorrélation
s'écrit alors ne dépend que de la différence : τ = t2 - t1
 X t 1, t 2 =∫∫ x 1 x∗2 p X 0, x 1, t 2 −t 1, x 2  dx 1 dx 2 = X t 2−t 1=
On a en particulier :
 X 0 =∫∫ x1 x ∗2 p X 0, x1 ,0 , x 2  dx 1 dx 2=∫ x 1 x ∗1 p X 0, x 1  dx 1=P X
On peut aussi montrer que γ(τ) maximum pour τ = 0

7.2.5 Densité spectrale de puissance d'un processus aléatoire


Soit X(t, ω) un processus aléatoire stationnaire au moins à l'ordre 2.

32
On appelle xk(t) la kième réalisation (trajectoire) du processus. xk(t) est un signal déterministe
supposé à puissance moyenne finie. Sa densité spectrale de puissance est donnée par
1
 x = lim ∣X k ∣ avec X k =TF  x k t  et x k t =x k t .  T t 
T ∞ T
k T T T T

La densité spectrale de puissance ΓX(ν) du processus aléatoire X(t, ω) est alors la moyenne
des densités spectrales de puissance de chaque réalisation du processus :
 X =E k [  x  ]
k

7.2.6 Exemple de processus aléatoires


• Processus gaussien : processus très utilisé du fait que tout phénomène macroscopique
qui est la somme de phénomènes microscopiques aléatoires suivant une même loi
statistique est caractérisé par une loi gaussienne (théorème central limite). On a donc
pour un processus gaussien au 1er ordre :
−[x−m X t]2
1 2
2 X t
p X t , x = e
2   X t 
NB : On peut aussi définir des processus gaussien d'ordre 2 :

[ ]
1
1 − R 
t
x −m X t 1
−1

p X t 1, x 1, t 2, x 2 = e 2 où = 1 et
2  det  R x 2 −m X t 2

R= c
[
 2X t 1   cX t 2, t 1 
 X t 1, t 2  2X t 2  ] (R est appelée matrice de corrélation)

• Bruit blanc : Un bruit blanc idéal B(t,ω) est un processus aléatoire centré ( mB(t) = 0 ∀
t) et stationnaire dont la DSP est constante. ΓB(ν) = cste = Γ0. Cela implique que ∀τ ∈
−1
R,  B =TF  B = 0  .
Un bruit blanc idéal a une puissance moyenne infinie ! (PB = γB(0) = Γ0.δ(0) = + ∞ !!!
On considère dans le cas réel un bruit blanc à bande limitée tel que la densité spectrale
de puissance soit constante sur une bande de fréquence limitée |ν|< νB. On note alors
ΓB(ν) = Γ0.∏2 νB( ν). On a alors, ∀τ ∈ R,
 B =TF −1  0 2  =2 B  0 sinc2  B  et donc PB = γB(0) = 2νBΓ0. La
B

puissance moyenne d'un bruit blanc est à valeur finie!

7.3. Analyse des processus aléatoires à support fini


Dans tout ce qu'on a vu jusqu'à présent on supposait connu l'ensemble des réalisations d'un
processus aléatoire. Ce qui permettait de calculer de moyennes, variances, etc. Dans un cas
réel, on n'a accès qu'à un nombre réduit d'observation correspondant à une trajectoire du
processus. A partir de ces observations (échantillons) , il est cependant possible de réaliser des
estimations des paramètres caractérisant le processus.
NB: Tous les calculs sous matlab de moyenne, d'écart type, de corrélation, sont en fait des
estimations à partir des signaux finis (considérés en toute généralité comme des échantillon de
processus aléatoires)

7.3.1 Estimation
Définitions :

33
• On appelle estimation d'un paramètre caractérisant un processus aléatoire toute
fonction de l'observation du signal sur une durée limitée permettant d'approcher
la valeur de ce paramètre.
• On appelle estimateur toute fonction du processus aléatoire dont une réalisation prise
sur une durée limitée donne une estimation du paramètre étudié.

Une estimation est une réalisation particulière d'un estimateur. On note en général 
l'estimateur du paramètre θ.
Exemple: Estimation de la moyenne d'un signal stationnaire sur une durée T : . On considère
T N
1  1
l'estimateur suivant M X = ∫ X t , dt (ou M X = ∑ X n ,  pour les processus

T 0 N n=1 n

aléatoires discrets). Une réalisation de cet estimateur donne une estimation de la moyenne
temporelle mX (qui est constante dans le temps vu que le signal est stationnaire)

Performance d'un estimateur : Chaque estimation est une réalisation du processus aléatoire
estimateur Pour juger des performances de l'estimateur, on peut effectuer un grand nombre
d'estimations et voir si elles sont cohérentes entre elles. L'estimateur est dit convergent si au
bout d'un grand nombre d'essai (n → +∞) la moyenne des estimation converge vers une valeur
donnée. En fonction de cette valeur et la dispersion des estimations autour de cette valeur, on
est amené à définir le biais et l'efficacité de l'estimateur :
• Le biais d'un estimateur est la différence entre le paramètre mesuré (à priori inconnu)
et la moyenne des estimations de ce paramètre. B(  ) = E[  ]- θ. Si le biais de
l'estimateur est nul on parle d'un estimateur non biaisé (unbiased estimator). Cela
signifie alors que si l'on effectue un nombre infini d'estimation et qu'on calcule la
moyenne de ces estimations, on retombe bien sur le paramètre que l'on souhaite
mesurer.
Dans l'exemple précédent de l'estimateur de la moyenne, on peut calculer le biais de
T T
1 1
l'estimateur M X . E [ M X ]=
 ∫ E [ X t ,  ] dt = T ∫ m X t  dt =m X car le processus est
T 0 0
stationnaire. L'estimateur est donc sans biais.

• Un estimateur est dit efficace s'il est de variance minimale : E −E


  2
[ ] [ ]
minimum.
Un estimateur est dit optimal s'il est à la fois non biaisé et efficace.
Exercice : efficacité de l'estimateur de la moyenne

[
On note  2M = E  M X − E  M X  
X
2
] .

[ 2
] [ ] [
On a :  2M = E  M X −m X  = E M 2X −2 m2X m2x =E M 2X −m2X =E M 2X −m2X
X
] [ ]

[ ]
T T T T
1 1
avec [ ]
E M 2X = E ∫ X t 1, dt 1∫ X t 2,  dt 2 = 2 ∫ ∫ E [ X t 1,  X  t 2,  ] dt 1 dt 2
T 0 T 0 0
0

T T T T
1 1
[ ]
E M 2X = 2 ∫ ∫  X t 1, t 2  dt 1 dt 2 = 2 ∫ ∫  X t 2 −t 1  dt 1 dt 2
T 0 0 T 0 0

34
Si on exprime [
E M 2X ] en fonction de la covariance cX t 2 −t 1 = X t 2−t 1 m2X on
T T T− t1
2 1 1
obtient  M X
= 2 ∫ ∫ cX t 2 −t 1  dt 1 dt 2 = ∫ cX d  (en notant τ = t2-t1)
T 0 0 T 0

Cette dernière expression est difficilement calculable dans l'absolu. Elle peut néanmoins être
c
approximée en tenant compte du fait que  X  est maximum en τ = 0 et décroit
rapidement pour τ >> 0. On suppose donc que
T −t 1 ∞
1 1 1
 2M = ∫  cX  d ≈ ∫ cX d =  cX 0 où Γxc(0) est la densité spectrale de
X
T 0 T −∞ T
puissance du processus aléatoire Xc(t,ω) = X(t,ω) – mX pour ν=0.
On voit donc que plus la densité spectrale de puissance du signal Xc(t,ω) est importante
au voisinage de 0, moins l'estimateur est efficace. Ce sont les fluctuations « basses
fréquences » qui dispersent l'estimation de la moyenne.

N
1 2
Exercice : Estimateur de la variance d'un signal discret : X = ∑  X  n , − M X 
2

N n
n=1
n

N
1 2
X = ∑  X  n , − M X 
2
n
N n=1
n

Calculer le biais de cet estimateur.

35

Vous aimerez peut-être aussi