Vous êtes sur la page 1sur 120

Traitement du Signal

Jean-Pierre Costa
Universite dAvignon et des pays du Vaucluse
jean-pierre.costa@univ-avignon.fr
IUP GMI
BP 1228 84911 Avignon Cedex 9
Table des mati`eres i
Table des mati`eres
I Etude des signaux continus deterministes 1
1 Notion de signaux et syst`emes 2
1.1 Introduction `a la theorie du signal . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Quelques signaux elementaires . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Exemples de syst`emes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Syst`eme lineaire invariant dans le temps . . . . . . . . . . . . . . . . . . . . 5
2 Energie et puissance 6
2.1 Signaux `a energie nie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Signaux `a puissance moyenne nie . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3 Energie dinteraction de 2 signaux . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4 Autocorrelation, intercorrelation, convolution . . . . . . . . . . . . . . . . . . 8
2.4.1 Fonction dautocorrelation dun signal . . . . . . . . . . . . . . . . . 8
2.4.2 Proprietes de la fonction dautocorrelation . . . . . . . . . . . . . . . 9
2.4.3 Fonction dintercorrelation . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.4 Produit de convolution . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.5 Exercices : Autocorrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3 Representation frequentielle 12
3.1 Developpement en serie de Fourier dun signal periodique . . . . . . . . . . . 12
3.1.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.1.2 Proprietes des series de Fourier . . . . . . . . . . . . . . . . . . . . . 13
3.2 Transformee de Fourier des signaux denergie nie . . . . . . . . . . . . . . . 14
3.2.1 Proprietees de la TF . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
ii Table des mati`eres
3.2.2 Densite spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.2.3 Theor`eme de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2.4 Densite interspectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3 Transformee de Fourier des signaux denergie innie . . . . . . . . . . . . . . 17
3.3.1 Les distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.2 Limpulsion de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.4 Transformee de Fourier dun signal periodique . . . . . . . . . . . . . . . . . 20
3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.5.1 Classication des signaux . . . . . . . . . . . . . . . . . . . . . . . . 21
3.5.2 Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.5.3 Transformee de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4 Filtrage 23
4.1 Filtrage des signaux `a temps continu . . . . . . . . . . . . . . . . . . . . . . 23
4.1.1 Filtre lineaire continu et invariant dans le temps . . . . . . . . . . . . 23
4.1.2 Filtrage frequentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.1.3 Puissance et energie des signaux avant et apr`es ltrage . . . . . . . . 25
4.1.4 Fenetrage temporel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.1.5 Analyse blocsdiagrammes . . . . . . . . . . . . . . . . . . . . . . . . 27
4.1.6 Filtre sans distorsion . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.1.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 Transmission de signaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2.1 Signaux `a bande limitee . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2.2 Transmission en bande de base . . . . . . . . . . . . . . . . . . . . . 31
4.2.3 Transmission par modulation . . . . . . . . . . . . . . . . . . . . . . 31
4.2.4 Denition dun ltre de Hilbert . . . . . . . . . . . . . . . . . . . . . 31
4.2.5 Signal analytique associe `a un signal reel . . . . . . . . . . . . . . . . 32
4.2.6 Enveloppe complexe des signaux bande etroite . . . . . . . . . . . . . 33
4.2.7 Amplitude et phase instantanees dun signal bande etroite . . . . . . 34
Table des mati`eres iii
II Etude des signaux discrets 35
1 Lechantillonnage 36
1.1 Notion dechantillonnage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.2 Echantillonnage parfait . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.2.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.2.2 Theor`eme dechantillonnage en bande de base . . . . . . . . . . . . . 38
1.3 Echantillonnage regulier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.4 Filtre anti-repliement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.5 Interpolation par le bloqueur dordre 0 . . . . . . . . . . . . . . . . . . . . . 40
2 Signaux deterministes `a temps discret 41
2.1 Signaux `a temps discret elementaires . . . . . . . . . . . . . . . . . . . . . . 41
2.2 Proprietes des signaux `a temps discret . . . . . . . . . . . . . . . . . . . . . 42
2.3 Transformee de Fourier des signaux `a temps discret . . . . . . . . . . . . . . 43
2.3.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.4 Proprietes de la transformee de Fourier . . . . . . . . . . . . . . . . . . . . . 44
2.5 Transformee de Fourier discr`ete dun signal discret . . . . . . . . . . . . . . . 45
2.5.1 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.5.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.6 Fenetres de ponderation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.6.1 Fenetre rectangulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.2 Fenetre de Hamming . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.3 Fenetre de Kaiser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.6.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.7 La transformee de Fourier rapide . . . . . . . . . . . . . . . . . . . . . . . . 50
III Etude des signaux aleatoires 52
1 Rappels sur les probabilites 53
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
iv Table des mati`eres
1.2 Probabilites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
1.2.1 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
1.2.2 Denitions complementaires . . . . . . . . . . . . . . . . . . . . . . . 54
1.2.3 Alg`ebre des evenements . . . . . . . . . . . . . . . . . . . . . . . . . 54
1.2.4 Probabilite dun evenement . . . . . . . . . . . . . . . . . . . . . . . 54
1.3 Variables aleatoires reelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
1.3.1 Histogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
1.3.2 Fonction de repartition . . . . . . . . . . . . . . . . . . . . . . . . . . 57
1.3.3 Densite de probabilite . . . . . . . . . . . . . . . . . . . . . . . . . . 59
1.4 Lois de repartition particuli`eres . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.4.1 Loi de Bernouilli x . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.4.2 Loi de poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.4.3 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
1.4.4 Loi normale ou gaussienne . . . . . . . . . . . . . . . . . . . . . . . . 63
1.5 Moyennes statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
1.5.1 Esperance mathematique . . . . . . . . . . . . . . . . . . . . . . . . . 65
1.5.2 Fonction dune variable aleatoire . . . . . . . . . . . . . . . . . . . . 65
1.5.3 Fonction de deux variables aleatoires . . . . . . . . . . . . . . . . . . 65
1.5.4 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
1.5.5 Moments et variance . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
1.5.6 Fonction caracteristique . . . . . . . . . . . . . . . . . . . . . . . . . 67
1.6 Moments conjoints et covariance . . . . . . . . . . . . . . . . . . . . . . . . . 68
1.6.1 Repartition conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
1.6.2 Repartition marginale . . . . . . . . . . . . . . . . . . . . . . . . . . 68
1.6.3 Repartition conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . 69
1.6.4 Variables aleatoires independantes . . . . . . . . . . . . . . . . . . . . 69
1.6.5 Correlation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
1.6.6 Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
1.6.7 Coecient de correlation . . . . . . . . . . . . . . . . . . . . . . . . . 70
1.6.8 Evenements orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . 71
1.6.9 Variables conjointement gaussiennes . . . . . . . . . . . . . . . . . . . 71
Table des mati`eres v
1.7 Changement de variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
1.7.1 Fonction de variables aleatoires . . . . . . . . . . . . . . . . . . . . . 71
1.7.2 Determination de la densite de probabilite . . . . . . . . . . . . . . . 72
1.7.3 Formule de changement de variables . . . . . . . . . . . . . . . . . . . 72
1.8 Somme dun grand nombre de variables aleatoires independantes . . . . . . . 74
1.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
1.9.1 Variables aleatoires, fonctions de repartition et densites . . . . . . . . 74
1.9.2 Moyennes statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2 Signaux aleatoires 76
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.2 Les moments temporels, les relations de base . . . . . . . . . . . . . . . . . . 77
2.2.1 Moyenne temporelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.2.2 Autocorrelation temporelle . . . . . . . . . . . . . . . . . . . . . . . . 77
2.3 Caracteristiques statistiques dun processus aleatoire . . . . . . . . . . . . . 78
2.3.1 Moyenne statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.3.2 Autocorrelation, autocovariance statistiques . . . . . . . . . . . . . . 78
2.4 Stationnarite, Ergodicite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.4.1 Stationnarite au sens strict . . . . . . . . . . . . . . . . . . . . . . . . 78
2.4.2 Processus aleatoire stationnaire au second ordre . . . . . . . . . . . . 79
2.4.3 Processus ergodique . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2.5 Correlation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.5.1 Autocorrelation statistique . . . . . . . . . . . . . . . . . . . . . . . . 80
2.5.2 Intercorrelation statistique . . . . . . . . . . . . . . . . . . . . . . . . 80
2.5.3 Autocovariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.5.4 Intercovariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.6 Analyse spectrale des processus aleatoires . . . . . . . . . . . . . . . . . . . . 81
2.6.1 Densite spectrale de puissance . . . . . . . . . . . . . . . . . . . . . . 81
2.6.2 Le bruit blanc b(t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
2.6.3 Le bruit colore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
2.7 Processus aleatoires particuliers . . . . . . . . . . . . . . . . . . . . . . . . . 82
vi Table des mati`eres
2.7.1 Sequences independantes et identiquement distribuees (i.i.d.) . . . . . 82
2.7.2 Processus aleatoire gaussien . . . . . . . . . . . . . . . . . . . . . . . 83
2.8 Filtrage des processus aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.8.2 Les relations en discret . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2.8.3 Filtre lineaire invariant dans le temps . . . . . . . . . . . . . . . . . . 86
2.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
2.9.1 Stationnarite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
2.9.2 Filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
2.9.3 Processus aleatoires particuliers . . . . . . . . . . . . . . . . . . . . . 88
3 Identication parametrique 89
3.1 La transformee en z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.1.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.1.2 Transformee en z unilaterale . . . . . . . . . . . . . . . . . . . . . . . 90
3.1.3 Fonction de transfert . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.1.4 Syst`emes denis par une equation aux dierences . . . . . . . . . . . 91
3.1.5 Filtres a reponse impulsionnelle nie . . . . . . . . . . . . . . . . . . 92
3.1.6 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.1.7 Filtres a reponse impulsionnelle innie . . . . . . . . . . . . . . . . . 95
3.1.8 Comparaison entre les ltres RIF et RII . . . . . . . . . . . . . . . . 96
3.2 Processus aleatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.2.1 Processus MA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.2.2 Processus AR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.2.3 Processus ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.3 Application `a la prediction lineaire . . . . . . . . . . . . . . . . . . . . . . . 100
3.3.1 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.3.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4 Elements de la theorie de lestimation 105
4.1 Proprietes des estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
Table des mati`eres vii
4.1.2 Biais et variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.1.3 Exemple : estimateur de la moyenne . . . . . . . . . . . . . . . . . . . 106
4.2 Methodes destimation de param`etres de signaux . . . . . . . . . . . . . . . 107
4.2.1 Methode du maximum de vraisemblance . . . . . . . . . . . . . . . . 107
4.2.2 Methode des moindres carrees . . . . . . . . . . . . . . . . . . . . . . 109
Bibliographie 111
1
Premi`ere partie
Etude des signaux continus
deterministes
IUP Avignon Traitement du signal J.-P.Costa
2 Chapitre 1. Notion de signaux et syst`emes
Chapitre 1 Notion de signaux et syst`emes
1.1 Introduction `a la theorie du signal
La theorie du signal a pour objet letude des signaux et des syst`emes qui les transmettent.
Lobservation dun phenom`ene permet dextraire certaines quantites qui dependent du temps
(de lespace, dune frequence, ou dune autre variable). Ces quantites, supposees mesurable,
seront appelees des signaux. Elles correspondent, en mathematiques, `a la notion de fonction
(dune ou plusieurs variables : temps, espace, etc.) qui en constitue donc une modelisation.
Dans le cours de traitement du signal nous verrons que la notion de distribution est une
modelisation `a la fois plus generale et plus satisfaisante des signaux.
On peut citer quelques exemples de signaux :
intensite dun courant electrique,
position dun mobile, repere par sa position au cours du temps, M = M(t),
niveaux de gris des points dune image g(i,j),
un son,

Il existe plusieurs types de representations pour les signaux. En eet,
on peut modeliser un signal de mani`ere deterministe ou aleatoire.
Dans le cas o` u la variable est continue, le signal est analogique (x = x(t)); dans le cas
ou elle est discr`ete, le signal est discret (x = (x
n
)
nZ
). Un signal discret est le plus
souvent le resultat dune discretisation (echantillonnage) dun signal analogique.
IUP Avignon Traitement du signal J.-P.Costa
1.2 Quelques signaux elementaires 3
Les valeurs x = x(t) du signal seront considerees comme des valeurs exactes, reelles
ou complexes.
0 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.01
1.5
1
0.5
0
0.5
1
1.5
Signal analogique
0 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.01
1.5
1
0.5
0
0.5
1
1.5
Peigne de dirac
0 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.01
1.5
1
0.5
0
0.5
1
1.5
Signal echantillonne
Les signaux sont vehicules a travers un syst`eme de transmission (ou canal de transmis-
sion). Dune mani`ere generale, on appelle syst`eme toute entite, permettant de distinguer
des signaux dentree et des signaux de sortie.
On distingue
Les syst`emes analogiques dont les signaux dentreesortie sont analogiques.
Les syst`emes discrets dont les signaux dentreesortie sont discrets.
On passe dun signal discret `a un signal analogique ou inversement, par des convertisseurs :
convertisseur analogique numerique, comme par exemple , lechantillonneur,
convertisseur numerique analogique qui recompose un signal analogique `a partir dun
signal numerique. Par exemple le bloqueur, qui conserve la derni`ere valeur du signal
jusqu`a lobtention de la valeur suivante.
1.2 Quelques signaux elementaires
1. Echelon unite (Heaviside) : on le note u(t) et il est deni par
Ce signal modelise letablissement instantane dun regime constant.
2. La fonction porte, notee

(t) est denie par


IUP Avignon Traitement du signal J.-P.Costa
4 Chapitre 1. Notion de signaux et syst`emes
u(t) =
_
0 si t < 0
1 si t 0
5 0 5 10 15 20 25 30
1
0.5
0
0.5
1
1.5
2
2.5
3
u(t) u(t)
t

(t) =
_
1 si |t| <

2
0 si |t| >

2
> 0 donne
30 20 10 0 10 20 30
2
1.5
1
0.5
0
0.5
1
1.5
2
2.5
3

(t)
t
3. Signal sinusodal pur : cest un signal de la forme
x(t) = A cos(t +)
ou A est lamplitude du signal, la pulsation et la phase initiale.
1.3 Exemples de syst`emes
1. Lamplicateur ideal : y(t) = k x(t) avec k une constante xee.
2. Ligne `a retard y(t) = x(t a) avec k une constante reelle.
3. Circuit RC Ce syst`eme est regit par une equation dierentielle lineaire du premier
ordre `a coecients constants.
e(t) = s(t) +RC s

(t)
La fonction de transfert
S(p)
E(p)
=
1
1 + RC P
IUP Avignon Traitement du signal J.-P.Costa
1.4 Syst`eme lineaire invariant dans le temps 5
1.4 Syst`eme lineaire invariant dans le temps
Un syst`eme est dit lineaire si pour les entrees x
1
(t) et x
2
(t) respectivement on obtient les
sorties y
1
(t) et y
2
(t) alors pour lentree a
1
x
1
(t) +a
2
x
2
(t) on obtient a
1
y
1
(t) +a
2
y
2
(t) avec
a
1
, a
2
C.
Un syst`eme est dit invariant dans le temps si son comportement se reproduit de facon iden-
tique au cours du temps. Si pour une entree x(t) on a une sortie y(t), alors pour x(t )
on a y(t ).
Un syst`eme est dit instantane ou sans memoire si la relation entreesortie est du type
y(t) = g[x(t)].
Un syst`eme est dit stable si la reponse `a toute entre bornee est elle meme bornee.
Un syst`eme est continu ssi
lim
n
x
n
(t) = x(t) y
n
(t) = h(t) x
n
(t)
avec
lim
n
y
n
(t) = y(t) y(t) = h(t) x(t)
ou H(p) (tranformee de Laplace) est la fonction de transfert du syst`eme.
On appelle ltre un syst`eme lineaire continu et invariant dans le temps.
IUP Avignon Traitement du signal J.-P.Costa
6 Chapitre 2. Energie et puissance
Chapitre 2 Energie et puissance
2.1 Signaux `a energie nie
Lorsquon etudie les proprietes des signaux, il est important detudier lenergie dun signal.
Par denition, lenergie E (exprimee en Joules) dun signal `a temps continu s(t) est
E =
_
+

|s(t)|
2
dt
E =
_
+

s(t)s

(t) dt
Si cette integrale est nie on parle de signaux `a energie nie. La quantite p(t) = s(t)s

(t)
sappelle la puissance instantanee. Les signaux de duree limitee sont `a energie nie.
2.2 Signaux `a puissance moyenne nie
On denit, si elle existe, la puissance moyenne par
p = lim

_
+/2
/2
s(t)s

(t) dt
Si cette limite est nie, on parle de signaux `a puissance moyenne nie. Dans le cas des
signaux periodiques de periode T
0
, la puissance moyenne du signal correspond `a la puissance
IUP Avignon Traitement du signal J.-P.Costa
2.3 Energie dinteraction de 2 signaux 7
moyenne sur une periode du signal.
p =
1
T
0
_
+T
0
/2
T
0
/2
s(t)s

(t) dt
p sexprime en Watts (Joules par seconde).
Remarques:
un signal denergie nie (E < ) `a une puissance moyenne nulle,
un signal denergie E = 0 est considere comme egal `a 0 (signal nul),
2 signaux x(t) et y(t) sont egaux si lenergie de leur dierence est nulle
_
+

|x(t)
y(t)|
2
dt = 0
Tous les signaux physiques sont `a energie nie mais on les modelise mathematiquement
comme des signaux eternels dont on observe une certaine duree.
Signaux nuls E = 0
Signaux `a energie nie
E <
P = 0
signaux de module ni et de support borne
Signaux `a puissance moyenne nie
E =
P <
signaux periodiques
Autres signaux
E =
P =
s(t) = t, bruit blanc, dirac
2.3 Energie dinteraction de 2 signaux
Prenons comme exemple 2 sources ponctuelles S
1
et S
2
produisant en un point de lespace
une onde de pression s
1
(t) et s
2
(t). Lorsque ces 2 sources agissent simultanement, londe de
pression en ce point est s(t) = s
1
(t) +s
2
(t). Si on veut calculer lenergie de s(t), on obtient
IUP Avignon Traitement du signal J.-P.Costa
8 Chapitre 2. Energie et puissance
alors :
E =
_
+

s(t)s

(t) dt
=
_
+

s
1
(t)s

1
(t) dt +
_
+

s
2
(t)s

2
(t) dt +
_
+

s
1
(t)s

2
(t) dt +
_
+

s
2
(t)s

1
(t) dt
E = E
1
+E
2
+E
12
+E
21
On a lenergie de chacune des 2 ondes plus des termes croises relatifs `a linteraction des 2
signaux.
On denit donc
la puissance instantanee dinteraction de 2 signaux par:
P
xy
(t) = x(t)y

(t)
On remarque que P
yx
(t) = P

xy
(t),
lenergie dinteraction de 2 signaux
E
xy
=
_
+

x(t)y

(t) dt
avec |E
xy
|
2
E
x
E
y
2.4 Autocorrelation, intercorrelation, convolution
2.4.1 Fonction dautocorrelation dun signal
`a energie nie
C
ss
() =
_
+

s(t)s

(t ) dt
IUP Avignon Traitement du signal J.-P.Costa
2.4 Autocorrelation, intercorrelation, convolution 9
0 0.02 0.04 0.06
1
0.5
0
0.5
1
Signal utile x(t)
0 0.02 0.04 0.06
4
2
0
2
4
Signal bruit y(t), RSB=7dB
0 0.02 0.04 0.06
100
50
0
50
100
Cxx()

0 0.02 0.04 0.06


100
50
0
50
100
150
200
Cyy()

Autocorrelation dune sinusode et dune sinusode bruitee


`a puissance moyenne nie
C
ss
() = lim
T
1
T
_
+T/2
T/2
s(t)s

(t ) dt
periodique
C
ss
() =
1
T
0
_
+T
0
/2
T
0
/2
s(t)s

(t ) dt
La fonction dautocorrelation traduit la similitude dun signal au niveau de la forme en
fonction dun decalage temporel. Cest une mesure de la ressemblance du signal avec lui
meme au cours du temps. Dans le cas dun signal periodique, la fonction dautocorrelation
le sera aussi et permettra de detecter cette periodicite.
2.4.2 Proprietes de la fonction dautocorrelation
C
ss
(0) = E
s
0 : lautocorrelation est maximum en 0 et correspond `a lenergie du
signal.
Dans le cas ou s(t) est un signal reel, la fonction dautocorrelation est paire C
ss
() =
C
ss
().
Dans le cas ou s(t) est un signal complexe, la fonction dautocorrelation est `a symetrie
hermitienne C
ss
() = C

ss
().
IUP Avignon Traitement du signal J.-P.Costa
10 Chapitre 2. Energie et puissance
0 0.05 0.1 0.15
4
2
0
2
4
Signal mis
temps (t)
0 0.05 0.1 0.15
10
5
0
5
10
Signal recu
temps (t)
0.15 0.1 0.05 0 0.05 0.1 0.15
200
100
0
100
200
300
400
Intercorrlation Cxy()

Exemple dune impulsion radar


2.4.3 Fonction dintercorrelation
`a energie nie
C
xy
() =
_
+

x(t)y

(t ) dt
`a puissance moyenne nie
C
xy
() = lim
T
1
T
_
+T/2
T/2
x(t)y

(t ) dt
Puisque C
xy
() est une mesure de similitude, elle atteint son maximum pour une valeur de
lorsque la similitude est la plus grande.
2.4.4 Produit de convolution
Comme on le verra dans le chapitre 3, le produit de convolution est un outil tr`es pratique
pour le calcul de la reponse dun syst`eme lineaire et invariant dans le temps. En eet la
reponse y(t) dun tel syst`eme `a une entree quelconque x(t) sexprime comme le produit de
convolution de x(t) avec la reponse impulsionnelle h(t) du syst`eme, cest `a dire :
y(t) = x(t) h(t) = h(t) x(t) =
_
+

h(u)x(t u) du =
_
+

x(u)h(t u) du
IUP Avignon Traitement du signal J.-P.Costa
2.5 Exercices : Autocorrelation 11
2.5 Exercices : Autocorrelation
Soit la fonction x(t) = S
0
e
i
0
t
1. Montrer que cette fonction est periodique de periode T
0
(x(t +T
0
) = x(t)).
2. Calculer la fonction dautocorrelation C
xx
().
3. Verier les proprietes de la fonction dautocorrelation suivantes :
(a) C
xx
(0) =Puissance moyenne,
(b) C
xx
() = C

xx
() : symetrie hermitienne,
(c) |C
xx
| C
xx
(0) : la fonction est maximum en 0,
(d) comme x(t) est periodique alors C
xx
() est periodique.
Soit la fonction x(t) = S
0
e
t
u(t)
avec > 0 et u(t) = 1 pour t 0 et 0 ailleurs
1. Representer sur le meme graphe lallure de x(t) et de x(t t
0
).
2. Montrer que la fonction dautocorrelation C
xx
() est
C
xx
() =
S
2
0
2
e

3. Verier les proprietes de la fonction dautocorrelation (3a), (3b), (3c)


4. Memes questions pour la fonction porte

(t).
IUP Avignon Traitement du signal J.-P.Costa
12 Chapitre 3. Representation frequentielle
Chapitre 3 Representation frequentielle
3.1 Developpement en serie de Fourier dun signal periodique
3.1.1 Denition
Lidee de base dun developpement en serie de Fourier est quun signal periodique peut etre
decompose en une somme de signaux harmoniques, cest `a dire de signaux dont la frequence
est multiple dune frequence fondamentale.
Soit s(t) une fonction continue, periodique (T
0
). On peut decomposer ce signal en une somme
innie dexponentielles complexes de frequence multiple de f
0
= 1/T
0
, de sorte que
s(t) =
+

k=
S
k
e
2jk
t
T
0
S
k
=
1
T
0
_
+T
0
/2
T
0
/2
s(t)e
2jk
t
T
0
dt
ou les S
k
representent les coecients de Fourier. La suite des coecients complexes S
k
constitue le spectre de raies discret du signal periodique s(t).
On peut egalement decomposer s(t) suivant :
s(t) = a
0
+
+

k=1
a
k
cos(k2
t
T
0
) +b
k
sin(k2
t
T
0
)
IUP Avignon Traitement du signal J.-P.Costa
3.1 Developpement en serie de Fourier dun signal periodique 13
avec a
0
correspondant `a la valeur moyenne du signal sur une periode
a
0
=
1
T
0
_
+T
0
/2
T
0
/2
s(t) dt
et
a
k
=
2
T
0
_
+T
0
/2
T
0
/2
s(t) cos(k2
t
T
0
)
b
k
=
2
T
0
_
+T
0
/2
T
0
/2
s(t) sin(k2
t
T
0
)
3.1.2 Proprietes des series de Fourier
Liens entre les coecients s
k
, a
k
et b
k
Pour k > 0,
S
0
= a
0
a
0
= S
0
S
k
=
a
k
j b
k
2
a
k
= S
k
+S
k
S
k
=
a
k
+j b
k
2
b
k
= j(S
k
S
k
)
Quelques proprietes
On a vu que la composante a
0
= S
0
de s(t) est appelee composante continu. Cest la valeur
moyenne de s(t) sur une periode.
La frequence f
0
=
1
T
0
est la frequence fondamentale et les composantes a
1
et b
1
consti-
tuent lamplitude du fondamental. Les frequences f
k
= k/T
0
pour k > 1 constituent les
harmoniques dordre k (1er harmonique f
2
= 2 fois le fondamental).
De plus,
Si s(t) est paire alors b
k
= 0 k.
Si s(t) est impaire alors a
k
= 0 k.
Si s(t) est reelle, a
k
, b
k
sont reels et S
k
= S

k
.
Si s(t)) est complexe, a
k
, b
k
sont complexes.
IUP Avignon Traitement du signal J.-P.Costa
14 Chapitre 3. Representation frequentielle
Egalite de Parseval
P =
1
T
0
_
+T
0
/2
T
0
/2
|s(t)|
2
=
+

k=
|S
k
|
2
ou chaque terme |S
k
|
2
represente la puissance moyenne apportee par la composante e
j2kt/T
0
3.2 Transformee de Fourier des signaux denergie nie
Soit un signal s(t) `a temps continu denergie nie E, la transformee de Fourier S(f) de s(t)
est denie par :
S(f) =
_
+

s(t) e
j2ft
dt
S(f) est aussi appele spectre complexe (ou tout simplement spectre) et correspond `a la
representation frequentielle du signal s(t).
La formule dinversion est donnee par :
s(t) =
_
+

S(f) e
j2ft
df
Une condition dexistence susante mais pas necessaire est que s(t) soit une fonction som-
mable, cest `a dire
_
+

|s(t)| dt <
alors
|S(f)| <
_
+

|s(t)| dt <
IUP Avignon Traitement du signal J.-P.Costa
3.2 Transformee de Fourier des signaux denergie nie 15
3.2.1 Proprietees de la TF
On va voir comment une operation sur s(t) se traduit par une autre operation dans lespace
des frequences sur S(f).
1. Linearite : s
1
(t)
TF

S
1
(f), s
2
(t)
TF

S
2
(f),

1
s
1
(t) +
2
s
2
(t)
TF

1
S
1
(f) +
2
S
2
(f)
1
,
2
C
2. Translation en temps : s(t t0)
TF

e
j2ft
S(f)
3. Translation en frequence : S(f f
0
) =
TF

[s(t)e
j2f
0
t
], une translation en frequence
correspond `a une modulation en temps.
4. Dilatation en temps : y(t) = s(at) avec a > 0, Y (f) =
1
a
S(f/a). Une dilatation
(0 < a < 1) de lechelle des temps correspond `a une compression (
1
a
> 1) de lechelle
des frequences et inversement.
5. Inversion du temps : s(t)
TF

S(f),
6. Conjugaison du signal : s

(t)
TF

(f),
7. Formes particuli`eres :
s(t) reelle S(f) symetrie hermitienne
s(t) reelle paire S(f) reelle paire
s(t) reelle S(f) imaginaire impaire
s(t) imaginaire paire S(f) imaginaire paire
s(t) imaginaire impaire S(f) reelle impaire
8. Convolution en temps : on appelle produit de convolution de 2 signaux denergie nie
IUP Avignon Traitement du signal J.-P.Costa
16 Chapitre 3. Representation frequentielle
x(t) et y(t) le signal z(t) deni par :
z(t) = x(t) y(t) =
_
+

x(u)y(t u) du = y(t) x(t)


z(t)
TF

Z(f) = X(f)Y (f)


Cette propriete de convolution est la plus fondamentale pour les applications de lana-
lyse de Fourier notamment pour le ltrage lineaire.
9. Convolution en frequence : z(t) = x(t)y(t)
TF

Z(f) = X(f) Y (f)


La transformee de Fourier transforme convolution en multiplication et mul-
tiplication en convolution.
3.2.2 Densite spectrale
La densite spectrale
ss
est denie comme etant la TF de la fonction dautocorrelation C
ss
.

ss
(f) = TF[C
ss
()] = S(f)S

(f) = |S(f)|
2
Demonstration:
C
ss
() =
_
+

s(t)s

(t ) dt
On pose : x(t) = s(t) et y(t) = s

(t), alors
C
ss
() = x() y()
do u

ss
(f) = TF[C
ss
()] = S(f)S

(f) = |S(f)|
2
On peut dire que
ss
(f) est une densite spectrale denergie puisque son integrale donne
lenergie totale du signal.
IUP Avignon Traitement du signal J.-P.Costa
3.3 Transformee de Fourier des signaux denergie innie 17
3.2.3 Theor`eme de Parseval
On obtient par transforme de Fourier inverse, legalite de Parseval :
E
s
=
_
+

|s(t)|
2
dt =
_
+

|S(f)|
2
df = C
ss
(0)
On a lexpression de lenergie dun signal dans le domaine du temps ou dans le domaine des
frequences.
3.2.4 Densite interspectrale
De la meme maniere on peut denir la densite interspectrale comme etant la TF de la
fonction intercorrelation. On a alors :

xy
(f) = TF[C
xy
()] = X(f)Y

(f)
3.3 Transformee de Fourier des signaux denergie in-
nie
3.3.1 Les distributions
Le mod`ele mathematique
Une fonction est une application qui `a tout nombre dun ensemble de depart fait correspondre
un nombre dun espace darrivee :
f : T f(t)
A toute fonction v appartenant a lespace vectoriel des fonctions denies sur R
n
, indeniment
derivables et `a support borne, la distribution D associe un nombre complexe D(v), qui sera
aussi note < D,v > avec les proprietes suivantes :
D(v
1
+v
2
) = D(v
1
) +D(v
2
),
D(v) = D(v), o` u est un scalaire.
IUP Avignon Traitement du signal J.-P.Costa
18 Chapitre 3. Representation frequentielle
Par exemple, si f(t) est une fonction sommable sur tout ensemble borne, elle denit une
distribution D
f
par :
< D,v >=
_
+

f(t)v(t) dt (3.1)
Derivation des distribution
On denit la derivee
D
t
dune distribution D par la relation:
<
D
t
,v >= < D,
v
t
>
Soit par exemple, en utilisant lequation 3.1, on peut determiner la derivee de la fonction
u(t) de Heaviside, ou echelon unite (0 si t < 0 et 1 si t 0),
<
D
u
t
,v >= < D
u
,
v
t
>=
_
+
0
1 v

(t) dt = v(0) =< ,v >


Il en resulte que la discontinuite de u(t) apparat sous la forme dun dirac unitaire dans sa
derivee. Cet exemple illustre un interet pratique considerable de la notion de distribution, qui
permet detendre aux fonctions discontinues un certain nombre de concepts et de proprietes
des fonctions continues.
Par generalisation, si f est contin ument derivable et une fonction test `a support bornee,
alors :
_
+

(x)(x)dx =
_
+

f(x)

(x)dx (3.2)
Transformee de Fourier dune distribution
Par denition la transformee de Fourier dune distribution Dest une distribution notee FD
telle que :
< FD,v >=< D,Fv > (3.3)
IUP Avignon Traitement du signal J.-P.Costa
3.3 Transformee de Fourier des signaux denergie innie 19
3.3.2 Limpulsion de Dirac
Denition
Ce nest pas une fonction mais une distribution. La distribution de dirac est denie par
< D,v >= v(0) (3.4)
Par extension la distribution de dirac au point reel est denie par :
< (t ),v >= v() (3.5)
On peut denir comme la limite de la fonction s

(t) (
_
+

(t) = 1) denie par :


s

(t) =
1

/2
(t)
et le signal porte
T
est deni comme suit

T
(t) =
_
_
_
1 pour |t| < T
0 pour |t| > T
Donc (t) = lim
0
s

(t) avec
_
+

(t) = 1
On represente, par convention le dirac par une `eche de poids=1 representant laire. Si on
calcule lenergie de s

(t) on obtient :
E
s

(t)
=
_
+

(t)
2
dt =
1

donc lim
0
= . Le dirac a une energie innie et nest pas periodique, ce nest pas un
signal realisable physiquement. On admettra que (t) est paire.
Calcul de la transformee de Fourier
La TF de s

(t) est sinc(f) par consequent


IUP Avignon Traitement du signal J.-P.Costa
20 Chapitre 3. Representation frequentielle
TF[(t)] = lim
0
[sinc(f)] = 1 (3.6)
On admet que les proprietes fondamentales de la transformee de Fourier entre la convolution
et produit de fonctions sappliquent aux distributions.
Quelques proprietes
v(t) (t) = v(0) (t)
v(t) (t t
0
) = v(t
0
) (t t
0
)
Un signal de duree innie a un spectre en f = 0. Un signal de duree nulle a un spectre inni
ou toutes les frequences ont meme contribution.
TF
1
[(f)] = 1,
TF [(t t
0
)] = e
j2ft
0
,
TF [e
j2f
0
t
] = (f f
0
)],
TF [A cos(
0
t)] =
A
2
(f f
0
) +
A
2
(f +f
0
),
(t t
0
) (t) = (t t
0
),
(t t
0
) (t t
1
) = (t t
0
t
1
),
v(t) (t) = v(t),
v(t) (t t
0
) = v(t t
0
),
(at) =
1
|a|
(t)
3.4 Transformee de Fourier dun signal periodique
s(t) =
+

n=
S(nf
0
)e
j2nf
0
t
S(f) =
+

n=
S(nf
0
)(f nf
0
)
IUP Avignon Traitement du signal J.-P.Costa
3.5 Exercices 21
et les coecients de Fourier sont donnes par :
S(nf
0
) = S
n
=
1
T
0
_
+T
0
/2
T
0
/2
s(t)e
j2f
0
nt
dt
Remarque : la transforme de Fourier dun peigne de dirac() est un peigne de dirac,
(t) =
+

(t nT
0
)
TF[(t)] = (f) =
1
T
0
+

(f n/T
0
)
3.5 Exercices
3.5.1 Classication des signaux
Tracer les signaux suivants et determiner sil sagit de signaux `a energie nie, `a puissance
nie ou nappartenant `a aucune de ces deux categories. La fonction u(t) etant la fonction
de Heaviside.
x(t) = Asin(t), pour < t < +,
x(t) = A[u(t +) u(t )], avec > 0,
x(t) = e
|t|
, avec > 0,
x(t) = u(t),
x(t) = t u(t).
3.5.2 Dirac
1. En utilisant la relation dequivalence suivante :
soit g(t) et f(t) deux fonctions, il existe une relation dequivalence qui enonce que
g(t) = f(t) si et seulement si :
_
+

g(t)(t)dt =
_
+

f(t)(t)dt (3.7)
verier la proprietes suivante : (at) =
1
|a|
(t).
IUP Avignon Traitement du signal J.-P.Costa
22 Chapitre 3. Representation frequentielle
2. Evaluer les integrale suivantes :

_
+

(t
2
+ cos(t))(t 1) dt,

_
+

e
t
(2t 2) dt,

_
+

e
2t

(t) dt.
3.5.3 Transformee de Fourier
1. Calculer et representer la transformee de Fourier du signal porte (

(t))deni par :

(t) =
_
_
_
1 pour

2
t

2
0 ailleurs
Rmq : sinc(x) =
sin(x)
x
2. Calculer et representer la transformee de Fourier de

(t )
3. On souhaite calculer la transformee de Fourier du signal suivant :
s(t) =
_
_
_
cos(2f
0
t) pour

2
t

2
0 ailleurs
(a) Tracer s(t).
(b) Sachant que la TF dun produit (f(t).g(t)) est egale au produit de convolution
des TF (F(f) G(f)) calculer et representer la TF de s(t).
IUP Avignon Traitement du signal J.-P.Costa
23
Chapitre 4 Filtrage
4.1 Filtrage des signaux `a temps continu
4.1.1 Filtre lineaire continu et invariant dans le temps
Un syst`eme est dit lineaire si pour les entrees x
1
(t) et x
2
(t) respectivement on obtient les
sorties y
1
(t) et y
2
(t) alors pour lentree a
1
x
1
(t) +a
2
x
2
(t) on obtient a
1
y
1
(t) +a
2
y
2
(t) avec
a
1
, a
2
C.
Un syst`eme est dit invariant dans le temps si son comportement se reproduit de facon iden-
tique au cours du temps. Si pour une entree x(t) on a une sortie y(t), alors pour x(t )
on a y(t ).
Un syst`eme est dit instantane ou sans memoire si la relation entreesortie est du type
y(t) = g[x(t)].
Un syst`eme est dit stable si la reponse `a toute entre bornee est elle meme bornee.
Un syst`eme est continu ssi
IUP Avignon Traitement du signal J.-P.Costa
24 Chapitre 4. Filtrage
lim
n
x
n
(t) = x(t) y
n
(t) = h(t) x
n
(t)
avec
lim
n
y
n
(t) = y(t) y(t) = h(t) x(t)
ou H(p) (tranformee de Laplace) est la fonction de transfert du syst`eme.
On appelle ltre un syst`eme lineaire continu et invariant dans le temps.
4.1.2 Filtrage frequentiel
On appelle ltrage frequentiel, loperation consistant `a prelever, supprimer, ou seulement
attenuer tout ou une partie des composantes frequentielles dun signal.
Par denition y(t) = h(t) x(t),
H(f) sappelle la reponse en frequences du ltre
|H(f)| sappelle le gain en frequences du ltre
Arg(H(f)) sappelle la phase du ltre.
La relation fondamentale des ltres est donnee par,
Y (f) = H(f) X(f) avec
_
_
_
X(f) = TF [x(t)]
X(f) = TF [x(t)]
on appelle h(t) = TF
1
[H(f)] la reponse impulsionnelle du ltre. En eet, par TF inverse
y(t) = x(t) h(t) =
_
+

h(t

) x(t t

) dt

dans le cas ou x(t) = (t), y(t) = h(t) (t) = h(t), dou le nom de reponse impulsionnelle
pour h(t). h(t) ne peut pas commencer avant 0 cest `a dire preceder la cause. Un ltre est
realisable si sa reponse impulsionnelle h(t) est causale (h(t) = 0 pour t < 0) et sil est stable.
On rappelle quun ltre est stable ssi `a toute entree bornee correspond une sortie bornee,
_
+

|h(t)| dt < .
IUP Avignon Traitement du signal J.-P.Costa
4.1 Filtrage des signaux `a temps continu 25
4.1.3 Puissance et energie des signaux avant et apr`es ltrage
Filtrer un signal revient aussi `a lui prelever une partie de son energie. Il est important de
considerer la puissance et lenergie des signaux avant et apr`es ltrage dans le temps et en
frequence.
Y (f) = H(f) X(f)
|Y (f)|
2
= |H(f)|
2
|X(f)|
2
Or on a vu que |X(f)|
2
=
xx
(f) correspond `a la densite spectrale denergie (signaux `a
energie nie), dou:

yy
(f) = |H(f)|
2

xx
(f)
par TF inverse on montre que :
C
yy
() = C
hh
() C
xx
()
avec C
hh
() =
_
+

h(t)h

(t ) dt.
Si x(t) est `a energie nie,
xx
(f) est la densite spectrale denergie,
C
xx
() =
_
+

x(t)x

(t ) dt =
_
+

xx
(f)e
j2f
df
C
xx
(0) =
_
+

x(t)x

(t) dt =
_
+

xx
(f) df = E
x
Si x(t) est `a puissance moyenne nie,
xx
(f) est la densite spectrale de puissance,
C
xx
() = lim
T
1
T
_
+T/2
T/2
x(t)x

(t ) dt
C
xx
(0) = lim
T
1
T
_
+T/2
T/2
x(t)x

(t) dt = P
x
=
_
+

xx
(f) df
Si x(t) est un signal periodique de periode T
0
,
xx
(f) est la densite spectrale de puis-
IUP Avignon Traitement du signal J.-P.Costa
26 Chapitre 4. Filtrage
sance, et C
xx
() est de periode T
0
.

xx
(f) = TF [C
xx
()] =
+

k=
|X
k
|
2
(f
k
T
0
)
De meme que le spectre X(f) dun signal preriodique est une suite innie de diracs de
poids X
k
complexes, la densite spectrale de puissance est une suite innie de diracs
de poids reels |X
k
|
2
.
X(f) =
+

k=
X
k
(f
k
T
0
)
4.1.4 Fenetrage temporel
On appelle fenetrage temporel, le fait de multiplier un signal de dure innie par une fenetre
pour obtenir un signal `a duree nie correspondant `a un signal physique.
La fenetre la plus simple est la fenetre rectangulaire mais il en existe bien dautres. Leet
de cette fenetre temporelle sur le signal et sur son spectre est tres important. En eet, si
par exemple on a le signal temporel suivant :
x(t) = cos(2f
0
t)
Si on lui applique une fenetre du type w(t) =
/2
(t) alors,
y(t) = x(t) w(t)
Y (f) = X(f) W(f)
Le fenetrage en temps correspond `a une convolution des spectres en frequence,
Y (f) =

2
sinc[(f f
0
)] +sinc[(f +f
0
)]
IUP Avignon Traitement du signal J.-P.Costa
4.1 Filtrage des signaux `a temps continu 27
4.1.5 Analyse blocsdiagrammes
Tres souvent un syst`eme general est decompose en sous syst`emes, series, parall`eles ou
boucles. Si chaque sous syst`eme est equivalent `a un ltre, alors il a une fonction de transfert
frequentielle. Chaque fonction de transfert individuelle doit tenir compte des autres sous
syst`emes, ou bien etre isolee des blocs suivants.
Fonctions elementaires que lon peut trouver :
Multiplication par un scalaire (fonction gain)
y(t) = K x(t) H(f) = K
Derivation
y(t) =
d x(t)
dt
H(f) = j2f
Integration
y(t) =
_
t

x(u) du H(f) =
1
j2f
Retard pur
y(t) = x(t t
0
) H(f) = ej2ft
0
4.1.6 Filtre sans distorsion
On a vu quun ltre (syst`eme lineaire continu, invariant dans le temps) modiait lamplitude
et la phase des composantes sinusoidales du singal dentree. En ltrage de signal, ceci peut
etre voulu lorsque par exemple, on cherche `a eliminer certaines frequences.
En transmission de signal au contraire on souhaite transmettre un signal dun point `a un
autre, sans distorsion. On suppose que le canal de transmission peut etre modelise idealement
par un syst`eme lineaire invariant dans le temps (cest `a dire un ltre). On denit le ltre
sans distorsion, commme un ltre qui apporte un gain K et un retard t
0
au signal dentree
IUP Avignon Traitement du signal J.-P.Costa
28 Chapitre 4. Filtrage
x(t),
y(t) = K x(t t
0
)
Y (f) = K ej2ft
0
X(f)
H(f) = K ej2ft
0
Le gain du ltre est K et la phase est Arg(H(f) = 2ft
0
.
Pour realiser un ltre sans distorsion il faut un gain constant f et une phase egale `a une
fonction negative de la frequence. Ceci est irrealisable physiquement car h(t) est un dirac.
En fait dans la pratique on souhaite ces deux conditions seulement pour les frequences ou
le signal dentree a un contenu spectral. On dit que la bande passante du ltre doit contenir
les supports frequentiels des signaux `a lentree du ltre.
Remarque : loreille humaine est sensible `a la distorsion de phase.
4.1.7 Exercices
- Soit le signal periodique s(t) deni par s(t) = A cos(2f
0
t +
0
)
1. Donner la fonction dautocorrelation C
ss
() et la densite spectrale de puissance de
s(t).
2. Soit la sortie du ltre h(t) denie par y(t) = h(t) x(t) = x(t) x(t T)
(a) Quel est le signal de sortie si le signal dentree x(t) est un dirac (t).
(b) Calculer la reponse en frequence du ltre H(f).
(c) Calculer |H(f)|
2
et en deduire C
hh
().
3. On consid`ere maintenant que lentree x(t) = s(t).
(a) Calculer la fonction dautocorrelation C
yy
() de y(t).
(b) En deduire la puissance moyenne du signal de sortie.
(c) Calculer la densite spectrale du signal de sortie y(t).
(d) En deduire la puissance moyenne du signal de sortie, par P
y
=
_
+


yy
(f) df
IUP Avignon Traitement du signal J.-P.Costa
4.1 Filtrage des signaux `a temps continu 29
- Soit le signal x
0
(t) denit par
x
0
(t) =
_

_
A pour 0 t
A pour t 2
0 ailleurs
avec = 2 s et A = 1 V .
1. Dessiner ce signal.
2. Donner lenergie de ce signal.
3. Calculer et tracer la fonction dautocorrelation de x
0
(t), C
x
0
x
0
().
- Soit un signal x(t) reel non nul pour 0 < t < t
1
et de fonction dautocorrelation C
xx
().
Soit y(t) la sortie dun ltre lineaire de reponse impulsionnelle h(t). On dit quun ltre est
adapte au signal x(t) si h(t) = x(t
1
t).
1. Calculer dans ce cas y(t) et lexprimer en fonction de C
xx
().
2. Pour quelle valeur de t, la sortie y(t) est-il maximal? On utilisera une propriete des
fonctions dautocorrelation.
- Soit le signal v(t) =

+
n=

/2
(t nT)
1. Tracer ce signal.
2. Calculer la transformee de Fourier V (f) de ce signal
-Soit le signal y(t) = Av(t) x(t) avec x(t) = cos(2f
0
t)
1. Tracer ce signal.
IUP Avignon Traitement du signal J.-P.Costa
30 Chapitre 4. Filtrage
2. Calculer la transformee de Fourier de ce signal en utilisant la convolution de V (f) et
X(f).
4.2 Transmission de signaux
4.2.1 Signaux `a bande limitee
On a jusqu`a present consideree des signaux detendue spectrale innie et utilise des mod`eles
mathematiques, mais ces signaux ne sont pas physiques.
Considerons un signal s(t) `a transmettre dont le spectre, calcule par la TF est S(f). Pour
un signal physique reel on denit une frequence min f
m
et une frequence max f
M
telles
quon consid`ere que le spectre S(f) est negligeable ou nul au del`a : ceci forme le support
spectral. Par exemple en telephonie on consid`ere que f
m
= 300 Hz et f
M
=3400 Hz, alors
quen haute delite f
m
= 20 Hz et f
M
=20000 Hz.
La transmission de ce signal seectue sur un canal de transmission necessairement imparfait
et qui laisse passer certaines frequences et pas dautres. On parle de bande passante du canal
de transmission. Le canal de transmission peut etre un cable metallique, une bre optique
ou encore le milieu aerien (ondes hertziennes).
signal passe-bas
Le signal a pour support [B, B] avec f
m
= 0 et f
M
= B. Ce signal est aussi appele signal
en bande de base ou signal basse frequence.
signal passe bande
Un signal reel est passe bande si le support de sa TF est borne et ne contient pas la frequence
0. On peut trouver une frequence f
p
appelee frequence porteuse et une frequence B appelee
demi largeur de bande qui contiennent f
m
= f
0
B et f
M
= f
0
+B. Si f
0
B on parle de
signaux bande etroite.
IUP Avignon Traitement du signal J.-P.Costa
4.2 Transmission de signaux 31
Le support spectral du signal s(t) doit etre compris dans la bande passante du canal de
transmission. Il y a deux types de transmission:
1. la transmission en bande de base,
2. la transmission par modulation.
4.2.2 Transmission en bande de base
On ne fait rien, les signaux sont transmis dans leur support spectral original qui est adapte
`a la bande passante du canal.
4.2.3 Transmission par modulation
On transpose la support spectral des signaux dans la bande passante du canal de transmis-
sion. Ceci se fait par modulation. Si on appelle y
p
(t) = A cos(2f
p
t +
p
) londe porteuse,
il existe trois types de modulation
si A varie en fonction de x(t) Modulation damplitude
si f
p
varie en fonction de x(t) Modulation de frequence
si varie en fonction de x(t) Modulation de phase
La transmission par modulation permet daugmenter les distances de propagation.
4.2.4 Denition dun ltre de Hilbert
On appelle ltre de Hilbert, le ltre de fonction de transfert
Q(f) = j sign(f)
Le gain en frequence est egal `a 1. Les frequences positives sont dephasees de 90

, alors que
les frequences negatives sont dephasees de +90

. Le ltre de Hilbert est un dephaseur pur


de

2
appele aussi ltre en quadrature.
IUP Avignon Traitement du signal J.-P.Costa
32 Chapitre 4. Filtrage
Calcul de la reponse impulsionnelle
La TF de s(t) = sign(t) est egale `a S(f) =
1
jf
. A partir du theor`eme de dualie :
s(t)
TF

S(f)
S(t)
TF

s(f)
on peut ecrire,
h(t) =
1
t
comme h(t) nest pas causal, Q(f) nest pas realisable physiquement.
Transformee de Hilbert
On denit la transformee de Hilbert x(t) comme la sortie dun ltre quadratique,
x(t) =
1

_
+

x(t

)
t t

dt

X(f) = j sign(f) X(f)


Cette integrale pose des probl`emes pour t = t

, aussi on prend la valeur principale au sens


de Cauchy,
x(t) =
1

_
lim
0

_
t+

x(t

)
t t

dt

+ lim
0
+
_
+
t+
x(t

)
t t

dt

_
4.2.5 Signal analytique associe `a un signal reel
Lidee est de dire que comme un signal x(t) reel poss`ede un spectre X(f) `a symetrie hermi-
tienne X(f) = X

(f) la connaissance de X(f) pour f > 0 est susante pour caracteriser


ce signal reel x(t).
On denit le signal analytique z
x
(t) associe au signal reel x(t) comme etant le signal complexe
IUP Avignon Traitement du signal J.-P.Costa
4.2 Transmission de signaux 33
z
x
(t) tel que son spectre Z
x
(f) soit denit comme suit,
Z
x
(f) = 2X(f) si f > 0
= 0 si f < 0
Remarques
z
x
(t) est forcement complexe car son spectre nest pas `a sysmetrie hermitienne.

Z
x
(f) = 2 u(f) X(f) u: fonction Heaviside
Z
x
(f) = [1 + j(j sign(f))]X(f)
Z
x
(f) = X(f) +j Q(f) X(f)
par Fourier inverse,
z
x
(t) = x(t) + j x(t)
puisque le spectre de z
x
(t) est nul pour f < 0
z
x
(t) = 2
_
+
0
X(f) e
j2ft
dt
passage de z
x
(t) `a x(t) : x(t) = [z
x
(t)]
ltrage de signaux analytiques, y(t) = h(t) x(t) donne z
y
(t) = h(t) z
x
(t).
4.2.6 Enveloppe complexe des signaux bande etroite
On rappelle quun signal bande etroite est un signal passe bande reel tel que f
0
B. Pour
ces signaux on denit lenveloppe complexe
x
(t) dun signal bande etroite x(t) associee `a
la frequence f
0
, le signal complexe en bande de base tel que,

x
(f) = Z
x
(f +f
0
)
(On ram`ene le signal passe bande en bande de base).
IUP Avignon Traitement du signal J.-P.Costa
34 Chapitre 4. Filtrage
4.2.7 Amplitude et phase instantanees dun signal bande etroite

x
(t) est un signal complexe,

x
(t) = a
x
(t) e
j
x
(t)
x(t) = a
x
(t) cos(2f
0
t +
x
(t))
avec a
x
(t) lamplitude instantanee du signal passe bande x(t), et est la phase instantanee.
On interprete un signal bande etroite x(t) autour de la frequence f
0
comme une sinusode
de frequence f
0
dont lamplitude et la phase instantanee varient lentement par rapport `a f
0
.
IUP Avignon Traitement du signal J.-P.Costa
35
Deuxi`eme partie
Etude des signaux discrets
IUP Avignon Traitement du signal J.-P.Costa
36 Chapitre 1. Lechantillonnage
Chapitre 1 Lechantillonnage
1.1 Notion dechantillonnage
On appelle echantillonnage dun signal analogique x(t) le fait de prelever reguli`erement (tous
les T
e
secondes) les valeurs x(k T
e
). Le signal x(k T
e
) est le signal echantillonne `a la periode
dechantillonnage T
e
. La frequence f
e
=
1
T
e
est appelee frequence dechantillonnage.
Un signal echantillonne quantie sappelle un signal numerique. La quantication permet
de passer de valeurs continues en amplitude `a des valeurs discr`etes. Un convertisseur A/N
(Analogique/Numerique) realise lechantillonnage et la quantication dun signal analogique
(continue en temps et en amplitude).
On va voir les conditions `a respecter pour reconstituer le signal analogique `a partir de ses
echantillons du signal echantillonne sans perte dinformation.
La perte dinformation est dautant plus faible que la quantication est ne. Lerreur de
0 0.002 0.004 0.006 0.008 0.01 0.012 0.014 0.016 0.018 0.02
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
x(t)=sin(wt)
temps (t)
Signal analogique
0 0.002 0.004 0.006 0.008 0.01 0.012 0.014 0.016 0.018 0.02
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
x(kTe)=sin(wkTe)
temps (kTe)
Signal echantillonne
0 0.002 0.004 0.006 0.008 0.01 0.012 0.014 0.016 0.018 0.02
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
Conversion en signal binaire
temps (kTe)
Conversion numerique
IUP Avignon Traitement du signal J.-P.Costa
1.2 Echantillonnage parfait 37
quantication est modelise comme un bruit aleatoire,
x(kT
e
) = s
q
(kT
e
) + e(kT
e
)
1.2 Echantillonnage parfait
1.2.1 Denition
Lechantillonnage parfait est realise par la multiplication du signal analogique par un peigne
de dirac, cest `a dire, une suite de diracs separes par T
e
de poids 1 qui multiple le signal de
spectre [B,B].
On denit le signal echantillonne x
e
(t) par :
x
e
(t) = x(t) (t)
= x(t)
+

k=
(t kT
e
)
=
+

k=
x(t) (t kT
e
)
=
+

k=
x(kT
e
) (t kT
e
)
On rappelle que la fonction correspond au peigne de dirac et que
TF[(t)] = (f) = F
e
+

k=
(f kF
e
)
alors X
e
(f) secrit
X
e
(f) = X(f) F
e
+

k=
(f kF
e
)
X
e
(f) = F
e
+

k=
X(f kF
e
)
IUP Avignon Traitement du signal J.-P.Costa
38 Chapitre 1. Lechantillonnage
Le spectre du signal echantillonne X
e
(f) sobtient en perodisant avec une periode T
e
=
1
F
e
le
spectre X(f). Echantillonner dans le temps revient `a periodiser dans lespace des frequences.
Il y a un probl`eme lorsque F
e
< 2B. En eet, dans ce cas il y a repliement des spectres ou
recouvrement ou aliasing. Ceci implique quon ne peut plus reconstruire X(f) `a partir
de X
e
(f) et donc x(t) `a partir de x(kT
e
). Dans le cas ou Fe 2B, pour obtenir X(f) `a
partir de X
e
(f), il sut de ltrer x
e
(t) par un ltre passe bas ideal de reponse en frequences
H(f) = T
e

F
e
(f) (h(t) = sinc(F
e
t).
1.2.2 Theor`eme dechantillonnage en bande de base
Un signal x(t) denergie nie dont le spectre est `a support sur [B,B] (signal en bande
de base) peut etre echantillonne tous les T
e
sans perte dinformation `a condition que le
frequence dechantillonnage
F
e
>
1
T
e
2B
Sans perte dinformation signie quon peut reconstruire x(t) instant t, `a partir de la suite
innie des echantillons x(kT
e
). La frequence minimale dechantillonnage F
e
= 2B sappelle
la frequence de Nyquist.
H(f) correspond `a la reponse en frequence du ltre passe bas ideal,
y(t) = x
e
(t) h(t)
y(t) =
+

k=
x(kT
e
) (t kT
e
) sinc(F
e
t)
y(t) =
+

k=
x(kT
e
) sinc (F
e
(t kT
e
))
Cette derni`ere equation correspond `a la formule dinterpolation de Shannon.
1.3 Echantillonnage regulier
Lechantillonnage ideal nest pas realisable mais lechantillonnage regulier (ou par bloqueur
de duree ) correspond au cas pratique.
IUP Avignon Traitement du signal J.-P.Costa
1.4 Filtre anti-repliement 39
x
e
(t) =
+

k=
x(kT
e
)

(t kT
e
)
x
e
(t) =
+

k=
x(kT
e
) (t kT
e
)

(t)
x
e
(t) = x(t)
+

k=
(t kT
e
)

(t)
X
e
(f) = X(f)
_
F
e
+

k=
(f kF
e
)
_
( sinc(f))
X
e
(f) = F
e
sinc(f)
+

k=
X(f kT
e
)
Pour retrouver le spectre X(f) on multiplie par un ltre passe bas ideal de largeur F
e
et il
faut multiplier par linverse dun sinc si on veut compenser et retrouver X(f).
1.4 Filtre anti-repliement
Pour de nombreux signaux physiques, X(f) nest pas connu parfaitement. De plus, il existe
toujours un bruit de fond additionnel d u au milieu de mesure (capteur, circuit dampli-
cation). Donc, on eectue un ltrage passe bas appele preltrage du signal avant son
echantillonnage pour supprimer tout repliement spectral.
Si lon desire observer le spectre dun signal jusqu`a la frequence F
max
, il est souhaitable de
prendre une frequence dechantillonnage F
e
= nF
max
avec n 2.
Un signal de TF `a support borne a un support temporel inni donc on a besoin de tous
les echantillons de kT
e
de `a + an de reconstruire le signal x(t). On ne peut pas
reconstruire en temps reel, il faudra le faire de facn approchee. En pratique pour transmettre
la parole par telephone on ltre entre [300 Hz, 3400 Hz], on echantillonne `a 8000 Hz et on
quantie sur 8 bits/echantillons ce qui correspond `a 64000 b/s. Pour un compact disc avec
du son stereo on ltre entre [0 et 20 000 Hz], on echantillonne `a 44,1 kHz.
IUP Avignon Traitement du signal J.-P.Costa
40 Chapitre 1. Lechantillonnage
1.5 Interpolation par le bloqueur dordre 0
Le probl`eme est de reconstituer x(t) `a partir de ses echantillons x(kt
e
). Une realisation
possible est le bloqueur dordre 0. La reconstitution `a laide dun bloqueur dordre 0 est
la plus employee car elle realisee par les convertisseurs N/A `a lentree desquels les valeurs
numeriques sont maintenues pendant la periode dechantillonnage.
IUP Avignon Traitement du signal J.-P.Costa
41
Chapitre 2
Signaux deterministes `a
temps discret
On consid`ere les signaux `a temps discret comme des suites de nombres x(k) C avec
k Z. Ces signaux sont issus generalement de lechantillonnage `a la frequence f
e
=
1
T
e
de
signaux temporels x(t) analogiques et les nombres x(k) representent les echantillons x(kT
e
).
2.1 Signaux `a temps discret elementaires
Impulsion unite
_
_
_
(k) = 1 si k = 0
= 0 si k = 0
Attention (k) ne doit pas etre confondu avec la distribution de dirac (t).
Lechelon unite
_
_
_
u(k) = 1 si k 0
= 0 si k < 0
La porte de longueur N
_
_
_

N
(k) = 1 si 0 k N/2 1
= 0 si k N/2
IUP Avignon Traitement du signal J.-P.Costa
42 Chapitre 2. Signaux deterministes `a temps discret
2.2 Proprietes des signaux `a temps discret
Periodicite
Un signal x(k) est periodique de periode N N

si N est le plus petit entier tel que


x(k) = x(k +N) k
Energie
On denit lenergie par
E
x
=
+

k=
|x(k)|
2
Puissance moyenne
On denit la puissance moyenne par
P
x
= lim
N
1
2N + 1
+N

k=N
|x(k)|
2
Signaux `a energie nie, `a puissance moyenne nie
Si on a 0 < E
x
< alors P
x
= 0
Si on a 0 < P
x
< alors E
x
=
Fonction dautocorrelation dun signal
`a energie nie
C
xx
() =
+

k=
x(k)x

(k )
`a puissance moyenne nie
C
xx
() = lim
N
1
2N + 1
+N

k=N
x(k)x

(k )
IUP Avignon Traitement du signal J.-P.Costa
2.3 Transformee de Fourier des signaux `a temps discret 43
periodique
C
xx
() =
1
T
0
+T
0
/2

k=T
0
/2
x(k)x

(k )
Fonction dintercorrelation
`a energie nie
C
xy
() =
+

k=
x(k)y

(k )
`a puissance moyenne nie
C
xy
() = lim
N
1
2N + 1
+N/2

k=N/2
x(k)y

(k )
Produit de convolution
y(k) = x(k) h(k) = h(k) x(k) =
+

u=
h(u)x(k u) =
+

u=
x(u)h(k u)
2.3 Transformee de Fourier des signaux `a temps dis-
cret
2.3.1 Denition
X(f) =
+

k=
x(k) e
j2kf
X(f + 1) =
+

k=
x(k) e
j2k(f+1)
X(f + 1) =
+

k=
x(k) e
j2kf
= X(f)
IUP Avignon Traitement du signal J.-P.Costa
44 Chapitre 2. Signaux deterministes `a temps discret
Donc X(f) est periodique de periode 1. Les x(k) sont les coecients de la serie de
Fourier de X(f) de periode 1,
x(k) =
1
1
_
1/2
1/2
X(f) e
j2kf
df
Lintervalle [-1/2,1/2] est appele intervalle principal.
Attention le spectre X(f) du signal `a temps discret x(k) est `a la frequence continue et de
periode F
0
= 1.
2.3.2 Exemple
Calcul de la TF de x(k) =
N
(k),
X(f) =
+

k=
x(k) e
j2kf
X(f) =
N1

k=0
e
j2kf
X(f) =
1 e
j2pifN
1 e
j2f
X(f) = e
jf(N1)
sin(fN)
sin(f)
2.4 Proprietes de la transformee de Fourier
Linearite Z[ax(k) +by(k)] = aX(z) +bY (z)
Theor`eme de la modulation TF[x(k) e
j2f
0
k
] = X(f f
0
)
Relation de Parseval E
x
=

+
k=
|x(k)|
2
=
_
1/2
1/2
|X(f)|
2
df
TF dun produit TF[x(k)y(k)] =
_
1/2
1/2
X(f

)Y (f f

)df

= X(f) Y (f)
IUP Avignon Traitement du signal J.-P.Costa
2.5 Transformee de Fourier discr`ete dun signal discret 45
0.5 0.4 0.3 0.2 0.1 0 0.1 0.2 0.3 0.4 0.5
0
2
4
6
8
10
12
14
16
18
20
sin(pi f N)/sin(pi f)
N sinc(N f)
2.5 Transformee de Fourier discr`ete dun signal discret
La TF dun signal discret est
X(f) = X(e
j2f
) =
+

k=
x(k) e
j2kf
X(f) est periodique de periode 1. De plus, la TF inverse donne
_
1/2
1/2
X(f) e
j2fk
df
Inconvenients : f varie de facon continue, on ne peut donc pas limplanter sur un calculateur
numerique. Il faut une innie de x(k). En pratique on peut :
1. prendre un nombre ni N dechantillons x(k) choisis de facon `a conserver les valeurs
importantes du signal k = 0, . . . ,N 1,

X(f) =
N1

k=0
x(k)e
j2kf
2. et discretiser la frequence f sur [0,1[. On choisit = 1/N, cest `a dire f
n
= n/N pour
n = 0, . . . ,N 1.
IUP Avignon Traitement du signal J.-P.Costa
46 Chapitre 2. Signaux deterministes `a temps discret

X(
n
N
) =
N1

k=0
x(k) e
j2k
n
N
avec n = 0, . . . ,N 1
On obtient ainsi N valeurs

X(0),

X(1/N), . . . ,

X(N 1/N) correspondant `a la transformee
de Fourier discr`ete (TFD).
Par denition la TFD est une application lineaire qui `a N valeurs complexes (x(0), . . . ,x(N
1)) associe N valeurs complexes (X
0
, . . . ,X
N1
) et on note
X
n
=
N1

k=0
x(k) e
j2k
n
N
avec n = 0, . . . ,N 1
La suite X
n
est une suite periodique de periode N.
La TFD inverse donne
x(k) =
1
N
N1

n=0
X
n
e
j2k
n
N
avec k = 0, . . . ,N 1
2.5.1 Remarques
La TFD represente les valeurs echantillonnees de la TF dun signal discret de duree
nie, x
0
, . . . ,x(N 1).
Si x(k) nest pas de duree nie, on a les valeurs echantillonnees de la TF du signal
discret x(k)
N
(k),
N
(k) etant le fenetre rectangulaire de longueur N. Ceci entrane
des oscillations dans la TF et lutilisation de fenetres de ponderation g(k) pour les
faire disparatre (Hamming, Hanning).
La TFD ne represente les valeurs echantillonnees de la TF dun signal `a temps continu
x(t) que si x(t) est `a duree limitee [0,NT
e
] et si sa TF X(f) `a un spectre `a bande
limitee [
1
2T
e
,
1
2T
e
]. Comme il nexiste pas de signaux `a duree et `a bande limitee, on
commet une erreur systematique en considerant les X
n
comme des echantillons de la
TF X(f) .
IUP Avignon Traitement du signal J.-P.Costa
2.6 Fenetres de ponderation 47
0 100 200 300 400 500 600 700 800 900 1000
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
5.5
TF pour N=256
Frquence
N = 256
0 100 200 300 400 500 600 700 800 900 1000
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
5.5
TF pour N=260
Frquence
N = 260
0 100 200 300 400 500 600 700 800 900 1000
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
5.5
TF pour N=266
Frquence
N = 266
2.5.2 Exemple
On cherche `a determiner la TFD X
n
du signal
x(k) = A cos(2
f
0
f
e
k)
X
n
=
N1

k=0
x(k) e
j2k
n
N
avec n = 0, . . . ,N 1
Signal reel le module du spectre est une fonction paire
Signal echantillonnee le module du spectre est une fonction periodique (f
e
)
TFD frequences discr`etes
Signal `a support borne
multiplication en temps=convolution en frequence
2.6 Fenetres de ponderation
Nous allons dans ce paragraphe, decrire plusieurs fenetres de ponderation, en montrer les
avantages et leur limites.
Bien que ce ne soit pas une r`egle generale, dans ce paragraphe, les fenetres etudiees seront
placees symetriquement autour de lorigine pour simplier les calculs. Les resultats etablis
dans ce cas pourront etre modies aisement pour dautres positions `a laide du theor`eme du
retard.
IUP Avignon Traitement du signal J.-P.Costa
48 Chapitre 2. Signaux deterministes `a temps discret
80 90 100 110 120 130 140
0.2
0
0.2
0.4
0.6
0.8
1
1.2
Temps
Fentre rectangulaire
0.5 0.4 0.3 0.2 0.1 0 0.1 0.2 0.3 0.4 0.5
0
5
10
15
20
Frquences
1/N
Module de la transformee de Fourier
80 90 100 110 120 130 140
0.2
0
0.2
0.4
0.6
0.8
1
1.2
Temps
Fentre rectangulaire
0.5 0.4 0.3 0.2 0.1 0 0.1 0.2 0.3 0.4 0.5
300
250
200
150
100
50
0
50
Frquences
Module de la transformee de Fourier en dB
2.6.1 Fenetre rectangulaire
La mani`ere brutale de limiter la duree dun signal est de le multiplier par un signal rectan-
gulaire (fonction Porte), possedant N echantillons unites. Au niveau spectral cette multi-
plication revient `a convoluer la TF de x(t) par la TF de la fonction porte. Cette operation
de convolution a pour eet dintroduire des ondulations dans le spectre.
En r`egle generale la resolution en frequence sera dautant meilleure que :
le lobe principale (central) est etroit,
les lobes secondaires (lateraux) sont bas.
Malheureusement la reduction en hauteur des lobes secondaires saccompagne toujours de
lelargissement du lobe principal. Il faut donc accepter un compromis entre ces deux eets.
2.6.2 Fenetre de Hamming
Lequation de la fenetre de Hamming est donne par la relation suivante pour = 0.54 :
_
_
_
w(k) = + (1 ) cos(2k/N)) pour |k| N/2
= 0 ailleurs
(2.1)
IUP Avignon Traitement du signal J.-P.Costa
2.6 Fenetres de ponderation 49
0 2 4 6 8 10 12 14 16 18 20
0.2
0
0.2
0.4
0.6
0.8
1
1.2
Temps
Fentre de Hamming
0.5 0.4 0.3 0.2 0.1 0 0.1 0.2 0.3 0.4 0.5
60
40
20
0
20
40
Frquences
Remarque
La fenetre de Hanning est obtenue pour = 1/2 dans lequation 2.1.
2.6.3 Fenetre de Kaiser
Une autre famille de fonctions fenetre a ete proposee par Kaiser. Elle permet selon la valeur
dun param`etre , de specier dans le domaine des frequences le compromis entre la largeur
de lobe principal et lamplitude des lobes secondaires. Une caracteristique importante ce
cette famille de ranee de fenetres est quil est possible dobtenir de fortes attenuations
des lobes secondaires tout en conservant une largeur minimale pour la pic central. La forme
generale de cette fonction est la suivante :
_
_
_
w(k) =
I
0[

N
2
4k
2
]
I
0
(N)
pour |k| N/2
= 0 ailleurs
(2.2)
o` u I
0
est la fonction de Bessel de premi`ere esp`ece dordre zeros et o` u caracterise lechange
denergie entre le pic central et les lobes secondaires. La largeur du pic central augmente
avec .
IUP Avignon Traitement du signal J.-P.Costa
50 Chapitre 2. Signaux deterministes `a temps discret
0 2 4 6 8 10 12 14 16 18 20
0.6
0.7
0.8
0.9
1
1.1
Temps
Fentre de Kaiser
0.5 0.4 0.3 0.2 0.1 0 0.1 0.2 0.3 0.4 0.5
60
40
20
0
20
40
Frquences
= 0.8
0 2 4 6 8 10 12 14 16 18 20
0.2
0.4
0.6
0.8
1
Temps
Fentre de Kaiser
0.5 0.4 0.3 0.2 0.1 0 0.1 0.2 0.3 0.4 0.5
60
40
20
0
20
40
Frquences
= 2
2.6.4 Exemple
On gen`ere un signal compose de deux sinusodes de frequence 200 et 400 Hz, echantillonne
`a 8000 Hz et ayant 512 points. On calcule la TF de ce signal apres multiplication par
une fenetre rectangulaire, de Hamming et de Kaiser. la resolution en frequence est donc
f
e
N
= 16Hz.
2.7 La transformee de Fourier rapide
La transformee de Fourier rapide ou FFT (Fast Fourier Transform) est une technique de
calcul rapide de la TFD. Lalgorithme de base, utilise un nombre de points N = 2
p
et son
gain en temps par rapport `a un calcul direct est de lordre de N/log
2
(N). Pour N = 1024,
la FFT est donc environ 100 fois plus rapide.
IUP Avignon Traitement du signal J.-P.Costa
2.7 La transformee de Fourier rapide 51
0 0.01 0.02 0.03 0.04 0.05 0.06 0.07
4
3
2
1
0
1
2
3
4
5
x=2*cos(2*pi*200*t)+3*cos(2*pi*400*t)
Temps
0 100 200 300 400 500 600 700 800 900 1000
0
0.5
1
1.5
Fentre rectangulaire
Frquences
0 100 200 300 400 500 600 700 800 900 1000
0
0.5
1
1.5
Fentre hamming
Frquences
0 100 200 300 400 500 600 700 800 900 1000
0
0.5
1
1.5
Fentre kaiser
Frquences
IUP Avignon Traitement du signal J.-P.Costa
52
Troisi`eme partie
Etude des signaux aleatoires
IUP Avignon Traitement du signal J.-P.Costa
53
Chapitre 1 Rappels sur les probabilites
1.1 Introduction
Jusqu`a present, nous avons parle des signaux deterministes dans letude des syst`emes
lineaires invariant dans le temps, sans mentionner le role important que jouent les phenom`enes
aleatoires en traitement du signal et plus particuli`erement en telecommunications.
En eet, le mod`ele deterministe ne convient plus a expliquer tous les phenom`enes qui peuvent
se produire dans une chane de transmission par exemple.
1.2 Probabilites
1.2.1 Denitions
Une experience est dite aleatoire si lon ne peut prevoir son resultat, le lancer de des, le jeu
de pile ou face.
Lensemble S de tous les resultats possibles dune experience aleatoire est appele uni-
vers a cette experience. Chaque resultat dun tirage aleatoire correspond `a une epreuve.
Un ensemble depreuves constitue un evenement. On dit quun evenement est lie `a une
experience si pour tout resultat appartenant `a S on sait dire si cet evenement a eu lieu ou
non. Lassociation de nombres reels aux evenements denis sur S constitue une mesure de
probabilite.
IUP Avignon Traitement du signal J.-P.Costa
54 Chapitre 1. Rappels sur les probabilites
1.2.2 Denitions complementaires
le complementaire dun evenement A, note A, est levenement constitue de lensemble
des elements de S qui nappartient pas `a A.
Lunion des evenements A et B, note AB est levenement constitue de des elements
qui appartiennent `a A, `a B, ou les deux `a la fois.
Lintersection des evenements A et B, notee A B, se compose de lensemble des
evenements qui appartiennent simultanement `a A et B.
Levenement qui ne contient aucun element est dit evenement nul, note .
Deux evenements sont disjoints sils nont aucun point commun, cest `a dire si AB =
.
Si tout point de A appartient `a B, on dit que A est un sous-ensemble de B, et on le
note par A B.
1.2.3 Alg`ebre des evenements
A A = S,
A A = ,
A S = A,
(A B) = A B,
(A B) = A B,
Les operations dunion et dintersection poss`edent les proprietes suivantes :
Commutativite : A B = B A,A B = B A.
Associativite : A (B C) = (A B) C, A (B C) = (A B) C.
Distributivite : A (B C) = (A B) (A C), A (B C) = (A B) (A C)
1.2.4 Probabilite dun evenement
Denition classique
Une denition classique, postule que la probabilite dun evenement A a pour expression:
IUP Avignon Traitement du signal J.-P.Costa
1.2 Probabilites 55
P(A) =
N
A
N
o` u N est le nombre de resultats possibles et N
A
le nombre de resultats faisant partie de
levenement A. Notons que dans cette denition, tous les resultats sont supposes equiprobables.
Denition axiomatique
La probabilite dun evenement A, notee P(A), est un nombre reel associe `a A qui satisfait
`a lensemble des axiome suivants :
Axiome 1 : P(A) 0
Axiome 2 : P(S) = 1
Axiome 3 : P(A B) = P(A) + P(B) si A B =
A partir de ces trois axiomes, on peut etablir les proprietes suivantes, toutes tr`es interessantes :
P(A) 1, il sen suit que P(A) = 1 P(A),
P() = 0,
P(A) P(B) si A B,
P(A B) = P(A) + P(B) P(A B).
Probabilite conditionnelle
La probabilite conditionnelle dun evenement A par rapport `a levenement B, note P(A|B),
a pour denition:
P(A|B) =
P(A B)
P(B)
(1.1)
o` u P(B) = 0 et P(A B) est la probabilite conjointe de A et B. On peut en deduire la loi
de Bayes :
P(B|A) =
P(A|B) P(B)
P(A)
(1.2)
o` u P(B|A) est la probabilite conditionnelle de B par rapport `a A.
IUP Avignon Traitement du signal J.-P.Costa
56 Chapitre 1. Rappels sur les probabilites
Evenements independants
Deux evenements A et B sont dits statistiquement independants si et seulement si :
P(A B) = P(A)P(B)
alors lequation 1.1 devient :
P(A|B) = P(A)
Soit A
1
,A
2
, . . . ,A
n
un ensemble devenements denis sur S. Ces n evenements sont dits
mutuellement independants si et seulement si
P(A
i
A
j
) = P(A
i
)P(A
j
)
P(A
i
A
j
A
k
) = P(A
i
)P(A
j
)P(A
k
)
.
.
.
P(A
i
A
j
. . . A
k
) = P(A
i
)P(A
j
) . . . P(A
n
)
Probabilite totale
Soit N evenements A
1
,A
2
, . . . ,A
N
mutuellement exclusifs constituant exhaustivement len-
semble S, cest `a dire veriant les conditions suivantes :
A
i
A
j
= i = j = 1,2, . . . N
et
A
1
A
2
. . . A
N
= S
Soit B un evenement quelconque deni sur S. Alors :
P(B) =
N

k=1
P(B A
k
) =
N

k=1
P(B|A
k
)P(A
k
)
que lon appelle probabilite totale de levenement B.
IUP Avignon Traitement du signal J.-P.Costa
1.3 Variables aleatoires reelles 57
1.3 Variables aleatoires reelles
Une variable aleatoire (VA) X() (en majuscule) est une fonction qui associe un nombre
reel, appele valeur x (en minuscule) de X(), `a chaque epreuve de S en respectant les
conditions suivantes :
Lensemble { : X() x} est un evenement pour tout nombre reel x.
P{ : X() = } = 0 et P( : X() ) = 1
Si X ne peut prendre quun ensemble denombrable de valeurs distinctes, on dit que X est
une variable aleatoire discr`ete. Si X peut prendre une valeur quelconque sur un ou plusieurs
intervalles de la droite reelle, alors X est une variable aleatoire continue.
Le nombre dappels telephoniques arrivant `a un bureau est une variable aleatoire discr`ete,
alors que la date exacte de larrivee dun de ces appels est une variable aleatoire continue.
1.3.1 Histogramme
Dans la majorite des cas, on peut associer `a un evenement une mesure qui est un nombre
reel, par exemple une mesure de longueur ou de temperature. Pour caracteriser la variable,
on commence par decouper lintervalle des reels en segments [x
k
,x
k+1
]. Puis, on eectue N
mesures et on construit un histogramme. Pour cela on compte le nombre de fois n
k
o` u le
resultat de la mesure x appartient `a chacun de ces segments. On tient compte du fait que
les segments couvrent laxe des reels et sont disjoints et on denit la probabilite
proba(x [x
k
,x
k+1
[) = lim
N
n
k
N
(1.3)
On reduit la taille des intervalles en faisant tendre leur nombre vers linni.
1.3.2 Fonction de repartition
On denit la fonction de repartition de la variable aleatoire X comme etant la probabilite
que X soit strictement inferieure `a x:
F
X
(x) = P(X < x) pour tout x variant de `a + (1.4)
IUP Avignon Traitement du signal J.-P.Costa
58 Chapitre 1. Rappels sur les probabilites
1.5 1 0.5 0 0.5 1 1.5
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
Valeurs de x
Nb doccurences de x
Fig. 1.1 Exemple dhistogramme
Cest une fonction non decroissante qui peut presenter des paliers et des discontinuites. Elle
tend vers 0 lorsque x et 1 lorsque x +.
Les proprietes de F
X
(x) sont les suivantes :
F
X
() = 0,
F
X
() = 1,
0 F
X
(x) 1,
F
X
(x
1
) F
X
(x
2
) si x
1
x
2
,
P{x
1
< X x
2
} = F
X
(x
2
) F
X
(x
1
).
Exemples
Le premier exemple correspond `a la fonction de repartition dun signal de type gaussien.
Le second exemple consiste a etudier le lancer de de (6 faces). La variable aleatoire est une
variable aleatoire discr`ete et si le de nest pas truque on a
F
X
(x) =
6

i=1
P(x
i
)u(x x
i
)
IUP Avignon Traitement du signal J.-P.Costa
1.3 Variables aleatoires reelles 59
1.5 1 0.5 0 0.5 1 1.5
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1
0
0.2
0.4
0.6
0.8
1
valeur de x
Fonction de rpartition
soit
2 1 0 1 2 3 4 5 6 7 8
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Fonction de rpartition pour le lancer de d
1.3.3 Densite de probabilite
La probabilite que x appartienne `a lintervalle [x
k
,x
k
+dx[ est
IUP Avignon Traitement du signal J.-P.Costa
60 Chapitre 1. Rappels sur les probabilites
proba(x [x
k
,x
k
+dx[) = dF
X
(x)
proba(x [x
k
,x
k
+dx[) = p
X
(x)dx
avec F
X
(x) dierentiable et p
X
(x) correspond `a la densite de probabilite (ddp) de la variable
aleatoire X et a donc pour denition:
p
X
(x) =
dF
X
(x)
dx
(1.5)
Cest une fonction non negative, mais ce nest pas une probabilite, elle nest pas
necessairement inferieur `a un.
les proprietes de p
X
(x) sont les suivantes :
p
X
(x) 0,

_
+

p
X
(x)dx = 1,
F
X
(x) =
_
x

p
X
()d,
P{x
1
< X x
2
} =
_
x
2
x
1
p
X
(x)dx
Dans le cas dune variable aleatoire discr`ete, on a :
p
X
(x) =

i
P(x
i
)(x x
i
) (1.6)
On peut estimer la densite de probabilite en construisant un histogramme pour lequel le
pas dechantillonnage de laxe des reels est inniment grand. Dans lexemple de la gure
suivante, le nombre dechantillons est de 1000, 10000 et enn 100000.
IUP Avignon Traitement du signal J.-P.Costa
1.4 Lois de repartition particuli`eres 61
1.5 1 0.5 0 0.5 1 1.5
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
N=1000
1.5 1 0.5 0 0.5 1 1.5
0
0.01
0.02
0.03
0.04
0.05
0.06
N=10000
1.5 1 0.5 0 0.5 1 1.5
0
0.01
0.02
0.03
0.04
0.05
0.06
N=100000
Fig. 1.2 Convergence de lhistogramme vers la densite de probabilite
1.4 Lois de repartition particuli`eres
1.4.1 Loi de Bernouilli x
La loi de Bernouilli x prend la valeur 0 avec la probabilite r et la valeur 1 avec la probabilite
(1-r). Sa densite de probabilite secrit :
p
X
(x) =

i
P(x
i
)(x x
i
) = r(x) + (1 r)(x 1)
1.4.2 Loi de poisson
Cette loi correspond `a la loi que lon obtient en comptant des evenements aleatoires independants :
arrivee dune particule sur un capteur, decompte des appels sur un central telephonique,
comptage de voitures sur une route, etc. Cest la loi centrale des etudes sur les les dattente
dans les reseaux de communication. Elle depend dun param`etre qui caracterise le debit
moyen du ux. La probabilite dobserver k evenements pendant une duree t est donne par
p
X
(x,t) =
(t
k
)
k!
e
t
(1.7)
pour k 0 et t 0 et o` u 0! = 1.
IUP Avignon Traitement du signal J.-P.Costa
62 Chapitre 1. Rappels sur les probabilites
0 0.5 1 1.5 2 2.5 3
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Densit de probabilit
k=0
k=1
k=2
k=3
k=4
t
Fig. 1.3 Densite de probabilite p(k,t) de la loi de poisson
1.4.3 Loi uniforme
On dit quune variable aleatoire X suit une loi uniforme si elle prend ses valeurs uniquement
dans lintervalle [a,b[ et que sa densite de probabilite vaut
p
X
(x) =
1
b a
(1.8)
En eet, la densite de probabilite correspond est une constante dans lintervalle [a,b[.
_
+

p
X
(x) dx = 1
_
b
a
p
X
dx = 1
p
X
=
1
b a
Sa fonction de repartition est composee de 3 segments de droites.
Pour x < a, p
X
(x) = 0 donc F
X
(x) = 0,
IUP Avignon Traitement du signal J.-P.Costa
1.4 Lois de repartition particuli`eres 63
pour [a,b[,
F
X
(x) =
_
x

p
X
(u)du
F
X
(x) =
_
x
a
1
b a
du
F
X
(x) =
x a
b a
pour x b, F
X
(x) = 1
3 2 1 0 1 2 3
0.2
0
0.2
0.4
0.6
x
Densit de probabilit
3 2 1 0 1 2 3
0.2
0
0.2
0.4
0.6
0.8
1
1.2
Fonction de rpartition
x
a=0.5
a=0.5
b=1.5
b=1.5
Fig. 1.4 Loi uniforme
1.4.4 Loi normale ou gaussienne
On dit quune variable aleatoire X suit une loi normale si sa densite de probabilite a pour
expression:
p
X
(x) =
1

2
e

(xm
x
)
2
2
2
x
(1.9)
La densite de probabilite passe par son maximum pour x = m
x
. Cette loi presente plusieurs
caracteristiques importantes :
Cette loi joue un role fondamental dans letude des phenom`enes aleatoires que lon
IUP Avignon Traitement du signal J.-P.Costa
64 Chapitre 1. Rappels sur les probabilites
rencontre dans les syst`emes physiques. La plupart des processus aleatoires naturels
sont pratiquement gaussiens. De plus, dapr`es le theor`eme central limite (cf paragraphe
1.8), la somme dun grand nombre de variables aleatoires, sous certaines conditions
suit une loi normale.
Tout linformation est donnee directement par la moyenne m
x
et la variance
x
de la
variable aleatoire X. 95 % des valeurs de x sont contenues dans lintervalle [x2,x+
2].
Elle permet des developpements mathematiques ecaces.
m
x

x
1/(2)
0.5

4 = 95%
Fig. 1.5 Loi normale
1.5 Moyennes statistiques
Souvent on peut caracteriser une variable aleatoire uniquement par des informations par-
tielles comme la valeur moyenne de la variable aleatoire et sa dispersion autour de cette
valeur moyenne (variance).
IUP Avignon Traitement du signal J.-P.Costa
1.5 Moyennes statistiques 65
1.5.1 Esperance mathematique
On appelle moyenne statistique (ou moment dordre 1), la quantite E est appelee esperance
mathematique :
E[X] = m
x
=
_
+

xp
X
(x) dx (1.10)
Si X est une variable aleatoire discr`ete, `a partir de la relation 1.6, il vient :
E[X] = m
x
=
_
+

x
_

i
P(x
i
)(x x
i
)
_
dx =

i
x
i
P(x
i
) (1.11)
Dans le cas o` u les probabilites sont uniformement reparties, cest-`a-dire lorsque P(x
i
) =
1
N
pour i = 1, . . . ,N, la relation 1.11 devient :
E[X] = m
x
=
1
N
N

i=1
x
i
(1.12)
ce qui donne la moyenne arithmetique des x
i
.
1.5.2 Fonction dune variable aleatoire
Lesperance mathematique de Y = g(X) a pour expression:
E[Y ] =
_
+

y p(y)dy
soit
E[Y ] = E[g(X)] =
_
+

g(x)p(x)dx
Si X est une variable aleatoire discr`ete :
E[Y ] =

i
g(x
i
)P(x
i
)
1.5.3 Fonction de deux variables aleatoires
Lesperance mathematique de Z = g(X,Y ) a pour expression:
IUP Avignon Traitement du signal J.-P.Costa
66 Chapitre 1. Rappels sur les probabilites
E[Z] = E[g(X,Y )] =
_
+

_
+

g(x,y)p(x,y)dxdy
Si X et Y sont des variables aleatoires discr`etes alors :
E[Z] = E[g(X,Y )] =

k
g(x
i
,y
k
)P(x
i
,y
k
)
o` u P(x
i
,y
k
) = P[X = x
i
,Y = y
k
]
1.5.4 Remarques
On notera que lesperance mathematique est un operateur lineaire :
E[X +Y ] = E[X] + E[Y ] (1.13)
E[cX] = c E[X] (1.14)
o` u c est une constante.
1.5.5 Moments et variance
Le moments dordre n de la variable aleatoire X a pour expression:
M
n
= E[X
n
] =
_
+

x
n
p(x)dx (1.15)
Le moment dordre centre n de X a pour denition:
E[(X m
x
)
n
] =
_
+

(x m
x
)
n
p
X
(x) dx (1.16)
avec m
x
= E[X].
Le moment centre dordre 2 de X est appele variance de X, soit :
var[X] =
2
x
= E[(X m
x
)
2
] (1.17)
IUP Avignon Traitement du signal J.-P.Costa
1.5 Moyennes statistiques 67
La racine carre de la variance, notee
x
, est appelee ecart type de X. La variance est une
mesure de la dispersion des valeurs de X autour de sa valeur moyenne m
x
.

2
x
= E[X
2
2m
x
X +m
2
x
] = E[X
2
] 2m
x
E[X] +m
2
x
= E[X
2
] m
2
x
(1.18)
4 2 0 2 4 6 8 10 12
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
Densit de probabilit
0 50 100 150 200 250 300 350 400 450 500
2
0
2
4
6
8
10
12
Signal alatoire de loi gaussienne

2
x
= 4, m
x
= 4
3 4 5 6 7 8 9 10
0
0.02
0.04
0.06
0.08
0.1
0.12
Densit de probabilit
0 50 100 150 200 250 300 350 400 450 500
3
4
5
6
7
8
9
10
Signal alatoire de loi gaussienne

2
x
= 1, m
x
= 6
Fig. 1.6 Illustration de la moyenne et de la variance dune variable aleatoire gaussienne
1.5.6 Fonction caracteristique
La fonction caracteristique dune variable aleatoire X a pour denition:

X
(u) = E[e
juX
] =
_
+

e
juX
p
X
(x) dx (1.19)
o` u u est une variable reelle. Cette fonction passe par un maximum `a lorigine et verie la
propriete :
|
X
(u)|
X
(0) = 1
IUP Avignon Traitement du signal J.-P.Costa
68 Chapitre 1. Rappels sur les probabilites
1.6 Moments conjoints et covariance
Un des objectifs fondamentaux du calcul des probabilites est detablir un lien eventuel entre
plusieurs resultats dexperiences. On est ainsi amene `a etudier le comportement conjoint de
plusieurs variables aleatoires comme le poids et la taille des individus dun groupe, ou bien
lage des conjoints dun couple, etc.
1.6.1 Repartition conjointe
Soit deux variables aleatoires X et Y denies sur S. On denit F
XY
(x,y), la fonction de
repartition conjointe de X et Y , de la facon suivante :
F
XY
(x,y) = P(X x,Y y) (1.20)
Les evenements se composent de toutes les epreuves de S pour lesquelles on a simul-
tanement X() x et Y () y.
La densite de probabilite conjointe de X et Y a pour expression:
p
XY
(x,y) =

2
xy
F
XY
(x,y) (1.21)
ce qui implique que p
XY (x,y)
0
1.6.2 Repartition marginale
Les fonctions F
X
(x) et F
Y
(y) sont appelees fonction de repartition de probabilite marginales :
F
X
(x) = F
XY
(x,) (1.22)
F
Y
(y) = F
XY
(,y) (1.23)
Les densite de probabilite marginales p
X
(x) et p
Y
(y) ont pour expression :
IUP Avignon Traitement du signal J.-P.Costa
1.6 Moments conjoints et covariance 69
p
X
(x) = F

X
(x) =
_
+

p
XY
(x,y)dy (1.24)
p
Y
(y) = F

Y
(y) =
_
+

p
XY
(x,y)dx (1.25)
(1.26)
1.6.3 Repartition conditionnelle
La fonction de repartition conditionnelle de X par rapport `a levenement A a pour denition:
F
X
(x|A) = P(X x|A) =
P(X x,A)
P(A)
avec P(A) = 0 (1.27)
o` u P(X x,A est la probabilite de levenement conjoint X x A.
La densite de probabilite conditionnelle de X par rapport `a A a pour denition:
p
X
(x|A) =
dF
X
(x|A)
dx
(1.28)
Soit X et Y deux variables aleatoires denies sur S. La densite de probabilite conditionnelle
de X par rapport `a levenement Y = y a pour valeur :
p
X|Y
=
p
XY
(x,y)
p
Y
(y)
avec p
Y
(y) = 0 (1.29)
o` u p
Y
(y) est la densite de probabilite marginale de Y .
1.6.4 Variables aleatoires independantes
Deux variables aleatoires X et Y sont independantes si :
F
XY
(x,y) = F
X
(x) F
Y
(y)
ou encore :
p
XY
(x,y) = p
X
(x) p
Y
(y)
IUP Avignon Traitement du signal J.-P.Costa
70 Chapitre 1. Rappels sur les probabilites
et p
X|Y
= p
X
(x)
Soit X et Y deux variables aleatoires de probabilite conjointe p
XY
(x,y).
1.6.5 Correlation
La correlation de X et de Y , que lon note R
XY
, et qui a pour expression:
R
XY
= E[XY ] =
_
+

_
+

xy p
XY
(x,y) dxdy (1.30)
1.6.6 Covariance
La covariance de X et de Y , notee C
XY
, se denit comme suit :
C
XY
= E[(X m
x
)(Y m
y
)] (1.31)
En developpant la relation, on obtient :
C
XY
= E[XY ] E[X] E[Y ] = R
XY
m
x
m
y
(1.32)
1.6.7 Coecient de correlation
Le coecient de correlation de X et Y a pour denition:
==
C
XY

y
(1.33)
o` u
x
,
y
sont respectivement les ecarts types de X et Y . On peut montrer que || 1, il
sen suit que |C
XY
|
x

y
.
Si deux variables aleatoires X et Y sont non correlees si et seulement si C
XY
= 0. Dans ce
cas
E[XY ] = E[X] E[Y ] (1.34)
IUP Avignon Traitement du signal J.-P.Costa
1.7 Changement de variables 71
1.6.8 Evenements orthogonaux
Deux evenements sont dits orthogonaux (au sens de la correlation)si :
R
XY
= E[XY ] = 0 (1.35)
1.6.9 Variables conjointement gaussiennes
Les variables X et Y sont dites conjointement normales si leur probabilite conjointe a pour
expression:
p
XY
(x,y) =
1
2
x

y
_
1
2
e

(
xm
x

x
)
2
2
(
xm
x

x
)

ym
y

ym
y

(1.36)
Cette formule fait apparatre les variances de chacune des deux variables, leur moyenne, ainsi
que leur coecient de correlation. Si le coecient de correlation est nul ( = 0), p
XY
(x,y)
secrit comme le produit
p
XY
(x,y) =
_
1

2
e

(xm
x
)
2
2
2
x
_
_
1

2
e

(ym
y
)
2
2
2
y
_
(1.37)
Les variables sont donc independantes. La gure 1.7 represente p
XY
(x,y) pour m
x
= 0,

x
= 3, m
y
= 1 et
y
= 1).
1.7 Changement de variables
1.7.1 Fonction de variables aleatoires
Etant donne une variable aleatoire X et une fonction g(x), lexpression
Y = g(X)
constitue une autre variable aleatoire dont la fonction de repartition est :
F
Y
(y) = P(Y y) = P(g(X) y) (1.38)
IUP Avignon Traitement du signal J.-P.Costa
72 Chapitre 1. Rappels sur les probabilites
5
0
5
5
0
5
0
0.02
0.04
0.06
x
p(x,y) de variables alatoires gaussiennes
y
Fig. 1.7 Densite de probabilite dun couple de VA gaussiennes
1.7.2 Determination de la densite de probabilite
Pour trouver la densite de probabilite p
Y
(y), on resout lequation y = g(x). En designant
par x
k
les racines reelles de lequation y g(x) = 0, on a :
p
Y
(y) =

k
p
X
(x)
|g

(x
k
)|
(1.39)
o` u g

(x) est la derivee de g(x).


1.7.3 Formule de changement de variables
Denition
Soit deux variables aleatoires X
1
et X
2
de densite de probabilite conjointe p
X
1
X
2
(x
1
x
2
) et
deux fonctions g
1
(x
1
,x
2
) et g
2
(x
1
,x
2
), considerons les deux variables aleatoires suivantes :
_
_
_
Y
1
= g
1
(X
1
,X
2
)
Y
2
= g
2
(X
1
,X
2
)
et supposons que la transformation soit bijective : `a tout couple (y
1
,y
2
) donne, il existe alors
IUP Avignon Traitement du signal J.-P.Costa
1.7 Changement de variables 73
une solution unique (x
1
,x
2
) qui secrit :
_
_
_
y
1
= g
1
(x
1
,x
2
)
y
2
= g
2
(x
1
,x
2
)

_
_
_
x
1
= h
1
(y
1
,y
2
)
x
2
= h
2
(y
1
,y
2
)
Dans ce cas la densite de probabilite des variables aleatoires (Y
1
,Y
2
) a pour expression:
p
Y
1
Y
2
(y
1
,y
2
) = p
X
1
X
2
(h
1
(y
1
,y
2
),h
2
(y
1
,y
2
)) |J(y
1
,y
2
)| (1.40)
o` u J(y
1
,y
2
) represente le Jacobien de la transformation deni par :
J(y
1
,y
2
) = det

h
1
(y
1
,y
2
)
y
1
h
1
(y
1
,y
2
)
y
2
h
2
(y
1
,y
2
)
y
1
h
2
(y
1
,y
2
)
y
2

(1.41)
Plutot dutiliser directement la formule 1.40 pour calcule la densite de probabilite, il est
parfois avantageux de revenir `a la denition de la fonction de repartition de (Y
1
,Y
2
) en
determinant dans le plan (x
1
,x
2
) le domaine qui verie {g
1
(x
1
,x
2
) y
1
} et {g
2
(x
1
,x
2
) y
2
},
puis integrer sur ce domaine le fonction p
X
1
X
2
(x
1
,x
2
). Pour obtenir la densite de probabilite,
il sut ensuite de deriver successivement par rapport `a y
1
et y
2
suivant la formule 1.21.
Exemple
Considerons deux variables aleatoires X et Y de densite de probabilite conjointe p
XY
(x,y)et
soit `a calculer la densite de probabilite de la variable aleatoire Z = X + Y . Pour cela
considerons la transformation (x,y) (t,z)denie par :
_
_
_
t = x
z = x +y

_
_
_
x = t
y = z t
Le Jacobien de la transformation secrit :
J(t,z) =

x
t
x
z
y
t
y
z

1 0
1 1

= 1
IUP Avignon Traitement du signal J.-P.Costa
74 Chapitre 1. Rappels sur les probabilites
et donc
p
Z
(t,z) = |J(t,z)|p
XY
(x,y) = p
XY
(t,z t)
On en deduit la densite de probabilite de Z en integrant sur t (calcul de la loi marginale) :
p
Z
(z) =
_
+

p
XY
(t,z t)dt
Dans le cas o` u X et Y sont des variables aleatoires independantes, p
XY
(x,y) est `a variables
separees et p
Z
(z) prend la forme dun produit de convolution entre p
X
(x) et p
Y
(y) :
p
Z
(z) =
_
+

p
X
(t)p
Y
(z t)dt (1.42)
1.8 Somme dun grand nombre de variables aleatoires
independantes
La somme dun grand nombre de variables aleatoires independantes de meme loi tend vers
une variable gaussienne. On peut generaliser ce resultat au cas o` u les variables aleatoires ne
sont pas de meme loi et partiellement independantes. Ce qui justie lutilisation des variables
aleatoires gaussiennes pour representer les phenom`enes aleatoires relativement complexes.
1.9 Exercices
1.9.1 Variables aleatoires, fonctions de repartition et densites
I. La densite de probabilite dune variable aleatoire X a pour expression :
p
X
(x) =
_
_
_
k pour x [a
1
,a
2
[
0 ailleurs
o` u k est une constante.
Determiner la valeur de k.
Soit a
1
= 1 et a
2
= 2. Evaluer la proba(|X| 1/2).
IUP Avignon Traitement du signal J.-P.Costa
1.9 Exercices 75
II. La densite de probabilite de X a pour expression:
p
X
(x) = ke
ax
u(x)
o` u a est une constante positive. Determiner la valeur de la constante k et dessiner
p
X
(x).
III. La probabilite conjointe de X et Y a pour expression:
p
XY
(x,y) = ke
(ax+by)
u(x)u(y)
o` u a et b sont des constantes positives. Determiner la valeur de k.
IV. La probabilite conjointe de X et Y a pour expression:
p
XY
(x,y) = xy e
(x
2
+y
2
)/2
u(x)u(y)
Evaluer les densites de probabilite marginales p
X
(x) et p
Y
(y).
X et Y sont-ils independants?
1.9.2 Moyennes statistiques
I. Soit Y = aX + b. Montrer que si la moyenne de X est m
x
et sa variance
2
x
, alors,
m
y
= am
x
+b et
2
y
= a
2

2
x
.
II. En utilisant lequation 1.39, evaluer et tracer p
Y
(y) pour Y = X
2
, lorsque X suit une
loi gaussienne avec m
x
= 0 et
2
x
= 1.
III. Calculer la covariance de X et Y :
lorsque X et Y sont independants.
lorsquil existe entre X et Y la relation Y = aX +b.
IUP Avignon Traitement du signal J.-P.Costa
76 Chapitre 2. Signaux aleatoires
Chapitre 2 Signaux aleatoires
2.1 Introduction
Il existe de nombreux signaux naturels ou articiels, comme les signaux de parole issu
dun micro, la consommation delectricite, un signal binaire de transmission, ou encore la
temperature journali`ere releve `a midi.
Dans ces exemples, on ne peut pas predire exactement lechantillon suivant avant de lavoir
observe. On ne peut donc pas considerer ces signaux comme deterministes ou il est dicile de
trouver un mod`ele mathematique devolution, ou les variations nes ne sont pas interessantes
ou le signal est trop important `a memoriser. Pour toutes ces raisons, on modelise ce signal
x(k) comme la realisation dun processus aleatoire X(k). On ignorera les valeurs instantanees
du signal pour sinteresser aux valeurs statistiques (valeur moyenne, variance, fonction dau-
tocorrelation,...).
Lanalyse spectrale de processus aleatoire fait appel aux valeurs statistiques. Un processus
stochastique X(t) est une variable aleatoire indexee par le param`etre continu t alors que le
processus X(t) peut-etre continu ou discret. Un processus stochastique a une energie innie
et lanalyse spectrale est obtenue en prenant la TF de la fonction dautocorrelation, cest la
densite spectrale de puissance. On traitera dans la suite de ce cours, des processus aleatoires
stationnaires au second ordre et ergodiques.
IUP Avignon Traitement du signal J.-P.Costa
2.2 Les moments temporels, les relations de base 77
0 20 40 60 80 100 120 140 160 180 200
2
1
0
1
2
E
p
r
e
u
v
e

1
Processus stochastique
0 20 40 60 80 100 120 140 160 180 200
0
0.5
1
E
p
r
e
u
v
e

2
0 20 40 60 80 100 120 140 160 180 200
10
5
0
5
10
E
p
r
e
u
v
e

3
Fig. 2.1 Processus stochastique
2.2 Les moments temporels, les relations de base
2.2.1 Moyenne temporelle
On appelle moyenne temporelle, la quantite :
x(t) = lim
T
1
T
_
T/2
T/2
x(t) dt
2.2.2 Autocorrelation temporelle
On appelle autocorrelation temporelle, la quantite :
x(t) x(t +) = R
xx
() = lim
T
1
T
_
T/2
T/2
x(t)x(t +) dt
IUP Avignon Traitement du signal J.-P.Costa
78 Chapitre 2. Signaux aleatoires
2.3 Caracteristiques statistiques dun processus aleatoire
2.3.1 Moyenne statistique
Denition
On appelle moyenne statistique, la quantite E appele esperance mathematique :
E[X(t)] = m
x
(t) =
_
+

x p(x,t) dx (2.1)
o` u p(x,t) correspond `a la densitete de probabilite de la variable aleatoire X(t).
2.3.2 Autocorrelation, autocovariance statistiques
On appelle autocorrelation statistique, la quantite :
R
xx
(t
1
,t
2
) = E[X(t
1
) X(t
2
)] =
_ _
+

x
1
x
2
p(x
1
,x
2
; t
1
,t
2
) dx
1
dx
2
(2.2)
avec p(x
1
,x
2
; t
1
,t
2
) la densite de probabilite conjointe des deux variables aleatoires X(t
1
) et
X(t
2
).
On deni egalement la fonction dautocovariance statistique par :
C
xx
(t
1
,t
2
) = E[(X(t
1
) m
x
(t
1
)) (X(t
2
) m
x
(t
2
))] (2.3)
ainsi que la variance (t
1
= t
2
) par Var[X(t)] = E[(X(t) m
x
(t))
2
] =
2
2.4 Stationnarite, Ergodicite
2.4.1 Stationnarite au sens strict
Un processus aleatoire X(t) est dit stationnaire au sens strict si ses proprietes statistiques
sont invariantes lorsquon change lorigine des temps :
p(x
1
,x
2
, . . . ,x
n
; t
1
,t
2
, . . . ,t
n
) = p(x
1
,x
2
, . . . ,x
n
; t
1
+c,t
2
+c, . . . ,t
n
+c) (2.4)
IUP Avignon Traitement du signal J.-P.Costa
2.4 Stationnarite, Ergodicite 79
quel que soit c.
2.4.2 Processus aleatoire stationnaire au second ordre
Un processus aleatoire est stationnaire au sens large (au second ordre) ssi :
1. La moyenne E[X(t)] est independante du temps :
E[X(t)] = m
x
= cste .
2. La fonction dautocorrelation ne depend que de = t
2
t
1
:
R
xx
(t
1
,t
2
) = R
xx
()
Dans ce cas la fonction dautocovariance est donnee par
C
xx
() = R
xx
() m
2
x
Dans le cas ou X(t) est centre m
x
= 0 et R
xx
() = C
xx
()
Exemple
Soit x(t) = Acos(t + ) un processus aleatoire o` u A et sont deterministes et est une
variable aleatoire equirepartie entre [0,2]. Calculer E[x(t)] ainsi que la fonction dauto-
correlation R
xx
(t1,t2).
2.4.3 Processus ergodique
Un processus aleatoire est ergodique `a lordre n si les moyennes temporelles jusqua lordre
n sont independantes du choix de la realisation. De plus, si les resultats obtenus `a partir des
moyennes statistiques sont equivalents `a ceux obtenus `a partir des moyennes temporelles,
alors le processus est ergodique.
Un processus stationnaire du second ordre est ergodique si R
xx
() = R
xx
()
IUP Avignon Traitement du signal J.-P.Costa
80 Chapitre 2. Signaux aleatoires
2.5 Correlation
Dans la suite on suppose que les processus stochastiques sont stationnaires au sens large.
2.5.1 Autocorrelation statistique
Lautocorrelation de X(t) a pour valeur,
R
xx
() = E[X(t)X(t +)] (2.5)
Proprietes
Les proprietes de R
xx
()
fonction paire, R
xx
() = R
xx
(),
maximum en 0, |R
xx
()| R
xx
(0) = E[X
2
(t)],
2.5.2 Intercorrelation statistique
On denit la fonction dintercorrelation de 2 processus aleatoires stationnaires X(t) et Y (t)
par :
R
xy
() = E[X(t) Y (t +)] (2.6)
avec R
xy
() = R
yx
().
Dans le cas o` u les processus sont ergodiques, on denit
R
xy
() = R
xy
() = lim
T
1
T
_
T/2
T/2
x(t) y(t +) dt
Les transformees de Fourier de R
xy
et de R
yx
sont appelees densites interspectrales de
puissance.
IUP Avignon Traitement du signal J.-P.Costa
2.6 Analyse spectrale des processus aleatoires 81
2.5.3 Autocovariance
Dans ce cas la fonction dautocovariance est donnee par
C
xx
() = E[(X(t) E[X(t)])(X(t +) E[X(t +)])] (2.7)
C
xx
() = R
xx
() m
2
x
(2.8)
2.5.4 Intercovariance
Lintercovariance de X(t) et Y (t) a pour expression:
C
xy
() = E[(X(t) E[X(t)])(Y (t +) E[Y (t +)])] (2.9)
C
xy
() = R
xy
() m
x
m
y
(2.10)
Les deux processus stochastiques X(t) et Y (t) sont dit mutuellement orthogonaux si R
xy()
=
0.
Les deux processus stochastiques X(t) et Y (t) sont dit non correles lorsque
C
xy
() = 0.
2.6 Analyse spectrale des processus aleatoires
2.6.1 Densite spectrale de puissance
La densite spectrale de puissance dun processus aleatoire stationnaire est la transformee de
Fourier de sa fonction dautocorrelation statistique :
R
xx
()
TF

xx
(f) =
_
+

R
xx
() e
j2f
d (2.11)
(relation de WienerKhintchine)
La densite interspectrale de puissance
xy
ou
yx
correspond `a la transformee de Fourier de
R
xy
respectivement R
yx
.
IUP Avignon Traitement du signal J.-P.Costa
82 Chapitre 2. Signaux aleatoires
2.6.2 Le bruit blanc b(t)
Parmi les processus aleatoires, le bruit blanc revet une importance particuli`ere car il represente
le mod`ele de nombreux phenom`enes physiques. Le mot blanc prend son origine dans lana-
logie avec la lumi`ere blanche, dont la puissance est uniformement repartie sur laxe des
frequences.
Un bruit blanc b(t) de variance
2
b
est un signal aleatoire stationnaire au second ordre centre
(m
b
= 0) dont la fonction dautocorrelation statistique
R
xx
() = E[b(t) b(t +)] =
2
b
() (2.12)
do` u
R
xx
()
TF

(f) =
2
b
(2.13)
donc
E =
_
+

(f) df =
Le bruit blanc est un signal a energie et puissance innie.
2.6.3 Le bruit colore
Dans de nombreuses applications, les syst`emes rencontres ont une largeur de bande limitee
(B/2,B/2). On modelise souvent le bruit par un processus reel, dont la densite spectrale
de puissance est egale `a
2
b
dans cette bande et nulle partout ailleurs. Sa puissance est alors
B
2
b
. On parle dans ce cas de bruit colore.
2.7 Processus aleatoires particuliers
2.7.1 Sequences independantes et identiquement distribuees (i.i.d.)
Le mod`ele le plus simple de suite aleatoire est celui o` u toutes les variables de la suite ont la
meme loi et sont independantes.
IUP Avignon Traitement du signal J.-P.Costa
2.7 Processus aleatoires particuliers 83
Considerons un processus aleatoire X(t) et denissons n variables aleatoires X(t
1
),X(t
2
), . . . ,X(t
n
)
correspondant `a n instants de mesure t
1
,t
2
, . . . ,t
n
. On forme un vecteur aleatoire X (n1),
qui a pour denition:
X =
_

_
X(t
1
)
X(t
2
)
. . .
X(t
n
)
_

_
(2.14)
La loi de probabilite dune variable aleatoire de X, prise `a un instant n quelconque, est
independant de n: on dit alors que X est identiquement distribuee.
Quel que soit le nombre dinstants et quelle que soit la suite des instants les variables
aleatoires X(t
1
),X(t
2
), . . . ,X(t
n
) sont mutuellement independantes.
Une telle sequence est designee par sequence aleatoire i.i.d. (Independantes et Identiquement
Distribuees).
Le bruit blanc est un exemple de sequence i.i.d. centree.
2.7.2 Processus aleatoire gaussien
Soit le vecteur aleatoire denit par lequation 2.14 au paragraphe precedent. Soit x un
vecteur (n 1) ayant pour denition:
x =
_

_
x
1
x
2
. . .
x
n
_

_
(2.15)
Ce qui permet de noter {X x} levenement {X(t
1
) x
1
, . . . ,X(t
n
) x
n
}. X(t) est
par denition, un processus gaussien si X presente une densite multivariable conjointement
gaussienne pour tout ensemble ni de valeur t
i
et pour tout n.
La densite multivariable dun processus gaussien a pour expression:
p(x) =
1
(2)
n/2
| det C|
1/2
exp
_

1
2
(x-m)
t
C
1
(x-m)
_
(2.16)
IUP Avignon Traitement du signal J.-P.Costa
84 Chapitre 2. Signaux aleatoires
o` u t designe loperation de transposition matricielle, m est le vecteur moyenne, C est la
matrice de covariance, dexpression:
m = E[X] =
_

_
m
1
m
2
. . .
m
n
_

_
=
_

_
E[X(t
1
)]
E[X(t
2
)]
. . .
E[X(t
n
)]
_

_
(2.17)
C =
_

_
C
11
. . . C
1n
. . . . . . . . .
C
n1
. . . C
nn
_

_
(2.18)
o` u C
ij
= C
XX
(t
i
,t
j
) = R
XX
(t
i
,t
j
) m
i
m
j
expression qui represente la covariance de X(t
i
)
et X(t
j
), tandis que det C est le determinant de la matrice C. Les proprietes les plus
importantes dun processus gaussien sont enumerees ci-apr`es :
1. un processus gaussien est enti`erement deni par lensemble de ses moyennes m
i
ainsi
que par ses fonctions dautocorrelation R
XX
(t
i
,t
j
) avec i,j = 1, . . . ,n.
2. Si lensemble des variables aleatoires X(t
i
), ne presentent aucune correlation , cest `a
dire si C
ij
= 0 i = j, alors les X(t
i
) sont independants.
3. Si un processus gaussien X(t) est stationnaire au sens large, alors il lest au sens strict.
4. Si lon applique un processus gaussien `a lentree dun syst`eme lineaire, le processus
aleatoire en sortie est lui aussi gaussien.
2.8 Filtrage des processus aleatoires
2.8.1 Introduction
On se place dans le cas o` u les signaux etudies sont stationnaires au sens large et o` u le
syst`eme etudie est lineaire et invariant dans le temps.
IUP Avignon Traitement du signal J.-P.Costa
2.8 Filtrage des processus aleatoires 85
On a donc deni un sens `a la densite spectrale de puissance dun signal aleatoire pour
chaque frequence sans considerer la transformee de Fourier du signal x(t) lui-meme, mais la
transformee de Fourier de la fonction dautocorrelation.
Attention ceci est un mod`ele theorique cest `a dire que le calcul de (f) a une frequence
necessite le calcul de lautocorrelation R
xx
() de ] , +[. En pratique :
1. On echantillonne les variables x(k), R
xx
(k),
x(t) x(k) = x(kTe) : on na pas de perte dinformation si x(t) a une frequence max

f
e
2
(sinon on utilise un ltre antirepliement).
2. on consid`ere un intervalle ni dobservation.
Le probl`eme majeur est quil faut considerer que le signal reel est stationnaire sur une
longue periode. Ceci nest pas vrai et on dira que le signal est quasi-stationnaire sur
la preriode dobservation de N echantillons. On a seulement des estimes

R
xx
(k) de
R
xx
(k) et donc (f) sera entache derreur. De plus, on a un nombre ni de valeur de

R
xx
(k). Pour toute ses raisons on ne parle plus danalyse spectrale mais destimation
spectrale.
2.8.2 Les relations en discret
La fonction dautocorrelation statistique discr`ete du processus X(n) aleatoire stationnaire
discret est :
R
xx
(k) = E[X(n) X

(n +k)]
avec k ] , +[
La fonction dintercorrelation statistique entre deux processus X(n) et Y (n) aleatoires sta-
tionnaires est
R
xy
(k) = E[X(n) Y

(n +k)]
La densite spectrale de puissance dun processus aleatoire stationnaire est denie par la
transformee de Fourier de la fonction dautocorrelation statistique discr`ete R
xx
(k)

xx
(f) =
+

k=
R
xx
(k) e
j2fk
IUP Avignon Traitement du signal J.-P.Costa
86 Chapitre 2. Signaux aleatoires
La densite interspectrale de puissance est :

xy
(f) =
+

k=
R
xy
(k) e
j2fk
Un bruit blanc discret b(n) de variance
2
b
est un processus aleatoire stationnaire, centre,
dont les echantillons b(n) ne sont pas correles entre eux do` u
R
bb
(k)) =
2
b
(k)

bb
(k)) =
2
b
avec (k)) = 1 pour k = 0 et 0 si k = 0.
2.8.3 Filtre lineaire invariant dans le temps
Soit le signal de sortie y(n) issue dun syst`eme lineaire de reponse impulsionnelle h(n) excite
par un signal dentree aleatoire x(n). La convolution lineaire secrit alors,
y(n) =
+

l=
h(l) x(n l) = x(n) h(n)
Lautocorrelation du signal de sortie secrit
R
yy
(k) = E[y(n)y

(n +k)]
= E
__
+

l=
h(l) x(n l)
__
+

p=
h

(p) x

(n +k p)
__
=

l
h(l)

p
h

(p) R
xx
(k +n p n +l)
=

l
h(l)

u
h

(u +l) R
xx
(k u)
=

u
R
hh
(u) R
xx
(k u)
Finalement on a
R
yy
(k) = R
hh
(k) R
xx
(k) (2.19)
IUP Avignon Traitement du signal J.-P.Costa
2.9 Exercices 87
Par transformee de Fourier, on obtient

yy
(f) = |H(f)|
2

xx
(f)
Dans le cas ou x(n) est un bruit blanc, R
xx
(n) =
2
b
(n) alors,
yy
(f) =
2
b
|H(f)|
2
.
2.9 Exercices
2.9.1 Stationnarite
I. On consid`ere le processus aleatoire X(t) ayant pour denition:
X(t) = Acos(t) + Bsin(t)
o` u A et B sont des VA tandis que est une constante.
(a) Quelle est la condition sur E[X(t)] pour que X(t) soit stationnaire.
(b) Montrer que X(t) est stationnaire au sens large ssi A et B sont non correlees et
ont meme variance.
II. Montrer que si X(t) est stationnaire au sens large, on a la relation suivante :
E
_
(X(t +) X(t))
2
)

= 2[R
x
(0) R
x
()]]
2.9.2 Filtrage
1. On denit la fonction dintercorrelation entre deux signaux aleatoires discrets reels
par
R
yx
(k) = E[y(n)x(n k)]
On suppose que le signal y(n) est issu du ltrage de x(n) par un ltre numerique
lineaire stationnaire de reponse impulsionnelle h(n).
Donner la relation qui lie R
yx
(k), h(n) et R
x
(n) (fonction de correlation du signal
x(n)).
IUP Avignon Traitement du signal J.-P.Costa
88 Chapitre 2. Signaux aleatoires
2. On consid`ere un ltre numerique de reponse impulsionnelle h(n) denie par
h(n) =
_
_
_
b
n
pour n 0
0 pour n < 0
avec 0 < b < 1
Le signal dentree x(n) est un signal discret stationnaire centre de fonction dauto-
correlation
R
x
(k) = a
|k|
avec 0 < a < 1
On note y(n) le signal de sortie du ltre.
(a) Preciser pourquoi on a suppose que 0 < b < 1 et 0 < a < 1.
(b) Montrer que la densite spectrale de puissance de x(n) est egale `a :
S
x
(f) =
1 a
2
1 +a
2
2acos(2f)
(c) Montrer que la densite spectrale de puissance de y(n) est egale `a :
S
y
(f) =
1
1 + b
2
2bcos(2f)
S
x
(f)
(d) Calculer lintercorrelation R
yx
(k).
2.9.3 Processus aleatoires particuliers
Soit X un vecteur aleatoire gaussien `a n composantes independantes, selon la relation 2.7.2.
Montrer que la fonction de densite conjointe multivariable a pour expression:
p(x) =
1
(2)
n/2

n
i=1

i
exp
_

1
2
n

i=1
(
x
i
m
i

i
)
2
_
o` u m
i
= E[X
i
] et
2
i
= var(X
i
)
IUP Avignon Traitement du signal J.-P.Costa
89
Chapitre 3 Identication parametrique
3.1 La transformee en z
3.1.1 Denition
La transformee en z (bilaterale), X(Z), de x(n) est denie par la relation suivante :
X(Z) =
+

n=
x(n) Z
n
(3.1)
Z est une variable complexe et la fonction X(Z) poss`ede un domaine de convergence qui
en general est un anneau centree sur lorigine, de rayons R1 et R2. Cest dire que X(Z) est
denie pour R1 < |Z| < R2. Les valeurs de R1 et R2 dependent de la suite x(n).
Si la suite x(n) represente la suite des echantillons dun signal echantillonnes `a la periode
T, la transformation de Fourier de cette suite secrit :
X(f) =
+

n=
x(n) e
j2fnT
Ainsi pour Z = e
j2fT
la transformee en Z de la suite x(n) concide avec sa transformee de
Fourier. Cest `a dire que lanalyse dun syst`eme discret peut se faire avec la transformee en
Z et pour connatre la reponse en frequence, il sut de remplacer Z par e
j2fT
.
IUP Avignon Traitement du signal J.-P.Costa
90 Chapitre 3. Identication parametrique
3.1.2 Transformee en z unilaterale
Dans le cas des signaux et syst`emes causaux, on utilise la transformee en z unilaterale denie
pour n 0 :
X(z) =
+

n=0
x(n) Z
n
(3.2)
3.1.3 Fonction de transfert
Dans le cas dun ltre lineaire, on rappelle que la relation dentree (x(n)) sortie (y(n)) est
donnee par le produit de convolution suivant :
y(n) = h(n) x(n) =
+

i=
h(i) x(n i)
En prenant respectivement la transformee de Fourier et en z on obtient :
Y (f) = H(f)X(f) (3.3)
Y (Z) = H(Z)X(Z) (3.4)
H(Z) est appelee fonction de transfert du ltre et
H(f) =
+

n=
h(n) e
j2fn
est appele la reponse en frequence. On note que
h(n) =
_
1/2
1/2
H(f)e
j2fn
df (3.5)
Fonction de transfert dun syst`eme stable
Si le syst`eme est stable, alors sa reponse impulsionnelle est absolument sommable :
+

n=
|h(n)| <
IUP Avignon Traitement du signal J.-P.Costa
3.1 La transformee en z 91
Cette condition entrane que lanneau de convergence doit necessairement contenir le cercle
unite.
Fonction de transfert dun syst`eme causal stable
Si le syst`eme lineaire invariant est causal et stable, le cercle unite doit etre contenu dans
la region de convergence dun syst`eme causal. Par consequent, pour un syst`eme causal et
stable, la fonction de transfert converge `a linterieur dun cercle dont le rayon est en tout
cas plus petit que lunite. Ainsi, les poles de la fonction de transfert dun syst`eme lineaire
invariant causal et stable doivent se trouver `a linterieur du cercle unite.
On peut, par la position des poles dans ce plan, connatre immediatement si le syst`eme est
stable ou non.
3.1.4 Syst`emes denis par une equation aux dierences
Les syst`emes lineaires invariants dans le temps, les plus interessants sont les syst`emes o` u les
entrees sorties sont liees par une equation aux dierences lineaire `a coecients constants. En
eet, dune part ils correspondent `a des realisations simples et dautre part ils constituent
une excellente modelisation de nombreux syst`emes naturels.
Un syst`eme de ce type est deni par la relation suivante :
y(n) =
N

i=0
a
i
x(n i)
M

j=1
b
j
y(n j) (3.6)
En appliquant la transformation en z aux membres de cette equation, on obtient :
Y (Z) =
N

i=0
a
i
Z
i
X(Z)
M

j=1
b
j
Z
j
Y (Z) (3.7)
soit
Y (Z) = H(Z)X(Z)
avec
H(Z) =
a
0
+a
1
Z
1
+. . . +a
N
Z
N
1 +b
1
Z
1
+. . . +b
M
Z
M
(3.8)
IUP Avignon Traitement du signal J.-P.Costa
92 Chapitre 3. Identication parametrique
La fonction de transfert du syst`eme H(Z) est une fraction rationnelle. Les a
i
et les b
j
sont
les coecients du syst`eme. Certains coecients du syst`eme peuvent etre nuls. Pour faire
apparatre la reponse en frequence, il sut de remplacer dans H(Z), la variable Z par e
j2f
.
En mettant en evidence les racines des deux polynomes, on peut exprimer H(Z) par :
H(Z) =
N(Z)
D(Z)
= a
0

N
i=1
(Z Z
i
)

M
j=1
(Z P
j
)
(3.9)
Les Z
i
et P
j
sont respectivement les zeros et les poles de la fonction de transfert H(Z).
Lanalyse dun syst`eme par sa reponse en frequence correspond `a un fonctionnement en
regime permanent; elle est susante dans la mesure o` u les phenom`enes transitoires peuvent
etre negliges. Si ce nest pas le cas il faut introduire les conditions initiales.
3.1.5 Filtres a reponse impulsionnelle nie
Les ltres numeriques `a reponse impulsionnelle nie (RIF) sont des syst`emes lineaires dis-
cret invariants dans le temps denis par une equation selon laquelle un nombre de sortie,
representant un echantillon du signal ltre, est obtenu par la somme ponderee dun ensemble
ni de nombres dentree, representant les echantillons du signal `a ltrer. Les coecients de
la sommation constituent la reponse impulsionnelle du ltre. Ce ltre est du type `a memoire
nie, cest `a dire quil determine sa sortie en fonction dinformations dentree danciennete
limitee.
Lequation dentreesortie est donnee par lequation:
y(n) =
N

i=0
a
i
x(n i) (3.10)
Le ltre ainsi deni comporte un nombre N ni de coecients a
i
. Considere comme un
syst`eme discret, il a pour reponse `a la suite unitaire la suite h(i) telle que
_
_
_
h(i) = a
i
si 0 i N 1
h(i) = 0 ailleurs
Cest `a dire que la reponse impulsionnelle est simplement la suite des coecients.
IUP Avignon Traitement du signal J.-P.Costa
3.1 La transformee en z 93
La fonction de transfert du ltre secrit :
H(f) =
N1

i=0
a
i
e
2ifT
(TF) (3.11)
H(Z) =
N1

i=0
a
i
Z
i
(TZ) (3.12)
La fonction H(f) est une fonction periodique, de periode fe =
1
T
. Les coecients a
i
consti-
tuent le developpement en serie de Fourier de cette fonction:
N1

i=0
|a
i
|
2
=
1
fe
_
fe
0
|H(f)|
2
df (3.13)
3.1.6 Exemples
Filtre en cosinusode
Soit x(t) represente par ses echantillons x(nT), preleves `a la frequence fe = 1/T. Soit la
relation dentree sortie suivante :
y(nT) = 1/2 [x(nT) +x((n 1)T)]
Si Y (f) et X(f) designent les transformees de Fourier des signaux y(t) et x(t), il vient
Y (f) = 1/2X(f)(1 + e
2ifT
)
La fonction de transfert secrit donc :
H(f) = e
ifT
cos(fT)
Cest une operation de ltrage, qui conserve la composante continue et elimine la composante
`a la frequence fe/2. Dans lexpression de H(f), le terme complexe e
2ifT/2
caracterise un
retard = T/2 qui est le temps de propagation du signal `a travers le ltre.
IUP Avignon Traitement du signal J.-P.Costa
94 Chapitre 3. Identication parametrique
La reponse impulsionnelle h(t) qui correspond au ltre de fonction de transfert |H(f)|
secrit :
h(t) = 1/2 [(t +T/2) +(t T/2)]
0
0.2
0.4
0.6
0.8
1
1.2
|H(f)|
fe/2 fe/2 fe
f
Filtre en cosinusode
0
0.2
0.4
0.6
0.8
1
1.2
|H(f)|
fe/2 fe/2 fe
f
Filtre en cosinusode surelevee
Filtre en cosinusode surelevee
Soit lequation recurrente suivante :
y(nT) = 1/4 [x(nT) + 2x[(n 1)T] +x[(n 2)T]]
Comme le ltre precedent, il conserve la composante continue et elimine celle `a fe/2. Elle
correspond `a la fonction de transfert :
H(f) = 1/4(1 + 2e
2if2T
+ e
2if2T
) =
e
2ifT
2
(1 + cos(2fT))
Le ltre obtenu est dit en cosinusode surelevee; son temps de propagation est = T. La
reponse impulsionnelle est donne par :
h(t) = 1/4 [(t +T) + 2(t) +(t T)]
Ce ltre est un passe-bas plus selectif que le precedent et il apparat clairement que pour
IUP Avignon Traitement du signal J.-P.Costa
3.1 La transformee en z 95
obtenir une fonction de ltrage plus selective encore il sut daugmenter le nombre de
termes de la suite x(nT) sur lesquels porte la sommation ponderee.
0
0.2
0.4
0.6
0.8
1
1.2
cos surlev
cos
|H(f)|
fe/2
fe/2 fe
f
3.1.7 Filtres a reponse impulsionnelle innie
Les ltres a reponse impulsionnelle innie sont des syst`emes lineaires discrets invariants dans
le temps dont le fonctionnement est regi par une equation de convolution portant sur une
innite de termes. En principe, il conserve une trace des signaux qui leur ont ete appliques
pendant une duree innie, ils sont `a memoire innie. Une telle memoire est realisee par une
boucle de reaction de la sortie sur lentree. Chaque element de la suite des nombres de sortie
est calcule par sommation ponderee dun certain nombre delements de la suite dentree et
dun certain nombre delements de la suite de sortie precedents.
Le fait davoir cette reponse impulsionnelle innie permet dobtenir en general des fonctions
de ltrage beaucoup plus selectives que celles des ltre RIF `a quantite de calculs equivalente.
Cependant la boucle de reaction complique letude des proprietes et la conception de ces
ltres et am`ene des phenom`enes parasites.
Expression generale
Le ltre RII general a pour expression:
y(n) =
N

i=0
a
i
x(n i)
M

j=1
b
j
y(n j) (3.14)
IUP Avignon Traitement du signal J.-P.Costa
96 Chapitre 3. Identication parametrique
La fonction de transfert (en Z) de ce syst`eme secrit :
H(Z) =
a
0
+a
1
Z
1
+. . . +a
N
Z
N
1 +b
1
Z
1
+. . . +b
M
Z
M
(3.15)
Cest le quotient de deux polynomes en Z. Les coecients a
i
et b
j
etant reels, H(Z) est un
nombre complexe.
3.1.8 Comparaison entre les ltres RIF et RII
Les deux types de ltres examines RIF et RII, permettent de satisfaire un gabarit quelconque
donne. La question du choix entre ces deux approches se pose frequemment au concepteur
de syst`emes. Le crit`ere est la complexite des circuits `a mettre en oeuvre; en pratique la
comparaison se ram`ene principalement `a levaluation du param`etre simple qui constitue le
nombre de multiplications `a eectuer.
3.2 Processus aleatoire
Lidee dutiliser des mod`eles de ltres pour representer des processus aleatoires est due `a
lorigine de Yule (1927). Elle consiste `a considerer une suite aleatoire (supposee centree),
comme la sortie dun ltre lineaire excite par un bruit blanc.
3.2.1 Processus MA
On consid`ere le processus aleatoire (i.i.d.) x(n) comme etant la combinaison lineaire sui-
vante :
x(n) = b
0
w(n) +b
1
w(n 1) +. . . +b
M
w(n M) (3.16)
o` u w(n) designe un processus aleatoire reel, centre, stationnaire, blanc de variance
2
w
non
correle avec x(n) et {b
i
} une suite de coecients reels. Le processus ainsi construit apparat
comme la moyenne pondere des M + 1 derni`eres valeurs des entrees par la suite {b
i
}. Pour
cette raison, on parle de moyenne mobile, qui se dit en anglais Moving Average (MA). Par
IUP Avignon Traitement du signal J.-P.Costa
3.2 Processus aleatoire 97
construction, x(n) est la sortie dun ltre lineaire dont la reponse impulsionnelle est la suite
{b
i
}. Ce ltre a donc pour fonction de transfert :
H(z) = b
0
+b
1
z
1
+b
2
z
2
+. . . + +b
M
z
M
(3.17)
Cette fonction de transfert ne poss`ede pas de poles. Elle correspond donc `a un ltre a reponse
impulsionnelle ni (ltre stable). Ce mod`ele permet de representer facilement des processus
ayant des vallees dans leur densite spectrale.
3.2.2 Processus AR
Par denition on dit quun processus aleatoire x(n) est AutoRegressif (AR), si x(n) verie
lequation recurrente suivante :
x(n) + a
1
x(n 1) +a
2
x(n 2) +. . . +a
N
x(n N) = w(n) (3.18)
x(n) = w(n) a
1
x(n 1) a
2
x(n 2) . . . a
N
x(n N) (3.19)
o` u tous les a
i
reels. La fonction de transfert du ltre ayant pour sortie la suite x(n) et pour
entree la suite w(n) est donnee par :
H(z) =
1
1 +a
1
z
1
+. . . +a
N
z
N
(3.20)
Ce mod`ele est tout pole, il correspond a un ltre a reponse impulsionnelle innie, il pourra
representer des processus ayant des pics dans la densite spectrale. On rappelle quun ltre
est stable si et seulement si tous les poles de sa fonction de transfert sont `a linterieur du
cercle unite; lequation 3.19 admet alors une solution stationnaire unique x(n) qui sexprime
`a partir de w(n) de la mani`ere suivante :
x(n) =
n

k=
h(n k)w(k) (3.21)
o` u la suite h
0
,h
1
, . . . ,h
p
, . . . est la suite des coecients du developpement en serie enti`ere de
H(z).
IUP Avignon Traitement du signal J.-P.Costa
98 Chapitre 3. Identication parametrique
Exemple
Soit x(n) = sin(
0
nT), sa transformee en Z est donne par :
X(Z) =
Z sin(
0
T)
Z
2
2Z cos(
0
T) + 1
=
Z
1
sin(
0
T)
1 2Z
1
cos(
0
T) +Z
2
La transformee inverse de cette equation est
x(n + 2) 2 cos(
0
T)x(n + 1) +x(n) = 0
Equation de YuleWalker
Lequation de YuleWalker exprime une relation entre les coecients de lequation 3.19 et
les covariances du processus x(n).
Considerons le processus AR reel dordre 1
x(n) = a
1
x(n 1) +w(n)
En prenant lesperance mathematique de cette derni`ere equation, on trouve que le processus
x(n) est centre. En eet,
E[x(n)] +a
1
E[x(n 1)] = E[w(n)] (3.22)
comme E[w(n)] = 0 (processus centre), il vient que E[x(n)] = E[x(n 1)] = 0.
Comme le processus x(n) est centre, la fonction dautocovariance sexprime par R() =
E[x(n)x(n +)] et verie le syst`eme dequations :
_
_
_
R(0) +a
1
R(1) =
2
w
R(1) +a
1
R(0) = 0
(3.23)
En eet, on obtient ces equations en prenant lesperance mathematique de x(n)x(n) et
x(n)x(n 1) `a partir de lequation .
Le syst`eme dequation peut se mettre sous forme matricielle RA = c, o` u on a pose A =
[1 a
1
]
t
et c = [
2
w
0]
t
et :
IUP Avignon Traitement du signal J.-P.Costa
3.2 Processus aleatoire 99
_
_
R(0) R(1)
R(1) R(0)
_
_
Partant de syst`eme dequations, on peut en deduire a
1
et
2
w
par :
a =
R(1)
R(0)
et
2
w
= R(0)
R
2
(1)
R(0)
(3.24)
Generalisation
Ces equation se generalisent au cas dun mod`ele AR dordre N dont la fonction dautoco-
variance verie le syst`eme matriciel :
_

_
R(0) R(1) . . . R(N)
R(1) R(0)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
R(1)
R(N) R(1) R(0)
_

_
_

_
1
a
1
.
.
.
a
N
_

_
=
_

2
w
0
.
.
.
0
_

_
(3.25)
Comme x(n) est reel, cette matrice est symetrique. Elle depend de N(N + 1)/2 valeurs de
la fonction dautocovariance, de plus, elle poss`ede une forme particuli`ere appele matrice de
Toeplitz.
3.2.3 Processus ARMA
Les processus ARMA sobtiennent en mettant en serie une structure AR et une structure
MA. Soit lequation recurrente :
x(n) +a
1
x(n 1) +. . . +a
N
x(n N) = b
0
w(n) +b
1
w(n 1) +. . . +b
M
w(n M) (3.26)
Lequation du ltre est donne par lequation 3.15.
On montre que cette equation recurrente admet une solution x(n), stationnaire au se-
cond ordre, unique, qui sexprime en fonction de w(n), si et seulement si les racines du
denominateur, qui sont les poles de la fonction de transfert, sont de modules inferieur `a 1.
IUP Avignon Traitement du signal J.-P.Costa
100 Chapitre 3. Identication parametrique
3.3 Application `a la prediction lineaire
3.3.1 Denitions
Predicteur `a un pas dordre p
Par denition le predicteur `a un pas, dordre p cherche `a predire le signal `a linstant n,
connaissant le signal aux instants n 1, n 2, . . ., (n p).
x(n|n 1) =
p

k=1
a
k
x(n k) (3.27)
Predicteur `a deux pas dordre p
Un predicteur `a deux pas dordre p serait la valeur predite `a linstant n `a partir des valeurs
aux instants n 2, . . ., (n p).
Predicteur `a pas dordre p
x(n|n ) =
p

k=1
a
k
x(n + 1 k)
Erreur de prediction
On denit lerreur de prediction par :
e(n) = x(n) x(n|n 1) (3.28)
Dans le cas o` u e(n) est un bruit blanc alors
x(n) =
p

k=1
a
k
x(n k) +e(n)
x(n) sera alors un processus AR. Le probl`eme est de connatre les coecients a
k
connaissant
les mesures de x.
Pour determiner les param`etres, il faudrait inverser la matrice dautocovariance (eq. 3.25)
qui est symetrique. Il existe dans la litterature des algorithmes permettant de saranchir
IUP Avignon Traitement du signal J.-P.Costa
3.3 Application `a la prediction lineaire 101
de cette inversion. Lalgorithme de Levinson en est un exemple.
Algorithme de Levinson
Il consiste `a calculer de mani`ere recursive des predicteurs `a un pas dordre croissant.
En considerant tout dabord une matrice 2 2 :
_
_
R
xx
(0) R
xx
(1)
R
xx
(1) R
xx
(0)
_
_
_
_
1
a
1
1
_
_
=
_
_
P
1
0
_
_
On obtient facilement :
a
1
1
=
R
xx
(1)
R
xx
(0)
P
1
= (1 a
1
1
(a
1
1
)

)
o` u P(0) = R
xx
(0) et P
1
est la puissance (ou variance) de lerreur de prediction et a
1
1
est le
coecient de reexion. Il pour caracteristique davoir un module inferieur `a lunite.
Lalgorithme de Levinson secrit alors sous la forme generale :
_

_
P
0
= R
xx
(0)
k
i
=
[
R
xx
(i)+

i1
j=1
a
i1
j
R
xx
(ij)
]
P
i1
a
i
i
= k
i
a
i
j
= a
i1
j
+k
i
_
a
i1
ij
_

, 1 j i 1
P
i
= (1 |k
i
|
2
) P
i1
(3.29)
o` u i et j correspondent respectivement `a lordre et au pas.
3.3.2 Exemple
On cherche `a determiner un predicteur `a 1 pas.
x(n) = Acos(n
0
T +)
est une variable aleatoire uniformement repartie sur [0,2].
IUP Avignon Traitement du signal J.-P.Costa
102 Chapitre 3. Identication parametrique
R
xx
(k) =
A
2
2
cos(k
0
T)
Methode directe
Predicteur `a 1 pas dordre 1
Le predicteur `a 1 pas secrit x(n|(n 1)) = a
1
1
x(n 1).
Lerreur de prediction est egale `a e = x(n)

(x)(n|(n 1)) = x(n) a


1
1
x(n 1)
La variance de lerreur de prediction est donnee par V = E
_
(x(n) a
1
1
x(n 1))
2
_
La meilleure valeur du coecient a
1
1
est celle qui rend V minimale.
V = E
_
x
2
(n) 2a
1
1
x(n)x(n 1) + (a
1
1
)
2
x(n 1)
2

V = R
xx
(0) 2a
1
1
R
xx
(1) + (a
1
1
)
2
R
xx
(0)
On cherche
V
a
1
1
= 0 :
2R
xx
(1) + 2a
1
1
R
xx
(0) = 0
a
1
1
=
R
xx
(1)
R
xx
(0)
= cos(
0
T)
La variance dans ce cas vaut : V =
A
2
2
sin
2
(
0
T)
A
2
2
Predicteur `a 1 pas dordre 2
Le predicteur `a 2 pas secrit x(n|(n 1)) = a
2
1
x(n 1) +a
2
2
x(n 2).
Lerreur de prediction: (n) = x(n) x(n|(n 1)) = x(n) a
2
1
x(n 1) +a
2
2
x(n 2)
La variance de lerreur de prediction:
V = E
_
_
x(n) a
2
1
x(n 1) a
2
2
x(n 2)
_
2
_
On determine les coecients a
2
i
par la minimisation de variance pour chaque coecients.
IUP Avignon Traitement du signal J.-P.Costa
3.3 Application `a la prediction lineaire 103
V
a
2
1
= E
_
x(n 1)(x(n) a
2
1
x(n 1) a
2
2
x(n 2))

= 0
V
a
2
1
= R
xx
(1) a
2
1
R
xx
(0) a
2
2
R
xx
(1) = 0
et
V
a
2
2
= E
_
x(n 2)(x(n) a
2
1
x(n 1) a
2
2
x(n 2))

= 0
V
a
2
2
= R
xx
(2) a
2
1
R
xx
(1) a
2
2
R
xx
(0) = 0
On obtient le syst`eme suivant :
_
_
R
xx
(0) R
xx
(1)
R
xx
(1) R
xx
(0)
_
_
_
_
a
2
1
a
2
2
_
_
=
_
_
R
xx
(1)
R
xx
(2)
_
_
Ce qui equivaut a :
R a = r
Pour determiner les coecients a
2
i
, il sut dinverser la matrice R; on obtient alors :
a = R
1
r
avec R
xx
(0) =
A
2
2
, R
xx
(1) =
A
2
2
cos(
0
T), R
xx
(2) =
A
2
2
cos(2
0
T),
On trouve :
_
_
a
2
1
a
2
2
_
_
=
1
sin
2
(
o
T)
_
_
1 cos(
o
T)
cos(
o
T) 1
_
_
_
_
cos(
o
T)
cos(2
o
T)
_
_
=
_
_
2 cos(
0
T)
1
_
_
IUP Avignon Traitement du signal J.-P.Costa
104 Chapitre 3. Identication parametrique
Algorithme de Levinson
Predicteur `a 1 pas dordre 1
i = 1
k
1
=
R
xx
(1)
R
xx
(0)
= cos(
0
T)
a
1
= k
1
= cos(
0
T)
P
0
= R
xx
(0) =
A
2
2
P
1
= (1 (k
1
)
2
)P
0
= (1 cos(
0
T))
A
2
2
i = 2
k
2
=
_
R
xx
(2) +a
1
1
R
xx
(0)
P
1
_
= 1
P
2
= (1 1)P
1
= 0
a
2
2
= k
2
= 1
a
2
1
= a
1
1
+k
2
a
1
1
= 2 cos(
0
T)
IUP Avignon Traitement du signal J.-P.Costa
105
Chapitre 4
Elements de la theorie de les-
timation
4.1 Proprietes des estimateurs
4.1.1 Introduction
Soit X(k) un sequence aleatoire i.i.d. stationnaire et ergodique dont on consid`ere N echantillons.
Chaque echantillon x(k) est une V.A. ayant une densite de probabilite p[X(k)].
Soit un param`etre du processus aleatoire, par exemple la moyenne, la variance, la fonction
dautocorrelation... On note lestimation de ce param`etre :
= F [X(0),X(1), . . . ,X(N 1)]
Comme sexprime en fonction des V.A., est une V.A. de densite de probabilite p

( ).
F est appele un estimateur.
4.1.2 Biais et variance
On peut avoir plusieurs estimateurs du meme param`etre et on privilegiera celui dont la
proba[ voisin ] soit la plus grande possible. On mesurera donc, le biais et la variance de
lestimateur.
Le biais dun estimateur est deni par
B = E[ ]
IUP Avignon Traitement du signal J.-P.Costa
106 Chapitre 4. Elements de la theorie de lestimation
Si B=0 on dit que lestimateur est non biaise.
Lerreur quadratique moyenne est donnee par
Eqm = E[( )
2
]
La variance dun estimateur est denie par
var = E[( E( ))
2
]
On cherche `a obtenir une variance la plus faible possible.
Si le biais et la variance tendent vers 0 lorsque le nombre dobservations N tend vers linnie
alors on parle destimateur consistant.
4.1.3 Exemple : estimateur de la moyenne
On a N echantillons dun signal aleatoire x(n) stationnaire. On donne un estimateur de sa
valeur moyenne m = E[x(n)], m tel que
m =
1
N
N1

n=0
x(n)
On suppose que x(n) est une sequence i.i.d.
On cherche `a determiner le biais et la variance de cet estimateur.
Le biais : B = E[ m] m
E[ m] = E[
1
N
N1

n=0
x(n)] =
1
N
N1

n=0
E[x(n)] = m
Donc B = 0, est un estimateur non biaise.
La variance : var = E[( m E( m))
2
]
var =
1
N

2
x
IUP Avignon Traitement du signal J.-P.Costa
4.2 Methodes destimation de param`etres de signaux 107
Comme B et var tendent vers 0 lorsque N alors, m est un estimateur non biaise
consistant.
4.2 Methodes destimation de param`etres de signaux
On suppose que les param`etres sont deterministes.
4.2.1 Methode du maximum de vraisemblance
Soit p(y
0
,y
1
, . . . ,y
N
; ) la densite de probabilite des N variables aleatoires y(n), en fonction
du vecteur de param`etres `a L composantes.
La fonction p a deux interpretations. Avant lobservation des N variables y(n), elle represente
la densite de probabilite conjointe de ces variables pour des valeurs speciques des pa-
ram`etres . Apr`es lobservation, les variables y(n) sont connues, mais les param`etres sont
inconnus. La fonction des L param`etres quon obtient en substituant les valeurs observees
y(n) dans p est appelee fonction de vraisemblance des param`etres . Les valeurs

pour
lesquelles la fonction de vraisemblance est maximum sont des valeurs preferentielles, car
elles rendent maximum la probabilite dobtenir les valeurs observees y(n). Les estimateurs `a
vraisemblance maximum conduisent `a une erreur quadratique moyenne minimum pour des
grandes valeurs de N.
Exemple : estimation de la moyenne et de la variance dune variable aleatoire
gaussienne
Soit N echantillons statistiquement independant dun signal gaussien x(n), de moyenne m
x
et de variance
2
x
. La densite de probabilite p(x
1
,x
2
, . . . ,x
N
; m
x
,
2
x
) est donnee par :
IUP Avignon Traitement du signal J.-P.Costa
108 Chapitre 4. Elements de la theorie de lestimation
p(x
1
, . . . ,x
N
; m
x
,
2
x
) = p(x
1
,; m
x
,
2
x
)p(x
2
,; m
x
,
2
x
) . . . p(x
N
,; m
x
,
2
x
) (4.1)
p(x
1
, . . . ,x
N
; m
x
,
2
x
) =
N

n=1
1

2
x
exp
_
[x(n) m
x
]
2
2
2
x
_
(4.2)
p(x
1
, . . . ,x
N
; m
x
,
2
x
) =
1
(2)
N/2
1

N
x
N

n=1
exp
_
[x(n) m
x
]
2
2
2
x
_
(4.3)
(4.4)
On cherche a partir des observations x(n) `a estimer la moyenne et la variance du signal
aleatoire par la methode du maximum de vraisemblance.
Quelque fois il est plus commode de chercher le maximum du logarithme de la fonction de
vraisemblance. Ceci ne modie en rien les resultats, etant donne que le logarithme est une
fonction monotone.
log(p(x
1
, . . . ,x
N
; m
x
,
2
x
)) =
N
2
log(2) N log(
x
)
1
2
N

n=1
(x(n) m
x
)
2

2
x
(4.5)
Estimation de la moyenne
La derivee partielle de la fonction de vraisemblance par rapport `a m
x
est donnee par :
log(p(x
1
, . . . ,x
N
; m
x
,
2
x
))
m
x
=
N

n=1
(x(n) m
x
)

2
x
Pour obtenir lestimation de la moyenne il faut trouver la valeur m
x
qui annule cette derivee.
On trouve alors
log(p(x
1
, . . . ,x
N
; m
x
,
2
x
))
m
x
= 0 (4.6)
m
x
=
1
N
N

n=1
x(n) (4.7)
IUP Avignon Traitement du signal J.-P.Costa
4.2 Methodes destimation de param`etres de signaux 109
Estimation de la variance
log(p(x
1
, . . . ,x
N
; m
x
,
2
x
))

x
=
N

x
+
N

n=1
(x(n) m
x
)
2

3
x
log(p(x
1
, . . . ,x
N
; m
x
,
2
x
))

x
= 0 (4.8)

2
x
=
1
N
N

n=1
(x(n) m
x
)
2
(4.9)
4.2.2 Methode des moindres carrees
Soit y(n) la sequence aleatoire modelisee par la fonction y(n) = h(n,). lestimation des
param`etres par les moindres carrees revient `a minimiser lerreur quadratique moyenne.
e(n) = y(n) h(n,)
donc

= Arg min

N
n=0
e
2
(n)
Exemple : estimation des param`etres dun mod`ele lineaire
Soit le mod`ele suivant :
y(n) =
P

i=0
a
i
x(n i) +e(n)
Les donnees observees sont representees par les y(n). La sequence dentree du syst`eme
correspond `a la sequence x(n). On cherche `a estimer les param`etres a
i
. e(n) representent les
erreurs de modelisations (e(n) = y(n) y(n)).
En utilisant lecriture matricielle on obtient :
y
n
= X
n
+e
n
On applique la methode des moindres carres. Lerreur quadratique moyenne secrit e
t
n
e
n
.
IUP Avignon Traitement du signal J.-P.Costa
110 Chapitre 4. Elements de la theorie de lestimation
Eqm = (y
n
y
n
)
t
(y
n
y
n
) (4.10)
Eqm = y
t
n
y
n
y
t
n
X
n

t
X
t
n
y
n
+
t
X
t
n
X
n
(4.11)
(4.12)
On cherche le vecteur note

qui minimise lEqm
1
.
Eqm

= X
t
n
y
n
X
t
n
y
n
+ 2X
t
n
X
n
= 0
donc

= (X
t
n
X
n
)
1
X
t
n
y
n
1. Rappels mathematique :
b
t

=

t
b

= b et

t
b

= 2b
IUP Avignon Traitement du signal J.-P.Costa
Bibliographie 111
[]
IUP Avignon Traitement du signal J.-P.Costa
112 Bibliographie
Bibliographie
[1] T. Pitarque. Cours de traitement du signal. Ecole Sup`erieur dIngenieur de Nice
Sophia-Antipolis (ESINSA), 1999.
[2] Y. Laprie. Cours : Analyse spectrale de la parole. www.loria.fr/ laprie, 2002.
[3] J. Le Roux. Notions elementaires de probabilites utilisees en traitement du signal. Ecole
Sup`erieur en Sciences Informatiques (ESSI), 2000.
[4] C. Gasquet and P. Witomski. Analyse de Fourier et applications. Dunod BU IUP,
1990.
[5] Hwei P. Hsu. Communication analogiques et numeriques. Serie Schaum, 1994.
[6] P. Lecoy. Technologie des telecoms. 2nd edition, Hermes, 1999.
[7] J.-M. Brossier. Signal et communication numerique : egalisation et synchronisation.
Hermes, 1997.
[8] G. Blanchet and M. Charbit. Traitement numerique du signal : simulation sous Matlab.
Hermes, 1998.
[9] A. Quinquis. Le traitement du signal sous Matlab. Hermes, 2000.
[10] M. Bellanger. Traitement numerique du signal. Dunod, 1998.
[11] M. Kunt. Traitement numerique des signaux. Dunod, 1981.
[12] Cl. Vloeberghs. Complements de techniques de telecommunications. Ecole royale mili-
taire, 1999, 3`eme edition.
[13] Calliope. La parole et son traitement automatique. Masson.
[14] P. Alluin. Production, perception, analyse et reconnaissance de la parole.
http://philduweb.free.fr/parole/PRParole.htm, 2001.
[15] L. R. Rabiner and R. W. Schafer. Digital processing of speech signals. Prentice-Hall.
IUP Avignon Traitement du signal J.-P.Costa

Vous aimerez peut-être aussi