Vous êtes sur la page 1sur 23

DETRTSI: Traitement des signaux aléatoires

Processus et signaux aléatoires


à temps continu

Koffi-Clément YAO
MC 61

Département d’électronique, UFR sciences UBO


Laboratoire Lab-STICC, UMR CNRS 6285
Pôle : COM/CACS/Intelligence et Furtivité des Communications (IFC)

Octobre 2013

Sommaire

1. Caractérisation des processus aléatoires


1.1 Notion de processus et signaux aléatoires
1.2 Description statistique d’un processus aléatoire (p. a.)
2. Processus aléatoires du second ordre
2.1 Stationnarité au sens strict et stationnarité au sens large
2.2 Fonctions de corrélation d’un p. a.
2.3 Moyennes temporelles et ergodicité
2.4 Introduction à l’analyse spectrale
3. Filtrage linéaire des processus aléatoires
3.1 Principe du filtrage linéaire (Rappel)
3.2 Formule des moments
3.3. Applications du filtrage
4. Processus aléatoires particuliers
4.1 Le bruit blanc
4.2 Processus aléatoires cyclo-stationnaires
4.3 Processus aléatoires Gaussiens

2
Organisation du cours

Traitement des signaux aléatoires (24 CM, 24 TD)

Partie 1 : Rappels sur les signaux déterministes (E. RADOI) -----> 6 CM, 6 TD
Partie 2 : Processus et signaux aléatoires à temps continu (K. YAO) -----> 12 CM, 12 TD
Partie 3 : Processus et signaux aléatoires à temps discret (E. RADOI) -----> 6 CM, 6 TD

Enseignements :
Cours Magistraux (CM) : 2h x 6 séances = 12 h -----------> Promo (TR + ESCo)
Travaux Dirigés (TD) : 2h x 6 séances = 12 h -----------> par Groupe (TR et ESCo)

Evaluation :
Examen écrit (EE) : 2h dont environ 1h 20 (pour la partie p.a. continus)
Contrôle continu (CC) : 1h 30 à 2h (uniquement les signaux déterministes)
Moyenne de l’UE = MAX{ EE; (2/3*EE + 1/3*CC)}

Enseignants :
E. RADOI : CM, TD
K. YAO : CM,
Y. ZRELLI : TD 3

Ch.1 : Caractérisation des processus aléatoires

 Description statistique des p. a. :


 Lois de probabilité et fonctions de répartition
 Moyennes statistiques
 Fonctions de corrélation
 Processus indépendants

4
1.1 - Notion de processus aléatoires (1)

Objectif du cours :

Analyser et caractériser les signaux aléatoires en vue de leur exploitation


pour des applications en situations réelles (communications, détection, médecine, etc…)

 1.1.1 - Omniprésences des signaux aléatoires


 Le modèle de signal déterministe étudié en théorie du signal ne suffit pas pour représenter les signaux naturels
(Ex. Signal de parole, électrocardiogramme etc..).
 Le hasard intervient dans de nombreux phénomènes naturels. Pour les caractériser, il faut faire appel à la théorie
des probabilités et statistiques…

 Electroencéphalogrammes (Michel Dauzat,  Electrocardiogrammes


fac de médecine Montpellier, 2006) 5

1.1 - Notion de processus aléatoires (1b)

 Exemples de signaux réels

 Signal de parole  Signal de communication numérique

 Exemple de graphique du cours de la bourse  Exemple d’électrocardiogrammes 6


1.1 - Notion de processus aléatoires (2)

 Exemple d’une chaîne de transmission numérique

Au cours de la transmission d’un signal déterministe s(t), il subit des perturbations liées au canal de transmission,
aux composants du systèmes de transmission etc. En général, on regroupe toutes ces perturbations sous le
terme de bruit b(t).
Ces dégradations sont, par nature, imprévisibles donc possèdent un caractère aléatoire.

Signal reçu

Signal transmis

Exemple d’un signal binaire pollué par du bruit blanc additif Gaussien (BBAG ou AWGN) 7

1.1 - Notion de processus aléatoires (3)

Le bruit est donc un signal aléatoire indésirable qui vient polluer le signal utile.

 Hypothèse de bruit additif :


Par hypothèse, on suppose que
1. le bruit s’additionne au signal utile
2. le bruit est indépendant du signal utile

Si on adopte l’hypothèse de bruit additif (à juste titre) dans l’exemple précédent, bien que le signal transmis soit
déterministe, on note que le signal reçu est un signal aléatoire puis qu’il résulte de la somme du signal
déterministe et du bruit qui est aléatoire.
Le signal reçu

Remarque : La notion de bruit est liée à l’intérêt que présente le signal à traiter pour l’observateur :
En effet soit e(t), un signal électromagnétique d’origine cosmique
 e(t) = b(t) est un bruit pour les télécommunications
 e(t) = s(t) est un signal utile en radioastronomie

8
Notion de processus aléatoires (4)

 1.1. 2. - Définitions :

Un signal x(t) est dit aléatoire (ou stochastique) si sa réalisation dépend du hasard.
On ne connaît pas la valeur de ce signal à un instant futur t donné.

Un signal aléatoire peut être considéré comme une réalisation particulière d’une famille de signaux aléatoires, famille
que l’on désigne par processus aléatoire.
On représente un processus aléatoire par 2 variables : ,
 t désigne la variable temporelle
  est une variable qui décrit les lois du hasard

Notion de processus aléatoires (5)

 Classification temporelle des signaux et processus aléatoires

Amplitude continue Amplitude discrète

Temps continu

Temps discret

a) Signal analogique à temps continu et à amplitude continue ∈ ; ∈


b) Signal échantillonné à temps discret et à amplitude discrète ∈ ; ∈
c) Signal quantifié à temps continu et à amplitude discrète ∈ ; ∈
d) Signal numérique à temps discret et à amplitude quantifié ∈ ; ∈
10
Notion de processus aléatoires (6)

 Description d’un processus aléatoire

 Exemple d’un p. a. avec 3 réalisations


 Pour la suite, on notera indifféremment :

 Lemme : Un processus aléatoire (indifféremment


un signal aléatoire) est à puissance moyenne finie
non-nulle.

11

1.2 - Caractérisation statistique des processus aléatoires (1)

 1.2.1 - Loi de probabilité et fonction de répartition

On peut décrire le p. a. comme une fonction aléatoire dont les


réalisations sont données par l’ensemble :

On définit l’évènement qui désigne toutes les


réalisations pour lesquelles le signal aléatoire du p. a
. , n’excède pas l’amplitude donnée.

 En déterminant la probabilité de cet


évènement, on définit la fonction de
répartition du p. a.

 On détermine alors la densité de


probabilité (ddp) de cet évènement par :

12
Caractérisation statistique des processus aléatoires (2)

 Algorithme de la détermination de la DDP d’un p.a. :

Soit le p.a. aléatoire suivant le paramètre Φ.


Pour déterminer la loi de probabilité du p.a., on ramène le problème à la détermination de la ddp d’une v.a. fonction
d’une autre v.a. telle que l’on peut écrire
où la fonction . définit la transformation de la variable aléatoire Φ qui génère la v.a. .

1. Tracer une réalisation de la fonction de variable aléatoire, soit φ ;


2. Déterminer les solutions … de l’équation φ ;
3. Appliquer le théorème du gradient (théorème de la transformation) pour déterminer la ddp de .

13

Caractérisation statistique des processus aléatoires (3)

 Exemple : Calcul de la ddp d’une sinusoïde à phase aléatoire

Soit le p.a. cos t Φ où Φ désigne une v.a. uniformément distribuée sur 0 ; 2 , et étant des
constantes réelles. Déterminer la ddp du p.a. .

La ddp de Φ :

 si , l’équation n’a pas de solution donc 0


 si , 0 car la ddp en un point est nulle pour une v.a.
continue
 si , on obtient 2 solutions et sur le domaine 0 ; 2

Par ailleurs, on détermine les dérivées :

Et en appliquant le théorème du gradient on obtient la ddp de :

14
Caractérisation statistique des processus aléatoires (4)

 Exemple : Calcul de la ddp d’une sinusoïde à phase aléatoire (suite)

La ddp de :

Illustration de la détermination de la ddp de : Graphe de la ddp de :

 Lois conjointes :
Si on considère 2 instants et du p. a. , on obtient 2 v. a. et .
On peut alors définir une loi conjointe :

Fonction de répartition (FdR) conjointe de et

ddp conjointe de et

15

Caractérisation statistique des processus aléatoires (5)

 1.2.2. - Description à 1 instant :

Un p. a. peut être défini comme une fonction du temps dont la valeur prise à chaque instant donné
est une variable aléatoire. On peut donc lui appliquer les notions définies sur les v. a.

 Moyenne statistique :
Si on considère réalisations du p. a. et les valeurs prises par à un instant , on peut définir
une moyenne statistique (ou moyenne arithmétique) sur l’ensemble des échantillons :

Moyenne statistique ou moyenne d’ensemble

La mesure (ou l’estimation) de la moyenne d’ensemble


se fait à travers le processus.

16
Caractérisation statistique des processus aléatoires (6)

 Espérance mathématique :
On dit que le p. a. est connu à un instant si, quelque soit l’instant , on connaît la loi de probabilité de
la variable aléatoire . On peut alors la caractériser à l’aide de ses moments.
L’espérance mathématique (ou la valeur moyenne) de la v. a. X est :

Si X est une v. a. continue (VAC).

Si X est une v. a. discrète (VAD).

avec

On définit aussi le moment d’ordre de X par :

17

Caractérisation statistique des processus aléatoires (7)

 Variance :
La variance du p. a. observé à l’instant définit l’espérance mathématique du moment centré
d’ordre 2.

définit l’écart-type (Standard deviation) et mesure la dispersion de autour de sa valeur moyenne.

Si X est une v. a. continue (VAC) :

Si X est une v. a. discrète (VAD) :

 Histogramme d’un p. a. blanc Gaussien


18
Caractérisation statistique des processus aléatoires (8)

 Estimation de la ddp à partir de l’histogramme :


Si l’on observe le p. a. sur une durée D, on peut dresser son histogramme pour estimer la loi de
distribution des valeurs prises par ce processus.

b. Signal de parole
X(n)

 Histogrammes de 4 processus aléatoires

19

Caractérisation statistique des processus aléatoires (9)

 1.2.3. - Description à 2 instants :

On dit que le p. a. est connu à deux instants si, ∀ , , on connaît la loi conjointe des variables aléatoir
es et , soit

On peut alors définir le lien statistique entre les deux v. a. et .

 Fonctions de corrélation :
La fonction de corrélation exprime la ressemblance (ou cohérence) entre les v. a. et prises à 2 instants
différents et
1. par un même processus , c’est l’autocorrélation
2. par deux processus différents, c’est l’inter-corrélation ou la corrélation croisée.

 Pour un p. a. à temps continu

 Pour un p. a. à temps discret

20
Caractérisation statistique des processus aléatoires (10)

 Matrice de corrélation :
Pour mesurer la corrélation entre 2 p. a. et à 2 instants différents et on est souvent conduit à introduire la matrice
de corrélation :

Soit,

Plus généralement, pour étudier la corrélation entre


1) p. a. , ,…, à 2 instants différentes et
2) 2 p. a. et à instants différents , , … ,
On définit une matrice de corrélation de dimension , soit

 N processus à 2 instants différents

 2 processus à N instants différents

21

Caractérisation statistique des processus aléatoires (11)

 Fonctions de covariance :
La fonction de covariance ou l’auto-covariance d’un p. a. est définie par la relation

 Remarques :
1) La variance est définie à un instant donné alors que la covariance est définie à 2 instants différents et
.
2) La fonction d’auto-covariance, c’est d’autocorrélation du p. a. centré.

Si , la covariance devient la variance du processus telle que :

La valeur quadratique moyenne ou la puissance moyenne du processus est définie par :

22
Caractérisation statistique des processus aléatoires (12)

 1.2.4. - Propriétés remarquables de la corrélation :

1 - La symétrie hermitienne :

2 - L’autocorrélation en zéro (décalage nul) représente la puissance moyenne du p. a.

3 - La fonction d’autocorrélation est définie non-négative :

4 - Processus orthogonaux :

Les p. a. et sont orthogonaux si leur fonction de


corrélation croisée est identiquement nulle

5 - Processus non corrélés :

Les p. a. et sont non-corrélés si leur fonction


de covariance croisée est identiquement nulle
23

Caractérisation statistique des processus aléatoires (13)

 1.2.5. - Processus indépendants :

 Définitions
2 P. a. et sont statistiquement indépendants si les ensembles de réalisations
, ,…, et , ,…, sont indépendants quelque soit le choix des instants
, , … , ; , , … , .
Alors la DDP conjointe des v. a. , ,…, et , ,…, peut se mettre sous la forme :

 Théorème :
Si 2 p. a. et sont indépendants alors ils sont non-corrélés c-à-d leur fonction de covariance croisée est
nulle, même si leurs valeurs moyennes ne sont pas nulles.
La réciproque n’est pas vraie sauf si et sont Gaussiens.

 Démo :
∗ ∗
Si et sont indépendants alors . et en remplaçant cette éga
lité dans l’expression de la covariance croisée, on obtient

24
Ch.2 : Processus aléatoires du second ordre

 Moyennes statistiques et moyennes temporelles:


 Stationnarité au second ordre et stationnarité à l’ordre
 Fonctions de corrélations des p. a. du second ordre
 Moyennes temporelles et ergodicité
 Introduction à l’analyse spectrale des p. a.

25

2.1.- Stationnarité d’un processus aléatoire (1)

 2.1.1. - Processus aléatoires du second ordre

 Définition.
Un p. a. est dit du second ordre si et seulement si sa valeur quadratique moyenne est finie et non
nulle, soit
∀ ∈ , ∞ et 0

Conséquence :

,t E X t X ∗ t . existent et sont fines.

 2.1.2. - Processus aléatoires stationnaires

 Stationnarité au sens strict


Un p. a. est stationnaire au sens strict si toutes ses propriétés statistiques sont indépendantes de
l’origine du temps (de l’instant des observation) ou encore indépendantes de l’échantillon choisi.
Plus généralement, tous les moments d’ordre du p. a. sont indépendants de l’instant
d’observation.

Où , ,…, ; , ,…, désigne la ddp conjointes des v. a. , ,…

26
2.1.- Stationnarité d’un processus aléatoire (2)

 Stationnarité stricte au 1er ordre


Un p. a. est dit strictement stationnaire au 1er ordre si sa densité de probabilité ne dépend pas de la
variable temporelle , soit
, .

Conséquence :
= constante pour un p. a. continu
∑ pour un p. a. discret

 Stationnarité stricte au 2nd ordre


Un p. a. est strictement stationnaire au second ordre si sa ddp conjointe dépend uniquement de la
diffé-rence des temps, soit
, ; , , ;

Conséquence :

La fonction d’autocorrélation (fac) d’un p. a. strictement stationnaire à l’ordre 2 ne dépend que de la différence
des temps .
27

2.1.- Stationnarité d’un processus aléatoire (3)

 Stationnarité au 2nd ordre (ou au sens large)


Un p. a. est stationnaire au second ordre ou stationnaire au sens large ou encore faiblement
stationnaire , lorsque ses caractéristiques du premier et du second ordre sont indépendantes de
l’instant des observations. En particulier,
1. = constante
2. Γ , Γ avec

Conséquence :
 La fonction de répartition , est indépendante du temps
 Γ est continue à l’origine

Lemme : La stationnarité au sens strict entraîne la stationnarité au second ordre. La réciproque n’est pas vraie.

Exemple :

28
2.2.- Propriétés des fonctions de corrélations d’un p. a. (1)

 2.2.1. – Propriétés remarquables de la fac


 Symétrie hermitienne
Si Γ , est la fac d’un p. a. définie aux instants et alors,

Si de plus est un p. a. stationnaire du 2nd ordre alors Γ , Γ Γ avec


et

 Valeur à l’origine
La valeur à l’origine de la fac du p. a. définit la puissance moyenne de ce processus.

 La fac est maximale à l’origine

 La variance d’un p. a. stationnaire à l’ordre 2 est indépendant du temps

29

2.2.- Propriétés des fonctions de corrélations d’un p. a. (2)

 La variance d’un p. a. périodique est aussi périodique


Si le p. a. contient une composante périodique alors sa fac Γ , contient aussi une composante
périodique de même période .

 Comportement à l’infini de la fac d’un p.a.S2

30
2.2.- Propriétés des fonctions de corrélations d’un p. a. (3)

 2.2.2. – Propriétés des fonctions d’inter-corrélation

 Processus conjointement stationnaires


Soit et deux p. a. stationnaires du second ordre, on dit que et sont conjointement
stationnaires si et seulement si

 Symétrie hermitienne

 Valeur à l’origine de la corrélation croisée de 2 pas2


Si les paS2 et sont deux p. a. stationnaires du second ordre, totalement différents, leur fonction
de corrélation croisée n’est pas forcément maximale à l’origine.
Toute fois, on peut montrer que

ou encore

31

2.2.- Propriétés des fonctions de corrélations d’un p. a. (4)

 Exemple : détection d’un signal périodique noyé dans du bruit


Soit le signal reçu sur un détecteur. On suppose que ce signal reçu contient un signal informationnel
périodique et noyé dans un bruit blanc additif Gaussien (BBAG), centré et de variance .
Sachant que et sont statistiquement indépendants, montrer que l’on peut extraire la période
cachée du signal utile.
Les signaux étant indépendants, ils sont non-corrélés, d’où on obtient


Γ ,
Γ Γ

 Autocorrélation du signal périodique


 Graphe d’un signal périodique noyé dans du bruit
noyé dans du bruit
32
2.2.- Propriétés des fonctions de corrélations d’un p. a. (5)

 Exemple : Détection de paramètres caractéristiques de la voix humaine


Le signal de parole n’est pas un signal stationnaire.
Cependant sur des tranches de parole de courtes durées (de 10 à 100 ms) supposées stationnaires, la
détermination de l’autocorrélation de ces tranches permet d’extraire
o le pitch (période fondamentale de la voix analysée)
o l’indice de voisement (son voisé ou non-voisé)
o l’énergie de la tranche de parole

Autocorrélation d’une tranche de parole Voisée Autocorrélation d’une tranche de parole Non Voisée

33

2.3.- Moyennes temporelles et ergodicité (1)

 2.3.1. – Moyennes temporelles et fac temporelles

 La moyenne statistique (ou espérance mathématique) d’un PAS2 (Processus aléatoire stationnaire au
second ordre) est défini par

est une moyenne définie à un instant donné (par exemple ici l’instant ), « à travers tout le
processus » . On désigne souvent cette moyenne par moyenne d’ensemble.
Tout se passe comme si on avait observé toutes les réalisations du processus avant de calculer cette
moyenne.

 Moyenne temporelle (ou moyenne échantillon « sample mean »):


En pratique, on ne dispose pas de toutes les réalisations de mais d’une réalisation particulière
pour donné.
On définit alors la moyenne temporelle (ou sample mean) de cette réalisation (échantillon ) par
où désigne la durée d’observation.

< est une moyenne définie « le long du processus » .

34
2.3.- Moyennes temporelles et ergodicité (2)

 Fonction d’autocorrélation temporelle (ou fac échantillon « sample ACF »):


On considère une réalisation particulière du p.a. et on détermine la fac de cette réalisation particulière
pour donné par


Remarque : < et < . ne dépendent pas du temps même si elles peuvent dépendre de l’échantillon
choisi.

 Estimation pratique des moyennes temporelles :


Si l’on considère la moyenne temporelle d’une réalisation particulière , alors la grandeur

est une variable aléatoire et en toute rigueur, on devrait écrire :

où désigne la réalisation considérée.

En pratique, on effectue plusieurs mesures sur une durée d’observation et les différentes réalisations
obtenues représentent elles-mêmes des variables aléatoires.
Pour obtenir la moyenne recherchée, on réalise alors le « moyennage » sur les mesures, soit

L’égalité ci-contre est vraie si le


p. a. est intégrable.
35

2.3.- Moyennes temporelles et ergodicité (3)

 2.3.2. – Ergodicité (notion très importante en traitement du signal)


 L’hypothèse d’ergodicité permet d’accéder aux paramètres statistiques d’un processus aléatoire à partir
d’une seule réalisation de ce processus observé sur une durée .
En pratique, on ne dispose pas de toutes les réalisations de mais seulement d’une réalisation particulière
à la fois. On réalise donc les traitements sur cet échantillon pour extraire les paramètres caractéristiques
du processus.

Lemme : Un processus aléatoire ergodique est un p. a. pour lequel, les mesures réalisées sur un
échantillon sont suffisantes pour déterminer la statistique d’ensemble de ce processus.

 Ergodicité à l’ordre :
Un processus aléatoire est dit ergodique à l’ordre si les moyennes temporelles de existent jusqu’à
l’ordre et sont indépendantes de la réalisation (l’échantillon) choisie.
Lemme : L’ergodicité entraîne nécessairement la stationnarité. La réciproque n’est pas vraie.

36
2.3.- Moyennes temporelles et ergodicité (4)

 Ergodicité à l’ordre 1
Un processus aléatoire est dit ergodique par rapport à la moyenne (ou ergodique au 1er ordre) si et
seulement si sa moyenne statistique est égale à sa moyenne temporelle, soit

 Ergodicité à l’ordre 2 :
Un processus aléatoire est dit ergodique à l’ordre 2 (ou ergodique au sens large) si et seulement si sa
moyenne statistique est égale à sa moyenne temporelle et sa fac temporelle est égale à sa fac statistique, soit :
et

 Exemple 1 :
Soit le processus aléatoire où est une v. a. uniformément distribuée dans l’intervalle 0 ; 1 .
Ce processus est-il ergodique ?

On peut établir directement que n’est pas


ergodique puisque la moyennes temporelle de
chaque réalisation est différente de celle des
autres et aussi de la moyenne statistique.

Graphes de quelques réalisations de


37

2.3.- Moyennes temporelles et ergodicité (5)

 Exemple 2 : Sinusoïde à phase équirépartie


Soit le processus aléatoire acos Θ où Θ est une v. a. uniformément distribuée dans l’intervalle
0 ; 2 tandis que et sont des constantes réelles.
Ce processus est-il ergodique ?

Solution :
On peut montrer que
puisque

Par la suite, on établit facilement que soit,

De même, on montre que

Soit finalement,

En conclusion, le p.a. acos Θ est ergodique au 2nd ordre


38
2.4.- Introduction à l’analyse spectrale (1)

 2.4.1. – Théorème de Wiener-Kintchine

 Spectre des signaux déterministes


La transformée de Fourier permet de réaliser l’estimation spectrale des signaux déterministes (surtout quand
ceux-ci sont stationnaires) par la relation :

 désigne la réponse en fréquence ou le gain complexe du signal


 | | désigne le spectre d’amplitude exprimé en Volt par Hertz (V/Hz). C’est la distribution des
amplitudes de en fonctions des fréquences contenues dans ce signal.

Lorsque est un signal déterministe de carré sommable, ce qui est généralement le cas des signaux
ayant une existence physique, on peut retrouver par la transformée de Fourier inverse, soit

 Spectre des signaux aléatoires


Pour un signal aléatoire, la grandeur spectrale n’est pas facilement accessible.
Si, on connaît sur la durée du signal et que est stationnaire, il suffit alors de calculer sa fonction
d’autocorrélation Γ et d’en déduire sa densité spectrale de puissance en invoquant le théorème de
Wienner-Kintchine.

39

2.4.- Introduction à l’analyse spectrale (2)

 Théorème de Wiener-Kintchine

 2.4.2. – Difficultés et méthodes d’estimation spectrales

 Difficultés de l’estimation spectrale


On peut noter 2 difficultés principales pour l’estimation spectrale des signaux aléatoires :
1. La durée d’observation est limitée
En situation réelle, les données x(t) ne sont pas illimitées ou alors dans certains cas elles sont même
insuffisantes (signaux de durée très brèves : signaux sismiques, tranches de parole de durée courte pour
la conception des codecs etc..)
2. La présence permanente du bruit
Les données disponibles sont souvent corrompues par le bruit ou par les interférences avec d’autres
signaux non désirés.

En résumé, l’estimation spectrale consiste en l’estimation de la DSP su signal d’intérêt avec un nombre
limité de données de polluées par le bruit.

40
2.4.- Introduction à l’analyse spectrale (3)

 Méthodes d’estimation spectrale


Dans certaines applications, l’estimation spectrales peut être facilitée par les connaissances a priori disponibles
sur le signal à analyser. Ce type d’information peut alors permettre de paramétrer l’estimation de la DSP ou
d’extrapoler les données de la FAC en vue d’améliorer les algorithmes d’estimation.
On peut subdiviser l’analyse spectrale en 2 classes principales :
1. Les méthodes classiques (ou non paramétriques)
Estimation préalable de la FAC à partir d’un ensemble limité de données du signal. La portion observée
est apodisée par une fenêtre de pondération (Rectangle, Hamming, Hanning, Welch, Bartlett etc…). On
calcule par la suite, la TF de la FAC. C’est la méthode du corrélogramme
2. Les méthodes paramétriques
Elles exploitent la modélisation du processus pour réaliser l’estimation de la DSP. Exemple de la
modélisation par prédiction linéaire de la parole.

TF

 Erreur de prédiction

41

2.4.- Introduction à l’analyse spectrale (4)

 2.4.3. – Le périodogramme

 Définition
Soit X t une réalisation particulière du p. a. X t , la TF de X t n’existe pas car la condition de convergence
(sommabilité absolue n’est pas satisfaite).
Toute fois si on considère X t défini sur un domaine ; et identiquement nul pour toute autre valeur de ,
on peut écrire
avec

X t, étant fini et à support fini, il possède une TF au sens des fonctions. On peut donc calculer sa TF
suivant la relation :

La puissance moyenne de X t, devient alors :

La densité spectrale de puissance DSP de la réalisation X t, du p. a. s’écrit alors :

Cette grandeur qui désigne aussi le périodogramme


42
2.4.- Introduction à l’analyse spectrale (5)

Le périodogramme est une grandeur aléatoire puisqu’elle dépend de l’échantillon choisi.


Pour estimer le spectre du p. a. , on réalise une moyenne statistique des DSP, soit

Finalement, la DSP ou le spectre de puissance du p. a. , c’est la limite lorsque la durée d’observation


→ ∞ de la moyenne statistique , soit :

avec 1, 2, … , où désigne le nombre de réalisations

43

2.4.- Introduction à l’analyse spectrale (5b)

44
2.4.- Introduction à l’analyse spectrale (6)

 2.4.1. – Propriétés de la DSP d’un pas2

 La DSP d’un p. a. est une fonction réelle non négative


Si est la DSP du p. a. alors 0 ∀ ∈
Si est un p. a. réel alors est paire et donc

 La puissance moyenne d’un p. a. c’est l’aire de sa DSP

 La densité inter-spectrale de puissance


Si 2 p. a. et Y sont conjointement stationnaire s, on définit la fonction d’inter-corrélation et la densité
inter-spectrale de puissance (ou la densité spectrale de puissance croisée) par :

45

Vous aimerez peut-être aussi