Vous êtes sur la page 1sur 27

Chapitre 1 Rappel sur les Processus Aléatoires

1.1 Processus Aléatoires à temps continu, Processus Aléatoires à temps discret

Rappel

En théorie du signal, on étudie le plus souvent des grandeurs dépendant du temps et dont l’évolution
semble imprévisible. L’étude du son émis par les véhicules qui passent sur une route nous donne une
image concréte d’une telle grandeur (alors que le jet d’un dé est une variable aléatoire statique et
indépendante du temps). Pour les modéliser, on utilise la notion du processus aléatoir qui associe à
chaque épreuve une réalisation qui n’est plus une valeur comme dans le cas des variables aléatoires,
mais une fonction du temps.

On définit un processus aléatoire (PA) comme une application qui, à chaque épreuve ω , fait
correspondre une fonction du temps t . On utilise la notation X ( t ,ξ ) ou plus usuellement X (t ) dans
laquelle on omet la dépendance statistique vis-à-vis de l’épreuve ξ .

Exemple de processus aléatoire

(a)

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 1


Chapitre 1 Rappel sur les Processus Aléatoires

(b)

Figure 1.1 Représentation d'un ensemble de réalisations d'un processus aléatoire

Un processus peut alors être vu :

 Soit, pour une épreuve fixée ξ 0, X ( t , ξ0 ) comme une fonction du temps que l’on appelle
trajectoire
 Soit, pour un instant fixé t 0, X ( t 0 , ξ )comme une variable aléatoire et x (t 0) devient une
valeur particulière de la va X

Exemple 1.1

Considérer le processus aléatoire X ( t )= Acos ( ωt +Θ ), ou Θ est une va uniformément distribuée


entre 0 et 2 π , comme c’est illustré dans la Figure 1.2.

Figure 1.2 PDF Uniforme

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 2


Chapitre 1 Rappel sur les Processus Aléatoires

Alors

{
1
, 0 ≤ θ≤ 2 π
f Θ ( θ )= 2 π (1.1)
0 , otherwise

Un tel processus aléatoire, dont les valeurs futures sont prédictives à partir des valeurs précédente,
est appelé prédictif. En effet, en fixant la valeur de Θ , à π /4 par exemple, la fonction X (t , ξ k )
devient une fonction déterministe du temps, alors

( π
x k (t )= Acos ωt +( )
4 ) (1.2)

x2
-1 x1
x3
x4
-2
x5

-3

-4

-5
-8 -6 -4 -2 0 2 4 6 8
t

Figure 1.3 Représentation des réalisation du processus aléatoire X ( t )= Acos ( ωt +Θ )

--------------------------------------------------------------------------------------------------------------------------------------

Programme 1.1

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%% Realisations of a random signal
fs=100;% sampling frequency in HZ
tiv=1/fs;
t=-2*pi:tiv:2*pi;

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 3


Chapitre 1 Rappel sur les Processus Aléatoires

% x=5*cos(fs*t+pi/4);% with a frequency 100 and phi=pi/4


% figure(1)
% plot(t,x);
% x1=5*cos(10*t+pi/4);% with a frequency fs=10 and phi=pi/4
% figure(2)
% plot(t,x1);
% x=5*cos(fs*t+pi/4);
% figure(3)
% plot(t,x);
% grid
x2=5*cos(2*t+pi/6);
hold on
plot(t,x2);
x3=5*cos(2*t+pi/3);% with a frequency fs=2 and phi=pi/3
hold on
plot(t,x3);
x4=5*cos(2*t+pi/2);
hold on
plot(t,x4);
x5=5*cos(2*t+pi);
hold on
plot(t,x5);
xlabel('t')
----------------------------------------------------------------------------------------------

Programme1.2

%%%%%%%%%%%%% Programme1.2
%%%%%%%%%%%% Uniform PDF
%%%%%%%%%%%%%%%%%%%%%%%%%
v=0:0.1:1;% values set
ypdf=unifpdf(v,0,1); % uniform PDF
plot(v,ypdf,'k'); hold on;%
axis([-0.5 1.5 0 1.1]);
xlabel ('values');title('uniform PDF');
plot([0 0],[0 1],'--k');
plot([1 1],[0 1],'--k');
------------------------------------------------------------------------------

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 4


Chapitre 1 Rappel sur les Processus Aléatoires

uniform PDF

0.8

0.6

0.4

0.2

0
-0.5 0 0.5 1 1.5
values

Figure 1.4 PDF uniforme

Programme 1.3

---------------------------------------------------------------------------------------------------

% Histogramme of a random signal with uniform PDF


fs=100;% sampling frequency in HZ
tiv=1/fs; % time interval between samples;
t=0:tiv:(100-tiv);%time intervals st (1000 values)
N=length(t);
y=rand(N,1);% random signal data set
v=0:0.02:1; % value intevals set
hist(y,v); colormap(cool); % plots histogram
xlabel('values');
title('Histogram of random signal with uniform PDF');
grid;
------------------------------------------------------------------------------------------------------

Histogram of random signal with uniform PDF


250

200

150

100

50

0
-0.2 0 0.2 0.4 0.6 0.8 1 1.2
values

Figure 1.5 Histogramme d'un signal aléatoire de PDF uniforme

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 5


Chapitre 1 Rappel sur les Processus Aléatoires

Processus aléatoire à temps continu (TC)et à temps discret (TD)

Un processus aléatoire est à temps continu (TC), si le temps t ∈ R ( t réel )

Un processus aléatoire est à temps discret (TD), si le temps t ϵ Z ( t entier)

En général, on s’intéresse à quatre types de processus aléatoires, selon la caractéristique du temps t


et de la va X ( t )=X au temps t . On aura donc

1 Etat (épreuve) continu et temps continu : dans ce cas, X ( t) et t tous les deux sont continus. X ( t)
est dit processus aléatoire continu (continuous random process) comme c’est montré dans la Figure
1.6

Figure 1.6 Processus Aléatoire à temps continu

2 Etat discret et temps continu. X ( t) assume un ensemble de valeurs discrètes, tandis que le
temps t est continu. Un tel processus est considéré comme un processus discret (discrete random
process). La Figure 1.7 illustre ce processus

Figure 1.7 Processus Aléatoire Eta discret et temps discret

3 Etat continu et temps discret. X (t) prends des valeurs continues, tandis que le temps est un
ensemble de valeurs discrètes, comme c’est montré dans la Figure 3.4. Un tel processus est dit
séquence aléatoire continue

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 6


Chapitre 1 Rappel sur les Processus Aléatoires

Figure 1.8 Processus Aléatoire Etat continu et temps discret

4 Etat discret et temps discret. X ( t ) et t sont tous les deux considérés comme un ensemble de
valeurs discrètes. Un tel processus est considéré comme une séquence aléatoire discrète. La Figure
1.9 illustre ce processus.

Figure 1.9 Processus Aléatoire Etat discret et temps discret

En fixant le temps t , le processus aléatoire X ( t) devient une va. Dans ce ca, les techniques qu’on
utilise avec les variables aléatoires sont valables. Par voie de conséquence, on peut caractériser le
processus aléatoire par la distribution d’ordre 1 (la fonction de répartition : cumulative density
function) :

F X ( x ; t )=P [ X ( t 0 ) ≤ x ] ,−∞< x <+∞ (1.3)

Et la fonction densité 1èr ordre :

d
f X ( x ; t ❑ )= F ( x ;t ❑) (1.4)
dx X

pour toutes les valeurs de t .

Exemple 1.2: Processus aléatoire uniformément réparti

--------------------------------------------------------------------------------------------------------------

programme 1.2

%%%%%%%% Programme2.2%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%% Processus aléatoire uniformément réparti
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
fs=100; %sampling frequency in HZ
tiv=1/fs;%time interval between samples;
t=0:tiv:(2-tiv); % time interval set (200 values);
N=length(t);% number of data points
y=rand(N,1);%random signal data set
plot(t,y,'k');
axis([0 2 0 1.2]);
xlabel('seconds');
title('random signal with uniform PDF');

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 7


Chapitre 1 Rappel sur les Processus Aléatoires

----------------------------------------------------------------------------------------------------------

random signal with uniform PDF

0.8

0.6

0.4

0.2

0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
seconds

Figure 1.10. Signal aléatoire de pdf uniforme

La fonction distribution 2ème ordre est la distribution conjointe de deux variables aléatoires X (t 1 ) et
X (t 2 ) pour chaque t 1 et t 1. Alors :

F X ( x 1 , x 2 ; t 1 , t 2) =P [ X ( t 1) ≤ x 1 et X ( t 2 ) ≤ x2 ] ,−∞< x 1<+ ∞ ,−∞< x 2<+ ∞

(1.5)

Et la fonction densité 2ème ordre est :

∂2
f X ( x 1 , x 2 ;t 1 , t 2 )= F X ( x 1 , x 2 ; t 1 ,t 2 ) (1.6)
∂ x1 ∂ x2

Normalement, la description probabilistique compléte d’un processus aléatoire quelconque,


nécessite la connaissance des distributions du 1èr jusqu’au nème ordre, données par :

FX 1 , X 2 ,… ., X n ( x 1 , x 2 , … . , x n ; t 1 , t 2 , … , t n ) =P [ X ( t1 ) ≤ x1 , X ( t 2) ≤ x 2 , … , X ( t n ) ≤ x n ]
(1.7)

et la fonction densité du nème ordre est :


n
∂ F X ,X , …. , Xn ( x 1 , x 2 ,… . , x n ; t 1 , t 2 , … , t n )
f X ,X
1 2 ,… ., Xn
( x 1 , x 2 , … . , xn ; t 1 , t 2 , … , tn ) = 1 2

∂ x1 ∂ x2 … ∂ xn

(1.8)

1.2 Mesures Statistiques

Esperances (Expectations)

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 8


Chapitre 1 Rappel sur les Processus Aléatoires

Dans plusieurs situations, uniquement les statistiques d’ordre 1 et 2 peuvent être nécessaires pour
caractériser un processus aléatoire. Etant donné un processus aléatoire réel (a real random process)
X ( t):

Moyenne mx (t )

+∞
mx ( t ) =E [ X (t) ] =∫ x f X ( x ; t ) dx (1.9)
−∞

C’est la moyenne statistique, l’éspérance mathématique ou encore moment d’ordre 1 de X ( t). Cette
grandeur est detrministe et dépend de t . E [ X (t ) ] existe si l'integrale (2.9) converge.

Fonction d’autocorrelation R xx (t 1 , t 2 )

appelée aussi autocovariance si le processus est stationnaire et centré,


+∞ +∞
R xx ( t 1 ,t 2 )=E [ X ( t 1 ) X (t 2 ) ]=∫ ∫ x 1 x 2 f X 1 X2 ( x1 , x 2 ;t 1 , t 2) d x 1 d x 2
−∞ −∞

1.3 STATIONNARITE AU SENSE LARGE (STATIONNARY IN THE WIDE SENSE) DES PROCESSUS A TC
ET A TD

Notation : si le processus est à TC, t , τ , t 1 , t 2 ϵ R, si le rpocessus est à TD, t , τ , t 1 , t 2 ϵ Z .

Lorsuqe la fonction d’autocorrelation R xx ( t 1 ,t 2 ) ne dépend que de la différence |t 1−t 2| , et la


moyenne mx (t ) est constante, on dit que le processus aléatoire est stationnaire au sense large (SSL),
c'est-à-dire le processus vérifie les deux propriétés suivante :

1. La moyenne du processus aléatoire est indépendante du temps (constante),


E [ X (t ) ] =m x ( t ) =m x
2. La fonction d’aucorrelation ne dépend que de τ . Dans ce cas, R xx ( t 1 ,t 2 ) est écrite en fonction
d’un seul argument τ =t 1−t 2 . Si t 2=t et t 1=t+ τ ,
R xx ( t ❑+τ , t ❑)=R xx (τ)

Stationnarité au sens strict ou strictement stationnaire (strictly stationnary or stationnary in


the strict sens)

Un processus aléatoire est strictement stationnaire si ses statistiques sont invariants par rapport au
temps ou un décalage de temps (a time shift in the time origine). Un processus strictement
stationnaire est également stationnaire au sens large (SSL). L’inverse n’est pas vrai.

Exemple 1.2

Vérifier si le processus aléatoire de l’exemple 2.1 est stationnaire au sens large.

Solution

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 9


Chapitre 1 Rappel sur les Processus Aléatoires

Pour qu’un processus aléatoire soit stationnaire au sens large, il doit satisfaire deux conditions :

1. E [ X (t )] =constante .
2. R xx ( t +τ ) =Rxx (τ ).

Pour calculer la moyenne de X ( t), on utilise le concept de fonction d’une va

+∞
E [ g(Θ) ] =∫ g ( θ ) f Θ (θ) dθ
−∞

1
Tel que, dans ce cas g ( θ )= A ∙ cos ( ωt +θ ) et f Θ (θ )= dans l’intervalle de 0 à 2 π


1
E [ X (t ) ] =∫ Acos ( ωt+θ ) dθ=0
0 2π

La fonction d’autocorrelation est :

E [ X ( t+ τ ,t ) X (t) ]=E { Acos [ ω ( t+ τ ) +θ ] Acos ( ωt +θ ) }


2
A
¿ E [ cos ( ωτ )+ cos ⁡(2 ωt +ωτ + 2θ) ]
2

Où on a utilisé la relation trigonométrique :

1
cos (a)∙ cos (b)=
2
[ cos ( a−b ) +cos ⁡(a+b) ]

Le second term est éva lué à zéro. Donc, la fonction d’autocorrelation est :
2
A
R xx ( t +τ , t )= cosωτ =R xx ( τ )
2

Puisque la moyenne est constante et la fonction d’autocorrelation dépend uniquement de τ , X ( t)


est un processus stationnaire au sens large ( wide-sense stationary process).

Dans le cas de deux va X ( t) et Y (t ), ,on dit qu’elles sont conjointement stationnaires (jointly wide-
sense stationary) au sens large si chaque processus est stationnaire au sens large, et

R xy ( t +τ , t )=E [ X ( t+ τ ) Y (t) ] =R xy (τ )

Tel que R xy (t 1 , t 2 ) représente la fonction d’intercorrelation (cross-correlation function). On définit


également la fonction d’autocovariance ( the autocovariance function) C xx ( t 1 , t 2 ) et la fonction
d’intercorrelation ( the cross-covariance function) C xy ( t 1 , t 2) entre X (t) et Y (t ) comme suit :

C xx ( t 1 , t 2 ) =E {[ X ( t 1 ) −mx (t 1)][ X ( t 2 )−m x (t 2 ) ] }

¿ E [ X ( t 1 ) X (t 2) ]−m x (t 1 ) mx (t 2 )

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 10


Chapitre 1 Rappel sur les Processus Aléatoires

et

C xy ( t 1 , t 2) =E {[ X ( t 1 ) −mx (t 1) ][ Y ( t 2) −m y (t 2) ] }

Cas Particuliers

 Si le processus est stationnaire au sens large (SSL), l’autocovariance sera

C xx ( t 1 , t 2 ) =C xx ( τ )=E [ X 0 ( t +τ ) X 0 ( t ) ]=E [ X ( t+ τ ) X ( t ) ] −m2x

avec

X ( t + τ )= [ X ( t + τ )−m x (t +τ ) ]
0

si τ =0, l'autocovariance est la variance du signal X ( t ). C'est également le moment d'ordre 2 de X ( t )


en terme de moyenne. la racine carrée de la variance est l'écart type σ .

 Si le processus est centré mx =0, la fonction d’autocovariance se confond avec la fonction


d’autocorrelation

C xx ( τ )=E [ X ( t +τ ) X ( t ) ]=R xx (τ )

On a aussi:

C xx ( τ )=E [ X ( t ) X ( t −τ ) ]
0 0

et

C xx (−τ ) =E [ X ( t ) X ( t + τ ) ]=C xx ( τ ), C xx ( τ ) est paire


0 0

Remarque

L’autocovariance d’un processus aléatoire strictement stationnaire X ( t) dépend uniquement de la


différence t 1−t 2. L’équation (de l’autocovariance) montre également, que si on connait la moyenne
et la fonction d’autocorrelation d’un processus aléatoire, on peut uniquement déterminer sa
fonction d’autocovariance. La moyenne et la fonction d’autocorrelation sont alors suffisantes pour
décrire les deux premiers moments du processus.

Cependant, deux points importants doivent être notés :

1. La moyenne et la fonction d’autocorrelation fournissent une description partielle seulement


de la distribution du processus X (t)
2. Les conditions sur la moyenne et sur la fonction d’autocorrelation ne sont pas suffisantes
pour garantir si le processus X ( t) est strictement stationnaire.

On se limite aux processus stationnaires 2nd ordre au sens large (SSL) (cas le plus courant).

La classe des processus aléatoires qui satisfont les deux conditions de stationnarité, sont appelés
plutôt « stationnaires second ordre » ou encore « stationnaire au sens large ». un processus

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 11


Chapitre 1 Rappel sur les Processus Aléatoires

stationnaire n’est pas nécessairement strictement stationnaire, parce que les deux conditions
n’impliquent pas l’invariance par rapport au temps de la distribution conjointe (de dimension k)

Processus Aléatoire Complexe

Si Z( t) est un processus aléatoire complexe (complexe random process) tel que Z ( t )=X ( t )+ jY (t)

Les fonctions d’autocorrelation et d’autocovariance sont

R zz ( t 1 ,t 2 )=E [ Z ( t 1 ) Z ¿ (t 2 ) ]

et

[ ]
¿
C zz ( t 1 , t 2 ) =E { Z ( t 1 ) −mz (t 1) } {Z ( t 2) −mz (t 2 ) }

où ¿ dénote le complexe conjugué et m z (t) la moyenne de Z( t).

Les fonctions d’intercorrelation et d’intercovariance (the cross-correlation and the cross-covariance


functions) entre le processus aléatoire complexe Z(t) et un autre processus aléatoire complexe
W (t ), W ( t )=U ( t ) + jV (t ), sont

R zw ( t 1 , t 2) =E [ Z ( t 1 ) W ¿ (t 2) ]

et

[ ]
¿
C zw ( t 1 ,t 2 )=E { Z ( t 1 )−mz (t 1) }{W ( t 2 )−mw (t 2 ) }

Exemple 1.3

Soit I (t) et Q(t) deux processus aléatoires tel que

I ( t )= X cos ωt+ Y sin ωt et Q ( t ) =Y cos ωt−X sin ωt

où X et Y sont deux variables aléatoires noncorrelées et de moyenne zéro. Les valeurs des
moyennes qudratiques de X et Y sont E [ X 2 ] =E [ Y 2 ] =σ 2. Donner la fonction d’intercorrelation Riq

Solution

Riq ( t + τ , t )=E [ I ( t +τ ) Q(t) ]

¿ E¿

¿ E [ XY ] cos ( ωt+ ωτ ) cos ωt – E [ X 2 ] cos ( ωt +ωτ ) sin ωt + E [ Y 2 ] sin ( ωt+ ωτ ) cos ωt

−E [ XY ] sin ( ωt + ωτ ) sin ωt

En utilisant les relations trigonométriques et du moment que X et Y sont noncorrelées et de


moyennes zéro ( E [ XY ] =E [ X ] =E [ Y ] =0 ), on trouve :

2
Riq ( t+ τ , t )=−σ sin ωτ

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 12


Chapitre 1 Rappel sur les Processus Aléatoires

Exemple 1.3’

Soit N (t ) un processus aléatoire défini comme suit :

N ( t ) =U ∙ exp [ −|t |] +V

Ou U et V sont deux variables aléatoires indépendantes et de moyenne nulle E [ U ] =E [ V ] =0

1. Déterminer E [N ( t )] ; calculer E [N ( 0 ) ] et E [N ( 2 ) ]
2. Calculer E [N 2 ( 0 ) ] et E [N 2 ( 2 ) ]
3. Déterminer la fonction d’autocorrelation de ce processus
4. Le processus est-il stationnaire
5. Calculer le coefficient de corrélation entre N ( 0 ) et N ( 2 )

Solution

E [ N ( t ) ]=E [ U ] e−|t|+ E [ V ]

Si E [ U ] =E [ V ] =0 alors E [ N ( t ) ] =0

E [ N ( 0 ) ] =E [ U ] + E [ V ]

E [ N ( 0 ) ]=E [ ( U +V ) ] =E [ U ]+ E [ V ]+ E [ U ] E [ V ]
2 2 2 2

Si de plus σ U =σ V =1 alors : E [ N 2 ( 0 ) ]=2


2 2

E [ N ( 2 ) ]=E [ ( U e +V ) ] =E [U ] e + E [V ]+ E [ U ] E [ V ] e
2 −2 2 2 −4 2 −2

Si de plus σ U =σ V =1 alors  E [ N 2 ( 2 ) ] =1+e−4


2 2

La fonction d’autocorrelation

E [U ]+ E [ U ] E [ V ] ( e ) + E [V 2 ]
−|t 1| −|t 1| −|t1| −|t 2|
R NN ( t 1 , t 2 )=E [ N ( t 1 ) ∙ N ( t 2 ) ]=e
2
e +e

2 2 −|t 1| −|t 1|
Si de plus σ U =σ V =1 alors : R NN ( t 1 , t 2 )=e e +1

Du moment que la fonction d’autocorrelation R NN ( t 1 , t 2 ) dépend du temps, le processus n’est pas


stationnaire.

Le coefficient de corrélation :

ρ N ( 0,2 )=E ¿ ¿

E [ U ] e + E [ U ] E [ V ] ( 1+ e )+ E [V ]
2 −2 −2 2
ρ N ( 0,2 )=
σ N ( 0)σ N ( 2)

Si de plus σ U =σ V =1 E [ U ] =E [ V ] =0 alors 
2 2

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 13


Chapitre 1 Rappel sur les Processus Aléatoires

−2
1+e
ρ N ( 0,2 )=
√ 2 ( 1+ e−4
)
Propriétés de La Fonction d’autocorrelation (FAC)

Par convension de notation, nous rappelons la fonction d’autocorrelation d’un processus aléatoire
stationnaire X ( t):

R xx ( τ )=E [ X ( t+ τ ) X (t) ] for all t

Cette FAC a plusieurs propriétés :

La moyenne de la valeur quadratique du processus peut étre obtenue à partir de R xx ( τ ), en posant


τ =0,

R xx ( 0 )=E [ X (t ) ]
2

La fonction d’autocorrelation est une fonction paire (an even function):

R xx ( τ )=R xx (−τ )

On peut également définir la fonction d’autocorrelation R xx ( τ ), comme suit :

R xx ( τ )=E [ X (t) X ( t−τ ) ]

Figure 1.11 Illustration des fonctions d’autocorrelation des processus aléatoires lentement et
rapidement fluctuants

La fonction d’autocorrelation est max à l’origine (τ =0), c'est-à-dire :

|R xx (τ )|≤ R xx (0)
Pour démontrer cette propriété, considérer la quantité nonégative suivante :

E [ ( X (t + τ)± X (t )) 2 ] ≥ 0

⟹ E [ X (t + τ ) ] ± 2 E [ X ( t+ τ ) X (t ) ] + E [ X (t ) ] ≥ 0
2 2

⟹ 2 R xx ( 0 ) ±2 R xx ( τ ) ≥ 0

On peut écrire

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 14


Chapitre 1 Rappel sur les Processus Aléatoires

−R xx ( 0 ) ≤ R xx ( τ ) ≤ R xx( 0)

C'est-à-dire
|R xx (τ )|≤ R xx (0)
¿
R xx ( t 2 ,t 1 )=R xx (t 1 ,t 2)

Si X ( t) est réel, alors la fonction d’autocorrelation est symétrique dans le plan ( t 1 , t 2 )

R xx ( t 2 ,t 1 )=R xx ( t 1 , t 2 )

La valeur de la moyenne quadratique du processus aléatoire X ( t) est toujours positive, alors :

R xx ( t 1 ,t 1 )=E [ X ( t 1 ) X (t 1 ) ]=E [| X (t )| ] ≥ 0
¿ 2

Si X ( t) est réel, la valeur de la moyenne quadratique E [ X 2 (t ) ] est toujours nonégative .

|R xx (t 1 , t 2)|≤ √ R xx (t 1 , t 1) R xx (t 2 ,t 2)
C’est l’inégalité de Schwartz. Elle peut etre écrite comme suit :

|R xx (t 1 , t 2)| ≤ E [|X (t 1)| ] E [|X (t 2)| ]


2 2 2

N−1 N −1

∑ ∑ ai a¿j R xx (t i , t j )≥ 0
i=0 j=0

Pour n’importe quelle suite de valeurs a 0 , a 2 , … , a N−1 et n’importe quelle suite des instants
t 0 ,t 2 ,… , t n−1. Alors, l’autocorrelation est une fonction définie nonégative. On peut écrire la
propriété de positivité comme suit :
T
A R A≥0 ( A H R A ≥ 0 dans le cas complexe ), les exposants T et H indiquent respectivement la
transposition et la transposition-conjuguaison.

Exemple pour N=3 :

[ ][ ]
R xx (0) R xx (1) R xx (2) a 0
A R A=[ a0 a1 a2 ]
T
R xx (1) R xx (0) R xx (1) a 1 ≥ 0
R xx (2) R xx (1) R xx (0) a 2

Dans le cas complexe,

[ ][ ]
R xx (0) R xx (1) Rxx (2) a0
A R A=[ a a a ]
H ¿ ¿ ¿
0❑ 1 2 R xx (−1) R xx (0) Rxx (1) a1 ≥ 0
R xx (−2) R xx (−1) R xx (0) a2

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 15


Chapitre 1 Rappel sur les Processus Aléatoires

En raison de la staionnarité du processus aléatoire, la matrice R est telle que les parallèles à la
diagonale principale sont constitués de termes égaux. Cette forme de matrice porte le nom de
matrice de Toeplitz.

Propriétés de La Fonction d’intercorrelation (FAC)

Considérer les deux processus aléatoires X ( t) et Y(t).


¿
R xy ( t 1 ,t 2 )=R yx (t 2 , t 1)

Et d’une autre part

R xy ( t 1 ,t 2 )=E [ X ( t 1 ) Y (t 2) ]

R yx ( t 1 , t 2 )=E [ Y ( t 1 ) X (t 2 ) ]

Sous forme matricielle, on écrit :

R ( t 1 , t 2) =
[ R xx (t 1 ,t 2) R xy (t 1 , t 2)
]
R yx (t 1 , t 2 ) R yy (t 1 , t 2 )

Cette matrice est appellée matrice de correlation.

Si les deux processus X ( t) et Y (t ) sont stationnaires chacun, et conjointement stationnaires, alors la


matrice de correlation peut étre écrite comme suit :

R (τ )=
[ R xx (τ ) R xy (τ )
R yx (τ) R yy (τ) ]
où τ =t 1−t 2

Si X ( t) et Y(t) sont des processus réels :

R xy ( t 1 ,t 2 )=R❑yx (t 2 , t 1)

En général, R xy ( t 1 ,t 2 ) et R yx ( t 2 ,t 1 ) sont différentes

|R xy (t 1 , t 2)|=E [ X (t 1)] E [Y (t2 )]


≤ √ R xx (t 1 ,t 1) R yy (t 2 ,t 2)= E [ X 2 (t 1 ) ] E [ Y 2 (t 2 ) ]

X ( t) et Y(t) sont staionnaires au sens large (SSL) (wide sens stationary),

La fonction d’autocorrelation est une fonction paire de τ :

R xx ( τ )=R xx (−τ )

R xx ( 0 )=E [| X| (t) ]
2

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 16


Chapitre 1 Rappel sur les Processus Aléatoires

Du moment que X ( t) est réel :

R xx ( 0 )=E [ X (t ) ]=E [ X (t ) ]−mx +mx =σ x + mx ≥ 0


2 2 2 2 2 2

Rappelons que nous avons le max de R xx ( τ ) à τ =0. Plus on s'éloigne de l’origine, plus R xx ( τ ) décroit
rapidement. Si τ ⟶ ∞ , les deux obseravations peuvent etre incorrelées. Dans ce cas, la fonction
d’autocovariance tend vers 0.

lim C xx ( τ )=E [ { X ( t+ τ )−mx }{ X ( t )−m x }]=R xx ( τ )−m2x =0


τ⟶∞

Ou encore
2
lim R xx ( τ ) =|mx|
τ⟶∞

Exemple d’une fonction d’autocorrelation

On obtient les memes propriétés si X ( t ) , Y (t ) sont conjointement stationnaires au sens large (jointly
stationary in the wide sense),
¿
R xy ( τ )=R xy (−τ)
2
|R xy (τ )| ≤ R xx (0) R yy (0)
¿
R xy ( 0 )=R xy (0)

R xx ( 0 ) + Rxy (0)
|R xy (τ )|≤ 2

Exemple 1.4

Considérer une paire de processus modulés en quadrature X 1 ( t ) , X 2 (t ) qui sont liés au processus
staionnaire X (t )❑ :

X 1 ( t )=X ( t ) cos ( 2 π f c t +Θ )

X 2 ( t )=X ( t ) sin ( 2 π f c t +Θ )

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 17


Chapitre 1 Rappel sur les Processus Aléatoires

L’exemple réel de ce processus est la génération de la double bande latérale en modulation AM


(DSB-SC), ou on rappelle le schèma pour plus de clarté dans l’exposé :

mt 
Modulator
AM. s1 t 
+
Oscillateur

-
st 
 mt 
Modulator
AM. s 2 t 
ou f c est la fréquence porteuse, et Θ est une variable aléatoire (va) uniformément distribuée sur
l’intervalle [ 0 , 2 π ] . Cependant, Θ est indépendante de X ( t)❑ . l’intercorrelation de X 1 ( t ) , X 2 (t ) est

R x x ( τ )=R12 ( τ )=E [ X 1 ( t ) X 2 (t−τ) ]


1 2

¿ E [ X ( t ) X (t −τ ) cos ( 2 π f c t +Θ ) sin ( 2 π f c t−2 π f c τ+Θ ) ]

1
¿ E [ X ( t ) X ( t−τ ) sin ( 4 π f c t−2 π f c τ +2 Θ )− X ( t ) X ( t−τ ) sin ( 2 π f c τ ) ]
2

1
¿ E [ X ( t ) X ( t−τ ) ] ( E [ sin ( 4 π f c t−2 π f c τ + 2Θ ) ] −E [ sin ( 2 π f c τ ) ] )
2

1
¿− R xx (τ) E [ sin ( 2 π f c τ ) ]
2

( )

1
E [ sin ( 4 π f c t−2 π f c τ +2 Θ ) ] = ∫ sin ( 4 π f c t−2 π f c τ +2 Θ ) dθ=0
2π 0

−1
Notons qu’à τ =0, R12 ( τ )= R ( τ ) E [ sin ( 0 ) ] =E [ X 1 (t ) X 2 (t) ] =0
2 xx

Cela montre les va obtenues par les observations simultannées X 1 ( t ) , X 2 (t ) sont orthogonales.

1.4 Quelques Processus Aléatoires

Dans ce paragraphe, nous allons étudié certains processus aléatoires qui peuvent caractériser
quelques applications.

1.4.1 A Single Pulse of Known Shape but Random Amplitude and Arrival Time

Dasn les applications du Radar et du Sonar, le signal recu (a return signal) peut étre caractérisé
comme un processus aléatoire « une impulsion », mais avec une amplitude et un temps d’arrivé
aléatoires. L’impulsion peut être exprimée par :

X ( t )= A S (t−Θ)
Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 18
Chapitre 1 Rappel sur les Processus Aléatoires

où A et Θ sont des variables aléatoires statistiquement indépendantes, et s(t ) est une fonction
déterministe. Un exemple de cette fonction est représenté dans la Figure

La valeur moyenne de processus aléatoire particulier est donnée par:

E [ X (t ) ] =E [ A S ( t−Θ ) ]

Du moment que A et Θ sont statistiquement indépendants, on aura :

E [ X (t )] =E ¿
+∞
L’integrale ∫ s ( t−θ ) f Θ ( θ ) dθ est tou simplement la convolution de l’impulsion s(t ) avec la fonction
−∞
densité de Θ . Alors :

E [ X (t )] =E [ A ] s(t )∗f Θ (θ)

Par analogie,

La fonction d’autocorrelation est donnée par :


+∞
R xx ( t 1 ,t 2 )=E [ A
2
] ∫ s ( t1−θ ) s ( t 2−θ ) f Θ ( θ ) dθ
−∞

Si le temps d’arrivé est connu avec une certaine valeur θ0 , alors les fonctions de moyenne et
d’autocorrelation de X ( t) deviennent :

E [ X (t )] =E [ A ¿ s ( t−θ0 ) ]

et

R xx ( t 1 ,t 2 )=E [ A 2 ] s ( t 1 −θ0 ) s ( t 2 −θ0 )

Cas particulier:

Le temps d’arrivé peut être uniformément distribué sur l’intervalle [ 0 , T ]. Les fonctions de moyenne
et d’autocorrelation:
T
E[ A ]
E [ X (t )] =E [ A ] E [ S(t−Θ) ] =
T 0
∫ s ( t−θ ) dθ

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 19


Chapitre 1 Rappel sur les Processus Aléatoires

et
T
E [ A]
R xx ( t 1 ,t 2 )=
T 0
∫ s ( t1−θ ) s ( t 2−θ ) dθ
1.4.2 Processus Gaussien

Le processus aléatoire X (t) est gaussien si les variables aléatoires X ( t 1 ) , X ( t 2 ) , … , X ( t n ) sont


conjointement gaussien pour toutes les valeurs possibles de n et t 1 , t 2 , … , t n. Du moment que les
variables aléatoires gaussiennes multiples dépendent uniquement du vecteur moyenne et de la
matrice de covariance de n valeurs aléatoires, on observe que X ( t) stationnaire au sens large (SSL).
Si X ( t) est un processus aléatoire gaussien appliqué à un système linéaire invariant avec une
réponse impulsionnelle h( t), comme c’est montré dans la Figure 2.4, alors le processus aléatoire :

+∞ ∞
Y ( t ) = ∫ x ( t−τ ) h ( τ ) dτ
−∞

est aussi gaussien.

Système linéaire
Gaussien Gaussien

Exemple 1.5

Soit X (t ) un processus aléatoire SSL, gaussien de moyenne zéro, une entrée d’un détecteur
quadratique (a square law detector) un système nonlinéaire sans mémoire.

1. Vérifier que la sortie n’est plus gaussienne.


2. Déterminer la fonction d’autocorrelation R yy ( τ ), de la sortie ainsi que la variance.

Solution

La fonction densité de l’input est :

1 − x /2 σ
2 2

f X ( x ; t )=f X ( x )= e
√2 π
En utilisant le théorème fondamental :

Y = X ⟹ X =± √ Y , on a donc deux racines: x 1=+ √ y , x 2=− √ y


2

g' ( x )=2 x ⟹ g' ( x 1) =2 ( √ y ) , g' ( x2 ) =−2( √ y)

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 20


Chapitre 1 Rappel sur les Processus Aléatoires

Alors :

f X ( √ y ) f X (−√ y )
f Y ( y )= +
2√y 2√y

{
1 2

e− y/ 2 σ , y ≥ 0
f Y ( y ;t ) =f Y ( y )= √ 2 πy
0 , otherwise

Détecteur quadratique

On observe que la sortie du système nonlinéaire n’est plus gaussienne.

La fonction d’autocorrelation de la sortie Y ( t ) =X 2 (t) , est donnée par :

R yy ( t + τ , t ) =E [Y ( t +τ ) Y (t) ]=E [ X ( t +τ ) X (t ) ]=E [ X ( t+ τ ) X ( t+ τ ) X ( t ) X (t) ]


2 2

R yy ( τ )=R xx ( 0 )+2 R xx (τ )

La fonction densité de la sortie

détail de calcul:

E [ X ( t+ τ ) X ( t+ τ ) X ( t ) X (t) ]=E ¿

¿ R2xx ( 0 )+ 2 R2xx (τ )
2 2
R yy ( τ )=R xx ( 0 )+2 R xx (τ )

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 21


Chapitre 1 Rappel sur les Processus Aléatoires

E [ Y ( t ) ] =E [ X 2 ( t ) ]=R xx ( 0 )=σ xx
2

Alors, la valeur quadratique moyenne de Y (t ) est

E [ Y 2 (t) ] =R yy ( 0 )=3 { E [ X 2 (t) ] } =3 [ Rxx ( 0) ]


2 2

Mais E [ Y (t) ]=E [ X 2 (t) ]=R xx ( 0 )=σ 2. Donc, la variance de Y (t ) est

σ y =E [ Y (t) ] −¿ ¿
2 2

1.5 Densité Spéctrale de Puissance

Etant donné un signal déterministe, sa transformée de Fourrier (TF) est


+∞
S ( f )=∫ s (t)e
− j 2 πft
dt
−∞

La fonction S( f ) est appelée aussi le spéctre de s(t ). En allant de la déscription temporelle, s(t ) , au
domaine fréquentiel, S( f ), aucune information à propos du signal est pérdue. En d’autres termes,
S( f ) forme une déscription complète de s(t ) et vice versa. Alors s(t ) peut étre obtenu à partir de
S( f ) en calculant la transformée de Fourrier inverse (TFI). Alors :
+∞
s ( t ) =∫ S (f ) e+ j 2 πft df
−∞

On traite les processus aléatoires de la même manière que les signaux déterministes à énérgie
infinie. On définit x T (t ) comme la fonction échantillon x (t), tranquée entre – T et T , du processus
aléatoire X (t ). Alors :

xT (t )= {x0( t,) otherwise


,−T ≤ t ≤T

La TF tranquée du processus aléatoire X ( t), est :

T +∞
X T ( f )= ∫ x T (t) e dt=∫ x ❑ (t)e
− j 2 πft − j 2 πft
dt
−T −∞

La puissance moyenne de x T (t ) est

T
1
Pave =
2T
∫ x 2T ( t ) dt
−T

En utilisant le théorème de Parseval,

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 22


Chapitre 1 Rappel sur les Processus Aléatoires

+∞ +∞

∫ x ❑ (t ) dt =∫ |X T (f )| df
2 2

−∞ −∞

La puissance moyenne de x T (t ) est

2
+∞
| X T ( f )|
PT =∫ df
−∞ 2T
2
où le terme | X T ( f )| ∕ 2 T est la densité spéctrale de puissance de x T (t ). L’ensemble moyenne de PT
est donné par :

[ ]
2
+∞
| X T ( f )|
E [ PT ] = ∫ E df
−∞ 2T

La densité spéctrale de puissance du processus X ( t) est définie

[ ]
2
|X T (f )|
S xx ( f )= lim E
T ⟶∞ 2T

Si X ( t) est SSL, la densité spéctrale d puissance S xx ( f ) est la transformée de Fourier (TF) de la


fonction d’autocorrelation R xx (τ ). Alors :


S xx ( f )= ∫ R xx (τ )e− j 2 πfτ dτ
−∞

Alors la densité spéctrale de puissance S xx ( f ) est la transformée de Fourrier de la fonction


d’autocorrelation R xx (τ ). Cette dérnière est donc la transformée inverse de la densité spectrale de
puissance (dsp) S xx ( f ):


R xx ( τ )= ∫ S xx ( f )e
+ j 2 πfτ
df
−∞

Ces deux relations s’appelent les relations de Wiener-Khinchin. Notons que la la dsp est une fonction
de f réelle, positive et paire. La fonction d’autocorrelation est une fonction de τ impaire.

Exemple

Considérer le processus aléatoire X ( t )= A cos ( ω0 t +Θ ), où Θ est une varaible aléatoire


uniformément distribuée sur l’intervalle [ 0 , 2 π ] , et A et ω0 sont constants. Déterminer la densité
spectrale de puissance de ce processus.

Solution

Du moment que X ( t ) est SSL avec une fonction d’autocorrelation R xx ( τ )=( A /2 ) cos ( 2 π f 0 τ ) , alors :
2

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 23


Chapitre 1 Rappel sur les Processus Aléatoires

∞ +∞ 2 2
A A
S xx ( f )= ∫ R xx (τ ) e dτ =∫ dτ= [ δ ( f −f 0 ) +δ ( f + f 0 ) ]
− j 2 πfτ − j 2 πfτ
cos ( 2 π f 0 τ ) e
−∞ −∞ 2 4

Les inter Densités Spectrales de Puissance

Soit X ( t) et Y ( t ) deux processus aléatoires conjointement stationnaires au sens large. Leurs inter-
densités spectrales de puissance

S xy ( f )= ∫ R xy (τ ) e
− j 2 πfτ

−∞

et

S yx ( f )=∫ R yx (τ ) e− j 2 πfτ dτ
−∞

Nous avons donc, d’après les relations de Wiener-Khinchin et d’après :


¿
R xy ( τ )=R yx (−τ )

Par conséquent :

S yx ( f )=S¿xy ( f )

Exemple

Considérer le processus Y ( t ) =X (t−T ), où X ( t) est un processus linéaire et SSL avec une fonction
d’autocorrelation R xx (τ ) et une densité spectrale de puissance S xx (f ). T est une constante.
Exprimer la densité spectrale de puissance S xy (f ) du processus Y (t ) en terme de S xx (f ).

Solution

La fonction d’inter-correlation R xy ( τ ) est donné par :

R xy ( τ )=E [ X ( t+ τ ) Y ( t ) ]=E [ X ( t +τ ) X (t−T ) ] =R xx ( τ+ T )

Alors :
j 2 πfT
S xy ( f )=S xx ( f ) e

Donc, le temps de retard T apparait dans l’exposant comme une phase factorisée par 2 πf

1.6 Signaux Stochastiques

Considérer le système linéaire invariant par rapport au temps de la Figure suivante:

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 24


Chapitre 1 Rappel sur les Processus Aléatoires

Y ( t ) =h ( t )∗X ( t ) =X (t )∗h(t)
+∞ +∞
¿ ∫ X ( t−α ) h ( α ) dα= ∫ X ( α ) h ( t−α ) dα
−∞ −∞

LA MOYENNE

La valeur moyenne du processus de sortie est donnée par


+∞ +∞
E [ Y (t ) ]= ∫ E [ X ( t−α ) ] h ( α ) dα =∫ mx ( t −α ) h ( α ) dα
−∞ −∞

où m x (t ) est la moyenne du processus X ( t). Si X ( t) est stationnaire au sens large :

mx ( t−α )=mx ( t ) =constante

Donc, la moyenne m y (t) du processus Y (t ) est

+∞
m y ( t )=E [Y ( t ) ] =m x ∫ h ( α ) dα
−∞

+∞
On sait que ∫ h ( α ) dα =H (0)
−∞

Alors :

m y ( t )=E [ Y ( t ) ]=mx H (0)

La Valeur Quadratique Moyenne

[∬ ]
∞∞
E [ Y (t) ] =E
2
X ( t −t 1 ) X ( t−t 2) h ( t 1 ) h ( t 2 ) d t 1 d t 2
00

En simplifiant cette relation, on aura :


∞∞
E [ Y (t) ] =
2
∬ R xx ( t−t 1 , t−t 2 ) h ( t 1 ) h ( t 2 ) d t 1 d t 2
−∞−∞

∞∞
E [ Y (t) ] =
2
∬ R xx ( t 1 , t 2) h ( t−t 1 ) h ( t−t 2 ) d t 1 d t 2
−∞−∞

En assumant que X ( t) est stationnaire au sens large et après un changement de variable

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 25


Chapitre 1 Rappel sur les Processus Aléatoires

α =t−t 1 β=t−t 2, donc :


∞∞
E [ Y 2 (t) ] = ∬ R xx ( α −β ) h ( α ) h ( β ) dαdβ
−∞−∞

Qui est indépendante du temps

La Fonction d’intercorrelation Entre l’Input et l’Output

On considère que le processus input X ( t) est stationnaire au sens large. La fonction


d’intercorrelation entre l’input et l’output est :

R yx ( t+ τ , t )=E [Y ( t+ τ ) X (t ) ]
¿

En utilisant la relation Y ( t ) =X (t )∗h(t ) et après un changement de variables, la fonction


d’intercorrelation peut être écrite comme suit :
+∞
R yx ( t+ τ , t )= ∫ R xx ( τ−α ) h ( α ) dα =R xx ( τ )∗h ( τ )
−∞

On constate que ce résultat ne dépend pas de t , et donc R yx ( t + τ )=R yx ( τ ). on peut également


montrer que :

R xy ( τ )=R xx ( τ )∗h (−τ )

On calcule directement l’inter densité spectarle de puissance S yx ( f ):

S yx ( f )=S xx (f ) ∙ H (f )

et
¿
S xy ( f )=S xx (f ) ∙ H (f )

La Fonction d’Autocorrelation et le Spectre de l’Output

R yy ( t + τ , t ) =E [Y ( t +τ ) Y (t) ]

Nous avons
+∞
Y ( t+ τ )= ∫ X ( t+ τ−α ) h ( α ) dα
−∞

et
+∞
Y ( t ) =∫ X ( t−β ) h ( β ) dβ
−∞

Par substitution de Y ( t+ τ ) et Y ( t ) dans R yy ( t+ τ , t ) et par changement de variables : α=−β , on


trouve :

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 26


Chapitre 1 Rappel sur les Processus Aléatoires

[∬ ]
∞∞
R yy ( τ )=E X ( t+ τ−α ) h ( α ) X ( t−β ) h ( β ) dαdβ
−∞ −∞

+∞
¿ ∬ E [ X ( t +τ −α ) X ( t−β ) ] h ( α ) h ( β ) dαdβ .
−∞

+∞
¿ ∬ R xx ( τ−α + β ) h ( α ) h ( β ) dαdβ =R xx (τ )∗h (τ )∗h (−τ )
−∞

R yy ( τ )=R yx ( τ )∗h (−τ ) =R xy ( τ )∗h ( τ ) =R xx ( τ )∗h(τ)∗h (−τ )

En calculant la transformée de Fourrier de R yy ( τ ), on trouve la densité spectrale de l’output S yy (f )

2
S yy ( f )=S xx (f )∙|H (f )|

Pr.Z.MESSALI Master 1 Syst. Télécom 2019/2020 Page 27

Vous aimerez peut-être aussi