Vous êtes sur la page 1sur 27

MASTER R2M

Cours de Réseaux Capillaires

Chapitre 0

Notions de base

Interférences Inter Symboles

Critères de Nyquist

Régénération

Egalisation

Formulaire de théorie du signal

Xavier LLOP
Transmissions Numériques

Notions de base
I. Introduction :

Information numérique = suite rythmée de nombres entiers qui peut


représenter soit des données soit des valeurs échantillonnées et
quantifiées d’un signal analogique (musique, vidéo …).

L’information numérique est de nature mathématique. Pour être


transmise à distance, elle doit se matérialiser en un signal qui est de
nature physique (en particulier à énergie non nulle).

Une information numérique peut être représentée par des signaux qu’on
peut grouper en deux familles :

- Les transmissions numériques en bande de base : signal logique la plus


part du temps (2,3,4 niveaux) dont le spectre (DSP) s’étend de la
fréquence 0 à la fréquence de rythme (débit de moments ou de
1
symboles) 𝐹𝑅 = 𝑀̇ = (T est la durée d’un symbole). Le support doit
𝑇
posséder une très grande largeur de bande relative (parfois du continu
jusqu’à environ la fréquence de rythme) et une absence de distorsion
de phase dans cette bande. Tous les supports n’ont pas ces qualités ; ce
sont les câbles coaxiaux en HF qui s’en approchent le mieux (également
les paires symétriques sur des courtes distances). Une transmission sur
fibres optiques où le signal est représenté par de la puissance lumineuse
peut être considéré comme une transmission en bande de base.
- Les transmissions par modulation d’une porteuse : (ou en bande
transposée) : elle permet de s’adapter à la bande passante du canal
(transmissions radioélectriques, téléphonie mobile, TV numérique sur
câble, modem …). Elle permet également le multiplexage fréquentiel, les
courants porteurs en ligne (multiplexage puissance/données sur les
réseaux de distribution de l’électricité).

1
Pour un signal x(t) déterministe

X(f)

-FR 0 FR f

𝐴𝑚
𝑋 ′ (𝑓) = 𝑇𝐹[𝑥(𝑡) × 𝐴𝑚 cos(𝜔𝑡)] = 𝑋(𝑓) ∗ [𝛿 (𝑓 + 𝑓𝑐) + 𝛿 (𝑓 − 𝑓𝑐)]
2
𝐴𝑚
= [𝑋(𝑓 + 𝑓𝑐) + 𝑋 (𝑓 − 𝑓𝑐) ]
2
X’(f)

-FR-fc - fc FR-fc 0 -FR+fc fc FR+fc f

Bande passante=2FR autour de f c.

II. Représentation mathématique du signal numérique :

Info. num = {di} = suite discrète de symboles rythmée par une horloge de période
T. A chaque symbole (ou moment) est associé un signal élémentaire s i(t) de durée
f
T.

En bande de base : 𝑠(𝑡) = ∑𝑖 𝑠𝑖 (𝑡 − 𝑖𝑇 ) 𝑎𝑣𝑒𝑐 𝑠𝑖 (𝑡 ) = 𝑑𝑖 𝑠(𝑡) ; s(t) est le formant de


l’impulsion élémentaire.

- di=0 ou 1, mode unipolaire binaire

- di=-1 ou 1, mode antipolaire binaire

- di=0, 1, 2, 3, mode quaternaire

2
Exemple : s(t) est le formant

s(t) di={0, 1, 2, 3} = {00, 01, 11, 10}

0 T t

S(t)

0 T 2T 3T 4T 5T 6T t

00 01 00 11 10 00

En 6T, on transporte l’information contenue dans 12 bits (deux fois plus de bits
1
que de symboles) => 𝐷̇ = 2𝐹𝑅 = 2 × = 2 × 𝑀̇ .
𝑇

Pour un débit D=100 Mbit/s

 BP~100MHz en transmission binaire


 BP~50MHz en transmission quaternaire

En bande transposée, si(t)=aicos(it+i) : ce sont des salves de sinusoïde de durée


T. L’information numérique est contenue dans a i, i ou i dont les valeurs sont liées
à di et sont constantes pendant T.

III. Débit binaire/ débit de symboles (ou de moments) :


La source émet une suite de symboles (ou de moments) notés {di}.

3
En théorie chaque symbole (ou moment) peut prendre m valeurs. On parle
de transmission m-aire.
m est appelé valence de la transmission numérique.

 m=2, transmission binaire, chaque symbole transporte


l’information d’un bit 𝐹𝑅 = 𝑀̇ = 𝐷̇
 m=4, transmission quaternaire, chaque symbole transporte
l’information de deux bits 𝐹𝑅 = 𝑀̇ = 𝐷̇ /2
 m=8, transmission 8-aire, chaque symbole transporte l’information
de 3 bits 𝐹𝑅 = 𝑀̇ = 𝐷̇ /3
 m=16, transmission 16-aire, chaque symbole transporte
l’information de 4 bits 𝐹𝑅 = 𝑀̇ = 𝐷̇/4

Conclusion : En augmentant la valence m d’une liaison numérique, on diminue la B.P.


nécessaire du canal pour faire passer un même débit binaire 𝐷̇ . La probalité
d’erreur dans un canal bruyant, quant à elle augmente avec la valence.

𝐷̇ = 𝑀̇ 𝑙𝑏(𝑚)

𝐷̇ = débit binaire (bit/s)

𝑀̇ = FR = débit de moments, débit de symboles ou fréquence de rythme (baud)

4
Interférences Inter Symboles, critères de Nyquist et égalisation

1
2
3
4
5
6
7
8
9
10
11
12
13
14
5.3.7 Egaliseur récursif :

5.3.8 Egalisation adaptative :

15
FORMULAIRE POUR LA THÉORIE DU SIGNAL

Ch

Laboratoire GIPSA, Département Signal et Images (CNRS, INPG, UJF), Grenoble, France
Christian.Jutten@inpg.fr

1. FORMULES TRIGONOMÉTRIQUES 2. MODÈLES MATHÉMATIQUES DE SIGNAUX

1.1. Somme et différence d’angles 2.1. Signaux simples


• sin(α + β) = sin α cos β + cos α sin β, • rect[(t−τ )/T ] : fonction rectangle centrée sur τ , d’amplitude
• sin(α − β) = sin α cos β − cos α sin β, 1 et de largeur T (l’aire vaut T ),

• cos(α + β) = cos α cos β − sin α sin β, • tri[(t−τ )/T ] : fonction triangle centrée sur τ , d’amplitude
1 et de largeur 2T (l’aire vaut T ),
• cos(α − β) = cos α cos β + sin α sin β.
• δ(t) : distribution de Dirac, satisfaisant δ(t) = 0 pour
1.2. Expression en fonction des angles doubles R +∞
6 0, et −∞ δ(t)dt = 1,
t=
• 2 sin2 α = 1 − cos 2α,
sin(πu)
• sinc(u) = πu : sinus cardinal de u (son aire vaut
• 2 cos2 α = 1 + cos 2α, 1).
• 2 sin α cos α = sin 2α.
2.2. Opérateur de répétition
1.3. Produits de fonctions trigonométriques
• repT (.) : répétition de . avec une période T ,
• 2 sin α sin β = cos(α − β) − cos(α + β),
P+∞
• 2 cos α cos β = cos(α − β) + cos(α + β), • repT (x(t)) = k=−∞ x(t − kT ),

• 2 sin α cos β = sin(α − β) + sin(α + β). • repT (δ(t)) = δT (t) =


P+∞
δ(t − kT ) : peigne de
k=−∞
Dirac.
1.4. Somme et différence de fonctions trigonométriques
• sin α + sin β = 2 sin[(α + β)/2] cos[(α − β)/2], 2.3. Opérateur de convolution
• sin α − sin β = 2 sin[(α − β)/2] cos[(α + β)/2], Définition
• cos α + cos β = 2 cos[(α + β)/2] cos[(α − β)/2], R +∞
• x(t) ∗ y(t) = (x ∗ y)(t) = −∞
x(u)y(t − u)du =
• cos α − cos β = −2 sin[(α + β)/2] sin[(α − β)/2]. R +∞
x(t − v)y(v)dv,
−∞

1.5. Formes exponentielles • x(t) ∗ y(t − t0 ) =


R +∞
x(u)y(t − u − t0 )du = (x ∗
−∞
2
• exp(jα) = cos α + j sin α, avec j = −1, y)(t − t0 ),
exp(jα)−exp(−jα) R +∞
• sin α = 2j , • x(t) ∗ y(at + b) = x(u)y(a(t − u) + b)du
−∞
exp(jα)+exp(−jα)
• cos α = 2 . Propriétés

1.6. Développements limités • Commutativité : x(t) ∗ y(t) = y(t) ∗ x(t),

• sin α = α − α3 /3! + α5 /5! . . . + (−1)p α2p+1 /(2p + • Associativité : [x(t)∗y(t)]∗z(t) = x(t)∗[y(t)∗z(t)] =


1)! + . . ., x(t) ∗ y(t) ∗ z(t),
• cos α = 1− α2 /2! +α4 /4! . . . + (−1)p α2p /(2p)! + . . .,
• Distributivité par rapport à l’addition : x(t) ∗ [y(t) +
• exp α = 1 + α + α2 /2! + . . . + αk /k! + . . .. z(t)] = x(t) ∗ y(t) + x(t) ∗ z(t)

1
2.4. Propriétés de la distribution de Dirac δ(t) 4.5. Développement en séries de Fourier (DSF) dans L2 (t1 , t1 +
R +∞ T)
• x(t0 ) = −∞ x(t)δ(t − t0 )dt
On utilise ψk (t) = exp j2π Tk t .

• x(t) ∗ δ(t) = x(t),
P+∞
• x(t) = k=1 αk exp j2π Tk t ,

• x(t) ∗ δ(t − t0 ) = x(t − t0 ),
R t +T
• λkk = t11 | exp j2π Tk t |2 dt = T ,

• x(t − t1 ) ∗ δ(t − t2 ) = x(t − t1 − t2 ),
R t1 +T
• δ(at) = |a|−1 δ(t). • αk = λ1kk hx, exp j2π Tk t i = 1

T t1
x(t) exp −
j2π Tk t dt.


3. VALEUR MOYENNE TEMPORELLE, ÉNERGIE


ET PUISSANCE
5. TRANSFORMÉES DE FOURIER
R +T /2
• x̄ = limT →+∞ T1 −T /2 x(t)dt : moyenne.
5.1. Transformée de fonctions sommables
Signaux réels
R des fonctions x(t) bornées et absolument sommables
Pour
R +∞ ( |x(t)|dt < +∞), on définit la transformée de Fourier (TF),
• Wx = −∞ x2 (t)dt : énergie,
notée X(f ) :
1
R +T /2
• Px = limT →+∞ T −T /2
x2 (t)dt : puissance. Z +∞
x(t) ⇋ X(f ) = x(t) exp(−j2πf t)dt.
Signaux complexes −∞
R +∞
• Wx = −∞ |x(t)|2 dt : énergie, De même, étant donnée X(f ), on peut calculer x(t) par trans-
formée de Fourier inverse :
1
R +T /2
• Px = limT →+∞ T −T /2
|x(t)|2 dt : puissance. Z +∞
X(f ) ⇌ x(t) = X(f ) exp(+j2πf t)df.
−∞
4. REPRÉSENTATION VECTORIELLE
5.2. Notations
On considère des signaux x(t) et y(t) dans l’espace L2 (t1 , t2 ).
On notera
4.1. Distance euclidienne • x(t) ⇋ X(f ),
hR i1/2
t2
• d(x, y) = kx − yk = t1
|x(t) − y(t)|2 dt • X(f ) = F{x(t)} : transformée de Fourier,

• d(x, y)2 = kxk2 + kyk2 − 2ℜhx, yi • x(t) = F −1 {X(f )} : transformée de Fourier inverse.
hR i
t
• kxk2 = t12 |x(t)|2 dt , 5.3. Propriétés

• hx, yi =
R t2
x(t)y ∗ (t)dt. • La TF est linéaire : ax(t) + by(t) ⇋ aX(f ) + bY (f )
t1
• La TF conserve la parité.
4.2. Inégalité de Schwartz
• Si la fonction x(t) est réelle (imaginaire, resp.) im-
• |hx, yi|2 ≤ hx, xi.hy, yi, paire, X(f ) est imaginaire (réelle, resp.) impaire.
R 2 R
t t Rt
• t12 x(t)y ∗ (t)dt ≤ t12 |x(t)|2 dt. t12 |y(t)|2 dt.

5.4. Règles de calculs
Soit une fonction x(t), telle que x(t) ⇋ X(f ).
4.3. Orthogonalité de x(t) et y(t)
Rt • x(−t) ⇋ X(−f ) : retournement temporel,
• hx, yi = t12 x(t)y ∗ (t)dt = 0.
• x∗ (t) ⇋ X ∗ (−f ) : complexe conjuguée,
4.4. Développement sur une base orthogonale {ψk (t)}
P+∞ • x(at) ⇋ |a|−1 X(f /a) : effet Doppler,
• x(t) = k=1 αk ψk (t),
• x(t − t0 ) ⇋ X(f ) exp(−j2πf t0 ) : translation tem-
Rt
• αk = λ1kk hx, ψk i = λ1kk t12 x(t)ψk∗ (t)dt, porelle,
Rt
• λkk = hψk , ψk i = kψk k2 = t12 |ψk (t)|2 dt, • x(t) exp(j2πf0 t) ⇋ X(f −f0 ) : translation en fréquence
ou modulation,
Rt P+∞
• t12 |x(t)|2 dt = k=1 |αk |2 λkk . • dn
⇋ (j2πf )n X(f ) : dérivation sur t.
dtn x(t)

2
Soient deux fonctions x(t) et y(t), telles que x(t) ⇋ X(f ) et 5.8.2. Transformées de Fourier
y(t) ⇋ Y (f ), on montre le Théorème de Plancherel :
Les transformées de Fourier de signaux périodiques sont des
• x(t) ∗ y(t) ⇋ X(f )Y (f ), spectres de raies, aux fréquences n/∆, dont l’enveloppe spec-
trale est la transformée de Fourier d’une période du signal di-
• x(t)y(t) ⇋ X(f ) ∗ Y (f ). visée par la période ∆.
P+∞
• X(f ) = n=−∞ Xn δ(f − n/∆), avec Xn défini ci-
5.5. Transformées de Fourier de quelques signaux usuels
dessus,
• rect(t/T ) ⇋ T sinc(f T ) : fonction rectangle, P+∞
• Y (f ) = n=−∞ Yn δ(f − n/∆), avec Yn défini ci-
• tri(t/T ) ⇋ T sinc2 (f T ) : fonction triangle, dessus.
1
• exp(−at)ǫ(t) ⇋ a+j2πf : impulsion exponentielle 5.8.3. Transformées de signaux périodiques usuels
unilatérale,
• cos(2πf0 t) ⇋ 12 [δ(f + f0 ) + δ(f − f0 )] : signal cosi-
2a
• exp(−a|t|) ⇋ a2 +(2πf )2 : impulsion exponentielle nusoïdal,
double,
• sin(2πf0 t) ⇋ 2j [δ(f + f0 ) − δ(f − f0 )] : signal sinu-
2 2
• exp(−πt ) ⇋ exp(−πf ) : impulsion gaussienne, soïdal,
2πf0
• exp(−at) sin(2πf0 t)ǫ(t) ⇋ (a+j2πf )2 +(2πf0 )2 : sinu- • exp(j2πf0 t) ⇋ δ(f − f0 ) : phaseur à la fréquence f0 ,
soïde amortie, P 1
P
• k δ(t−k∆) ⇋ ∆ n δ(f −n/∆) : peigne de Dirac,
a+j2πf0
• exp(−at) cos(2πf0 t)ǫ(t) ⇋ (a+j2πf )2 +(2πf0 )2 : cosi- 1
nusoïde amortie. • δ∆ (t) ⇋ ∆ δ1/∆ (f ) : peigne de Dirac avec les nota-
tions abrégées,
P+∞ P+∞
5.6. Transformées de Fourier de distributions • n=−∞ Xn exp(j2πnt/∆) ⇋ n=−∞ Xn δ(f −n/∆):
1 δ(f ) signal x(t) périodique,
• ǫ(t) ⇋ j2πf + 2 : échelon unité,
P+∞
• Arep∆ {rect(t/θ} ⇋ n=−∞ Xn δ(f −n/∆) avec Xn =
1
• sgn(t) ⇋ : fonction signe, Aθ
∆ sinc(nθ/∆).
jπf

• δ(t) ⇋ 1 : impulsion de Dirac,


6. CORRÉLATIONS ET DENSITÉS SPECTRALES
• k ⇋ kδ(f ) : constante.
6.1. Signaux à énergie finie
5.7. Transformée de Fourier de signaux à moyenne non 6.1.1. Auto- et inter-corrélation
nulle R +∞
• Auto-corrélation : Γxx (τ ) = −∞
x(t)x∗ (t − τ )dt,
• Soit x(t) = x̄ + x0 (t) où x̄ est la moyenne de x(t), on
F {x′0 (t)} R +∞
a F{x(t)} = j2πf + x̄δ(f ), • Inter-corrélation : Γxy (τ ) = −∞
x(t)y ∗ (t − τ )dt.

• ǫ(t) ⇋ 12 δ(f ) + 1
j2πf , 6.1.2. Relation entre corrélation et convolution
1
• sgn(t) ⇋ jπf . • Γxy (τ ) = x(τ ) ∗ y ∗ (−τ ).

5.8. Transformées de Fourier de signaux périodiques 6.1.3. Propriétés des fonctions de corrélation

Soient deux signaux x(t) et y(t), périodiques de même péri- • Symétrie hermitienne :
ode ∆.
◦ Γxy (τ ) = Γ∗yx (−τ ),
◦ Γxx (τ ) = Γ∗xx (−τ ),
5.8.1. Développement en séries de Fourier (DSF)
Les signaux étant périodiques, si les conditions de Diriclet • Bornes
sont satisfaites, on peut calculer les DSF de x(t) et y(t) : ◦ Cas général : |Γxy (τ )|2 ≤ Γxx (0)Γyy (0),
P+∞
• x(t) = n=−∞ Xn exp(j2πnt/∆), ◦ Pour x(t) = y(t) : |Γxx (τ )| ≤ Γxx (0),
R +∆/2
avec Xn = [ −∆/2 x(t) exp(−j2πnt/∆)dt]/∆, ◦ Γxx (0) ∈ R est l’énergie du signal.
P+∞ • Dans le cas de signaux réels, la fonction d’autocorrélation
• y(t) = n=−∞ Yn exp(j2πnt/∆),
R +∆/2 est paire et maximale en 0, où Γxx (0) est l’énergie du
avec Yn = [ −∆/2 y(t) exp(−j2πnt/∆)dt]/∆. signal.

3
6.1.4. Densité spectrale d’énergie • Inter-corrélation
R +∞ R +∆/2
• Γxx (τ ) ⇋ Sxx (f ) = −∞ Γxx (τ ) exp(−j2πf τ )dτ , ◦ Γxy (τ ) = 1
∆ x(t)y ∗ (t − τ )dt,
−∆/2
R t0 +∆
• Sxx (f ) = |X(f )|2 : densité spectrale d’énergie, ◦ Γxy (τ ) = 1
∆t0
x(t)y ∗ (t − τ )dt,
R +∞ P+∞
• Γxy (τ ) ⇋ Sxy (f ) = −∞ Γxy (τ ) exp(−j2πf τ )dτ : ◦ Γxy (τ ) = n=−∞ Xn Yn∗ exp(j2πnτ /∆), en util-
densité inter-spectrale d’énergie, isant le DSF de x(t) et y(t).

• Sxy (f ) = X(f )Y (f )∗ ,
6.3.2. Densités spectrale et inter-spectrale de puissance
6.1.5. Relations de Parseval Les densités spectrale et inter-spectrale de puissance sont les
R +∞ R +∞ transformées de Fourier de fonctions périodiques de périodes
• −∞ x(t)y ∗ (t)dt = −∞ X(f )Y ∗ (f )df , ∆. On obtient donc des spectres de raies, aux fréquences
R +∞ R +∞ k/∆, dont l’enveloppe spectrale est la transformée de Fourier
• −∞ |x(t)|2 dt = −∞ |X(f )|2 df , ou, pour le cas τ =
d’une période de la fonction de corrélation divisée par la péri-
0, R +∞ ode ∆.
Γxy (0) = −∞ Sxx (f )df : énergie du signal.
• Densité spectrale
6.1.6. Dérivation de la fonction de corrélation P+∞
◦ Sxx (f ) = n=−∞ |Xn |2 δ(f − n/∆), en util-
dΓxy (τ )
• dτ = Γx′ y (τ ) = −Γxy′ (τ ) isant le DSF de x(t),
1 2
◦ Sxx (f ) = ∆2 |X(f, ∆)| δ1/∆ (f ),
avec
6.2. Signaux à puissance moyenne finie X(f, ∆) = F{x(t, ∆)} = F{rect((t)/∆)x(t)}.
6.2.1. Fonctions de corrélation • Densité inter-spectrale
R +T /2
• Γxx (τ ) = limT →∞ T1 −T /2 x(t)x∗ (t − τ )dt : auto- P+∞ ∗
◦ Sxy (f ) = n=−∞ Xn Yn δ(f − n/∆), en util-
corrélation, isant le DSF de x(t),
R +T /2 1 ∗
• Γxy (τ ) = limT →∞ T1 −T /2 x(t)y ∗ (t − τ )dt : inter- ◦ Sxy (f ) = ∆2 X(f, ∆)Y (f, ∆)δ1/∆ (f ),
avec
corrélation. X(f, ∆) = F{x(t, ∆)} = F{rect((t)/∆)x(t)}
et Y (f, ∆) = F{y(t, ∆)} = F{rect((t)/∆)y(t)}.
6.2.2. Densités spectrale et interspectrale de puissance
6.3.3. Relations de Parseval
• Sxx (f ) = F{Γxx (τ )} : densité spectrale de puissance, R +∞ P+∞
• Px = Γxx (0) = −∞ Sxx (f )df = n=−∞ |Xn |2 .
• Sxy (f ) = F{Γxy (τ )} : densité inter-spectrale de puis-
sance,
7. SIGNAUX ALÉATOIRES
• Sxx (f ) = limT →∞ T1 |X(f, T )|2 , avec
X(f, T ) = F{x(t, T )} = F{rect(t/T )x(t)}. 7.1. Variables aléatoires
7.1.1. Densités de probabilité
6.2.3. Relation de Parseval
R +∞ On note pX (u) la densité d’une variable aléatoire (VA) X.
• Px = Γxx (0) = −∞ Sxx (f ).
• Si X et Y sont deux VA indépendantes, la densité de la
6.3. Signaux périodiques VA Z = X + Y est : pZ (u) = (pX ∗ py )(u),

Soient deux signaux x(t) et y(t), périodiques de même péri- • Si Y = f (X), avec f inversible,
ode ∆. pY (u) = pX (f −1 (u))/|f ′ (f −1 (u))|

6.3.1. Fonctions de corrélation 7.1.2. Moments


Les auto et inter-corrélations sont périodiques de période ∆, Moyenne d’une VA continue ou discrète
et on peut les calculer par intégration sur une période ∆. R +∞
• µ1 = E[X] = −∞ upX (u)du,
• Auto-corrélation P
R +∆/2 • µ1 = E[X] = i ui Pr(X = ui ).
1
◦ Γxx (τ ) = ∆ −∆/2
x(t)x∗ (t − τ )dt,
R t0 +∆ Moment d’ordre k d’une VA continue ou discrète
1
◦ Γxx (τ ) = ∆ t0
x(t)x∗ (t − τ )dt, R +∞
P+∞ • µk = E[X k ] = −∞ uk pX (u)du,
◦ Γxx (τ ) = |Xn |2 exp(j2πnτ /∆), en util-
n=−∞
• µk = E[X k ] = i uki Pr(X = ui ).
P
isant le DSF de x(t).

4
Moment centré d’ordre k d’une VA continue ou discrète 7.3. Auto-corrélation
R +∞
• µ′k = E[(X − µ1 )k ] = −∞ (u − µ1 )k pX (u)du, On note de façon générale Xi = x(ti ) la VA associée au
processus aléatoire x(t) pour t = ti .
• µ′k = E[(X − µ1 )k ] = − µ1 )k Pr(X = ui ).
P
i (ui
7.3.1. Auto-corrélation statistique
Variance : c’est le moment centré d’ordre 2. On la note
fréquemment σ 2 plutôt que µ′2 . Cas général
R +∞ RR
• σ 2 = µ′2 = E[(X − µ1 )2 ] = −∞ (u − µ1 )2 pX (u)du, • RXX (t1 , t2 ) = E[X1 X2 ] = x1 x2 p(x1 , x2 )dx1 dx2 .

• σ 2 = µ′2 = E[(X −µ1 )2 ] =


P 2 Cas d’un signal stationnaire, en notant τ = t1 − t2
i (ui −µ1 ) Pr(X = ui ).
RR
Relation entre variance et moments d’ordre 1 et 2 • RXX (τ ) = E[X(t)X(t−τ )] = x1 x2 p(x1 , x2 )dx1 dx2 .

Les VA sont orthogonales ssi RXX (τ ) = 0.


• σ 2 = E[(X − µ1 )2 ] = E[X 2 ] − E[X]2 = µ2 − µ21 .

7.3.2. Auto-covariance statistique


7.1.3. Distributions de quelques lois usuelles
C’est l’auto-corrélation des processus aléatoires centrés. On
• Pr(k) = Cnk pk (1 − p)n−k : loi Binomiale, de la VA
la note CXX (τ ).
somme de n VA binaires, avec p = Pr(X = x1 ) et
Cas général
1 − p = Pr(X = x0 ),
an
• CXX
R R(t1 , t2 ) = E[(X1 − E(X1 ))(X2 − E(X2 ))]
• Pr(n) = n! exp(−a) : loi de Poisson de paramètre = (x1 − E(X1 ))(x2 − E(X2 ))p(x1 , x2 )dx1 dx2
a > 0, = RXX (t1 , t2 ) − E(X1 )E(X2 ).
 
(u−m)2
• p(u) = √1 exp − : loi gaussienne de Cas d’un signal stationnaire, en notant τ = t1 − t2
2πσ 2σ 2
moyenne m et de variance σ , notée N (m, σ 2 ).
2
• CXX
R R(τ ) = E[(X(t) − E(X))(X(t − τ ) − E(X))]
= x1 x2 p(x1 , x2 )dx1 dx2
7.2. Vecteurs aléatoires = RXX (τ ) − E(X)2 .
7.2.1. Densités de probabilité Les VA sont non corrélées ssi CXX (τ ) = 0.
On note pX (u1 , . . . , un ) la densité d’un vecteur aléatoire (VcA)
X de dimension n. 7.3.3. Cas de processus ergodiques et stationnaires
Soit Y = f (X), avec f inversible. On note f −1 la transfor-
Dans ce cas, on peut remplacer les moyennes statistiques par
mation inverse, |Jf −1 | son jacobien et (f −1 )i la composante
des moyennes temporelles, car on a asymptotiquement :
i de la transformation f −1 :
R T /2
• pY (u1 , . . . , un ) = • RXX (τ ) = limT →∞ T1 −T /2 x(t)x(t−τ )dt = ΓXX (τ ).
pX ((f −1 )1 (u1 ), . . . , (f −1 )n (un ))|Jf −1 |.
7.3.4. Coefficient de corrélation
Dans le cas d’une transformation linéaire Y = AX où A est
une matrice régulière et u = (u1 , . . . , un )T : Par définition, c’est l’auto-covariance normalisée, notée ρX (τ ) :
CXX (τ ) CXX (τ )
• pY (u1 , . . . , un ) = • ρX (τ ) = CXX (0) = 2
σX
.
pX (A−1 u)| det A−1 |.

Dans le cas de la somme Z = X + Y de deux variables 7.3.5. Propriétés pour les signaux réels
aléatoires, la densité pZ (u) vaut : Les fonction d’auto-corrélation et d’auto-covariance ont les
R propriétés intéressantes pour des processus aléatoires réels.
• pZ (u) = pXY (x, u − x)dx,
De plus, en τ = 0, on a les relations énergétiques.
R
• pZ (u) = pX (x)pY (u − x)dx = (pX ∗ pY )(u), si X • elles sont paires,
et Y sont des VA indépendantes.
• le maximum est atteint en τ = 0 :
7.2.2. Théorème de la limite centrale
◦ |CXX (τ )| ≤ CXX (0)
Théorème 7.2.1 La distribution statistique d’une somme de ◦ |RXX (τ )| ≤ RXX (0)
n variables aléatoires indépendantes, possédant la même loi 2
◦ CXX (0) = σX ,
tend asymptotiquement vers une distribution gaussienne quelle
2
que soit la distribution des termes individuels. ◦ RXX (0) = σX + µ2X .

5
7.4. Densité spectrale de puissance (DSP) • RXY (τ ) = E[X(t)Y (t − τ )] (cas stationnaire).
Pour un processus aléatoire x(t), on ne peut pas calculer di- et d’inter-covariance :
rectement la transformée de Fourier, puisque x(t) ne peut pas
être décrit. Par conséquent, on ne peut pas calculer directe- • CXY (t1 , t2 ) = E[(X(t1 ) − µX )(Y (t2 ) − µY )]
ment sa DSP. On peut en revanche calculer sa fonction d’auto- = RXY (t1 , t2 ) − E[X(t1 ))E(Y (t2 )] (cas général),
corrélation par une moyenne statistique ou temporelle, et en
déduire sa DSP en appliquant le théorème ci-dessous. • CXY (τ ) = E[(X(t) − µX )(Y (t − τ ) − µY )]
= RXY (τ ) − µX µY (cas stationnaire).
7.4.1. Théorème de Wiener-Kintchine
7.5.2. Coefficient d’inter-corrélation
Le théorème de Wiener-Kintchine établit le lien entre la fonc-
tion d’auto-corrélation et la DSP pour des signaux aléatoires. Le coefficient d’inter-corrélation est défini par :
CXY (τ )
Théorème 7.4.1 La DSP d’un processus aléatoire station- • ρXY (τ ) = σX σY .
naire au sens large est le transformée de Fourier de sa fonc-
tion d’auto-corrélation : 7.5.3. Densité inter-spectrale
Z +∞
La densité inter-spectrale de puissance est la transformée de
SXX (f ) = RXX (τ ) exp(−j2πf τ )dτ.
−∞ Fourier de la fonction d’inter-corrélation :

• SXY (f ) = F{RXY (τ )}.


7.4.2. Conséquence
Si on connaît la DSP SXX (f ) d’un processus aléatoire x(t), 7.5.4. Cohérence
on peut déduire la fonction d’auto-corrélation par transformée
|SXY (f )|2
de Fourier inverse : • γXY (f ) = SXX (f )SY Y (f ) .
Z +∞
RXX (τ ) = SXX (f ) exp(j2πf τ )df. La cohérence est proche de 1 si les signaux x(t) et y(t) sont
−∞ liés par une relation linéaire (filtre). Dans le cas d’une relation
non linéaire ou en présence d’un bruit additif, la cohérence
On peut aussi l’exprimer en fonction de l’auto-covariance, car devient très inférieure à 1.
RXX (τ ) = CXX (τ ) + µ2X :

SXX (f ) = F{CXX (τ )} + µ2X δ(f ). 8. FILTRES LINÉAIRES INVARIANTS

En τ = 0, on a : On considère un filtre de réponse impulsionnelle g(t) et en


R +∞ fréquence G(f ), dont les signaux d’entrée et de sortie sont
• RXX (0) = PX = −∞
SXX (f )df . x(t) et y(t), respectivement.
Si le processus est aussi ergodique, on a • Y (f ) = G(f )X(f ) = X(f )G(f ),
R T /2
• RXX (0) = limT →∞ T1 −T /2 |x(t)|2 dt • y(t) = (g ∗ x)(t) = (x ∗ g)(t).
R +∞
= −∞ SXX (f )df .
Pour une cascade de filtres, on a g(t) = (g1 ∗ g2 ∗ . . . ∗ gn )(t)
ou, en fréquence, G(f ) = G1 (f )G2 (f ) . . . Gn (f ).
7.4.3. Bruit blanc
Définition 7.4.2 On appelle bruit blanc un processus aléa- 8.1. Formule des interférences
toire b(t) dont la densité spectrale de puissance est constante,
On considère deux filtres de réponses impulsionnelles g1 (t) et
∀f :
g2 (t) et de réponses en fréquence (TF) G1 (f ) et G2 (f ), dont
SBB (f ) = η/2.
les signaux d’entrée sont x1 (t) et x2 (t), et de sortie y1 (t) et
Par transformée de Fourier inverse, on déduit la fonction d’auto- y2 (t).
corrélation d’un bruit blanc b(t) : • SY1 Y2 (f ) = SX1 X2 (f )G1 (f )G∗2 (f ).
RBB (τ ) = F −1 {SXX (f )} = δ(τ )η/2.
8.2. Relation entrée-sortie des DSP
7.5. Inter-corrélation et densité inter-spectrale En conséquence de la formule des interférences, on a pour les
7.5.1. Inter-corrélation et inter-covariance DSP :

On définit les fonctions d’inter-corrélation : • SY Y (f ) = |G(f )|2 SXX (f ),

• RXY (t1 , t2 ) = E[X(t1 )Y (t2 )] (cas général) • SY X (f ) = G(f )SXX (f ).

6
8.3. Relation entrée-sortie entre corrélations 9.2. Opérateur de moyenne temporelle
En conséquence des formules entre DSP, par transformée de • g(t) = rect((t − T /2)/T ),
Fourier inverse, on a pour les auto-corrélations :
• G(f ) = sinc(T f ) exp(−jπf T ),
• RY Y (τ ) = Γgg (τ ) ∗ RXX (τ ) pour des signaux aléa-
• µy = G(0)µX = µX (moyenne),
toires, et
• Γgg (τ ) = tri(τ /T )/T (auto-corrélation).
• ΓY Y (τ ) = Γgg (τ ) ∗ ΓXX (τ ) si les signaux sont er-
godiques, ou certains à puissance moyenne finie ou à
9.3. Opérateur de filtrage passe-bas idéal
énergie finie (attention aux définitions de Γ).
Le filtre causal de largeur de bande B n’étant pas réalisable,
et pour les inter-corrélations : on décale g(t) de t0 .
• RY X (τ ) = g(τ ) ∗ RXX (τ ), pour des signaux aléa- • G(f ) = rect[f /(2B)] exp(−j2πf t0 ),
toires, et avec |G(f )| = rect[f /(2B)] et φ(G(f )) = −2πf t0 ,
• ΓY X (τ ) = g(τ )∗ΓXX (τ ) si les signaux sont ergodiques, • g(t) = 2Bsinc[2B(t − t0 )],
ou certains à puissance moyenne finie ou à énergie finie
(attention aux définitions de Γ). • Γgg (τ ) = 2Bsinc[2Bτ ] (auto-corrélation).

9.4. Opérateur de filtrage passe-bande idéal


8.4. Statistiques en sortie d’un opérateur de filtrage
Le filtre causal de largeur de bande B, centré sur les fréquences
On considère y(t) = (g ∗ x)(t). Les statistiques de y(t) sup- ±f0 n’étant pas réalisable, on décale g(t) de t0 .
posé stationnaire et ergodique sont :
• G(f ) =
• µY = µX G(0) (moyenne), rect[f /B] exp(−j2πf t0 ) ∗ [δ(f − f0 ) + δ(f + f0 )],
avec |G(f )| = rect[f /(2B)] et φ(G(f )) = −2πf t0 ,
• PYR = RY Y (0)
= R RXX (τ )Γgg (τ )dτ • g(t) = 2Bsinc[2B(t − t0 )] cos(2πf0 t),
= SXX (f )|G(f )|2 df (moment d’ordre 2),
• Γgg (τ ) = 2Bsinc[Bτ ] cos(2πf0 τ ) (auto-corrélation).
• σY2 R=
CY Y (0) = PY − µ2X
= CXX (τ )Γgg (τ )dτ (variance) 10. FILTRE ADAPTÉ
• SY X (f ) = G(f )SXX (f ) (auto-corrélation). Problème : concevoir un filtre h(t) qui détecte un signal x(t)
connu dans une observation bruitée, x(t) + n(t), où n(t) est
8.4.1. Filtre passe-bas sans perte un bruit de DSP SN N (f ), avec le meilleur rapport signal/bruit
au temps t0 . On note y(t) = (x + n) ∗ h(t) la sortie du filtre
G(0) = 1 et la moyenne en sortie : µY = µX . h(t).
Le filtre optimal est le filtre adapté (au signal x(t)) :
8.4.2. Filtre passe-haut
X ∗ (f )
H(f ) = k exp(−j2πf t0 ), (1)
G(0) = 0 et la moyenne en sortie µY = 0. SN N (f )
avec le rapport S/B :
8.4.3. Signal d’entrée blanc, centré et de DSP η/2
+∞
 S 2 |X(f )|2
Z
moyenne en sortie : µY = 0, = df. (2)
B −∞ SN N (f )
auto-corrélation de l’entrée : ΓXX (τ ) = δ(τ )η/2,
auto-corrélation en sortie : RY Y (τ ) = Γgg (τ )η/2, Dans le cas où le bruit n(t) est un bruit blanc de DSP égale à
variance : σY2 = Γgg (0)η/2. N0 :
H(f ) = k ′ X ∗ (f ) exp(−j2πf t0 ), (3)
9. AUTRES OPÉRATEURS ou, dans le domaine temporel :

9.1. Opérateur de retard t0 h(t) = k ′ x∗ (t0 − t), (4)

• g(t) = δ(t − t0 ), avec le rapport S/B :


+∞
• G(f ) = exp(−j2πf t0 ), soit |G(f )| = 1  S 2 1
Z
= |X(f )|2 df. (5)
et φ(G(f )) = −2πf t0 (phase linéaire), B N0 −∞

• Γgg (τ ) = δ(τ ) (auto-corrélation). Pour un signal x(t) réel, on a simplement h(t) = k ′ x(t0 − t).

Vous aimerez peut-être aussi