Vous êtes sur la page 1sur 42

2- Probabilité d’erreur et

Densité spectrale de puissance


1- Rappel sur les probabilité-statistiques :
Soit X une variable aléatoire pouvant prendre xi valeurs
distinctes, de probabilités pi.

Sa moyenne est l’espérance mathématique X = E( X ) = ∑ x i p i


Dans le cas d’une variable aléatoire continue, on a :
+∞
E( X ) = ∫ x f ( x )dx
−∞

où f(x) (notée aussi p(x)) est la fonction densité de probabilité


de X (PDF en anglais).
f(x) = P[x < X < x+dx] : probabilité pour que X soit compris
entre x et x+dx.
La variance σ2 de la variable aléatoire X est :

2 2
{ 2
}
σ = (X − X ) = E [X − E( X )] = X 2 − X 2

Dans le cas discret et continu, on a :


+∞
σ = ∑ (x i − X ) p i = ∫ (x − X )
2 2 2
f ( x ) dx
−∞

σ s’appelle l’écart type (ou déviation standard) de la variable


aléatoire X.
2- Distribution cumulative et densité de probabilité

Une Distribution Cumulative (CD en anglais) est une courbe


montrant la probabilité PX(x), telle que la variable aléatoire X
sera inférieure ou égale à une valeur spécifiée x :

propriétés d’une CD :
Une fonction densité de probabilité (PDF) donne la probabilité
d’une variable aléatoire X présentant une valeur située entre x
et x+dx :

C’est le facteur dPX(x) / dx, normalement dénoté pX(x) ou f(x),


qui définit la PDF de X.

PDF et CD sont reliées par :

Application :
3- Exemple de la distribution gaussienne de
grandeurs électriques aléatoires

Une distribution est une PDF.

La distribution gaussienne dite normale, est parmi les


distributions importantes qu’on utilise dans l’analyse des
problèmes de communications.
Le bruit thermique a une distribution normale.

La distribution gaussienne (PDF) et celle réduite sont données


par : ( x−m )
2

1 −
2 σ2 1 ⎛ x2 ⎞
f (x) = e f (x) = exp⎜⎜ − ⎟⎟
2π σ 2π ⎝ 2 ⎠
Où m est la moyenne et σ2 est la variance.
Aire sous (−∞ ≤ x ≤ m) = aire sous (m ≤ x ≤ ∞) = ½ .
Figure 2 : Distribution normale centrée (à moyenne m = 0)
Interprétation de grandeurs électriques aléatoires

Grandeur Interprétation
Valeur moyenne Tension (ou courant) DC.
Valeur moyenne Puissance moyenne totale (normalisée
quadratique à une R=1Ω).
Variance Puissance AC (normalisée à une
R=1Ω, et due à la
composante fluctuante (AC)
de la tension ou du courant).
L’écart type Tension (ou courant) efficace
(dite valeur RMS).
La variance étant la moyenne quadratique moins le carré de
la moyenne : c’est équivalent à la puissance totale moins la
puissance DC, qui doit être la puissance AC (ou fluctuante).

L’écart type σ désigne donc la valeur efficace (RMS) du signal


aléatoire.

La figure 3 illustre ces interprétations électriques, où les


symboles < > indiquent des moyennes temporelles.
Figure 3 : interprétations de grandeurs électriques aléatoires
Certains instruments de laboratoire sont utilisés pour mesurer des
grandeurs électriques aléatoires :
Un voltmètre DC mesure la valeur moyenne d’une tension aléatoire.
Un voltmètre ‘’ true RMS ‘’ mesure l’écart type d’une tension aléatoire,
(puissance dissipée dans Rint convertie en tension par un
thermocouple, puis extraction de sa racine carrée par amp.op).
Un wattmètre HF, mesure la variance d’une tension aléatoire aux bornes
d’une résistance normalisée (R=50Ω), tel que si P=V2eff / R
est la valeur lue, on a alors σ2 = RP.
4- Probabilité d’erreur des signaux binaires

Les deux importantes considérations dans la conception d’un


système de communication sont :

1. La performance du système lorsqu’il est affecté de bruit.


La mesure de performance d’un système digital est la
probabilité d’erreur du signal de sortie (pour un système
analogique, c’est le rapport signal-sur-bruit à sa sortie).

2. La largeur de bande du canal requise pour la


transmission du signal de communication. Cette bande est
à évaluer en terme de densité spectrale de puissance
(PSD en anglais) des différents types de signaux de
communication.
Le bruit présent durant la détection est souvent gaussien
(c’est toujours le cas si le bruit thermique est dominant).
Comme le bruit avec une fonction de densité de probabilité
(PDF) gaussienne est fréquent, le taux d’erreur binaire (BER
en anglais) d’un système de communications est
généralement déterminé en assumant ce type de bruit
uniquement.

Nous allons développer une formule générale d’évaluation


du BER d’un signal binaire une fois détecté.
a- BER en bande de base avec bruit gaussien

La figure 4(a) montre la PDF d’un signal binaire à deux


niveaux de tensions quelconques, V0 et V1, équiprobables.
Le niveau optimal de décision est fixé donc à (V0+V1)/2.

La figure 4(b) montre la PDF d’un bruit gaussien centré, xn(t),


avec valeur RMS σV.

La figure 4(c) montre la PDF de la somme des tensions du


signal et du bruit.
Sachant que lorsque des variables aléatoires indépendantes
sont sommées, leurs PDF sont convolues, la figure 4(c) est
donc la convolution des figures 4(a) et 4(b).
Les PDF p0(xn) et p1(xn), représentent chacune une
probabilité totale de 0,5.
Figure 4 : PDF de : (a) symboles binaires, (b) bruit, (c) signal plus bruit
Supposons que le symbole 0 est transmis (c-à-d niveau V0).
Alors la probabilité d’erreur Pe1 de le détecter comme
symbole 1, est celle de l’aire hachurée sous la courbe p0(xn)
de la figure 4(c), tel que le signal plus bruit dépasse le seuil à
l’instant de décision :

Utilisant le changement de variable u = ( x n − V0 ) / 2 σ , cela


devient :

Où erfc(x) est la fonction d’erreur complémentaire par :


erfc(z) et la fonction d’erreur erf(z), sont liées par :

L’avantage de l’utilisation des fonctions d’erreur erf(x) ou


erfc(x), est leur disponibilité dans Matlab et sous forme
tablée, voir fichier «fonction d’erreur.pdf».

Si le symbole logique 1 est transmis (c-à-d niveau V1), alors la


probabilité d’erreur Pe0 de le détecter comme symbole 0, est
celle de l’aire hachurée sous la courbe p1(xn) de la figure 4(c),
tel que le signal plus bruit est au dessous du seuil à l’instant
de décision.
Pe0 étant identique à Pe1, la moyenne de la probabilité d’erreur
pour des bits transmis équiprobables, est :
Pe = ½ Pe0 + ½ Pe1 = Pe0 = Pe1
Pe sans distinction entre la transmission d’un 0 ou d’un 1, ne
dépend que de la différence de tension des symboles :
∆V = V1 − V0, et non sur leurs niveaux absolus :

La figure 5 montre Pe en fonction du rapport en tension ∆V/σ,


exprimé en dB et comme simple rapport.
∆V/σ est liée au rapport signal-sur-bruit (SNR en anglais)
selon le type du signal considéré : par exemple, le signal
unipolaire et polaire, figure 6.
Figure 5 : probabilité d’erreur fonction de ∆V/σ, avec :
SNR du NRZ unipolaire : 20 log10 (∆V/σ) − 3dB
SNR du NRZ polaire : 20 log10 (∆V/σ) − 6dB
Figure 6 : (a) signal d’impulsion rectangulaire unipolaire
(b) signal d’impulsion rectangulaire polaire

Pour les signaux d’impulsion rectangulaire NRZ (non retour à


zéro) unipolaire, figure 6(a), la puissance moyenne
normalisée relative au signal est S = (∆V/√2)2 = ∆V2/2. La
puissance normalisée du bruit gaussien est N = σ2. Nous
avons donc :
Soit :
Pour les signaux d’impulsion rectangulaire NRZ polaire avec
même espacement en tension que le cas unipolaire, figure
6(b), la puissance moyenne du signal est :
S = 2[(∆V/2)/√2]2 = ∆V2/4. Nous avons donc :

Soit :

Même si les probabilités d’erreur de symbole et de bit sont


souvent calculées, c’est le taux d’erreur de symbole (SER) et
de bit (BER) qui sont souvent mesurées.
Ce sont simplement le nombre d’erreurs de symbole ou de bit
par unité de temps (généralement une seconde) mesuré
durant une période spécifiée.
Le taux d’erreur de symbole est lié à la probabilité d’erreur de
symbole par :
SER = Pe Rs

Où Rs est le débit de symbole en baud.

Le taux d’erreur binaire (ou de bit) est lié à la probabilité


d’erreur binaire par :

BER = Pb Rs H = Pb Rb

Où H est l’entropie de la source qui est le nombre de bits


d’information véhiculé par symbole, et Rb est le débit binaire
d’information.
Exemple
Trouver le BER d’un système à 100 kbits/s de signaux
d’impulsion rectangulaire, binaire, polaire, équiprobable, et en
assumant un point de décision idéal, si le SNR mesuré à
l’entrée du détecteur est 12 dB.
5- Densité spectrale de puissance
La puissance normalisée d’une forme d’onde donnée, peut
être tirée de son domaine fréquentiel par l’utilisation d’une
fonction appelée densité spectrale de puissance (PSD en
anglais).
Tout d’abord, pour un signal déterministe, on définit sa
version tronquée :

Pour w(t) représentant une forme d’onde de tension ou de


courant, la puissance moyenne normalisée est :
Par utilisation du théorème de Parseval, cela devient :

Où WT(f) = F[WT(t)]. La quantité Pw(f) a l’unité W/Hz, et peut


être définie comme PSD, qui est une fonction paire, réelle
positive de fréquence.

La puissance moyenne normalisée n’est que l’aire sous la


PSD. La PSD n’est pas sensible au spectre de phase de w(t)
à cause de la valeur absolue.
D’autre part, la fonction d’autocorrélation d’une forme d’onde
réelle est :

On montre que la PSD et la fonction d’autocorrélation forment


une paire de la transformée de Fourier, c’est le théorème de
Wiener-Khintchine : Rw(τ) ↔ Pw(f).

La puissance moyenne normalisée s’écrit donc aussi :


Une définition plus générale de la DSP s’applique aussi à
l’analyse spectrale de processus aléatoires :

Soit an les coefficients de proportionnalité des différents motifs


(symboles ou formes d’impulsion) constituant un signal
numérique x (par exemple, le message binaire du cas polaire
est an=±1).

La donnée au temps tn s’écrit donc : xn(t) = an m(t–tn) où les


instants tn sont équidistants telle que tn = nTs.
Le signal d’information s’écrit alors :

x ( t ) = ∑ a n m( t − n Ts )
n ∈Z
Dans le cas général de données aléatoires corrélées, de débit
de symboles D=1/TS, la PSD du signal x est :

Où F(f) et F(nD) représentent respectivement, le spectre


continu et discret de la forme d’impulsion du symbole
numérique, R(k) est la fonction d’autocorrélation du signal.
Dans la quasi-totalité des applications, les paramètres sont
choisis de telle sorte que la densité spectrale ne comporte
pas de raies (pas de spectre discret).
Il faut donc pour cela que l’une au moins des 2 conditions
suivantes soit réalisée :

• moyenne temporelle nulle du signal : ma = <an> = 0


(coefficients symétriques autour de zéro).

• forme des motifs m(t) dont le spectre |F(nD)|=0 quelque


soit n dans N* (T.Fourier de m(t) s’annulant aux multiples
de la vitesse de symbole ou motif, D=1/Ts).
Si en plus, le signal est normalisé avec variance unité (σa = 1),
il restera (voir démonstration au TD) :

Le spectre d’un signal numérique dépend donc de 2 choses :

1. la forme d’impulsion utilisée


2. les propriétés statistiques de la donnée

L’autocorrélation des données, est donnée par :


an et an+k sont des niveaux (de tension) des impulsions de
donnée au nième et n+kième positions de symbole.
Pi est la probabilité d’avoir le ième produit (an an+k), et il y a I
valeurs possibles du produit.

Par exemple, soit des produits équiprobables de coefficients


a0, a1, a2, a3. k étant le décalage entre coefficients, on a :
Pour k=0, les produits possibles sont : a02, a12, a22, a32,
arrivant avec une probabilité de ¼.
Pour k≠0, les produits possibles sont : a02, a0a1, a0a2, a0a3,
a1a0, a12, a1a2, a1a3, a2a0, a2a1, a22, a2a3, a3a0, a3a1, a3a2, a32,
arrivant tous avec une probabilité de 1/16.
soit : R(0)=1/4 [a02+a12+a22+a32]
R(1)=1/8 [a0a1+a1a2+a2a3]
R(2)=1/8 [a0a2+a1a3]
R(3)=1/8 [a0a3]
Exemple : PSD d’un signal polaire en bande de base

Soit à trouver la PSD d’un signal polaire représentant des


données binaires aléatoires, équiprobables et indépendantes,
figure 6b. Le signal polaire s’écrit donc :

Où f(t) est la forme d’impulsion du signal, figure 6b, et Tb est la


durée d’un bit.
{an} est un ensemble de variables aléatoires représentants les
données binaires, tel que an=±1 et P(an=+1) = P(an=−1) = ½.
Figure 6 : Signal NRZ polaire aléatoire et sa PSD
1ère méthode : évaluation directe de la PSD, via TF[XT(t)]

xT(t) est obtenue par troncature de x(t) :

Où T/2 = (N + ½)Tb, ainsi :

Où F(f) = F[f(t)].

On reprend l’expression de la PSD dérivée du théorème de


Parseval :
Soit :

La moyenne reste à évaluer dans le cas du signal polaire :

Avec :

Ainsi :
La PSD devient :

Comme T = 2(N + ½)Tb :

On montre qu’une impulsion rectangulaire a :

Ainsi, la PSD pour un signal polaire de forme rectangulaire est :

La PSD est représentée en figure 6c, telle que la bande


centrale est B = 1/Tb qui est le débit binaire.
2ème méthode : évaluation indirecte de la PSD, via TF[Rx(τ)]

L’autocorrélation du signal est :

Soit :

Avec la forme d’impulsion rectangulaire :


Le produit d’impulsion devient :

On a donc l’unité que si :

Pour τ ≥ 0, on a le produit unité lorsque :

A la condition que 0 ≤ τ ≤ Tb (les 2 membres d’inégalité avec t


seront égales si τ =Tb) :
On a donc :

Pour les bornes d’intégration avec t entre ±T/2, n sera entre


±N. On va donc sommer entre ±N, les petites intégrales
bornées entre :

Comme T/2 = (N+½)Tb, on a :


Comme R(τ) = R(−τ), on peut généraliser :

La forme de R(τ) est triangulaire et dont la transformée de


Fourier fournit la PSD du signal polaire à forme rectangulaire :

On retrouve le même résultat qu’avec la première méthode.


Cas du bruit blanc

Un processus aléatoire x(t) est dit bruit blanc, si sa PSD est


constante sur toutes les fréquences :

Où N0 est une constante positive, le ½ est pour un spectre


bilatéral.
La fonction d’autocorrélation du bruit blanc est obtenue en
prenant la transformée de Fourier inverse de Px(f), c’est une
impulsion dirac :

Par exemple, le bruit thermique peut être considéré comme un


bruit blanc dans la bande fréquentielle considérée, où :
N0 = kT.
Remarque :
La distribution du bruit dépend au fait de la bande
considérée, figure 7, ainsi c’est un bruit blanc pour B1 et
gaussien pour B2.

Figure 7 : distribution fonction de la bande considérée

Dans la littérature technique, on utilise souvent le bruit


gaussien blanc avec puissance spectrale N0/2 Watts/Hz.
Un canal bruité est alors dit : canal à bruit gaussien blanc
additif (AWGN = additive white gaussian noise).

Vous aimerez peut-être aussi