Vous êtes sur la page 1sur 13

TRAITEM

ENT DE
Définition :

Un signal est la représentation physique de l’information, qu’il convoie de sa source à sa


destination. C’est une expression d’un phénomène qui peut être mesurable par un appareil de
mesure. Bien que la plupart des signaux soient des grandeurs électriques (généralement
courant, tension, champ, …) la théorie du signal reste valable quelle que soit la nature
physique du signal.

MODELES ET MESURE DES SIGNAUX

Modèle mathématique :

Le modèle mathématique d’un signal est une fonction d’une, deux ou trois variables : x(t) ;
x(i,j) ; x(i,j,t). Le premier cas est le plus courant : la variable t est usuellement le temps mais
elle peut aussi représenter une autre grandeur (une distance par exemple).

La fonction représente l’évolution d’une grandeur électrique ou traduite sous cette forme par
un capteur approprié : microphone , signal acoustique, caméra , signal vidéo…

Fonctionnelle :

On appelle fonctionnelle une règle de correspondance entre un ensemble de nombres réels ou


complexes. En d’autre termes, une fonctionnelle est une fonction de fonctions. Les signaux
résultant d’un traitement ou certains de leurs paramètres sont souvent exprimés par des
relations fonctionnelles. Par exemple :

1
TRAITEMENT DES SIGNAUX

Définition :

La théorie du signal fournit la description mathématique (ou modélisation) des signaux. Le


traitement des signaux est la discipline technique qui, s’appuyant sur la théorie du signal et de
l’information, les ressources de l’électronique, de l’informatique et de la physique appliquée,
a pour objet l’élaboration ou l’interprétation des signaux porteurs d’information. Elle trouve
son application dans tous les domaines concernés par la perception, la transmission ou
l’exploitation de ces informations.

Principales fonctions du traitement de signal

Les principales fonctions du traitement de signal sont :

 L’analyse : On cherche à isoler les composantes essentielles d'un signal de forme


complexe, afin d'en mieux comprendre la nature et origines.
 La mesure : mesurer un signal, en particulier aléatoire, c'est essayer d'estimer la valeur
d'une grandeur caractéristique qui lui est associée avec un certain degré de confiance.
2
 Le filtrage : c'est une fonction qui consiste à éliminer d'un signal certaines
composantes indésirables. La régénération : c'est une opération par laquelle on tente
de redonner sa forme initiale à un signal ayant subis diverses distorsions.
 La détection : par cette opération on tente d'extraire un signal utile du bruit de fond qui
lui est superposé.
 L’identification : c'est un procédé souvent complémentaire qui permet d'effectuer un
classement du signal observé.
 La synthèse : opération inverse de l'analyse, consiste à créer un signal de forme
appropriée en procédant, par exemple, à une combinaison de signaux élémentaires.
 Le codage : outre sa fonction de traduction en langage numérique, est utilisé soit pour
lutter contre le bruit de fond, soit pour tenter de réaliser des économies de largeur de
bande ou de mémoire d'ordinateur.
 La modulation et le changement de fréquence : sont essentiellement des moyens
permettant d'adapter un signal aux caractéristiques fréquentielles d'une voie de
transmission, d'un filtre d'analyse ou d'un rapport d'enregistrement.

Variables aléatoires discrètes :


Définition
Une variable aléatoire est dite discrète si elle ne prend que des valeurs discontinues dans un
intervalle donné (borné ou non borné). L’ensemble des nombres entiers est discret. En règle
générale, toutes les variables qui résultent d’un dénombrement ou d’une numération sont de
type discrètes.

Exemples :

Les variables aléatoires,

 le nombre de petits par porté pour une espèce animale donnée (chat, marmotte, etc),

 le nombre de bactéries dans 100 ml de préparation,

 le nombre de mutations dans une séquence d’ADN de 10 kb,

Loi de probabilité

3
Une variable aléatoire est caractérisée par l’ensemble des valeurs qu’elle peut prendre et par
l’expression mathématique de la probabilité de ces valeurs. Cette expression s’appelle la loi
de probabilité (ou distribution de probabilité) de la variable aléatoire.

La loi de probabilité d’une variable aléatoire discrète est entièrement déterminée par les


probabilités pipi des évènements X=xiX=xi , xixi parcourant l’univers image X(Ω)X(Ω). La
loi de probabilité est donnée par les (xi,pi)i(xi,pi)i .

Exemple :

Dans le cas de la constitution d’une fratrie de deux enfants, si l’on fait l’hypothèse que la
probabilité d’avoir un garçon est égale à celle d’avoir une fille (1/2), alors la distribution de
probabilité ou loi de probabilité du nombre de filles dans une fratrie de deux enfants est :

Si P(F)=P(G)=1/2P(F)=P(G)=1/2, alors

4
1. P[(F∩G)∪(G∩F)]=P(F∩G)+P(G∩F)P[(F∩G)∪(G∩F)]=P(F∩G)+P(G∩F) Propriétés
d’additivité

avec (F∩G)∩(G∩F)=∅(F∩G)∩(G∩F)=∅ évènements incompatibles

2. P(F∩G)=P(F)P(G)P(F∩G)=P(F)P(G) Propriété d’indépendance

d’où P[(F∩G)∪(G∩F)]=P(X=1)=(1/2×1/2)+(1/2×1/2)=1/2

Fonction de répartition
On appelle fonction de répartition d’une variable aléatoire X, la fonction FX telle que :

FX:R⟶R⟶R

t⟼FX(t)=P(X<t)

Concrètement la fonction de répartition correspond à la distribution des probabilités


cumulées.

L’importance pratique de la fonction de répartition est qu’elle permet de calculer la


probabilité de tout intervalle dans R.

Les propriétés associées à la fonction de répartition sont les suivantes :

Soit FX la fonction de répartition d’une variable aléatoire discrète X alors :

(P1) ∀t∈R0≤FX(t)≤1

(P2) FX est croissante sur R

(P3) limt→−∞FX(t)=0etlimt→+∞FX(t)=1

(P4) si a≤bP(a≤X≤b)=FX(b)−FX(a)
Exemple :

On considère l’évènement ω « lancer de 3 pièces ». On introduit une variable aléatoire X


définie par X(ω) « nombre de piles de l’évènement ω». La loi de probabilité de X est :

5
Dans le cas d’une variable aléatoire discrète, on utilise un diagramme en bâtons pour
visualiser la distribution de probabilités et une fonction escalier pour la fonction de
répartition.

Variables aléatoires continues


Définition
Une variable aléatoire est dite continue si elle peut prendre toutes les valeurs dans un
intervalle donné (borné ou non borné). En règle générale, toutes les variables qui résultent
d’une mesure sont de type continu.
Exemples:
Les variables aléatoires,
 le masse corporelle des individus pour une espèce animale donnée,
 taux de glucose dans le sang,
 etc.
sont des variables aléatoires continues.

6
Fonction densité de probabilité
Dans le cas d’une variable aléatoire continue, la loi de probabilité associe une probabilité à
chaque ensemble de valeurs définies dans un intervalle donné. En effet, pour une variable
aléatoire continue, la probabilité associée à l’évènement {X=a} est nulle, car il est impossible
d’observer exactement cette valeur.
On considère alors la probabilité que la variable aléatoire X prenne des valeurs comprises
dans un intervalle [a,b] tel que P(a≤X≤b).
Lorsque cet intervalle tend vers 0, la valeur prise par X tend alors vers une fonction que l’on
appelle fonction densité de probabilité ou densité de probabilité.
On appelle densité de probabilité toute application continue par morceaux :

f:R⟶R

x⟼f(x)=x

telle que :

(P1) ∀x∈Rf(x)≥0

(P2) ∫+∞−∞f(x)dx=1 (en supposant que ∫+∞−∞f(x)dx existe)

Soit une fonction densité de probabilité f(x)f(x) :

1. l’aire hachurée en vert correspond à la probabilité P(X<−10)P(X<−10)

2. l’aire hachurée en bleu correspond à la probabilité P(+10<X<+15)

7
Une variable aléatoire X définie sur un univers Ω est dite absolument continue, s’il existe une
fonction densité de probabilité f telle que :

∀t∈RP(X<t)=∫t−∞f(x)dx

Fonction de répartition
Si comme pour les variables aléatoires discrètes, on définit la fonction de
répartition de XX par :

X:R⟶R

t⟼FX(t)=P(X<t)

alors la relation entre la fonction de répartition FX et la fonction densité de probabilité


f(x) est la suivante :

∀t∈RFX(t)=P(X<t)=∫t−∞f(x)dx

La fonction de répartition FX(t) est la primitive (voir cours d’analyse) de la fonction densité de
probabilité f(x), et permet d’obtenir les probabilités associées à la variable aléatoire X, en
effet :

- Soit X une variable aléatoire absolument continue de densité f et de fonction de répartition


FX , alors :

(P1) P(a≤X≤b)=FX(b)−FX(a)=∫baf(x)dx avec a<b

(P2) ∀a∈RP(x=a)=0 si f est continue à droite du point a.


(P1) P(a≤X≤b)=P(X<b)−P(X<a)=FX(b)−FX(a)

d’où ∫b−∞f(x)dx−∫a−∞f(x)dx=∫baf(x)dx

(P2) Si f est continue sur un intervalle de la forme [a,a+h] avec h⟶0+ alors,

P(a≤X≤a+h)=∫a+haf(x)dx=hf(a+θh) avec (0<θ<1); (théorème des accroissements finis)

Ainsi lorsque h⟶0:f(a+θh)⟶f(a) et hf(a+θh)⟶0

d’où P(a≤X≤a+h)⟶P(X=a)=0

8
La fonction de répartition correspond aux probabilités cumulées associées à la variable
aléatoire continue sur l’intervalle d’étude (graphe ci-dessous).

L’aire hachurée en vert sous la courbe de la fonction densité de probabilité correspond à la


probabilité P(X<a) et vaut 0,5 car ceci correspond exactement à la moitié de l’aire totale sous
la courbe.

Les propriétés associées à la fonction de répartition sont les suivantes :

Soit FX la fonction de répartition d’une variable aléatoire absolument continue X alors :

(P1) FX est continue sur R, dérivable en tout point où f est continue et alors F′X=f

(P2) FX est croissante sur R

(P3) FX est à valeurs dans [0,1]

(P4) limt→−∞FX(t)=0 et limt→+∞FX(t)=1

Exemple :

Dans une population de canards colverts, lors d’une alerte, l’ensemble des individus quittent
leur lieu de repos. Ainsi à t=0, la surface de l’étang est déserte et la probabilité qu’un canard
regagne l’étang entre les temps t1 et t2 (en minutes) est donnée par :

∫t2t1f(t)dt avec f(t)=2e−t−2e−2t qui représente la fonction densité de probabilité.

La primitive de f(t), FT(t), fonction de répartition est de la forme :

9
L’évolution de la recolonisation de l’étang par les canards colverts en fonction du temps est
donnée par la courbe rouge. On observe ainsi que plus de 50 % des canards se posent sur
l’étang au cours des 2 premières minutes qui suivent l’alerte. Au bout de 7 minutes, tous les
canards ont regagné l’étang. La distribution des probabilités cumulées est donnée sur
la courbe verte.

Variance

La variance d’une variable aléatoire V(X) est l’espérance mathématique du carré de l’écart à
l’espérance mathématique. C’est un paramètre de dispersion qui correspond au moment centré
d’ordre 2 de la variable aléatoire X. C’est l’équivalent de la variance observée S² . En effet
lorsque le nombre d’épreuves n est grand, S² tend vers V(X) (voir estimation ).

Si X est une variable aléatoire ayant une espérance E(X), on appelle variance de X le réel :

V(X)=E([X−E(X)]²)
V(X)=E([X−E(X)]²)
V(X)=E(X²–X²E(X)+E(X)²)

V(X)=E(X²)–2E[XE(X)]+E[E(X)2] Propriétés P1 de l’espérance

V(X)=E(X²)–2E(X)²+E(X)²=E(X²)–E(X)² Propriétés P4 de l’espérance


V(X)=E(X²)–[E(X)]²

10
Variables aléatoires discrètes
Si X est une variable aléatoire discrète de loi de probabilité (xi,pi)i définie sur un nombre fini
(n) d’évènements élémentaires alors la variance est égale à :
V(X)=∑i=1n(xi−E(X))²pi=∑i=1nx²ipi−E(X)²
Variables aléatoires continues
Si X est une variable aléatoire continue donnée par sa densité de probabilité alors la variance
de X est le nombre réel positif tel que :

Caractéristique des processus aléatoire :


Moyenne, autocorrélation et stationarité.
Soit un processus stochastique discret représenté par la série temporelle
X(n), X(n − 1), . . . , X(n − M), on définit la moyenne par :
µX(n) = E{X(n)}
Un processus est dit strictement stationnaire si tous ses moments sont indépendants du temps.
Un processus est dit faiblement stationnaire, ou stationnaire au sens large, si
– µX(n) = µ ∀n
– r(n, n − k) = r(k) ∀n
On notera au passage que r(0) représente la valeur quadratique moyenne ou
puissance de X(n), tandis que c(0) = σ²x représente la variance .
La matrice de corrélation.
Définissons un vecteur d’observation (qui est un vecteur aléatoire !) X(n) tel
que :
XT(n) = [X(n), X(n − 1), . . . , X(n − M + 1)]
On définit alors la matrice de corrélation par : R = E X(n)XH(n)

1. La matrice de corrélation d’un processus stochastique discret stationnaire est hermitienne.


Une matrice est dite hermitienne si elle est égale à sa transposée hermitienne, i.e.
R = RH

11
Cette propriété découle directement de la définition de la matrice de corrélation. On peut
d’ailleurs aisément vérifier que r(−k) = r
(k). Dans le cas d’un processus à valeurs réelles, la matrice R est symétrique.
2. La matrice de corrélation d’un processus stationnaire discret est une matrice Toeplitz
carrée.
Une matrice carrée est dite Toeplitz si tous les éléments d’une même diagonale ou sous-
diagonale sont égaux. On voit directement que c’est le cas
ici. D’autre part, cette propriété est directement liée à la propriété de stationnarité (au sens
large) du processus. Cette propriété est importante, car elle permet dans bien des cas de
simplifier les calculs algébriques.
3. La matrice de corrélation d’un processus stationnaire discret est toujours définie non
négative (et souvent définie positive).
Soit X un vecteur aléatoire complexe quelconque de dimension Mx1. Définissons Y = u
HX(n) (et donc y∗ = u
H(n)X). La puissance de Y est définie par :

Les innovations.
Soit un processus stationnaire X(n) de séquence d’autocorrélation r(n) et de densité spectrale
de puissance (dsp) Sxx(f) définie sur |f| ≤ ½

La densité spectrale étant obtenue en évaluant Sxx(z) sur le cercle unité.


Processus autorégressif à moyenne mobile (ARMA) :
C’est le processus général décrit ci-dessus.
Processus Aléatoires :

12
Bruit :
Bruit thermique :
– Modèle équivalent (Thévenin) d’une résistance R :
– Rth = R, considérée sans bruit
– « Source de tension » : dsp SV (f) ≈ 2RKT (V2/Hz)
– Densité spectrale de puissance disponible (charge adaptée) :

Bruit de grenaille
Ce bruit, encore appelé shot noise, est dû à la fluctuation du courant lors de la traversée d'une
barrière de potentiel par les électrons. On le retrouve donc dans tous les semi-conducteurs.
Soit un courant I, le nombre de porteurs de charge arrivant au temps t est

où q = 1, 6×10-19 [C] est la charge d'un électron. L'entier N fluctue légèrement en fonction du
temps, d'où il résulte une variation de la valeur instantanée du courant. L'examen analytique
(complexe) de ce problème conduit à considérer en pratique que la fluctuation de courant due
au bruit a l'allure d'un bruit blanc gaussien pour lequel

13

Vous aimerez peut-être aussi