Vous êtes sur la page 1sur 16

DOCUMENTS RELATIFS AU COURS

D'ANALYSE ET TRAITEMENT
DES SIGNAUX CONTINUS

Master EEA - ISHM (1ère année)

Enseignant : E. LOSSON
etienne.losson@univ-lorraine.fr
Bibliographie
1) Ouvrages théoriques

Signaux et systèmes linéaires par Y. THOMAS

Série d'ouvrages: "Signaux et systèmes en questions"


Le signal déterministe par D. DECLERCQ ET A. QUINQUIS
Le signal aléatoire par D. DECLERCQ ET A. QUINQUIS
Signal déterministe. Signal aléatoire (exercices et problèmes corrigés)

Eléments de théorie du signal: les signaux déterministes par J.P. DELMAS


Eléments de théorie du signal: signaux aléatoires par M. CHARBIT

Dans la série " Applications mathématiques avec Matlab"


Théorie élémentaire du signal (rappel de cours et exercices corrigés)
par L. JOLIVET et R. LABBAS

2) Ouvrages avec applications

Traitement des signaux et acquisition de données par F. COTTET

Traitement numérique du signal: simulations sous Matlab


par G. BLANCHET et M. CHARBIT

Analyse et traitement des signaux (méthodes et applications au son et à l'image)


par E. TISSERAND

2
SOMMAIRE du DOCUMENT
FORMULES TRIGONOMETRIQUES ..................................................................................... 4

SERIE DE FOURIER ................................................................................................................ 5

TRANSFORMEES DE FOURIER ............................................................................................ 6

Définitions des transformées de Fourier ................................................................................. 6

Définition de l'impulsion de Dirac .......................................................................................... 6

Propriétés de la transformée de Fourier (TF) et de la série de Fourier (SF) ........................... 7

Définitions de puissance moyenne totale et énergie ............................................................... 9

Définition de la convolution ................................................................................................... 9

Définitions de l'autocorrélation et l'intercorrélation de signaux à puissance finie................ 10

Définition de la densité spectrale de puissance ..................................................................... 11

EXEMPLES DE TRANSFORMEES DE FOURIER .............................................................. 11

Signaux périodiques .............................................................................................................. 11

Signaux déterministes à puissance finie non périodiques ..................................................... 11

Table illustrée – exemples de signaux périodiques ............................................................... 12

Table illustrée – exemples de signaux aléatoires .................................................................. 12

Table illustrée – exemples de signaux à énergie finie .......................................................... 13

RAPPELS DE PROBABILITES ............................................................................................. 14

1) Définition d'une variable aléatoire (v.a.) .......................................................................... 14

2) Variables aléatoires à deux dimensions ............................................................................ 16

3
FORMULES TRIGONOMETRIQUES
La fonction cosinus est une fonction paire, donc: cos( x)  cos(x)
La fonction sinus est une fonction impaire, donc: sin( x)   sin( x)
1) Angles remarquables
x 0 /6 /4 /3 /2
cos(x) 1 3/2 2/2 1/2 0

sin(x) 0 1/2 2/2 3/2 1

Rappel: l'angle  en radian correspond à 180°.

2) Formule fondamentale: cos2 ( x)  sin 2 ( x)  1


3) Transformations de produits en sommes
cos(a  b)  cos(a ) cos(b)  sin(a ) sin(b)
cos(a  b)  cos(a ) cos(b)  sin(a ) sin(b)
sin(a  b)  sin(a ) cos(b)  sin(b) cos(a )
sin(a  b)  sin(a ) cos(b)  sin(b) cos(a )

4) Formules de Carnot
1 1
cos2 ( x)  1  cos(2 x) sin 2 ( x)  1  cos(2 x)
2 2
5) Transformations de produits en sommes
1
sin(a) cos(b)  sina  b   sina  b 
2
1
cos(a ) cos(b)  cosa  b   cosa  b 
2
1
sin(a) sin(b)  cosa  b   cosa  b 
2
6) Dérivées et intégrales de sinusoïdes
d (cos(t )) d (sin(t ))
 cos'(t )   sin(t )  sin' (t )  cos(t )
dt dx
d (cos(at )) d (sin(at ))
 cos'(at )  a sin(t )  sin' (at )  a cos(t )
dt dt
où a représente une constante
t2 t2

 cos(t )dt  sin(t )  sin(t )dt   cost 


t2 t2
t1  sin(t2 )  sin(t1 ) t1   cos(t2 )  cos(t1 )
t1 t1
t2 t2
1 1
t cos(at)dt  a sinat t12  sin(at)dt  a  cosat 
t t2
t1
1 t1

4
SERIE DE FOURIER
La décomposition en série de Fourier d'un signal périodique x(t) est donnée par:

 t    t 
x(t )  a0   a n cos 2n    bn sin 2n 
 T  n 1  T 
n 1  
Cette relation est appelée décomposition en série trigonométrique, dont les paramètres sont:
T: période de x(t)
a0: valeur moyenne de x(t)
1
a0 
T  x(t )dt
[T ]

an: coefficients en cosinus définis par:


2  t
an 
T  x(t ) cos 2n T dt
[T ]

bn: coefficients en sinus définis par:


2  t
bn  
T [T ]
x(t ) sin 2n dt
 T

La fréquence 1/T est appelée fondamentale du signal.


Les multiples entiers de cette fréquence: n/T sont appelés harmoniques de rang n.
En remplaçant les fonctions trigonométriques (sin et cos) par des fonctions exponentielles
complexes, il est possible de mettre x(t) sous la forme (démonstration vue en cours):

 t
x(t )  c
n  
n exp i 2n 
 T
avec: cn : coefficients de Fourier (complexes) de x(t).
1  t
cn 
T  x(t ) exp  i2n T dt
[T ]

c0  a0
a n  ibn
cn  pour n  1 , attention les cn sont également définis pour n  0 (contrairement aux a n et bn )
2
a  ibn
d' où : c-n  c n*  n pour n  1 pour un signal x(t) réel (partie imaginaire nulle)
2

5
TRANSFORMEES DE FOURIER

Définitions des transformées de Fourier


La transformée de Fourier directe, qui permet le passage de l'espace temporel à l'espace
fréquentiel, est définie par la relation suivante:

X ( f )   x(t ) exp i 2ft dt


Il est également possible de calculer x(t) à partir de X(f) par une relation similaire qui
correspond à la transformée de Fourier inverse:

x(t )   X ( f ) expi 2ft df


Définition de l'impulsion de Dirac


L'impulsion de Dirac peut être définie par la transformée de Fourier de 1:

 ( f )   exp i 2ft dt


L'impulsion de Dirac a une aire unité, une amplitude infinie et une largeur qui tend vers 0
comme l'illustre le schéma suivant.

(f) est obtenue quand  tend vers zéro

1/

0 f

Pour représenter des impulsions de Dirac, on utilisera plutôt la représentation symbolique


suivante:

(f)

1
f
0

L'impulsion de Dirac n'est pas un signal qui peut être obtenu par un générateur ou une
fonction observable sur un analyseur de spectres, elle sert de modèle pratique pour représenter
les spectres de signaux périodiques par exemple ou encore pour définir l'échantillonnage de
signaux.

6
Propriétés de la transformée de Fourier (TF) et de la série de Fourier
(SF)
1) Linéarité

TF ax(t )  b   aX ( f )  b ( f )
SF ax(t )  b  : tous les cn sont multipliés par a et on rajoute b à c0

2) Translation temporelle

3) Décalage en fréquence ou modulation

TF x(t ) exp(i2f 0t )  X ( f  f 0 )

4) Dérivation et intégration

 dx(t ) 
TF    i 2fX ( f )
 dt 
 dx(t )   n
SF     i 2 c n
 dt   T
 t  X(f )
TF   x( )d  
  i 2f
  
 t  1
SF   x( )d   c n
  i 2n / T
  

5) Dilatation dans le temps

X  f / a
TF x(at)  
a

6) Inversion du temps

TF ( x(t ))  X ( f )
SF ( x(t ))  c  n

7) Conjugaison complexe

7
TF ( x * (t ))  X * ( f )
SF ( x * (t ))  c * n

- application à des signaux réels où x(t)=x*(t) :

X ( f )  X * ( f ) et c n  c * n

On parle alors de symétrie hermitienne

8) Convolution-théorème de Plancherel

TF
x(t ) * y (t )  X ( f )Y ( f )
TF 1
X ( f ) * Y ( f )  x(t ) y (t )

9) Identité de Parseval


1 T / 2
 c
2 2
- pour les signaux périodiques : P x(t ) dt  n
T T / 2
n  

 
E   x(t ) dt  
2 2
- pour les signaux à énergie finie : X ( f ) df
 

10) Dualité des transformées de Fourier

Soit X(f)=TF(x(t)) et z(t)=X(t), on peut écrire que TF(z(t))=Z(f)=x(-f).

8
Définitions de puissance moyenne totale et énergie
Un signal est dit à énergie finie lorsque le résultat du calcul de son énergie à l'aide de


 x(t ) dt  
2 2
la formule suivante ne tend pas vers l'infini : E X ( f ) df



Si E tend vers l'infini, le signal est le plus souvent à puissance finie. La puissance moyenne
totale d'un signal peut être calculée à partir de la représentation temporelle du signal (x(t)) à
T
2
1
 x(t )
2
partir de l'équation : P  limT  dt
T T

2

Les exemples les plus connus de signaux à puissance finie sont les signaux périodiques pour
lesquels la limite définie dans l'équation précédente tend vers le résultat suivant:

1
 c
2 2
P x(t ) dt  n avec T: période de x(t)
T  
T n  

Pour des signaux aléatoires, pour lesquels il n'existe pas d'expression de x(t), la puissance
moyenne totale peut être calculée à partir de la moyenne statistique (ou espérance
mathématique E) d'une variable aléatoire X issue du signal à un instant t: P=E(X²)

Définition de la convolution
La convolution est une opération permettant d'exprimer la représentation temporelle
d'un signal sortant d'un filtre (y(t)) en fonction de la représentation temporelle du signal en
entrée du même filtre (x(t))
Pour un filtre de réponse impulsionnelle h(t), l'opération de convolution (notée *) qui lie le

signal de sortie y(t) au signal d'entrée x(t) s'écrit: y(t )  x(t ) * h(t )   x( )h(t   )d


9
Définitions de l'autocorrélation et l'intercorrélation de signaux à
puissance finie
L'autocorrélation d'un signal x, notée Rx(τ), donne une mesure de la corrélation
existante entre x(t) et x(t-τ) en fonction de ce décalage τ. De même, l'intercorrélation de 2
signaux x et y, notée Rxy(τ), donne une mesure de la corrélation existante entre x(t) et y(t-τ) en
fonction de ce décalage τ. Par la suite nous ne définirons que l'autocorrélation, sachant qu’il
est facile de transposer ces définitions pour formuler l'intercorrélation.
Pour un signal x à énergie finie, cette fonction d'autocorrélation peut être calculée à partir de

la relation suivante: Rx ( )   x(t ) x(t   )dt


ATTENTION A NE PAS CONFONDRE LES DEFINITIONS


DE CONVOLUTION ET CORRELATION
Pour un signal x à puissance finie, cette fonction d'autocorrélation peut être calculée à partir
1 
de la relation suivante: R x ( )  limT  
T

[T ]
x(t ) x(t   )dt 

Cas particulier de signal à puissance finie: pour un signal x périodique de période T la relation
1
T [T ]
précédente se simplifie pour donner: Rx ( )  x(t ) x(t   )dt

Pour des signaux aléatoires, pour lesquels il n'existe pas d'expression de x(t), la fonction
d'autocorrélation peut être calculée à partir de la moyenne statistique (ou espérance
mathématique E) du produit des variables aléatoires X issue du signal aux instant t et t-τ:
Rx(τ)=E(X(t)X(t-τ))
Pour tout type de signal, la fonction d'autocorrélation est maximale en τ=0, et ce maximum
correspond à la puissance moyenne totale du signal: Rx(0)=P

10
Définition de la densité spectrale de puissance
La densité spectrale de puissance d'un signal x, notée Gx(f), donne la répartition de la
puissance du signal en fonction des fréquences f.
Pour tout signal x, cette fonction densité spectrale est obtenue en calculant la transformée de
Fourier (TF) de l'autocorrélation: Gx(f)=TF(Rx())
Pour un signal x périodique de période T, cette fonction densité spectrale est aussi donnée par
la relation: Gx(f)=TF(Rx())=|X(f)|2.
La puissance moyenne totale, notée P, d'un signal x à puissance finie peut alors être obtenue

grâce à la relation suivante: 
-
G x ( f )df  Rx (0)  P

EXEMPLES DE TRANSFORMEES DE FOURIER


Signaux périodiques
x(t) de période T X(f)
Fonction périodique quelconque 
 n

 nt 
X(f )   c   f  T 
n
x(t )   c n exp  i 2  ) n  
n    T 
 t 1  1  1 
Fonction cosinus x(t )  cos 2  X( f )     f      f   
 T 2  T  T 
 t i  1  1 
Fonction sinus x(t )  sin 2  X ( f )     f      f   
 T 2  T  T 

Signaux déterministes à puissance finie non périodiques


x(t) X(f)
Fonction constante x(t)=K pour tout t X ( f )  K ( f )
NB: cette fonction peut être considérée
comme une fonction périodique de période
quelconque
x(t )   (t ) X( f ) 1

11
Table illustrée – exemples de signaux périodiques

Spectre d'amplitude
Rx(τ) monolatéral pour f>0

A
f
0 1/T

Table illustrée – exemples de signaux aléatoires


Représentation Autocorrélation Densité spectrale Densité de
temporelle Rx(τ) puissance probabilité
Gx(f) p(x)

et centré (m=0)

12
Table illustrée – exemples de signaux à énergie finie

13
RAPPELS DE PROBABILITES

1) Définition d'une variable aléatoire (v.a.)

Soit X une v.a. définie par:


X: Ω
x
X est donc une fonction qui associe à chaque événement  de l'ensemble fondamental  un
scalaire x. La v.a. désigne à la fois cette fonction et l'ensemble {x} des issues possibles à une
épreuve. Une v.a. est repérée par une lettre majuscule X , Y , Z généralement.

1.1) Fonction de répartition et densité de probabilité d'une v.a.

La v.a. X n'est pas définie par une fonction analytique de  vers  mais par sa fonction de
répartition ou sa densité de probabilité.
La fonction de répartition est définie pour tout type de v.a. (discrète ou continue) par:
F ( x)  P X  x  , F(x) correspond donc à la probabilité pour que la v.a. X soit inférieure ou
égale à x.

Propriétés de F(x):
- F(x) permet de décrire entièrement une v.a.
- F(x) est une fonction croissante qui croît de 0 à 1

Exemple d'une v.a. discrète:


Soit X la v.a. correspondant à l'expérience du lancé d'un dé. Il y a 6 résultats possibles pour X:
{1, 2, 3, 4, 5, 6}. Si on fait l'hypothèse que chaque face a la même probabilité d'apparaître:
P(X=1)=P(X=2)=P(X=3)=P(X=4)=P(X=5)=P(X=6); sachant que la somme de toutes ces
probabilités doit faire 1, on en déduit que chacune de ces probabilité fait 1/6.
Dans ce cas, la fonction de répartition F(x) aura la forme d'une fonction discontinue en
marche d'escalier croissante partant de 0 jusqu'à 1 par pas de 1/6.
En effet:
- pour x<1, F(x)=P(Xx)=0
- pour 1x<2, F(x)=P(Xx)=P(X=1)=1/6
- pour 2x<3, F(x)=P(Xx)=P(X=1)+P(X=2)=2/6
- pour 3x<4, F(x)=P(Xx)=P(X=1)+P(X=2)+P(X=3)=3/6
- pour 4x<5, F(x)=P(Xx)=P(X=1)+P(X=2)+P(X=3)+P(X=4)=4/6
- pour 5x<6, F(x)=P(Xx)=P(X=1)+P(X=2)+P(X=3)+P(X=4)+P(X=5)=5/6
- pour 6x, F(x)=P(Xx)=P(X=1)+P(X=2)+P(X=3)+P(X=4)+P(X=5)+P(X=6)=6/6=1

Cas des v.a. continues

Dans le cas de v.a. continues, la fonction de répartition est généralement dérivable, ce qui
permet de définir la densité de probabilité aussi appelée loi de distribution, définie par:
dF ( x)
p( x) 
dx

14
En remontant à la définition d'une dérivée, il est possible de donnée à la fonction p(x) une
forme plus facile à interpréter:
dF ( x)
p( x) 
dx
P  X  x  x   P  X  x 
 lim x 0
x
P  x  X  x  x 
 lim x 0
x
Propriétés de p(x):
- p(x) est toujours positif car F(x) est une fonction croissante.
b
- F (b)  F (a)   p( x)dx
a

- 
p( x)dx  1
- tout comme la fonction de répartition, la densité de probabilité permet aussi de définir
entièrement une v.a. continue.

1.2) Espérance mathématique et moments statistiques

L'espérance mathématique correspond à la moyenne statistique et est définie par les formules
suivantes:

E ( X )   xp( x)dx pour une v.a. continue


 i 1 X i P X  X i  pour une v.a. discrète à N valeurs possibles X1 , X 2 ,..., X N


N

Pour alléger les expressions mathématiques, nous ne donnerons par la suite que des formules
adaptées aux v.a. continues.
Une propriété importante à connaître sur cet opérateur espérance mathématique est que pour
toute fonction (X), on a:

E ( X )    ( x) p( x)dx

La principale application de cette propriété est la linéarité de l'opérateur espérance
mathématique, en effet:
E aX  b   aE( X )  b
D'autres applications de cette propriété apparaissent dans le calcul des moments statistiques:
Un moment statistique d'ordre n est défini par:
  
m X n  E X n   x n p( x)dx en vertu de la propriété précédente

Un moment centré d'ordre n est défini par:

 X n  E  X  E ( X )n 
Le moment centré le plus utilisé est celui d'ordre 2 appelé variance noté Var(X) ou  X2 ,  X
étant l'écart type de la v.a. X.

15
2) Variables aléatoires à deux dimensions

Soit X et Y deux variables aléatoires appliquées à un même ensemble , comme par exemple
X: le poids et Y: la taille d'un ensemble  constitués par les hommes.
A partir de ces 2 v.a., il est possible de définir une loi de probabilité conjointe p(x,y) liée à la
probabilité d'avoir x pour la v.a. X et y pour la v.a. Y.
On définit Z une v.a. à deux dimensions car définie à partir de 2 autres v.a.: X et Y par une
fonction h(X,Y).
Le calcul du moment d'ordre n de cette v.a. Z se fera par:
 
   h
EZ n n
( x, y) p( x, y)dxdy

A partir de cette loi conjointe, il est possible de retrouver les densités de probabilités de X et
Y appelées dans ce cas les lois marginales:

p( x)   p( x, y)dy


p( y )   p( x, y)dx

Les deux v.a. X et Y sont dites indépendantes si et seulement si : p(x,y)=p(x)p(y)
Une conséquence de l'indépendance de 2 v.a. est que E(XY)=E(X)E(Y), on dit que X et Y
sont non corrélées.
Si X et Y sont deux v.a. indépendantes, des fonctions f(X) et g(Y) le seront aussi.

2.1) Définition de la covariance

La covariance est une extension de la variance à deux variables aléatoires:


cov X , Y   E  X  E ( X ) Y  E (Y ) 
 E  XY   E ( X ) E (Y )
 
Si Y=X, la covariance correspond à la variance: cov( X , X )  E X 2  E 2 ( X )
Propriétés:
- si les deux v.a. X et Y sont non corrélées, cov(X,Y)=0
- si l'une des deux v.a. X ou Y est centrée, cov(X,Y)=E(XY)
- cov( X , Y )   X  Y

2.2) Définition de l'indice de corrélation

L'indice de corrélation est défini par:


cov( X , Y )

 XY
Cet indice est toujours compris entre –1 et 1. Plus il se rapproche de 1 en valeur absolue, plus
la corrélation entre X et Y est forte. A noter que cette corrélation est inexistante si l'indice
vaut 0 (cas de 2 v.a. non corrélées).

16

Vous aimerez peut-être aussi