Académique Documents
Professionnel Documents
Culture Documents
D'ANALYSE ET TRAITEMENT
DES SIGNAUX CONTINUS
Enseignant : E. LOSSON
etienne.losson@univ-lorraine.fr
Bibliographie
1) Ouvrages théoriques
2
SOMMAIRE du DOCUMENT
FORMULES TRIGONOMETRIQUES ..................................................................................... 4
3
FORMULES TRIGONOMETRIQUES
La fonction cosinus est une fonction paire, donc: cos( x) cos(x)
La fonction sinus est une fonction impaire, donc: sin( x) sin( x)
1) Angles remarquables
x 0 /6 /4 /3 /2
cos(x) 1 3/2 2/2 1/2 0
4) Formules de Carnot
1 1
cos2 ( x) 1 cos(2 x) sin 2 ( x) 1 cos(2 x)
2 2
5) Transformations de produits en sommes
1
sin(a) cos(b) sina b sina b
2
1
cos(a ) cos(b) cosa b cosa b
2
1
sin(a) sin(b) cosa b cosa b
2
6) Dérivées et intégrales de sinusoïdes
d (cos(t )) d (sin(t ))
cos'(t ) sin(t ) sin' (t ) cos(t )
dt dx
d (cos(at )) d (sin(at ))
cos'(at ) a sin(t ) sin' (at ) a cos(t )
dt dt
où a représente une constante
t2 t2
4
SERIE DE FOURIER
La décomposition en série de Fourier d'un signal périodique x(t) est donnée par:
t t
x(t ) a0 a n cos 2n bn sin 2n
T n 1 T
n 1
Cette relation est appelée décomposition en série trigonométrique, dont les paramètres sont:
T: période de x(t)
a0: valeur moyenne de x(t)
1
a0
T x(t )dt
[T ]
c0 a0
a n ibn
cn pour n 1 , attention les cn sont également définis pour n 0 (contrairement aux a n et bn )
2
a ibn
d' où : c-n c n* n pour n 1 pour un signal x(t) réel (partie imaginaire nulle)
2
5
TRANSFORMEES DE FOURIER
Il est également possible de calculer x(t) à partir de X(f) par une relation similaire qui
correspond à la transformée de Fourier inverse:
x(t ) X ( f ) expi 2ft df
L'impulsion de Dirac a une aire unité, une amplitude infinie et une largeur qui tend vers 0
comme l'illustre le schéma suivant.
1/
0 f
(f)
1
f
0
L'impulsion de Dirac n'est pas un signal qui peut être obtenu par un générateur ou une
fonction observable sur un analyseur de spectres, elle sert de modèle pratique pour représenter
les spectres de signaux périodiques par exemple ou encore pour définir l'échantillonnage de
signaux.
6
Propriétés de la transformée de Fourier (TF) et de la série de Fourier
(SF)
1) Linéarité
TF ax(t ) b aX ( f ) b ( f )
SF ax(t ) b : tous les cn sont multipliés par a et on rajoute b à c0
2) Translation temporelle
TF x(t ) exp(i2f 0t ) X ( f f 0 )
4) Dérivation et intégration
dx(t )
TF i 2fX ( f )
dt
dx(t ) n
SF i 2 c n
dt T
t X(f )
TF x( )d
i 2f
t 1
SF x( )d c n
i 2n / T
X f / a
TF x(at)
a
6) Inversion du temps
TF ( x(t )) X ( f )
SF ( x(t )) c n
7) Conjugaison complexe
7
TF ( x * (t )) X * ( f )
SF ( x * (t )) c * n
X ( f ) X * ( f ) et c n c * n
8) Convolution-théorème de Plancherel
TF
x(t ) * y (t ) X ( f )Y ( f )
TF 1
X ( f ) * Y ( f ) x(t ) y (t )
9) Identité de Parseval
1 T / 2
c
2 2
- pour les signaux périodiques : P x(t ) dt n
T T / 2
n
E x(t ) dt
2 2
- pour les signaux à énergie finie : X ( f ) df
8
Définitions de puissance moyenne totale et énergie
Un signal est dit à énergie finie lorsque le résultat du calcul de son énergie à l'aide de
x(t ) dt
2 2
la formule suivante ne tend pas vers l'infini : E X ( f ) df
Si E tend vers l'infini, le signal est le plus souvent à puissance finie. La puissance moyenne
totale d'un signal peut être calculée à partir de la représentation temporelle du signal (x(t)) à
T
2
1
x(t )
2
partir de l'équation : P limT dt
T T
2
Les exemples les plus connus de signaux à puissance finie sont les signaux périodiques pour
lesquels la limite définie dans l'équation précédente tend vers le résultat suivant:
1
c
2 2
P x(t ) dt n avec T: période de x(t)
T
T n
Pour des signaux aléatoires, pour lesquels il n'existe pas d'expression de x(t), la puissance
moyenne totale peut être calculée à partir de la moyenne statistique (ou espérance
mathématique E) d'une variable aléatoire X issue du signal à un instant t: P=E(X²)
Définition de la convolution
La convolution est une opération permettant d'exprimer la représentation temporelle
d'un signal sortant d'un filtre (y(t)) en fonction de la représentation temporelle du signal en
entrée du même filtre (x(t))
Pour un filtre de réponse impulsionnelle h(t), l'opération de convolution (notée *) qui lie le
signal de sortie y(t) au signal d'entrée x(t) s'écrit: y(t ) x(t ) * h(t ) x( )h(t )d
9
Définitions de l'autocorrélation et l'intercorrélation de signaux à
puissance finie
L'autocorrélation d'un signal x, notée Rx(τ), donne une mesure de la corrélation
existante entre x(t) et x(t-τ) en fonction de ce décalage τ. De même, l'intercorrélation de 2
signaux x et y, notée Rxy(τ), donne une mesure de la corrélation existante entre x(t) et y(t-τ) en
fonction de ce décalage τ. Par la suite nous ne définirons que l'autocorrélation, sachant qu’il
est facile de transposer ces définitions pour formuler l'intercorrélation.
Pour un signal x à énergie finie, cette fonction d'autocorrélation peut être calculée à partir de
la relation suivante: Rx ( ) x(t ) x(t )dt
Pour des signaux aléatoires, pour lesquels il n'existe pas d'expression de x(t), la fonction
d'autocorrélation peut être calculée à partir de la moyenne statistique (ou espérance
mathématique E) du produit des variables aléatoires X issue du signal aux instant t et t-τ:
Rx(τ)=E(X(t)X(t-τ))
Pour tout type de signal, la fonction d'autocorrélation est maximale en τ=0, et ce maximum
correspond à la puissance moyenne totale du signal: Rx(0)=P
10
Définition de la densité spectrale de puissance
La densité spectrale de puissance d'un signal x, notée Gx(f), donne la répartition de la
puissance du signal en fonction des fréquences f.
Pour tout signal x, cette fonction densité spectrale est obtenue en calculant la transformée de
Fourier (TF) de l'autocorrélation: Gx(f)=TF(Rx())
Pour un signal x périodique de période T, cette fonction densité spectrale est aussi donnée par
la relation: Gx(f)=TF(Rx())=|X(f)|2.
La puissance moyenne totale, notée P, d'un signal x à puissance finie peut alors être obtenue
grâce à la relation suivante:
-
G x ( f )df Rx (0) P
11
Table illustrée – exemples de signaux périodiques
Spectre d'amplitude
Rx(τ) monolatéral pour f>0
A
f
0 1/T
et centré (m=0)
12
Table illustrée – exemples de signaux à énergie finie
13
RAPPELS DE PROBABILITES
La v.a. X n'est pas définie par une fonction analytique de vers mais par sa fonction de
répartition ou sa densité de probabilité.
La fonction de répartition est définie pour tout type de v.a. (discrète ou continue) par:
F ( x) P X x , F(x) correspond donc à la probabilité pour que la v.a. X soit inférieure ou
égale à x.
Propriétés de F(x):
- F(x) permet de décrire entièrement une v.a.
- F(x) est une fonction croissante qui croît de 0 à 1
Dans le cas de v.a. continues, la fonction de répartition est généralement dérivable, ce qui
permet de définir la densité de probabilité aussi appelée loi de distribution, définie par:
dF ( x)
p( x)
dx
14
En remontant à la définition d'une dérivée, il est possible de donnée à la fonction p(x) une
forme plus facile à interpréter:
dF ( x)
p( x)
dx
P X x x P X x
lim x 0
x
P x X x x
lim x 0
x
Propriétés de p(x):
- p(x) est toujours positif car F(x) est une fonction croissante.
b
- F (b) F (a) p( x)dx
a
-
p( x)dx 1
- tout comme la fonction de répartition, la densité de probabilité permet aussi de définir
entièrement une v.a. continue.
L'espérance mathématique correspond à la moyenne statistique et est définie par les formules
suivantes:
E ( X ) xp( x)dx pour une v.a. continue
Pour alléger les expressions mathématiques, nous ne donnerons par la suite que des formules
adaptées aux v.a. continues.
Une propriété importante à connaître sur cet opérateur espérance mathématique est que pour
toute fonction (X), on a:
E ( X ) ( x) p( x)dx
La principale application de cette propriété est la linéarité de l'opérateur espérance
mathématique, en effet:
E aX b aE( X ) b
D'autres applications de cette propriété apparaissent dans le calcul des moments statistiques:
Un moment statistique d'ordre n est défini par:
m X n E X n x n p( x)dx en vertu de la propriété précédente
Un moment centré d'ordre n est défini par:
X n E X E ( X )n
Le moment centré le plus utilisé est celui d'ordre 2 appelé variance noté Var(X) ou X2 , X
étant l'écart type de la v.a. X.
15
2) Variables aléatoires à deux dimensions
Soit X et Y deux variables aléatoires appliquées à un même ensemble , comme par exemple
X: le poids et Y: la taille d'un ensemble constitués par les hommes.
A partir de ces 2 v.a., il est possible de définir une loi de probabilité conjointe p(x,y) liée à la
probabilité d'avoir x pour la v.a. X et y pour la v.a. Y.
On définit Z une v.a. à deux dimensions car définie à partir de 2 autres v.a.: X et Y par une
fonction h(X,Y).
Le calcul du moment d'ordre n de cette v.a. Z se fera par:
h
EZ n n
( x, y) p( x, y)dxdy
A partir de cette loi conjointe, il est possible de retrouver les densités de probabilités de X et
Y appelées dans ce cas les lois marginales:
p( x) p( x, y)dy
p( y ) p( x, y)dx
Les deux v.a. X et Y sont dites indépendantes si et seulement si : p(x,y)=p(x)p(y)
Une conséquence de l'indépendance de 2 v.a. est que E(XY)=E(X)E(Y), on dit que X et Y
sont non corrélées.
Si X et Y sont deux v.a. indépendantes, des fonctions f(X) et g(Y) le seront aussi.
16