Vous êtes sur la page 1sur 72

 

 
 
 
 
 
 
 
 
 
 

Cours de Traitement du
Signal

Génie Electrique
Et
Informatique Industrielle


 
 

Chapitre 1 : Introduction au traitement du signal et quelques


signaux usuels

 
Le traitement du signal est une discipline qui a pour objectif d'interpréter les signaux.  
On entend par signal toute représentation physique d'une information transportée d'une 
source vers un  destinataire et  dépendante des quantités : Temps, Espace, Température, Champ   
électromagnétique, etc. …….   
Dans  ce  qui  suit,  on  admet  que  le  signal  désigne  toute  fonction  du  temps  qui  peut    avoir  une 
expression mathématique (signaux déterministes) ou non (signaux aléatoires) . 
1. Quelques généralités
1.1. Modélisation des signaux
Un signal est une grandeur physique qui peut être par exemple : 
- Tension aux bornes d’un condensateur en charge. 
- Onde acoustique : courant électrique de délivré par un microphone : parole,         musique ; 
- Onde lumineuse : Courant électrique   spectromètre : (étoile, gaz excité ou désexcité)  
- Cosmiques : Radiotélescopes  
- Signaux  géophysiques :  Température,  Pression,  vitesse  du  vent,  marées,  sons,    images, 
vibrations sismiques, ……………… 
- des ondes sismiques,  
- des  images  satellites  (le  traitement  d'images  est  une  extension  du  traitement  du  signal  à  2 
dimensions)... 
- des sons musicaux,  
- la parole,  
- , 
- Signaux  biologiques :  EEG,  un  électrocardiogramme  ECG,  EMG,  EOG,  Scan, 
RMN…………….   

Pour chaque type de signal, Il existe un traitement spécifique. 

Un  signal  est  émis  par  un  système  physique  en  évolution et  obtenu  à  l'aide  d'un  capteur. 
Les  grandeurs  physiques  sont  représentées  par  des  fonctions  s(t) à  valeurs  réelles  d'une 
variable t (figure 1.1). Dans la pratique, ces signaux ont la particularité d'être : 
- à énergie, à amplitude et à spectre bornés, 
- causal (   s(t )  0  t  0  ). 

 
 

- Par  contre,  sur  le  plan  théorique,  les  signaux  seront  représentés  par  des  fonctions 
parfois ;  
- à énergie et à spectre infinis, 
- avec des discontinuités, 
- définies sur l’ensemble de réel R, 
- à valeurs complexes. 
1.2. Qu'est-ce que le traitement du signal ?
   Le Traitement du signal est l’ensemble des théories ; méthodes procédures et techniques 
permettant de :  
 Créer des signaux, 
 De les modifiés, 
 Les transmettre, 
 De les recevoir, 
 De les analyser, 
 De les reconnaitre et de les prévoir. 
Le traitement du signal a pour but d'étudier l'information portée par les signaux. Il s'appuie sur 
une  science  fondamentale:  la  théorie  du  signal.  Cette  science  a  pour  objectif  la  description 
mathématique des signaux et de mettre en évidence les principales caractéristiques  du  signal 
et  d'analyser  les  modifications  subies  par  celui-ci  lors  de  la transmission et le traitement. 
On trouve des applications du traitement du signal dans de nombreux domaines tels que  : 
- les télécommunications, 
-  le traitement audio, 
- le radar, le sonar, 
-  l'automobile... 

 
Fig. 1.1 Signal physique. 
1.3. Notions sur le bruit :
 On  appelle  Bruit   tout  phénomène  perturbateur  pouvant  gêner  la  perception    ou 
l’interprétation du signal.  
 
Exemple : Mesure de la masse d’un corps. 


 
 

 
Remarque :

Lors  de  la  réalisation  et  une  ou  plusieurs  taches  de  traitement  de  signal,  il  y  a  toujours 
introduction d’une grandeur parasite (bruit) d’origine multiple, qui se superpose au signal utile. 
Exemple : Astronomie  

   
 
Rapport Signal sur Bruit (RSB) :
Ce rapport détermine la qualité du signal déterministe à celui de l’aléatoire. Il est donné par le rapport de 
la puissance  du signal utile à la puissance du bruit   :  

=  

Ce rapport est généralement exprimé en Décibel  par : 

=  

Ce par rapport  quantifie l’effet du bruit  
 
De ce fait, le traitement du signal permet de résoudre les problèmes suivants : 
- Comment extraire l'information d'un signal ?   


 
 

-  Comment transmettre l'information d'un signal sans la dégrader ?  
- Comment détecter le signal utile noyé dans le bruit ?  
- Comment filtrer le signal pour l'extraire du bruit ? 
Pour cela, le traitement de signal utilise les outils suivants : 
-  L'analyse spectrale (série de Fourier, Transformée de Fourier ...),  
-  les filtrages,    
- la modulation et la  démodulation,  
- l'analyse statistique... 
Exemples de bruits :
La notion de bruit est relative. Elle dépend du contexte. 
 Exemple du Technicien en Télécom  et de l’Astronome  travaillant l’un à côté de l’autre:  
- Pour le technicien Télécom : Il s’intéresse au  signal utile sous forme  d’ondes  
électromagnétiques d’un satellite  alors que le bruit  pour lui  est composé de signaux d’une source 
astrophysique. 
- Pour l’astronome : Il s’intéresse aux signaux d’une source astrophysique  alors que le bruit  
pour lui est composé des ondes d’un satellite. 
 
1.4. Applications de traitement de signal :  
Les domaines d’applications de T.S sont très variées, on peut les rencontrer dans : 
- Télécommunications : modulation, démodulation 
- Traitement du son, parole, musique. 
- Traitement de la parole (MPS, MPEG, Layer3) 
- Analyse de la parole et numération vocale GSM. 
- Dictée vocale 
- Reconnaissance de caractère, OCR 
- Images IPEG. 
- Sonar radar 
- Etudes des vibrations sismiques 
- Contrôle non destructif (CND) . 
- Ingénierie biomédicale. 
- Ingénierie médicale. 
- Economie (finances : cours de la bourse) . Etc 
1.5. Fonctions du traitement de signal.
Parmi les fonctions du traitement de signal il y a : 
Les principales fonctions du traitement de signal sont : 

 
 

 L’analyse  :  On  cherche  à  isoler  les  composantes  essentielles  d'un  signal  de  forme  complexe,  afin 
d'en mieux comprendre la nature et origines.  
  La  mesure  :  mesurer  un  signal,  en  particulier  aléatoire,  c'est  essayer  d'estimer  la  valeur  d'une 
grandeur caractéristique qui lui est associée avec un certain degré de confiance.  
 Le  filtrage  :  c'est  une  fonction  qui  consiste  à  éliminer,  d'un  signal,  certaines  composantes 
indésirables.  
 La régénération : c'est une opération par laquelle on tente de redonner sa forme initiale à un signal 
ayant subis diverses distorsions. 
 La  détection  :  par  cette  opération  on  tente  d'extraire  un  signal  utile  du  bruit  de  fond  qui  lui  est 
superposé.  
 L’identification : c'est un procédé souvent complémentaire qui permet d'effectuer un classement du 
signal observé.  
 Création des signaux : Elaboration des signaux (music, parole, image, ..),  
 Le codage : outre sa fonction de traduction en langage numérique, est utilisé soit pour lutter contre le 
bruit  de  fond,  soit  pour  tenter  de  réaliser  des  économies  de  largeur  de  bande  ou  de  mémoire 
d'ordinateur.  
 La modulation et le changement de fréquence : sont essentiellement des moyens permettant d'adapter 
un signal aux caractéristiques fréquentielles d'une voie de transmission, d'un filtre d'analyse ou d'un 
rapport d'enregistrement. 
 La  synthèse  :  opération  inverse  de  l'analyse,  consiste  à  créer  un  signal  de  forme  appropriée  en 
procédant, par exemple, à la composition où à la combinaison de signaux élémentaires. (obtention 
de nouveaux signaux par combinaison des signaux élémentaires) ;  
 

 
- Modification des signaux : Transformer les signaux en vue de leur exploitation ;  mettre en 
forme  le  signal  sous  une  forme  adaptée  à  la  transmission  ou  au  stockage  (  modulation  , 
échantillonnage, filtrage : élimination de certains composante, cryptographie… ) ; 

 
 

 
- Transmission : (Radio , TV , Telecoms numériques ) ;  
- Analyse des signaux : interprétation  (analyse spectrale : voix, visage, gestes …);   
- Détection : isoler  les  composants  utiles  d’un  signal  complexe,  extraction  d’un  signal  utile 
d’un  mélange  signal-  bruit  de  fond  (détection  de  craquements  sur  un  enregistrement, 
détection de bruit sur une image, annulation d’écho, etc…),  
- Identification:  classification  du  signal  (identification  d’une  pathologie  sur  un  signal  ECG, 
Reconnaissance vocale de la parole, d’écriture. 
 
1.6. Chaine de Traitement de Signal :
Une chaine de traitement de signal comprend : 
- Un système physique en évolution capable de délivrer une information pas forcément   de 
nature électrique.  
- Un capteur permettant de transformer cette information en un signal électrique (courant ou 
tension). 
- Un  transmetteur :  le  signal  électrique  pouvant  subir  un  traitement  et  transmis  à  travers  un 
support (canal) de transmission où il sera contaminé par le bruit. 
- Un  récepteur  qui  reçoit  le  signal  sous  sa  forme  électrique.  Ce  signal  subi  des  traitements 
pour qui il soit analysé, filtré et restitué sous sa forme d’origine. 
-    

Reconnaissance  Extraction d’infos 

Système  
Physique 
Analyse 

Canal de
Capteur  Transmetteur   Transmission Récepteur   Traitement 


 
 

Remarque :
   Dans  une  chaîne  de  traitement  numérique  de  signal,  plusieurs  fonctions  de  traitement  sont 
introduites.  Les  principales  sont  la  conversion  analogique-digitale,  l’échantillonnage,  la 
quantification et le codage.  
   En plus, il doit exister un calculateur de traitement numérique qui assure également l’opération de 
conversion numérique analogique. 
 
  Signal analogique  
 
Convertisseur 
  Antenne   analogique-
  numérique CAN 
 
Traitement  
 
Haut parleur 
  Convertisseur 
  numérique-
analogique  
  CNA 
Signal analogique  
 
Ce cours de traitement analogique du signal (signal à amplitude et à temps continus), de Génie 
Electrique et Informatique Industrielle,  a pour objectifs  d e : 
- Classer les différents types de signaux,  
- Présenter les bases mathématiques pour la représentation temporelle et fréquentielle,  
- Comprendre les principes du filtrage, 
- Analyser des signaux aléatoires,  
- Comprendre les principes de la modulation. 
 
2. Classification des signaux
Avant d'étudier un signal, il faut s'intéresser à ses propriétés de base a n d'utiliser les outils 
adéquats.  Pour  ce  faire,  on  classe  les  signaux  en  différentes  catégories.  Il  existe  4 grandes 
classifications : 
-    la classification temporelle, 
-    la classification énergétique, 
-    la classification spectrale, 
-    la classification morphologique. 
 
2.1. Classification phénoménologique des signaux

 
 

Cette  classification  (Figure  1.2)  est  basée  sur  l'évolution  du  signal  en  fonction  du 
temps. On distingue 2 classes de signaux suivant leur évolution temporelle. 
2.1.1. Signaux déterministes
Les  signaux  déterministes  dont  l'évolution  temporelle  est  parfaitement  décrite  par  un 
modèle mathématique ou graphique.  
 

 
Parmi les signaux déterministes on distingue : 
1. les signaux périodiques qui  obéissent à la forme :     T  / t  :  s (t )  s(t  T ) . 
2. Exemple: les signaux sinusoïdaux :   s(t )    Asin(wt   ) . 
3. les signaux non périodiques : les signaux pseudopériodiques (somme de sinusoïdes de 
périodes différentes) .  exemple  : s(t )    A1cos(w1t  1 )    A2cos(w2t  2 )  :. 
4.  les signaux transitoires dont l'existence est limitée dans le temps. 
   t1 , t2 tels que  s(t )   0   si t  < t1ou t  t2   
2.1.2. Signaux aléatoires

Par  opposition  à  ces  signaux,  il  existe  les  signaux  aléatoires  (probabilistes,  stochastiques) 
dont  l'évolution  est  imprévisible  à  un  temps  t.  Leur  description  est  fondée  sur  les  propriétés 
statistiques des signaux (moyenne, variance, etc.) ; Parmi les signaux aléatoires on distingue : 
 les signaux stationnaires : (les résultats de leur analyse statistiques sont indépendants du 
temps) :  
-  ergodiques  si il  est identique  de faire  la  moyenne  statistique  à  un  instant  donné  sur  différents 
essais que de faire la moyenne temporelle sur une seule réalisation.,  
- non ergodiques. 
 les signaux non stationnaires. 


 
 

 
Exemples de signaux aléatoires
Le bruit est un signal aléatoire ;  
 Un signal déterministe bruité est donc un signal aléatoire.  
  Les échantillons reçus à l’entrée d’un Processeur de traitement du signal (DSP) constituent un signal 
discret  aléatoire. 

 
Classification temporelle des signaux. 
 
2.2. Classification énergétique
Soit x(t) un signal continu dans le temps, et dissipant une puissance P dans une résistance 
unité ( = 1W ) ,  

 
Définition 1:
On appelle puissance instantanée normalisée dissipée dans la résistance unité : 

10 
 
 

( )
( )= ( ) ( )= = ( ) 

La puissance moyenne normalisée < ( ) > calculée sur un intervalle de temps de


durée ∆ = − est donnée par :

1 2
< ( )>= ()

Définition 2:
On  appelle  énergie dissipée dans un intervalle de temps ∆ = − d’un signal
( ) la quantité :   

2
= ()  

En effet, la puissance est définie comme la variation de l’énergie par rapport au temps :  

( )=  

Ce qui veut dire que :  

2
= () = ()  

 Remarque : 
  L’énergie totale d’un signal  ( ) est :  

2
= ()  

 Si   existe et est finie, on dit alors que le signal est à  énergie finie. Autrement 


2
dit l’intégrale ∫ () < ∞:  
Définition 3 : On appelle puissance moyenne totale d’un signal x(t) , la quantité : 

 
Pour un signal sT0 périodique de période T0, la puissance moyenne est calculée sur une période, 

 
Si cette intégrale satisfait : 0 < Px < +∞, on dit que le signal est à puissance moyenne finie. 

11 
 
 

Propriétés
-  Un signal à puissance moyenne finie non nulle a une énergie totale infinie. 
-  Un signal à énergie finie a une puissance moyenne nulle. 
Ces deux grandeurs permettent donc de classer les signaux : 
  Les  signaux  à  énergie  finie  correspondent  aux  signaux  transitoires,  déterministes  ou 
aléatoires (cas de tous les signaux physiques) 
 Les  signaux  à  puissance  moyenne  infinie  correspondent  à  tous  les  signaux  permanents, 
déterministes (périodiques ou quasi-périodiques) ou aléatoires.  
 Certains signaux théoriques n’appartiennent `a aucune de ces catégories ;  comme exemple  
x(t) = e( )
pour − ∞ < t < ∞,  
Impulsion de Dirac, (voir plus loin) 
Peigne de Dirac, etc. 
2.3. Classification spectrale
Un signal peut être classé suivant la distribution de son énergie ou de sa puissance en 
fonction  de  la  fréquence  (spectre  du  signal).  On  appelle  largeur de bande notée ∆F le 
domaine des fréquences occupé par le spectre .  

 
Classification spectrale des signaux. 
∆F = Fmax − Fmin 
( max min )
Notons :  Fmoy = . 

On distingue 2 types de signaux, 

- les signaux à bande étroite avec :   est très  petit ( max ≈ min), 

- les signaux à large bande avec  est très grand ( max ≫ min ) 

Les signaux à bande étroite peuvent être classés en fonction du domaine de variation de Fmoy : 
   Fmoy < 250kHz : basses fréquences  (BF), 
   250kHz<Fmoy < 30MHz : hautes fréquences (HF), 
   30MHz<Fmoy < 300MHz : très hautes fréquences (VHF), 
   300MHz<Fmoy < 3GHz : ultra hautes fréquences (UHF), 
   Fmoy > 3GHz : super hautes fréquences (SHF). 

12 
 
 

 
2.4. Classification morphologique
On distingue les signaux à variable continue des signaux à variable discrète ainsi que ceux 
dont l'amplitude est discrète ou continue (fig 1.4). On obtient ainsi 4 classes de signaux : 
-  les signaux analogiques dont l'amplitude et le temps sont continus, 
-  les signaux quanti és dont l'amplitude est discrète et le temps  continu, 
- les signaux échantillonnés dont l'amplitude est continue et le temps discret,  
- les signaux numériques dont l'amplitude et le temps sont discrets.  

 
Classification morphologique des signaux.
3. Quelques signaux élémentaires
Afin  de  simplifier  les  opérations  ainsi  que  les  formules  obtenues,  certains  signaux 
fréquemment rencontrés en traitement du signal disposent d'une modélisation propre. 
3.1. Fonction signe
On définit la fonction signe de la façon suivante : 
−1 <0
( )= 0 =0 
+1 >0
Par convention, on pose :   (0) = 0. 

Fonction signe 

13 
 
 

3.2. L'échelon unité ou fonction de Heaviside


On définit l'échelon unité de la façon suivante :  
0 <0
( )= =0
+1 >0
 

Echelon unité 
Par convention, on prend :   (0) = .     

Remarque : il serait préférable dans certains cas de poser :  
(0) = 1 
L'échelon unité permet l'étude des régimes transitoires des filtres et permet de rendre  causal un 
signal. 
3.3. Fonction rampe
On définit la fonction rampe par : 
r(t) = t ∗ u(t) = ∫ u(x)dx   
où :  u(t) est la fonction échelon 

 
Fonction rampe 
3.4. Signal "porte ou fenêtre" ou rectangle
Soit T un réel positif, on dé nit le signal porte (ou rectangle) comme suit : 

( )= 1 − < <+
 
0
La fonction porte  ( ) est un signal transitoire de durée T. 

Fonction porte ou fenêtre. 
14 
 
 

3.5. Impulsion de Dirac


35.1. construction de l’impulsion de Dirac
Définition : 
L'impulsion  de  Dirac  notée  δ(t) est  définie  comme  la  limite  d’une  fonction  rectangle  ( ) =
( )
 particulière lorsque T tend vers 0: 

− < <+
d( ) = lim ( ) = lim   
→ →
0
+∞ =0
  =   
0
Remarque :  
l’aire de  ( ) est toujours égale à 1 quelque soit T. En effet l’illustration suivante le montre : 
  r(t) 
 
  r(t) 
r(t) 
   
 
 

   t 
    −
= − = 1 
  2 2
−    
  = − = 1 
2 2

= − = 1  t 
  2 2

 
   
 
Plus  que  T  devient  très  petit,  plus      devient  très  grand  et  le  rectangle  s’allonge  vers  le  haut 

mais l’aire du rectangle reste toujourségal à1. A la limite  → 0, on obtient un pic qui tend vers 
l’infini  avec  une  surface  toujours  égale  à  1.  On  construit  alors  l’impulsion  de  Dirac  d( ) 
comme la limite lorsque  → 0  de la fonction r(t). 
1
( )= +∞ =0
d( ) = lim  
→ 0
Cet être mathématique d( ) se présente comme un pic au point 0 et nul presque partout. 
On  ne  connait  pas  de  fonction  mathématique  qui  présente  cette  description.  Autrement  dit  il 
n’existe pas de fonction mathématique qui est nulle presque partout et qui présente une valeur 
infinie au point 0. C’est pourquoi on attribue à cet être mathématique le nom de la distribution 
de Dirac ou tout simplement l’impulsion de Dirac. 
De plus, cette distribution de Dirac δ(t), malgré qu’elle est presque partout nulle et discontinue au
point 0, elle est intégrable et son intégrale vaut 1 !!!!!.
En effet :
15 
 
 

1 1 1
d( ) = lim ( ) = lim ( ) = lim 1
→ → →

= lim =1

Au sens de Riemann, cette intégrale n’a pas de sens puisque δ(t) est discontinue au point 0 et nulle
presque partout.. Selon Riemann δ(t) n’est pas une fonction.
Jean Paul Dirac et Laurent Schwartz introduisent ces êtres mathématiques pour la première fois
pour modéliser un certains nombres de questions, en physique, qui sont restées suspendues pour
aussi longtemps. Paul Dirac et Laurent Schwartz appellent ces êtres mathématiques des
Distributions ou fonctions généralisées.
Les distributions permettent de modéliser des phénomènes qui se passent de manière très brève
dans le temps.
Remarque :
 nous avons construit la distribution de Dirac δ(t)  à partir de la fonction rectangle. 
 δ(t) peut aussi être considéré comme la dérivée de la fonction échelon, En effet :
( )
( ) =  

Fig. 1.9 :   fonction rectangle                    Impulsion de Dirac  

 
3.5.2. Impulsion de Dirac translatée de t0.
On appelle impulsion  de  Dirac  translatée  de  t0  une  version décalée de  ( )  vers  la 
gauche ou vers la droite. On la note :  ( − ) , avec   supérieure ou inférieure à 0. 

Impulsion de Dirac Translatée


3.5.3. Propriétés de la distribution de Dirac

16 
 
 

+∞
Nous avons montré que : ∫−∞ d( ) =1

Soit ( ) é é ⟦ , ⟧ alors :
( ) ( )= (0) ( )
Car ( ) est multiplié par ( ) qui est nul presque partout sauf en 0 où il vaut +∞.

 ∫ ( ) ( ) = (0)
En effet, le produit ( ) ( ) est nul presque partout sauf en 0 où il vaudra (0) ( ).
Donc, on peut écrire :

( ) ( ) = (0) ( ) = (0) ( ) = (0) ∗ 1 = (0)

( ) ( ) = (0)

 ∫ ( ) ( − ) = ( ) . cette propriété découle la propriété 3.


( ) ( − ) est un produit nul sauf au point où il vaudra ( ) ( − ).
Il s’en suit donc :

∫ ( ) ( − ) = ∫ ( ) ( − )

= ( )∫ ( − )

= ( )∫ ( ) avec la changement de variable = −


= ( )
Cette impulsion servira par la suite pour l'étude des spectres des signaux. 
3.6. Peigne de Dirac :
3.6.1. Définition :
On appelle peigne de Dirac  Ш( ) une suite infinie d’impulsions de Dirac espacées régulièrement 
d’un temps T (période).   
 
Ш( )  
 
 
  
 
 
 ….    -4T   -3T    -2T    -T    0    T    2T    3T    4T …   
 
On peut écrire : 

Ш( ) = ( − ) 

 
 
17 
 
 

3.6.2. Produit d’une fonction par un peigne de Dirac : Echantillonnage


Soit maintenant une fonction f(t) définie sur un intervalle I de IR. 

( ). Ш( ) = ( ). ( − ) 

= ( ). ( − ) 

                  

= ( ). ( − ) 

Les  ( )) s’appellent les échantillons de f(t) aux instants T, 2T…..  
Le produit f(t). Ш(t) est appelé opération d’échantillonnage qui est un moyen pour discrétiser les 
signaux avant leur numération (voir numérisation des signaux). 
 
Ш( )
 
    
 
 ….    -4T  -3T   -2T   -T    0    T  2T  3T  4T …
 
 
x ( ) 

    
 
 
 
= ( )Ш( )  

 
  
 
 ….    -4T  -3T   -2T   -T    0    T  2T  3T  4T …
     
3.6.3 Autres propriétés de la distribution de Dirac
()
Changement de variable : δ(at) = | |
  
()
En particulier :    δ(ω) =  

Dérivation :   
   (δ f) = δ f + f δ ,  
  Produit scalaire : < δ , f > = − < δ, f > = − (0),  
 < δ( ) , f > = (−1)( )
< δ, f ( )
> = (−1)( ) ( )
(0) ,   
 Produit de convolution :  (δ ∗ f ) = δ ∗ f = δ ∗ f  
18 
 
 

  
3.7. Fonction sinus cardinal
3.7.1. Définition
La fonction sinus cardinal est définie par : 
sin( )
( )=
( )
Il existe une autre définition couramment utilisée :  ( )=   (définition 2). 

Quand une confusion pourra être crainte, on notera par la suite : 
( ) ( )
( )= et ( )=

 La seconde version de la fonction est parfois nommée sinus cardinal normalisé.
Cette fonction joue un rôle très important en traitement du signal. 

 
Fonction sinus cardinal normal et normalisée. 
3.7.2. Propriétés :
1. lim ( ) =1

En effet ; 
p p
 lim ( ) = lim = lim = lim ( )| = cos( ) | = 1  
→ → p → p →
sin p
2. Nous admettons que : ∫ ( ) = 1  c’est-à-dire   ∫ =1 
p
sin
Donc : ∫ = p 
3. 2
∫ ( ) = 1 , avec toujours la fonction sinus cardinal normalisée.

19 
 
 

Chapitre 2 : Analyse de Fourier pour les signaux


périodiques
 
 
Jean-Baptiste Fourier (1768-1830) 
 Il est né le 21 mars à Auxerre. 
 Il est le douzième des quinze enfants de sa petite famille  
 C’est à Grenoble que Fourier réalise l’essentiel de ses travaux les plus importants. 
 Son obsession est le problème de la chaleur, c’est-à-dire l’étude de l’évolution de la 
température d’un corps au cours du temps. 
 De 1802 à 1807, il trouve l’équation de la propagation de la chaleur dans les cors solides, 
puis trouve une méthode pour la résoudre, ce qu’est maintenant l’analyse de Fourier. 
1. Analyse des signaux périodiques : Série de Fourier
1.1. Séries trigonométriques :
1.1.1. Définition :
On appelle série trigonométrique réelle, toute série de fonction de la forme :

( ) = + ( ( )+ ( ))

Avec : 
ω = = 2πf
                                     
a ,b ∈ R
                 s (t)  est appelée aussi série de fourrier. 
La question la plus intéressante est : est- ce que  la série  s (t) est toujours convergente sur R ? 
La réponse est contenue dans le Théorème suivant :  
Théorème :

si les séries numériques an et bn sont absolument convergentes alors la série s (t)  


n>1 n>1

trigonométrique   est  normalement  convergente  sur  R;  donc  absolument  et  uniformément 
convergente sur R. La  série s (t) converge alors forcément vers une fonction périodique s(t) 
càd : 
lim ( )= ( ) s(t) = s(t + T ).

Démonstration : 

20 
 
 

Nous avons :  

| (t)| ≤ |a | + |a cos(nω t)| + |b sin(nω t)| 

| ( )| ≤ | |+ | |+ | |

D’où le résultat suivant : 

si |a | et |b | sont sont convergentes, il en est de même que (t)  

et alors : 
lim ( )= ( )  

Il reste à montrer que s(t) est périodique, en effet ;   

( + ) = lim ( )= lim + ( ( + )+ ( + ))  
→ →

= lim + ( ( )+ ( ))  

= lim ( )  

           = ( ) 
1.1.2. Théorème réciproque ou Théorème de Fourier :
On  pourrait  s’interroger  de  façon  réciproque  sur  une  fonction  périodique,  si  elle  pourrait  se 
mettre sous une forme de série trigonométrique. 
Autrement dit : une fonction périodique s(t) admet-elle une décomposition en série de Fourier ?  
La réponse est affirmative si la fonction vérifie les conditions de Dirichlet  
1.1.3. Conditions de Dirichlet :
Toute fonction s(t) réelle, périodique de   , continue par morceau sur les intervalles [ a ; a+ ] 
et qui satisfait aux conditions suivantes , appelés condition de Dirichlet : 
i) Les  discontinuités  de  s(t)  se  elles  existent  sont  de  1ér  espèce  (les  limite  à  droite  et  à 
gauche existent et sont finies) et sont en nombre fini dans tout intervalle fini [a ;a+  ].  
ii) s(t) admet en tout point une dérivée à gauche et une dérivée à droite ;  
est alors développable en série de fonctions sinusoïdales (séries de Fourier). 
Donc : 

( )= a + ( ( )+ ( )) 

Si s(t) est continu sauf peut- être en un point   alors : 

21 
 
 

( )= a + ( ( )+ ( )) là où s(t) est continue  

et   
( )+ ( )
= a + ( ( )+ ( )) là où s(t) est discontinue en t  
2

Ce développement des fonctions périodiques (vérifiant les conditions de Dirichlet) sous forme 
de séries trigonométriques est connu sous le théorème de Fourier.  

1.2. Formes du théorème de Fourier : Décomposition en séries de Fourier


Il existe 3 formes de développement en série de Fourier. 
Nous nous intéressons ici aux signaux périodiques de période T0, c'est-à-dire les signaux 
s(t) vérifiant :  ∃ / ∀ ∈R ( ) = ( + ). 

1.2.1. Formes trigonométrique


1.2.1.1. Théorème 1 :  Tout  signal  périodique  x(t)  de  période  T0  Tpeut  s'écrire  sous  la  forme 
0

d'une somme infinie de sinusoïdes de fréquence multiple de   =   : 

( )= + [ cos(2 )+ sin(2 )] 

Où :   

- = ∫ ( ) est  appelée  valeur  moyenne  ou  composante  continue. Pour 

obtenira , Il suffit d’intégrer membre à membre l’équation (2.1) entre  . 

- = ∫ ( ) cos(2 )dt ∀ ≥ 1 ;  Pour  obtenir  ≥ 1,  il  suffit  de 

Multiplier l’équation (2.1)  membre à membre par cos(2 ) puis intégrer  les deux membres 

entre   . 

- = ∫ ( ) sin(2 ) ∀ ≥ 1,  Pour  obtenir  ≥ 1,  il  suffit  de 

Multiplier  l’équation  (2.1)    membre  à  membre  par  sin(2 )puis  intégrer    les  deux  membres 

entre    

1.2.1.2. Vocabulaire :

 = ∫ ( )      est appelée valeur moyenne ou composante continue de x(t),

22 
 
 

 f0 est la fréquence fondamentale,
 les n f0 sont les harmoniques d'ordre n .
 
Remarque:  
En théorie, ce théorème n'est pas tout à fait vrai. En effet, pour qu'une fonction périodique 
x(t) soit  décomposable  en  série  de  Fourier  au  point  t0,  il  faut  que  celle-ci  vérifie  les 
conditions de Dirichlet  : 
- s(t) admet une limite à droite et à gauche en t0 ,  
lim

( )= ( ) lim ( ) = ( ) existent 

- s(t) admet une dérivée à droite et à gauche en t0 ,  
( )− ( ) ( )− ( )
lim = ( ) lim = ( )  
→ →

 
En  électronique,  ces  conditions  sont    vérifiées  pour  la  majorité  des  signaux  périodiques 
rencontrés. 
1.2.1.3. Fonction paires et impaires :
 Fonctions paires :
    Si  s(t )  est une fonction paire s(t )  s(t ) , alors tous les termes  bn  sont nuls. 

 T T 
En effet ; on choisit un intervalle d’étude symétrique par rapport à 0, soit   ,  . 
 2 2 
Calculons   pour  ≥ 1 

= ∫ ( ) sin(2 )   . On pose : w = (2 ) 

2
= ( ) sin( w )  

2 2
= ( ) sin( w ) + ( ) sin( w )  

En effectuant un changement de variable  = −   dans la première intégrale, il vient alors : 
 

2 2
= (− ) sin( w (− )) + ( ) sin( w )  

2 2
=− ( ) sin( w ) + ( ) sin( w ) = 0 

23 
 
 

 
La décomposition se réduit alors à : 

( )= a + ( )) 

1.2.1.4. Fonction impaires :


Si  ( ) est impaire ( (− ) = − ( )) alors tous les coefficients    sont nuls. 

En effet           = ∫ ( ) ( ) + ∫ ( ) ( )  

Posons    u  t     

                      = − ∫ ( ) ( ) + ∫ ( ) ( ) = 0 

 
La série s’écrit   alors simplement :       ( ) = ∑ ( ). 
 
Remarque :     si    ( ) est réelle, les coefficients    et    sont réels. 
 
1.2.1.5. Exemple de décomposition en série de Fourier d’un signal.  
− < <
Soit le signal s(t) périodique de   défini par :       ( ) =    
0
<  
1) Représenter   s(t )   sur 2 périodes. 
2) Vérifier que s(t) est paire. 
3) Calculer les coefficients de Fourier. 
 
1) Représentation de  ( )  
    On construit le signal  ( ) défini par son expression sur une période T puis sur 3 périodes, on 
obtient : ( ) 
   
                                       
   
 
−   −      
  2 2 2 2
 
 
On définit le rapport cyclique de ce signal périodique par  ∝ = .  

Le signal  ( ) est périodique par construction.  La fréquence du fondamental est   =  
24 
 
 

2) On remarque que  ( ) est symétrique par rapport l’axe des y.  ( )  est donc paire et par 


suite donc tous les coefficients   sont nuls(  = 0, ∀ ≥ 1). 
3) Calcul des   : 

   = ∫ = ∫ = ,     donc    est la valeur moyenne du signal ( ). 

2
= ( ) ( )  

( )
        = ∫ cos( ) = [sin( )] =          avec  = 2

Le développement en série de Fourier de   ( ) est donc : 

2 sin( )
( )= + (2 )  

  
1.2.2. Forme polaire des séries de Fourier
1.2.2.1. Théorème
Toute   fonction  périodique de   qui satisfait les conditions de Direchlet  peut  être développée en 
série de Fourier sous la forme  dite polaire : 

( )= + (2 + )= + ( + ) 

Avec :  = 2 =  

Démonstration 
Partons de la forme trigonométrique de   ( ) périodique :  

( )= a + ( ( )+ ( )) 

( )= a + + ( )+ ( )  
+ +
 
On pose  d’abord :   = ,   = +  
cos(Y ) =


Puisque :    −1 ≤ ≤ 1   il  existe alors forcément Y  tel que :
⎨ sin(Y ) =


Soit alors :

25 
 
 

( )= a + (cos(Y ) ( ) + sin(Y ) ( )) 

Qu’on peut écrire sous la forme :  

( )= A + ( − Y ) 

Comme il existe   = −Y    on écrit  ( ) sous la forme dite polaire : 

( )= A + ( + ) 

1.2.2.2. Vocabulaire
1- La représentation en bâton des   en fonction de   (ou  ) est appelée spectre en 
amplitude de  ( ) . 
2- La représentation en bâton des   en fonction de   (ou  ) est appelée spectre en phase de 
( ) . 
3- La représentation des deux  (  et  ) en fonction de   est spectre fréquentiel . 

Remarque :
- Le spectre en amplitude et en phase d’un signal  ( ) ne peut se faire qu’avec la forme polaire. 
- Des fois, il est nécessaire de passer de la forme trigonométrique à la forme polaire pour dessiner le 
spectre d’un signal. 
- Le spectre d’un signal est une autre forme de représenter le signal dans l’espace fréquentiel. 
- La représentation fréquentielle et la représentation temporelle sont complémentaires. 
 
1.2.2.3. Exemple (précédant) :
≤ ≤
        ( ) =                 <  
0
Représenter le spectre en amplitude et en phase de ce signal pour :  =   (rapport cyclique  =

 
 Spectre d’amplitude : représentation des    en fonction de de n : 
Rappelons que :  

=  

2 sin( )
= = 0 

26 
 
 

Donc pour :  =

= =  
2
Et    

2 |sin( )| 2 sin( 2)
= + = | |= =

2
= = 1,3,5, … … … … … . .  
0 = 2,4,6, … …
Spectre de phase : représentation des    en fonction de de n : 
Nous avons :  

⎧ +1 =4 +1; = 0, ,1,2 … …
⎪Cos( )= = = =
  −1 =4 +3; = 0, ,1,2 … … 

⎪ sin( )= = 0; ∀ ∈

 
+1 =4 +1; = 0, ,1,2 … … (1)
⎧Cos( ) =

−1 =4 +3; = 0, ,1,2 … … (2)
 

⎪sin( )=− =0; ∀ ∈ (3)

On applique le distributivité de la conjonction   par rapport à  , on obtient :   
=0 2 = 4 +1; = 0, ,1,2 … …


=0 ∀ ∈
 

⎪ = 2 =4 +3; = 0, ,1,2 …
⎩ =0 ∀ ∈
 
 
=0 2 =4 +1; = 0, ,1,2 …


⎪ =0 ∀ ∈
 
⎨ = 2 =4 +3; = 0, ,1,2 …


⎩ =0 ∀ ∈
Ce qui donne seulement deux conditions : 
=0 2 =4 +1; = 0, ,1,2 …
 
= 2 =4 +3; = 0, ,1,2 …

27 
 
 

En résumé :
= 3,7,11, 15 … .
Les deux dernières conditions se réduisent à :    =  
0
Et on peut écrire alors :  
 

2 sin( 2)
( )= + (2 + )
2

= 3,7,11, 15 … .
Avec :   =  
0
 
Le spectre d’amplitude  et de phase sont représentés ci-dessous. 
 
  An 
2
 
   
 
   
 
   
 
  2
2
   
3
 
   
 
  2
 
5
   
2
 
  7
2 n 
 
9
 
 1             3             5              7               
  9 
 
Ꝕn 
 
 
π 
 
 
 
 
 

 
0                  3                        7                        11               
  15 

28 
 
 

Remarques:
-L’amplitude décroit lorsque   augmente 
-La phase reste constante (= ) pour tout   = 4 + 3 ; ∈ ℕ  
 
2.2.4. Phénomène de Gibbs :
Dans l’exemple précédent nous avons : 

2 sin( )
( )= + (2 )  

=  , nous avons  en forme polaire : 

2 sin( 2)
( )= + (2 + ) 
2

Prenons un exemple plus précis   = 1 , = 20  , nous avons un signal carré d’amplitude 1 et 
de rapport cyclique   = =     

Inversement, essayons de construire le signal  ( ) a partir de la serie de Fourier en se limant a un 
nombre   fini.  
         Sur la figure suivante, nous avons : 
   = 0, ( )= ,  

  = 1, = 1, ( )= + cos(40 ) 

  = 3, = 1, 2, 3, ( )= + cos(40 ) + (2 + )  

  = 5, = 1, … 5, ( )= + cos(40 )+ (2 + )+ (2 ) 

= 41, = 1, … … . .41, 
1 2 2 2 2
( )= + cos(40 )+ (40 + )+ (40 )… + (40 + )
2 3 5 39
2
+ (40 ). 
41

29 
 
 

 
 
- Le Phénomène de Gibbs est traduit comme  un effet de bord aux points de discontinuités. 
Cet effet apparait sous forme des oscillations inévitables aux points de discontinuité.  
- Plus que l’on somme sur N grand, on s’approche d’avantage du signal réel s(t) périodique et 
le phénomène de Gibbs disparait. 
Exercice d’application
Exploiter la décomposition en série de Fourier dans l’exemple précédent pour montrer que la série 
entière :  
 
(−1)
 
(2 + 1)

( )
Converge vers   .  ( ∑ ( )
= )   

 
Dans l’exemple précédent,  nous avons  pour =  ,:  

30 
 
 

2 ( )
( )= + 2 (2 ) 
2

 
Qu’on peut écrire,  = 2 + 1 sous la forme :  
 

2 (−1)
( )= + (2 (2 + 1) ) 
2 (2 + 1)

 
Pour   = 0, le signal est continu et vaut A; donc : 
 

2 (−1)
(0) = + =  
2 (2 + 1)

 
Ce qui veut bien dire que :   

(−1)
=  
(2 + 1) 4

( )
donc la série    ∑      converge vers    

2.3. Forme complexe des séries de Fourier :


2.3. 1. Théorème :
Le théorème de Fourier peut  s’exprimer sous une forme Légèrement différente. 
Toute fonction (signal) réelle s(t) périodique de   =  , continue  par morceaux et bornée sur le 

segment [0,T] est développable sous forme d’une série d’exponentielles complexes : 

( )= Cn  

Avec :           = ∫ ( )  

Démonstration :  
Sous la forme trigonométrique, s(t) s’écrit :

( )= + ( + )

_ _ _
Soit la formule d’Euler : = , =

31 
 
 

Donc ( )= + +

− + _
( ) = + +
2 2

Posons : = = , est le conjugué

Il s’en suit alors :

_
( ) = + +

Montrons que : =
En effet :

= ( + )= ∫ ( ) cos + ∫ ( ) sin

= ∫ ( ) cos(− ) − ∫ ( ) sin(− )

= ( − =

D’où : ( ) = + +
Lorsque n varie de 1 a +∞ , − varie de −1 a −∞ donc on peut ecrire :

( )=

avec =

2.3. 2. Théorème de Parseval (1ère forme) : Aspect Energétique d’un signal périodique
Soit s(t) un signal périodique de =  

Aux bornes d’une résistance normalisée (R=1Ω), La puissance instantanée est :


( )
( ) = ( ) × ( ) = = ( )

Or, la puissance d’un signal est définie aussi par la variation de l’énergie par rapport au
temps :

( ) =

L’énergie d’un signal périodique peut être calculée sur une période est par :

32 
 
 

= ( ) = ( )

La puissance moyenne calculée sur une période est :


1
⪡ ( )⪢= = ( )

Le théorème de Perceval permet de calculer la puissance moyenne d’un signal périodique de T


en fonction des amplitudes des harmoniques :

+
⪡ ( )⪢= + = = | | =2 | |
2 2 2

Démonstration :
( ) est périodique de T :   ( ) = +∑ ( + )

( )=  

La puissance moyenne est donnée par :

1 1 ∗
⪡ ( ) ⪢= | ( )| = ( )× ( )  

1
⪡ ( ) ⪢= ( )×

1
= ( )

1
= . = | |

Or :
− +
= , | | = =
2 4 2
En conséquence :

+
⪡ ( ) ⪢= 2 | | = = +
2 2 2

Chaque terme  | | | représente la puissance moyenne apportée par chacun des 
harmoniques. 
2.4. Propriétés du développement en série de Fourier
2.4.1. Propriétés de base 
Le  développement  en  série  de  Fourier  d'un  signal  périodique  de  période  T0  possède  les 
33 
 
 

propriétés suivantes  : 
 Si s(t) est réel, les coefficients  sont à symétrie hermitienne |C−n | = |Cn | ∀n ∈ N. 
 Si s(t) est réel et pair alors bn = 0, ∀n ≥ 1 et les  sont réels et   = =  
 Si s(t) est réel et impair alors an = 0, ∀n ≥  0 et les  sont des imaginaires purs et 
=− = −  
 Linéarité : Soient x(t) et y(t) deux signaux de coefficients de Fourier respectif  et 
 alors le signal somme  ( ) + ( )  (où  sont des constantes) a pour 
coefficient de Fourier  et   . 
Remarques :
La représentation complexe introduit des fréquences négatives − . Ces fréquences sont
représentées par commodité.
Calcul des coefficients :
1
= ( − )
2
= ∫ ( ) − ∫ ( )

Donc :
1 2
= ( ( )( − ) )
2
1
= ( )

2.4.2. Relations de passage entre les trois représentations de Fourier


 =0 = | | =              

 >0 = + ( ) =  

 = ( – ) = ( + )( – )   =  
1
= = −  
2
 = ( + ) =   

  et −  sont les arguments de coefficients  Cn  et  C n   

 est l’amplitude de  Cn  et C n  . 

 De ce qui précède on peut écrire :  
= − =2 ( ) 
= −( − ) = −2 ( ) 

34 
 
 

  Remarques:
Les 3 formes des séries de Fourier sont équivalentes. Mais laquelle est meilleure? La réponse est 
que cela dépend du problème à résoudre; en effet: 
 Si le problème est. à résoudre analytiquement, les coefficients complexes sont souvent plus 
faciles à évaluer. 
 Si le signal est à analyser au laboratoire au moyen d’instruments de mesure, la forme polaire 
est souvent la plus commode, car les instruments tels que les voltmètres, les oscilloscopes, les 
analyseurs de spectre, les analyseurs vectoriels permettent d’accéder directement à la phase et à 
l’amplitude. 
2.4.3. Propriétés de décalage temporel  
Quant à la forme trigonométrique, elle présente peu d’intérêt physique. En effet si le signal s(t) 
subit une simple translation temporelle, alors les coefficients   et  seront modifiés. 

( − ) = 0 + ( − )+ ( − ) 

= 0 + ( )+ ( ) 

 On dit qu’il n’y a pas d’invariance temporelle.  
Alors que pour la forme polaire : 

( − ) = 0 + ( ( − )+ ) 

= 0+ ( + ) 

Avec :  
= −  
Une  translation  temporelle  se  traduit  donc  simplement  par  une  modification  de  la  phase  du 
fondamental et des harmoniques. Les amplitudes   restent inchangées. 
Un  décalage  temporel  d'un  signal  périodique  se  traduit  par  une  multiplication  complexe 
des coefficients de Fourier Cn par ; en effet :

( )
( )= ( )= ( − )=

( )=

35 
 
 

( )= =

 Dans l’exemple précédent, si on subit à s(t) une translation de     quelconque les amplitudes    ne 


changent pas.  
 La représentation complexe  ( ) = ∑  introduit des fréquences positives ( ) et 
négatives (− ) 
| |=
- Spectre de s(t) :   
ℎ =
Remarquons  que  les  fréquences  négatives  (n < 0)  introduites  dans  la  décomposition 
complexes  n'ont  aucune  signification  physique  mais  sont  définies  pour  simplifier  les 
calculs. 
 
2.5. Spectre d'un signal périodique
Il  existe  deux  façons  de  représenter  le  spectre  d'un  signal  périodique  :  la représentation 
unilatérale et la représentation  bilatérale (voir Transformée de Fourier). 
 
2.5.1. Représentation unilatérale
A partir de la décomposition en série de Fourier, nous pouvons construire la représentation 
graphique spectrale dans le plan amplitude-fréquence comme succession de bâtons d'amplitude 
aux fréquences nf0, n ≥ 1 comme présenté  la figure ci-dessous. 
Ce spectre en fréquence du signal est constitué de la composante continue a0, du fondamental 
f0  et  des  différentes  harmoniques.  Ce  spectre  est  discontinu  et  composé  de  raies  dont  l'écart 
minimum est f0. 

   
Représentation spectrale unilatérale. 
2.5.2. Exemples
 ( ) = cos(2 ) 
36 
 
 

Il est clair que a0 = 0, a1 = 1, an = 0 pour n > 1 et bn = 0 pour n ¸ 1: D'où: 


= 0 

= = =     Car  ( ) est réel et paire . 

=0 ∀ >1      =0 ∀ > 1 
 ( ) = sin(2 ) 
La décomposition en série de Fourier est définie par : an = 0 pour n ≥ 0, b1 = 1 et bn = 0 pour 
n>1.

D'où:     = 0,           = = = ⃑    Car  ( ) est réel et impaire  

=0 ∀ > 1            =0 ∀ > 1 

37 
 
 

Chapitre III : Analyse de Fourier : Signaux Certains


(Tansformée de Fourier)
L’analyse de Fourier en termes de séries n’est valable que pour les signaux périodiques .or, en
physique, beaucoup de signaux échappe à cette propriété. Pour traiter ces signaux, il faut
utiliser d’autres outils plus puissants. Parmi ces outils, il y a la transformée de Fourier (TF).
1. Transformée de Fourier
1.1. Approche par étude de cas :
Reprenons l’exemple du signal rectangulaire pair défini précédemment par :
− < <
( )=     <  
0

( ) 

 

 
 
−   −      
  2 2 2 2
   

Analysons le spectre de s(t) pour quelques valeurs de t.
Nous avons en général /
2 |sin( )|
=

Qu’on peut écrire sous la forme :

2 sin
=

Soit alors :

=2 sinc

 τ=  (nous avons deja tracé le spectre en amplitude)  

 
2
An 
   
 
  2
 
3  
  2
  2
 
5
   
2
   
7
2
  n 
9 38 
 
 1             3             5              7               9 
 

 
 

 τ =         = = =        et   = = ∫ =  

L’amplitude   s’annule lorsque : 
  = (k + 1)π   c’est-à-dire :   = 4(k + 1)  Avec     k=0, 1,2… 

La 1 ère annulation a eu lieu lorsque   = 0  est n=4 
La 2ème annulation a eu lieu lorsque k=1 càd n=8 ; ….. ect 
Les amplitudes ont pour valeurs :  =  sinc ( ) 

Le spectre bilatéral de signal s’t) pour τ =    

 
Tous  les  bâtons  (toutes  les  raies)    appartiennent  à  l’enveloppe  du  sinus-cardinal  nous  avons  plus  
d’harmoniques  dans un lobe (4 harmoniques par lobe. 
Plus que τ diminue et T augmente plus le signal s(t) devient niche en fréquences. 

 τ =         = =     et   = = ∫ = =  

L’amplitude s’annule pour chaque n tel que  sin  =0 

ie  nπ=(k+1) 8π      n=8(k+1) 
La 1ere annulation correspond à k=0   donc à  n=8 
La 2ème  annulation correspond à k=1  donc à n =16, …… ect 

 
39 
 
 

Le spectre de s(t) devient de plus en plus riche en fréquence, ce qui fait apparaitre plus de raie dans 
le spectre. 
De  façon  générale,  plus  τ  devient  petit  et      tend  vers  +∞  ,  = ⇾ 0 ;  donc  les  fréquences 

discrète   deviennent très approchés l’une de l’autre càd   devient une  variable continue. On 


peut remplacer alors   qui est une variable discrète par   variable continue. 
Regardons comment deviennent le signal s(t) et  les coefficients de Fourier complexe . 
 
 le signal n’est plus périodique. Dans le temps, il ne devient observable qu’autour de 0,  il a 
l’allure suivante : 
  ( ) 
 
 
 

 
   

  −   −    
2 2 2 2
 
2
   

 Les coefficients de Fourier  

1 ̥
1
= ( ) dt = ( ) dt  

Deviennent : (quand  → ∞ (  devient continue,  = ) ; on peut remplacer alors     par   ) 


  

lim ( . ) = lim ( )  
→ →

 D’où :                     

lim ( . )= ( )  

 Cette dernière limite généralisée aux séries de Fourier (quand  → ∞) s’appelle la transformée de 
Fourier. 
1.2. Définition de la transformée de Fourier
Soit un signal s(t) non périodique, on appelle transformée de Fourier TF si elle existe la fonction :     
                                        

( )= ( )  

40 
 
 

 
( )  indique  les  quantités  des  fréquences  presentes  dans  le  signal  s(t)  sur  l’intervalle  de 
temps :]−∞, +∞[ . 
S ( ) est en général une fonction complexe de la variable réelle . 
 
S ( ) a donc: 
 Module appelé spectre d’amplitude |S( )| 
( )
 Une phase appelé spectre de phase   ( ) = ( ) = − ( )
 

  
1.3. Critère d’existence
La TF existe si l’intégrale ∫ ( )  existe, c’est-à-dire si s(t) est une fonction bornée et 
absolument intégrale donc si ∫ | ( )|  existe. Il en resulte que :
 Pour tout signal s(t) intégrable ou sommable (∫ ( ) < +∞), la TF existe, 

 Pour  tout  signal  s(t)  de  carré  sommable  ou  à  énergie  finie  (∫ | ( )| < +∞),  la  TF 
existe.  
Ces deux conditions sont suffisantes mais pas nécessaires. 
 Pour tout signal à puissance moyenne finie : 

lim 1
| ( )| dt < +∞  
→∞

 la TF existe au sens de distribution et non au sens de fonction. (Voir plus loin) 
 
Remarque :
En pratique, les signaux existant physiquement, vérifient ces conditions car nous les observons sur 
un temps fini.. 
 
1.4. Transformée de Fourier inverse. 
Soit S(f) une représentation du signal dans l’espace fréquentiel. On appelle Transformée de Fourier 
inverse (et on note    ) de S(f) la fonction s(t), si elle existe : 
                                                        ( ) = ∫ ( )  
On note    ( ) = ( ( ))       Et       ( ) = ( ( )) 
S(f) et s(t) sont deux descriptions duales l’une de l’autre du même signal. 
 
Exemple :
41 
 
 

Donner le spectre en amplitude et en phase du signal s(t) défini par : 
0< <
         ( ) =                    T : intervalle de temps qui ne désigne pas la période 
0
 
 
Le signal est représenté par :  s(t) 

  B 

                                  
  t 

                                                                                                                                 

Le signal est fini dans le temps en plus s(t) est intégrable (sommable) car : 

( ) = = < ∞ 

Donc sa TF existe. 

S(f) = ( ) =  

                                          

= B = (1 − ) 
−2 2
 
( − )
= BT  
2
 
= sinc( ) 
                                    
 Spectre d’amplitude :   
| ( )| = sinc( ) 
       
= |sinc( )| | | = 1) 
C’est un spectre continu en                                                                                
Les pointes d’annulations :                                                 

sin( ) = 0   = ( + 1)    =          = 0, 1,2 … … … 

42 
 
 

 
 
Le spectre d’amplitude est continu et pair. Par commodité  de représentions,  nous avons représenté 
même les fréquences négatives (représentation bilatérale). 
Spectre en phase : 
φ(f) = ( ( ) ) 
= ( sin c(πfT)) 
 
− sin(πfT) > 0
=  
− + sin(πfT) < 0
 
− 2 2kπ < πfT < (2k + 1)π
=  
− + 2 (2k + 1 < πfT < (2k + 2)π
2k (2k + 1)
− 2 <f<
=  
(2k + 1) (2k + 2)
− + 2 <f<

On distingue deux types d’intervalles : 
ƙ ƙ
[ , ] ƙ = 0,1,2..  ( )= − [2 ] 
ƙ ƙ
Et  [ , ] ƙ = 0,1,2.. ……  ;    ( ) = − ƒ [2 ] 

Il en résulte alors le spectre de phase suivant : 

 
Remarque : le spectre de phase est impair. 
43 
 
 

Exemple 2 : Impulsion à décroissance exponentielle

On considère le signal ( ) = exp −  . Ce signal représente la décharge d’un condensateur 

de capacité C dans une résistance R (telle que   = ), mais aussi la réponse d’un filtre passe-bas 
du premier ordre (filtre  − ) à une impulsion de Dirac. Les spectres associés aux deux systèmes 
sont donc identiques. 
Calcul de  ( ) 
Par définition, on écrit : 

 
D’où finalement : 
1
( )=  
1+ 2
Représentation de X(f)
X(f) est une fonction complexe que l’on peut représenter par son module et sa phase. 
Spectre d’amplitude | ( )|
Le module est calculé selon sa définition : 

 
C’est une fonction paire de  la variable  . 

 
Spectre de phase ( ):
Le spectre de phase est donné par l’argument de   ( ), par définition, est égal à : 
1
( )= ( ) =  
1+ 2
=− (2 ) 
 C’est une fonction impaire de la variable   . Au voisinage de 0 (c’est-à-dire pour  é ), 
elle est équivalente à  ( ) = −2 . et les limites à l’infinie sont : 
44 
 
 


lim ( )=  
→ 2

lim ( )=  
→ 2

 
On retiendra que, pour un signal réel, x(t), la transformée de Fourier, X(f), est telle que : 
 Le spectre d’amplitude  ( ) est paire, 
 Le spectre  de phase  ( ) est impaire. 
 
2. Propriétés de la TF : s(t) ↔ S(ƒ)

2.1. Propriété de base :


Soit  ( )un  signal  admettant  une  transformée    de  Fourier    ( )  alors  nous  avons  les  propriétés 
suivantes : 
 Linéarité :              ( )+ ( ) ↔ α ( )+ ( ) 
 Décalage temporel        s( t − )    ↔            S(ƒ) 
 Décalage fréquentiel :      s(t) ↔            (ƒ − ƒ ) 
ƒ
 Changement d’échelle :    s (a t)         ↔           ∣ ∣
( ) 

Une dilatation  dans le temps  a≥ 1 correspond  a une contractions dans le domaine fréquentiel et 


vice-versa. 
( )
 Dérivation :                                  ↔            2 ƒ (ƒ) 

 Integration:                 ∫ ( )            ↔            ƒ
S(ƒ) 

 Inversion temporelle :         (− )       ↔            (− ) 
 Conjugaison complexe :    ∗ ( )          ↔           ∗ (− ) 
2.2. Propriétés de symétrie :
 signaux réels : 
  Si ( )  est  réel  alors  ( ) = (− ) :  le  spectre  en  amplitude  est  pair  et  le  spectre  de  phase  est 
impair 

( ) = − ( ). (la TF est complexe)

45 
 
 

 Parité : 
La nature de la TF S(f) dépend du signal s(f) selon la tableau suivant : 
 
signal s(t) spectre fréquentiel S(f)
 
réel quelconque   Complexe 
réel pair  réel pair  
réel impair   imaginaire impair 
imaginaire quelconque   Complexe 
imaginaire pair   imaginaire pair 
imaginaire impair  réel impair 
complexe pair  complexe pair 
complexe impair  complexe impair 

3. Exemple d’application des propriétés de la TF :

3.1. Décalage fréquentiel : ( ) < − − −> ( − ) 

En appliquant cette propriété, déterminer la TF du signal :     

( )= cos 2

  Où :  
1
= 1 −
2
< <
2
=  
0
Construisons d’abord le signal à partir des signaux de base   et cos 2   

Illustrations :
                    
  ( )= ( ) ∗ cos 2 0  
( )  cos 2    
0
  1  1 

  t  t  t 

 
−     *  = 
  2 2
−   −   −   −  
2 2 2 2
 
                                                                                                                       

Calculons ensuite la TF de la fenêtre     

46 
 
 

( )= ( )= ( ) °
TF  

°
= 1  

1
= −  
2
= sin (πTf) 

( ) 



                                                   
−    
2 ( )=
Pour calculer le spectre de
2 ∗ cos(2 ), nous utilisons la formule d’Euler. Nous 

pouvons écrire alors :  

( )= ∗ cos 2

+
( )=  
2
  Donc : 
1
( )= ( )+ ( )  
2
En appliquant la linéarité et le décalage fréquentiel en obtient la TF de s(t) : 
1 1
( )= ( + )+ ( − ) 
2 2
La représentation de spectrale de s(t) :   

47 
 
 

3.2. Remarques :
 Ce résultat est fondamental en modulation des signaux. 
 Les radios langues onde utilisent ce principe pour transmettre un message informatif dont le 
contenu fréquentiel est compris entre 0 et 20 kHz. 
Soit  un  message  m(t)  vocal  dont  le  spectre  est    M(f)  compris  entre  0  et  20  kHz.  On  désire 
transmettre ce massage par le principe de modulation d’amplitude. Le signal modulé en amplitude 
peut  s’écrire :  ( )= ( )cos(2 )  et  qui  admet  le  spectre    ( )  composé  de  deux 
spectre ; l’un est centré sur −  et l’autre sur  . 
  1
( ) = ( ) ( 2 π 0 t + −2 π 0 t )  ( )                                                    
( )                                                                                                                      
  2

                                           f  f 
                                                                                                                                                                                    
   22 kHz                                                                                                         
− − 22 − − + 22 0 − 22 + 22      
 
4. Dualité de la T.F :
4.1. Dualité d’un signal (temporel – fréquentiel)
Les définitions symétriques de la TF et la   permettent de mettre en avant une propriété de la 
TF appelée : Dualité de la TF.        
Soit s(t) un signal dont la TF est bien définie S(f) :  

( )= ( )  

Alors que la TF inverse est :  

( )= ( )  

Alors il existe deux signaux duals s(t) et s(f) obtenus en remplaçant f par t et t par f : autrement dit,  
à partir d’un spectre S(f), on peut construire un signal temporel S(t) et vice-versa. 
On pourrait s’interroger donc sur la T.F de S(t). 
En effet : 
                                       Nous avons :  (− ) = ∫ ( ) . 
En intervertissant les variables temporelle et fréquentielle on obtient : 

(− ) = ( ) = ( ( )) 

4.2. Méthode de determination de la TF d’un signal à partir de la dualité


Le  signal  ( )   temporel  construit  à  partir  de  S(f)  (transformée  de  Fourier  de  s(t))  admet  comme 
transformée de Fourier  (− ) construite à partir de  ( ) sans faire de calcul.  Cette TF  (− ) est 
obtenue en remplaçant dans l’expression de  ( ) la variable    par la variable −  . 
48 
 
 

Nous utilisons assez souvent le schéma suivant qui illustre cette procédure de TF par la propriété de 
dualité :  
Soit  un  signal  ( )   qui  admet une TF  ( ),  on  construit  le signal  dual temporel  ( ).  Sa  TF est 
(− ) le dual de  ( ). 
                          TF 
   s(t)                                                S(f)   
                   
 
  TF 
   S(t)                                              s(-f)   
 
4.3. Exemple d’application :
Déterminer le transformé de fourrier du signal s(t) tel que : 
sin( )
( )= = ( ) 

Le calcul du spectre du Sinc(t) par la définition de la TF n’est pas possible. Cependant en utilisant 
la propriété de la dualité, il est très facile de déduire la TF de  Sinc(t). 
En effet : 

On sait que la TF de la fonction   est un sinus cardinal  ( ) == sin (πTf). 

( ) 


−    
2 2


( ) 


  −    
2 2
 
Le  spectre  fréquentiel  ( ) == sin (πTf)    lui  correspond  par  dualité  un  signal  temporel               

( ) == sin (πTt) dont la TF, par dualité, est un spectre   .                                     

49 
 
 

En tenant compte de la propriètè de la linearité, de dualité et de la parité de la fonction rectangle,  
on peut écrire :  

( ( )) = ( ( ( )) = =  

En prenant  =  ;  on aura :      

  
1
( ) = ( ) 

D’où 
−1 1
( ) = ∗ ( )= < <
2 2  
0
Remarque :  
La  condition  d’existence  de  la  TF  des  signaux  à  énergie  finie  est  suffisante  mais  pas  necessaire. 
Beaucoup de signaux à énergie infinie (mais à puissance moyenne finie) admettent des transformées 
de Fourier mais au seus de distribution et pas au seus de fonction. 
5. Transformée de Fourier et impulsion de Dirac
Dans le cas d’un signal fenêtre (fonction rectangle) , on remarque que si T est faible, le signal est 
mal défini dans le temps (très localisé) mais    est grand et le spectre est alors très étendu en 

fréquence (mal localisé) . Réciproquement, si T est grand, le spectre est bien localisé en fréquence 
mais mal localisé en temps. Intéressons-nous au cas extrême : l'impulsion de Dirac. 
 
5.1. Transformée de Fourier au sens des distributions
Rappelons que la distribution de Dirac  ( ) n’est pas une fonction mathématique. Sa représentation 
est donnée sur la figure suivante : 

Par conséquence, la distribution n’est pas intégrable  au sens de Riemann. Pourtant cette impulsion 
vérifie la condition ∫ ( ) = 1 < ∞ au sens de distribution : c’est une Distribution intégrable 
(sommable) au sens des Distributions. Sa  Transformée de Fourier  n’existe aussi qu’au sens des 
Distributions. Calculons alors sa TF. 

( ) ( ) = ∆( ) = ( )  

50 
 
 

                         

∆( ) = ( )  

                         ∆( ) = ( ∫ ( ) ( ) = (0)) 

∆( ) = 1 
 
∆( ) 

0   

 
Remarques :  

∆( ) = ( ) = 1 

 L’impulsion de Dirac admet donc un spectre ∆( ) uniforme qui occupe une bande de 
fréquence infinie. 
 Il est évident alors qu’un signal très borné dans le temps occupe un large spectre. 
5.2. Propriété de la dualité appliquée à l’impulsion de Dirac
la TF de l’impulsion de Dirac est un spectre uniforme qui contient toutes les fréquences : c’est un 
bruit blanc. 
Nous avons : 
( ( )) = 1 = ∆( ) 
Inversement on peut écrire : 

( )= ∆( )  

( )=  

Considérons maintenant le signal dual de ∆( ) = 1 et cherchons sa TF. 
Autrement dit, on cherche à donner la TF d’un signal temporel constant (=1) 
 
  TF 
( )                                                ∆( ) = 1 
 
       
 
+∞ =0
  ∆( ) = 1             TF                              (− ) = ( ) =   
0
51 
 
 

(− ) = ( ) = +∞ =0
          (  est paire ) 
0
 
On peut ecrire alors : 

( )=  

Donc : par dualité la TF d’un signal continu et constant ( ( ) = 1) est un Diac fréquentiel en = 0. 


                                                                                                                                                                
( )  ∆(f) 
               
1  1 
     
 

                                                                                                                                                                                    

                                                                                                                                                      
                         1  ∆(t)  ( ) 

       

  0  0 

Ce qui est en concondance totale avec le fait qu’ un signal constant ne contient aucune fréquence . 
Retenons les resultats importants des propriètés de l’impulsion de Dirac:   
( ) = ∆( ) = 1 
(∆( ) = 1) = ( ) 

( ) = 1 

( )= (1) =  

5.3. Transformée de Fourier de l’impulsion de Dirac decalée


5.3.1. Decalage temporel
Le Decalage temporel  pour l’impulsion de Dirac est  représenté ci-dessous et traduit par:   ( − ) 

 
Soit  à  chercher  la  TF  de  l’impulsion  de  Dirac  Translatée  ( − )  en  appliquant  la  proprièté  de 
decalage temporel de la TF. 
( − ) ( )= ∗ ( ) ( ) 

52 
 
 

                                                 = ∗1 ( ( ) ( ) = 1) 
=  
5.3.2. Decalage fréquentiel
   D’après les propriètés de l’impulsion de Dirac, nous avons :  (1) = ( )  
∗1 = ( − ) 
= ( − ) 
 On obtient un decalage fréquentiel de l’impulsion de Dirac fréquentielle.  
De même : 
= ( + ) 
5.3.3. Exemples
 Signal sinusoïdal ( ) = cos(2 )
Il est clair que a0 = 0, a1 = 1, an = 0 pour n > 1 et bn = 0 pour n ¸ 1: D'où: 
= 0 

= = =     Car  ( ) est réel et paire  

=0 ∀ > 1 
=0 ∀ >1 
La transformé de Fourier de x(t) est (en utilisant la formule d’Euler et les propriétés de  ( ))  : 
( )= ( ) ( ) = TF (cos(2 ))( ) 
+
= ( ) 
2
1 1
= ( + )+ ( − ) 
2 2
On a donc le spectre suivant :

Représentation spectrale bilatérale. 
 ( ) = sin(2 ) 
La décomposition en série de Fourier est définie par : an = 0 pour n ≥ 0, b1 = 1 et bn = 0 pour 
n>1. D'où: 
= 0 
53 
 
 

= = = ⃑    Car  ( ) est réel et impaire  

=0 ∀ > 1 
=0 ∀ >1 
La transformé de Fourier de x(t) est (en utilisant la formule d’Euler et les propriétés de  ( ))  : 
( )= ( ) ( ) = TF (sin(2 ))( ) 

= ( ) 
2
1 1
= ( + )− ( − ) 
2 2
On a donc le spectre suivant :
 

 
 Généralisation aux signaux périodiques : Représentation bilatérale
Soit  ( ) un signal périodique de période  = = . 

En utilisant la décomposition en série de Fourier, on obtient :   

( )= A + ( + ) 

La transformée de Fourier appliquée au signal  ( ) permet d’écrire: 

( )= ( ( ))( ) = A + ( + )  

En introduisant les propriétés de l'impulsion de Dirac, le spectre d'un signal périodique peut 
s’écrire de la façon suivante : 

1 1
( )= ( ( ))( ) = A (0) + ( + + )+ ( − − )  
2 2

La  représentation  bilatérale  du  spectre  de  fréquence  d'un  signal  périodique  est  construite    à 
partir de la décomposition en série de Fourier complexe. 
 Cette  représentation  est formée  par  des  pics  de  Dirac  de  poids  = , n ∈  N  sur  l'axe  des 

54 
 
 

fréquences positives et négatives. 
 

 
Il est à nouveau important de noter que seule la représentation unilatérale a un sens physique. 
En effet, la représentation bilatérale est constituée de fréquences négatives qui n'ont pas de sens 
réel. 
   
 TF de l‘ Echelon unité
Rappelons que l'échelon unité u(t) est défini par : 
0 <0
1
( )= =0 
2
+1 >0
Remarquons aussi que nous pouvons écrire : 
1 1
( )= + ( ) 
2 2
−1 <0
Où :  ( )= 0 =0 
+1 >0
 
On peut écrire alors :          ( ) = 2 ( ) − 1 
 
( ) ( )
= 2 = 2 ( ) 
 
D’où d'après les propriétés de la transformée de Fourier : 
 
 
( ) ( )
= 2 =2 ( ) = 2 
 
( )
Or :                                 =2 ( )     proprièté de la dérivation de la TF. 
 

55 
 
 

et  
1 1 1
( ) = TF + ( ) = TF 1 + ( )  
2 2 2
Donc :  
1 1
( ) = ( )+ ( ) 
2 2
 
1 1
( ) = ( )+
2 2
 

56 
 
 

Chapitre 4 : Représentation vectorielle des signaux

Dans le traitement de l’information, il est nécessaire de 
 – mesurer le signal, souvent à l’aide de capteurs (métrologie) ; 
 – caractériser et extraire le signal utile d’une information (traitement du signal) ; 
 – le transmettre par un codage adéquat (traitement du signal).  
L’objectif  de  ce  cours  est  de  donner  des  bases  mathématiques  minimales  préalables  à  l’acquisition  et  à  la 
maîtrise du signal. Pour cela, ces bases développent des méthodes basées sur la modélisation mathématique. 
Ces méthodes peuvent être ensuite mises en œuvre en électronique du signal (réalisation technologique).

1. Espace de signaux
1.1 Représentation discrète
On  peut  représenter  un  signal  x( )  sur  une  base  de  signaux  (fonctions)  déterminés,  ψ ( ) ;  k =
1, … … . , n par : 

( )= ψ ( ) 

..
Soit  le  vecteur  = .   ,  la  transposée  du  vecteur  a  noté  = =( , ,... )     est  une 

représentation du signal  ( ) dans la base {ψ ( )} ,….., . 


Remarques :  
 Dans le cas général, la base {ψ ( )} ,…..,  est de dimension infinie ; 
 Pour certaines classes de signaux, on peut chercher des approximations comportant un nombre 
limité de signaux de base ψ ( ) ; 
 La représentation discrète a est l’unique moyen d’aborder le traitement numérique du signal. 
 
1.2 Espace vectoriel des signaux
1.2.1 Définition (Espace vectoriel)
 Etant donné un corps commutatif   =  d’éléments neutres 0 pour la loi +  et e pour la loi 

multiplication  .  ,  On  dit  qu’un  ensemble  E  muni  d’une  opération  interne  (notée Å)  et  d’une 

opération externe (notée ∗ ) dont le domaine d’opérateurs est C, a une structure d’espace vectoriel 
sur C si : 
1. ( , Å) est un groupe commutatif pour son opération interne, 
2. l’opération externe est telle que, pour tout  ∈   et tout a, b ∈ , on ait : 
57 
 
 

(a . b ) ∗ = a.( b∗ ) ∗ =  
3.  L’opération  externe  est  distributive  par  rapport  à  l’addition  sur  le  corps  C  et  par  rapport  à 
l’opération interne dans E : 
(a + b). = a . Å b. et    a . ( Å ) = a . Å b.  
 
Le cardinal (nombre maximum de vecteurs) de la base est appelé dimension de l’espace. 
2. Espace vectoriel normé et métrique
2.1. Norme définie un espace vectoriel 
Un espace vectoriel E est normé si on peut définir une norme ‖ ‖, c’est-à-dire une application de 
E dans IR+, qui à tout vecteur  ⃗ de E associe‖ ⃗ ‖. 
‖ ‖ :          
      
⃗ ‖ ⃗ ‖ 
 
2.2. Propriétés d’une norme
 La norme possède les propriétés suivantes : 

 
2.3. Espace vectoriel métrique
2.3.1. Distance sur un espace vectoriel
Un espace vectoriel est dit métrique si à tout couple de vecteurs  ( ⃗, ⃗) est associé un réel :  
( ⃗, ⃗) tel que : 

 
La mesure  ( ⃗, ⃗) est appelée distance.  
Une distance usuelle est obtenue à partir de la norme par : 
( ⃗, ⃗) = ‖ ⃗ − ⃗‖ 
 
2.3.2. Espace vectoriel de Banach
Une suite infinie  { ⃗ . } d’éléments d’un espace vectoriel métrique converge vers un vecteur de cet 
espace si : 
lim ( ⃗ , ⃗) = 0

Un  espace  vectoriel  normé  dans  lequel  toute  suite  est  convergente  est  dit  complet.  On  l’appelle 
aussi espace de Banach. 
 
2.3.3. Espace vectoriel de Hilbert  

58 
 
 

Un Espace vectoriel est  dit  de Hilbert  est un  espace  vectoriel  normé  complet (espace  de  Banach) 
dont  la  norme   ‖ ‖  découle  d’un  produit  scalaire  ou  hermitien  <,  >,  par  la  formule   < ⃗, ⃗ > =
‖ ⃗‖  
 
Un espace de Hilbert est la généralisation en dimension quelconque d’un espace vectoriel euclidien 
ou hermitien. 
Les différentes métriques possibles (distances) définissent divers types de convergence. 
 
3. Espace vectoriel de signaux
3.1. Représentation d’un signal
Soit   un espace de dimension K et  = {ψ , … . ., ψ ( )}, une base de cet espace. 
Tout signal x(t) a une représentation unique dans la base B : 

( )= ψ ( ) 

Où : les  sont éléments de IR ou de IC. 
Les coefficients( , … . .; )  définissent un point de coordonnée ( , … . .; ) par rapport à la base 
= {ψ , … . ., ψ ( )},  est donc une représentation du signal x(t) par rapport à la base B. 
 
 
3. 2. Distance entre deux signaux
 
La représentation vectorielle de signaux dans un espace vectoriel métrique permet de comparer des 
signaux en mesurant leur distance. 
Soient deux signaux x(t) et y(t) dont les représentations (dans la même base B) sont : 
 

( )= ψ ( ) 

( )= ψ ( ) 

 
On peut alors définir la distance entre les signaux  ( ( ), ( )). 
 
3.3. Exemples de distance  
3.3.1. Distance euclidienne sur une base discréte
si  d  est  la  distance  euclidienne,  un  signal  est  représenté  dans  une  base  discrète    et 
= {ψ ( )} ,……. ,   on a simplement : 
 
( ), ( ) = ‖ ( ) − ( )‖ 

= ( ψ ( )− ψ ( ))  

= ( − )ψ ( )  

59 
 
 

= | − |  

= | − |  

3.3.2. Distance euclidienne sur un intervalle de temps


Par analogie, on peut définir la distance entre deux signaux sur un intervalle T par : 

( ), ( ) = | ( ) − ( )|  

Où :  K est une constante de normalisation. Typiquement K = 1 ou =  . Cette distance est appelée 
distance en moyenne quadratique. 
On peut bien sûr définir d’autres distances, par exemple : 

 
3.3.3. Distance de Hamming
Pour des signaux binaires, on utilise la distance de Hamming : 

( ), ( ) = Å  

 
Où :  et  sont des éléments de {0, 1} et Å représente l’opérateur OU exclusif. Cette distance 
mesure le nombre de bits différents entre x et y. 
 
3.4. Espace des signaux à énergie finie
L’ensemble des signaux à énergie finie (ou de carré sommable) sur un intervalle [t1; t2] forme un 
espace noté   ( , ) dont la norme est définie par : 

‖ ( )‖ = | ( )|  

Le carré de la norme (‖ ( )‖ ), est donc égal à l’énergie du signal. 
‖ ( )‖ = | ( )|  

La distance entre deux signaux x et y est alors définie par la distance euclidienne : 
 
 

( ), ( ) = | ( ) − ( )|  

60 
 
 

 
Dans  ( , ) on dit qu’un signal x(t) converge en moyenne quadratique vers y(t) si : 
( ( ), ( ) = 0
L’exposant  2  dans  ( , )  indique la  métrique  utilisée  et  non  pas  la  dimensions  de  l’espace  de 
signaux à energie finie. 

4. Produit scalaire de deux signaux et distance


4.1. Produit scalaire de deux vecteurs
Soient deux vecteurs   ⃗ = ( , … . . , ) T et  ⃗ = ( ,….., ))T dans une base B, on peut 
définir le produit scalaire des vecteurs   ⃗ et  ⃗ par  : 

< ⃗ , ⃗∗ > = ⃗ . ⃗∗ = ∗
 

Où : * indique la conjugaison complexe. 
4.2. Produit scalaire de deux signaux
Définition :
Soient  deux  signaux  quelconques  ( ) ( )   (en  général  complexes).    Par  analogie  avec  le 
produit scalaire de deux vecteurs, on définit le produit scalaire de  ( ) ( )  et on note :  
∗(
< ( ), ) >  la quantité :  

∗( ∗(
< ( ), )>= ( ). )  

∗( ) représente la conjugaison complexe de  ( )    
 où :
Cas de signaux réels :  

< ( ), ( )>= ( ). ( )  

  
Remarques:
 Dans le cas complexe, on remarque que : 
∗( ∗(
< ( ), )> ≠< ( ), ) > 
 En revanche, le produit scalaire possède la symétrie hermitienne :
∗( ∗( ) >∗  
< ( ), )> =< ( ),
∗( ∗(
En effet,  < ( ) , )> = ∫ ( ). )  
∗ ∗

∗( ). ( ) ( ). ∗( )
= =
 
∗( ) >∗
= < ( ),
Par ailleurs, en raison de la définition ci-dessus et de la linéarité de l’intégrale, le produit 
scalaire de sommes de signaux se développe facilement selon la règle de calcul : 
61 
 
 

∗ ∗ ∗
< + ,( + )∗ > = < , > + < , >+ < ,

> + < , > 
Où : , , sont des scalaires. 
4.3. Signaux orthogonaux
Soient  deux  signaux  quelconques  ( ) ( ) ,    on  dit  que  ( ) ( )  sont  orthogonaux  si  leur 
produit scalaire est nul sur un intervalle   = , ∁   c’est-à-dire : 

∗( ∗(
< ( ), )> = ( ). ) = 0 

Remarque :
Si  ( ) ( )  sont  orthogonaux  sur  un  intervalle  = , ∁   ,  ils  ne  le  sont  pas 
forcément sur un autre intervalle.  
 
Exemple : Fonctions rectangulaires décalées  
Soient une série de fonctions rectangulaires décalées entre elles de   , avec  = 0, 1, 2, …. 

ψ ( )=  

Plus clair :  

− −
ψ ( )= = 1 2
+ < <
2
+  
0
 
Remarquons que les fonctions  ψ ( ), ψ ( ) ψ ( ) ont les formes suivantes : 
 
 
ψ ( )  ψ ( ) 
  ψ ( ) 
 1    1      
      1       
       
 k=2  
 k =0   k=1   t  t 
  t     
− +              +2  
    +  
2 2 2 2
 
 
Le produit scalaire des deux fonctions ψ ( ) ψ ( ) ∀ ≠  est :  
   

62 
 
 

< ψ ( ) ,ψ ( ) > = ψ ( ). ψ ( )

= (ψ ( ) = 1). (ψ ( ) = 0) + (ψ ( ) = 0). (ψ ( ) = 1) = 0 

 
ψ( ) ψ ( ) sont orthogonaux ∀ ≠  sur l’intervalle de longueur ( − )  ) 

Cas particulier avec l’impulsion de Dirac : 

< ( ), ( )> = ( ). ( ) = (0) 

< ( ) ( ), ( ) > = ( ) ( ) ( ) = ( ) ( ) ( ) =< ( ), ( ) ( ) >

= (0). (0) 
 
4.4. Produit scalaire et distance euclidienne
 
Le lien entre distance euclidienne et produit scalaire est évident dans l’espace  ( , ). En effet : 

 
Remarque :
Dans  le  cas  particulier  ou  les  signaux  sont  orthogonaux,  <  x;  y  >=  0,  la  relation    précédente    se 
simplifie au théorème de Pythagore : 

 
 
4.5. Inégalité de Schwartz
Théorème :  
Deux signaux, x( ), y( )  de  ( , ) vérifient l’inégalité suivante, dite inégalité de Schwartz : 
 
 
‖< ( ) , y ∗ ( ) >‖ ≤ < ( ) , ∗ ( ) >∗< ( ) , ∗ ( ) > 
63 
 
 

 
‖< ( ) , y( ) >‖ ≤ ‖ ( ) ‖ ∗ ‖y( )‖  
Ou sous forme intégrale : 

|< ( ) , ∗( ) >| = ( ). ∗( ) | ( )| | ( )|
≤ ∗  

Demonstration :
Soient deux signaux,  x( ) y( ) de  ( , ).  , et k un scalaire de IR ou de IC. Le carré de la 
distance entre  x( ) y( ) est la quantité positive, ∀ . 
 
( , )=‖ − ‖ =< − ,( − )∗ >  
 

= < , > +| | < , >− < , > − < , > ∗ ≥ 0 
 
Ceci est en particulier vrai, pour : 
< , >
=  
< , >
En reportant k dans l’équation précedente,  alors : 
< , > < , >∗ < , >
( , )=< , > + < , >− < , > − < , > ∗ ≥ 0 
< , > < , >∗ < , >
< , > < , >∗
=< , > + < , > −2 < , > ≥ 0 
< , > < , >∗
< , > < , >
=< , > + < , > −2 ≥ 0 
< , > < , >
< , > < , >
=< , > + < , > −2 < , > ≥ 0 
< , > < , >
< , >
=< , > − < , > ≥ 0 
< , >
|< , >|
=< , > − ≥ 0 
< , >
Donc :  
|< , >|
< , > − ≥0
< , >

D’où l’on en tire l’inégalité de Schwartz : 
 
|< , >| ≤ < , >< , > 
ou, sous forme intégrale : 
 

64 
 
 

( ). ∗( ) | ( )| | ( )|
≤ ∗  

Remarque : il y a égalité si   ( ) = ( ) 
C’est-à-dire l’égalité est atteinte si et seulement si  ( , ), c’est-à-dire si   = . 
 
5. Produit de convolution
L’opérateur de convolution est aussi très courant. Il est associé à l’opération de filtrage d’un signal 
x(t) par un filtre de réponse impulsionnelle h(t) . La sortie du filtre, y( ), vaut alors : 
y( ) = x( ) ∗ h( ). 
5.1 Définition
Le produit de convolution entre deux fonctions x(t) et h(t), noté par le symbole ∗ est défini par les 
intégrales : 
  
+∞
( ∗ ℎ)( ) = ( ) ℎ( − )  
−∞

= ℎ( ) ( − )  

= (ℎ ∗ )( ) 
On retiendra que le produit de convolution est commutatif. Souvent, en traitement du signal, on 
note de façon pratique la convolution de deux fonctions x(t) et h(t) sous la forme : 
( ∗ ℎ)( ) = ( ) ∗ ℎ( ) 
On utilisera cette notation par la suite, malgré qu’elle soit parfois ambiguë comme on le verra.  
Si x(t) est la distribution de Dirac  ( ), on a simplement : 
( ) = ( ) ∗ ℎ( ) = ℎ( ) 
On remarque que  ℎ( ) est la réponse du filtre excité par une impulsion de Dirac, d’où le nom de 
réponse impulsionnelle du filtre donné à ℎ( ) . 
5.2 Représentation de la Convolution  
A partir de la définition, on peut représenter l’opération de convolution de deux signaux de 
façon graphique simple, comme l’illustre la figure :  
En effet, l’équation : 
+∞
( ) = ( ) ∗ ℎ( ) = ( )ℎ( − )  
−∞

requiert la fonction ( ), la fonction , et l’intégration du produit de ces deux fonctions sur IR pour 


chaque valeur de décalage  . 
65 
 
 

Ainsi,  ℎ( )  est  la  mémoire  du  système  :  le  signal  ( )  est  pondéré  aux  différents  instants  par 
ℎ( − ).  
Le  produit  de  convolution  est  parfois  appelé  RTMI.  Cet  acronyme  est  basé  sur  les  différentes  opérations 
élémentaires effectuées pour obtenir le produit de convolution :  
Retournement ℎ( )     →    ℎ(− )  
Translation ℎ(− )   →   ℎ( − ) 
Multiplication ∫ ( )ℎ( − ) 

 Intégration ∫ ( )ℎ( − )  

Exemple
≥ 0                     et                                   ( ) = 1 | |≤1
Soit ℎ( ) =         
0 0

                             
Principe de la méthode :
- On garde le premier signal ℎ( )    
- On retourne le second signal  ( ) pour obtenir  (− ), on obtient le même signal car il est pair.  
- on effectue alors des translations de     ( − ) : ceci revient à glisser   ( − ) de  sur ℎ( ) ;  
| − |≤1
( − )= 1  
0
1 −1≤ ≤ 1+
=  
0
nous sommes alors en présence de trois cas possibles.  

   1 + < 0 < −1   

0.8

0.6

0.4

0.2

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
 

Alors : 

  ( )=∫ 1
( − ). ℎ( )  

66 
 
 

1+
            = ∫ − ( ). 0 = 0 (voir figure ci-dessous)  

   −1<0 1+ > 0 −1≤ ≤1  


1

0.8

0.6

0.4

0.2

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
 
  ( )= ∫ ( − )ℎ( )  
1+
  = ∫0 1.  

           = 1 − −(1+ )   (voir figure ci-dessous) 

 − 1 > 0,  ie  ≥ 1 
1

0.8

0.6

0.4

0.2

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
 
( )= ∫ ( − )ℎ( )   

         = ∫ 1. −   

         = − −( )
  (voir figure ci-dessous) 
0.9
y(t)=(x*h)(t)
0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1 t
0
-5 -4 -3 -2 -1 0 1 2 3 4 5
 
5.3 Propriétés
A partir de la définition du produit de convolution, on montre facilement que le produit de 
convolution est : 
  commutatif :  ( ) ∗ ( ) = ( ) ∗ ( ) 
 associatif : ( ( ) ∗ ( )) ∗ ( ) = ( )∗( ( )∗ ( )) 
 distributif par rapport à l’addition :  ( ) ∗ ( )+ ( ) = ( )∗ ( )+ ( )∗ ( ). 
67 
 
 

 Nous admettons la proprièté suivante sans démonstration : 
+∞
(− ) ∗ ℎ( ) = ( − ) ℎ( − )  
−∞

5.4. Commentaire sur les notations


En traitement du signal, la notation usuelle de la convolution de deux signaux, x(t) _ y(t), ne prête 
pas  à  confusion  dans  les  cas  simples.  En  revanche,  pour  des  fonctions  avec  des  arguments  plus 
complexes, cette notation peut devenir ambiguë. Par exemple, le produit de convolution : 
( − ) ∗ ( − 2 ) 
est-il une fonction de   ou de   ? Autrement dit, l’intégration porte-t-elle sur   ou sur ? Nul ne 
peut le dire ! 
 
6 . N o t i o n d e corrélation et intercorrélation des signaux
6.1. Cas des signaux à énergie finie
Définition
La fonction d'autocorrélation j (t) d'un signal x(t) à énergie finie est définie par : 
∗ ∗
j (t) = ∫ ( ) ( − )               Avec   est le conjugué de . 
   

La fonction d'intercorrélation de deux signaux x(t) et y(t) à énergie finies est définie par : 


+∞ +∞
∗( ∗
j (t ) = ( ) − ) = ( ) ( − )  
−∞ −∞

Mathématiquement,  cela  s’interprète  comme  le  produit  scalaire  entre  le  premier  signal  décalé  de  τ  et  le 
second signal. Comme précédemment discuté, un produit scalaire entre deux vecteurs mesurant un degré de 
similitude entre ces deux vecteurs, l’intercorrélation est une mesure de similitude entre deux signaux. Deux 
signaux  x  et  y  seront  indépendants  s’il  n’y  a  pas  de  lien  entre  eux.  S’il  existe  un  lien  alors  celui-ci  doit 
dépendre du décalage temporel entre ces deux signaux. Ils seront donc indépendants si : 
 
∀τ ∈ IR, j (τ) = constante 
Remarque :
+∞ ∗( +∞
-  j (0) = ∫−∞ ( ) ) =  ∫−∞ | ( )|   qui  représente  l’énergie  du  signal. 

L’autocorrélation d’un signal, au point 0 , est identifiée à son énergie.  
- L’autocorrélation est une manière de calculer l’énergie d’un signal. 
 
6.2. Cas des signaux périodiques
6.2.1. Définition :
Dans le cas d'un signal périodique x(t) de période T0, on définit l'autocorrélation par  : 
 

68 
 
 

+ 0
1 2
∗(
j (t) = lim ( ) − )
0 →+∞ 0 − 0
2

Pour  deux  signaux  périodiques  x(t) et  y(t) de  période  T0,  la  fonction  d'intercorrélation 
s'écrit : 

1 ∗(
1 ∗
j (t) = ( ) − ) = ( ) ( − )
→ →

Remarque : Si x(t) et y(t) ont des périodes différentes T1 et T2, on prend comme valeur pour 


T0, le plus petit multiple commun (ppmc) entre T1 et T2.
Exemples
Pour le signal continu x défini par : 
∀ ∈ , ( ) = (2 + )
Donc : 
+ 0
1 2
j (t) = lim sin 2 0
+ sin 2 0
( − t) +  
0 →+∞ 0 − 0
2
2
j (t) = 2 0
t  
2
Qui  est  bien  une  fonction  périodique  de  fréquence  = .  Par  contre,  elle  est  indépendante  du 

déphasage φ.
 
6.2.2. Signification
La  fonction  d'autocorrélation  traduit  la  similitude  d'un  signal  au  niveau  de  la  forme      en 
fonction du décalage temporel t. C'est une mesure de la ressemblance du signal avec lui-même 
au cours du temps. Par exemple, si le signal est périodique mais noyé dans du bruit, sa fonction 
d'autocorrélation  le  sera  aussi  mais  permettra  de  détecter  sa  périodicité.  Intuitivement,  la 
corrélation est maximale si on ne décale pas temporellement le signal. 
6.2.3. Propriétés
 Si x(t) est réel, alors j (t) est paire : (j (−t) = j (t). 

  j (t ) ≤ j (0) =  qui est l’énergie du signal 

Application :
Considérons une impulsion x(t) émise d’une source visualisé sur un écran et réfléchie sur une 
cible  avant de  revenir  à  son    point  de  départ.  On  observe  le  signal  de  retour  y(t) sur le même
écran pour  détecter  le  retour  de  l'impulsion.  Les  deux  signaux  x(t) émis   et  y(t) réfléchi sont
séparés sur le même écran d’un temps t0. Sachant que le signal parcourt une distance de 2d pour 
69 
 
 

faire un aller – retour (la distance de la source à la cible est d). On déduit la distance d de la 

cible par :  =    ( avec   la célérité de l'impulsion).  

En pratique,  on calcule la fonction d'intercorrélation entre le signal émis x(t) et le signal reçu 


y(t). Le maximum de cette fonction correspond à la similitude maximale entre les 2 signaux et 
donc  au  retard  t0  (la  ressemblance  est  maximale).  On  peut  également  considérer  que 
l'intercorrélation  consiste  à  déplacer  le  signal  émis  jusqu'à  ce  que  l'on  ait  un  maximum  qui 
correspondra  au  retard  t0.  Tout  se  passe  comme  si  on  fait  glisser  progressivement  le  signal 
émis de t0 jusqu’à rattraper le signal reçu. La ressemblance est alors fonction de ce décalage 
temporel. Elle est maximale lorsque ce décalage vaut t0 . 
Exercice d’application :
Soient  deux  signaux  réels  x(t) et  y(t) identiques  à  un  retard  et  un  affaiblissement  près: 
( ) = ( − ).  
Connaissant l'énergie de x(t), déterminer l'affaiblissement a et le retard t0. 
 
7. Densités spectrales
7.1. Définition 
Comme dans le cas des signaux périodiques, on définit la densité spectrale du signal x(t) par : 
( )= ( ). ( )∗ ( ) = | ( )|2.
Cette densité décrit la distribution de l'énergie du signal sur l'axe des fréquences, c'est-à- dire la 
densité d'énergie dissipée relativement à la fréquence. 
On  définit  la  densité  spectrale  d'interaction  ou  densité  interspectrale  d'énergie  de  deux 
signaux x(t) et y(t) par : 
( )= ( ) . ( )∗ ( )
7.2. propriétés de la densité spectrale
7.2.1. relation densité spectrale- densité spectrale
La  densité  spectrale  est  la  transformée  de  Fourier  de  la  fonction  d’autocorrélation  ( ) 
+∞ −2
définie dans la chapitre 1. F ( ) = ∫−∞ ( )
En  effet :  
F ( )= ( ). ( )∗ ( ) = | ( )|2 

Or : j ( ) = ∫ ( t) (t − ) t
Appliquons la définition de la fonction d’autocorrélation et la TF de signal  (t) 

∗(
F ( )= j ( ) ( )= (t ) t− ) t

= ( t) −2 t t ∗ (− )

70 
 
 

= ∗ (− ) (t) −2 t t

= ∗( ) (t) −2 t t

= ∗( ). ( ) = | ( )|2
De même la densité inter spectrale est :  
+∞

F ( )= ( ) −2 = ( ) ( ) 
−∞

Remarque :  
Il  est  souvent  plus  facile  de  calculer  les  fonctions  de  corrélation  (auto  et  inter)  par  la 
transformée inverse TF − 1  de la densité spectrale. 

7.2.2. Théorème de Parseval (2ème forme) : Energie des signaux non périodiques  
Théorème 1: Si x(t) est à énergie finie, l'énergie totale E dans le domaine temporel est égale à 
l'énergie totale dans le domaine fréquentiel.  
Démonstration : 
Nous  avons  démontré  par  ailleurs  l’énergie  d’un  signal  comme  étant  l’intégration  du  module  au 
carré de    ( ) dans le domaine temporel. 
Montrons  aussi  que  l’énergie  d’un  signal  est  aussi  l’intégration  du  module  au  carré  du  spectre   
( ) dans le domaine fréquentiel. 

Soit  ( ) un signal à énergie finie, il admet donc une TF :  ( ) = ∫ ( ) −2 et une TF 

inverse :  ( ) = ∫ ( ) 2  
L’expression de l’énergie est : 
+∞ +∞
| ( )| ( ) ∗( )  
E = =
−∞ −∞

= ( ) ( ) 2  

= ( ) ∗( ) −2  

= ∗( ) ( ) −2  

= | ( )|  

Théorème 2:  Si  x(t)  est  à  énergie  finie,  l'énergie  totale  E   est  calculée  aussi  par  l’intégration  de  la 

71 
 
 

+∞
densité spectrale :  = ∫−∞ F ( ) . 
Effet : 

= | ( )| é ℎé è 1 

∶ = F ( ) F ( ) = | ( )|2  

En résumé, l’énergie peut être calculée par 3 moyens différents : 
+∞
∗ Integration du module au carré de x(t): E = | ( )|  
−∞
+∞
′ ∗(
∗ L autocorrélation au point 0 E = j (0 ) = ( ) )  
−∞

∗ Integration du module au carré de X(f): E = | ( )|  

+∞

∗ Integration de la densité spectrale: = F ( )  


−∞
    
Conclusion :
Dans ce chapitre, nous avons  présentée une méthode qui peut s’appliquer à l’extraction de l’informations sur 
un signal utile. Elle est complémentaire  aux  méthodes présentées dans le chapitre 2  puisque les hypothèses 
de  mise  en  œuvre  sont  différentes.  Cependant,  les  possibilités  de  cette  méthode  sont  moindres  puisqu’on 
n’extrait  pas  totalement  le  signal  :  par  exemple  dans  le  cas  d’un  signal  sinusoïdal  à  extraire,  si  on  peut 
déterminer sa fréquence, on ne peut pas déterminer son déphasage.  
Les  signaux  considérés  dans  ce  chapitre  sont  dits  déterministes  :  un  signal  x(t)  est  dit  déterministe  si,  à 
chaque instant t, sa valeur x(t) peut être déterminée de façon certaine par un modèle mathématique. Exemple: 
∀t ∈ R, x(t) = A sin(2πt). Il est clair que ces signaux ne peuvent pas représenter l’ensemble des signaux réels. 
En l’occurrence, les signaux aléatoires constituent  un ensemble  de signaux plus satisfaisant  de ce  point  de 
vue.  
Le grand intérêt est que la notion d’énergie à puissance finie permet d’étendre les méthodes présentées dans 
ce chapitre aux signaux aléatoires. Le plus grand réalisme des signaux aléatoires permettra en plus d’aborder 
une méthode de génération de son qui sera appliquée à la téléphonie mobile. 

72 
 

Vous aimerez peut-être aussi