Vous êtes sur la page 1sur 104

                                                                                                                                                      

   

‫ اﻟﻤﺴﻴﻠﺔ‬- ‫ﺟﺎﻣﻌﺔ ﻣﺤﻤﺪ ﺑﻮﺿﻴﺎف‬


UNIVERSITE MOHAMED BOUDIAF - M’SILA
‫آﻠﻴﺔ اﻟﺘﻜﻨﻮﻟﻮﺟﻴﺎ‬
FACULTE DE TECHNOLOGIE
‫ﻗﺴﻢ اﻹﻟﻜﺘﺮوﻧﻴﻚ‬
DEPARTEMENT D’ELECTRONIQUE 

Support de Cours

Théorie du signal
Cours & TD de deuxième année Licence
Filières : Electronique & Télécommunications

Réalisé par :
Dr. Mohamed LADJAL

Mai 2016
 
AVANT PROPOS

Ce cours s'adresse principalement à des étudiants en seconde année de département


d’Electronique. Il correspond au programme officiel de matière « Théorie du signal »
enseigné en 2ème année sciences et technologies, filières : Electronique et
Télécommunications. La première partie est plus spécialement orientée vers les différentes
classes des signaux, la transformée de Fourier, la transformée de Laplace, produit de
convolution et corrélation des signaux. La seconde s'attache principalement à étudier
l’échantillonnage et les signaux discrets. Les techniques enseignées en première année
(matrices, calcul intégral, équations différentielles), il les suppose connues. Mon intention est
de présenter les bases des techniques mathématiques exploitées par les matières
technologiques en introduisant le vocabulaire nécessaire et en établissant les résultats par des
démonstrations aussi rigoureuses que possible.
Dans un premier temps, un inventaire des différents théorèmes et des différents termes
mathématiques exploités dans les cours technologiques a été dressé. Dans un second temps,
quelques éléments théoriques plus généraux ont été ajoutés afin de donner à l'ensemble une
présentation synthétique et cohérente. C'est tellement rassurant d'aborder d'autres domaines
techniques ou scientifiques en retrouvant des mathématiques familières…. Pour juger de son
adéquation au public visé, il est indispensable de prendre connaissance de quelques exercices
proposés. On y remarquera que de nombreux problèmes sont issus de préoccupations
techniques familières à nos étudiants, ce qui facilite leur motivation.
Ce cours est axé autour de cinq chapitres qui sont présentés comme suit :
Le premier chapitre est une description générale non exhaustive du vaste domaine de
traitement des signaux. Des généralités sont présentées à propos du signal, ainsi que leur
classification. Les signaux particuliers, Signaux déterministes et signaux aléatoires, Notions
de puissance et d’énergie sont présentées. Dans le deuxième chapitre, nous nous intéressons à
l’analyse de Fourier (séries et transformée de Fourier). Dans le chapitre trois, nous détaillons
les fondements théoriques de la transformée de Laplace. Le quatrième chapitre est consacré
au produit de convolution et la corrélation des signaux. Le cinquième et le dernier chapitre
présent la notion d’échantillonnage et signaux discrets. A la fin des chapitres, des exercices
sont proposés.

Merci à tous ceux, étudiants, enseignants ou lecteurs occasionnels, qui voudront bien
me signaler les erreurs, m'indiquer des lacunes ou me faire part de leurs remarques et
suggestions de tous genres.

Mohamed LADJAL
M’sila, Mai 2016

iii 
 
Semestre : S4
Unité d’enseignement : UEF 2.2.2
Matière 2 : Théorie du signal (VHS: 45h00, Cours : 1h30, TD : 1h30) 
Crédits : 02
Coefficient : 02

Objectifs de l’enseignement:
Acquérir les notions de base pour le traitement du signal et des processus aléatoires. 
 
Connaissances préalables recommandées:
Cours de mathématiques de base 

Contenu de la matière :

Chapitre 1 : Généralités sur les signaux 3 semaines


Signaux  analogiques  /  discrets,  Signaux  particuliers,  Signaux  déterministes  et  signaux 
aléatoires, Notions de puissance et d’énergie. 
 
Chapitre 2 : Analyse de Fourier 2 semaines
Introduction, Séries de Fourier, Transformée de Fourier, Théorème de Parceval. 

Chapitre 3 : Transformée de Laplace 3 semaines


Propriétés de la Transformée de Laplace, Analyse temporelle et fréquentielle. 

Chapitre 4 : Produit de Convolution 2 semaines


Formulation  du  produit  de  convolution,  Propriétés  du  produit  de  convolution,  Produit  de 
convolution et impulsion de Dirac, Déconvolution. 

Chapitre 5 : Corrélation des signaux 2 semaines


Inter‐corrélation  entre  les  signaux,  Auto‐corrélation,  Propriétés  de  la  fonction  de 
corrélation, Cas des signaux périodiques. 

Chapitre 6 : Echantillonnage et Signaux discrets 3 semaines


Signaux  discrets,  Echantillonnage  réel,  Echantillonnage  idéalisé,  Théorème 
d’échantillonnage, Transformée en Z. 
 

Mode d’évaluation :
Contrôle continu : 40 % ;   Examen final : 60 %. 

iv 
 
Table des matières

Avant-Propos……………………..……………………………………………………. iii
Programme……………………………………………………………………………….. iv

CHAPITRE I
GENERALITES SUR LES SIGNAUX

Introduction……………………….……………………………………………….………. 01
1. De la théorie du signal au traitement du signal……………………………………….. 02
2. Signal et bruit ……………………….………………………………………..………... 04
2.1. Définition d’un signal ……………………..………………………….……...… 04
2.1. Définition d’un bruit ……………………..………………………….……...… 04
3. Principales fonctions du traitement de signal…………..………..…………. …………. 05
4. Domaines d’applications……………………………………………………………….. 06
5. Modèles et mesure des signaux………………………………………………………… 07
5.1. Modèle mathématique…………………………………………………………... 07
5.2. Modèle fonctionnel……………………………………………………………... 07
6. Classification des signaux……………………………………………………………… 08
6.1. Dimensionnalité………………..………………………………………………. 08
6.2. Caractéristique temporelles....……..……………………………………………. 09
6.3. Valeurs prises par le signal………...……………………………………………. 10
6.4. Prédictibilité des signaux………………………………………………………... 10
6.5. Signaux physiquement réalisables………………………………………………. 10
7. Modes de classification………………………………………………………………… 11
7.1. Classification phénoménologique………………………………………………. 11
7.2. Classification énergétique……………………………………………………….. 11
7.3. Classification morphologique…………………………………………………… 12
7.4. Classification spectrale…………………………………………………………. 13
7.5. Classification dimensionnelle…………………………………………………… 14
Table de matières

8. Classification phénoménologique .................................................................................... 14


8.1. Signaux déterministes……………………………………………...……………. 14
8.2. Signaux aléatoires…….…………………………………………………………. 16
9. Processus aléatoire……………….................................................................................... 17
9.1. Caractéristiques………………………………………………………………… 17
9.1.1. La fonction de répartition……………………………………………... 18
9.1.2. La densité de probabilité……………………………………………… 18
9.1.3. Espérance mathématique……………………………….…………….. 18
9.1.4. Les moyennes…………………………………………………………. 19
9.2. Processus aléatoire complexe…………………………………...……………… 20
9.3. Stationnarité……………………………………………………………………. 21
9.3.1. Processus strictement stationnaire (au sens strict)…………………… 21
9.3.2. Processus faiblement stationnaire (au sens large)……………………. 22
9.4. Ergodicité………………………………………………………………………... 22
10. Signaux et Systèmes…………………………………………………………………… 23
11. Fonctions particulières………………………………………………………………… 23
11.1. Fonction impulsion de Dirac………………………………………………….. 23
11.2. Fonction signe…………………………………………………………………. 25
11.3. Fonction saut unité (ou Echelon)……………………………………………… 25
11.4. Fonction rampe………………………………………………………………… 25
11.5. Fonction porte…………………………………………………………………. 26
11.6. Fonction triangulaire…………………………………………………………... 26
11.7. Fonction sinus cardinal………………………………………………………… 27
12. Notions de puissance et d’énergie……………………………………………………... 27
12.1. Energie d’un signal……………………………………………………………. 27
12.2. Puissance moyenne d’un signal……………………………………………….. 27
12.3. Signaux à énergie finie…………………………………………………...……. 28
12.4. Signaux à puissance moyenne finie…………………………………………… 28

vi
Table de matières

CHAPITRE II
ANALYSE DE FOURIER

Introduction…………………………………………………………….………………….. 29
1. Les séries de Fourier ………………………………………………………………. 29
1.1. Série de Fourier complexe………………………………………………………. 29
1.2. Spectre fréquentiel…………………………………………...…………...…...... 30
1.3. Exemple : décomposition d'un train d'impulsions…………………….………… 30
1.4. Séries de Fourier réelles…………………………………………………………. 32
1.5. Séries de Fourier alternative…………………………………………………….. 33
1.6. Développement d’une fonction périodique en série de Fourier………………… 34
1.6.1. Série d’exponentielles imaginaires…………………………..………. 34
1.6.2. Série de sinus et de cosinus…………………………………………… 34
1.6.3. Egalité de Bessel–Parseval…………………………………………… 34
1.7. Développement d’une fonction de support fermé………………………………. 34
1.7.1. Exemple……………………………………………………………… 34
1.7.2. Fonction spatiale et temporelle……………………………………… 35
2. La transformation de Fourier………………………………………………………….. 35
2.1. Transformation de Fourier : définition…………………………………………. 35
2.2. Spectre d'amplitude et spectre de phase………………………………………… 36
2.3. Exemple…………………………………………………………………………. 36
2.4. Fonction de transfert…………………………………………………………….. 38
2.5. Principales propriétés de la transformée de Fourier……………………………. 40
2.6. Théorème de Parseval………………………………………………………….. 41
2.6.1. Energie, Valeur efficace par la série de Fourier – Formule de Paseval 41

vii
Table de matières

CHAPITRE III
TRANSFORMEE DE LAPLACE

Introduction……………………………………………………..……………………….... 45
1. Transformée de Laplace………………………………………………………………… 45
1.1. Définition………………………………………………………………………… 45
1.2. Ordre exponentiel………………………………………………………………… 46
1.3. Existence de la Transformation de Laplace……………………………………… 46
1.4. Unicité de la Transformation de Laplace………………………………………... 46
1.4.1. Transformée Bilatérale………….……………………………………... 46
1.5. Transformation de Laplace Inverse………………………………………………. 46
2. Propriétés de la Transformée de Laplace……………………………………………….. 47
3. Fonctions particulières…………………………………………………………………... 48
4. Méthode de Laplace (Calcul opérationnel)………………….…………………………. 50
5. Modélisation……………………………………………………………………………. 53
6. Transformées usuelles………………………………………………………………….. 54
7. Fonction de transfert……………………………………………………………………. 55
8. Opérations sur les transferts……………………………………………………………. 55
9. Diagramme de Bode……………………………………………………………………. 56
10. Plan de Nyquist – Abaque de Hall…………………………………………………… 56
11. Plan de Black (Nichols) – Abaque de Black…………………………………………. 57
12. Analyse temporelle et fréquentielle………………………………………………….. 57

CHAPITRE IV
PRODUIT DE CONVOLUTION
ET CORRELATION DES SIGNAUX

Introduction………………………………………………………………………………... 63
1. Produit de convolution ………………………………...…………………..………….... 63
1.1. Formulation du produit de convolution .……………………………..………….... 63
1.1.1. Définition du produit de convolution……………………………………... 64

viii
Table de matières

1.2. Propriétés du produit de convolution………………………………...…….…….. 65


1.3. Produit de convolution et impulsion de Dirac …………………...……………….. 65
1.4. Déconvolution ……………...………………………..…………………………... 66
2. Fonction de corrélation……………………………..…………………………………... 66
2.1. Fonction d’auto-corrélation ………..….……………………………………...…... 67
2.1.1. Fonction d’auto-corrélation statistique………...…………………………… 67
2.1.2. Fonction d’auto-corrélation temporelle………...…………...……………… 67
2.1.3. Propriétés de la fonction d’auto-corrélation………………………………… 67
2.1.4. Théorème de PARSEVAL………………………………………………….. 69
2.2. Fonction d’inter-corrélation ………..….……………………………………...…... 69
2.2.1. Fonction d’inter-corrélation statistique………...…………………………… 69
2.2.2. Fonction d’inter-corrélation temporelle………...…………...……………… 69
2.2.3. Propriétés de la fonction d’inter-corrélation…...…………………………… 69
2.3. Coefficient de corrélation…………………………………………………………. 70
2.3.1. Corrélation partielle………………………………………………………... 70
2.4. Théorème de Wiener- Kinchine………………………………………………….. 71

CHAPITRE V
ECHANTILLONNAGE ET SIGNAUX DISCRETS 

Introduction………………………………………………………………………………... 72
1. Signaux discrets ……………………….……..……………………………………….... 73
1.1. Signaux élémentaires……………………………………………………………… 73
1.2. Energie et puissance des signaux discrets………………………………………… 74
2. Echantillonnage………………………………………………………………………... 74
3. Echantillonnage idéalisé……………………………………………………………….. 75
4. Echantillonnage réel ………………..………………………………………….…….. 76
5. Théorème d’échantillonnage ...…………………………..…………………………... 76
6. Conversion analogique - numérique et numérique – analogique……………………… 77
7. Quantification………………………………………………………………………….. 79
8. Classification des systèmes de traitement…………………………………………….. 79
8.1.Systèmes numériques……………………………………………………………… 79

ix
Table de matières

8.2. Systèmes causaux……………………………………………...………………….. 80


8.3. Systèmes stables……………………..……………………………………...…….. 80
8.4.Systèmes linéaires………………………………………………………………..... 80
8.5. Systèmes linéaires discrets invariants dans le temps (SLIT)…………………….. 80
9. Equation aux différences……………………………………………………………… 81
9.1.Equation aux différences linéaire à coefficients constants………………………... 82
9.2.Réponse impulsionnelle et produit de convolution……………………………….. 82
9.3. Réponse fréquentielle…………………………………………………………….. 82
10. Transformée en Z……………………………………………………………………. 83
10.1. Existence de la transformée en Z……………………………………………….. 84
10.2. Transformée en z des signaux élémentaires……………………………………. 84
10.3. Quelques propriétés de la transformée en Z…………………………………… 85
10.4. Application à la fonction de transfert en Z……………………………………... 86
10.5. Calcul des réponses temporelles et fréquentielles d’un processus discret….….. 86
10.6. Transformée en Z inverse………………………………………………………. 87

Travaux dirigés
Bibliographie et Webographie

x
CHAPITRE I

GENERALITES SUR LES SIGNAUX


 

Introduction

Le traitement du signal est une discipline technique qui a pour objet l'élaboration, la détection
et l'interprétation des signaux porteurs d'informations. Cette discipline s'appuie sur la théorie du
signal qui donne une description mathématique des signaux. Cette théorie fait essentiellement
appel à l'algèbre linéaire, l'analyse fonctionnelle, l’électricité et l’étude des processus aléatoires.

Historiquement, le traitement des signaux apparaît au début du XXième siècle, en même


temps que l'électronique (FLEMING, 1905, détection et amplification de signaux faible). On peut
cependant noter des premiers travaux au XIXième avec l’invention du télégraphe électrique
(MORSE, COOKE, WHEATSTONE, 1830), du téléphone (BELL, 1876) et de la radio
(MARCONI, POPOV, 1895).
La théorie du signal apparaît en 1930 avec les premiers travaux de WIENER et KINTCHINE
sur les processus aléatoires, et ceux de NYQUIST et HARTLEY sur la quantité d’informations
transmise sur un envoie télégraphique. Les contributions essentielles, au traitement du signal et à
la théorie du signal n’interviennent qu’après la seconde guerre mondiale. Invention du transistor
en 1948, travaux de SHANNON sur la communication, de WIENER sur le filtrage optimal et de
SCHWARTZ sur les distributions.
Le traitement du signal est devenu une science incontournable de nos jours : toutes
applications de mesures, de traitement d’information mettent en œuvre des techniques de
traitement sur le signal pour extraire l’information désirée. Initialement destiné à extraire le
signal dans un bruit lors de mesures (capteurs), le traitement du signal est largement appliqué en
télécommunication dans des applications diverses et variées. Nous pouvons citer :

- La protection d’information contre le bruit tel que les techniques pour réduire le taux
d’erreur ou pour contrer les effets du canal (technique d’égalisation).
Chapitre I Généralités sur les Signaux
 
 
- Le développement d’applications électroniques et l’évolution aisée vers de nouvelles
fonctionnalités telles que le filtrage sélectif, la mise en place de techniques variées de
modulation/démodulation, …

L'amélioration des performances des systèmes au cours des dernières années est due, pour une
grand part, à l'application des techniques de traitement du signal. C'est le cas notamment en
imagerie médicale, en téléphonie et télécommunication. Les structures matérielles sont
sensiblement les mêmes, mais les techniques de traitement de signal font appel à des traitements
numériques sophistiqués. Les implications en ce qui concerne un diagnostic médical, la
surveillance d'une zone aérienne ou sous-marine ou encore la localisation de pannes sont
immédiates. L'objectif du traitement du signal apparait alors comme un outil mathématique
employé pour extraire un maximum d'informations utiles sur un signal perturbé par du bruit. Les
signaux utiles sont souvent perturbés par des signaux parasites (le bruit) qui les masquent parfois
complètement. Pour atténuer, sinon supprimer ce bruit il faut en connaître les caractéristiques
ainsi que celles du signal utile. C'est pourquoi le traitement du signal est une discipline très
mathématique. Les techniques utilisées peuvent être appliquées à un signal analogique (continu)
mais compte tenu de leur complexité, un traitement numérique s'impose presque toujours. Il est
rendu possible grâce à la puissance des circuits de calculs et des ordinateurs modernes.

1. De la théorie du signal au traitement du signal

Les mots signal et information sont communs dans le langage courant. Dans le monde
scientifique, ces mots ont des significations bien précises : en particulier, théorie de
l’information, théorie du signal et traitement du signal correspondent à des notions différentes,
illustrées à la figure 1.1 dans le cadre d’une chaîne de communications. De façon encore plus
générale :

9 La théorie du signal représente l'ensemble des outils mathématiques décrivant les signaux
et les bruits émis par une source ou modifiés par un système de traitement, notamment : la
transformée de Fourier (TF), Analyse fonctionnelle, Analyse statistique et Méthode d’estimation
et qui permet de décrire les signaux et les bruits émis par une source, ou modifiés par un système
de traitement (figure 1.1). La théorie du signal a pour objectif fondamental la description
mathématique des signaux. Elle permet ainsi d'établir une représentation d'un signal en fonction


 
Chapitre I Généralités sur les Signaux
 
 
du temps ou de l'espace contenant une information à stocker, à transformer, à transmettre ou à
recevoir. La théorie du signal ne préjuge pas de la nature physique du signal,
9 La théorie de l’information est l’ensemble des outils mathématiques qui permet de décrire
la transmission de messages véhiculés d’une source vers un destinataire,
9 Le traitement du signal est l’ensemble des méthodes et des algorithmes qui permet
d’élaborer ou d’interpréter les signaux porteurs d’information. Plus précisément :
- élaboration : synthèse, analyse, régénération, codage, modulation, identification,
changement de fréquence,
- interprétation : décodage, démodulation, filtrage, détection, identification, mesure, etc.

Actuellement, les méthodes de traitement sont presqu’en totalité numériques, ce qui suppose :

- un échantillonnage temporel, et une représentation des signaux en temps discret,


- la numérisation du signal par conversion analogique/numérique, ce qui implique une
quantification du signal.
Théorie de l’information

 Canal  
Capteur  Destinataire   
Source  Emetteur  Récepteur   Décodeur   / Traitement  
/Codeur 
Systèmes physique 
Bruit 
Information utile 
+ Bruit résiduel 
Théorie du signal
Figure 1.1. Théorie de l’information et du signal dans une chaîne de transmission d’un signal analogique.

La théorie du signal fournit la description et les outils mathématiques (ou modélisation)


nécessaires pour manipuler des signaux déterministes ou aléatoires, c’est-à-dire les décrire, les
caractériser et les comparer. Elle fournit les moyens de mettre en évidence, sous forme
mathématique commode, les principales caractéristiques d’un signal : la distribution spectrale
de son énergie ou la distribution statistique de son amplitude par exemple, la classification des
signaux et leur description dans des espaces vectoriels, dits espaces de Hilbert. Le traitement des
signaux est la discipline technique qui, s’appuyant sur la théorie du signal et de l’information,
les ressources de l’électronique, de l’informatique et de la physique appliquée, a pour objet
l’élaboration ou l’interprétation des signaux porteurs d’information. Elle trouve son application


 
Chapitre I Généralités sur les Signaux
 
 
dans tous les domaines concernés par la perception, la transmission ou l’exploitation de ces
informations, dès qu’un capteur mesure une grandeur physique porteuse d’information, qui est
perturbée (par du bruit ou le système de mesures) et qui devra être traitée pour en extraire
l’information utile. Les méthodes de traitement du signal permettent d’imaginer des méthodes
plus sûres, plus fiables, plus rapides pour analyser et transmettre des signaux. Elle offre
également les moyens d’analyser la nature des altérations ou modifications subies par les
signaux lors de leur passage au travers de blocs fonctionnels (dispositifs généralement
électriques ou électroniques).La description mathématique des signaux permet de concevoir et de
caractériser des systèmes de traitement de l'information. Le bruit représentera tout « signal » ou
phénomène perturbateur.

2. Signal et bruit
2.1. Définition d’un Signal : vient du latin signum : signe ; variation d’une grandeur physique de
nature quelconque porteuse d’information.

Un signal est donc la représentation physique de l’information qu’il convoie de sa source à sa


destination. Sa nature physique peut être très variable : acoustique, électronique, optique, etc. Il
constitue une manifestation physique d’une grandeur mesurable (courant, tension, force,
température, pression….). Les signaux considérés dans ce cours sont des signaux dépendants du
temps obtenus à l’aide de capteurs. La théorie du signal reste valable quelle que soit la nature
physique du signal.

Le mot signal est pratiquement toujours associé au mot bruit. Ce dernier est utilisé dans le
langage commun, mais il revêt, dans la théorie du signal, un sens bien particulier. On parle par
exemple de : signal électrique (téléphonie), onde électromagnétique (télécommunication), onde
acoustique (sonar), onde lumineuse (fibre optique), signal binaire (ordinateur). On parle
également de signal de mesure, de commande, de signaux vidéo, audio, etc...en fonction de la
nature de l'information transmise.

2.2. Définition d’un Bruit : vient du latin populaire brugere : braire et rugire : rugir ;
perturbation indésirable qui se superpose au signal et aux données utiles, dans un canal de
transmission ou dans un système de traitement de l’information et gênant la perception de ce
signal.


 
Chapitre I Généralités sur les Signaux
 
 
Un bruit correspond à tout phénomène perturbateur gênant la transmission ou l'interprétation d'un
signal.

- Rapport signal sur bruit

Le rapport signal sur bruit mesure la quantité de bruit contenue dans le signal. Il s'exprime par le
rapport des puissances du signal (PS) et du bruit (PB). Il est souvent donné en décibels (dB).

; 10 (1.1)

Où log est le logarithme décimal.

Ainsi, il apparaît évident qu’un problème fondamental en traitement du signal sera d’extraire le
signal utile du bruit. La difficulté du problème dépend en particulier de la proportion entre signal
et bruit. Ceci est mesuré par le rapport signal à bruit (RSB, ou SNR en anglais pour Signal to
Noise Ratio).

Le RSB mesure donc la qualité du signal. C’est une mesure objective. Cependant, dans de
nombreux cas, en particulier ceux où l’opérateur humain intervient dans la chaîne de traitement,
cette mesure n’est pas très significative. Ceci est particulièrement vrai pour les signaux audio ou
les images et les vidéos. Des mesures subjectives, ou des mesures plus fines, prenant en compte
les propriétés de la perception humaine doivent être mises en œuvre.

3. Principales fonctions du traitement de signal

Les principales fonctions du traitement de signal sont :

· L’analyse : On cherche à isoler les composantes essentielles d'un signal de forme complexe, afin
d'en mieux comprendre la nature et les origines.

· La mesure : mesurer un signal, en particulier aléatoire, c'est essayer d'estimer la valeur d'une
grandeur caractéristique qui lui est associée avec un certain degré de confiance.

· Le filtrage : c'est une fonction qui consiste à éliminer certaines composantes indésirables du
signal.

· La régénération : c'est une opération par laquelle on tente de redonner sa forme initiale à un
signal ayant subis diverses distorsions.


 
Chapitre I Généralités sur les Signaux
 
 
· La détection : par cette opération on tente d'extraire un signal utile du bruit de fond qui lui est
superposé.

· L’identification : c'est un procédé souvent complémentaire qui permet d'effectuer un classement


du signal observé.

· La synthèse : opération inverse de l'analyse, consiste à créer un signal de forme appropriée en


procédant, par exemple, à une combinaison de signaux élémentaires.

· Le codage : outre sa fonction de traduction en langage numérique, est utilisé soit pour lutter
contre le bruit de fond, soit pour tenter de réaliser des économies de largeur de bande ou de
mémoire d'ordinateur.

· La modulation et le changement de fréquence : sont essentiellement des moyens permettant


d'adapter un signal aux caractéristiques fréquentielles d'une voie de transmission, d'un filtre
d'analyse ou d'un rapport d'enregistrement.

4. Domaines d'applications

Télécommunications, Téléphonie, Radar, Sonar, Traitement d'images, Astronomie,


Géophysique, Automatique, Technique de mesures, Etude de vibrations mécaniques, Surveillance
de processus industriels, Acoustique, Reconnaissance de formes, Analyses biomédicales, etc.

ƒ Dans les télécommunications : que ce soit dans le domaine de la téléphonie ou dans le


transfert de données numériques terrestre ou via satellite, la compression des données est
primordiale pour exploiter au mieux la bande passante disponible, et minimiser les pertes. La
suppression d'échos est un autre domaine d'application.
ƒ En audio : on cherche à améliorer les techniques d'enregistrement et de compression pour
obtenir la plus grande qualité sonore possible. Les techniques de correction d'écho permettent de
réduire les effets de réflexions acoustiques dans la pièce. Le traitement du son s'est largement
amélioré grâce aux ordinateurs. La synthèse sonore permet en outre de créer des sons artificiels
ou de recréer les sons d'instruments naturels. Elle a été à l'origine de nombreux bouleversements
en musique.
ƒ L'analyse des échos permet d'obtenir des informations sur le milieu sur lequel les ondes se
sont réfléchies. Cette technique est exploitée dans le domaine de l'imagerie du radar ou du sonar.
En géophysique, en analysant les réflexions d'ondes acoustiques, on peut déterminer l'épaisseur et


 
Chapitre I Généralités sur les Signaux
 
 
la nature des strates du sous-sol. Cette technique est utilisée dans le domaine de la prospection
minière et dans la prédiction des tremblements de terre.
ƒ En imagerie : on trouve des applications dans le domaine médical (reconstruction
tomographique, imagerie par résonance magnétique - IRM), dans le spatial (traitement de photos
satellites ou d'images radar). Ce domaine inclut aussi les techniques de reconnaissance de formes
et de compressions.
ƒ Le traitement de séquences vidéo concerne la compression, la restauration, la réalisation
d'effets spéciaux, l'extraction de descripteurs (reconnaissance de formes et textures, suivi de
mouvements, caractérisation etc.) afin de produire des annotations automatiques dans une
perspective de bases de données (recherche par le contenu).
ƒ On peut aussi citer quelques domaines d’applications du traitement du signal :
Techniques de mesures, Etude des vibrations mécaniques, Surveillances de processus industriels,
Reconnaissance de formes, Analyses biomédicales, Géophysique, Séismologie, Astronomie,
Radar, Sonar, Acoustique, etc …
5. Modèles et mesure des signaux
5.1. Modèle mathématique

Le modèle mathématique d’un signal est une fonction d’une, deux ou trois variables : x(t) ;
x(i, j); x(i, j, t). Le premier cas est le plus courant : la variable t est usuellement le temps mais elle
peut aussi représenter une autre grandeur (une distance par exemple). La fonction représente
l’évolution d’une grandeur électrique ou traduite sous cette forme par un capteur approprié :
microphone : signal acoustique, caméra : signal vidéo…

5.2. Modèle fonctionnel

On appelle fonctionnelle une règle de correspondance entre un ensemble de nombres réels ou


complexes. En d’autre termes, une fonctionnelle est une fonction de fonctions. Les signaux
résultant d’un traitement ou certains de leurs paramètres sont souvent exprimés par des relations
fonctionnelles. Par exemple :

ƒ Valeur intégrale pondérée (fonction de pondération g(t))

  . (1.2)

ƒ Valeur intégrale quadratique pondérée


 
Chapitre I Généralités sur les Signaux
 
 
  . (1.3)

ƒ Produit de convolution

     (1.4)

ƒ Produit scalaire (évalué sur l’intervalle T)

,   . (1.5)

ƒ Transformée de Fourier

. (1.6)

6. Classifications des signaux

On rappelle qu’un signal est une fonction dépendant d’une ou de plusieurs variables. Par
exemple soit le signal : s(t), s est une quantité dépendant d’un paramètre t (par convention, on
utilisera la lettre t pour la variable temps).

Un signal peut être classé selon différents critères : sa dimensionnalité, ses caractéristiques
temporelles, les valeurs qu’il peut prendre, sa prédictibilité.

6.1. Dimensionnalité
On peut tenir compte de ce critère de deux manières différentes : la dimension du signal et les
dimensions des variables du signal.

Considérons tout d’abord ce critère de classification comme étant la dimension de l’espace des
valeurs prises par le signal (ou la fonction mathématique modélisant le signal). On distingue
alors:

– le signal scalaire, ou signal monocanal pouvant prendre des valeurs réelles ou complexes.

– le signal vectoriel, ou signal multi-canal pouvant prendre des valeurs réelles ou complexes.

Prenons par exemple un signal de Télévision (TV). Si on s’intéresse aux trois couleurs
constituant une image, ce signal TV prend des valeurs dans un espace à trois dimensions, une
première pour le rouge, une seconde pour le vert et enfin une troisième pour le bleu ;

[R; V;B] = TV (t).


 
Chapitre I Généralités sur les Signaux
 
 
Par contre, si on s’intéressé maintenant à la luminance, ce signal prend ses valeurs dans un espace
à une dimension ; [L] = TV (t).

On peut aussi considérer ce critère de classification comme la dimension du domaine de la


fonction signal, c’est-à-dire, le nombre d’arguments pris par cette fonction. On distingue alors :

– Le signal mono-dimensionnel qui correspond à des fonctions à un seul argument, comme par
exemple le temps.

– Le signal multi-dimensionnel qui correspond à des fonctions à plusieurs arguments.

Le signal TV correspondant à la luminance peut être fonction du temps mais aussi des variables
cartésiennes correspondant à un point de l’écran ; [I] = TV (t; x; y). Il s’agit d’un signal
tridimensionnel.

Les signaux abordés dans ce cours seront mono-dimensionnels fonction d’une variable que
l’on considérera comme le temps. Toutes les techniques de traitement du signal se généralisent
assez bien aux signaux vectoriels et multidimensionnels (voir le cours sur le traitement
d’images).

6.2. Caractéristiques temporelles

On suppose un signal scalaire s(t). On distingue alors :

- Les signaux à temps continu ou signaux analogiques. La variable t  . On notera un signal


analogique de la façon suivante : sa(t).

- Les signaux à temps discret : ces signaux sont définis pour certaines valeurs de la variable t.

On peut représenter un signal à temps discret par une séquence indicée de la variable t :

, n … 0,‐2,‐1,0,1,2,….. (1.7)

tn précise un instant pour lequel le signal est défini. Attention, cela ne veut pas dire que le signal
est nul entre deux instants ; il n’est tout simplement pas défini.

On s’intéressera ici à une répartition uniforme des instants tn que l’on peut noter tn = nT où T est
l’espace temporel entre deux échantillons consécutifs. On peut alors employer s(n) ou sn comme
notation simplifiée. On a alors les relations suivantes :

    (1.8)

 
Chapitre I Généralités sur les Signaux
 
 
6.3. Valeurs prises par le signal

On suppose un signal scalaire s(t). On distingue alors :

– Les signaux à valeurs continues pouvant prendre une valeur réelle dans un intervalle continue
(par exemple, une tension ou un courant électrique).

– Les signaux à valeurs discrètes prenant seulement des valeurs parmi un ensemble fini de
valeurs possibles.

Un signal numérique est un signal à temps discret et à valeurs discrètes. L’opération de


discrétisation des valeurs continues d’un signal en valeurs discrètes est une quantification, notée
q par la suite.

Soit par exemple un convertisseur Analogique/Numérique traitant des mots de 8 bits ; un signal
quantifié par ce convertisseur prendra une valeur discrète parmi 256 possibles.

6.4. Prédictibilité des signaux

On peut distinguer deux grandes classes de signaux selon leur caractère de prédictibilité.

– Les signaux déterministes qui peuvent être représentés explicitement par une fonction
mathématique.

– Les signaux aléatoires qui évoluent dans le temps d’une manière imprédictible. Il est cependant
possible de décrire mathématiquement certaines caractéristiques statistiques de ces signaux.

On s’intéressera dans ce cours essentiellement aux signaux déterministes.

6.5. Signaux physiquement réalisables


Un signal expérimental est l’image d’un processus physique et, pour cette raison, doit être
physiquement réalisable. Il est ainsi soumis à toute une série de contraintes :
- Son énergie ne peut être que bornée,
- Son amplitude est une fonction continue,
- Le spectre du signal est lui aussi nécessairement borné et doit tendre vers zéro lorsque la
fréquence tend vers l’infini.

10 
 
Chapitre I Généralités sur les Signaux
 
 
7. Modes de classification

Différents modes de classification des signaux peuvent être envisagés :

- Une classification phénoménologique de la forme y = g (t ) où la variable libre est le temps ;

- Une classification spectrale de la forme Y = G ( f ) où la variable libre est la fréquence ;

- Une classification énergétique : une distinction fondamentale peut être faite entre deux
catégories de signaux :
ƒ Les signaux à énergie finie ;
ƒ Les signaux à puissance moyenne finie non nulle ;

- Une classification morphologique ; selon le caractère continu ou discret de l’amplitude et de


la variable libre ;

- Classification dimensionnelle ; On considère les signaux unidimensionnels S (t ) , les signaux


bidimensionnels -ou image- S ( x, y ) , voire les signaux tridimensionnels S ( x, y , t ) représentant
par exemple l’évolution d’une image en fonction du temps.

7.1. Classification phénoménologique

On met ainsi en évidence le type d’évolution du signal. Il peut être à caractère prédéterminé ou il
a un comportement non prévisible.

Un signal déterministe est un signal dont l’évolution en fonction du temps peut être parfaitement
prédite par un modèle mathématique approprié.

Au contraire, la plupart des signaux d’origine physique ont un caractère non reproductible. Les
signaux porteurs d’information (signaux de parole, d’image,…) présentent une certaine
imprévisibilité, ils seront modélisés par des signaux aléatoires.

7.2. Classification énergétique

On distingue ici les signaux satisfaisant à un condition d’énergie finie à ceux présentant une
puissance moyenne finie et une énergie infinie.

On appellera énergie totale d’un signal x(t) la quantité :

| | (1.9)

11 
 
Chapitre I Généralités sur les Signaux
 
 

et puissance moyenne sur tous les temps de x(t) la quantité :

∞     | | (1.10)

La première catégorie comprend les signaux de type transitoire qu’ils soient déterministes ou
aléatoires (exemple une impulsion carré ou gaussienne) et la deuxième catégorie englobe les
signaux de type permanent, périodique, déterministe et les signaux aléatoires permanents.

7.3. Classification morphologique

Selon que le signal x(t) où la variable t est continue ou discrète ( tk =kT ) on distingue quatre
types de signaux (figure 1.2) :

• Le signal continu en amplitude et en temps appelé couramment signal analogique.

• Le signal à amplitude discrète et temps continu appelé signal quantifié.

• Le signal à amplitude continue et temps discret appelé signal échantillonné.

• Le signal discret en amplitude et en temps appelé signal numérique.

Figure 1.2. Classification morphologique.

12 
 
Chapitre I Généralités sur les Signaux
 
 

7.4. Classification spectrale

L'analyse spectrale d'un signal (ou la répartition énergétique en fonction de la fréquence) conduit
à une classification :

• Signaux de basses fréquences.


• Signaux de hautes fréquences.
• Signaux à bande étroite.
• Signaux à large bande.

La largeur de bande B d'un signal est le domaine principale des fréquences occupés par son
spectre. Elle est définie par la relation : f2 - f1 avec 0 ≤ f1 < f2, où f1 et f2 sont des fréquences
caractéristiques dénotant respectivement les limites inférieure et supérieure prises en compte.

Un signal dont le spectre est nul en dehors d'une bande de fréquences spécifiée B est appelé
signal à bande limité ou de spectre à support borné. On distingue aussi :

• Signaux de durée finie

Les signaux dont l'amplitude s'annule en dehors d'un intervalle de temps T, x(t) = 0 pour t ∉T
sont appelés signaux de durée limitée ou à support borné.

• Signaux bornée en amplitude

C'est le cas de tous les signaux physiquement réalisable pour lesquels l'amplitude ne peut pas
dépasser une certaine valeur limite, souvent imposée par des dispositifs électronique de
traitement.

• Signaux pairs et impairs

Un signal est pair si x(t) = x(-t); il est impair si : x(t) = - x(-t). Ce qui implique que tout signal réel
peut être décomposé en une partie paire et une partie impaire : x(t) = xp (t) + xi (t).

• Signaux causaux

13 
 
Chapitre I Généralités sur les Signaux
 
 
Un signal est dit causal s'il est nul pour toute valeur négative du temps: x(t) ≡ 0 pour t<0.

• Durée d’un signal

Un signal est de durée finie s’ il est nul en dehors d’un certain intervalle : 0, . Ces
signaux sont appelés signaux de durée limitée ou à support borné.

7.5. Classification dimensionnelle

On considère les signaux unidimensionnels S (t ) , les signaux bidimensionnels -ou image- S ( x, y ) ,


voire les signaux tridimensionnels S ( x, y , t ) représentant par exemple l’évolution d’une image
en fonction du temps.
8. Classification phénoménologique  

La première classification (figure 1.3) est obtenue en considérant la nature profonde de


l’évolution en fonction du temps. On peut d’ores et déjà les classer en deux grandes catégories :
les signaux déterministes et les signaux aléatoires.

  Signaux

 
Déterministes  Aléatoires 
 

Périodiques  Non périodiques  Stationnaires  Non stationnaires 


 

Périodiques  Pseudo  Quasi  Non  Classification 


Sinusoïdaux   Transitoires  Ergodiques   ergodiques  
composites  aléatoires  périodiques  spéciale   

Figure 1.3. Classification phénoménologique

8.1. Signaux déterministes  

14 
 
Chapitre I Généralités sur les Signaux
 
 
Ils sont des signaux dont l’évolution, en fonction de la variable indépendante, peut être
prédite parfaitement par une représentation mathématique appropriée. Ils sont classés comme
suit :
‐    Les signaux périodiques, satisfaisant à la relation : 

S (t ) = S (t + kT ) ∀ t et T constante (T : appelée période et k : entier)                                  (1.11) 

Qui obéissent à une loi de répartition cyclique de période  T ;  

‐    Les signaux non périodiques, qui ne jouissent pas de cette propriété.

Dans la classe des signaux périodiques, on trouve :

‐    Les signaux sinusoïdaux (figure 1.4) d’équation générale : 

S (t ) = A sin (2πft + ϕ )                                                                                                                                            (1.12) 

Qui forment le groupe le plus familier des signaux périodiques ; 
‐    Les signaux périodiques composites (figure 1.3), d’équation générale : 

S (t ) = ∑ [a n sin (n 2πft ) + bn cos(n2πft )]                                                                                                        (1.13) 


n

- Les signaux pseudo‐aléatoires, sont des signaux périodiques; mais sur un période, ils se 
comportent comme des signaux aléatoires. (figure 1.5). 
Dans la deuxième classe, celle signaux non périodiques, on trouve :  

- Les signaux quasi‐périodiques (figure 1.6), d’équation générale : 
S (t ) = ∑ sin (ω i t + ϕ i )                                                                                                                                           (1.14) 
i

Qui résultent d’une somme de sinusoïdes de périodes incommensurables ;

- Les signaux transitoires (figure 1.7), d’équation générale : 
S (t ) = e − at sin(ωt ) a réel                                                                                                                            (1.15) 

Qui sont définis seulement sur un intervalle (signaux à support borné). 

15 
 
Chapitre I Généralités sur les Signaux
 
 

Figure 1.3 Signal sinusoïdal   Figure 1.4. Signal périodique composite 

Figure 1.5 Signal pseudo‐aléatoire 
 

Figure 1.6. Signal quasi‐périodique  Figure 1.7. Signal transitoire 
 

8.2. Signaux aléatoires   

Il s’agit des signaux dont le modèle mathématique n’est pas connu, donc leur évolution en
fonction du temps est imprévisible. Leur description est sujette à des observations statistiques.
Ils obéissent à la loi du hasard, on les classe comme suit :

- les signaux aléatoires stationnaires, dont les caractéristiques statistiques sont invariantes dans
le temps ; (figure 1.8)
- les signaux aléatoires non stationnaires, qui ne jouissent pas de ces propriétés ; (figure 1.9)

Dans la classe des signaux aléatoires stationnaires, on trouve :

- Les signaux ergodiques, si dont les moyennes statistiques et temporelles sont identiques ;

- Les signaux non ergodiques, qui ne jouissent pas de cette propriété.

16 
 
Chapitre I Généralités sur les Signaux
 
 

 
Figure 1.8. Signal aléatoire stationnaire    
à large bande.  Figure 1.9. Signal aléatoire non stationnaire. 
 

9. Processus aléatoire   

Un processus aléatoire est une famille paramétrée de variables aléatoires, le résultat de


l’épreuve n’est pas un nombre, mais une fonction aléatoire de temps, dans le cas de plusieurs
paramètres, on parle de champ aléatoire. Mais on se limitera généralement au cas où une seule
variable S suffit.

Deux classes de processus se distinguent :

- Processus discret, dans lequel les valeurs possibles de la variable aléatoire sont discrètes.

- Processus continu, dans lequel les valeurs possibles de la variable aléatoire sont continues.

Les processus stochastiques ont pour but d’introduire la description des signaux aléatoires
porteurs d’informations à transmettre ou représentant des bruits générés par un phénomène
physique et essentiellement consacrés aux propriétés du second ordre qui sont généralement
décrites par la fonction de corrélation qui sera décrite par la suite.

9.1. Caractéristiques
En considérons k instants t1 ,..., tk on peut définir k variables aléatoires S (t1 ),..., S (tk ) dont la
description statistique passe pour la loi de probabilité (Fonction de répartition).
F ( S1 ,..., S k ; t1 ,..., tk ) = prob[ S (t1 ) ≤ S1 ,..., S (tk ) ≤ S k ; t1 ,..., tk ].                                                              (1.16) 

Où  S1 ,..., S k sont les états pris pour la variable  S (t )   aux instants  t1 ,..., tk il  s’agit‐  là  de  la 

statistique d’ordre k . 

17 
 
Chapitre I Généralités sur les Signaux
 
 
9.1.1. La fonction de répartition   

 La fonction de répartition  F ( Si ; ti )   est la probabilité d’obtenir par un prélèvement au 

hasard, une valeur inférieure ou égale à ( Si ; ti ) . 

La fonction de répartition s’exprime par :

F ( Si ; ti ) = prob[ S (ti ) ≤ Si ; ti ].                                                                                                                          (1.17) 

F ( S1 ; t1 ) = prob[ S (t1 ) ≤ S1 ; t1 ].                                                                                                                         (1.18) 

Pour le cas de statistique d’ordre 1, est : 

F ( S1 , S 2 ; t1 , t2 ) = prob[ S (t1 ) ≤ S1 , S (t2 ) ≤ S 2 ; t1 , t2 ].                                                                                  (1.19) 

Pour le cas de la statistique d’ordre 2 qui utilise un couple de variables aléatoires


S (t1 ), S (t 2 )  

9.1.2. La densité de probabilité


La densité de probabilité du signal S (t ) est par définition la dérivée de la fonction de
répartition

∂FS ( S i ; t1 )
PS ( S i ; t1 ) =                                                                                                                                        (1.20) 
∂S

9.1.3. Espérance mathématique


L’espérance mathématique ou moyenne  E [ S (t1 )] d’une variable aléatoire  S (t )  à l’instant 
t1 : 

+∞
E [ S (t1 )] = S (t1 ) = m(t1 ) = ∫ S P( S ; t )dS
−∞
1 1 1 1                                                                                                  (1.21) 

Cette définition est équivalente à celle de la moyenne d’ordre 1 et de degré 1. 

18 
 
Chapitre I Généralités sur les Signaux
 
 
 

9.1.4. Les moyennes  

Les moyennes d’une ou plusieurs variables aléatoires sont définies comme les espérances
mathématiques des différentes puissances de ces variables aléatoires. Il s’agit de moyennes
statistiques et temporelles.

- Moyennes statistiques (moments statistiques) :


La moyenne statistique de la variable aléatoire  S (t )  à un instant t1 , est définit par :  

S1 (t1 ) + S 2 (t1 ) + .... + S N (t1 ) 1 N


S (t1 ) = m(t1 ) = lim
N →∞ N
= lim
N → ∞ N
∑ S (t )
i =1
i 1                                                  (1.22) 

Elle caractérise la position de la courbe de distribution des résultats.

Considérons maintenant le couple de variables aléatoires S (t1 ) et S (t 2 ) . 

Le moment d’ordre 2 des variables S (t1 ) et S (t2 ) est appelé la fonction d’auto-corrélation

statistique (FAC) du processus S (t ) dénotée par ΓSS  : 

+∞ +∞
ΓSS (t1 , t 2 ) = E [ S (t1 ).S (t 2 )] = ∫ ∫ S S P( S , S ; t , t
−∞−∞
1 2 1 2 1 2 )dS1dS 2                                                                   (1.23) 

Dans le cas de deux processus aléatoires S (t ), Y (t ) , le moment d’ordre 2et de degré 1 est la

fonction d’inter corrélation (cross-corrélation) statistique dénotée par  ΓSY  : 

+∞ +∞
ΓSY (t1 , t 2 ) = E (t1 , t 2 ) = E [ S (t1 ).Y (t 2 )] = ∫ ∫ S Y P( S , Y ; t , t
−∞ −∞
1 2 1 2 1 2 )dS1dY2                                              (1.24) 

Remarque : La moyenne d’ordre n , d’une variable aléatoire  S (t )  supposée continue, à un instant


t1 , est définie par : 

+∞
mn (t1 ) = S n (t1 ) = ∫S P ( S1 ; t1 )dS1                                                                                                                  (1.25) 
n
1
−∞

19 
 
Chapitre I Généralités sur les Signaux
 
 
 

- Moyenne temporelle (moment temporel)


La moyenne temporelle  Si (t )  d’un échantillon  Si (t )  est donnée par la relation : 

T
+
2
1
Si (t ) = S (t ) = lim
T →∞ T ∫ S (t )dt                                                                                                                            (1.26) 
T

2

La  FAC,  qui  est  la  valeur  moyenne  temporelle  du  produit  de S (t )   par S (t + τ )   est 
donnée par : 
T
+
2
1
S (t ).S (t + τ) = lim
T →∞ T ∫ S (t ).S (t + τ)dt                                                                                                           (1.27) 
T

2

Dans  le  cas  de  deux  processus  aléatoires  S (t )   et Y (t ) ,  la  fonction  d’inter  corrélation 
(cross‐ corrélation) est donnée par la relation : 

T
+
2
1
S (t ).Y (t + τ) = lim
T →∞ T ∫ S (t ).Y (t + τ)dt                                                                                                          (1.28) 
T

2

τ : Écart temporel ou retard.

Remarque : Deux signaux ayant des amplitudes différentes peuvent présenter dans le même
intervalle de temps des moyennes temporelles identiques. 

9.2.  Processus aléatoire complexe   

Un processus aléatoire S (t ) à valeurs complexes est défini par la même manière que le
processus aléatoire réel que nous avons considéré précédemment, mais à deux dimensions
( R (t ) , I ( t ) ) comme suit :
S (t ) = R (t ) + jI (t )                                                                                                                                                 (1.29)                              

Nous obtenons pour le moment du premier ordre :


E [S ( t )] = E [R ( t ) ] + jE [I ( t )]                                                                                                                              (1.30)       

20 
 
Chapitre I Généralités sur les Signaux
 
 
                                             

Pour le moment du second ordre :                                                                                   

∀ t1 , t 2 :   ΓSS (t1 , t2 ) = ΓSS (t2 , t1 ) = E[ S (t1 ) S (t 2 )]                                                                                          (1.31)       

et                               

∀ t1 , t 2 :   ΓSS (t1 , t2 ) = E[ S (t1 ) S * (t2 )] = ΓSS


*
(t2 , t1 )                                                                                        (1.32)                              

Où :                                                                                                                               

ƒ S * (t2 )  : est le conjugué de  S (t2 ) ,  

ƒ ΓSS
*
(t1 , t2 )  : est le conjugué de ΓSS (t1 , t2 ) .   

La relation (1.32) correspond à la symétrie hermitienne  ΓSS (t1 , t 2 )  qui s’appelle la fonction

d’auto corrélation statistique du processus aléatoire à valeurs complexes.

De même les définitions de moments temporels s’entendent aux processus complexe.

Ainsi la fonction d’auto corrélation devient :

T
2
1
S * (t )S (t + τ ) = lim ∫ S (t )S (t + τ )dt
*
                                                                                                    (1.33) 
T →∞ T T

2

9.3. Stationnarité   

La notion de stationnarité joue un rôle essentiel dans l’étude des signaux aléatoires, on trouve :

9.3.1. Processus strictement stationnaire (au sens strict)  

Un signal aléatoire  S (t2 )  est strictement stationnaire si sa loi temporelle est invariante
àtout changement de l’origine du temps, cela peur s’exprimer par : 

F ( S1 ,..., S k ; t1 ,..., tk ) = F (S1 ,..., S k ; t1 + τ,..., t k + τ )                                                                                    (1.34) 

Pour tout k , tout  τ  et toute suite d’instants t1 ,..., t k . 

21 
 
Chapitre I Généralités sur les Signaux
 
 
 

9.3.2. Processus faiblement stationnaire (au sens large)   

Un signal faiblement stationnaire ou stationnaire de second ordre si seuls ses


caractéristiques probabilistes d’ordre 1 et d’ordre 2 sont invariantes pour tout changement de
l’origine des temps.

Dans ce cas on a : 

ƒ E [ S (t )] = Cte (Indépendant de  t ). 

ƒ
ΓSS (t1 , t2 ) = E[ S * (t1 ) S (t2 )] = E[ S * (t1 ) S (t1 + τ)] = ΓSS ( τ )  (Fonction  uniquement 

de τ = t 2 − t1 ). 

ƒ ΓSS ( τ) est continue à l’origine. 

Remarque :  

ƒ Un signal aléatoire stationnaire du second ordre est caractérisé par sa fonction de


corrélation
ƒ La fonction de corrélation d’un signal réel est paire puisque d’après la stationnarité de second
ordre
E [ S (t ) S (t − τ)] = E [ S (t + τ)S(t)]   

D’où :                                                                                                                                         

ΓSS ( τ ) = ΓSS ( − τ)                                                                                                                                          (1.35) 

9.4. Ergodicité  

Un processus est dit ergodique lorsque toutes ses moyennes temporelles (moments
temporels) sont identiques, on écrit :

S1 (t ) = S 2 (t ) = ... = S N (t )                                                                                                                         (1.36) 

Si le processus est stationnaire et ergodique :

E[ S (t )] = S (t )                                                                                                                                               (1.37) 

22 
 
Chapitre I Généralités sur les Signaux
 
 
Remarque : L’ergodicité et la stationnarité sont indépendantes. 

10. Signaux et Systèmes

Un système est une entité physique qui réalise une opération sur un signal. Un système définit
donc un signal d’entrée et un signal de sortie ; le signal de sortie correspond à la transformation
opérée par le système sur le signal d’entrée. Par exemple, l’oreille humaine est un système
transformant un signal correspondant à une variation de pression acoustique en des séquences
parallèles de signaux électriques sur le nerf auditif. Un microphone est un système un peu
analogue au précédent (en première approximation très réductrice...) dans la mesure où une
variation de pression acoustique est transformée en un signal électrique monodimensionnel.
L’étude de tels systèmes conduit à analyser les transformations entre signaux d’entrée et de sortie
pour des systèmes plus ou moins complexes ; cette activité est appelée traitement du signal. On
ne parlera ici que du traitement des signaux numériques.

11. Fonctions particulières


11.1. Impulsion de Dirac

L'impulsion de Dirac δ(t) (figure 1.10), aussi appelée impulsion unité ou distribution delta, est
définie par le produit scalaire :

0 , (1.38) 

d'une manière générale :

(1.39)

en particulier, en posant x(t) = 1, on obtient

1 (1.40)

Figure 1.10. Impulsion de Dirac

23 
 
Chapitre I Généralités sur les Signaux
 
 

Propriétés :

• Soit x(t) une fonction continue en t = 0 ou t = t0

. 0 .

. .

• Identité :

• Translation :

• Changement de variable :

| | avec en particulier, si w = 2πf

1
2

• Suite périodique d'impulsion de Dirac : (Peigne de Dirac – figure 1.11)

. .

24 
 
Chapitre I Généralités sur les Signaux
 
 
Figure 1.11. Peigne de Dirac
11.2. Fonction signe
Sgn(t) 

+1

1       0 0 
    0 t 
               1        0            | |
Par convention la valeur à l’origine est nulle. ‐1

Figure 1.12. Fonction signe

11.3. Fonction saut unité (ou Echelon)

1 1 0, 0
 
2 2 1, 1 0

La fonction échelon n'est pas définie pour t = 0

Figure 1.13. Fonction Echelon

11.4. Fonction rampe

La fonction rampe peut se définir à partir de la fonction saut unité :

.         0

Figure 1.14. Fonction Rampe

25 
 
Chapitre I Généralités sur les Signaux
 
 

11.5. Fonction porte

1, | |
0, | |

Figure 1.15. Fonction Porte centrée en t = 0.

En introduisant le changement : t = t / T on obtient


d’une manière plus générale pour une impulsion
rectangulaire de durée T centrée en t = τ :

  )

Figure 1.16. Fonction Porte décalée de τ.

11.6. Fonction triangulaire

La fonction triangulaire normalisée :


1 | |, | | 1
0 , | | 1
On peut aussi écrire :

Figure 1.17. Fonction triangulaire centrée


x(t)

De même :   ) 0 t 
τ‐T/2          τ       τ+T/2 

Figure 1.18. Fonction triangulaire décalée de τ.

26 
 
Chapitre I Généralités sur les Signaux
 
 

11.7. Fonction sinus cardinal

0 1

Figure 1.19. Fonction Sinus cardinal


12. Notions de puissance et d’énergie
12.1. Energie d’un signal

Soit x(t) un signal quelconque (fonction complexe),

- L’énergie sur [t1 , t2] est définie par :

, | | (1.41)

Où la notation | | signifie x(t)*x*(t) ; x*(t) : est x(t) conjugué.

Les signaux à énergie finie satisfont la condition suivante :

| | ∞    ù   est l énérgietotale du signal  (1.42)

12.2. Puissance moyenne d’un signal

Soit x(t) un signal quelconque (fonction complexe), la puissance moyenne sur [t1 , t2] est définie
par :

, | | (1.43)

Cas particulier des signaux périodiques de période T0

∑ (1.44)

où xp(t) est le signal sur une période T0, alors la puissance moyenne sur une période est égale à :

lim | | | | (1.45)

27 
 
Chapitre I Généralités sur les Signaux
 
 
12.3. Signaux à énergie finie

Un signal x(t) est dit à énergie finie s’il est de carré sommable, c’est –à-dire si :

| | ∞ (1.46)

Ce qui implique que Px = 0.

12.4. Signaux à puissance moyenne finie

Un signal x(t) est dit à puissance moyenne finie si :

lim | | ∞ (1.47)

Cas des signaux périodiques de période T :

| | ∞ (1.48)

Si Px ≠ 0, alors Wx = ∞ (signal àénergie totale infinie).

Exemple :

Calculer dans chaque cas l’énergie totale et la puissance moyenne totale (a > 0).

⁄ ;  ;  ; ;   ⁄  

Solution :

,  ; , ∞, , ∞; ∞, ∞; ,

28 
 
CHAPITRE II

ANALYSE DE FOURIER

Introduction

Le but de ce chapitre est d'introduire l'analyse de Fourier dans le cadre des systèmes
électroniques linéaires. Cette analyse est une analyse de type fréquentielle, étendue à des
régimes qui ne sont pas forcément sinusoïdaux. L'analyse de Fourier est très utilisée en
électricité comme en physique. On introduit les séries de Fourier complexes et réelles. Les
termes des séries de Fourier sont des fonctions sinusoïdales et cosinusoïdales. A nouveau, on
aperçoit l'importance de l'analyse harmonique des systèmes, puisque la pertinence de ces
décompositions est garantie pour tout système linéaire (principe de superposition).

La transformation de Fourier a déjà été signalée comme un cas particulier mathématique


de la transformation de Laplace. Elle est très employée dans toutes les branches techniques
avec des implications vastes et diverses : des relations d'incertitudes en physique aux espaces
réciproques en cristallographie, en passant bien sûr par l'électricité. Pour cette seconde partie
du chapitre, nous nous bornons à la définition de la transformation de Fourier où l'on aborde
la notion de spectre d'un signal. Pour plus vaste information, nous conseillons au lecteur de se
reporter à une introduction au traitement de signal, domaine où cet outil mathématique est
indispensable.

1. Les séries de Fourier

Un signal périodique quelconque se décompose en une somme de signaux sinusoïdaux, c'est


une propriété remarquable.

1.1. Série de Fourier complexe

La fonction : ; é , définie sur l'intervalle , +T], peut être


exprimée comme une série de fonctions :

∑ (2.1)
Chapitre II L’analyse de Fourier

L'ensemble des fonctions :

; cos (2.2)

Constitue une base de l'espace vectoriel contenant la fonction x, et les coefficients Xn


constituent les projections de la fonction x sur cette base.

On utilise le produit scalaire usuel et on obtient, pour le calcul de ces coefficients :

(2.3)

1.2. Spectre fréquentiel

Les différentes fréquences de la décomposition en série de Fourier sont données par :

, 0,1,2, … (2.4)

Le spectre fréquentiel et donné par le graphe :

, (2.5)

soit physiquement : les amplitudes associées aux différentes fréquences.

Ce spectre fréquentiel est donc une manière de représenter un signal périodique, et cela reste
valable dans le cas général d'un signal non périodique (d'énergie finie), ce que nous verrons
avec la transformée de Fourier.

Le spectre fréquentiel est ici discret, il contient :

- le niveau continu : valeur moyenne du signal


- la composante fondamentale, de la fréquence du signal
- les harmoniques, de fréquences multiples de celle de la fondamentale
- les fréquences négatives, qui n'ont pas de signification physique directe ; on doit
mathématiquement leur présence, au développement de la fonction réelle en série complexe.
Ces fréquences négatives disparaissent avec l'utilisation de séries de Fourier réelles.

1.3. Exemple : décomposition d'un train d'impulsions

L'impulsion suivante est décomposée en série de Fourier complexe, en choisissant une


période T :

30
Chapitree II L’analyse dee Fourier

Figure 2.1. Exemple : décompositio


d on d'un train d'impulsionss

Tous caalculs effecttués on obtieent pour less coefficientts :



sin (2.6)

En prennant comme variable la fréquence discrète


d :

, 0,1,2, … (2.7)

On obtient l'expresssion suivannte :


∆ ∆
(Ennveloppe de la forme ) (2.8)

On obtient, pour laa représentattion du specctre de cettee impulsion :

F
Figure 2.2. Exxemple : Speectre fréquen
ntiel discret de
d l’impulsioon.

Il conviient de remaarquer que si on examiine la somm


me de la sérrie de Fourier sur tout l'axe
l des
temps, on
o obtient un
u signal périodique :

Fiigure 2.3. Exxemple : traiin d'impulsioons

31
Chapitree II L’analyse dee Fourier

Il a doonc deux approches


a p
possibles : soit on nee s'intéressee qu'à une portion de
d signal
(impulsion sur un intervalle de temps T) et alorss la série ne
n prend dee sens quee sur cet
intervalle, soit onn développpe sur touut l'axe réeel un signnal périodiqque grâce à cette
décompposition de Fourier. C'eest ce derniier cas qui intéresse enn général, ccar les sign
naux non
périodiqques sont traaités à l'aidee de la transsformation de
d Fourier qui
q génère uun spectre continu.
c

1.4. Sérries de Fourrier réelless

Commee le signal électrique


é e représennté par une fonction rééelle à valeuurs réelles, on peut
est
aussi traaiter ce cas sans passerr par les nom
mbres comp
plexes.

On a le développem
ment suivannt, pour les séries
s de Fo
ourier réelles :

∑ cos 2 s 2
sin (2.9)

avec, poour les coeffficients :

c 2
cos

s 2
sin

us, et les signaux pairs en série de cosinus,


Les signnaux impairrs se dévelooppent en séérie de sinu
ce qui simplifie d'autant les calculs. Lee spectre ob
btenu est unilatéral,
u d'où l'appellation de
séries de Fourier unnilatérales.

Dans l'eexemple préécédant du train


t d'impuulsions rectaangulaires (f
( igure 2.3). On obtient,, comme
développpement de Fourier unilatéral :

∆ ∆ ∆
2 ∑ (2.10)

Et pour la représenntation graphhique du spectre discreet (unilatéral) :

Figuree 2.4. Exempple : Spectre fréquentiel unilatéral


u disscret de l’imppulsion.

32
Chapitre II L’analyse de Fourier

Remarquons que le spectre unilatéral n'est pas la version tronquée du spectre bilatéral : les
harmoniques ont le double d'amplitude par rapport à ce dernier, sauf cas particulier, celui de
la fréquence nulle . Il faut voir que le spectre bilatéral d'un signal sinusoïdal est donné par les
deux fréquences : la positive et la négative, et leur amplitude est la moitié de celle de la
fréquence du spectre unilatéral.

Exemple :

Soit un signal pair x(t) de période T défini sur 0, représenté par la figure ci-dessus :

x(t)

2 4 4 2
-x

- Développer en série de Fourier le signal périodique x(t).

Le développement suivant en séries de Fourier :

∑ cos 2

avec, pour les coefficients :

0; cos 2 ; 0 : signal pair

cos sin sin sin

Pour n pair sin 0 , pour n = 2k + 1, alors sin 1 , d’où :

et ∑

1.5. Séries de Fourier alternative

Elle est définie par :

∑ cos 2 , A0 = a0 (2.11)

33
Chapitre II L’analyse de Fourier

An : amplitude de la composante spectrale ; : phase de la composante spectrale.

1.6. Développement d’une fonction périodique en série de Fourier

1.6.1. Série d’exponentielles imaginaires

• Théorème de Fourier :

Soit : périodique de période T, de pulsation Si f est de carré sommable

sur [0, T], alors ∑ où, pour :

et

• Spectre de Fourier : C’est | |, : (En général, cn décroît quand n augmente)

1.6.2. Série de sinus et de cosinus

• Cas général :
∑ cos sin

; cos ; sin

• Parité :
Si x(t) est paire, on aura ∀n ∈ N , bn = 0

Si x(t) est impaire, on aura ∀n ∈ N , an = 0

• Cas d’une fonction réelle :


Si an , bn ∈ R , an cos(k n x) + bn sin(k n x) = a 'n cos(k n x + ϕ n )

Et donc ∑ cos
Le terme pour n = 1 s’appelle le fondamental ou la première harmonique.
Celui pour n = 2 s’appelle deuxième harmonique, etc.

1.6.3. Egalité de Bessel–Parseval

| | ∑ | | | | ∑ | | | | (2.12)
1.7. Développement d’une fonction de support fermé

1.7.1. Exemple

On a 2 , et la fonction est impaire.


On trouve alors :
8 1 3 1 5
9 25
L = 2l

34
Chapitre II L’analyse de Fourier

1.7.2. Fonction spatiale et temporelle

- Fonctions spatiales
x : abscisse, L : longueur (ou longueur d’onde), : pulsation spatiale.

On a: ∑
- Fonctions temporelles

, ,
: pulsation temporelle ; ∑ .

2. La transformation de Fourier

En électronique et en traitement de signal, les signaux ne sont pas tous périodiques, cela
représente même l'exception. Le développement en séries de Fourier ne représente donc pas
forcément l'outil d'analyse privilégié, puisqu'il est nécessaire pour cela d'avoir des signaux
périodiques.

2.1. Transformation de Fourier : définition

La transformation de Fourier peut être vue mathématiquement comme un cas particulier de


celle de Laplace, en posant 2 pour la variable fréquentielle. On définit :

(2.13)

Où :

(2.14)

La fonction : est la transformée de Fourier de la fonction : . En


traitement de signal, on utilise plus volontiers la variable fréquence f (Hz) que la

pulsation 2 , habituellement utilisée en transformée de Fourier.

On dit que x(t) et X(f) forment une paire de transformée de Fourier, c’est noté par :

(2.15)

La transformée de Fourier existe si les trois conditions de DIRICHLET sont vérifiées (il s’agit
de conditions suffisantes mais pas nécessaires) :

- x(t) possède un nombre fini de discontinuités sur tout intervalle fini,

- x(t) possède un nombre fini de maxima et de minima sur tout intervalle fini,

35
Chapitree II L’analyse dee Fourier

- x(t) est absolumennt intégrable, c-à-d :

| | ∞ (2.16)

Il est im
mportant de noter que toous les signnaux d’énerg
gie finie, c-àà-d tous les signaux dee L2.

∞ (2.17)

admetteent une transsformée de Fourier.

Exemplle :

On notee l
l’impulsion rectangulaiire définie par
p :

, ⁄2, ⁄2
(2.18)
0,

On cherrche alors de
d calculer laa transform
mée de Fourier (TF) de x(t).
x

⁄ ⁄
⁄ ⁄

et enfin : fonction sinus cardinal.


c

2.2. Speectre d'amp


plitude et spectre
s de phase
p

Dans lee cas généraal, la transfo


formée de Fourier
F d'un
ne fonction produit
p unee fonction à valeurs
complexxes. Ainsi, on
o peut obteenir deux innformationss de la foncttion transforrmée de Fou
urier :

Le spectre d'amplittude : ,| |

Le spectre de phasee : , argg

2.3. Exeemple :

On reprrend l'impullsion précéddente avec laa transform


mée de Fouriier :

Equatioon de l'impuulsion :

36
Chapitree II L’analyse dee Fourier


Tous caalculs faits,, on obtient pour sa transformée
t e de Fourier : .∆ . On

constatee que dans ce


c cas, X(f) est une foncction réelle.. On peut laa représenterr graphiqueement :

Figu
ure 2.5. Exem
mple : Transfformée de Fo
ourier du siggnal rectanguulaire.

Commee X(f) est réelle,


r son spectre de phase est nul pour les
l parties positives de
d la TF
uniquem
ment, et sonn spectre d'aamplitude à l'allure suiv
vante :

Figgure 2.6. Exxemple : Specctre d’amplittude du signaal rectangulaaire.

Remarq
ques

Commee pour le dééveloppemeent en séries de Fourieer, on assistte à l'apparrition de frééquences


négativees, qui ne s''interprètentt pas directeement, maiss qui sont nééanmoins poorteuses d'éénergie.

La transsformée de Fourier icii correspondd à l'envelo


oppe du speectre discrett du dévelop
ppement
de Fouurier. Dans cette trannsformation de Fourieer, toutes les fréquennces sont mises à
contribuution pour la représentaation fréqueentielle du signal
s tempoorel : le spectre est con
ntinu.

Contrairrement au développem
d ment en sériees de Fourier qui génèère une foncction périod
dique sur
tout l'axxe réel quellles que soieent les valeeurs prises par
p cette fonnction en ddehors de laa période
considérée, la transsformation de
d Fourier est
e appliquéée à la foncttion agissannt sur tout l'axe réel.
Il est aiinsi créé unne correspoondance entrre l'espace temporel où
o le signal évolue, et l'espace
fréquenntiel un peu plus abstraiit. Les électriciens appeellent cela la
l dualité teemps-fréqueence. Les
cristalloographes paarlent d'espaace direct et d'espace rééciproque, etc...
e

37
Chapitree II L’analyse dee Fourier

Commee déjà évoqqué précédemment, l'uttilité de cettte transform


mation est d'obtenir une
u autre
représenntation d'unn signal. Ceette représentation fréq
quentielle est
e essentiellle en traiteement de
signal. La
L situationn est analoggue à celle prévalant
p po
our la transfformation dde Laplace, mais ici
l'espacee donné par la transform
mation de Foourier est bien repéré: c'est un esppace de fréqu
uences :

Figgure 2.7. Laa dualité tem


mps-fréquennce.

2.4. Fon
nction de trransfert

Ici nous présenntons un exxemple, où l'on


l emploiee la transforrmée de Fouurier, pour résoudre
r
une équuation différrentielle. Ce
C n'est pas l'utilité principale de cet outil, m
mais cela peermet de
faire unne remarque concernantt les fonctioons de transffert.

Si on réduit
r la traansformatioon de Laplaace à celle de Fourierr, on prendd comme vaariable :
2 . Ainsi, la
l fonction de transfertt de Laplacce se transfo
forme en ceelle de Fourrier avec
cette suubstitution. Et
E cette fonnction de traansfert de Fourier
F n'estt rien d'autrre que celle obtenue
avec less nombres complexes et qui corrrespond en fait à la foonction de transfert en
n régime
harmonnique.

Schémaa-bloc du syystème :

Figure 2.8. Schéma-blocc du systèmee.

38
Chapitree II L’analyse dee Fourier

Dans l'eespace tempporel, on a :

(2.19)

L : opérrateur linéaiire ; x(t) : exxcitation duu système ; y(t)


y : réponsse du systèm
me.

Dans l'eespace fréquuentiel, on obtient


o :

. (2.20)

X(f) : Trransformée de Fourier de l’excitattion ; Y(f) : Transformé


T ée de Fourieer de la répo
onse.

G(f) : Foonction de transfert.


t

Exemplle : cellule RC excitéee par un éch


helon unitéé

Soit unee cellule RC


C, à laquellee on appliquue un échelo
on unité :

Par le diviseur
d dee tension dans le dom
maine des p,
p on obtiennt la fonctiion de tran
nsfert de
Laplacee:

Fonction de transfeert de Fourieer :

Signal d'entrée
d :

Signal de
d sortie :

Transfoormée inversse du signall de sortie :

39
Chapitre II L’analyse de Fourier

2.5. Principales propriétés de la transformée de Fourier


Linéarité
si alors, ,

Propriété d’échelle - Dilatation


1
| |
Retard temporel

Déplacement fréquentiel

Modulation d’amplitude
2 . ; x(t) : le signal modulé en amplitude, m(t) : est le message

2
Moyennes
0 ; 0
Différentiation dans le domaine temporel

2 ; 2

Intégration dans le domaine temporel

Propriété de dualité
si alors,
Propriétés de conjugaison et symétrie
si alors, ; ;
On en déduit que, si x(t) est réels, alors : X(f) = X*(-f), et :
- La partie réelle de X(f) est paire,
- La partie imaginaire de X(f) est impaire,
- Le module de X(f), |X(f)| est pair,
- La phase de X(f), φ(f) est impaire.

40
Chapitre II L’analyse de Fourier

Parité

Pair :

Impair:

Impulsion du Dirac

0, 0
; 1
∞, 0

; 1, 1 ,

2.6. Théorème de Parseval

L'égalité de Parseval dite parfois théorème de Parseval est une formule fondamentale de
la théorie des séries de Fourier. Cette formule peut être interprétée comme une généralisation
du théorème de Pythagore pour les séries dans les espaces de Hilbert. Dans de nombreuses
applications physiques (courant électrique par exemple), cette formule peut s'interpréter
comme suit : l'énergie totale s'obtient en sommant les contributions des différents
harmoniques. L'énergie totale d'un signal ne dépend pas de la représentation choisie :
fréquentielle ou temporelle.

| | | | (2.21)

2.6.1. Energie, Valeur efficace par la série de Fourier – Formule de Paseval

La valeur efficace du signal est donnée par :

∑ (2.22)
,

41
CHAPITRE III

TRANSFORMEE DE LAPLACE

Introduction

La transformée de Laplace est une opération intégrale qui permet de transformer une
fonction d’une variable réelle en une fonction d’une variable complexe. Par cette transformation,
une équation différentielle linéaire peut être représentée par une équation algébrique. Elle
permet aussi de représenter des fonctions particulières (distribution de Heaviside, distribution de
Dirac, etc.) de manière très élégante. Ce sont ces possibilités qui rendent la transformation de
Laplace intéressante et populaire auprès des ingénieurs. Cette transformation a donné lieu à la
technique du calcul opérationnel ou calcul symbolique qui facilite la résolution des équations
différentielles linéaires qui représenteront les systèmes que nous allons étudier.

1. Transformée de Laplace

1.1. Définition

Soit f(t) une fonction a valeur réelle ou complexe de la variable réelle t définie de [ 0 à ∞ [ et
soit , une variable complexe; l’expression :

(3.1)

Où le symbole veut dire la transformée de Laplace. Dans ce cas, elle s’appelle la


transformation de Laplace unilatérale.

La transformée de Laplace permet donc de transformée le problème du temps au domaine de


la fréquence. Lorsqu’on obtient la réponse voulue dans le domaine de la fréquence, on
transforme le problème à nouveau dans le domaine du temps, à l’aide de la transformée inverse
de Laplace. Dans le domaine de Laplace, les dérivées et intégrales se combinent à l’aide de
simples opérations algébriques ; pas besoin d’équations différentielles.

On divise la transformée de Laplace en deux types :

- Transformée fonctionnelle : c’est la transformée de Laplace d’une fonction spécifique,


comme , , , etc.
Chapitre III Transformée de Laplace

- Transformée opérationnelle : c’est une propriété mathématique de la transformée de


Laplace, comme le calcul de la dérivée de f(t).

1.2. Ordre exponentiel

On dira qu’une fonction f(t) est d’ordre exponentiel à l’infini si et seulement si, il existe un
couple de nombres réels et M tel que :

| | , 0 (3.2)

1.3. Existence de la Transformation de Laplace

Soit f(t) une fonction continue par morceau sur l’intervalle fermé [0, a] (pour tout a>0) et
ayant un ordre exponentiel à l’infini tel que | | , 0 ; alors, la transformation de
Laplace existe et est définie pour .

1.4. Unicité de la Transformation de Laplace


Soient f(t), et g(t), deux fonctions continues par morceaux avec un ordre exponentiel à
l’infini. Supposons que:

Alors f (t) = g(t) pour 0, , pour tout D > 0, sauf peut être en un nombre fini de points.
Exemple 1:
Si f (t) = 1, alors : 1

dans cet exemple, l’intégrale converge si et seulement si la partie réelle de p > 0


Exemple 2 :
Si alors : ,

Il y’a convergence si Re{(p-a )}> 0 ou Re{p} > Re {a}. Tel que Re : représente la partie réelle.

1.4.1. Transformée Bilatérale

On définit aussi une transformation de Laplace sur le domaine R des nombres réels:

(3.3)

Cette transformation n’est pas beaucoup utilisée dans le domaine de l’engineering car on
considère les signaux qui respectent la causalité et donc qui existent à partir d’un instant t0.

1.5. Transformation de Laplace Inverse

On peut revenir de la transformée de Laplace à la fonction du temps f(t) par la


transformation inverse suivante:

43
Chapitre III Transformée de Laplace

(3.4)

où le chemin d’intégration peut être choisi quelconque dans le plan complexe à condition de
rester dans le domaine de convergence de F(p).

2. Propriétés de la Transformée de Laplace


2.1. Addition
La transformée de Laplace d’une somme de fonctions f1(t) et f2(t) est égale à la somme de
leurs Transformées de Laplace.
(3.5)
2.2. Multiplication par une constante
. (3.6)
2.3. Linéarité
Les propriétés d’addition et de multiplication par une constante lorsqu’elles sont combinées
conduisent au fait que la transformée de Laplace est une transformation linéaire :
∑ ∑ (3.7)
Exemple : Déterminer la transformée de Laplace de la fonction f(t) = coswt. Celle-ci est obtenue
en utilisant l’expression exponentielle.

En appliquant la transformée de Laplace et la propriété de linéarité, on a :

2.4. Dérivées
La dérivée première est obtenue par : 0 0
"
La dérivée seconde : 0 0 0 0
La dérivée troisième :
" "
0 0 0 0 0 0

Généralisation aux dérivées d’ordre n :


Supposons que f(t), et ses dérivés f k (t) , pour k = 1,2,..,n sont continues par morceaux et ont

un ordre exponentiel à l’infini. Alors on a:


0 0 0 (3.9)
Si on considère les valeurs initiales toutes nulles, on :

44
Chapitre III Transformée de Laplace

2.5. Théorème de la valeur initiale


On peut déterminer la valeur de la fonction f(t) à l’origine si on connaît la limite à l’infini de
sa transformée de Laplace.

(3.10)
2.6. Théorème de la valeur finale
On peut déterminer la valeur de la fonction f(t) à l’infini si on connaît la limite pour sÆ0 de
sa transformée de Laplace.

(3.11)
2.7. Retard ou délai ou règle de translation en t
Si alors . est appelé facteur de retard.
2.8. Règle de translation complexe en p

Exemple :

2.9. Produit de deux fonctions

. .

2.10. Produit de convolution


. . . (3.12)
2.11. Soit f(t) une fonction continue par morceaux sur [0, A] (pour tout A>0) et a un ordre
exponentiel à l’infini. Alors, on a: 1
Où est la dérivée d’ordre n de la fonction F.
2.12. Soit f(t) une fonction continue par morceaux sur [0, A] (pour tout A>0) et a un ordre

exponentiel à l’infini. Supposons que la limite , est finie. Alors, on a :

(3.13)

2.13. Règle de similitude (Changement d'échelle)


Soit g (t) = f(at) (a>0), alors

3. Fonctions particulières
Dans l’étude des systèmes et des équations différentielles qui servent à les décrire, on utilise
une famille particulière de fonctions, les fonctions singulières qui sont des fonctions de

45
Chapitre III Transformée de Laplace

fonctions ou Distributions. Pour bien comprendre ces fonctions singulières, il faut les étudier
dans le cadre de la théorie des distributions qui est une théorie qui généralise la théorie des
fonctions.

Les Distributions qu’on utilise plus fréquemment sont la distribution échelon unité
(distribution de Heaviside). La distribution impulsion unité (Distribution de Dirac) et la
distribution pente unité.

3.1. Fonction échelon unité (Distribution d'Heaviside)


On appelle fonction échelon unité associée à t0, la fonction du temps notée u(t - t0) et définie par

1,
0,

La transformée de Laplace de l’échelon unité: 0

Pour le cas particulier ou t0 = 0, on écrit : .

3.2. Fonction impulsion unité (Distribution de Dirac)

On peut définir l’impulsion unité comme une fonction nulle partout sur sauf en un
seul point t0 ou elle prend une valeur infinie.

∞,
0,

La Distribution de Dirac peut être approchée par le signal représenté dans la figure 3.1 , si on fait
tendre ε vers 0, δ1 ne tend pas vers une limite au sens des fonctions, mais au sens des
distributions car δ1(t) n'est pas dérivable aux deux points de discontinuités. Cette limite est δ(t) ,
qui est appelée la distribution de Dirac.

Figure 3.1. La Distribution de Dirac.

La distribution de Dirac peut être obtenue comme la dérivée de la distribution de Heaviside.


La transformée de Laplace de la Distribution de Dirac est égale à l’unité: 1.
On l’obtient par les opérations suivantes :
46
Chapitre III Transformée de Laplace

. lim lim 1

(On utilise les développements limités ou la règle de l'Hospital). On observe que la surface est
égale à 1 quel que soit ε donc : 1

Cette fonction (distribution) à aussi la particularité suivante : 0 .

3.3. Fonction puissance

, 0
Soit : ; Calculons donc
0, 0

Posons le changement de variables : , . et , ; d’ou :

(le premier crochet est nul)


!
D'où : et donc : ; ; ;…;
!
D’où : )

4. Méthode de Laplace (Calcul opérationnel)

L’utilisation de la méthode de Laplace pour résoudre les équations différentielles s’appelle


le calcul opérationnel ou calcul symbolique. Il permet de connaître la solution complète d’un
système linéaire soumis à une large variété de signaux quelconques transitoire ou périodique. Le
traitement se fait généralement en quatre étapes comme on le verra dans l’exemple suivant :

1)- On établit l’équation différentielle à résoudre.

2)-On applique les propriétés de dérivation et autres de la transformée de Laplace à l’équation


différentielle considérée. Par cette transformation, on passe du domaine du temps dans le
domaine (complexe) de Laplace.

3)-On détermine la solution Y(p) dans le plan de Laplace que l’on développe en termes simples.
4)- Il reste à déterminer la solution y(p). Pour cela, on effectue la transformation inverse de Y(p)
en utilisant la table des transformations.
4.1. L’expansion de y(p) en fonctions simples
Pour pouvoir inverser la transformée de Laplace, qui est exprimée comme :
Y(p) = N(p)/D(p), on décompose l’équation obtenue en un produit de facteurs. Suivant la forme
de décomposition obtenue, on distingue trois cas.
4.1.1. Les pôles de Y(p) sont tous simples
Supposant que D(p) possède des pôles p0, p1, p2,...,pn on peut écrire Y(p) sous la forme :
47
Chapitre III Transformée de Laplace

(3.14)

- On connaît la réponse temporelle pour chaque terme de la somme, il suffit de déterminer les
coefficients A1, A2, An. Pour cela, on peut procéder par la méthode d’identification ou mieux
encore en faisant appel à des techniques de décomposition des résidus. Par la technique des
résidus, on procède de la manière suivante : pour déterminer A on multiplie les deux membres de
l'équation par p - p0 puis on fait tendre p vers p0. On procède de la même manière pour les
autres coefficients. Voici, un exemple d’illustration de cette technique.
Soit p1, p2 des pôles de Y(p)

Le coefficient que l’on veut déterminer A, on multiplie Y(p) par (p - p1) comme suit :

On fait tendre s vers s1 comme suit : lim .1 .0

De même pour B ; on trouve: lim .0 .1

Enfin sachant que A/( ) est la transformée de , on obtient la solution :

4.1.2. S’il existe un pôle multiple


Si une fonction à variable complexe à un pole simple, on obtient A par :

lim

si H(p) a un pôle multiple d’ordre n: ; on détermine A à l’aide de l’expression :

lim

Exemple : Soit

lim

lim

De façon générale, si :

, alors, en décomposant, on a :

48
Chapitre III Transformée de Laplace

4.1.3. Les pôles sont complexes conjugués

On aura alors

Les coefficients correspondants de la décomposition en fractions simples seront aussi complexes


conjugués (A et Ax). La solution contient des termes oscillatoires :
A.e jφ .e (a + jb )t + A.e − jφ .e (a − jb )t = 2 A.e at . cos(bt + φ ) et.avec φ = arg A
On est donc en présence d’une oscillation amortie si a est négatif, d’une oscillation amplifiée
(divergente) si a est positif, d’une sinusoïde simple si a=0.

4.2. Applications de la transformée de Laplace

On considère la réponse du système correspondant au circuit ci-dessus, soumis à un signal


échelon (supposé unitaire) U(t). La transformée de Laplace du signal échelon est :

Pour t > 0 on a : u(t) = E = constante. On cherche le courant i (t) qui circule dans le circuit de la
figure ci-dessous :

1- La loi d'Ohm permet d'écrire l’équation différentielle : u(t)= R.i(t)+ L. di


dt
2-On applique la transformation de Laplace, dans chacun de ces éléments pris séparément,
en se rappelant F'(p) = pF(p) ; ce qui donne : . . .
En remplaçant U(p) par E/p, l’équation différentielle s’exprime dans l’espace de Laplace par :
.

3-On en déduit I(p) qu'on décompose en termes simples, soit :

. ⁄ ⁄

4-On applique les règles de détermination des coefficients, on obtient : ⁄

La table des transformées nous donne la solution : 1

49
Chapitre III Transformée de Laplace

5. Modélisation
L’automatique est la science étudiant les automatismes et traitant de la substitution de
mécanismes automatiques à toutes les opérations susceptibles d’être exécutées par l’homme.
Cette science était anciennement dénommée cybernétique. Parmi les composantes de cette
science, nous allons plus particulièrement nous intéresser à la commande (automatique) des
procédés dynamiques continus.
Dans ce cadre, on distingue l’automatique linéaire ou non linéaire, continue (commande
analogique) ou à temps discret (commande numérique).
Il faut savoir que la commande (ou asservissement) d’un procédé physique nécessite :
- l’identification (modèle de comportement) ou la modélisation (modèle de connaissance) de
son comportement dynamique Æ mise en équation ;
- la synthèse d’une loi de commande Æ fonction de transfert et transformation de Laplace;
- l’implantation physique de cette loi de commande Æ correction.

La modélisation d’un système physique fait intervenir un système d’équations différentielles.


Sa résolution (plus ou moins difficile) permet la détermination de régimes transitoires du système
dynamique. Ces régimes peuvent aussi être déterminés en utilisant le calcul opérationnel fondé
sur la transformation de Laplace.
Définition de la transformée de Laplace
Soit f(t) une fonction causale1, alors la transformée de Laplace de f est
. On dit que est l’image de f(t) dans le domaine symbolique et que f(t) est
l’image de F(p) dans le domaine temporel. On appelle transformation de Laplace l’application
telle que .
Propriétés
On suppose que F(p) et G(p) sont les images de f(t) et g(t), deux fonctions causales.
Unicité : Toute fonction temporelle f(t) possède une image unique F(p); et réciproquement.
Linéarité
- L’image de 0 est 0.
- L’image de k. f(t) est k. F(p).
- L’image de f(t) + g(t) est F(p) + G(p).
Dérivation – Intégration
- L’image de f ’(t), la dérivée de f est pF(p) - f(0) avec le plus souvent, f(0) = 0.

1
Nulle sur ]− ∞ , 0[
50
Chapitre III Transformée de Laplace

- L’image de , la primitive de f est F(p).

Facteur d’échelle : L’image de . est .

Retard et Amortissement
- L’image de est .
- L’image de est .
Théorème des valeurs finales et initiales
- 0 lim lim
- lim lim
Convolution : L’image du produit de convolution est .

6. Transformées usuelles

Image symbolique Image temporelle de fonctions causales


1
Échelon
p

1 Dirac
1
Rampe
p2
1
p+a e − at
w
p + w2
2 sin (wt )
w
p − w2
2 sinh (wt )
w
( p + a )2 + w 2 e − at sin (wt )
p
p + w2
2 cos(wt )
p
p − w2
2 cosh(wt )
p+a
( p + a )2 + w 2 e − at cos(wt )
n!
p n +1 tn
t
1 −
1− e τ
p (1 + τp )
1
( p + a )2 te − at

51
Chapitre III Transformée de Laplace

7. Fonction de transfert

Un transfert est la transmittance d’un système linéaire générant un signal de

sortie s(t) à partir d’une entrée e(t).

e(t ) Système s(t )


physique linéaire

Sachant que , on a où est la réponse


impulsionnelle du système physique.
8. Opérations sur les transferts

8.1. Transferts en cascade

Considérons le schéma suivant :


E( p) H1 H2 S ( p)
La transmittance se calcule
.

8.2. Transferts en réaction


Considérons le schéma suivant :

E( p) + S ( p)
H1


H2

La transmittance s’écrit : .

Réprésentation de la réponse fréquentielle d’un transfert


La réponse fréquentielle traduit le comportement en régime sinusoïdale, elle est obtenue en
remplaçant p par jw où w est la pulsation exprimé en rad/s . La fréquence f et la période T sont
reliés à la pulsation par les relations 2 .

Une réponse fréquentielle peut être caractérisée par son module et par son argument :
. Le gain peut être exprimé en décimal ou en décibel 20 .

52
Chapitre III Transformée de Laplace

9. Diagramme de Bode

Le diagramme de Bode consiste en un diagramme de gain en dB et un diagramme de phase

H ( jw) dB arg H ( jw)

log w

log w

en rd ou d°. Pour les tracer, on s’aide des diagrammes asymptotiques de Bode. Ils sont définis par
morceaux en étudiant localement (pour des bandes de fréquence données) le comportement
asymptotique de la réponse fréquentielle.
On se ramène, autant que l’on peut, à un produit de transferts du 1er et 2ème ordre, pour
lesquels on connaît bien les diagrammes asymptotiques ; et on procède par superposition pour
obtenir le diagramme de Bode final.

10. Plan de Nyquist – Abaque de Hall

Représentation fréquentielle de sur le lieu de Nyquist :

Im F ( jω )

Re F ( jω )
-1
0

Supposons que désigne la FTBO d’un procédé. On a alors : . Par

conséquent, le point (-1 , 0) est critique sur le lieu de Nyquist.


Par ailleurs, la distance au point critique sur le plan donne |1 |.

53
Chapitre III Transformée de Laplace

L’abaque de Hall donne les modules et arguments de pour un donné. On peut en

déduire par la suite les modules et arguments de la FTBF en calculant , et en appliquant la

relation suivante : .

11. Plan de Black (Nichols) – Abaque de Black

Représentation fréquentielle de sur le lieu de Black :

F ( jω ) dB

Arg F ( jω )
-180°
0

Le point critique est maintenant (-180° , 0 dB).

Pour un donné, l’abaque de Black donne les modules et arguments de .

12. Analyse temporelle et fréquentielle
On note F(p) la transformée de Laplace d'une fonction f(t) :
12.1 -Transformée d'une équation différentielle à coefficients constants, fonction de
transfert
On considère le système physique suivant

e(t ) Système s(t )


physique linéaire

dans lequel e(t) et s(t) sont liés par une équation différentielle linéaire à coefficients constants
sans terme constant :

Le système est alors linéaire.

54
Chapitre III Transformée de Laplace

Si les conditions initiales suivantes sont nulles :

0 0 0

La transformée de l'équation différentielle sans terme constant s'exprime par :

⇓ Laplace et conditions initiales nulles

On peut alors définir une fonction de transfert

c'est à dire

n = ordre du système

lim : gain statique du système

F(p) peut se mettre sous la forme , α = classe du système


.

(éventuellement α = 0) = nombre d'intégrations dans le système)

12.2. Systèmes du premier ordre

Ce sont les systèmes tels que : . .

La fonction de transfert s'écrit

K : Gain statique

τ : constante de temps

55
Chapitre III Transformée de Laplace

Etude temporelle Etude fréquentielle


Réponse à un échelon e(t)=E0.u(t) ; H(j.ω)= K
1+ τ.j.ω
E
E(p)= 0 Gain
p K
G(ω)= H(j.ω) =
E
S(p)= K . 0 1+(τ.ω)2
1+ τ.p p
Gain en décibels
Avec les théorèmes sur les limites, il vient :
E .k GdB(ω)=20.LogH(j.ω) =20.LogK −20.Log 1+(τ.ω)2
s(0+)= lim p.S(p)= lim 0 =0
p→∞ p→∞1+ τ.p GdB(ω≈0)=≈20.LogK

E .K GdB(ω=1/ τ)=≈20.LogK −20.Log 2 =Gdb(0)−3dB


s(∞)= lim p.S(p)= lim 0 =E .K
p→0 p→01+ τ.p 0 G (ω→∞)=20.LogK−20.Logτ.ω=20.LogK −20.Logω
dB τ
E .K E .K
s& (0+)= lim p.(p.S(p)−s(0+))= lim p 0 = 0 Déphasage 
p→∞ p→∞ 1+ τ.p τ
φ(ω)= ArgH(j.ω)=Arg K =Arctan(τ.ω)
1+ τ.j.ω
φ(ω≈0)≈0
Expression de s(t)
φ(ω=1/τ)=−45°

. . φ(ω→∞)≈−90°
Temps de réponse tr à 5% tel que Pulsation de coupure telle que G(ωc)=1 si K>1 :
s(t )=0,95.s(∞) 2
r K =1 ou K2 =1+(τ.ωc)2 ⇒ωc = K −1
τ
1+(τ.ωc)2
tr

s(tr)=E0.K(1−e τ )=0,95.s(∞)=0,95.E0.K
Tracé du diagramme de Bode 
t
− r Gain
⇒1−e τ =0,95 ou 20Logk
t
r =−τ.ln(0,05)≈2,99573.τ -20 db/dec
D'où :
Tracé de la réponse indicielle logw
1/τ
s(t)
K.E0

0,63.K.E0 Déphasage
logw

-45°
t
-90°
Tangente non τ 2.τ 3.τ
nulle à l'origine caractéristique des premiers ordres

56
Chapitre III Transformée de Laplace

12.3. Systèmes du second ordre


Ce sont les systèmes tels que : 2 .
‰ ω0 >0 , pulsation propre non amortie (en rad.s−1 ) (pulsation du système si z=0). On
note quelquefois ωn , pulsation naturelle.
‰ z ≥ 0, coefficient d’amortissement du système (sans dimension)
‰ K > 0, gain statique du système ( unité de s (t) ).
unité de e (t)
La fonction de transfert s'écrit :

Etude temporelle
E
Réponse à un échelon e(t)=E0.u(t) c'est-à-dire E(p)= 0
p
E
S(p)= K . 0
p2 p p
+2.z. +1
ω ω
0 0
Avec les théorèmes sur les limites, il vient :
s(0+)=0 ; s(∞)=K.E0 ; ds(0+) =0
dt
Expression de s(t) : Elle dépend de z ; ∆'=z2 −1
Si z > 1 : deux racines p1,2 =ω0(−z± ∆')=ω0(−z± z2 −1) . La réponse est apériodique (sans
dépassement)
K.p1.p2 K
et S(p)= = .E0
p.(p−p1).(p−p2) p p
p.( −1).( −1)
p1 p2
C'est-à-dire
S(p)= K .E = K .E
p(1+ T .p).(1+ T .p) 0 p(T .T .p2 +(T + T ).p+1) 0
1 2 1 2 1 2
Avec T1,2 =− 1 et
p
1,2
− t − t
1 T1 T
s(t)=K.E0.[1+ (T1.e − T2.e 2 )].u(t)
T2 − T1

Si z=1 : une racine double p= 1 . C'est le régime apériodique le plus rapide.


T0
et
− t
t T
s(t)=K.E0.[1−(1+ ).e 0 ].u(t)
To

Si z<1 : deux racines complexes conjuguées. La réponse est pseudo-oscillante (avec


dépassement)
−z.ω .t
s(t)=K.E .[1− 1 .e 0 .Sin(ω . 1−z2.t −ϕ)].u(t)
0 0
1−z2
2
avec ϕ= ArcTan 1−z
−z

57
Chapitre III Transformée de Laplace

Pseudo-pulsation réelle : . √1
.
Valeur relative du premier dépassement :

Temps de réponse tr à 5% tel que s(tr)=0,95.s(∞) . Il faut utiliser l'abaque des temps de réponse
réduits :
1000
tr.ωo
500

100

50

10

1
0.05 0.5 0.7 5 50
0.01 0.1 1 10 100
Coefficient d'amortissement z
 
Tracé de la réponse indicielle
s(t1)-K.E 0
D 1=
K.E 0

s(t)

z<1

K.E 0

z>1

t
π
t1 =
ω
0 1-z
2

Etude fréquentielle
H(j.ω)= K
2
1− ω +2.j.z. ω
ω2
0
ω0

Gain
G(u)= H(u) = K = K
ω 2 2 2 ω
(1−( ) ) +4.z .( ) 2 1+2.(2.z −1).( ω )2 +( ω )4
2
ω0 ω0 ω0 ω0
Gain en décibels

58
Chapitre III Transformée de Laplace

GdB(uω=20.LogG(ω)=20.LogK −20.Log ( ω )4 +2.( ω )2.(2.z2 −1)+1


ω0 ω0
GdB(ω≈0)≈20.LogK GdB(ω=ω0)≈20.LogK −20.Log(2.z) GdB(ω→∞)=20.LogK −40.Log(ω)

Si z< 1 ≈0,7 , le gain passe par un maximum(résonance) pour : . √1 2 .


2

La valeur du maximum est G(ωr =ω0. 1−2.z2 )= K


2.z. 1−z2
Déphasage
2.z.( ω )
ω
φ(ω)= Arg(H(ω))= Arg( 1 )= Arctan( 0 )
H(ω) ω 2
( ) −1
ω
0
φ(ω≈0)≈0 φ(ω=ω0)≈−90 φ(ω→∞)≈−180°
Tracé du diagramme de Bode

z<1/ 2
AdB(ω)

20.LogK -40dB/Déc
z>1/ 2

Log(ω)
ωr = ω 0 1-2.z 2 ω0

φ(ω)
Log(ω)
z décroissant

-90°

-180°

59
CHAPITRE IV

PRODUIT DE CONVOLUTION                                                             
ET CORRELATION DES SIGNAUX  

Introduction
Le traitement du signal est une discipline en plein essor, elle consiste en un ensemble de
théories et de méthodes, relativement indépendantes du signal traité, permettant de créer,
d’analyser, de modifier, de classifier et finalement de reconnaître les signaux. Ses applications
sont nombreuses dans des domaines aussi variés que les télécommunications, le traitement du
son, le traitement de la parole, le radar, le sonar, le biomédical, l’imagerie,…etc. D’une manière
générale dans les domaines de l’électronique et de l’informatique.

Dans ce chapitre, nous exposons d’abord les principales définitions et généralités


concernant la convolution et la corrélation comme étant deux techniques de traitement du signal
qui sont particulièrement décrites. Leurs développements et mise en œuvre représentent
l’essentiel de ce chapitre.

1. Produit de Convolution

1.1. Formulation du produit de convolution

Le produit de convolution présente des propriétés très importantes. Le produit de convolution est
une opération qui associe, à deux fonctions h et e de la même variable, une fonction s de la
même variable sur un même domaine infini. Les fonctions peuvent prendre des valeurs
complexes et nous notons s = h * e. En choisissant t comme variable commune, l'opération est
définie par :

(4.1)

En mathématiques, le produit de convolution est un opérateur bilinéaire et un produit


commutatif, noté par « », qui, à deux fonctions f et g sur un même domaine infini, fait
correspondre une autre fonction « » sur ce domaine, qui en tout point de celui-ci est égale à
l'intégrale sur l'entièreté du domaine (ou la somme si celui-ci est discret) d'une des deux
fonctions autour de ce point, pondérée par l'autre fonction autour de l'origine ; les deux fonctions
étant parcourues en sens contraire l'une de l'autre (nécessaire pour garantir la commutativité).

Le produit de convolution généralise l'idée de moyenne glissante et est la représentation


Chapitre IV Produit de Convolution et Corrélation des Signaux

mathématique de la notion de filtre linéaire. Il s'applique aussi bien à des données temporelles
(en traitement du signal par exemple) qu'à des données spatiales (en traitement d'image). En
statistique, on utilise une formule très voisine pour définir la corrélation croisée.

1.1.1. Définition du produit de convolution

Contexte : Soit un système Linéaire et Invariant dans le Temps (SLIT) définie par sa réponse à
une impulsion de Dirac, h(t).

Objectif : Déterminer le signal de sortie lorsque l’on applique un signal x(t) en entrée.

Solution : Il est possible de démontrer que l’opération réalisée par le système est un produit de
convolution.

Le produit de convolution de deux fonctions réelles ou complexes f et g, est une autre fonction,
qui se note généralement « » et qui est définie par :

est la variable muette du produit de convolution.

On peut considérer cette formule comme une généralisation de l'idée de moyenne mobile.

Pour que cette définition ait un sens, il faut que f et g satisfassent certaines hypothèses ; par
exemple, si ces deux fonctions sont intégrables au sens de Lebesgue (c'est-à-dire que l'intégrale
de leur module est finie), leur produit de convolution est défini pour presque tout t et est lui-
même intégrable.

Exemple :

Soit x(t) = y(t) = Π deux fonctions portes de largeur l = 1. Le produit de convolution


s’exprime sous la forme :
⁄ ⁄
⁄ ⁄

1 1, 0

1 0 , ⁄
1

61
Chapitre IV Produit de Convolution et Corrélation des Signaux


0 1 , ⁄
1

Finalement en utilisant les équations précédentes, on trouve :


1 | |, 1 1
0,

x(t) y(t) (x * y)(t)

1.2. Propriétés du produit de convolution

Commutativité :

Distributivité :

Associativité :

Distributive par rapport à l'addition :

Pourvue d'un élément neutre égal à δ :

Intégration d'un produit de convolution : .

Dérivation :

Parité de la convolution de deux fonctions paires :

Produit de convolution et transformée de Fourier :

. ; .

1.3. Produit de convolution et impulsion de Dirac

Le fait que la fonction de Dirac soit l’élément neutre du produit de convolution induit une
propriété intéressante concernant le produit d’une fonction continue f(t) par un peigne de Dirac
δTe(t). Le produit de convolution dans ce cas là est définie par :

∑ (4.2)

62
Chapitre IV Produit de Convolution et Corrélation des Signaux

Ainsi, le produit de convolution de f(t) par δTe(t) donne une fonction périodique qui s’obtient en
sommant, sur toutes les valeurs possibles de n, la fonction f(t) décalée de nTe, et en multipliant
le résultat par Te. On dit parfois que cette opération « périodise » f(t).

1.4. Déconvolution

La déconvolution est un procédé algorithmique destiné à inverser les effets de la convolution. Le


concept de déconvolution est largement utilisé en traitement du signal et traitement d'image,
notamment en microscopie et astronomie.

Le problème est de déterminer la solution f d'une équation de la forme :

On note ici par h un signal tel qu'il est acquis et f le signal que l'on désire estimer ou restaurer,
mais qui a été convolué par une réponse impulsionnelle g lors de l'acquisition. La réponse
impulsionnelle est souvent (surtout en traitement d'image) aussi nommée fonction d'étalement du
point (anglais: Point Spread Function ou PSF).

Lorsqu'on a affaire à un processus physique d'acquisition, la mesure h est souvent entachée d'un
bruit de mesure ε :

L'opération de déconvolution sera rendue plus difficile par la présence de « bruit ». L'application
de l'inverse analytique de déconvolution (en convoluant par la fonction de Green) donnera un
résultat de mauvaise qualité. Il est alors nécessaire d'inclure la connaissance statistique du bruit
et du signal pour améliorer le résultat, en utilisant par exemple le « filtrage de Wiener ».

Il existe donc en traitement du signal un grand nombre de méthodes de déconvolution basées sur
différents types d'a priori et donc adaptées à des applications variées.

2. Fonction de Corrélation

En traitement des signaux, il est souvent nécessaire de comparer deux signaux, ceci peut se faire
de plusieurs manières. Une méthode possible, dont on fait grand usage, est de décaler l’un des
signaux (stationnaire et ergodique), par rapport à l’autre, et de mesurer leur similitude en
fonction du décalage. C’est la fonction de corrélation (FAC).

On distingue l’auto-corrélation (FAC) et l’inter-corrélation (FIC) :


- La FAC consiste à comparer une fonction S (t ) avec elle-même, durant un intervalle de temps,
dont l’une est décalée d’une certaine valeur τ .

63
Chapitre IV Produit de Convolution et Corrélation des Signaux

- La FIC remplacée parfois par corrélation mutuelle ou corrélation croisée (en anglais : Cross
corrélation) consiste à comparer deux fonctions différentes S (t ) et Y (t ) dont l’une est décalée
d’une certaine valeur τ .

On peut énumérer les différentes étapes et opérations intervenant dans le calcul d’une
fonction de corrélation de la manière suivante :
- L’un des signaux est décalé d’une certaine quantité τ .
- Le produit des deux signaux est effectué échantillon par échantillon pour toutes les valeurs
de la fonction de corrélation.
- Les valeurs ainsi obtenues sont additionnées pour obtenir une valeur de la fonction de
corrélation.

2.1. Fonction d’auto-corrélation

Soit S (t ) un processus aléatoire réel, stationnaire et ergodique ; on distingue :

2.1.1. Fonction d’auto-corrélation statistique


La FAC statistique est définie comme l’espérance mathématique du produit de S (t ) et
S (t + τ ) :

ΓSS (τ ) = Ε[ S (t ) S (t + τ )] (4.3)

2.1.2. Fonction d’auto-corrélation temporelle


La FAC temporelle d’un signal à puissance fini est donnée par la valeur moyenne
temporelle du produit de S (t ) par S (t + τ ) :
T
2
1
ΓSS ( τ ) = S (t ) S (t + τ ) = lim
T →∞ T ∫ S (t )S (t + τ)dt
−T
(4.4)
2

D’une manière générale, la FAC est définie comme suit :


T
2
1
ΓSS ( τ ) = Ε[ S (t ) S (t + τ)] = lim
T →∞ T ∫ S (t ) S (t + τ)dt
−T
(4.5)
2

Cette formule traduit le fait que dans le cas d’un processus stationnaire, la FAC statistique est
égale à la FAC temporelle ( C’est le cas d’ergodicité).

64
Chapitre IV Produit de Convolution et Corrélation des Signaux

2.1.3. Propriétés de la fonction d’auto-corrélation


1. La FAC de signaux réels est aussi réelle.
2. D’après la stationnarité du second ordre, La FAC de signaux réels est pair et ne dépend que
de τ .
Ε[ S (t ) S (t − τ )] = Ε[ S (t ) S (t + τ)] (4.6)
D’où
ΓSS ( τ) = ΓSS ( − τ) (4.7)
On remarque que la fonction d’auto-corrélation est aussi symétrique.
3. Lorsque la FAC est complexe, la partie réelle de la FAC est une fonction paire, alors que la
partie imaginaire est une fonction impaire
4. La FAC est définie par le produit scalaire comme suit :
+∞
ΓSS (τ ) =p S , S τ f = ∫ S (t )S (t + τ)dt
−∞
(4.8)

5. La FAC d’un processus stationnaire atteint son maximum en τ = 0 , avec une valeur toujours
réelle et non négative, cette valeur est la borne supérieure en module de la FAC.
Selon SCHWARZ, on obtient l’inégalité suivante
2
ΓSS (τ ) ≤ ΓSS (0) ∀t (4.9)

Cette valeur est égale à l’énergie du signal


+∞

∫ S (t )
2 2
ΓSS (0) = p S , Sτ f = S (t ) = dt (4.10)
−∞

6. La FAC de signaux périodiques ou continue, est également une fonction périodique de même
période ou continue.
7. Dans le cas où la fonction S (t ) est composée par la somme de deux fonctions U(t) et V(t), la

FAC de S (t ) est définie par la relation suivante :


ΓSS ( τ ) = ΓUU ( τ ) + ΓVV ( τ ) + ΓUV ( τ ) + ΓVU ( τ ) (4.11)

8. Si S (t ) est le produit de deux fonctions U (t ) et V (t ) réelles et indépendantes, la FAC est


égale au produit des FACs des deux fonctions.
ΓSS ( τ ) = ΓUU ( τ ).ΓVV ( τ ) (4.12)

9. La FAC d’un signal aléatoire tend vers zéro lorsque le décalage τ augmente indéfiniment en
valeur absolue.

65
Chapitre IV Produit de Convolution et Corrélation des Signaux

La version numérique de la FAC est donnée par :


N −1
1
ΓSS ( kTe ) = lim
N →∞ N
∑ S (nT )S (nT
n =0
e e + kTe ) (4.13)

Pour une période d’échantillonnage égale à l’unité ( Te = 1 ) :


N −1
1
ΓSS ( k ) = lim
N →∞ N
∑ S (n)S (n + k )
n =0
(4.14)

La relation (4.14) n’est utilisable en pratique que si le signal est à durée limitée. Si N est la
durée de Sq(n ) , alors la durée de la FAC est de ( N − k ), donc la relation (4.14) pour des raisons
expérimentales devient :
1 N −1
⎧(1 ≤ n ≤ N − k )
ΓSS ( k ) = ∑ Sq(n) Sq(n + k ) ⎨ (4.15)
N −k n =1 ⎩(0 ≤ k ≤ M ≤ N )

2.1.4. Théorème de PARSEVAL


La valeur à l’origine de la FAC est donnée par :
+∞
ΓSS (0) = ∑S
n = −∞
2
(n) (4.16)

Cette relation est connue sous le nom du théorème de PARSEVAL, qui permet de calculer
l’énergie du signal S (t )

2.2. Fonction d’inter-corrélation


Soient deux processus aléatoires réel, stationnaires et ergodiques S (t ) et Y (t ) , on
distingue :

2.2.1. Fonction d’inter-corrélation statistique


La FIC statistique est définie comme l’espérance mathématique du produit de S (t ) et
Y (t + τ ) .

ΓSY (τ ) = Ε[ S (t )Y (t + τ )] (4.17)

2.2.1.2. Fonction d’inter-corrélation temporelle


La FIC temporelle est donnée par la valeur moyenne temporelle de produit de S (t ) par
Y (t + τ ) .
T
2
1
ΓSY (τ ) = S (t )Y (t + τ ) = lim
T →∞ T ∫ S (t )Y (t + τ )dt
−T
(4.18)
2

66
Chapitre IV Produit de Convolution et Corrélation des Signaux

D’une manière générale, la FIC est définie comme suit :


T
2
1
ΓSY ( τ ) = E[ S (t )Y (t + τ)] = lim
T →∞ T ∫ S (t )Y (t + τ)dt
−T
(4.19)
2

2.2.3. Propriétés de la fonction d’inter-corrélation


1. La FIC n’est pas une fonction paire :
ΓSY (τ ) ≠ ΓSY (−τ ) (4.20)

mais ΓSY (τ ) = ΓYS (−τ ) (4.21)

2. Pour τ = 0 , on obtient l’inégalité suivante :


1
Γ SY (τ ) ≤ (ΓSS (0).ΓYY (0)) 2 ∀t (4.22)

La version numérique de la FIC :


N −1
1
ΓSY ( K ) = lim
N →∞ N
∑ S (n)Y (n + K )
n=0
(4.23)

Cas pratique :
1 N −1
⎧(1 ≤ n ≤ N − K )
ΓSY ( K ) = ∑ S (n)Y (n + K ) ⎨ (4.24)
N −K n=0 ⎩(0 ≤ K ≤ M p N )
Le nombre d’échantillons N de signal à traiter, le nombre M qui représente la fenêtre
d’observation de la fonction de corrélation et qui doit être inférieur à N, alors la durée de la FAC
est de ( N − K ).

2.3. Coefficient de corrélation

Le coefficient de corrélation entre deux signaux S (t ) et y(t ) est le rapport entre leur

covariance C Sy ( τ) et le produit de leurs déviations standards respectives et qui est

donnée par :
C Sy ( τ)
ρSy = (4.25)
δSδ y

Tel que :
C Sy ( τ) : La covariance définie par :

C Sy ( τ) = Ε [( S - µ S )( y − µ y )] = Γ Sy ( τ) - µ S µ y (4.26)

δ : C’est l’écart type qui est définie comme suit :


δ 2 = E[( S − µ S2 )] (4.27)
Souvent, ce coefficient est appelé « covariance normalisée » car on peut prouver que :
67
Chapitre IV Produit de Convolution et Corrélation des Signaux

− 1 ≤ ρSy ≤ +1

Suivant les valeurs prises par le coefficient de corrélation on peut établir la classification
suivante :
1. Si ρSy = 0 , alors S et y sont indépendantes (pas de corrélation).

2. Si C = 1 , on dit que S et y sont totalement corrélées.

3. Si C = 1 , alors S et y sont partiellement corrélées.

2.3.1. Corrélation partielle


Dans le cas de deux signaux S et Y partiellement corrélées, nous avons la possibilité
d’exprimer Y sous la forme d’une somme de deux termes, le premier étant entièrement corrélé
avec S et le deuxième Z étant indépendant.
Y = aS + Z (4.28)

Où S = Y = Z = 0 et a = Cte

Alors le coefficient de corrélation est :


1
S2 −
ρ SY = (sgn a)(1 + ) 2
(4.29)
a2S 2

Et l’on observe qu’il est de même signe que la constante

Remarque : la relation (4.25) devient pour un seul signal (cas de la fonction d’auto-corrélation)
C S ( τ)
ρS = (4.30)
δ 2S
2. 4. Théorème de Wiener- Khintchine
Ce théorème exprime que la transformée de Fourier de la fonction de corrélation est la
densité spectrale de puissance d'un processus stochastique stationnaire au sens large de ce signal.
+∞
n
ρ SY (n) = TF [ΓSY ( τ)] = ∑Γ
τ =-∞
SY ( τ)exp(-2πj
N
τ) = S (n)Y (n) (4.31)

ρ SY (n) est la densité spectrale d’interaction.


2
ρ SS ( n) = TF [ΓSS ( τ)] = S ( n) S ( n) = S(n) (4.32)

ρ SS (n) est la densité spectrale du signal S (t ) .

Remarque : On notera que la valeur de la fonction de corrélation ne sera calculée que si, au
moins, l’un des deux signaux est à énergie finie.

68
CHAPITRE V

ECHANTILLONNAGE ET SIGNAUX DISCRETS  

Introduction
On appelle signal toute manifestation sous forme d’une grandeur physiquement
observable d’un phénomène le plus souvent électrique, acoustique ou optique. Dans un sens
plus restrictif, un signal est la représentation physique de l’information qui est envoyée d’une
source vers un destinataire : c’est le véhicule de l’intelligence dans les systèmes. Il transporte
les ordres dans les équipements de contrôle et de télécommande. Il achemine sur les réseaux
l’information, la porte ou l’image. Il est particulièrement fragile et doit être manipulé avec
beaucoup de soin. Le traitement qu’il subit à pour but d’extraire les informations utiles
éventuellement masquées par des perturbations indésirables, de modifier le message qu’il
transporte ou de l’adapter aux moyens de transmission. Les techniques numériques
interviennent justement à ce stade là. Ceci a été largement motivé par l’avancée spectaculaire
réalisée dans le degré d’intégration des circuits , et dans la vitesse , de plus en plus rapide , de
ces composants , ce qui a de même permis de mettre au point des processeurs très performants
pour le traitement numérique de signal : lorsque le signal est numérisé , il se présente alors
comme une séquence de valeurs numériques et le traitement numérique de signal consiste en
une série d’opérations arithmétiques et logiques sur ces valeurs numériques.
Le signal analogique, dont la variable temps est continue, est d’abord échantillonné et
la variable temps devient discontinue, le signal est donc considéré seulement en des instants
particuliers qui sont des multiples entiers de la période d’échantillonnage.
Les avantages du traitement numérique du signal sont plus particulièrement la précision
et la fiabilité. Cette discipline a trouvé d’importantes applications dans une multitude de
domaine scientifiques et techniques comme les télécommunications, l’acoustique, la
géophysique, l’astrophysique, la biomédecine, l’automatique, et les processus industriels,
pour ne citer que quelques exemples.
Un des traitements de signal le plus principal est le filtrage. Le filtrage sélectif consiste
à sélectionner ou supprimer certaines composantes fréquentielle du signal. Il est utilisé pour
supprimer la partie du signal non désirée qu’on appelle bruit pour ne préserver que le signal
pertinent.
Chapitre V Echantillonnage et Signaux discrets.

1. Signaux discrets
Un signal discret est un signal obtenu par l’expression d’une information à des valeurs
ponctuelles du temps x(ti) ; il constitue donc une suite numérique. Dans la pratique, les
signaux discrets sont les plus souvent obtenus par l’opération appelée échantillonnage.
Signal analogique ; signal à temps et amplitude continues.
Signal quantifié ; signal à temps continu et amplitude discrète.
Signal échantillonné ; signal à temps discret et amplitude continue.
Signal numérique ou digital ; signal à temps et amplitudes discrètes.

Figure 5.1. Signaux discrets.

On s’intéresse à une chaine de traitement numérique du signal (TNS) du type de la figure 5.2

Figure 5.2. Chaine de TNS.

1.1. Signaux élémentaires


- Impulsion unité - Echantillon unité

1, 0
0,

- Echelon unité (ou saut unité)

1, 0
0,

71
Chapitre V Echantillonnage et Signaux discrets.

- Séquence exponentielle réelle

; 1

- Séquence sinusoïdale

; 1/

- Signal rectangulaire

1, 0 1
0,

- Signaux causals

, 0
0,

- Séquence périodique

; : é

1.2. Energie et puissance des signaux discrets


- L’énergie d’une séquence est définie par : ∑ | |
- La puissance moyenne d’une séquence est définie par :
lim ∑ | |
2. Echantillonnage

L'échantillonnage consiste à prélever les valeurs d'un signal à intervalles définis, en


général réguliers. Il produit une suite de valeurs discrètes (figure 5.2). Le pas ou la période
d’échantillonnage est l’intervalle entre deux échantillons. La plupart du temps, l'intervalle
entre deux échantillons consécutifs est constant.

Le traitement numérique du signal par ordinateur exige que le signal soit converti en une
suite de nombres (numérisation). Cette conversion se décompose, sur le plan théorique, en
trois opérations :

1. l'échantillonnage prélève, le plus souvent à intervalles réguliers, la valeur du signal ;

72
Chapitre V Echantillonnage et Signaux discrets.

2. la quantification transforme une valeur quelconque en une valeur prise dans une liste
finie de valeurs valides pour le système ;

3. le codage fait correspondre à chaque valeur valide pour le système un code numérique.

La théorie de l'échantillonnage s'applique à tout système capturant des valeurs à intervalles


définis, y compris quand il y a codage sans quantification, comme dans le cas du relevé des
valeurs par une personne, quand il n'y a ni quantification ni codage et que les valeurs
échantillonnées restent analogiques, que les grandeurs aient une seule dimension ou plusieurs.
Pour déterminer la méthode d'échantillonnage, il faut avoir une connaissance préalable du
signal. Il faut au moins déterminer une fréquence maximale susceptible d'y être présente.

Figure 5.2. Illustration de l'échantillonnage d'un signal : on mesure la valeur du signal à des instants
qui sont des multiples de la période d'échantillonnage.

3. Echantillonnage idéalisé

Le modèle général d'un échantillonneur idéal est :

Figure 5.3. Echantillonneur.

. ∑ (5.1)

: est appelé fonction d’échantillonnage.

73
Chapitre V Echantillonnage et Signaux discrets.

On peut assimiler théoriquement la suite idéale d'échantillons prélevés avec une cadence fixe
fe = 1/Te à un signal Xei(t) obtenu par une fonction d'échantillonnage idéalisée (peigne du
Dirac).

- Pour un signal X(t) déterministe : . .∑

4. Echantillonnage réel
La fonction d’échantillonnage réel e(t) est donnée par
∑ ; 1 (5.2)

- Pour un signal X(t) déterministe :

∑ . . .

- Pour un signal x(t) aléatoire statiquement indépendant de e(t) alors :


. ;Φ Φ Φ ;

Φ Φ Φ ∑ . . .Φ
5. Théorème d’échantillonnage

Le théorème d'échantillonnage, dit aussi théorème de Shannon ou théorème de Nyquist-


Shannon, établit les conditions qui permettent l'échantillonnage d'un signal de largeur
spectrale et d'amplitude limitées.

Dans le cas général, le théorème d'échantillonnage énonce que l’échantillonnage d'un signal
exige un nombre d'échantillons par unité de temps supérieur au double de l'écart entre les
fréquences minimale et maximale qu'il contient. Dans le cas le plus courant, la fréquence
minimale du signal est négligeable par rapport à la fréquence maximale et le théorème affirme
simplement :

74
Chapitre V Echantillonnage et Signaux discrets.

La représentation discrète d'un signal ayant un spectre de type passe bas exige des
échantillons régulièrement espacés à une fréquence d'échantillonnage supérieure au double
de la fréquence maximale présente dans ce signal 2 .

- Si le signal est de type passe bande , celui-ci doit être

échantillonné à la fréquence 2 ; m : le plus grand nombre entier .

Réciproquement, l'échantillonnage avec des échantillons régulièrement espacés peut décrire


un signal à condition qu'il ne contienne aucune fréquence supérieure à la moitié de la
fréquence d'échantillonnage, dite fréquence de Nyquist.

Le théorème inclut des possibilités moins souvent mises en pratique, comme


l'échantillonnage d'un signal à bande de fréquences étroite à moins du double de la fréquence
maximale. Il montre aussi que d'autres types d'échantillonnage, par exemple avec des
échantillons groupés par deux, ou un échantillonnage de la valeur et de sa dérivée un point sur
deux, peuvent décrire le signal. Dans tous ces cas, le même nombre total d'échantillons est
nécessaire.

La reconstitution du signal peut être faite en temps réel par un filtre passe bas de
fréquence de coupure fe / 2 et en temps différé par interpolation polynomial.

6. Conversion analogique - numérique et numérique – analogique

Le monde physique est par nature analogique (dans l a quasi-totalité des cas). Il est
perçu via des signaux analogiques (son, ondes visuelles, etc), qui peuvent être traités par des
systèmes analogiques. Depuis une vingtaine d’années, le traitement numérique des données
prend le pas sur les approches purement analogiques. Le recours au numérique permet en effet
un stockage aisé de l’information, une excellente reproductibilité des traitements, la
possibilité de développer relativement aisément des fonctionnalités complexes, une réduction
des coûts de production, etc.

L’interface nécessaire entre le monde analogique et un traitement numérique donné est


réalisé par des convertisseurs analogique – numérique (CAN, ou ADC pour Analog to Digital
Converter en anglais1) et numérique – analogique (CNA, ou DAC pour Digital to Analog
Converter). Le rôle d’un CAN est de convertir un signal analogique en un signal numérique
pouvant être traité par une logique numérique, et le rôle d’un CNA est de reconvertir le signal
numérique une fois traité en un signal analogique. Le schéma de principe d’un système de
traitement numérique de signaux analogiques est représenté par la figure suivante :

75
Chapitre V Echantillonnage et Signaux discrets.

Figure 5.4. Conversions et traitement numérique des données.

On distingue les méthodes de conversion analogique – numérique directes (parallèle – flash-,


convertisseurs à approximations successives, série parallèle) et indirectes.

Exemple 1 : Signal sinusoïdal d’amplitude crête à crête V

Donc la pente maximale vaut :

2 (5.3)
. .

Pour un convertisseur de durée de conversion 1 µs de n = 8bits. La fréquence maximale


tolérée d’un signal sinusoïdal est de 622 Hz. Elle est 4 fois plus faible pour n = 10 bits et 10
fois plus faible pour Tc = 10 µs.

Exemple 2 : Signal aléatoire gaussien

Considérons un signal aléatoire x(t) à spectre blanc borné : Φ . et

de variance , la probabilité que | | 3 et inférieur 3%, donc on peut choisir pour


le convertisseur la plage de conversion 6 .

Donc possède une densité spectrale 2 Φ et une variance

4 4 . 3 or est également à distribution gaussienne

puisque la dérivation est une opération linéaire.

La pente ne dépasse pas donc en valeur absolue 3 . qu’avec une probabilité inférieure
à 3%. Donc :

3 . ;6

√ .


. .
√3 . .
1.73.
. .
(5.4)

On constate que (5.2) et (5.3) sont du même ordre de grandeur.

76
Chapitre V Echantillonnage et Signaux discrets.

7. Quantification

En traitement des signaux, la quantification est le procédé qui permet d'approcher un


signal continu par les valeurs d'un ensemble discret d'assez petite taille. On parle aussi de
quantification pour approcher un signal à valeurs dans un ensemble discret de grande taille
par un ensemble plus restreint. L'application la plus courante de la quantification est la
conversion analogique-numérique mais elle doit le développement de sa théorie aux
problèmes de quantification. On trouve : la quantification uniforme (par trancature, par
arrondi) et non uniforme. La quantification est une opération destructrice d'information. Elle
introduit une erreur (ou un bruit) entre le signal quantifié et le signal source. Cette erreur est
généralement mesurée par la distance.

8. Classification des systèmes de traitement

Généralement, les signaux doivent être traités soit pour en extraire de l’information, soit
pour les rendre porteurs d’information. Ces traitements sont effectués à l’aide de systèmes que
l’on appelle systèmes de traitement de signaux. Un tel système agit sur un signal d’entrée et
produit, à sa sortie, un signal qui est sous une forme plus appropriée pour l’utilisation
envisagée.

On peut classer les systèmes de traitement selon la nature des signaux sur lesquels ils
opèrent. On parle ainsi : systèmes analogiques (opérant sur des signaux analogiques et
produisent des signaux analogiques), systèmes échantillonnés, systèmes numériques ou
digitaux (agissant sur des signaux numériques et produisant des signaux numériques) et
systèmes hybrides (convertisseurs analogique -numérique).

8.1. Systèmes numériques

Un système de traitement numérique agit sur un signal numérique d’entrée et produit


un autre signal numérique à sa sortie. Autrement dit, il établit une relation de cause à effet.

x(k) Système S[ ] y(k)


Excitation réponse

Pour analyser un système donné, il est nécessaire de le représenter par un modèle


mathématique ; en générale un tel modèle est un opérateur fonctionnel (ou transformation) S
qui agit sur un signal d’entrée x(k) et le transforme en un signal de sortie y(k). Cette opération
est représenté par :

77
Chapitre V Echantillonnage et Signaux discrets.

8.2. Systèmes causaux

Ces systèmes sont caractérisés par le fait que leur réponse ne précède jamais leur
excitation c'est-à-dire ;

Si on a ; x(k) = 0 pour k < k0

on doit avoir y(k) = 0 pour k < k0

y(k) est la réponse à l’excitation x(k)

Cette caractéristique traduit le fait que l’effet ne puisse jamais précéder la cause qui le
produit. Cette condition de causalité est nécessaire pour que le système soit physiquement
réalisable.

8.3. Systèmes stables

Un système est dit stable si sa réponse à toute entrée bornée est bornée. Comme la
causalité, la stabilité est un critère indispensable à la réalisation possible d’un système.

Cette restriction permet donc, de contrôler la dynamique des signaux de sortie. Une condition
nécessaire et suffisante de stabilité est donnée par l’inégalité :

∑ | | ∞ (5.5)

Ou h(n) constitue la réponse impulsionnelle du système tel que :

∑ (5.6)

8.4. Systèmes linéaires

Un système est linéaire si :

S[a. x1 (k) +b.x2 (k)]= a.S[x1 (k)] + b .S[x2 (k)] (5.7)

Ou a et b sont deux constantes.

x1 (k), x2 (k) deux entrées ou excitations. S est l’opérateur fonctionnel caractérisant le système.

8.5. Systèmes linéaires discrets invariants dans le temps (SLIT)

Si la réponse à l’excitation x(k) est y(k), le système linéaire est dit invariant si la réponse
à x(k-k0 ) est y(k-k0 ) , ou k0 est un nombre entier quelconque.

Pour qu’un système numérique soit linéaire invariant dans le temps, deux conditions doivent
être satisfaisantes :

*linéaire : S[a. x1 (k) +b.x2 (k)]= a.S[x1 (k)] + b.S[x2 (k)]

78
Chapitre V Echantillonnage et Signaux discrets.

*invariance dans le temps : S[x(k-k0 )]= y(k-k0 ) avec S[x(k)] = y(k).

Exemple

, 0 1
Soit :
0, 0
0 0

0 ∑

• Causalité :
Un système causal : 0 0 ; une séquence x(n) est causale : 0 0
• Stabilité : ∑ | | ∞
| |
∑ | | ∑ | | ; stable si : | | 1
| | | |

9. Equation aux différences

Mathématiquement, l’excitation et la réponse d’un large sous- ensemble de systèmes


linéaires satisfont une équation aux différences d’ordre N du type :

∑ ∑ , (5.8)
Une telle équation est appelée équation aux différences linéaire.

Exemple

Si 1

Système causal 0 0

1
1
0 1 0 1
1 0 1
2 1 2
….

Si h(n) est de durée finie R.I.F (Réponse Impulsionnelle Finie)


Si h(n) est de durée infinie R.I.I (Réponse Impulsionnelle Infinie)

79
Chapitre V Echantillonnage et Signaux discrets.

9.1. Equation aux différences linéaire à coefficients constants

Dans un système linéaire invariant, un signal d’excitation x(k) est traité d’une manière
indépendante de l’origine de sa variable indépendante k. Par conséquent les coefficients an (k)
et bm(k) dans l’équation (5.8) sont des constantes indépendantes de k. Elle est appelée aussi
équation aux différences linéaire à coefficients constants d’ordre N.

9.2. Réponse impulsionnelle et produit de convolution

Un système linéaire invariant dans le temps est caractérisé entièrement par sa réponse
impulsionnelle h(k) définie comme la réponse du système à l’instant k au signal d’entrée
impulsion unité δ(k), avec :

1, 0
0, 0

En effet puisque : S [δ (k)] = h (k)

La propriété d’invariance temporelle assure que : S [δ (k-n)] = h (k)

Et puisque tout signal d’entrée x(k) du système peut se décomposer comme une
combinaison linéaire de signaux δ(k-n) dont les coefficients sont x(n);

Nous avons par linéarité et continuité :

∑ ∑

Donc : ∑ ∑

Cette relation est appelée produit de convolution et noté x(k)*h(k).

Schématiquement ;
x(k) S.L.I.T à réponse y(k) = x(k)*h(k)
impulsionnelle

Le produit de convolution est commutatif, associatif et distributif.

9.3. Réponse fréquentielle

La réponse fréquentielle ou réponse harmonique est définie comme étant la transformée


de Fourier H(f) de la repose impulsionnelle h(k) ;

∑ (5.9)

80
Chapitre V Echantillonnage et Signaux discrets.

10. Transformée en Z

La transformée en Z est un outil mathématique de l'automatique et du traitement du


signal, qui est l'équivalent discret de la transformée de Laplace. Elle est utilisée entre autres
pour le calcul de filtres numériques à réponse impulsionnelle infinie et en automatique pour
modéliser des systèmes dynamiques de manière discrète.

On sait calculer la transformée de Laplace du signal échantillonné s * ( t ) avec le

théorème du décalage temporel L( f (t − nT )) = e − nTp L( f (t )) . On obtient :

s * ( p ) = L( s * (t )) = ∑ s (nT )e − nTp
~ (5.10)
n ≥0

Pour étudier la convergence de la somme ~


s * ( p ) , on pose pour simplifier. La
nouvelle variable z est complexe comme la variable de Laplace, et T est la période
d’échantillonnage constante. En cas de convergence de (5.10), c’est donc :

s * ( p ) = S (eTp ) = S ( z ) = ∑ s (nT ) z − n = Z ( s (nT ))


~
n≥0

S ( z ) est la transformée en z du signal discret s( nT ) (signal s( t ) échantillonné avec la cadence


T).

Par échantillonnage
̃. ∑ (5.11)
|∑
La variable n représente en général le temps discrétisé, la variable complexe z n'est qu'un être
mathématique. Lorsqu'on travaille sur s(nT) on dit que l'on est dans le domaine temporel,
lorsqu'on travaille sur s(z) le domaine est appelé fréquentiel par analogie avec la transformée
de Fourier.

Si 0, 0 , on parle de signal causal. Inversement, si 0, 0, on parle


de signal anti-causal.

La transformée en Z est une forme de la transformée de Laplace. La relation z = e


Tp
est
fondamentale, car elle permet d’étendre les résultats établis pour les systèmes en temps
continu aux systèmes en temps discret.

81
Chapitre V Echantillonnage et Signaux discrets.

10.1. Existence de la transformée en Z

Le domaine de convergence est le sous-ensemble de dans lequel la série converge.


Autrement dit, le domaine de convergence de la transformée en z de la suite est
l'ensemble :

|∑ (5.12)

Le signal x(kTe) a une transformée en Z s’il existe z tel que la série complexe X(z) soit
convergente ; ce sera pour les signaux réellement rencontrée.

Exemple :

La série est convergente pour | | , x(k) possède une transformée en Z.

Quelque soit z, lim ∞ ; la série est divergente et y(k) n’a pas de transformée en Z.

10.2. Transformée en z des signaux élémentaires

En appliquant la définition (5.12) de la transformée en z, on établit aisément que :

• L’échantillon unité 0 1; 0; 0 . 1; 1.

• L’échelon unité u( t ≥ 0) = 1donne par échantillonnage u( nT ) = 1 pour n ≥ 0 .



1 − z −n 1 z
Z (u (nT )) = ∑ z − n = lim = = si z −1 < 1
n → ∞ 1 − z −1 1− z −1
z −1
n =0

soit z > 1 (c’est le domaine de convergence)

• Signal rectangulaire

• Signal exponentiel , , ∑

• Impulsion : en temps continu, c’est l’impulsion de Dirac δ ( t ) , en temps discret, on utilise


la fonction de Kronecker, soit i( n ) = 1 si n = 0 , et i( n ≠ 0) = 0 .

On trouve donc facilement que Z[ i( n )] = 1 sans condition de convergence sur z.

82
Chapitre V Echantillonnage et Signaux discrets.

• Premier ordre, constante de temps :


1
s (t ) = e − at ⎯⎯ ⎯→
Laplace

p+a
, s (nT ) = e − anT ⎯
⎯→
Z
∑ ( ze aT ) − n

1 z
qui converge vers −1 − aT = − aT si :
z > e − aT
1− z e z−e

• etc ... (voir une table de transformées en z)

Exemple : quelle est la transformée en z de la rampe unité ?


Tz
(Solution : r (t ) = t → r ( kT ) = kT ⎯Table
⎯ ⎯→ R ( z ) = )
( z − 1) 2
10.3. Quelques propriétés de la transformée en Z

Les transformées en Z et de Laplace L ont des propriétés liées par la relation .

‰ Z est donc linéaire, d’où la possibilité de décomposition en éléments simples.

‰ Le théorème du retard de Z remplace celui de la dérivée et permet le calcul de la


fonction de transfert :
Z
e( n ) ⎯
⎯→ E ( z )

⎯→ ∑ e( n − 1)z − n = e( −1) + z −1 E ( z )
Z
e( n − 1) ⎯
n=0

A condition initiale e(−1) nulle, on a donc : Z[ e( n − 1)] = z −1 Z[ e( n )] et plus généralement

Z[ e( n − k )] = z − k Z[ e( n )] .

Z
‰ Théorèmes des valeurs initiale et finale : soit e( n ) ⎯
⎯→ E ( z )
z −1
Théorème de la Valeur Initiale : e( 0) = lim E ( z ) = lim E ( z )
z →∞ z z →∞

z −1
Théorème de la Valeur Finale : lim e( n ) = lim E( z )
n →∞ z →1 z

‰ Transformée du Produit de Convolution *

Le produit de convolution de deux signaux discrets a et b est défini comme suit :


( a∗ b)( n ) = ∑ a ( n − i )b( i ) = ∑ a ( i )b( n − i ) , avec 0 ≤ i ≤ n si a et b sont causaux. Comme
i i

pour la transformée de Laplace, on a : Z (∗) = x et Z (x ) = ∗ .

83
Chapitre V Echantillonnage et Signaux discrets.

‰ Formule des résidus :


Pour inverser la transformée en z, à comparer à la formule déjà vue pour le cas continu

h ( n ) = Z −1 [H ( z )] = ∑ Résidus( H ( z ) z n −1
)
pôles
H ( z ) z n −1

avec, pour le résidu de F (z ) en z = a pôle d’ordre m


1 d m−1
m−1
(( z − a) m F ( z )) pris en z =a
(m − 1)! dz
10.4. Application à la fonction de transfert en Z

Soit y (n ) un signal discret à partir de mesures x (k ) opérées sur un signal x(t) et selon la
relation suivante, ou équation aux différences :

1 (5.13)

où y (n ) est la valeur calculée à l’instant nT , y ( n − 1) est le résultat du calcul précédent et


x ( n − 1) l’entrée mesurée en ( n − 1)T . L’équation (5.13) est récursive (i.e. le calcul de y
dépend de y lui-même).
Z Z
Supposons y ( n ) ⎯
⎯→ Y ( z ) et x ( n ) ⎯
⎯→ X ( z ) , on a alors à conditions initiales nulles, soit
y ( −1) = x ( −1) = 0 .

y ( n − 1) + x ( n − 1) Z z − 1 Y ( z ) + z −1 X ( z )
y(n) = ⎯⎯→ Y ( z ) =
2 2

Y (z ) z −1 1
On en tire ici = −1 = = T (z ) .
X (z ) 2 − z 2z − 1

T (z ) est la fonction de transfert associée, c’est une fraction rationnelle en z. La relation (5.13)
s’écrit encore sous la forme d’un produit de convolution discret puisque :

Z −1
Y ( z ) = T ( z ) X ( z ) ⎯⎯→ y ( n ) = ( h∗ x )( n )

h( n ) = Z −1 [T ( z )] est alors la réponse impulsionnelle du processus discret d’équation (5.13) et


de fonction de transfert T (z ) , on a comme en temps continu T ( z ) = Z [h ( n )]

10.5. Calcul des réponses temporelles et fréquentielles d’un processus discret

On procède comme en temps continu, à ceci près que z = e Tp :

84
Chapitre V Echantillonnage et Signaux discrets.

¾ Réponse impulsionnelle : X ( z ) = 1, Y ( z ) = F ( z ) , h( k ) = Z −1 [ F ( z )]
z ⎡ zF ( z ) ⎤
¾ Réponse indicielle : X ( z ) = donc y ( n ) = Z −1 ⎢
z −1 ⎣ z − 1 ⎥⎦
jωT
¾ Réponse harmonique : p → jω se traduit par z → e ,
d’où la réponse harmonique ou fréquencielle, Gain = F ( e jωT ) et Phase = ∠F ( e jωT ) .
¾ Gain statique : c’est lim T ( z )
z →1

10.6. Transformée en Z inverse

(5.14)

(c) un contour fermée appartenant au domaine de convergence de X(z).

z = z0 est un pole d’ordre p.

Résidus de
!

Si p = 1 é ψ z

Exemple
| | | |

- Pour 0 on a un pôle en z = a d’ordre 1

- Pour 0 on a un pole en n = -m d’ordre 1

On a deux pôles : z = a d’ordre 1 ; z = 0 d’ordre m.

• L’inverse par développement en série polynomial

| | | |

; trouver les polynômes en puissance de .

/ 1 ∑

85
Chapitre V Echantillonnage et Signaux discrets.

Table des transformées en Z

Signal Transformée en Z

x(t ) X (z ) = ∑ x(n.Te ).z −n
n = −∞
δ(t ) Non définie !…
⎧1, t = 0
⎨ X z (z ) = 1
⎩0, t ≠ 0
⎧1, t >= 0 z
u (t ) = ⎨
⎩ 0, t < 0 z −1
Te .z
t.u (t )
[z − 1]2
t2 Te2 .z.[z + 1]
.u (t )
2 2.[z − 1]3
z
e − a.t .u (t )
z − e −a.Te
Te .z.e − a.Te
t.e − a.t .u (t )
[z − e ] − a.Te 2

t 2 − a.t Te2 .z.e − a.TeT 2 .z.e −2.a.Te


.e .u (t ) + e
2 [
2. z − e − a.Te
2
] [
z − e − a.Te
3
]
[1 − e ].u(t )
− a.t (1 − e − a.Te
).z
( z − 1 ).( z − e − a.Te
)
⎡ 1 − e − a.t ⎤
⎥.u (t )
Te .z (1 − e ).z − a.Te

a.( z − 1).(z − e )
⎢t − −
⎢⎣ a ⎥⎦ (z − 1)2 − a.Te

Te2 .z
+
(a.Te − 2).Te .z
1 ⎡ 2 2.t 2
( )⎤⎥⎦.u(t ) (z − 1) 2.a.( z − 1)2
3
t − + . 1 − e − a.t
2 ⎢⎣ a a2 z z
+
a .( z − 1)
2

(
a . z − e − a.Te
2
)
z. sin (ω0 .Te )
sin (ω0 .t ).u (t )
z 2 − 2.z. cos(ω0 .Te ) + 1
z.[z − cos(ω0 .Te )]
cos(ω0 .t ).u (t )
z − 2.z. cos(ω0 .Te ) + 1
2

z z.[z − cos(ω0 .Te )]


[1 − cos(ω0 .t )].u (t ) −
z − 1 z 2 − 2.z. cos(ω0 .Te ) + 1

a.T .e − a.Te .z
[1 − (1 + a.t ).e ].u(t )
− a.t
z

z
z − 1 z − e − a.Te
− e
2
[ ]
z − e − a.Te
z.e − a.Te
. sin (ω0 .Te )
e − a.t . sin (ω0 .t ).u (t )
z − 2.z.e
2 − a.Te
. cos(ω0 .Te ) + e − 2.a.Te

e − a.t . cos(ω0 .t ).u (t )


[
z. z − e − a.Te . cos(ω0 .Te ) ]
z − 2.z.e − a.Te . cos(ω0 .Te ) + e − 2.a.Te
2

86
 
 
 
 
 
Travaux Dirigées 
 
 
 
 
Université Mohamed Boudiaf - M’sila ‫ ﺍﳌﺴــﻴﻠﺔ‬- ‫ﺟﺎﻣﻌﺔ ﳏﻤﺪ ﺑﻮﺿﻴﺎﻑ‬
Faculté de Technologie ‫ﻛﻠﻴﺔ ﺍﻟﺘﻜﻨﻮﻟﻮﺟﻴﺎ‬
Département d’Electronique ‫ﻗﺴﻢ ﺍﻹﻟﻜﺘﺮﻭﻧﻴﻚ‬

TD N°1
- Généralités sur les signaux -

Exercice 1

Soit le signal s(t) représenté par le modèle mathématique suivant :

S(t)=a.sin(ωt+π/12) ;a=4 , ω=50. π rad/s.

1. Quelle est l’amplitude de ce signal.


2. Calculer sa période et sa fréquence.
3. Calculer son décalage par rapport à l’origine.
4. Quelle est la nature de ce décalage (retard ou avance).
5. Représenter graphiquement ce signal.

Exercice 2

Soit le signal x(t ) suivant


x(t )

X2

X1
X0

X3
t
t1 t2 t3

1- Donner l’expression du signal x(t ) a l’aide des échelons et justifier le graphiquement.


2- Calculer la dérivée du signal x(t )

Exercice 3
⎛ T ⎞
⎜ t − t0 − 0 ⎟
1- Donner l’expression du signal x(t ) = A rect ⎜ 2 ⎟ = APT (t − t0 − T0 ) a l’aide des fonctions Echelon
⎜ T0 ⎟ 0
2
⎜ ⎟
⎝ ⎠
unitaires. Justifier graphiquement
2- Même question que « 1 » en utilisant les fonctions signes.
Université Mohamed Boudiaf - M’sila ‫ ﺍﳌﺴــﻴﻠﺔ‬- ‫ﺟﺎﻣﻌﺔ ﳏﻤﺪ ﺑﻮﺿﻴﺎﻑ‬
Faculté de Technologie ‫ﻛﻠﻴﺔ ﺍﻟﺘﻜﻨﻮﻟﻮﺟﻴﺎ‬
Département d’Electronique ‫ﻗﺴﻢ ﺍﻹﻟﻜﺘﺮﻭﻧﻴﻚ‬

TD N°1 (Suite)
- Généralités sur les signaux -

Exercice 4

Soient les signaux suivants :

x(t ) = 8. exp(−2 t ) , y (t ) = 2. exp(t ) , z (t ) = exp(−2t ).u (t ) et g (t ) = (1 − exp( −t ))u (t )


1. Calculer leurs énergies et leurs puissances.
2. Conclusion.

Exercice 5

Soient les deux signaux suivants :


t
s1(t ) = a si t ≤ T0 et s 2(t ) = 1 − si t ≤ T0
T0
1. Quelle est la durée commune de deux signaux ?
2. Calculer leurs puissances moyennes.
3. Conclusion.

Exercice 6

Soient les signaux :


x(t ) = sin( 2πft ) et y (t ) = cos( 2πft + ϕ )
1. Calculer l’énergie de ces signaux.
2. Calculer la puissance d’interaction Pxy.
3. Tracer la courbe Pxy en fonction de φ.

Exercice 7

Soit le signal suivant :


π
s (t ) = a. sin 2 (ωt +
)
3
1. Le signal est-il périodique ? Si oui donner sa période.
2. Calculer son énergie.
3. Calculer sa puissance dans une période et sa puissance moyenne.
4. Conclusion.
Université Mohamed Boudiaf - M’sila ‫ ﺍﳌﺴــﻴﻠﺔ‬- ‫ﺟﺎﻣﻌﺔ ﳏﻤﺪ ﺑﻮﺿﻴﺎﻑ‬
Faculté de Technologie ‫ﻛﻠﻴﺔ ﺍﻟﺘﻜﻨﻮﻟﻮﺟﻴﺎ‬
Département d’Electronique ‫ﻗﺴﻢ ﺍﻹﻟﻜﺘﺮﻭﻧﻴﻚ‬

TD N°2
- L’analyse de Fourier -

Exercice 1

Réécrire les trois formes de la série de Fourier qui résultent de la décomposition d’un signal
périodique de période T0 et retrouver les relations entre différents coefficients.

Exercice 2

Soit le signal en dent de scie x(t) représenté par la figure suivante :


1. Ecrire l’expression mathématique de x(t) sur l’intervalle t
[-π, π], déduire l’expression de x(t) sur l’intervalle [0,π].
2. Décomposer le signal x(t) en série de Fourier.

Exercice 3

Soit le signal x(t) suivant :


1. Ecrire l’expression mathématique de x(t) sur l’intervalle A
[0,T0].
2. Décomposer le signal x(t) en série de Fourier T0 t
et représenter son spectre d’amplitude et de phase.

Exercice 4 s1(t)
1
1. Déterminer les coefficients de la série de Fourier du signal
périodique s1(t). t
-T0 -τ/2 +τ/2 +T0
2. Déduire le développement en série de Fourier du signal s2(t)

périodique s2(t).

t
-T0 -τ/2 +τ/2 +T0

Exercice 5

Déterminer les coefficients de la série de Fourier du signal suivant :


1. , où est la distribution de Dirac et sa période.

Exercice 6

Calculer les transformées de Fourier des signaux suivants :


Université Mohamed Boudiaf - M’sila ‫ ﺍﳌﺴــﻴﻠﺔ‬- ‫ﺟﺎﻣﻌﺔ ﳏﻤﺪ ﺑﻮﺿﻴﺎﻑ‬
Faculté de Technologie ‫ﻛﻠﻴﺔ ﺍﻟﺘﻜﻨﻮﻟﻮﺟﻴﺎ‬
Département d’Electronique ‫ﻗﺴﻢ ﺍﻹﻟﻜﺘﺮﻭﻧﻴﻚ‬

TD N°2 (Suite)
- L’analyse de Fourier -

Exercice 7

1. Calculer la transformée de Fourier des 2 signaux suivants :

2. Représenter graphiquement les spectres d’amplitudes et de phase.

Exercice 8

Appliquer la propriété de la dérivation pour trouver les transformées de Fourier des signaux suivants :

1 1 1

-T0/2 T0/2 -T0/2 T0/2 -T0/2 T0/2 T0

Exercice 9

Calculer l’énergie contenue dans le signal :

Exercice 10

1. Soit le signal s(t) représenté ci-dessous :

t
-T0 -T0/2 T0/2 T0

a. Déterminer la série de Fourier sous Forme exponentielle [0, T0].


b. Tracer le spectre d’amplitude et de phase de ce signal (indiquer seulement les 5 premiers
harmoniques).

2. Maintenant, on applique au signal s(t) un retard de T0/4, ce qui nous donne un nouveau signal g(t).
a. Déduire de (1.a) la série de Fourier exponentielle du nouveau signal g(t).

b. Les spectres d’amplitude et de phase seront-ils affectés par le décalage ?


Justifier votre réponse.
Université Mohamed Boudiaf - M’sila ‫ ﺍﳌﺴــﻴﻠﺔ‬- ‫ﺟﺎﻣﻌﺔ ﳏﻤﺪ ﺑﻮﺿﻴﺎﻑ‬
Faculté de Technologie ‫ﻛﻠﻴﺔ ﺍﻟﺘﻜﻨﻮﻟﻮﺟﻴﺎ‬
Département d’Electronique ‫ﻗﺴﻢ ﺍﻹﻟﻜﺘﺮﻭﻧﻴﻚ‬

TD N°3
- Transformée de Laplace - Produit de convolution - Corrélation-
Exercice 1
Soit le système linéaire est invariant dans le temps de la figure suivante :
e(t) s(t)

h(t)
Calculer l’énergie du signal de sortie si ce système est excité par un signal d’entrée :
e ( t ) = 2 f 0 sinc ( 2π f 0t ) e − j 2π f0t .

Sachant que la réponse impulsionnelle de ce système est donnée par :


h ( t ) = f 0 sinc 2 (π f 0t ) .

Exercice 2
Trouver la convolution de deux signaux rectangulaires identiques de durée et d’amplitude unité.

1. Calculer la en utilisant le théorème de la convolution ;


2. Calculer .
Exercice 3
Trouver la F.A.C de l’impulsion rectangulaire et la F.A.C de .
Comparer les deux résultats. Que peut-on conclure ?
Exercice 4
.
On considère la fonction .
1. Calculer la F.A.C
2. Calculer la Densité spectrale d’énergie
Exercice 5
Soit un système linéaire donné par le schéma bloc suivant :
  e(t) s(t)

h(t)

Telles que et sont données par :

e(t)   h(t)
1 1
2

1 2 3 4 1 2 3 4

1. Sur quel intervalle de temps sera-t-elle différente de zéro ?


2. A quels instants atteindra son maximum ?
3. Evaluer
Université Mohamed Boudiaf - M’sila ‫ ﺍﳌﺴــﻴﻠﺔ‬- ‫ﺟﺎﻣﻌﺔ ﳏﻤﺪ ﺑﻮﺿﻴﺎﻑ‬
Faculté de Technologie ‫ﻛﻠﻴﺔ ﺍﻟﺘﻜﻨﻮﻟﻮﺟﻴﺎ‬
Département d’Electronique ‫ﻗﺴﻢ ﺍﻹﻟﻜﺘﺮﻭﻧﻴﻚ‬

TD N°3 (Suite)
- Transformée de Laplace - Produit de convolution - Corrélation-
Exercice 6
1. Soit la fonction du transfert suivant :
3. 5. 7
4. 6

Trouver | |

2. Soit la fonction du transfert suivant :


16 1
| |
4 9
Trouver
Exercice 7
Soit le signal rampe e(t) = t qui doit traverser un amplificateur de gain K.
1. Calculer le signal de sortie de l’amplificateur.
- par le calcul du produit de convolution.
- à partir de la transformée de Fourier.
2. Maintenant on applique au même système un échelon d’amplitude 2. Déterminer la réponse
correspondante.
Exercice 8
1. Calculer la transformée de Fourier de par deux méthode différentes :

.                                                       
0                                                                                                  

- Méthode directe.
- Méthode indirecte : est le produit d’un créneau par un exponentiel.
2. Déduire la transformée de Fourier des signaux et définis ainsi :

2 2
. 0              . 0              
4 4                          4 4
0                                                                  0                                                                 

2
 

3. En employant le théorème sur la dérivée, déduire la transformée et , vérifier que le


résultat trouvé en 2 est correct.
Université Mohamed Boudiaf - M’sila ‫ ﺍﳌﺴــﻴﻠﺔ‬- ‫ﺟﺎﻣﻌﺔ ﳏﻤﺪ ﺑﻮﺿﻴﺎﻑ‬
Faculté de Technologie ‫ﻛﻠﻴﺔ ﺍﻟﺘﻜﻨﻮﻟﻮﺟﻴﺎ‬
Département d’Electronique ‫ﻗﺴﻢ ﺍﻹﻟﻜﺘﺮﻭﻧﻴﻚ‬

TD N°4
- Echantillonnage des signaux -

Exercice 1

Le signal 4 4 est échantillonné idéalement à une fréquence .


1- Déterminer la fréquence d’échantillonnage minimale permettant la reconstitution exacte du signal.
2- Tracer le spectre du signal échantillonné pour une fréquence d’échantillonnage 6

Exercice 2

Un signal , dont la transformée de Fourier est représentée par la figure (1), est échantillonné à
une cadence .
Le signal échantillonné (idéalisé) possède la transformée de Fourier de la figure (2).

X(f) Xe(f)
6

f(kHz) f(kHz)

-4 4 -6 -4 -2 2 4 6

Figure (1) Figure (2)

- Déterminer quelle est la fréquence d’échantillonnage utilisée et indiquer si ce choix est judicieux
pour permettrer une reconstitution du signal par filtrage idéal (justifier votre réponse).

Exercice 3

2
Peut-on reconstituer exactement le signal . s’il est échantillonné idéalement à une
cadence

Exercice 4 (TFD)

Soit le signal discret (figure (3)) défini par :


x(k)
1

2 k

-3 -2 -1 1 2 3

2 Figure (3)
- Calculer la TFD de .
- Trouver à partir 1 2. cos 2 2. cos 4 .
Université Mohamed Boudiaf - M’sila ‫ ﺍﳌﺴــﻴﻠﺔ‬- ‫ﺟﺎﻣﻌﺔ ﳏﻤﺪ ﺑﻮﺿﻴﺎﻑ‬
Faculté de Technologie ‫ﻛﻠﻴﺔ ﺍﻟﺘﻜﻨﻮﻟﻮﺟﻴﺎ‬
Département d’Electronique ‫ﻗﺴﻢ ﺍﻹﻟﻜﺘﺮﻭﻧﻴﻚ‬

TD N°5
- Echantillonnage des signaux –Transformée en Z -

Exercice 1

Représenter graphiquement les signaux discrets suivants et déterminer leurs TZ :


, , .

Exercice 2

Déterminer les transformées en Z des séquences suivantes :


. , . , . . , sin . .

Exercice 3

Déterminer les transformées en Z inverse des fonctions suivantes :


1 1 1
;| | 1, ;| | 2, ;| |
1 1 0.5 3 2 1 2
1
2
Exercice 4

Soit la séquence suivante :


1 1
3 4
1 1 2.
1
2
Déterminer la valeur x(0).

Exercice 5

Soit le système discret et causal décrit par la fonction de transfert suivante :


. 1
0.4 0.5
a) Etudier la stabilité du système.
b) Déterminer la réponse impulsionnelle h(n).
Donner l’équation aux différences entrée/sortie.
Exercice 6
Soit le système discret et causal décrit par la relation entrée/sortie suivante :
. 1 .
a) Déterminer sa fonction de transfert.
b) Calculer sa réponse impulsionnelle.
c) Quelle est la condition de stabilité de ce système.
BIBLIOGRAPHIE ET WEBOGRAPHIE

1- S. Haykin, Signals and systems, John Wiley & sons edition, 2 édition, 2003.
2- A.V. Oppenheim, Signals and systems, Prentice–Hall edition, 2004.
3- F. de Coulon, Théorie et traitement des signaux, Dunod, Paris, 1984.
4- R. E. Bekka, Fondements du traitement du signal, OPU, Alger, 2 édition, 1998.
5- A. Guerchaoui, Traitement du signal – Théorie et applications – Partie 3, OPU, 2010.
6- F. Cottet, Traitement des signaux et acquisition de données, 2 édition, Dunod, Paris, 2002.
7- F. Cottet, Traitement du signal, Dunod, Paris, 2000.
8- H. Egon, M. Marie, P. Porée, Traitement du signal et automatique, Hermann, Paris, 2000.
9- G. Blanchet and M. Charbit, Traitement numérique du signal, Hermès, Paris, 1998.
10- P. Duvaut, Traitement du signal, concepts et applications, Hermès, Paris, 1991.
11- J.Max and J.-L. Lacoume, Méthodes et techniques de traitement du signal et application
aux mesures physiques, Masson, Paris, 1996.
12- Ph. Réfrégier. Théorie du signal : signal, information. Masson, 1993.
13- A. Yger. Théorie et analyse du signal. Ellipses, 1999
14- M. Benidir. Théorie et Traitement du signal, tome 1 : Représentation des signaux et des
systèmes - Cours et exercices corrigées. Dunod, 2004.
15- M. Benidir. Théorie et Traitement du signal, tome 2 : Méthodes de base pour l'analyse et
le traitement du signal - Cours et exercices corrigés. Dunod, 2004.
16- Ph. Réfrégier. Théorie du bruit et applications en physique. Hermes (Lavoisier), 2002.
17- Christophe Doignon, Traitement Numérique du Signal Déterministe, Université Louis
Pasteur de Strasbourg, France, 2008-2009, http://eavr.u-
strasbg.fr/~christophe/cours/fip2/cours-tds-fip2a.pdf.
18- Olivier Sentieys, Traitement Numérique du Signal, ENSSAT Université de Rennes 1,
2014, http://people.rennes.inria.fr/Olivier.Sentieys/teach/MainPoly_TDDS.pdf.
19- Christian Jutten, Théorie du signal, Université Joseph Fourier - Polytech’ Grenoble,
2009, http://www.gipsa-lab.grenoble-inp.fr/~christian.jutten/mescours/Theorie_du_signal.pdf.
20- Steven T. Karris, Signals and Systems, Second Edition, Orchard Publications, USA,
2003.
21- Étienne Tisserand, Jean-François Pautex, Patrick Schweitzer, Analyse et traitement des
signaux : méthodes et applications au son et à l’image, 2 édition, Dunod, Paris, 2008.
22- Maurice Bellanger, Traitement numérique du signal : Théorie et pratique, 8 édition,
Dunod, Paris, 2006.