Vous êtes sur la page 1sur 343

TRAITEMENT DU SIGNAL

Tome 1 : Définitions et analyse des


signaux
(Cours et Exercices corrigés)
TRAITEMENT DU SIGNAL
Tome 1 : Définitions et analyse des
signaux
(Cours et Exercices corrigés)

OULOBLY Stéphane Ronin


Ingénieur Electronicien
Enseignant des grandes écoles et universités
A AMOUR 57
REMERCIEMENTS

Mes remerciements vont tout d’abord aux éditions Matrices


pour leur confiance et leur soutien aux jeunes écrivains et
scientifiques ivoiriens.
Je tiens à remercier le G10, ce groupe de jeunes cadres
dynamiques et éclairés du monde des technologies. Les gars, merci
pour votre amitié, recevez tous ici le signal qui indique un nouveau
départ dans nos carrières et un encouragement à laisser des traces
écrites de vos connaissances à la génération suivante. Vive le
G10 !
Je tiens à remercier plus particulièrement le Professeur
LOUM Georges, Directeur du Génie électrique de L’Institut National
Polytechnique Houphouët Boigny de Yamoussoukro (INP-HB),
pour m’avoir initié au Traitement du signal et m’avoir fait découvrir
cet univers de connaissances riche.
Je tiens à remercier ensuite le Professeur sié OUATTARA
pour son amitié et son important travail de relecture, qui ont été une
grande source de motivation pour moi.

Je tiens à remercier aussi Edi MOUSSOH, toujours mon


« patron », pour son soutien indéfectible et son expertise précieuse,
qui m’ont permis de me concentrer.

Je remercie également N’GOUAN E.J.J dit ‘John’ pour


m’avoir motivé à écrire un livre au lieu des fascicules traditionnels.
Merci pour ton amitié et ton respect. On y arrivera.

Finalement, je tiens à remercier Mlle GBOGOU Ruth-


Nicaise pour son soutien et sa précieuse aide. Merci de m’avoir
prêté ta machine et ton temps pour la saisie de ce livre sans
lesquels il ne serait qu’au stade manuscrit.
PREFACE
Elaboration, détection, interprétation de signaux porteurs
d'informations sont les principaux objectifs du traitement des
signaux. Cette discipline s'appuie essentiellement sur
l'électronique et l'informatique. Elle trouve son champ d'application
dans tous les domaines concernés par la perception, la
transmission et l'exploitation d'informations. Ce vaste champ
s'étend des télécommunications à l'instrumentation scientifique, de
l'automatisation industrielle au génie biomédical, en passant par le
traitement d'images, la reconnaissance de formes, la robotique,
l'intelligence artificielle ...

L'outil d'analyse et de synthèse des systèmes de


traitement est la théorie du signal. C'est un ensemble de concepts
et de modèles mathématiques inspirés de l'analyse fonctionnelle,
de l'algèbre linéaire et du calcul des probabilités.

Son point de départ est le développement orthogonal des


fonctions, dont le cas particulier le plus intéressant est le modèle de
Fourier. Il conduit aux concepts féconds de dualité temps-fréquence
et de spectre fréquentiel qui s'appliquent aussi bien à l'étude des
signaux déterministes que des signaux aléatoires, continus ou
échantillonnés, moyennant l'introduction de la notion de corrélation
et de modèles statistiques appropriés. Les concepts de signal
analytique et d'enveloppe complexe généralisent celui de phaseur,
introduit en électrotechnique. Ils facilitent la représentation des
signaux à bande étroite et favorisent le développement d'une
théorie de la modulation.

Le modèle utilisé en traitement des signaux est celui des


schéma-fonctionnels: assemblages symboliques de blocs
fonctionnels réalisant une tâche élémentaire. Les modèles de ces
blocs fonctionnels sont établis en comparant leurs signaux d'entrée
et de sortie. Il en résulte un riche inventaire de propriétés et de
relations qui, combinées, permettent de décrire ou de prédire le
fonctionnement de systèmes complexes. La recherche et
l'évaluation des performances de procédures efficaces de
conversion, de détection, de mesure, etc., de signaux s'en trouve
facilitée.

Le but de cet ouvrage est d'apporter au technicien supérieur,


à l'ingénieur ou à tout autre scientifique concerné, les bases
théoriques fondamentales nécessaires à la compréhension ou à
l'utilisation de cette discipline.

La matière réunie dans cet ouvrage convient à un


enseignement d'environ 30 à 60 heures en fonction du niveau des
apprenants, à répartir de préférence sur une année. Moyennant une
certaine sélection des sujets abordés, cette matière peut être traitée
dans un temps plus réduit, si l'on se borne à un objectif de formation
de base et non d'approfondissement.

De nombreux exemples et exercices sont proposés pour


faciliter une étude individuelle.

La relation entre les concepts abstraits de la théorie du


signal et les potentialités pratiques du traitement des signaux ne
peut toutefois être perçue que moyennant des travaux pratiques
additionnels: laboratoires ou projets.

OULOBLY Stéphane Ronin


TABLE DES MATIERES

CHAPITRE 1 GENERALITES ET DEFINITIONS

I. GENERALITES
1. Place de la théorie et du traitement du signal dans le génie
électrique
2. Aperçu historique

II. DEFINITIONS
1. Signal
2. Bruit
3. Rapport signal sur bruit
4. Théorie du signal
5. Théorie de l'information et du codage
6. Modèles et mesures de signaux: fonctions et fonctionnelles
7. Traitement des signaux
8. Langage du traitement des signaux

III. DOMAINES D’APPLICATION


1. Sondage sismique
2. Flux EUV du soleil
3. Signal de turbulence
4. Signal d’écholocation : la chauve-souris
5. Télécommunications
6. Audio
7. Télédétection
8. Imagerie
9. Vidéo
10. Pour terminer et préparer la suite
CHAPITRE 2 CLASSIFICATION DES SIGNAUX
ET DES SYSTEMES

I. SIGNAUX PHYSIQUEMENT RÉALISABLES ET


MODÈLES THÉORIQUES
1. Contraintes expérimentales
2. Modèles théoriques
3. Exemples
4. Modes de classification

II. CLASSIFICATION DES SIGNAUX


A. CLASSIFICATION PHENOMENOLOGIQUE
1. Définitions
2. Sous-classe de signaux déterministes. Définitions
3. Sous-classe de signaux aléatoires. Définitions

B. VARIABLES CONTINUES ET DISCRÈTES


1. Classification morphologique. Définitions
2. Modèles de signaux analogiques, échantillonnés et
numériques

C. SIGNAUX À ÉNERGIE OU PUISSANCE MOYENNE FINIE


1. Energie et puissance moyenne d'un signal. Définitions
2. Définition: signaux à énergie finie
3. Définition: signaux à puissance moyenne finie

D. CLASSIFICATION SPECTRALE
1. Définitions
2. Classes de signaux fréquentiels
3. Fréquence et vitesse des signaux
E. SIGNAUX PAIRS ET IMPAIRS
F. SIGNAUX CAUSALS
G. SIGNAUX BORNÉS EN AMPLITUDE

III. OPERATIONS SUR LES SIGNAUX


1. Réversibilité ou retournement (Reverse)
2. Décalage ou Translation temporelle
3. Translation fréquentielle ou Modulation de fréquence
4. Amortissement exponentiel
5. Produit scalaire et orthogonalité
6. Produit de convolution
7. Dilatation et comprimation
8. Périodisation

IV. SIGNAUX CONTINUS DE BASE


1. Echelon unité de Heaviside
2. Impulsion unité de Dirac
3. Rampe unité
4. Phaseur de fréquence 𝜔0
5. Signal exponentiel complexe général
6. Signal exponentiel réel ou amortisseur exponentiel
7. Signal sinusoïdal

V. SIGNAUX NUMERIQUES DE BASE


1. Séquence saut unitaire ou séquence de Heaviside
2. Séquence impulsion unitaire ou impulsion de Dirac
3. Séquence exponentielle complexe
4. Séquence exponentielle complexe générale
5. Séquence exponentielle réelle ou séquence amortisseur
6. Séquence sinusoïdale

VI. SYSTEMES ET CLASSIFICATION


1. Définition :
2. Système analogique et système numérique
3. Système avec ou sans mémoire
4. Système causal et non causal
5. Systèmes linéaires ou non linéaires
6. Système stationnaire ou non
7. Système stable
8. Système feedback

VII. EXERCICES

CHAPITRE 3 TRANSFORMATION DE LAPLACE

I. DEFINITION DE LA TRANSFORMATION DE
LAPLACE
1. Définition
2. Région De Convergence
3. Pôles et Zéros de X(s)
4. Propriétés de la RDC

II. PROPRIETES DE LA TRANSFORMATION DE


LAPLACE
1. Linéarité
2. Décalage ou translation temporelle
3. Translation fréquentielle
4. Facteur d’échelle ou dilatation-comprimation
5. Dérivation temporelle
6. Dérivation fréquentielle
7. Intégration temporelle
8. Intégration fréquentielle
9. Périodicité
10. Valeur initiale
11. Valeur finale
12. Convolution temporelle
13. Convolution fréquentielle

III. TRANSFORMATION DE LAPLACE DES SIGNAUX


USUELS
1. Transformée de Laplace d’un échelon unité
2. Transformée de Laplace d’une rampe
3. Transformée de Laplace de 𝑡 𝑛 𝑢(𝑡)
4. Transformée de Laplace d’une impulsion de Dirac 𝛿(𝑡)
5. Transformée de Laplace de 𝑒 −𝑎𝑡 𝑢(𝑡)
6. Transformée de Laplace 𝑡 𝑛 𝑒 −𝑎𝑡 𝑢(𝑡)
7. Transformée de Laplace des sinusoïdes
8. Transformée de Laplace des sinusoïdes amorties

IV. TRANSFORMATION DE LAPLACE DES FORMES


D’ONDES USUELLES
1. Transformée de Laplace d’un signal impulsionnel
2. Transformée de Laplace d’un segment linéaire
3. Transformée de Laplace d’une forme d’onde triangulaire
4. Transformée de Laplace d’une forme d’onde rectangulaire
périodique
5. Transformée de Laplace d’un signal sinusoïdal redressé
demi alternance

V. TRANSFORMATION DE LAPLACE INVERSE ET


DECOMPOSITION EN ELEMENTS SIMPLES
1. TL inverse
2. Décomposition en Eléments Simples (D.E.S)
3. Cas ou la fonction image F(s) est impropre
4. Méthode alternative à la D-E-S

VI. EXERCICES

CHAPITRE 4 ANALYSE SPECTRALE


DES SIGNAUX PERIODIQUES

I. DEFINITIONS DE BASE
1. Spectre
2. Analyse Spectrale
3. Signal périodique

II. OUTILS D’ANALYSE SPECTRALE DES SIGNAUX


1. Introduction
2. Deux représentations pour un même signal
3. Séries de Fourier (outil d’analyse mathématique)
a. Définition
b. Existence
c. Unicité (théorème de Jordan-Dirichlet)
4. Analyseur de spectre (instrument électronique d’analyse)
5. Matlab, Scilab (outils logiciels d’analyse)

III. DIFFERENTES FORMES DE SERIES DE FOURIER


1. Séries de Fourier Trigonométrique ou à coefficients réels
a. Evaluation des coefficients 𝑎𝑘 𝑒𝑡 𝑏𝑘
b. Symétrie dans la Série de Fourier trigonométrique
2. Série de Fourier en cosinus
3. Série de Fourier complexe
4. Théorème de la Puissance ou de Parseval
5. Exemples de calcul de séries de Fourier de formes d’ondes
usuelles
a. Série de Fourier d’une forme d’onde carrée
b. Série de Fourier d’une onde en dents de scie
c. Série de Fourier d’une onde triangulaire

IV. SPECTRES D’AMPLITUDES ET DE PHASES


1. Spectres unilatéraux et bilatéraux
2. Coefficients spectraux et symétries des signaux
3. Exemple de représentation spectrale d’un signal

V. QUELQUES THEOREMES UTILES


1. Décalage temporel
2. Modulation d’amplitude

VI. EXERCICES

CHAPITRE 5 ANALYSE SPECTRALE


̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅
DES SIGNAUX 𝐏𝐄𝐑𝐈𝐎𝐃𝐈𝐐𝐔𝐄𝐒

I. DEFINITION DE LA TRANSFORMATION DE FOURIER


1. Passage de la série à la transformation de Fourier
2. Définition

II. PROPRIETES DE LA TRANSFORMATION DE


FOURIER
1. Linéarité
2. Facteur d’échelle ou dilatation-comprimation
3. Décalage ou translation temporelle
4. Translation fréquentielle
5. Dérivation temporelle
6. Dérivation fréquentielle
7. Intégration temporelle
8. Aire en dessous de x(t)
9. Aire en dessous de 𝑋(𝑗𝜔)
10. Convolution temporelle
11. Convolution fréquentielle
12. Propriété de la fonction conjuguée
13. Théorème de Parseval
14. Intercorrelation et autocorrelation

III. TRANSFORMEE DE FOURIER DES SIGNAUX


USUELS
1. Transformée de Fourier d’une impulsion de Dirac
2. Transformée de Fourier d’une constante
3. Transformée de Fourier de 𝑐𝑜𝑠(𝜔0 𝑡)
4. Transformée de Fourier de 𝑠𝑖𝑛(𝜔0 𝑡)
5. Transformée de Fourier du signe
6. Transformée de Fourier de 𝑢(𝑡)
7. Transformée de Fourier de signaux causals

IV. TRANSFORMATION DE FOURIER DES FORMES


D’ONDES USUELLES
1. Transformée de Fourier d’un signal 𝑓(𝑡) = 𝐴[𝑢(𝑡 + 𝑇) − 𝑢(𝑡 − 𝑇)]
2. Transformée de Fourier 𝑓(𝑡) = 𝐴[𝑢(𝑡) − 𝑢(𝑡 − 2𝑇)]
3. Transformée de Fourier de 𝑓(𝑡) = 𝐴[𝑢(𝑡 + 𝑇) + 𝑢(𝑡) − 𝑢(𝑡 − 𝑇) − 𝑢(𝑡 − 2𝑇)]
4. Transformée de Fourier de 𝑓(𝑡) = 𝐴𝑐𝑜𝑠(𝜔0 𝑡)[𝑢(𝑡 + 𝑇) − 𝑢(𝑡 − 𝑇)]
5. Transformée de Fourier d’un signal T-périodique
6. Transformée de Fourier d’un peigne de Dirac

V. TRANSFORMATION DE FOURIER A PARTIR DE


CELLE DE LAPLACE
1. Relations avec la transformée de Laplace
2. Transformée de Fourier à partir de celle de Laplace

VI. CAS DES SIGNAUX A ENERGIE FINIE


1. Spectre d’amplitude et spectre de phase
2. Fonction d’intercorrélation
3. Fonction d’autocorrélation
4. Propriétés
5. Relation avec le produit de convolution
6. Densité spectrale d’énergie (DSE)
7. Propriétés de la DSE
8. Densité interspectrale d’énergie
9. Théorème du produit

VII. CAS DES SIGNAUX A PUISSANCE MOYENNE


FINIE
1. Modèles de signaux physiquement irréalisables
2. Extension de la Transformée de Fourier
3. Application : signal constant et valeur moyenne
4. Transformée de Fourier des signaux à valeur moyenne non
nulle
5. Corrélation des signaux a puissance moyenne finie
6. Densité spectrale de puissance (DSP)
7. Densité interspectrale de Puissance

VIII. EXERCICES
Chapitre 1

GENERALITES ET DEFINITIONS

I. GENERALITES

1. Place de la théorie et du traitement du signal


dans le génie électrique

Les applications de l'électricité sont généralement regroupées


en deux domaines principaux, d'ailleurs largement interdépendants:
 les techniques de l'énergie;
 les techniques de l'information.
La théorie et le traitement des signaux est une discipline
appartenant au deuxième domaine, auquel elle apporte à la fois des
bases théoriques fondamentales et des techniques particulières.
Son influence déborde toutefois aussi sur les techniques de
l'énergie, dans la mesure où l'on y rencontre de nombreux
phénomènes (fluctuations de charge d'un réseau électrique,
vibrations d'une machine tournante, variations transitoires du
courant d'excitation d'un moteur électrique, perturbations
électromagnétiques, etc.) qui peuvent être étudiés avec les mêmes
outils théoriques ou expérimentaux que ceux utilisés pour les
signaux informationnels.
En fait, la théorie et le traitement des signaux intéresse tous
les secteurs techniques et scientifiques dans lesquels l'information
est perçue par l'intermédiaire d'observations expérimentales de
grandeurs mesurables.
Ces deux termes-clefs : perception et traitement, indiquent
pourquoi cette discipline s'est avant tout développée en relation
avec les applications de l'électricité et plus particulièrement celles
de la métrologie, responsable de la perception, des
télécommunications et de l'informatique, chargés du traitement.
La métrologie fournit les capteurs qui traduisent pratiquement
n'importe quel phénomène physique en une grandeur électrique
facilement amplifiée, filtrée, conditionnée, codée, etc., par des
dispositifs électroniques appropriés. Les circuits de
télécommunications acheminent le signal électrique ainsi créé vers
son destinataire. L'informatique, grâce à son énorme puissance de
calcul, permet d'effectuer des tâches complexes de manipulations
et d'interprétation de l'information véhiculée par le signal (traitement
numérique).
L'universalité de la théorie et du traitement des signaux est
attestée par la diversité des secteurs d'application: industriels,
scientifiques, biomédicaux, militaires, spatiaux, etc.

2. Aperçu historique
Le mot signal vient de signe - signum en latin - qui dénote un
objet, une marque, un élément de langage, un symbole convenu
pour servir de vecteur à une information l'usage des signes remonte
à la préhistoire.
Ce n'est qu'au XIXe siècle qu'apparaît l'exploitation des
signaux électriques avec l'invention du télégraphe électrique
(Morse, Cooke, Wheatstone, 1830~1840). Cette invention est
rapidement suivie par celle du téléphone (Bell, 1876), puis par la
réalisation des premières liaisons radio (Popov, Marconi, 1895-
1896). L'émergence de l'électronique, au début du XXe siècle
(Fleming, Lee de Forest, 1904-1907) permet enfin la détection et
l'amplification de faibles signaux. Ce sont là les véritables prémices
du traitement des signaux.
Les auteurs des premières contributions à l'étude
mathématique des fluctuations du courant électrique se sont
efforcés d'adapter à ce cas la méthode d'analyse développée par
Fourier (1822) dans le cadre de ses travaux sur la propagation de
la cha1eur. Les premiers travaux importants généralisant cette
méthode aux phénomènes et signaux aléatoires ont été publiés à
l'aube des années 1930 par Wiener et Khintchine.
L'optimisation des moyens de télécommunications et de radar
(pendant la deuxième guerre mondiale) fut à la base du
développement de la théorie du signal et de l'information que nous
connaissons aujourd'hui. Dans les années 1920 déjà, Nyquist et
Hartley s'étaient attachés à quantifier la quantité d'information
transmise sur une voie télégraphique et avaient observé que la
cadence maximum de transmission est proportionnelle à la largeur
de bande fréquentielle disponible. Il faut toutefois attendre jusqu'en
1948-1949 pour que paraissent les travaux fondamentaux de
Shannon sur la théorie mathématique de la communication et de
Wiener sur la cybernétique (communication et réglage) et le
traitement optimal des signaux ou des données affectés par du
bruit. L'élément novateur est ici la prise en compte de l'aspect
statistique des phénomènes étudiés.
D'autres chercheurs ont contribué au développement initial de
cette théorie. Citons particulièrement : Küpfmüller. Gabor,
Woodward, Kolmogorov, Kotelnikov, Rice, Goldman, Lawson et
Uhlenbeck, Ville, Blanc-Lapierre et Fortet, Brillouin.

Les années cinquante ont constitué une période de


maturation, suivie rapidement par la publication de nombreux
ouvrages à vocation essentiellement didactique. Simultanément,
l'invention du transistor, en 1948, suivie environ dix ans plus tard
par la mise au point de la technologie des circuits intégrés, allait
permettre la réalisation de systèmes de traitement complexes et la
diversification des champs d'application.
Aujourd'hui, le traitement des signaux est une discipline
autonome, qui intéresse de multiples domaines s'étendant jusqu'à
la reconnaissance des formes, la robotique et l'intelligence
artificielle. Elle est complémentaire de l'électronique et de
l'informatique, qui lui fournissent ses moyens.
Une bonne introduction aux concepts modernes d'analyse et
de traitement des signaux a été publiée par Lynn. Il prend largement
en compte la tendance actuelle qui privilégie les méthodes
numériques. L'évolution technologique, qui permet la réalisation de
processeurs spécialisés et de coût modéré, assure à ce domaine
un avenir prometteur.

II. DEFINITIONS
1. Signal
Un signal est la représentation physique de l’information qu’il
transporte de sa source à son destinataire. Il sert de vecteur à une
information. Il constitue la manifestation physique d’une grandeur
mesurable (courant, force, pression, température, etc.). C’est aussi
une fonction d’une ou plusieurs variables engendrées par un
phénomène physique. Les signaux sonores, par exemple,
correspondent à de faibles variations de pression qui se propagent
dans l’espace, et que le système auditif humain est capable de
capter, d’analyser, et de percevoir l’information dont ils peuvent être
porteurs. Dans la plupart des cas pratiques la variable d’évolution
est le temps, et la notion de signal se rapporte davantage à un
transfert d’information qu’à un transfert d’énergie. Ainsi la plupart
des signaux manipulés de nos jours correspondent à l’évolution
temporelle de tensions électriques délivrées par des capteurs. On
parlera par exemple du signal v(t)délivré par un capteur de
température, un accéléromètre ou une sonde à effet Hall. Mais le
traitement du signal s’applique à tous les signaux physiques (onde
acoustique, signal optique, signal magnétique, signal
radioélectrique, etc.). Le traitement d’images peut être considéré
comme du traitement du signal appliqué aux signaux
bidimensionnels (images).
2. Bruit
Le bruit (en anglais: noise) est défini comme tout phénomène
perturbateur gênant la perception ou l’interprétation d’un signal, par
analogie aux nuisances acoustiques (interférence, bruit de fond,
etc.).
La dichotomie apparente entre signal et bruit est artificielle et
dépend des critères propres de l'utilisateur. Certains phénomènes
électromagnétiques d'origine galactique captés par des antennes
sont considérés comme du bruit par les ingénieurs des
télécommunications et comme un signal du plus haut intérêt par les
radioastronomes!
Ce qui différencie le signal du bruit est donc avant tout l'intérêt
de l'observateur. Un signal perturbé reste un signal et les mêmes
modèles s'appliquent à la description du signal utile et à celle des
perturbations. La théorie du signal englobe donc celle du bruit.
Ainsi, il apparaît évident qu’un problème fondamental en
traitement du signal sera d’extraire le signal utile du bruit. La
difficulté du problème dépend en particulier de la proportion entre
signal et bruit. Ceci est mesuré par le rapport signal sur bruit (RSB,
ou SNR en anglais pour signal noise ratio).
3. Rapport signal sur bruit
Le rapport signal sur bruit est une mesure du degré de
contamination du signal par du bruît. Il s'exprime sous la forme du
rapport β des puissances respectives du signal Ps et du bruit Pn

𝑃𝑠
β= (1.1)
𝑃𝑛
β est souvent indiqué selon une échelle logarithmique mesurée en
décibels

𝛽𝑑𝐵 = 10 𝑙𝑜𝑔 𝛽 (1.2)

Le RSB mesure donc la qualité du signal. C’est une mesure


objective. Cependant, dans de nombreux cas, en particulier ceux où
l’opérateur humain intervient dans la chaîne de traitement, cette
mesure n’est pas très significative. Ceci est particulièrement vrai
pour les signaux audio ou les images et les vidéos. Des mesures
subjectives, ou des mesures plus fines, prenant en compte les
propriétés de la perception humaine doivent être mises en œuvre.

4. Théorie du signal
La description mathématique des signaux est l'objectif
fondamental de la théorie du signal. Complémentaire de la théorie
des circuits et de celle de la propagation des ondes
électromagnétiques, la théorie du signal fournit les moyens de mise
en évidence, sous une forme mathématique commode, des
principales caractéristiques d'un signal: la distribution spectrale de
son énergie ou la distribution statistique de son amplitude, par
exemple. Elle offre également les moyens d'analyser la nature des
altérations ou modifications subies par les signaux lors de leur
passage au travers de blocs fonctionnels, dispositifs généralement
électriques ou électroniques. Par là-même, elle fournit les
renseignements essentiels nécessaires à la conception (cahier des
charges) ou à l'utilisation (mode d'emploi) de ces dispositifs. C'est
ainsi que l'on peut établir les règles à respecter pour passer d'un
signal analogique à un signal numérique. Elle permet aussi de
déterminer et de tenir compte des limites de fonctionnement
imposées par la présence de perturbations aléatoires telles que le
bruit de fond.
Son outil de base est le développement en série de fonctions
orthogonales dont le cas particulier le plus intéressant est celui de
Fourier. Sa forme la plus générale est connue sous le nom de
transformée de Fourier, dont les principales propriétés sont
rappelées ultérieurement. Avec les notations usuelles en traitement
des signaux, la transformée de Fourier d'un signal temporel x(t) est
une fonction de la fréquence f définie par la relation intégrale.
Elle introduit le principe fécond de dualité entre l'espace-
temps et l'espace fréquence. Ceci conduit à la notion de spectre:
répartition d'une grandeur caractéristique d'un signal (amplitude,
énergie, puissance) en fonction de la fréquence. La technique de
l'analyse spectrale en est l'application pratique directe.
Applicable également à l'étude des signaux aléatoires, grâce
au développement de modèles statistiques appropriés, ce concept
d'une extrême richesse permet d'aborder à un niveau d'abstraction
élevé l'étude de procédures complexes de traitement des signaux.
L'introduction des modèles de signal analytiques et
d'enveloppe complexe facilite la représentation des signaux à
bande étroite et favorise le développement d'une théorie de la
modulation. La théorie de la détection s’appuie, elle, sur les apports
de la théorie statistique de la décision et de l'estimation.
Elle trouve un prolongement naturel en reconnaissance des formes
(fig. 1.2).
Fig1.2

5. Théorie de l'information et du codage


L'information est associée au processus de communication:
transfert d'un message de sa source à sa destination.
La théorie de l'information (ou de la communication) est une théorie
stochastique des messages, c'est à dire qu'elle prend en
considération leurs propriétés statistiques. Elle fournit un ensemble
de concepts permettant d'évaluer les performances de systèmes de
transfert d'informations, en particulier lorsque le signal porteur d'un
message est contaminé par du bruit.
Elle conduit tout naturellement à l'étude des méthodes de
codage de l'information : ensemble de règles spécifiant le mode de
représentation du message. Les techniques de codage ont trois
objectifs, apparemment contradictoires. Le premier est d'augmenter
la compacité des signaux, vecteurs d'information, par élimination de
toute redondance inutile (codage de source). Le second est
d'accroître la sécurité d'une transmission en présence de bruit par
incorporation d'une redondance, adéquatement structurée)
permettant la détection, voire la correction, des principales erreurs
(codage de voie). Le troisième) enfin, est d'assurer le secret de la
communication (cryptographie).
Ces notions sont étroitement liées à la théorie du signal, mais
sortent du cadre de ce livre. On en trouvera une présentation
détaillée dans de nombreux ouvrages.
Par nature, l'information a un caractère aléatoire: seul ce qui
est imprévisible est porteur de messages. Les signaux, vecteurs
d'information sont donc naturellement aussi de type aléatoire. Mis à
part certaines formes d'interférences d'origine industrielle (influence
du réseau de distribution d'énergie électrique, etc.), les bruits
doivent aussi être considérés comme des phénomènes aléatoires.
Il n'est donc pas étonnant que la théorie du signal et les
méthodes de traitement des signaux fassent largement appel à des
concepts statistiques (calcul des probabilités, processus aléatoires,
etc.).

6. Modèles et mesures de signaux: fonctions et


fonctionnelles
En analyse, une fonction est définie comme une règle de
correspondance (application) entre deux ensembles de nombres
réels ou complexes.
Le modèle mathématique d'un signal est une fonction de une,
parfois deux, voire trois variables: 𝑠(𝑡), 𝑖(𝑥, 𝑣), 𝑖(𝑥, 𝑦, 𝑡). La figure 1.2
en donne des illustrations.
Le premier cas est le plus courant: la variable t est
usuellement le temps (mais elle peut aussi représenter une autre
grandeur: une distance, par exemple). La fonction représente
l'évolution d'une grandeur électrique ou traduite sous cette forme
par un capteur approprié (microphone: signal acoustique, caméra
de télévision: signal vidéo, accéléromètre: signal de vibrations, etc.).
Le deuxième cas est celui des signaux bidimensionnels. Ce
sont généralement des fonctions de coordonnées spatiales x et y
que l'on nomme plus couramment: images.
Le dernier cas enfin, correspond par exemple à une succession
d'images de télévision ou de cinéma où le temps réapparaît comme
troisième variable.
Les signaux d'entrée et de sortie d'un système (fig. 1.3) sont
souvent notés, par convention, x(t) et y(t), respectivement. Par
exemple, 𝑦(𝑡) = 𝑥 2 (𝑡) désigne la sortie d'un dispositif non linéaire
quadrateur dont la caractéristique est définie par 𝑦 = 𝑥 2

On appelle fonctionnelle une règle de correspondance entre


un ensemble de fonctions et un ensemble de nombres réels ou
complexes. En d'autres termes, une fonctionnelle est une fonction
de fonctions. Les signaux résultant d'un traitement ou certains de
leurs paramètres sont souvent exprimés par des relations
fonctionnelles. Par exemple:

 valeur intégrale pondérée [fonction de pondération g(t)


+∞

𝑓1 (𝑥) = ∫ 𝑥(𝑡) 𝑔(𝑡)𝑑𝑡


−∞
 valeur intégrale quadratique pondérée
+∞

𝑓2 (𝑥) = ∫ 𝑥 2 (𝑡) 𝑔(𝑡)𝑑𝑡


−∞

 produit de convolution
+∞

𝑦(𝑡) = 𝑥(𝑡) ∗ 𝑔(𝑡) = ∫ 𝑥(𝜃) 𝑔(𝑡 − 𝜃)𝑑𝜃


−∞

 produit scalaire (évalué sur l'intervalle T)

< 𝑥, 𝑦 ∗ >= ∫ 𝑥(𝑡)𝑦 ∗ (𝑡)𝑑𝑡


𝑇
 valeur échantillonnée
+∞

𝑥(𝑡0 ) =< 𝑥, 𝛿𝑡0 >= ∫ 𝑥(𝑡) 𝛿(𝑡 − 𝑡0 )𝑑𝑡


−∞
7. Traitement des signaux
La description mathématique - ou modélisation - des signaux
est le rôle de la théorie du signal, ainsi qu'on l'a relevé plus haut.

Le traitement des signaux est la discipline technique qui,


s'appuyant sur les enseignements de la théorie du signal et de
l'information, les ressources de l'électronique, de l'informatique et
de la physique appliquée, a pour objet l'élaboration ou
l'interprétation des signaux porteurs d'information. Elle trouve son
champ d'application dans tous les domaines concernés par la
perception, la transmission ou l'exploitation de ces informations (fig.
1.6).
Fig.I.6

Certains auteurs donnent parfois un sens plus restrictif au


traitement du signal en limitant son champ d'activité aux méthodes
permettant d'extraire un signal du bruit qui lui est superposé.
Les relations de l'homme avec son milieu naturel ou avec les
systèmes techniques qu’il construit se caractérisent par un intense
échange d'informations.

L'observation (mesure) de phénomènes physiques ou le


dialogue (communication) entre hommes, entre l'homme et la
machine, ou entre les machines elles-mêmes, se font à l'aide de
signaux (fonctions du temps) ou d'impressions visuelles (images)
dont la nature est complexe et peut être masquée par des
perturbations indésirables (bruit de fond, parasites, interférences).

L'extraction des informations utiles incorporées à ces


signaux (par analyse, filtrage, régénération, mesure, détection,
identification) et la présentation des résultats sous une forme
appropriée à l'homme ou à la machine constitue l'une des tâches
essentielles dévolues au traitement des signaux (fig. 1.7).

A cela, on peut ajouter l'élaboration des signaux


permettant l'étude du comportement des systèmes physiques ou
servant de support pour la transmission ou le stockage
d'informations (synthèse, modulation et changement de
fréquence, codage pour lutter contre le bruit ou réduire la
redondance).
Fig.1.7

Par l'analyse, on cherche à isoler les composantes


essentielles d'un signal de forme complexe, afin d'en mieux
comprendre la nature et les origines. Mesurer un signal, en
particulier aléatoire, c'est essayer d'estimer la valeur d'une grandeur
caractéristique qui lui est associée avec un certain degré de
confiance. Le filtrage est une fonction bien connue qui consiste à
éliminer d'un signal certaines composantes indésirables. La
régénération est une opération par laquelle on tente de redonner
sa forme initiale à un signal ayant subi diverses distorsions. Par une
procédure de détection, on tente d'extraire un signal utile du bruit
de fond qui lui est superposé. L'identification est un procédé
souvent complémentaire qui permet d'effectuer un classement du
signal observé. Les techniques de corrélation dont il sera fait
mention plus loin sont souvent utilisées à cet effet.

La synthèse, opération inverse de l'analyse, consiste â


créer un signal de forme appropriée en procédant, par exemple, à
une combinaison de signaux élémentaires. Le codage, outre sa
fonction de traduction en langage numérique, est utilisé soit pour
lutter contre le bruit de fond, soit pour tenter de réaliser des
économies de largeur de bande ou de mémoire d’ordinateur grâce
à une diminution de la redondance du signal .

La modulation et le changement de fréquence sont


essentiellement des moyens permettant d'adapter un signal aux
caractéristiques fréquentielles d'une voie de transmission, d'un filtre
d'analyse ou d'un support d'enregistrement.

La notion d'information utile mentionnée plus haut est


étroitement liée au contexte. Pour une communication
téléphonique, elle est essentiellement associée à l'intelligibilité des
messages parlés échangés. Dans le cas d'une observation en
radioastronomie, elle est représentée par la fréquence et l'amplitude
de l'émission périodique d'un rayonnement électromagnétique. En
géophysique, ce sont plutôt les paramètres statistiques du signal
perçu qui sont interprétables. En technique radar Doppler,
l'information utile est, d'une part, la durée entre l'émission d'une
impulsion sinusoïdale et la réception de son écho renvoyé par une
cible et, d'autre part, l'écart de fréquence mesuré entre l'onde émise
et l'onde reçue. On estime de cette manière la distance de
l'émetteur à la cible et la vitesse radiale de celle-ci.

8. Langage du traitement des signaux


Au plus haut niveau, le langage du traitement des signaux
est celui des schéma-blocs, également familier du spécialiste du
réglage automatique et de la théorie des systèmes en général à
laquelle le traitement des signaux est apparenté.

Un schéma-bloc est un assemblage symbolique, représenté


sous forme graphique, de blocs fonctionnels, en principe
indépendants, réalisant une fonction donnée. L'exemple de la figure
1. 8 illustre le principe d'un analyseur de spectre à balayage.

Fig.1.8

Le comportement théorique de chaque bloc peut être décrit


par une ou un ensemble de relations mathématiques. Les
opérateurs fonctionnels développés servent de modèles aux blocs
qui produisent un signal de sortie dépendant d'une ou plusieurs
excitations d'entrée.

Exemple et définitions: apport de la théorie des systèmes


linéaires

On sait que le signal de sortie y(t) d'un système linéaire


causal invariant dans le temps est donné par le produit de
convolution du signal d'entrée x (t) et d'une fonction g(t) appelée
réponse impulsionnelle du système:

C'est l'opération de traitement la plus fondamentale et


probablement la plus familière. Elle indique, selon la figure 1.5, que
la valeur du signal de sortie à l’instant t est obtenue par la
sommation (intégrale == sommation continue) pondérée des
valeurs passées [pour un système causal, g(t) = 0 pour t < 0] du
signal d'excitation x(t). La fonction de pondération est précisément
la réponse impulsionnelle g(t) souvent aussi notée h (t) - du
système.
L'exemple le plus simple est celui où la fonction g(t)= 1/ T
pour 0 < t < T et est nulle ailleurs. Le signal y (t) exprimé par (1.10)
correspond alors à x (t, T), la moyenne glissante - ou courante) en
anglais: running average du signal d'entrée x (t), calculée sur un
intervalle de durée T (fig. 1. 9)
𝑡
1
𝑦(𝑡) = 𝑥̅ (𝑡, 𝑇) = ∫ 𝑥(𝜃)𝑑𝜃
𝑇
𝑡−𝑇

A la convolution (1.10) correspond dans le domaine


fréquentiel une simple multiplication de la transformée de Fourier du
signal d'entrée x(t) et de celle de la réponse impulsionnelle g(t) qui
n'est autre que la fonction de réponse fréquentielle (ou isomorphe,
souvent aussi dénommée fonction de transfert dans la littérature
internationale) du système:

𝑌(𝑓) = 𝑋(𝑓). 𝐺(𝑓)

De cette propriété, on déduit facilement que l’opération de


convolution est commutative, associative et distributive:

𝑥(𝑡) ∗ 𝑔(𝑡) = 𝑔(𝑡) ∗ 𝑥(𝑡)

[𝑥1(𝑡) + 𝑥2(𝑡)] ∗ 𝑔(𝑡) = [𝑥1(𝑡) ∗ 𝑔(𝑡)] + [𝑥2(𝑡) ∗ 𝑔(𝑡)]

[ 𝑥 (𝑡) ∗ 𝑔 1 (𝑡)] ∗ 𝑔 2 (𝑡) = 𝑥 (𝑡) ∗ [𝑔 1 (𝑡) ∗ 𝑔 2 (𝑡) ]

Influence de la technologie

Lors de la conception d'un système complexe, chaque bloc


du schéma d'ensemble devient un module qui est réalisé, selon les
besoins, suivant une option matérielle ou logicielle:

 électronique analogique:
 électronique numérique câblée (logique spécialisée);
 électronique numérique programmée (processeur universel
ou à architecture spéciale);
 autre technologie.

L'évolution de la technologie (microélectronique, micro


acoustique ou optique) favorise l'apparition de ce que l'on
conviendra d'appeler des processeurs spécialisés - analogiques ou
numériques - capables de traiter rapidement et économiquement
une quantité croissante d'informations. Cette tendance actuelle,
attisée par des besoins nouveaux, conduit à un élargissement
constant des domaines d'application des méthodes de traitement
des signaux.

Si le traitement analogique des signaux a beaucoup


bénéficié du développement des circuits électroniques intégrés,
c'est surtout dans Je domaine du traitement numérique que
l'évolution la plus spectacu1aire a été enregistrée. Simultanément,
des algorithmes de calcul puissants (tels que la transformation de
Fourier rapide) ont vu le jour, qui tendent peu à peu à donner au
traitement numérique une prédominance indiscutable, sauf dans le
domaine des très hautes fréquences.

C'est le cas des circuits il transfert de charges ou à capacités


commutées, constitués par un assemblage intégré de
condensateurs et d'interrupteurs électroniques, et celui des
dispositifs à onde de surface (en anglais: Surface Acoustic Wave
devices ou SAW), qui exploitent la vitesse limitée de propagation
d'ondes élastiques il la surface de certains matériaux piézo-
électriques. Le principe de ce dernier type de dispositifs est illustré
par la figure 1.] O. Ils sont utilisés principalement dans les
installations radar et de télévision.
III. DOMAINES D’APPLICATION

Parce qu'elles s'appliquent à toutes les étapes d'une chaîne


d'acquisition, d'analyse, de transfert et de restitution des données,
les techniques du traitement du signal trouvent des applications
dans pratiquement tous les domaines de la technologie.

1. Sondage sismique
La sismologie étudie les vibrations du sous-sol provoquées par
des phénomènes naturels alors que la sismique provoque
l’ébranlement et en étudie les conséquences. Le sondage sismique
repose sur ce principe. Une source (explosion, vibroséisme,. . .)
provoque une onde élastique dans le sous-sol, onde qui va interagir
avec son milieu de propagation. Une antenne munie de divers
capteurs permet en un point plus éloigné de mesurer l’onde après
son voyage sous terre. Les signaux reçus portent alors des
informations relatives à la structure de leur milieu de propagation.
Un exemple de mesure issu d’une antenne sismique est montre sur
la figure suivante.
Fig1.10 : Exemple d’une trace sismique.

2. Flux EUV du soleil


L’étude du flux solaire est fondamentale pour des raisons
évidentes de compréhension de notre étoile, mais également pour
les problèmes climatiques qui deviennent critiques à notre époque.
Différents appareils de mesure se situent sur divers satellites et
mesurent le flux solaire dans diverses longueurs d’ondes. Un des
buts ultime de ces mesures et de leur compréhension est la
prédiction à cours et moyen terme de l’activité solaire.
Les images suivantes sont des images du soleil dans certaines
longueurs d’ondes (Extrême Ultra-Violet, images de l’atmosphère
solaire, la brillance représente des zones à 60-70000 K pour 304 A,
106 pour 171, 1.5106 pour 195 et 2.106 pour 284. Le plus chaud, le
plus haut dans l’atmosphère solaire. Différentes fréquences
renseignent donc sur différentes zones. Il est donc fondamental
d’observer une plus grande gamme de fréquence. Or, les appareils
nécessaires coûtent chers, et les missions spatiales ne sont pas
légions. De plus, des idées issues de la physique montrent que le
spectre entier est redondant et que la mesure de quelques raies
spectrales permet de reconstruire l’ensemble du spectre. Trouver
les raies pertinentes requiert l’utilisation de techniques de traitement
des signaux. On peut alors s’intéresser à partir de plusieurs
mesures du spectre solaire à décomposer ce spectre donc en
spectres élémentaires.

Fig1.11 : Images du soleil dans 4 bande fréquentielles différentes le 28 aout 2006-


EIT on board SOHO

Des résultats utilisant des techniques très récentes de


traitement du signal sont montrés sur la figure (3).
Fig1.13 : Décomposition en composantes élémentaires du spectre EUV solaire

D’autre part, peut-on reconstruire l’irradiance totale à partir


de certaines autres mesures? La figure suivante montre différents
indices qui servent actuellement à l’étude de l’activité solaire. Le
signal le plus bas correspond à l’irradiance totale mesurée sur terre
et le signal du haut correspond au d´dénombrement des taches
solaires. Les recherches très actuelles tentent de reconstruire
l’irradiance à partir des autres mesures.

Fig1.14 : Différents indices de l’activité solaire sur les 26 dernières années.


3. Signal de turbulence
La turbulence dans les fluides reste aujourd’hui un défi pour les
physiciens. Sa compréhension a une importance non seulement
scientifique, mais également technologique. La turbulence est
gérée mathématiquement par l’équation de Navier-Stokes, équation
aux dérivées partielles fortement non linéaires. Le terme non
linéaire
𝑣𝛻𝑣, où v est le champ de vitesse, induit une complexité terrifiante.
A côté des études mathématiques sur l’existence, la régularité de
solutions, les physiciens ont une approche plus pragmatique. Les
premiers résultats sur la turbulence sont dus à A.N. Kolmogorov en
1941. Sous des hypothèses de stationnarité et d’homogénéité, il
montre la loi des14/5, et déduit par des arguments de dimension la
forme de la densité spectrale de la vitesse dans un fluide turbulent.
Pour contrer certaines remarques de Landau, il modifie sa théorie
en 1962 avec Oboukhov en prenant en compte la fluctuation de la
dissipation d’énergie avec les échelles.
La figure suivante montre un exemple de signal issu d’un flot
turbulent. Il s’agit de la vitesse longitudinale d’un flot d’air dans une
soufflerie mesurée par un fil chaud. La figure suivante représente
sa densité spectrale, c’est-a-dire la puissance du signal éclatée sur
l’ensemble des fréquences contenue dans le signal. La théorie de
Kolmogorov prédit une dépendance en 1/f5/3 qui est bien vérifiée.
Toutefois, la théorie est incomplète comme le prouve l’illustration
suivante
Fig1.15 : Signal de vitesse mesuré dans un écoulement turbulent et son spectre
de puissance illustrant la pente en 5/3. En bas comparaison du signal avec un
modèle gaussien ayant la même densité spectrale de puissance. Les incréments
de taille 1 montre bien l’invalidité de l’hypothèse gaussienne.

4. Signal d’echo-location : la chauve-souris


Pour terminer cette petite galerie d’exemple, regardons les signaux
émis par une chauve-souris en phase d’attaque de proie. Ce signal
est porté par des ondes acoustiques, la chauve-souris étant donc
l’ancêtre de nos SONAR.
Le spectre du signal peut-être trompeur quant à la structure intime
du signal, ainsi que le révèle une analyse dite temps-fréquence.
Fig1.16 : Signal d’écholocation d’une chauve-souris dans ses représentations
temps, fréquence et temps-fréquences.

5. Télécommunications
Que ce soit dans le domaine de la téléphonie ou dans le
transfert de données numériques terrestre ou via satellite, la
compression des données est primordiale pour exploiter au mieux
la bande passante disponible, et minimiser les pertes. La
suppression d'échos est un autre domaine d'application1.

6. Audio
On cherche à améliorer les techniques d'enregistrement et de
compression pour obtenir la plus grande qualité sonore possible.
Les techniques de correction d'écho permettent de réduire les effets
de réflexions acoustiques dans la pièce. Le traitement du son s'est
largement amélioré grâce aux ordinateurs. Toutefois, certains
musiciens parlent davantage d'un son de nature différente que
d'une simple amélioration qualitative (de même que le CD ne
"sonne" pas comme le disque vinyle, et que certains groupes, par
exemple Genesis, ont particulièrement profité du "nouveau son"
offert par le nouveau support). La synthèse sonore permet en outre
de créer des sons artificiels ou de recréer les sons d'instruments
naturels. Elle a été à l'origine de nombreux bouleversements
en musique2.

7. Télédétection
L’analyse des échos permet d'obtenir des informations sur le
milieu sur lequel les ondes se sont réfléchies. Cette technique est
exploitée dans le domaine de l'imagerie radar ou sonar.
En géophysique, en analysant les réflexions d'ondes acoustiques,
on peut déterminer l'épaisseur et la nature des strates du sous-sol.
Cette technique est utilisée dans le domaine de la prospection
minière et dans la prédiction des tremblements de terre3.

8. Imagerie
On trouve des applications dans le
domaine médical (reconstruction tomographique, imagerie par
résonance magnétique - IRM), dans le spatial (traitement de photos
satellite ou d'images radar). Ce domaine inclut aussi les techniques
de reconnaissance de formes et de compression4.
9. Vidéo
Le traitement de séquences vidéo concerne la compression, la
restauration, la réalisation d'effets spéciaux, et l'extraction de
descripteurs (reconnaissance de formes et textures, suivi de
mouvements, caractérisation etc.) afin de produire des annotations
automatiques dans une perspective de bases de données
(recherche par le contenu)5.
10. Pour terminer et préparer la suite
Ces quelques exemples divers ont montré la nécessité de
développer des modèles précis de signaux et d’étudier leurs
interactions avec les systèmes. Dans la suite, nous allons donc
nous intéresser aux modèles de signaux, en présentant (ou en
rappelant) les modèles de signaux déterministes. Nous étudierons
les grandeurs qui révèlent des informations utiles (fonctions de
corrélations, densités spectrales,. . .).
Chapitre 2

CLASSIFICATION DES SIGNAUX


ET DES SYSTEMES

I. SIGNAUX PHYSIQUEMENT RÉALISABLES


ET MODÈLES THÉORIQUES
1. Contraintes expérimentales
Un signal expérimental est l'image d'un processus physique
et, pour cette raison, doit être physiquement réalisable. Il est ainsi
soumis à toute une série de contraintes:
• son énergie ne peut être que bornée;
• son amplitude est nécessairement bornée;
• cette amplitude est une fonction continue, car l'inertie du système
générateur interdit toute discontinuité;
• le spectre du signal est lui aussi nécessairement borné et doit
tendre vers zéro lorsque la fréquence tend vers l'infini.

2. Modèles théoriques
Sur le plan théorique, le modèle d'un signal est une fonction,
réelle ou complexe, ou une fonctionnelle dépendant par exemple de
la variable temps t. Il est avantageux d'attribuer chaque modèle à
une classe spécifique regroupant les signaux jouissant de
propriétés communes. Par ailleurs, il est souvent judicieux de
simplifier la représentation utilisée en choisissant des modèles
commodes, mais qui ne seront pas nécessairement limités par les
contraintes énoncées précédemment.
C'est ainsi que l'on fait un large usage de modèles de signaux à
énergie théorique infinie, à amplitude non bornée ou subissant des
discontinuités, représentables par des distributions. La qualité du
modèle dépend finalement de la qualité de l'approximation faite et
de la commodité d'emploi.

3. Exemples
Un signal sinusoïdal est représenté par une fonction définie
sur tout l'axe réel: son énergie théorique est donc infinie.
Le modèle usuel de signaux perturbateurs appelés bruit de fond
admet la possibilité, bien qu'avec une probabilité tendant vers zéro,
d'amplitudes infinies.
Les changements d'états de signaux logiques binaires sont
généralement représentés par de simples discontinuités.
Une excitation de type percussionnnelle est symbolisée par la
distribution de Dirac 𝛿(𝑡).

4. Modes de classification
Différents modes de classification des modèles de signaux
peuvent être envisagés.

Parmi les principaux, on peut citer:

 classification phénoménologique : on met ainsi en


évidence le type d'évolution du signal, son caractère
prédéterminé ou son comportement aléatoire;
 classification énergétique: on sépare les modèles de
signaux satisfaisant à une condition d'énergie finie d'autres
plus idéalisés. à puissance moyenne finie et énergie infinie;
 classification morphologique (sect. 2,4) : celle-ci permet
de distinguer les signaux selon le caractère continu ou
discret de l'amplitude ct de la variable libre;
 classification spectrale: on met en évidence le domaine
des fréquences dans lequel s'inscrit le spectre du signal;
 classification dimensionnelle: on considère les signaux
unidimensionnels x(t), les signaux bidimensionnels - ou
image - 𝑖(𝑥, 𝑦), voire les signaux tridimensionnels 𝑖(𝑥, 𝑦, 𝑡)
représentant par exemple l'évolution d'une image en
fonction du temps.

II. CLASSIFICATION DES SIGNAUX

A. CLASSIFICATION PHENOMENOLOGIQUE

1. Définitions
La première classification (fig. 2.1) est obtenue en
considérant la nature profonde de l'évolution du signal en fonction
du temps. Elle fait apparaître deux types fondamentaux de signaux:

 les signaux déterministes (ou certains, ou encore non


aléatoires) dont l'évolution en fonction du temps peut être
parfaitement prédite par un modèle mathématique
approprié;
 les signaux aléatoires ~ dont le comportement temporel
est imprévisible et pour la description desquels il faut se
contenter d'observations statistiques.
Fig.2.1

Il est commode, en théorie, de considérer des signaux


déterministes. Ils se prêtent au calcul puisque décrits par une
formule mathématique précise. Ils sont toutefois peu représentatifs
de signaux observables. On les rencontre essentiellement en
laboratoire, comme signaux de test, ou en relation avec la
production d'énergie par machines tournantes.

Un signal de forme déterminée dont la position sur l'axe du


temps est inconnue (par exemple: sinusoïde de phase initiale
inconnue) est déjà un signal aléatoire!

2. Sous-classe de signaux déterministes. Définitions

Parmi les signaux déterministes, on distingue:

• les signaux périodiques, satisfaisant à la relation

𝒙(𝒕) = 𝒙(𝒕 + 𝒌𝑻) k entier qui obéissent à une loi de répétition


cyclique régulière, de période T;
• les signaux non périodiques, qui ne jouissent pas de cette
propriété.

Les signaux sinusoïdaux (fig. 2.2), d'équation générale


𝟐𝝅
𝒙(𝒕) = 𝑨 𝒔𝒊𝒏 ( 𝒕 + 𝜶)
𝑻
𝟐𝝅
= 𝑨𝒔𝒊𝒏 [ (𝒕 + 𝝉)]
𝑻
forment le groupe le plus familier de signaux périodiques.

Les signaux pseudo-aléatoires (fig. 2.3) forment une


catégorie particulière de signaux périodiques dont le comportement
rappelle celui d'un signal aléatoire.

Parmi les signaux non périodiques, il faut distinguer les signaux


quasi-périodiques (fig. 2.4), qui résultent d'une somme de
sinusoïdes de périodes incommensurables, des signaux:
transitoires dont l'existence est éphémère (fig. 2.5).
Notation complexe des signaux sinusoïdaux et concept de
fréquence négative

Il est souvent avantageux de représenter une fonction sinusoïdale


par la partie imaginaire - ou réelle pour une notation en cosinus -
d'une exponentielle complexe:
𝟐𝝅 𝟐𝝅
𝑨 𝒔𝒊𝒏 ( 𝒕 + 𝜶) = 𝑰𝒎 {𝑨𝒆𝒙𝒑 [𝒋 ( 𝒕 + 𝜶)]
𝑻 𝑻
Une autre représentation est possible en considérant le signal
sinusoïdal (ou cosinusoïdal) comme la résultante de deux phaseur
𝑨
conjugués d'amplitude 𝟐
tournant dans des directions opposées
𝟐𝝅
avec une pulsation (vitesse angulaire) de ± 𝒘 = ± 𝑻
(fig.2.6).
C'est une application directe de la formule d'Euler:
𝑨 𝑨
𝒋𝑨𝒔𝒊𝒏(𝒘𝒕) = 𝒆𝒙𝒑(𝒋𝒘𝒕) − 𝒆𝒙𝒑(−𝒋𝒘𝒕)
𝟐 𝟐
Pour tenir compte du sens de rotation, on parle de fréquence
positive (+ 𝒘 = + 𝟐𝝅/𝑻) et négative(−𝒘 = − 𝟐𝝅/𝑻). Ce concept
de fréquence négative n'a pas de signification physique. Il est utilisé
pour la représentation de fonctions de la fréquence (spectre,
fonction de réponse fréquentielle) où − ∞ < 𝑓 < +∞

Fig.2.5
3. Sous-classe de signaux aléatoires. Définitions
Les signaux aléatoires peuvent, quant à eux, être classés en
deux grandes catégories:
 les signaux aléatoires stationnaires, dont les
caractéristiques statistiques sont invariantes dans le temps
(fig. 2.7);
 les signaux aléatoires non stationnaires, qui ne jouissent pas
de cette propriété (fig. 2.8).
Si les valeurs moyennes statistiques, ou moments, d'un signal
stationnaire s'identifient aux valeurs moyennes temporelles, on dit
qu'il est ergodique.
Fig. 2. 7 Signal aléatoire stationnaire: x(t) = signal à large bande (bruit blanc);
y (t) = signal filtré passe-bas.

Fig. 2.8 Signal aléatoire non stationnaire.

Commentaire

Un signal aléatoire à comportement transitoire est non stationnaire.

Le concept de stationnarité est, comme le caractère permanent


associé aux signaux périodiques, une abstraction commode. Il est
précieux dans la mesure où l'on peut souvent considérer, en
pratique, qu'un signal est stationnaire pendant la durée
d’observation.
B. VARIABLES CONTINUES ET DISCRÈTES

1. Classification morphologique. Définitions


Un signal peut se présenter sous différentes formes selon
que son amplitude est une variable continue ou discrète et que la
variable libre t (considérée ici comme le temps) est elle-même
continue ou discrète (fig. 2.9). On distingue donc ainsi quatre types
de signaux:

 le signal à amplitude et temps continus appelé couramment


signal analogique;
 le signal à amplitude discrète et temps continu appelé signal
quantifié;
 le signal à amplitude continue et temps discret appelé signal
échantillonné;
 le signal à amplitude et temps discrets appelé signal
numérique (ou improprement digital), car il est
représentable par une suite de nombres ou série temporelle.
2. Modèles de signaux analogiques,
échantillonnés et numériques
Un signal 𝑥(𝑡) est un signal à temps continu si t est une variable
continue. Si t est une variable discrète, 𝑥(𝑡) est défini a des temps
discrets, alors 𝑥(𝑡) est un signal a temps discrets. Comme un signal
a temps discrets est défini a des temps discrets, ce type de signaux
est souvent identifie a une séquence de nombres, notée 𝑥{𝑛} ou
𝑥[𝑛] avec 𝑛 ∈ ℕ.

Fig. 2.10 Représentation graphique d’un signal à temps continu (a) et à temps
discret (b)

Un signal à temps discret 𝑥[𝑛] peut représenter un


phénomène pour lequel la variable est discrète. Par exemple, la
ponte journalière d’un poulailler est par nature un signal qui évolue
à des points discrets du temps. D’un autre cote, un signal a temps
discrets 𝑥[𝑛] peut être obtenu par échantillonnage d’un signal a
temps continu x(t) comme suit :

𝑥(𝑡0 ), 𝑥(𝑡1 ), … , 𝑥(𝑡𝑛 )


𝑥[0], 𝑥[1], … , 𝑥[𝑛]
𝑥𝑛 = 𝑥[𝑛] = 𝑥(𝑡𝑛 )
Les 𝑥𝑛 sont appelés échantillons et l’intervalle de temps
entre eux est appelé intervalle d’échantillonnage. Quand les
intervalles sont identiques alors on parle de période
d’échantillonnage et on a :

𝑥𝑛 = 𝑥[𝑛] = 𝑥(𝑛𝑇)

Le signal 𝑥[𝑛] est alors appelé signal échantillonne.

Un signal échantillonne 𝑥[𝑛]peut être défini de deux manières


différentes :

 On peut spécifier une règle de calcul du 𝑛𝑖𝑒𝑚𝑒 échantillon de


la séquence. Par exemple

1 𝑛
1 𝑛
𝑥[𝑛] = 𝑥𝑛 = {(2) 𝑛≥0 1 1
ou {𝑥𝑛 } = {1, 2 , 4 , … , (2) , … }
0 𝑛<0
 On peut aussi expliciter la liste la liste des valeurs de la
séquence

{𝑥𝑛 } = {… .0,0,1,2,2,1,0,1,0,2,0,0, … }

{𝑥𝑛 } = {1,2,2,1,0,1,0,2}

On utilise la flèche pour indiquer le terme 𝑛 = 0. Par convention si
aucune flèche n’est indiquée alors le premier correspond a 𝑛 = 0 et
toutes les valeurs de la séquence sont nulles pour𝑛 < 0.

La somme et le produit de deux séquences sont définis comme suit :

{𝒄𝒏 } = {𝒄𝒏 } + {𝒄𝒏 } → 𝒄𝒏 = 𝒂𝒏 + 𝒃𝒏


{𝒄𝒏 } = {𝒄𝒏 }. {𝒄𝒏 } → 𝒄𝒏 = 𝒂𝒏 . 𝒃𝒏
{𝒄𝒏 } = 𝜶{𝒄𝒏 } → 𝒄𝒏 = 𝜶. 𝒂𝒏 (𝜶 𝒆𝒔𝒕 𝒖𝒏𝒆 𝒄𝒐𝒏𝒔𝒕𝒂𝒏𝒕𝒆)
C. SIGNAUX À ÉNERGIE OU PUISSANCE
MOYENNE FINIE
Une distinction fondamentale peut être faite entre deux grandes
catégories de signaux :

 les signaux à énergie finie;


 les signaux à puissance moyenne finie non nulle.

La première catégorie comprend tous les signaux de type


transitoire, qu'ils soient déterministes ou aléatoires. La deuxième
catégorie englobe presque tous les signaux périodiques, quasi-
périodiques et les signaux aléatoires permanents.

Certains signaux théoriques n'appartiennent à aucune de ces


deux catégories: c'est le cas par exemple de 𝒙(𝒕) =
𝒆𝒙𝒑(𝒂𝒕) 𝒑𝒐𝒖𝒓 − ∞ < 𝑡 < + ∞,

L'abstraction mathématique commode qu'est l'impulsion de


Dirac 𝜹(𝒕) n'est pas classable non plus dans ce contexte, pas plus
que la suite périodique d'impulsions de Dirac 𝚿𝑻 (𝒕)

1. Energie et puissance moyenne d'un signal.


Définitions
En électrotechnique, la puissance instantanée fournie à un
dipôle est définie comme le produit des valeurs instantanées de la
tension 𝒖(𝒕) à ses bornes et du courant 𝒊(𝒕) qui le traverse:

𝒑(𝒕) = 𝒖(𝒕) • 𝒊(𝒕)𝑾 = 𝑽. 𝑨

Dans le cas d'une résistance linéaire R respectivement d'une


conductance linéaire G, on a:
1
𝑝(𝑡) = 𝑅𝑖 2 (𝑡) = 𝑢2 (𝑡) = 𝐺𝑢2 (𝑡) 𝑤
𝑅
L'énergie dissipée sur un intervalle [𝑡1 , 𝑡2 ], avec 𝑡1 < 𝑡2 l'est
l'intégrale de cette puissance instantanée. Elle se mesure en joules.
𝑡2 𝑡2 𝑡2

𝑤(𝑡1 , 𝑡2 ) = ∫ 𝑝(𝑡) 𝑑𝑡 = 𝑅 ∫ 𝑖 2 (𝑡) 𝑑𝑡 = 𝐺 ∫ 𝑢2 (𝑡) 𝑑𝑡 𝐽


𝑡1 𝑡1 𝑡1

En divisant cette énergie par la durée de l'intervalle, on obtient une


puissance moyenne, mesurée en watts:
𝑡2 𝑡2
1 𝑅
𝑃(𝑡1 , 𝑡2 ) = ∫ 𝑝(𝑡) 𝑑𝑡 = ∫ 𝑖 2 (𝑡) 𝑑𝑡
𝑡2 − 𝑡1 𝑡2 − 𝑡1
𝑡1 𝑡1
𝑡2
𝐺
= ∫ 𝑢2 (𝑡) 𝑑𝑡
𝑡2 − 𝑡1
𝑡1

Par analogie, on appelle respectivement énergie


(normalisée) et puissance moyenne (normalisée) d'un signal
réel 𝑥(𝑡), calculées sur un intervalle [𝑡1 , 𝑡2 ], la valeur quadratique
et valeur quadratique moyenne suivantes:
𝑡2 𝑡2
1
𝑊𝑥 (𝑡1 , 𝑡2 ) = ∫ 𝑥 2 (𝑡) 𝑑𝑡 𝑃𝑥 (𝑡1 , 𝑡2 ) = ∫ 𝑥 2 (𝑡) 𝑑𝑡
𝑡2 − 𝑡1
𝑡1 𝑡1

La racine carrée de la puissance est la valeur efficace. C'est


la même définition que celle introduite pour les grandeurs
périodiques, mais étendue à des signaux de forme quelconque.

La puissance moyenne normalisée possède donc une


dimension égale au carré de celle de 𝑥 (𝑡). En multipliant encore par
l'unité de temps, on obtient la dimension de l'énergie normalisée. Si
𝑥(𝑡) est une tension ou un courant électrique, les expressions
calculées ci-dessus correspondent respectivement à l'énergie et la
puissance dissipées par une résistance de 1 Ohm.

L'énergie totale et la puissance moyenne totale d'un signal


sont obtenues en considérant un intervalle s'étendant à tout l'axe
réel. Les relations précédentes sont alors modifiées comme suit:
𝑇
+∞ 2
1
𝑊𝑥 = ∫ 𝑥 2 (𝑡) 𝑑𝑡 𝑃𝑥 = lim ∫ 𝑥 2 (𝑡) 𝑑𝑡
𝑇→+∞ 𝑇
−∞ 𝑇

2

La puissance moyenne totale est définie comme une valeur


principale de Cauchy.
Pour les signaux périodiques, la puissance moyenne totale est
égale à la puissance moyenne sur une période.
Si le signal est représenté par une fonction complexe de la
variable réelle t, on remplace dans les expressions précédentes
𝑥 2 (𝑡)par|𝑥(𝑡)|2 .

2. Définition: signaux à énergie finie


Les signaux à énergie finie sont ceux pour lesquels
l'intégrale de l’énergie totale est bornée.

Ces signaux, dits aussi de carré intégrable (ou sommables),


satisfont donc à la condition
+∞

𝑊𝑥 = ∫ 𝑥 2 (𝑡) 𝑑𝑡 < +∞
−∞

Leur puissance moyenne est nulle. Ces signaux sont physiquement


réalisables et dénote un comportement transitoire de cet ensemble
de signaux.
3. Définition: signaux à puissance moyenne finie
Les signaux à puissance moyenne finie (non nulle) sont
ceux qui satisfont à la condition
𝑇
2
1
0 < 𝑃𝑥 = lim ∫ 𝑥 2 (𝑡) 𝑑𝑡 < +∞
𝑇→+∞ 𝑇
𝑇

2

Ces signaux, comme on l'a déjà relevé possèdent une


énergie infinie et sont de ce fait physiquement irréalisables. Ils
constituent toutefois une abstraction commode permettant de
modéliser des catégories importantes de signaux ayant un
comportement quasi permanent. C'est le cas de la constante (en
électrotechnique : régime continu), du saut unité, de la fonction
signe ct de l'ensemble des signaux périodiques, ou quasi-
périodiques usuels. Cette abstraction est également utilisée dans la
modélisation des signaux aléatoires.

De façon similaire, pour un signal échantillonné 𝑥[𝑛], l’énergie


normalisée 𝑊𝑥 de 𝑥[𝑛] est définie par :
𝑁

𝑊𝑥 = ∑ |𝑥[𝑛]|2
𝑛=−𝑁

La puissance moyenne normalisée P de 𝑥[𝑛] est définie par


𝑁
1
𝑃𝑥 = lim ∑ |𝑥[𝑛]|2
𝑁→+∞ 2𝑁 + 1
𝑛=−𝑁
D. CLASSIFICATION SPECTRALE

1. Définitions
On appelle spectre d’un signal, toute représentation de ce
signal en fonction de la fréquence. Ainsi la distribution ou
représentation de l’énergie du signal en fonction de la fréquence est
appelée spectre d’énergie. Si c’est l’amplitude que nous
représentons en fonction de la fréquence on parle de spectre
d’amplitude etc.…
La largeur de bande B d'un signal est le domaine principal
des fréquences (positives ou négatives) occupé par son spectre.
Elle est définie par la relation

𝑩 = 𝒇𝟐 − 𝒇𝟏 avec 0 ≤ 𝑓1 ≤ 𝑓2

où 𝑓1 et 𝑓2 sont des fréquences caractéristiques dénotant


respectivement les limites inférieure et supérieure prises en compte.
On parle ainsi couramment de

• signaux de basses fréquences (fig. 2.10) ;


• signaux de hautes fréquences (fig. 2.11);
• signaux à bande étroite (fig. 2.12);
• signaux à large bande (fig. 2.13).
Ces dénominations sont imprécises et dépendent du contexte.
Un signal dont le spectre est nul en dehors d'une bande de
fréquence spécifiée B

Φ𝑥 (𝑓) = 0 ∀|𝑓| ∈ 𝐵

est appelé signal à bande limitée ou de spectre à support borné.

2. Classes de signaux fréquentiels


Cette classification est limitée face aux nombreuses
applications et technologies nouvelles notamment en
télécommunication ou la notion de fréquence moyenne (𝑓𝑚𝑜𝑦 =
𝑓2 −𝑓1
) et plus précisément sa position sur l’axe des fréquences,
2
permet de mettre en évidence beaucoup plus de classes de signaux
frequentiellement différents :

 Fmoy < 250 KHz signaux basses


fréquences BF
 250 KHz < Fmoy < 30 MHz signaux hautes
fréquences HF
 30 MHz < Fmoy < 300 MHz signaux très hautes
fréquences THF
 300 MHz < Fmoy < 3 GHz signaux ultra hautes
fréquences UHF
 Fmoy > 3 GHz signaux super hautes
fréquences SHF

Lorsque la fréquence du signal devient très grande, pratiquement


supérieure à quelques TéraHertz (THz = 1012 Hz), la longueur
d’onde λ est le paramètre de référence (λ = c/F avec c : vitesse de
la lumière 300 000 Km/s) :

 700 nm < λ < 0,1 mm signal lumineux


infrarouge
 400 nm < λ < 700 nm signal lumineux visible
 10 nm < λ < 400 nm signal lumineux
ultraviolet

3. Fréquence et vitesse des signaux


D’après ce qui précède, la fréquence des signaux lumineux est
inversement proportionnelle à la longueur d’onde du signal (onde
stationnaire) par la relation :
𝑐
𝜆 = 𝑐𝑇 =
𝑓

𝑐 est la célérité en 𝑚/𝑠. Pour les ondes ou vibrations stationnaires


on parlera plutôt de vitesse de vibration mécanique 𝑉. Et la formule
précédente devient :
𝑉
𝜆=
𝑓

Ici la longueur d’onde n’est rien d’autre que la distance parcourue


par un signal pendant une de ses période et à la vitesse V.

E. Signaux pairs et impairs


Un signal est pair si ∀(𝑡, −𝑡)𝜖𝐷𝑥

𝑥(𝑡) = 𝑥(−𝑡) 𝑥[𝑛] = 𝑥[−𝑛]

Un signal est impair si ∀(𝑡, −𝑡)𝜖𝐷𝑥

𝑥(𝑡) = −𝑥(−𝑡) 𝑥[𝑛] = −𝑥[−𝑛]

Tout signal réel peut être décomposé en une partie paire et une
partie impaire

𝑥(𝑡) = 𝑥𝑝 (𝑡) + 𝑥𝑖 (𝑡) 𝑥[𝑛] = 𝑥𝑝 [𝑛] + 𝑥𝑖 [𝑛]

Avec
1 1
𝑥𝑝 (𝑡) = [𝑥(𝑡) + 𝑥(−𝑡)]𝑥𝑝 [𝑛] = [𝑥[𝑛] + 𝑥[(−𝑛)]]
2 2
1 1
𝑥𝑖 (𝑡) = [𝑥(𝑡) − 𝑥(−𝑡)]𝑥𝑖 [𝑛] = [𝑥[𝑛] − 𝑥[(−𝑛)]]
2 2
Notons que le produit de deux signaux pairs ou de deux signaux
impairs est un signal pair. Et un produit entre un signal pair et un
signal impair est un signal impair.

F. Signaux causals
Un signal est dit causal s'il est nul pour toute valeur négative du
temps

𝒙(𝒕) ≡ 𝟎 ∀𝒕 < 0 𝑥[𝒏] ≡ 𝟎 ∀𝒏 < 0

En tenant compte de la définition des signaux pairs et impairs, on


voit qu’un signal réel causal est tel que

𝒙𝒊 (𝒕) = 𝒙𝒑 (𝒕). 𝒔𝒈𝒏(𝒕)

Expérimentalement, tous les signaux sont causals, c'est-à-dire


commencent en un instant𝒕 = 𝟎. C'est par commodité théorique
que l'on définit généralement les signaux sur la totalité de l'axe des
temps.

G. Signaux bornés en amplitude


C'est le cas de tous les signaux physiquement réalisables pour
lesquels l'amplitude ne peut pas dépasser une certaine valeur
limite, souvent imposée par des dispositifs électroniques de
traitement.
On a dans ce cas:

|𝑥(𝑡)| ≤ 𝐾 𝑝𝑜𝑢𝑟 − ∞ < 𝑡 < +∞ |𝑥[𝑛]| ≤ 𝐾 𝑝𝑜𝑢𝑟 − 𝑁


< 𝑛 < +𝑁
III. OPERATIONS SUR LES SIGNAUX
Elles sont nombreuses mais nous nous intéresserons ici à celles
qui sont un peu spéciales, nous ne parlerons pas des opérations
classiques comme la somme, différence, dérivation et intégration….

1. Réversibilité ou retournement (Reverse)


C’est une opération qui, à un signal 𝑥(𝑡) associe un le signal
𝑦(𝑡) = 𝑥(−𝑡)

Fig 2.14

2. Décalage ou Translation temporelle


C’est une opération qui à signal 𝑥(𝑡)associe un signal

𝑦(𝑡) = 𝑥(𝑡 − 𝑇)

Pour décaler un signal 𝑥(𝑡) de 𝑇, il faut remplacer le 𝑡 de 𝑥(𝑡) par


𝑡 + 𝑇. Ainsi 𝑥(𝑡 − 𝑇) est une version de 𝑥(𝑡) décalée de 𝑇.

T est appelé facteur de retard :


 Si 𝑻 ≥ 𝟎 alors on affaire à un retard ou décalage à droite
fig.2.15b
 Si 𝑻 ≤ 𝟎 alors on parle d’avance ou décalage à gauche fig.2.15c

Fig 2.15

De façon plus pratique 𝑥(𝑡 − 2) est la retardée de 2 de 𝑥(𝑡) et 𝑥(𝑡 +


2) est l’avancée de 2 de 𝑥(𝑡).

Exemple 1

Soit le signal exponentiel causal 𝑥(𝑡) = 𝑒 −2𝑡 .Représenter


𝑥(𝑡). Représenter et décrire mathématiquement sa retardée de 1
et son avancée de 1
Réponse

Le signal 𝑥(𝑡) peut être décrit mathématiquement par


−2𝑡
𝑥(𝑡) = {𝑒 𝑡≥0
0 𝑡<0

Soit 𝑥𝑟 (𝑡) la retardée de 1 de 𝑥(𝑡) et 𝑥𝑎 (𝑡) son avancée de 1. La


description mathématique de 𝑥𝑟 (𝑡) (respectivement 𝑥𝑎 (𝑡) ) peut
être obtenue de 𝑥(𝑡) en remplaçant t par t-1 (respectivement t par
t+1 pour 𝑥𝑎 (𝑡)). Ainsi on a
−2(𝑡−1)
𝑥𝑟 (𝑡) = x(t − 1) = { 𝑒 𝑡 − 1 ≥ 0 𝑜𝑢 𝑡 ≥ 1
0 𝑡 − 1 < 0 𝑜𝑢 𝑡 < 1
−2(𝑡+1)
𝑥𝑎 (𝑡) = 𝑥(𝑡 + 1) = {𝑒 𝑡 + 1 ≥ 0 𝑜𝑢 𝑡 ≥ −1
0 𝑡 + 1 < 0 𝑜𝑢 𝑡 < −1

Leur graphiques sont les suivants

Fig.2.16 : (a) x(t).(b) x(t-1). (c) x(t+1)


3. Translation fréquentielle ou Modulation de
fréquence
C’est une opération qui, à un signal 𝑥(𝑡)associe 𝑦(𝑡) = 𝑥(𝑡)𝑒 𝑗2𝜋𝑓0 𝑡

Fig.2. cos(t) et sin(t) multipliées par un phaseur

4. Amortissement exponentiel
C’est une opération qui, à un signal 𝑥(𝑡) associe le signal :

𝑦(𝑡) = 𝐴𝑒 −𝑎𝑡 𝑥(𝑡)


5. Produit scalaire et orthogonalité
Par analogie, on définit le produit scalaire de deux signaux -
fonctions réelles ou complexes du temps - x (t) et y (t), par
𝑡2

〈𝑥, 𝑦〉 = ∫ 𝑥(𝑡)𝑦(𝑡)𝑑𝑡
𝑡1
En géométrie euclidienne, deux vecteurs sont orthogonaux si
leur produit scalaire est nul. Par analogie, x(t) et y(t) sont des
fonctions orthogonales sur l’intervalle
[𝑡1 ; 𝑡2 ] si leur produit scalaire
𝑡2

〈𝑥, 𝑦〉 = ∫ 𝑥(𝑡)𝑦(𝑡)𝑑𝑡 = 0
𝑡1
Remarque :
La spécification de l'intervalle [𝑡1 ; 𝑡2 ] est importante, Deux
fonctions orthogonales sur [𝑡1 ; 𝑡2 ] ne le sont pas nécessairement
sur tout autre intervalle [𝑡3 ; 𝑡4 ]

Exemple :

Les quatre signaux de la figure suivante sont orthogonaux deux â


deux sur l'intervalle [0, T], sauf pour la paire 𝑥2 (𝑡), 𝑥3 (𝑡)dont le
produit scalaire vaut 〈𝑥, 𝑦〉 = −𝑇
6. Produit de convolution
Comme on le verra dans le tome 2 dans le chapitre sur les
réponses des systèmes linéaires, le produit de convolution est un
outil très pratique pour le calcul de la réponse d'un système linéaire
et invariant dans le temps. En effet la réponse y(t) d'un tel système
a une entrée quelconque x(t) s'exprime comme le produit de
convolution de x(t) avec la réponse impulsionnelle h(t) du système,
c’est-à-dire :
+∞ +∞

𝑦(𝑡) = 𝑥(𝑡) ∗ ℎ(𝑡) = ∫ ℎ(𝜃)𝑥(𝑡 − 𝜃)𝑑𝜃 = ∫ 𝑥(𝜃)ℎ(𝑡 − 𝜃)𝑑𝜃


−∞ −∞
7. Dilatation et comprimation ou facteur
d’échelle
Cette opération établit qu’a un signal 𝑥(𝑡) sera associé un signal
𝑦(𝑡) tel que :

𝑦(𝑡) = 𝑥(𝑎𝑡)

Avec

 |𝑎| < 1 : on a une dilatation


 |𝑎| > 1 : on parle de comprimation

Exemple

Représenter graphiquement les signaux :


1
𝑥(𝑡) = cos(𝑡) ; 𝑦(𝑡) = cos(2t) ; 𝑧(𝑡) = cos( 𝑡)
2
8. Périodisation
Cette opération consiste à prendre une portion d’un signal
ou même tout le signal que nous allons répéter selon une période
de 𝑇. Cela nous donne pour un signal 𝑥(𝑡) :
+∞

𝑥(𝑡) − −→ 𝑦(𝑡) = ∑ 𝑥(𝑡 − 𝑘𝑇)


𝑘=−∞

Et le signal obtenu est T-périodique même si le signal 𝑥(𝑡) n’est pas


périodique.

Exemple
Le peigne de Dirac est une périodisation de l’impulsion de Dirac.
+∞

𝜓(𝑡) = ∑ 𝛿(𝑡 − 𝑘𝑇)


𝑘=−∞
IV. SIGNAUX CONTINUS DE BASE

1. Echelon unité de Heaviside


Le signal échelon unité u(t), aussi connu comme signal unité
de Heaviside, est défini par :
1 𝑡≥0
𝑢(𝑡) = {
0 𝑡<0
La version décalée de 𝑡0 est définie par
1 𝑡 ≥ 𝑡0
𝑢(𝑡−𝑡0 ) = {
0 𝑡 < 𝑡0

Fig. Échelon unité (a) et échelon unité décalé (b)

D’autres formes de l’échelon sont données à la figure suivante


L’échelon unité peut être utilise pour représenter d’autres signaux
comme la fonction rectangle présentée comme suit :

Fig. Signal impulsion rectangulaire exprime comme somme de deux


échelons unité
Exemple1 : Exprimer le signal suivant comme somme d’échelons
unité

Solution :

 Le segment I de hauteur A débute a 𝑡 = 0,et se termine a


𝑡 = 𝑇. On peut l’exprimer comme suit :
𝑣1 (𝑡) = 𝐴[𝑢(𝑡) − 𝑢(𝑡 − 𝑇)]
 Le segment 2 de hauteur -A débute a 𝑡 = 𝑇,et se termine a
𝑡 = 2𝑇. On peut l’exprimer comme suit :
𝑣2 (𝑡) = −𝐴[𝑢(𝑡 − 𝑇) − 𝑢(𝑡 − 2𝑇)]
 Le segment 3 de hauteur A débuté a 𝑡 = 2𝑇,et se termine a
𝑡 = 3𝑇. On peut l’exprimer comme suit :
𝑣3 (𝑡) = 𝐴[𝑢(𝑡 − 2𝑇) − 𝑢(𝑡 − 3𝑇)]
 Le segment 4 de hauteur -A débuté a 𝑡 = 3𝑇,et se termine a
𝑡 = 4𝑇. On peut l’exprimer comme suit :
𝑣1 (𝑡) = −𝐴[𝑢(𝑡 − 3𝑇) − 𝑢(𝑡 − 4𝑇)]

Ainsi le signal v(t) peut s’exprimer comme la somme des segment


ci-haut définis :
𝑣(𝑡) = 𝑣1 (𝑡) + 𝑣2 (𝑡) + 𝑣3 (𝑡) + 𝑣4 (𝑡)
= 𝐴[𝑢(𝑡) − 𝑢(𝑡 − 𝑇)] − 𝐴[𝑢(𝑡 − 𝑇) − 𝑢(𝑡 − 2𝑇)]
+𝐴[𝑢(𝑡 − 2𝑇) − 𝑢(𝑡 − 3𝑇)] − 𝐴[𝑢(𝑡 − 3𝑇) − 𝑢(𝑡 − 4𝑇)]

En combinant les lignes on obtient :

𝑣(𝑡) = 𝐴[𝑢(𝑡) − 2𝑢(𝑡 − 𝑇) + 2𝑢(𝑡 − 2𝑇) − 2𝑢(𝑡 − 3𝑇) + 𝑢(𝑡 − 4𝑇)]


Exemple2 Exprimer l’impulsion rectangulaire symétrique comme
somme d’échelons unité

Solution :
𝑇
Cette impulsion de hauteur A, débute a 𝑡 = − 2.

𝑇 𝑇 𝑇 𝑇
𝑖(𝑡) = 𝐴. 𝑢 (𝑡 + ) − 𝐴. 𝑢 (𝑡 − ) = 𝐴 [𝑢 (𝑡 + ) − 𝑢 (𝑡 − )]
2 2 2 2

Exemple3

Dans le réseau électrique suivant, 𝑖𝑠 est une source de courant


constant et l’interrupteur est ferme à l’ instant 𝑡 = 0. Exprimer la
tension du condensateur comme une fonction de l’échelon unité.

Solution :

Le courant dans le condensateur 𝑖𝑐 (𝑡) = 𝑖𝑠 est constant, et la


tension aux bornes du condensateur est donnée par :

𝑞(𝑡) 1 𝑡
𝑣𝑐 (𝑡) = = ∫ 𝑖𝑐 (𝜃) 𝑑𝜃
𝐶 𝐶 −∞
Dès que l’interrupteur est ferme à l’ instant 𝑡 = 0, on peut exprimer
le courant

𝑖𝑐 (𝑡) = 𝑖𝑠 . 𝑢(𝑡)

Et comme 𝑣𝑐 (𝑡) = 0 pour 𝑡 < 0, on peut écrire :

1 𝑡 1 0 1 𝑡
𝑣𝑐 (𝑡) = ∫ 𝑖𝑠 𝑢(𝜃) 𝑑𝜃 = ∫ 𝑖𝑠 𝑢(𝜃) 𝑑𝜃 + ∫ 𝑖𝑠 𝑢(𝜃) 𝑑𝜃
𝐶 −∞ 𝐶
⏟ −∞ 𝐶 0
0
𝑖𝑠
𝑣𝑐 (𝑡) = . 𝑡. 𝑢(𝑡)
𝐶
Ainsi, on voit que quand une capacité est chargée avec une source
de courant constant, la tension à ses bornes est une fonction
𝒊𝒔
linéaire et forme une rampe de pente 𝑪
(slope en anglais) comme
présentée à la figure suivante

2. Impulsion unité de Dirac


L’impulsion unité ou signal delta ou encore impulsion de Dirac,
notée 𝛿(𝑡), est la dérivée de l’échelon unité u(t). Il est aussi défini
par :
𝑡
∫ 𝛿(𝜃) 𝑑𝜃 = 𝑢(𝑡) 𝑜𝑢 𝛿(𝑡) = 0 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑡 ≠ 0
−∞
 Propriété d’échantillonnage de l’impulsion de Dirac

La propriété d’échantillonnage du signal delta dit que :

𝑓(𝑡)𝛿(𝑡 − 𝑎) = 𝑓(𝑎)𝛿(𝑡) 𝑒𝑡 𝑠𝑖 𝑎 = 0 𝑜𝑛 𝑎 𝑓(𝑡)𝛿(𝑡) = 𝑓(0)𝛿(𝑡)

Ainsi la multiplication d’un signal f(t) par le signal delta donne un


échantillonnage de f(t) aux instants ou le signal delta est non nul.

 La propriété de décalage (shifting) de la fonction delta

La propriété de shifting de l’impulsion de Dirac dit que


+∞
∫ 𝑓(𝑡) 𝛿(𝑡 − 𝛼) = 𝑓(𝛼)
−∞

Ce qui veut dire que si on multiplie n’importe quelle fonction f(t) par
𝛿(𝑡 − 𝛼) et qu’on intègre de −∞ 𝑎 + ∞, on obtient la valeur de f(t) a
𝑡=𝛼

Remarque : un signal delta d’ordre supérieur est défini comme la


dérivée 𝑛𝑖𝑒𝑚𝑒 de l’échelon unité 𝑢(𝑡) soit :
𝑑 𝑛 𝑢(𝑡)
𝛿 𝑛 (𝑡) =
𝑑𝑡 𝑛
En utilisant une procédure similaire a la dérivation de la propriété
d’échantillonnage du signal delta on peut montrer que :

𝑓(𝑡)𝛿 ′ (𝑡 − 𝑎) = 𝑓(𝑎)𝛿 ′ (𝑡 − 𝑎) − 𝑓 ′ (𝑎)𝛿(𝑡 − 𝑎)

Et de même
+∞
𝑑𝑛
∫ 𝑓(𝑡)𝛿 𝑛 (𝑡 − 𝛼) 𝑑𝑡 = (−1)𝑛 [𝑓(𝑡)]|𝑡=𝛼
−∞ 𝑑𝑡 𝑛
Exemple1

Evaluer les expressions suivantes :


+∞
𝑎. 3𝑡 4 𝛿(𝑡 − 1) 𝑏. ∫ 𝑡𝛿(𝑡 − 2) 𝑑𝑡 𝑐. 𝑡 2 𝛿 ′ (𝑡 − 3)
−∞

Solution :

a. La propriété d’échantillonnage dit que 𝑓(𝑡)𝛿(𝑡 − 𝑎) =


𝑓(𝑎)𝛿(𝑡). Pour cet exemple, 𝑓(𝑡) = 3𝑡 4 𝑒𝑡 𝑎 = 1. Alors

3𝑡 4 𝛿(𝑡 − 1) = {3𝑡 4 |𝑡=1 }𝛿(𝑡 − 1) = 3𝛿(𝑡 − 1)


b. D’après la propriété de shifting on a :
+∞
∫ 𝑓(𝑡) 𝛿(𝑡 − 𝛼) = 𝑓(𝛼)
−∞

+∞
Pour cet exemple 𝑓(𝑡) = 𝑡 et 𝛼 = 2. Alors ∫−∞ 𝑡𝛿(𝑡 − 2) 𝑑𝑡 =
𝑓(2) = 𝑡I𝑡=2 = 2

c. Propriétés additionnelles

Voici d’autres propriétés du signal delta :


1
𝛿(𝑎𝑡) = 𝛿(𝑡)
|𝑎|
𝛿(−𝑡) = 𝛿(𝑡)
𝑥(𝑡)𝛿(𝑡) = 𝑥(0)𝛿(𝑡)

3. Rampe unité
Le signal rampe unité, noté 𝑟(𝑡) est défini par
𝑡
0 𝑡<0
𝑟(𝑡) = ∫ 𝑢(𝜃) 𝑑𝜃 = {
−∞ 1 𝑡≥0
Comme 𝑟(𝑡) est l’intégrale de 𝑢(𝑡), alors 𝑢(𝑡) doit être la dérivée de
𝑟(𝑡) soit
𝑑𝑟(𝑡)
= 𝑢(𝑡)
𝑑𝑡
Remarque : les signaux 𝑡 d’ordre supérieur ( 𝑡 𝑛 ) peuvent être
générés par intégrations successives de l’échelon unité. Par
exemple en intégrant deux fois u(t) et en multipliant le résultat par
deux on définit la rampe unité d’ordre deux ( 𝑡 2 )
𝑡
0 𝑡<0
𝑟2 (𝑡) = { 2 𝑜𝑢 𝑟2 (𝑡) = 2 ∫ 𝑟(𝜃)𝑑𝜃
𝑡 𝑡≥0 −∞

De façon similaire,
𝑡
0 𝑡<0
𝑟3 (𝑡) = { 3 𝑜𝑢 𝑟3 (𝑡) = 3 ∫ 𝑟2 (𝜃)𝑑𝜃
𝑡 𝑡≥0 −∞

Et de façon générale
𝑡
0 𝑡<0
𝑟𝑛 (𝑡) = { 𝑛 𝑜𝑢 𝑟𝑛 (𝑡) = 𝑛 ∫ 𝑟𝑛−1 (𝜃)𝑑𝜃
𝑡 𝑡≥0 −∞

1 𝑑𝑢𝑛 (𝑡)
Aussi 𝑢𝑛−1 (𝑡) = 𝑛 𝑑𝑡

4. Phaseur de fréquence 𝝎𝟎
Le Phaseur de fréquence ou signal exponentiel complexe
note 𝑥(𝑡) = 𝑒 𝑗𝜔0 est un exemple important de signaux complexes.
En utilisant la formule de Euler ce signal peut être défini par :

𝑥(𝑡) = 𝑒 𝑗𝜔0 = cos(𝜔0 𝑡) + 𝑗𝑠𝑖𝑛(𝜔0 𝑡)


𝑥(𝑡) est un signal complexe dont la partie réelle est cos(𝜔0 𝑡) et la
partie imaginaire est𝑠𝑖𝑛(𝜔0 𝑡). Une importante propriété de ce signal
exponentiel complexe est qu’il est périodique quel que soit la valeur
de 𝜔0 .

Fig. signal sinusoïdal multiplie par un Phaseur croissant (a) et multiplie par un
Phaseur décroissant (b)

5. Signal exponentiel complexe général


Soit 𝑠 = 𝜎 + 𝑗𝜔0 un nombre complexe. On définit

𝑥(𝑡) = 𝑒 𝑠𝑡 = 𝑒 (𝜎+𝑗𝜔0 )𝑡 = 𝑒 𝜎𝑡 (cos(𝜔0 𝑡) + 𝑗𝑠𝑖𝑛(𝜔0 𝑡))

𝑥(𝑡) est connu comme une fonction exponentielle complexe


générale de partie réelle est 𝑒 𝜎𝑡 cos(𝜔0 𝑡) et partie imaginaire
est 𝑒 𝜎𝑡 𝑠𝑖𝑛(𝜔0 𝑡) sont des sinusoïdes exponentiellement
croissantes (𝜎 > 0) ou décroissantes (𝜎 < 0). Voir figure
précédente.
6. Signal exponentiel réel ou amortisseur
exponentiel
Noter que si 𝑠 = 𝜎 (un nombre réel), alors on a un signal
exponentiel réel communément appelé amortisseur exponentiel
𝑥(𝑡) = 𝑒 𝜎𝑡

Fig. amortisseur exponentiel. a(𝜎 > 0); 𝑏(𝜎 < 0);

7. Signal sinusoïdal
Un signal sinusoïdal peut s’exprimer comme suit : 𝑥(𝑡) =
𝐴𝑠𝑖𝑛(𝜔0 𝑡 + 𝜃) ou A est l’amplitude (réel), 𝜔0 est la fréquence
angulaire ou pulsation en radian par seconde, et 𝜃 est la phase en
radians. Le signal sinusoïdal x(t) est présente a le figure suivante,
et est périodique de période fondamentale :
2𝜋
𝑇0 =
𝜔0

L’inverse de la période fondamentale est la fréquence


1
fondamentale𝑓0 = ℎ𝑒𝑟𝑡𝑧(𝐻𝑧). De la définition de la période
𝑇0
fondamentale on tire : 𝜔0 = 2𝜋𝑓0 qu’on appelle pulsation
fondamentale.

En utilisant la formule de Euler, le signal sinusoïdal peut s’exprimer


par :

𝐴𝑐𝑜𝑠(𝜔0 𝑡 + 𝜃) = 𝐴𝑅𝑒{𝑒 𝑗(𝜔0 𝑡+𝜃) }

V. SIGNAUX NUMERIQUES DE BASE

1. Séquence saut unitaire ou séquence de


Heaviside
1 𝑛≥0
La séquence saut unitaire 𝑢[𝑛] est définie par : 𝑢[𝑛] = {
0 𝑛<0
présentée à la figure suivante (a). De la même façon on définit la
séquence saut unitaire décalée :
1 𝑛≥𝑘
𝑢[𝑛 − 𝑘] = {
0 𝑛<𝑘
Fig. séquence saut unitaire (a) et sa version décalée (b)

2. Séquence impulsion unitaire ou impulsion


de Dirac
L’impulsion unitaire ou séquence unité 𝛿[𝑛] est définie par :
1 𝑛=0
𝛿[𝑛] = {
0 𝑛≠0
De même la séquence unité décalée 𝛿[𝑛 − 𝑘] est définie par
1 𝑛=𝑘
𝛿[𝑛 − 𝑘] = {
0 𝑛≠𝑘

Fig. échantillon unité impulsionnelle (a) et échantillon unité impulsionnelle décalée


(b)

Comme pour l’impulsion de Dirac continue 𝛿(𝑡), la séquence


impulsionnelle 𝛿[𝑛] est définie sans complication mathématique. On
a les mêmes propriétés que pour la forme continue :
𝑥[𝑛]𝛿[𝑛] = 𝑥[0]𝛿[𝑛]
𝑥[𝑛]𝛿[𝑛 − 𝑘] = 𝑥[𝑘]𝛿[𝑛 − 𝑘]

De même que pour la forme continue il y a une relation entre


l’échantillon unité impulsionnelle et la séquence de Heaviside

𝛿[𝑛] = 𝑢[𝑛] − 𝑢[𝑛 − 1]


𝑛

𝑢[𝑛] = ∑ 𝛿[𝑘]
𝑘=−∞

En utilisant la définition de l’échantillon décalée on peut exprimer


n’importe quelle séquence 𝑥[𝑛] de la manière suivante :
𝑛

𝑥[𝑛] = ∑ 𝑥[𝑘]𝛿[𝑛 − 𝑘]
𝑘=−∞

3. Séquence exponentielle complexe


La séquence exponentielle complexe est de forme : 𝑥[𝑛] = 𝑒 𝑗Ω0 .𝑛

En utilisant encore la formule d’Euler 𝑥[𝑛] peut-être exprime comme


suit :

𝑥[𝑛] = 𝑒 𝑗Ω0 .𝑛 = 𝑐𝑜𝑠[Ω0 . 𝑛] + 𝑗𝑠𝑖𝑛[Ω0 . 𝑛]

Périodicité de𝑥[𝑛] = 𝑒 𝑗Ω0 .𝑛

Pour que 𝑥[𝑛] = 𝑒 𝑗Ω0 .𝑛 soit périodique de période N (>0), Ω0 doit


satisfaire la condition suivante :
Ω0 𝑚
= 𝑚 = entier positif
2𝜋 𝑁
Ainsi la séquence 𝑒 𝑗Ω0 .𝑛 n’est pas périodique pour n’importe quelle
Ω0
valeur deΩ0 . C’est périodique seulement si est un nombre
2𝜋
rationnel. Notons que cette propriété est un peu différente de celle
du domaine continu ou le signal 𝑒 𝑗𝜔0 𝑡 est périodique pour toute
valeur de 𝜔0 .

Si Ω0 satisfait la condition de périodicité, Ω0 ≠ 0 et que N et m n’ont


pas de facteur commun, alors la période fondamentale 𝑁0 de la
séquence 𝑥[𝑛] est donnée par :
2𝜋
𝑁0 = 𝑚 ( )
Ω0

Une autre différence très importante entre les séquences


exponentielles complexes a temps discret et a temps continu est
que les signaux 𝑒 𝑗𝜔0 𝑡 sont tous distincts pour différentes valeurs de
𝜔0 ce qui n’est pas le cas pour les signaux 𝑒 𝑗Ω0 .𝑛 .

Considérons la séquence exponentielle complexe de


fréquence(Ω0 + 2𝜋𝑘), ou k est un entier :

𝑒 𝑗(Ω0 +2𝜋𝑘)𝑛 = 𝑒 𝑗Ω0 𝑛 𝑒 𝑗2𝜋𝑘𝑛 = 𝑒 𝑗Ω0 𝑛 𝑐𝑎𝑟 𝑒 𝑗2𝜋𝑘𝑛 = 𝑒 𝑗Ω0 𝑛 = 1

De l’équation précédente on voit que la séquence exponentielle


complexe à la fréquence Ω0 est la même que celles aux fréquences
(Ω0 ± 2𝜋), (Ω0 ± 4𝜋) et ainsi de suite. En travaillant avec une
exponentielle a temps discret, on considère un intervalle de
longueur 2𝜋 dans lequel on choisitΩ0 . Généralement on utilise
l’intervalle 0 ≤ Ω0 ≤ 2𝜋 ou l’intervalle −𝜋 ≤ Ω0 ≤ 𝜋.

4. Séquence exponentielle complexe générale


La plus générale des séquences exponentielles complexes
est souvent définie par :𝑥[𝑛] = 𝐶𝛼 𝑛

Ou C et 𝛼 sont des nombres complexes. Notons que la séquence


vue à la section précédente est un cas particulier de séquences
exponentielles avec 𝐶 = 1 et 𝛼 = 𝑒 𝑗Ω0
5. Séquence exponentielle réelle ou séquence
amortisseur
Si C et 𝛼 sont tous deux réels, alors 𝑥[𝑛] est un amortisseur.
Quatre différents cas peuvent être identifies : 𝛼 > 1, 0 < 𝛼 < 1, −1 <
𝛼 < 0 𝑒𝑡 𝛼 < −1. Ces quatre amortisseurs sont présentes a la figure
suivante. Notons que si 𝛼 = 1, 𝑥[𝑛] est une séquence constante, de
même si 𝛼 = −1, 𝑥[𝑛] alterne en valeur entre 𝐶 et – 𝐶.
6. Séquence sinusoïdale
Une séquence sinusoïdale s’exprime comme suit :

𝑥[𝑛] = 𝐴𝑐𝑜𝑠(Ω0 𝑛 + 𝜃)

Si 𝑛 est sans dimension, Ω0 𝑒𝑡𝜃 sont en radians. Comme dans la


section précédente la séquence sinusoïdale peut s’exprimer
comme suit :

𝐴𝑐𝑜𝑠(Ω0 𝑛 + 𝜃) = 𝐴𝑅𝑒{𝑒 𝑗(Ω0 𝑛+𝜃) }

Voici par exemple deux séquences sinusoïdales

𝑛𝜋
Fig. séquence sinusoïdales 𝑥[𝑛] = 𝑐𝑜𝑠 [ ] (a) et 𝑥[𝑛] = 𝑐𝑜𝑠(𝑛/2)
6

Remarque : la séquence (a) est périodique de période 12 alors que


la séquence (b) n’est pas périodique.
VI. EXERCICES
A. Exercices résolus
Exercice 1 : Un signal analogique 𝑥(𝑡) est représenté à la figure
suivante :

Représenter graphiquement les signaux les signaux suivants :


(𝑎) 𝑥(𝑡 − 2) (𝑏) 𝑥(2𝑡)
𝑡
(𝑐) 𝑥 ( ) (𝑑) 𝑥(−𝑡)
2
Réponse :
𝑎. 𝑥(𝑡 − 2) 𝑑é𝑐𝑎𝑙𝑎𝑔𝑒 𝑡𝑒𝑚𝑝𝑜𝑟𝑒𝑙 (𝑓𝑖𝑔. 𝑎) 𝑏. 𝑥(2𝑡) 𝑐𝑜𝑚𝑝𝑟𝑖𝑚𝑎𝑡𝑖𝑜𝑛 (𝑓𝑖𝑔. 𝑏)
𝑡
𝑐. 𝑥 ( ) 𝑑𝑖𝑙𝑎𝑡𝑎𝑡𝑖𝑜𝑛 (𝑓𝑖𝑔. 𝑐) 𝑑. 𝑥(−𝑡) 𝑟𝑒𝑡𝑜𝑢𝑟𝑛𝑒𝑚𝑒𝑛𝑡 (𝑓𝑖𝑔. 𝑑)
2
Exercice 2 Un signal numérique x[n] est représenté à la figure
suivante.

Représenter graphiquement les signaux les signaux suivants :


(𝑎) 𝑥[𝑛 − 2] (𝑏) 𝑥[2𝑛]
(𝑐) 𝑥(−) (𝑑) 𝑥[−𝑛]
Réponse :
𝑎. 𝑥[𝑡 − 2] 𝑑é𝑐𝑎𝑙𝑎𝑔𝑒 𝑡𝑒𝑚𝑝𝑜𝑟𝑒𝑙 (𝑓𝑖𝑔. 𝑎) 𝑏. 𝑥[2𝑡] 𝑐𝑜𝑚𝑝𝑟𝑖𝑚𝑎𝑡𝑖𝑜𝑛 (𝑓𝑖𝑔. 𝑏)
𝑡
𝑑. 𝑥 [ ] 𝑑𝑖𝑙𝑎𝑡𝑎𝑡𝑖𝑜𝑛 (𝑓𝑖𝑔. 𝑑) 𝑐. 𝑥[−𝑡] 𝑟𝑒𝑡𝑜𝑢𝑟𝑛𝑒𝑚𝑒𝑛𝑡 (𝑓𝑖𝑔. 𝑐)
2

Exercice 3 Soit le signal analogique défini par :

𝟏 − |𝒕| ; −𝟏 ≤ 𝒕 ≤ 𝟏
𝒙(𝒕) = {
𝟎 ; 𝒂𝒊𝒍𝒍𝒆𝒖𝒓𝒔
Déterminer et représenter la séquence numérique obtenue par
échantillonnage de x(t) avec les périodes d’échantillonnage
suivantes : (𝒂) 𝟎. 𝟐𝟓𝒔 (𝒃) 𝟎. 𝟓𝒔 (𝒄) 𝟏𝒔

Réponse :

Il est plus facile de prendre l’approche graphique pour ce problème.


Le signal 𝑥(𝑡) est représenté à la figure a. Les figures (b) à (d)
donnent les représentations des signaux résultants de
l’échantillonnage avec les trois périodes spécifiées.

(a) 𝑇𝑠 = 0.25 𝑠 fig.b On obtient

{… ,0, 0.25,0.5,0.75,1,0.75,0.5,0.25,0, … }
𝑥[𝑛] = ⏟

(b) 𝑇𝑠 = 0.5 𝑠 fig. c on obtient

{… ,0,0.5,1,0.5,0, … }
𝑥[𝑛] = ⏟

(c) 𝑇𝑠 = 0.75 𝑠 fig. d on obtient

{… ,0,1,0, … } = 𝛿[𝑛]
𝑥[𝑛] = ⏟

Exercice 4 En utilisant les signaux numériques 𝑥1 [𝑛] 𝑒𝑡 𝑥2 [𝑛]


représentés a la figure suivante, représenter graphiquement les
signaux suivants et donner les séquences numériques
correspondantes :
(𝑎) 𝑦1 [𝑛] = 𝑥1 [𝑛] + 𝑥1 [𝑛] (𝑏) 𝑦2 [𝑛] = 2𝑥1 [𝑛] (𝑐) 𝑦3 [𝑛] = 𝑥1 [𝑛]. 𝑥1 [𝑛]
Réponse :

(𝑎) 𝑦1 [𝑛] = {…
⏟ … … ,0, −2, −2,3,4,3, −2,0,2,2,0, . .} 𝑓𝑖𝑔. 𝑎

(𝑏) 𝑦2 [𝑛] = {…
⏟ … … … … . ,0,2,4,6,0,4,4,0, … .} 𝑓𝑖𝑔. 𝑏

(𝑐) 𝑦1 [𝑛] = {…
⏟ … ,02,4,0, . .} 𝑓𝑖𝑔. 𝑐

Exercice 5 Représenter la partie paire et impaire des signaux de
la figure suivante.

Réponse :

En utilisant les relations :

𝑥(𝑡) = 𝑥𝑝 (𝑡) + 𝑥𝑖 (𝑡) 𝑥[𝑛] = 𝑥𝑝 [𝑛] + 𝑥𝑖 [𝑛]

Avec
1 1
𝑥𝑝 (𝑡) = [𝑥(𝑡) + 𝑥(−𝑡)] 𝑥𝑝 [𝑛] = [𝑥[𝑛] + 𝑥[(−𝑛)]]
2 2
1 1
𝑥𝑖 (𝑡) = [𝑥(𝑡) − 𝑥(−𝑡)] 𝑥𝑖 [𝑛] = [𝑥[𝑛] − 𝑥[(−𝑛)]]
2 2
𝑜𝑛 𝑜𝑏𝑡𝑖𝑒𝑛𝑡 𝑙𝑒𝑠 𝑟𝑒𝑝𝑟é𝑠𝑒𝑛𝑡𝑎𝑡𝑖𝑜𝑛𝑠 𝑠𝑢𝑖𝑣𝑎𝑛𝑡𝑒𝑠
Exercice 6 Déterminer les parties paire et impaire du signal

𝑥 (𝑡) = 𝑒 𝑗𝑡

Réponse :

Soit 𝑥𝑝 (𝑡) 𝑒𝑡 𝑥𝑖 (𝑡) les parties paires et impaires respectivement.

𝑒 𝑗𝑡 = 𝑥𝑝 (𝑡) + 𝑥𝑖 (𝑡)

D’après la formule d’Euler, on obtient


1
𝑥𝑝 (𝑡) = (𝑒 𝑗𝑡 + 𝑒 −𝑗𝑡 ) = cos(𝑡)
2
1 𝑗𝑡
𝑥𝑖 (𝑡) = (𝑒 − 𝑒 −𝑗𝑡 ) = 𝑗sin(𝑡)
2

Exercice 7 Démontrer que


𝑎 𝑎
𝑎. 𝑠𝑖 𝑥(𝑡) 𝑒𝑡 𝑥[𝑛] 𝑠𝑜𝑛𝑡 𝑝𝑎𝑖𝑟𝑠, 𝑎𝑙𝑜𝑟𝑠 ∫ 𝑥(𝑡)𝑑𝑡 = 2 ∫ 𝑥(𝑡)𝑑𝑡
−𝑎 0
𝑘 𝑘

𝑒𝑡 ∑ 𝑥[𝑛] = 𝑥[0] + 2 ∑ 𝑥[𝑛]


𝑛=−𝑘 𝑛=1
𝑏. 𝑠𝑖 𝑥(𝑡) 𝑒𝑡 𝑥[𝑛] 𝑠𝑜𝑛𝑡 𝑖𝑚𝑝𝑎𝑖𝑟𝑠, 𝑎𝑙𝑜𝑟𝑠 𝑥(0) = 0 𝑒𝑡 𝑥[0] = 0
𝑘
𝑎
𝑒𝑡 ∫ 𝑥(𝑡)𝑑𝑡 = 0 𝑒𝑡 ∑ 𝑥[𝑛] = 0
−𝑎 𝑛=−𝑘

Réponse :
𝑎 0 𝑎
a. On peut écrire ∫−𝑎 𝑥(𝑡)𝑑𝑡 = ∫−𝑎 𝑥(𝑡)𝑑𝑡 + ∫0 𝑥(𝑡)𝑑𝑡

Posons 𝑡 = −𝜆 dans la première intégrale de droite, on a


0 𝑎 𝑎
∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(−𝜆)(−𝑑𝜆) = ∫ 𝑥(−𝜆)𝑑𝜆
−𝑎 0 0
Comme 𝑥(𝑡) est pair, c'est-à-dire, 𝑥(−𝜆) = 𝑥(𝜆), on a
𝑎 𝑎 𝑎
∫ 𝑥(−𝜆)𝑑𝜆 = ∫ 𝑥(𝜆)𝑑𝜆 = ∫ 𝑥(𝑡)𝑑𝑡
0 0 0

Ainsi,
𝑎 𝑎 𝑎 𝑎
∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(𝑡)𝑑𝑡 + ∫ 𝑥(𝑡)𝑑𝑡 = 2 ∫ 𝑥(𝑡)𝑑𝑡
−𝑎 0 0 0

De façon similaire,
𝑘 −1 𝑘

∑ 𝑥[𝑛] = ∑ [𝑛] + 𝑥[0] + ∑ 𝑥[𝑛]


𝑛=−𝑘 𝑛=−𝑘 𝑛=0

Posons 𝑛 = −𝑚 dans la première intégrale de droite, on a


−1 𝑘

∑ 𝑥[𝑛] = ∑ 𝑥[−𝑚]
𝑛=−𝑘 𝑚=−1

Comme 𝑥[𝑛] est pair, c'est-à-dire 𝑥[−𝑚] = 𝑥[𝑚], on a


𝑘 𝑘 𝑘

∑ 𝑥[−𝑚] = ∑ 𝑥[𝑚] = ∑ 𝑥[𝑛]


𝑚=−1 𝑚=1 𝑛=−1

Ainsi,
𝑘 𝑘 𝑘 𝑘

∑ 𝑥[𝑛] = ∑ 𝑥[𝑛] + 𝑥[0] + ∑ 𝑥[𝑛] = 𝑥[0] + 2 ∑ 𝑥[𝑛]


𝑛=−𝑘 𝑛=−1 𝑛=−1 𝑛=−1

b. Comme 𝑥(𝑡) 𝑒𝑡 𝑥[𝑛],


c'est-à-dire,𝑥(−𝑡) = −𝑥(𝑡) 𝑒𝑡 𝑥[−𝑛] = −𝑥[𝑛], on a

𝑥(−0) = −𝑥(0) 𝑒𝑡 𝑥[−0] = −𝑥[0]


Ainsi,
𝑥(−0) = 𝑥(0) = −𝑥(0) ⟹ 𝑥(0) = 0
𝑥[−0] = 𝑥[0] = −𝑥[0] ⟹ 𝑥[0] = 0

De façon similaire,
𝑎 0 𝑎 𝑎 𝑎
∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(𝑡)𝑑𝑡 + ∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(−𝜆)𝑑𝜆 + ∫ 𝑥(𝑡)𝑑𝑡
−𝑎 −𝑎 0 0 0
𝑎 𝑎 𝑎 𝑎
= − ∫ 𝑥(𝜆)𝑑𝜆 + ∫ 𝑥(𝑡)𝑑𝑡 = − ∫ 𝑥(𝑡)𝑑𝑡 + ∫ 𝑥(𝑡)𝑑𝑡 = 0
0 0 0 0

Et
𝑘 −1 𝑘 𝑘 𝑘

∑ 𝑥[𝑛] = ∑ 𝑥[𝑛] + 𝑥[0] + ∑ 𝑥[𝑛] = ∑ 𝑥[−𝑚] + 𝑥[0] + ∑ 𝑥[𝑛]


𝑛=−𝑘 𝑛=−𝑘 𝑛=1 𝑚=−1 𝑛=1
𝑘 𝑘 𝑘 𝑘

= − ∑ 𝑥[𝑚] + 𝑥[0] + ∑ 𝑥[𝑛] = − ∑ 𝑥[𝑛] + 𝑥[0] + ∑ 𝑥[𝑛]


𝑚=1 𝑛=1 𝑛=1 𝑛=1
= 𝑥[0] = 0

Exercice 8

Montrer que les signaux suivants sont périodiques et de période


fondamentale 𝑇 = 2𝜋/𝜔0

𝑥1 (𝑡) = 𝑒 𝑗𝜔0 𝑡 𝑥2 (𝑡) = cos(𝜔0 𝑡 + 𝜃)

Réponse :

1. On sait que 𝑥1 (𝑡) est périodique si

𝑒 𝑗𝜔0 (𝑡+𝑇) = 𝑒 𝑗𝜔0 𝑡

Sachant que

𝑒 𝑗𝜔0 (𝑡+𝑇) = 𝑒 𝑗𝜔0 𝑡 𝑒 𝑗𝜔0 𝑇


On sait aussi 𝑒 𝑗𝜔0 𝑇 = 1

si 𝜔0 = 0, alors 𝑥1 (𝑡) = 1, qui est périodique pour toute valeur de


T. si 𝜔0 ≠ 0 on a
2𝜋
𝜔0 𝑇 = 𝑚2𝜋 𝑜𝑢 𝑇=𝑚 𝑚 𝑒𝑛𝑡𝑖𝑒𝑟 𝑝𝑜𝑠𝑖𝑡𝑖𝑓
𝜔0

Ainsi, la période fondamentale 𝑇0, la plus petite valeur de 𝑇, de


2𝜋
𝑥1 (𝑡) est donnée par
𝜔0

2. Le signal sinusoïdal 𝑥2 (𝑡) sera périodique si

𝑐𝑜𝑠[𝜔0 (𝑡 + 𝑇) + 𝜃] = cos(𝜔0 𝑡 + 𝜃)

On voit que

𝑐𝑜𝑠[𝜔0 (𝑡 + 𝑇) + 𝜃] = cos(𝜔0 𝑡 + 𝜃 + 𝜔0 𝑇) = cos(𝜔0 𝑡 + 𝜃)


2𝜋
si 𝜔0 𝑇 = 𝑚2𝜋 ou 𝑇 = 𝑚 𝜔 𝑎𝑣𝑒𝑐 𝑚 est un entier positif
0

2𝜋
Ainsi, la période fondamentale de 𝑥2 (𝑡) est donnée par 𝑇0 = 𝜔
0

Exercice 9 Montrer que la séquence exponentielle complexe

𝑥[𝑛] = 𝑒 𝑗Ω0 𝑛

Ω0⁄
est périodique seulement si 2𝜋 est un nombre rationnel.

Réponse :

Par définition on sait que 𝑥[𝑛] sera périodique si

𝑒 𝑗Ω0 (𝑛+𝑁) = 𝑒 𝑗Ω0 𝑛 𝑒 𝑗Ω0 𝑁 = 𝑒 𝑗Ω0 𝑛 ou bien 𝑒 𝑗Ω0 𝑁 = 1


Cette équation n’a de sens que si

Ω0 𝑁 = 𝑚2𝜋 𝑚 est un entier positif

ou encore

Ω0 𝑚
= = nombre rationnel
2𝜋 𝑁
Ω0
Ainsi, 𝑥[𝑛] est périodique seulement si est un nombre rationnel.
2𝜋

Exercice 10 Soit le signal exponentiel complexe 𝑥(𝑡) défini par :

𝑥(𝑡) = 𝑒 𝑗𝜔0 𝑡

de fréquence angulaire 𝜔0 et de période fondamentale 𝑇0 = 2𝜋⁄𝜔0 .

Soit la séquence discrète 𝑥[𝑛] obtenue par échantillonnage


uniforme de 𝑥(𝑡) avec l’intervalle d’échantillonnage 𝑇𝑒 . C'est-à-dire,

𝑥[𝑛] = 𝑥(𝑛𝑇𝑒 ) = 𝑒 𝑗𝜔0 𝑛𝑇𝑒

Déterminer la condition sur la valeur de 𝑇𝑒 pour que 𝑥[𝑛] soit


périodique.

Réponse :

Si 𝑥[𝑛] est périodique de période fondamentale 𝑁0 , alors

𝑒 𝑗𝜔0 (𝑛+𝑁0 )𝑇𝑒 = 𝑒 𝑗𝜔0 𝑛𝑇𝑒 𝑒 𝑗𝜔0 𝑁0 𝑇𝑒 = 𝑒 𝑗𝜔0 𝑛𝑇𝑒

Ainsi, on doit avoir


2𝜋
𝑒 𝑗𝜔0 𝑁0 𝑇𝑒 = 1 ⟹ 𝜔0 𝑁0 𝑇𝑒 = 𝑁𝑇
𝑇0 0 𝑒
= 𝑚2𝜋 avec 𝑚 =
𝑒𝑛𝑡𝑖𝑒𝑟 𝑝𝑜𝑠𝑖𝑡𝑖𝑓

Ou bien
𝑇𝑒 𝑚
= = nombre rationnel
𝑇0 𝑁0

Ainsi 𝑥[𝑛] est périodique si le rapport 𝑇𝑠 ⁄𝑇0 de l’intervalle


d’échantillonnage et de la période fondamentale de 𝑥(𝑡) est un
nombre rationnel.
Notez que cette condition est aussi vraie pour les signaux
sinusoïdaux 𝑥(𝑡) = cos(𝜔0 𝑡 + 𝜃).

Exercice 11 Considérons le signal sinusoïdal

𝑥(𝑡) = 𝑐𝑜𝑠(15𝑡)

(a) Déterminer la valeur de l’intervalle d’échantillonnage 𝑇𝑒 pour


que 𝑥[𝑛] = 𝑥(𝑛𝑇𝑒 ) soit une séquence périodique.
(b) Déterminer la période fondamentale de
𝑥[𝑛] = 𝑥(𝑛𝑇𝑒 ) 𝑠𝑖 𝑇𝑒 = 0.1𝜋 𝑠é𝑐𝑜𝑛𝑑𝑒𝑠

Réponse :

(a) La période fondamentale de 𝑥(𝑡) est 𝑇0 = 2𝜋⁄𝜔0 =


2𝜋⁄15. On sait aussi que 𝑥[𝑛] = 𝑥(𝑛𝑇𝑒 ) est périodique si

𝑇𝑒 𝑇𝑒 𝑚
= = 𝑎𝑣𝑒𝑐 𝑚 𝑒𝑡 𝑁0 𝑑𝑒𝑠 𝑒𝑛𝑡𝑖𝑒𝑟𝑠 𝑝𝑜𝑠𝑖𝑡𝑖𝑓𝑠.
𝑇0 2𝜋⁄15 𝑁0

Ainsi, la valeur recherchée de 𝑇𝑒 , est donnée par


𝑚 𝑚 2𝜋
𝑇𝑒 = 𝑇0 =
𝑁0 𝑁0 15
(b) En remplaçant 𝑇𝑒 = 0.1𝜋 = 𝜋/10 dans les équations
précédentes on a
𝑇𝑒 𝜋⁄10 15 3
= = =
𝑇0 2𝜋⁄15 20 4
Ainsi, 𝑥[𝑛] = 𝑥(𝑇𝑒 ) est périodique. Et de ces équations, on déduit
𝑇0 4
𝑁0 = 𝑚 = 𝑚
𝑇𝑒 3
Le plus petit entier positif 𝑁0 est obtenu pour 𝑚 = 3. Ainsi, la
période fondamentale de 𝑥[𝑛] = 𝑥(0.1𝜋) est 𝑁0 = 4.

Exercice 12

Soit les signaux périodiques 𝑥1 (𝑡) 𝑒𝑡 𝑥2 (𝑡) de périodes


fondamentales respectives 𝑇1 𝑒𝑡 𝑇2 .

1. Sous quelles conditions la somme 𝑥(𝑡) = 𝑥1 (𝑡) + 𝑥2 (𝑡) est


périodique et quelle est sa période si elle est périodique ?
2. Appliquer cela aux signaux suivants :
𝜋 2𝜋
∗ 𝑥(𝑡) = cos (𝑡 + 4 ) + 𝑠𝑖𝑛 ( 𝑡) ∗ 𝑥(𝑡) = cos(𝑡) + 𝑠𝑖𝑛(√2 𝑡)
3
𝜋 𝜋
∗ 𝑥(𝑡) = 𝑐𝑜𝑠 ( 3 𝑡) + 𝑠𝑖𝑛 ( 4 𝑡)

Réponse :

1. Comme 𝑥1 (𝑡) 𝑒𝑡 𝑥2 (𝑡) sont périodiques de périodes


fondamentales respectives 𝑇1 𝑒𝑡 𝑇2, on a
𝑥1 (𝑡) = 𝑥1 (𝑡 + 𝑇1 ) = 𝑥1 (𝑡 + 𝑚𝑇1 ) 𝑎𝑣𝑒𝑐 𝑚 = 𝑒𝑛𝑡𝑖𝑒𝑟 𝑝𝑜𝑠𝑖𝑡𝑖𝑓
𝑥2 (𝑡) = 𝑥2 (𝑡 + 𝑇2 ) = 𝑥2 (𝑡 + 𝑘𝑇2 ) 𝑎𝑣𝑒𝑐 𝑘 = 𝑒𝑛𝑡𝑖𝑒𝑟 𝑝𝑜𝑠𝑖𝑡𝑖𝑓

Alors,

𝑥(𝑡) = 𝑥1 (𝑡 + 𝑚𝑇1 ) + 𝑥2 (𝑡 + 𝑘𝑇2 )


Pour que 𝑥(𝑡) soit périodique de période 𝑇, on a besoin que

𝑥(𝑡 + 𝑇) = 𝑥1 (𝑡 + 𝑇1 ) + 𝑥2 (𝑡 + 𝑇2 ) = 𝑥1 (𝑡 + 𝑚𝑇1 ) + 𝑥2 (𝑡 + 𝑘𝑇2 )

Donc, nous devons avoir

𝑚𝑇1 = 𝑘𝑇2 = 𝑇

Ou
𝑇1 𝑘
= = 𝑛𝑜𝑚𝑏𝑟𝑒 𝑟𝑎𝑡𝑖𝑜𝑛𝑛𝑒𝑙
𝑇2 𝑚

En d’autres termes, la somme de deux signaux périodiques est


périodique si le rapport de leur période respective donne un nombre
rationnel. Alors la période fondamentale est le plus petit commun
multiple PPCM de 𝑇1 𝑒𝑡 𝑇2 , et est donné par l’équation

𝑚𝑇1 = 𝑘𝑇2 = 𝑇

si les entiers 𝑚 𝑒𝑡 𝑘 sont. Si le rapport 𝑇1 ⁄𝑇2 est un nombre


irrationnel, alors les signaux𝑥1 (𝑡) 𝑒𝑡 𝑥2 (𝑡) n’ont pas de période
commune et 𝑥(𝑡) ne peut pas être période.

2. Considérons les signaux cas par cas


2𝜋
 𝑥(𝑡) = cos(𝑡 + 𝜋4) + 𝑠𝑖𝑛 ( 3 𝑡)

Pour ce signal, les signaux qui le composent ont pour période


fondamentale respective
𝜋 𝜋 2𝜋
𝑐𝑜𝑠 (𝑡 + ) = 𝑐𝑜𝑠 (𝜔1 𝑡 + ) → 𝜔1 = 1 𝑒𝑡 𝑇1 = 𝑠𝑜𝑖𝑡 𝑇1 = 2𝜋
4 4 𝜔1
2𝜋 2𝜋 2𝜋
𝑠𝑖𝑛 ( 𝑡) = 𝑠𝑖𝑛(𝜔2 𝑡) → 𝜔2 = 𝑒𝑡 𝑇2 = 𝑠𝑜𝑖𝑡 𝑇2 = 3
3 3 𝜔2
𝑇1 2𝜋
Comme 𝑇2
= 3
n’est pas rationnel alors on dira que 𝑥(𝑡) n’est pas
périodique
 𝑥(𝑡) = cos(𝑡) + 𝑠𝑖𝑛(√2 𝑡)

Pour ce signal, les signaux qui le composent ont pour période


fondamentale respective
2𝜋
𝑐𝑜𝑠(𝑡) = 𝑐𝑜𝑠(𝜔1 𝑡) → 𝜔1 = 1 𝑒𝑡 𝑇1 = 𝑠𝑜𝑖𝑡 𝑇1 = 2𝜋
𝜔1
2𝜋
𝑠𝑖𝑛(√2 𝑡) = 𝑠𝑖𝑛(𝜔2 𝑡) → 𝜔2 = √2 𝑒𝑡 𝑇2 = 𝑠𝑜𝑖𝑡 𝑇2 = √2 𝜋
𝜔2
𝑇1
Comme = √2 n’est pas rationnel alors on dira que 𝑥(𝑡) n’est pas
𝑇2
périodique

 𝑥(𝑡) = 𝑐𝑜𝑠(𝜋3𝑡) + 𝑠𝑖𝑛(𝜋4𝑡)

Pour ce signal, les signaux qui le composent ont pour période


fondamentale respective
𝜋 𝜋 2𝜋
𝑐𝑜𝑠 ( 𝑡) = 𝑐𝑜𝑠(𝜔1 𝑡) → 𝜔1 = 𝑒𝑡 𝑇1 = 𝑠𝑜𝑖𝑡 𝑇1 = 6
3 3 𝜔1
𝜋 2𝜋 2𝜋
𝑠𝑖𝑛 ( 𝑡) = 𝑠𝑖𝑛(𝜔2 𝑡) → 𝜔2 = 𝑒𝑡 𝑇2 = 𝑠𝑜𝑖𝑡 𝑇2 = 8
4 3 𝜔2
𝑇1 3
Comme = est pas rationnel alors on dira que 𝑥(𝑡) est
𝑇2 4
périodique et de période fondamentale 𝑇0 = 4𝑇1 = 3𝑇2 =
𝑃𝑃𝐶𝑀(𝑇1 , 𝑇2 ) = 24

Exercice 13 Déterminer si les signaux suivants sont à énergie


finie, à puissance moyenne finie ou aucun des deux :

(𝑎) 𝑥(𝑡) = 𝑒 −𝑎𝑡 𝑢(𝑡), 𝑎 > 0 (𝑏) 𝑥(𝑡) = 𝐴𝑐𝑜𝑠(𝜔0 𝑡 + 𝜃)


(𝑐) 𝑥(𝑡) = 𝑡𝑢(𝑡) (𝑑) 𝑥[𝑛] = (−0.5)𝑛 𝑢[𝑛]
(𝑒) 𝑥[𝑛] = 𝑢[𝑛] (𝑓) 𝑥(𝑡) = 2𝑒 𝑗3𝑛
Réponse :
+∞ +∞ −2𝑎𝑡 1
(a) 𝐸 = ∫−∞ |𝑥(𝑡)|2 𝑑𝑡 = ∫0 𝑒 𝑑𝑡 = < +∞ alors 𝑥(𝑡) est
2𝑎
un signal à énergie finie.

(b) Ici le signal 𝑥(𝑡) est périodique avec 𝑇0 = 2𝜋⁄𝜔0. C’est un


signal permanent qui n’est donc pas à énergie finie.
Calculons alors sa puissance moyenne pour voir s’il est à
puissance moyenne finie.

2𝜋⁄
1 𝑇0 𝜔0 𝜔0
𝑃 = ∫ |𝑥(𝑡)|2 𝑑𝑡 = ∫ 𝐴2 𝑐𝑜𝑠 2 (𝜔0 𝑡 + 𝜃)𝑑𝑡
𝑇0 0 2𝜋 0
2𝜋⁄
𝜔0
2
𝜔0 1 𝐴2
=𝐴 ∫ (1 + cos(2𝜔0 𝑡 + 𝜃))𝑑𝑡 = < +∞
2𝜋 0 2 2

De ce résultat on tire que 𝑥(𝑡) est à puissance moyenne


finie. Notez qu’en général les signaux périodiques sont à
puissance moyenne finie.

(c)
3
(𝑇⁄2)
𝑇⁄ 𝑇⁄
2 2
𝐸 = lim ∫ |𝑥(𝑡)|2 𝑑𝑡 = lim ∫ 𝑡 2 𝑑𝑡 = lim = +∞
𝑇→+∞ −𝑇 𝑇→+∞ 0 𝑇→∞ 3
2
3
1 (𝑇⁄2)
𝑇⁄ 𝑇⁄
1 2 1 2
𝑃 = lim ∫ |𝑥(𝑡)|2 𝑑𝑡 = lim ∫ 2
𝑡 𝑑𝑡 = lim = +∞
𝑇→+∞ 𝑇 −𝑇 𝑇→+∞ 𝑇 0 𝑇→∞ 𝑇 3
2

Ainsi, 𝑥(𝑡) n’est ni à énergie ou à puissance moyenne finie.


(d) Par définition de l’énergie pour les signaux numérique, on
a
+∞ +∞
1 4
𝐸= ∑ |𝑥[𝑛]|2 = ∑ 0.25𝑛 = = < +∞
1 − 0.25 3
𝑛=−∞ 𝑛=0

Ainsi, 𝑥[𝑛] est un signal à énergie finie.

(e) Par définition, cette séquence est permanente. Elle n’est


donc pas à énergie finie. Calculons donc sa puissance
moyenne.
+∞
1
𝑃 = lim ∑ |𝑥[𝑛]|2
𝑁→+∞ 2𝑁 + 1
𝑛=−∞
+∞
1 1 1
= lim ∑ 12 = lim (𝑁 + 1) ~ < +∞
𝑁→+∞ 2𝑁 + 1 𝑁→+∞ 2𝑁 + 1 2
𝑛=−∞
Ainsi, 𝑥[𝑛] est un signal à puissance moyenne finie.

(f) Comme |𝑥[𝑛]| = 2|𝑒 𝑗3𝑛 | = 2,


+∞
1
𝑃 = lim ∑ |𝑥[𝑛]|2
𝑁→+∞ 2𝑁 + 1
𝑛=−∞
+∞
1 1
= lim ∑ 22 = lim 4(2𝑁 + 1) = 4 < +∞
𝑁→+∞ 2𝑁 + 1 𝑁→+∞ 2𝑁 + 1
𝑛=−∞
Ainsi, 𝑥[𝑛] est un signal à puissance moyenne finie.

Signaux élémentaires

Exercice 14 Calculer les produits simples suivants :


𝜋
𝛿(𝑡). (𝑡 − 1) 𝛿 (𝑡 − ) . cos(2𝑡)
2
𝜋
𝛿(𝑡). 𝑒 2𝑡 . sin(𝑡) 3 cos(𝑡) . 𝛿(𝑡 − 𝜋). 𝑠𝑖𝑛 (𝑡 − )
4
Réponse :

Pour chacune des expressions on peut utiliser les équations :

𝛿(−𝑡) = 𝛿(𝑡)
𝑥(𝑡)𝛿(𝑡 − 𝑡0 ) = 𝑥(0)𝛿(𝑡) 𝑠𝑖 𝑥(𝑡)𝑒𝑠𝑡 𝑐𝑜𝑛𝑡𝑖𝑛𝑢 𝑒𝑛 𝑡 = 0
𝑥(𝑡)𝛿(𝑡 − 𝑡0 ) = 𝑥(𝑡0 )𝛿(𝑡 − 𝑡0 ) 𝑠𝑖 𝑥(𝑡)𝑒𝑠𝑡 𝑐𝑜𝑛𝑡𝑖𝑛𝑢 𝑒𝑛 𝑡 = 𝑡0

 𝛿(𝑡)(𝑡 − 1) = (𝑡 − 1)𝛿(𝑡) = (−1)𝛿(𝑡) = −𝛿(𝑡)


𝜋 𝜋 𝜋
 𝛿 (𝑡 − 2 ) . cos(2𝑡) = cos(2𝑡) 𝛿 (𝑡 − 2 ) = cos(𝜋) 𝛿 (𝑡 − 2 ) =
𝜋
−𝛿 (𝑡 − )
2
 𝛿(𝑡). 𝑒 2𝑡 . sin(𝑡) = 𝑒 2𝑡 . sin(𝑡) 𝛿(𝑡) = 𝑒 0 . sin(0) 𝛿(𝑡) = 0
𝜋 3𝜋
 3 cos(𝑡) . 𝛿(𝑡 − 𝜋). 𝑠𝑖𝑛 (𝑡 − ) = 3 cos(𝜋) . 𝑠𝑖𝑛 ( ) . 𝛿(𝑡 −
4 4
√2
𝜋) = −3 𝛿(𝑡)
2

Exercice 15 Montrer que

1 𝜏>0
𝑢(−𝑡) = 𝑢(𝜏) = {
0 𝜏<0

Réponse :

Soit 𝜏 = −𝑡. Ensuite par définition

1 𝜏>0
𝑢(−𝑡) = 𝑢(𝜏) = {
0 𝜏<0

Comme 𝜏 > 0 𝑒𝑡 𝜏 < 0 implique, respectivement,


que 𝑡 < 0 𝑒𝑡 𝑡 > 0, on obtient
0 𝑡>0
𝑢(−𝑡) = {
1 𝑡<0

Ce signal est représenté à la figure suivante

Exercice 16 Un signal continu 𝑥(𝑡) est représenté à la figure


suivante.

(𝑎) 𝑥(𝑡)𝑢(1 − 𝑡); (𝑏) 𝑥(𝑡)[𝑢(𝑡) − 𝑢(𝑡 − 1)]; (𝑐) 𝑥(𝑡)𝛿(𝑡


3
− )
2
Réponse :

(a) Par définition


1 𝑡<1
𝑢(1 − 𝑡) = {
0 𝑡>1
Et 𝑥(𝑡)𝑢(1 − 𝑡) est représenté à la figure suivante (a)

(b) Par définition


1 0<𝑡≤1
𝑢(𝑡) − 𝑢(𝑡 − 1) = {
0 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠
Et 𝑥(𝑡)[𝑢(𝑡) − 𝑢(1 − 𝑡)] est représenté à la figure
suivante (b)

(c) Par définition


3 3 3 3
𝑥(𝑡)𝛿 (𝑡 − ) = 𝑥 ( ) 𝛿 (𝑡 − ) = 2𝛿 (𝑡 − )
2 2 2 2
3
Et 𝑥(𝑡)𝛿(𝑡 − ) est représenté à la figure suivante (c)
2
Exercice 17

Evaluer les intégrales suivantes :


1 +∞

∫(3𝑡 2 + 1)𝛿(𝑡)𝑑𝑡 ∫ (𝑡 2 + cos(𝜋𝑡))𝛿(𝑡 − 1)𝑑𝑡


−1 −∞
2

∫(3𝑡 2 + 1)𝛿(𝑡)𝑑𝑡
1

Réponse :

Pour ces intégrales il faut utiliser la définition suivante

𝑏 𝑥(0) 𝑎<0<𝑏
∫ 𝑥(𝑡)𝛿(𝑡)𝑑𝑡 = { 0 𝑎 < 𝑏 < 0 𝑜𝑢 0 < 𝑎 < 𝑏
𝑎 𝑖𝑛𝑑é𝑓𝑖𝑛𝑖 𝑎 = 0 𝑜𝑢 𝑏 = 0

et

∫ 𝑥(𝑡)𝛿(𝑡 − 𝑡0 )𝑑𝑡 = 𝑥(𝑡0 )
−∞

1
 ∫−1(3𝑡 2 + 1)𝛿(𝑡)𝑑𝑡

Pour cette première intégrale il faut utiliser cette définition avec

𝑎 = −1 𝑒𝑡 𝑏 = 1, on a
1

∫(3𝑡 2 + 1)𝛿(𝑡)𝑑𝑡 = (3𝑡 2 + 1)|𝑡=0 = 1


−1
+∞
 ∫−∞ (𝑡 2 + cos(𝜋𝑡))𝛿(𝑡 − 1)𝑑𝑡
+∞

∫ (𝑡 2 + cos(𝜋𝑡))𝛿(𝑡 − 1)𝑑𝑡 = (𝑡 2 + cos(𝜋𝑡)|𝑡=1 = 1 + 𝑐𝑜𝑠𝜋


−∞
=1−1=0
2
 ∫1 (3𝑡 2 + 1)𝛿(𝑡)𝑑𝑡

Ici on est dans le même cas que la première intégrale avec

𝑎 = 1 𝑒𝑡 𝑏 = 2, on a
2

∫(3𝑡 2 + 1)𝛿(𝑡)𝑑𝑡 = 0
1

B. Exercices supplémentaires

Exercice 18 Calculer les produits simples suivants :


𝜋 𝜋
𝛿(𝑡 − 𝜋). cos(𝑡) . ln(𝑡) 𝛿(𝑡). 𝑐𝑜𝑠 (𝑡 − ) . 𝑠𝑖𝑛 (𝑡 − )
6 4
𝜋 𝜋
𝑐𝑜𝑠(𝑡 − 𝜋). 𝛿 (𝑡 − ) . 𝑠𝑖𝑛 (𝑡 − )
3 2

Exercice 19

Les signaux suivants sont-ils à énergie finie, à puissance moyenne


finie, ou ni l'un, ni l'autre? Calculer dans chaque cas l'énergie totale
et la puissance moyenne totale (a> 0).
𝑡
𝐴 𝑟𝑒𝑐𝑡 ( ) ; 𝐴si n(𝑤𝑡) ; 𝐴 𝑠𝑖𝑛 𝑤𝑡 . 𝑢(𝑡); 𝐴 𝑒𝑥𝑝 ( − 𝑎𝑡). 𝑢(𝑡);
𝑇
𝐴 𝑒𝑥𝑝(−𝑎𝑡); 𝐴 𝑡𝑟𝑖(𝑡/𝑇).
Exercice 20

Soit le signal x(t) défini sur ℝ, par 𝑥(𝑡) = |sin(𝑡)|

1. Représenter x(t) sur l’intervalle [−3𝜋, 3𝜋]


2. Quelle est sa période ?
3. Calculer les paramètres du signal :
a. La valeur moyenne de x(t) notée 𝑥𝑚𝑜𝑦
b. La valeur quadratique moyenne, et en déduire la valeur
efficace 𝑥𝑒𝑓𝑓
𝜋
4. On décale le signal x(t) de 𝛼 = 2
a. Donner l’expression du signal y(t) ainsi obtenu
b. Représenter y(t) dans le même intervalle et même
repère que x(t)
c. Déterminer les paramètres de y(t) en fonction de ceux
de x(t)
5. On désire prélever sur x(t) plusieurs points régulièrement
espacés de 𝑇0
a. Parmi les signaux suivants dites lequel il faut utiliser
pour réaliser cette opération : 𝛿(𝑡), Λ 𝑇0 (𝑡), Γ𝑇0 (𝑡), Ψ𝑇0 (𝑡)
b. Comment appelle-t-on cette opération ?
c. Donner l’expression mathématique du signal à multiplier
avec x(t) pour réaliser cette opération.
d. Déterminer l’expression du signal z(t) résultant de cette
opération.
𝜋
e. Combien de points seront prélevés sur [0, 𝜋] 𝑠𝑖 𝑇0 =
16
𝜋
f. Représenter z(t) si 𝑇0 = 16

Exercice 21

Calculer les produits scalaires suivants :


𝜋
2 𝜋

𝐼1 = ∫ Γ𝜋 (𝑡). cos(𝑡) 𝑑𝑡 𝐼2 = ∫|𝑡| . sin(𝑡) 𝑑𝑡


2
𝜋 −𝜋
−2

Exercice 22

1. Calculer les intégrales suivantes :


𝜋
4

𝐼1 = ∫ 𝐴. cos(2. 𝑛. 𝑡) 𝑑𝑡𝐼2 = ∫ cos(𝑝𝑡) . sin(𝑞𝑡) 𝑑𝑡


𝜋 2𝜋
−4
𝑎𝑣𝑒𝑐 (𝑝, 𝑞) ∈ ℤ2∗
𝑎𝑣𝑒𝑐 𝐴 ∈ ℝ∗ 𝑒𝑡 𝑛 ∈ ℕ∗
2. A l’aide d’une double intégration par partie calculer
𝜋 (−1)𝑛
𝐼𝑛 = ∫0 2𝑐ℎ(𝑡) cos(𝑛𝑡) 𝑑𝑡 et montrer que 𝐼𝑛 = (𝑒 𝜋 −
𝑛2 +1
𝑒 −𝜋 )

Exercice 23

Soit 𝑓1 la fonction définie sur ℝ, 2𝜋-périodique et impaire telle que :


𝜋 𝑡
∀𝑡 ∈ ]0; 2 [ 𝑓1 (𝑡) = 𝑠𝑖𝑛 (2).

1. Déterminer l’expression de 𝑓1pour tout 𝑡 ∈ ℝ


2. Représenter graphiquement 𝑓1 sur l’intervalle [−2𝜋; 2𝜋]

Faire de même pour 𝑓2définie sur ℝ, 2𝜋-périodique et paire telle


que :
𝜋 𝑡
∀𝑡 ∈ ]0; 2 [ 𝑓2 (𝑡) = 𝑠𝑖𝑛 (2).
Exercice 24
−1 ; 𝑡 ∈ ]0; 1]
Soit le signal x(t) défini par intervalles : 𝑥(𝑡) = {
2 ; 𝑡 ∈ ]0; 1]

1. Représenter x(t)
2. Le signal est-il transitoire ou permanent
3. Calculer la valeur moyenne de x(t)
4. On désire périodiser le signal x(t). soit y(t) le signal ainsi
obtenu
a. Donner l’expression de y(t) si la période de répétition est
𝑇0 = 3
b. Calculer la valeur moyenne de y(t)
c. Déterminer sa valeur efficace
5. Faire la même chose pour les signaux suivants : Λ 2 (𝑡), Γ2 (𝑡)

Exercice 25

Soit les signaux suivants sur ℝ par morceaux par :


−1 ; 𝑡 ∈ ]−∞; 0]
0; 𝑡 ∈ ]−∞; 1]
1 ; 𝑡 ∈ ]2; 5]
1; 𝑡 ∈ ]1; 3]
𝑥1 (𝑡) = { et 𝑥2 (𝑡) = 𝑡 + 1 ; 𝑡 ∈ ]5; 7]
−1; 𝑡 ∈ ]3; 6]
𝑡 − 1 ; 𝑡 ∈ ]7; 9]
1; 𝑡 ∈ ]6; +∞[
{ 𝑡 ; 𝑡 ∈ ]9; +∞[

1. Représenter graphiquement les signaux


2. Déterminer l’expression causale des signaux

Exercice 26

1. Déterminer l’expression par morceaux des signaux


suivants :
𝑥1 (𝑡) = 2. 𝑢(𝑡 + 3) − (𝑡 − 1). 𝑢(𝑡 − 1) + 3. 𝑢(𝑡 − 5)
𝑥2 (𝑡) = −𝑢(𝑡 − 4) + 2. 𝑢(𝑡 + 1) − 𝑡. 𝑢(𝑡) + 3. 𝑢(𝑡 − 2) + (𝑡 − 7). 𝑢(𝑡 − 7)

2. Représenter graphiquement ces signaux

Exercice 27

Montrer que si𝑥(𝑡 + 𝑇) = 𝑥(𝑡), alors que pour tous réels 𝛼, 𝛽 𝑒𝑡 𝑎


on a
𝛽 𝛽+𝑇

∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(𝑡)𝑑𝑡
𝛼 𝛼+𝑇
𝑇 𝑎+𝑇

∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(𝑡)𝑑𝑡
𝑎 𝑎+𝑇

Exercice 28

Evaluer les intégrales suivantes :


1 +∞
2
∫(3𝑡 + 1)𝛿(𝑡)𝑑𝑡 ∫ (𝑡 2 + cos(𝜋𝑡))𝛿(𝑡 − 1)𝑑𝑡
−1 −∞
2 +∞ +∞

∫(3𝑡 2 + 1)𝛿(𝑡)𝑑𝑡 ∫ 𝑒 −𝑡 𝛿(2𝑡 − 2)𝑑𝑡 ∫ 𝑒 −𝑡 𝛿 ′ (𝑡)𝑑𝑡


1 −∞ −∞

Exercice 29

Déterminer et représenter les dérivées premières des signaux


suivants :

𝑥(𝑡) = 𝑢(𝑡) − 𝑢(𝑡 − 𝑎), 𝑎 > 0 𝑦(𝑡) = 𝑡[𝑢(𝑡) − 𝑢(𝑡 − 𝑎)], 𝑎 > 0
Exercice 30

a. Montrer que la puissance d’un signal


𝑛 𝑛
𝑗𝜔𝑘 𝑡
𝑥(𝑡) = ∑ 𝐶𝑘 𝑒 𝑒𝑠𝑡 𝑃𝑥 = ∑ |𝐷𝑘 |2
𝑘=𝑚 𝑘=𝑚

avec toutes les fréquences différentes, c'est-à-dire, 𝜔𝑖 ≠ 𝜔𝑘 pour


tout 𝑖 ≠ 𝑘

b. A partir du résultat de la question précédente déterminer la


puissance de chacun des signaux suivants

π
 5 + 10cos(100πt + 3 )
π π
 10 cos (100πt + 3 ) + 16sin(150t + 5 )
 (10 + 2sin(3𝑡))cos((10𝑡)
 10 cos(5𝑡) cos(10𝑡)
Chapitre 3
TRANSFORMATION DE LAPLACE

Dans ce chapitre nous présentons un outil puissant outil


d’analyse des phénomènes transitoires. Nous commencerons par
la définition, ensuite nous démontrerons ses propriétés qui sont
très importantes. Nous parlerons aussi de sa transformée inverse
qui nous aidera fortement dans l’étude des systèmes linéaires.

I. DEFINITION DE LA TRANSFORMATION DE
LAPLACE
1. Définition
La forme bilatérale de la Transformation de Laplace est définie
par :
+∞

ℒ{𝑥(𝑡)} = 𝑋(𝑠) = ∫ 𝑥(𝑡)𝑒 −𝑠𝑡 𝑑𝑡


−∞

𝜎+𝑗𝜔
1
ℒ −1 {𝑋(𝑠)} = 𝑥(𝑡) = ∫ 𝑋(𝑠)𝑒 𝑠𝑡 𝑑𝑠
2𝜋𝑗
𝜎−𝑗𝜔

Ou ℒ{𝑥(𝑡)} est la transformée de Laplace de la fonction temporelle


x(t), ℒ −1 {𝑋(𝑠)} est la transformée de Laplace inverse et ou s est
une variable complexe de partie réelle 𝜎 et de partie imaginaire 𝜔
avec 𝑠 = 𝜎 + 𝑗𝜔 .

Dans la plupart des problèmes, les valeurs du temps t sont


supérieures à un temps de référence dit 𝑡 = 𝑡0 = 0, et tant que
les conditions initiales sont connues, la définition de la
Transformation de Laplace donnée plus haut peut être simplifiée
en une forme unilatérale comme suit :
+∞

ℒ{𝑥(𝑡)} = 𝑋(𝑠) = ∫ 𝑥(𝑡)𝑒 −𝑠𝑡 𝑑𝑡


0
𝜎+𝑗𝜔
1
ℒ −1 {𝑋(𝑠)} = 𝑥(𝑡) = ∫ 𝑋(𝑠)𝑒 𝑠𝑡 𝑑𝑠
2𝜋𝑗
𝜎−𝑗𝜔

2. Région De Convergence
L’ensemble des valeurs de la variable complexe s pour
lesquelles la transformée de Laplace converge est appelée Région
De Convergence (RDC). Pour illustrer la Transformée de Laplace
et sa RDC associée considérons quelques exemples.

Exemple 1 : considérons le signal 𝑥(𝑡) = 𝑒 −𝑎𝑡 𝑢(𝑡) avec 𝑎 ∈ ℝ

A partir de la définition de la transformée de Laplace on calcule


celle de x(t) :
∞ +∞
−𝑎𝑡 −𝑠𝑡
𝑋(𝑠) = ∫ 𝑒 𝑢(𝑡)𝑒 𝑑𝑡 = ∫ 𝑒 −(𝑠+𝑎)𝑡 𝑑𝑡
−∞ 0

1 1
= [− 𝑒 −(𝑠+𝑎) ] = 𝑅𝑒(𝑠) > −𝑎
𝑠+𝑎 0 𝑠+𝑎

Parce que lim 𝑒 −(𝑠+𝑎)𝑡 = 0 seulement si 𝑅𝑒(𝑠 + 𝑎) > 0


𝑡→+∞
soit𝑅𝑒(𝑠) > −𝑎.

Ainsi la RDC de cet exemple est 𝑅𝑒(𝑠) > −𝑎 et est représentée


dans le plan complexe à la fig. 3-1a suivante par la zone hachurée
à droite de la droite𝑅𝑒(𝑠) = −𝑎. Dans les applications de la
Transformée de Laplace, le plan complexe fait généralement
référence au plan en s. Les axes verticaux et horizontaux sont
souvent nommés 𝑗𝜔 et 𝜎 respectivement.

Fig.3-1

Exemple 2 : Considérons le signal 𝑥(𝑡) = −𝑒 −𝑎𝑡 𝑢(−𝑡) avec 𝑎 ∈ ℝ


1
Sa transformée de Laplace est 𝑋(𝑠) = 𝑅𝑒(𝑠) < −𝑎
𝑠+𝑎

La RDC de cet exemple est 𝑅𝑒(𝑠) < −𝑎 et est représentée dans


le plan complexe à la fig. 3-1b suivante par la zone hachurée à
gauche de𝑅𝑒(𝑠) = −𝑎. En comparant ces deux exemples, on voit
que l’expression algébrique de X(s) pour ces deux différents
signaux est la même sauf pour les RDCs. Aussi, pour que la
Transformée de Laplace soit unique pour chaque signal x(t), la
RDC doit être spécifiée comme une partie de la définition de la
Transformée de Laplace.
Fig.3-2

3. Pôles et Zéros de X(s)


De façon générale, 𝑋(𝑠) sera une fonction rationnelle en 𝑠, telle
que :

𝑎0 𝑠 𝑚 + 𝑎1 𝑠 𝑚−1 + ⋯ + 𝑎𝑚 𝑎0 (𝑠 − 𝑧1 ) … (𝑠 − 𝑧𝑚 )
𝑋(𝑠) = =
𝑏0 𝑠 𝑛 + 𝑏1 𝑠 𝑛−1 + ⋯ + 𝑏𝑛 𝑏0 (𝑠 − 𝑝1 ) … (𝑠 − 𝑝𝑛 )
(𝑠 − 𝑧1 ) … (𝑠 − 𝑧𝑚 )
=𝐾
(𝑠 − 𝑝1 ) … (𝑠 − 𝑝𝑛 )

Les coefficients 𝑎𝑘 et 𝑏𝑘 sont des constantes réelles, et 𝑚 et 𝑛


sont des entiers positifs. La fonction image 𝑋(𝑠) est appelée
fonction rationnelle propre si 𝑛 > 𝑚, et dite fonction rationnelle
impropre si 𝑛 ≤ 𝑚. Les racines du polynôme du numérateur, 𝑧𝑘 ,
sont appelée zéros de X(s) parce que 𝑋(𝑠) = 0 pour ces valeurs
de s. de façon similaire, les racines du polynôme du dénominateur,
𝑝𝑘 , sont appelés pôles de X(s) parce que X(s) est infinie pour ces
valeurs de s.

Les pôles de X(s) sont hors de la RDC car X(s) ne converge


pas aux pôles par définition. Les zéros quant à eux peuvent être à
l’intérieur ou à l’extérieur de la RDC. A par le facteur
𝑎
d’amplification 𝐾 = 𝑏0 , X(s) peut être complètement décrit par ses
0
pôles et ses zéros. Une manière très compacte de représenter
X(s) dans le plan complexe consiste à indiquer la position des
pôles et des zéros en plus de la ROC.

Traditionnellement, on utilise un ‘x’ pour la position des pôles


et un ‘o’ pour les zéros. Cela est illustré à la figure 3-3 pour ;
2𝑠 + 4 𝑠+2
𝑋(𝑠) = = 2 𝑅𝑒(𝑠) > −1
𝑠 2 + 4𝑠 + 3 (𝑠 + 1)(𝑠 + 3)

Notons que X(s) possède un zéro à 𝑠 = −2 et deux pôles à 𝑠 =


−1 et 𝑠 = −3 avec un facteur d’amplification de 𝐾 = 2.
Fig.3-3
4. Propriétés de la RDC
Comme vu aux exemples précédents, la RDC de X(s) dépend
de la nature de x(t).

Les propriétés de la RDC sont résumées ici. Nous considérons


X(s) comme une fonction rationnelle de s.

 Propriété 1 : la RDC ne contient pas de pôles

 Propriété 2 : si x(t) est de durée finie, c'est-à-dire 𝑥(𝑡) = 0


sauf sur un intervalle 𝑡1 ≤ 𝑡 ≤ 𝑡2 avec(−∞ < 𝑡1 𝑒𝑡 𝑡2 < +∞),
alors la RDC est le plan complexe entier sauf
éventuellement 𝑠 = 0 𝑜𝑢 𝑠 = ∞.

 Propriété 3 : si x(t) est un signal tel que 𝑥(𝑡) = 0 𝑝𝑜𝑢𝑟 𝑡 <


𝑡1 < ∞ alors la RDC est de forme 𝑅𝑒(𝑠) > 𝜎𝑚𝑎𝑥 ou 𝜎𝑚𝑎𝑥 est
égale au maximum de la partie réelle de tous les pôles de
X(s). Donc, la RDC est le demi-plan à droite de l’axe vertical
𝑅𝑒(𝑠) = 𝜎𝑚𝑎𝑥 dans le plan complexe et donc à droite de tous
les pôles de X(s).

 Propriété 4 : si x(t) est un signal tel que 𝑥(𝑡) = 0 𝑝𝑜𝑢𝑟 𝑡 >


𝑡2 > −∞ alors la RDC est de forme 𝑅𝑒(𝑠) > 𝜎𝑚𝑖𝑛 ou 𝜎𝑚𝑎𝑥 est
égale au maximum de la partie réelle de tous les pôles de
X(s). Donc, la RDC est le demi-plan à gauche de l’axe vertical
𝑅𝑒(𝑠) = 𝜎𝑚𝑖𝑛 dans le plan complexe et donc à gauche de tous
les pôles de X(s).

 Propriété 5 : si x(t) est un signal bilatéral tel que x(t) est de


durée infinie alors la RDC est de la forme :
𝜎1 < 𝑅𝑒(𝑠) < 𝜎2
Ou 𝜎1 𝑒𝑡 𝜎2 sont les parties réelles de deux pôles de X(s). Donc la
RDC est une bande verticale dans le plan complexe entre les
droites verticales 𝑅𝑒(𝜎1 ) et 𝑅𝑒(𝑠) = 𝜎2 .

II. PROPRIETES DE LA TRANSFORMATION


DE LAPLACE
Nous présentons ici les propriétés et théorèmes usuels de la
Transformée de Laplace

1. Linéarité
La propriété de linéarité dit que si 𝑓1 (𝑡), 𝑓2 (𝑡), … , 𝑓𝑛 (𝑡) ont
respectivement pour transformée de Laplace

𝐹1 (𝑠), 𝐹2 (𝑠), … , 𝐹𝑛 (𝑠) et si 𝑐1 , 𝑐2 , … , 𝑐𝑛 sont des constantes


arbitraires, alors on a :

𝒄𝟏 . 𝒇𝟏 (𝒕) + 𝒄𝟐 . 𝒇𝟐 (𝒕) + ⋯ + 𝒄𝒏 . 𝒇𝒏 (𝒕)


⟺ 𝒄𝟏 . 𝑭𝟏 (𝒔) + 𝒄𝟐 . 𝑭𝟐 (𝒔) + ⋯ + 𝒄𝒏 . 𝑭𝒏 (𝒔)

Démonstration :

ℒ{𝑐1 . 𝑓1 (𝑡) + 𝑐2 . 𝑓2 (𝑡) + ⋯ + 𝑐𝑛 . 𝑓𝑛 (𝑡)}


= ∫ [𝑐1 . 𝐹1 (𝑠) + 𝑐2 . 𝐹2 (𝑠) + ⋯ + 𝑐𝑛 . 𝐹𝑛 (𝑠)]𝑒 −𝑠𝑡 𝑑𝑡


𝑡0
∞ ∞ ∞

= 𝑐1 ∫ 𝑓1 (𝑡)𝑒 −𝑠𝑡 𝑑𝑡 + 𝑐2 ∫ 𝑓2 (𝑡)𝑒 −𝑠𝑡 𝑑𝑡 + ⋯ + 𝑐𝑛 ∫ 𝑓𝑛 (𝑡)𝑒 −𝑠𝑡 𝑑𝑡


𝑡0 𝑡0 𝑡0
= 𝑐1 . 𝐹1 (𝑠) + 𝑐2 . 𝐹2 (𝑠) + ⋯ + 𝑐𝑛 . 𝐹𝑛 (𝑠)
Note 1 : il est préférable de multiplier f(t) par u(t) pour forcer
sa causalité.

2. Décalage ou translation temporelle


La propriété de translation temporelle dit qu’un décalage
temporel à droite dans le domaine temporel correspond à un
amortissement exponentiel par 𝑒 −𝑎𝑠 dans le domaine fréquentiel
complexe :

𝒇(𝒕 − 𝒂)𝒖(𝒕 − 𝒂) ⟺ 𝒆−𝒂𝒔 𝑭(𝒔)


Démonstration :
𝑎 ∞

ℒ{𝑓(𝑡 − 𝑎)𝑢(𝑡 − 𝑎)} = ∫ 0𝑒 −𝑠𝑡 𝑑𝑡 + ∫ 𝑓(𝑡 − 𝑎)𝑒 −𝑠𝑡 𝑑𝑡


0 𝑎

Posons 𝜃 = 𝑡 − 𝑎 ; alors 𝑡 = 𝜃 + 𝑎 𝑒𝑡 𝑑𝑡 = 𝑑𝜃. Avec cette


substitution on a :
∞ ∞

∫ 𝑓(𝜃)𝑒 −𝑠(𝜃+𝑎) 𝑑𝜃 = 𝑒 −𝑎𝑠 ∫ 𝑓(𝜃)𝑒 −𝑠𝜃 𝑑𝜃 = 𝑒 −𝑎𝑠 𝐹(𝑠)


0 0

3. Translation fréquentielle
La propriété de décalage fréquentielle dit qu’un amortissement
exponentiel dans le domaine temporel correspond à une
translation dans le domaine fréquentiel.

𝒆−𝒂𝒕 𝒇(𝒕) ⟺ 𝑭(𝒔 + 𝒂)

Démonstration :
∞ ∞
−𝑎𝑡 −𝑎𝑡 −𝑠𝑡
ℒ{𝑒 𝑓(𝑡)} = ∫ 𝑒 𝑓(𝑡)𝑒 𝑑𝑡 = ∫ 𝑓(𝑡)𝑒 −(𝑠+𝑎)𝑡 𝑑𝑡 = 𝐹(𝑠 + 𝑎)
0 0
4. Facteur d’échelle ou dilatation-comprimation
Soit a une constante positive ; la propriété de dilatation dit
que :
𝟏 𝒔
𝒇(𝒂𝒕) ⟺ 𝑭( )
𝒂 𝒂
Démonstration :

ℒ{𝑓(𝑎𝑡)} = ∫ 𝑓(𝑎𝑡)𝑒 −𝑠𝑡 𝑑𝑡


0

𝜃
En posant 𝑡 = 𝑎 on obtient :
∞ ∞
𝜃 𝜃 1 𝑠 1 𝑠
−𝑠( ) −( )𝜃
ℒ{𝑓(𝑎𝑡)} = ∫ 𝑓(𝜃)𝑒 𝑎 𝑑 ( ) = ∫ 𝑓(𝜃)𝑒 𝑎 𝑑𝜃 = 𝐹 ( )
𝑎 𝑎 𝑎 𝑎
0 0

Note :

Généralement, la valeur initiale de f(t) est prise à 𝑡 = 0− pour


inclure toute forme de discontinuité qui pourrait être présente à 𝑡 =
0. Si on sait qu’il n’ya pas de discontinuité à 𝑡 = 0− , on considère
𝑓(0− ) = 𝑓(0).

5. Dérivation temporelle
Cette propriété indique qu’une dérivation temporelle
correspond à une multiplication par s moins la valeur à l’origine de
f(t).
𝒅
𝒇′ (𝒕) = 𝒇(𝒕) ⟺ 𝒔𝑭(𝒔) − 𝒇(𝟎− )
𝒅𝒕
Démonstration :

ℒ{𝑓′(𝑡)} = ∫ 𝑓′(𝑡)𝑒 −𝑠𝑡 𝑑𝑡


0

En utilisant la technique d’intégration par partie ∫ 𝑣𝑑𝑢 = 𝑢𝑣 − ∫ 𝑢𝑑𝑣

Posons 𝑢′ (𝑡) = 𝑓 ′ (𝑡) 𝑒𝑡 𝑣 = 𝑒 −𝑠𝑡 alors 𝑢(𝑡) = 𝑓(𝑡) 𝑒𝑡 𝑣 ′ (𝑡) = −𝑠𝑒 −𝑠𝑡 et
on a

+∞
ℒ{𝑓′(𝑡)} = ∫ 𝑓′(𝑡)𝑒 −𝑠𝑡 𝑑𝑡 = [𝑓(𝑡)𝑒 −𝑠𝑡 ]+∞
0 +𝑠∫ 𝑓(𝑡)𝑒 −𝑠𝑡 𝑑𝑡 = 0 − lim− 𝑓(𝑡) + 𝑠𝐹(𝑠)
0 𝑡→0
0
= 𝑠𝐹(𝑠) − 𝑓(0− )

Cette propriété peut être étendue pour montrer que

𝒅𝟐
𝒇(𝒕) ⟺ 𝒔𝟐 𝑭(𝒔) − 𝒔𝒇(𝟎− ) − 𝒇′ (𝟎− )
𝒅𝒕𝟐
𝒅𝟑
𝒇(𝒕) ⟺ 𝒔𝟑 𝑭(𝒔) − 𝒔𝟐 𝒇(𝟎− ) − 𝒔𝒇′ (𝟎− ) − 𝒇′′ (𝟎− )
𝒅𝒕𝟑
Et de façon générale
𝒅𝒏
𝒇(𝒕) ⟺ 𝒔𝒏 𝑭(𝒔) − 𝒔𝒏−𝟏 𝒇(𝟎− ) − 𝒔𝒏−𝟐 𝒇′ (𝟎− ) − ⋯ 𝒔𝒇(𝒏−𝟐) (𝟎− )
𝒅𝒕𝒏
− 𝒇(𝒏−𝟏) (𝟎− )

Démonstration :

Pour cette démonstration, nous utiliserons une démonstration par


récurrence. On calcule pour quelques termes (par exemple pour
𝑛 = 2 𝑒𝑡 3 ) et si nous dégageons une formule fonction de n, nous
vérifions que cela marche aussi pour 𝑛 + 1.
 𝑛=2

ℒ{𝑓′′(𝑡)} = ∫ 𝑓′′(𝑡)𝑒 −𝑠𝑡 𝑑𝑡


0

En utilisant la technique d’intégration par partie ∫ 𝑣𝑑𝑢 = 𝑢𝑣 − ∫ 𝑢𝑑𝑣

Posons 𝑢′ (𝑡) = 𝑓 ′′ (𝑡) 𝑒𝑡 𝑣 = 𝑒 −𝑠𝑡 alors 𝑢(𝑡) = 𝑓′(𝑡) 𝑒𝑡 𝑣 ′ (𝑡) =


−𝑠𝑒 −𝑠𝑡 et on a

+∞
ℒ{𝑓′′(𝑡)} = ∫ 𝑓′′(𝑡)𝑒 −𝑠𝑡 𝑑𝑡 = [𝑓′(𝑡)𝑒 −𝑠𝑡 ]+∞
0 +𝑠∫ 𝑓′(𝑡)𝑒 −𝑠𝑡 𝑑𝑡
0
0
= 0 − lim− 𝑓′(𝑡) + 𝑠ℒ{𝑓′(𝑡)}
𝑡→0
or on a vu que ℒ{𝑓′(𝑡)} = 𝑠𝐹(𝑠) − 𝑓(0− )
donc on obtient pour la dérivée seconde

ℒ{𝑓′′(𝑡)} = ∫ 𝑓′′(𝑡)𝑒 −𝑠𝑡 𝑑𝑡 = 𝑠(𝑠ℒ{𝑓′(𝑡)} − 𝑓(0− )) − 𝑓′(0− )


0
−)
ℒ{𝑓′′(𝑡)} = 𝑠 2 𝐹(𝑠) − 𝑠𝑓(0− ) − 𝑓 ′(0

 𝑛=3

A l’aide du même raisonnement on montre que


ℒ{𝑓′′′(𝑡)} = ∫ 𝑓′′′(𝑡)𝑒 −𝑠𝑡 𝑑𝑡 = 0 − lim− 𝑓′′(𝑡) + 𝑠ℒ{𝑓′′(𝑡)}


𝑡→0
0
avec ℒ{𝑓′′(𝑡)} = 𝑠 2 𝐹(𝑠) − 𝑠𝑓(0− ) − 𝑓 ′ (0− )
soit donc ℒ{𝑓′′′(𝑡)} = 𝑠 3 𝐹(𝑠) − 𝑠 2 𝑓(0− ) − 𝑠𝑓 ′ (0− ) − 𝑓′′(0− )

On pense que si l’on continue ce raisonnement jusqu’à l’ordre 𝑛 on


aura
ℒ{𝑓 (𝑛) (𝑡)} = 𝑠 𝑛 𝐹(𝑠) − 𝑠 𝑛−1 𝑓(0− ) − 𝑠 𝑛−2 𝑓 ′ (0− ) − ⋯ 𝑠𝑓 (𝑛−2) (0− )
− 𝑓 (𝑛−1) (0− )

 On va le vérifier pour l’ordre 𝑛 + 1


ℒ{𝑓 (𝑛+1) (𝑡)} = ∫ 𝑓 (𝑛+1) (𝑡)𝑒 −𝑠𝑡 𝑑𝑡 = 0 − lim− 𝑓 (𝑛) (𝑡) + 𝑠ℒ{𝑓 (𝑛) (𝑡)}
𝑡→0
0
et comme on pense que
ℒ{𝑓 (𝑛) (𝑡)} = 𝑠 𝑛 𝐹(𝑠) − 𝑠 𝑛−1 𝑓(0− ) − 𝑠 𝑛−2 𝑓 ′ (0− ) − ⋯ 𝑠𝑓 (𝑛−2) (0− ) − 𝑓 (𝑛−1) (0− )
alors on aura pour l′ ordre 𝑛 + 1
ℒ{𝑓 (𝑛+1)
(𝑡)} = 𝑠 𝑛+1
𝐹(𝑠) − 𝑠 𝑛 𝑓(0− ) − 𝑠 𝑛−1 𝑓 ′ (0− ) − ⋯ 𝑠𝑓 (𝑛−1) (0− ) − 𝑓 (𝑛) (0− )

Comme notre expression marche aussi pour 𝑛 + 1, alors on peut


conclure sans se tromper que la transformée de Laplace de la
dérivée nième d’un signal 𝑓(𝑡) est donnée par :

ℒ{f (n) (t)} = s n F(s) − s n−1 f(0− ) − s n−2 f ′ (0− ) − ⋯ sf (n−2) (0− ) − f (n−1) (0− )

6. Dérivation fréquentielle
Cette propriété dit que la dérivation dans le domaine
fréquentiel complexe correspond à la multiplication par la variable
temporelle 𝑡 dans le domaine temporel.
𝒅
𝒕𝒇(𝒕) = − 𝑭(𝒔) = −𝑭′(𝒔)
𝒅𝒔
Démonstration :

ℒ{𝑓(𝑡)} = 𝐹(𝑠) = ∫ 𝑓(𝑡)𝑒 −𝑠𝑡 𝑑𝑡


0
En dérivant 𝐹(𝑠) par rapport à 𝑠 et en appliquant la règle
de Leibniz pour la dérivation sous une intégrale, on
obtient :
∞ ∞
𝑑 𝑑 𝜕
𝐹(𝑠) = ∫ 𝑓(𝑡). 𝑒 −𝑠𝑡 𝑑𝑡 = ∫ 𝑒 −𝑠𝑡 𝑓(𝑡)𝑑𝑡
𝑑𝑠 𝑑𝑠 𝜕𝑠
0 0
∞ ∞

= ∫ −𝑡𝑒 −𝑠𝑡 𝑓(𝑡)𝑑𝑡 = − ∫ [𝑡𝑓(𝑡)]𝑒 −𝑠𝑡 𝑑𝑡


0 0
𝑑
soit 𝐹(𝑠) = −ℒ{𝑡𝑓(𝑡)}
𝑑𝑠
Et de façon générale, on a :
𝒅
𝒕𝒏 𝒇(𝒕) ⟺ (−𝟏)𝒏 𝑭(𝒔)
𝒅𝒔

Note : nous donnons ici à titre indicatif la règle de Leibniz utilisée


dans notre démonstration :

Soit une fonction paramétrique de paramètre 𝛼, définie


𝑏
par l’équation 𝐹(𝛼) = ∫𝑎 𝑓(𝑡, 𝛼)𝑑𝑡 ou 𝑓 est une fonction connue
de 𝑡 et du paramètre 𝛼, 𝑎 𝑒𝑡 𝑏 sont constantes indépendantes
𝜕𝑓
de 𝑡 𝑒𝑡 𝛼, si la dérivée partielle 𝜕𝛼 existe et est continue, alors
𝑑𝐹 𝑏 𝜕𝑓(𝑡,𝛼)
𝑑𝛼
= ∫𝑎 𝜕𝛼
𝑑𝑡

7. Intégration temporelle
Cette propriété établit que l’intégration dans le domaine
temporel correspond dans le domaine fréquentiel à une division de
la transformée 𝐹(𝑠) par la variable complexe 𝑠.
𝒕
𝑭(𝒔) 𝒇(𝟎− )
∫ 𝒇(𝜽)𝒅𝜽 ⟺ +
𝒔 𝒔
−∞
Démonstration :

Commençons par exprimer l’intégrale en deux :


𝑡 0 𝑡

∫ 𝑓(𝜃)𝑑𝜃 = ∫ 𝑓(𝜃)𝑑𝜃 + ∫ 𝑓(𝜃)𝑑𝜃


−∞ −∞ 0

La première intégrale représente une constante (la valeur initiale


de f(t) notée 𝑓(0− )). On va déterminer la transformée de Laplace
de cette constante et celle de la deuxième intégrale.
∞ ∞ ∞
− − −𝑠𝑡 −) −𝑠𝑡 −)
𝑒 −𝑠𝑡
ℒ{𝑓(0 )} = ∫ 𝑓(0 )𝑒 𝑑𝑡 = 𝑓(0 ∫𝑒 𝑑𝑡 = 𝑓(0 [ ]
−𝑠 0
0 0
𝑓(0− ) 𝑓(0− )
= 𝑓(0− )x0 − (− )=
𝑠 𝑠
𝑡 𝐹(𝑠)
Maintenant, montrons que ∫0 𝑓(𝜃)𝑑𝜃 ⟺ 𝑠

𝑡 0
Soit 𝑔(𝑡) = ∫0 𝑓(𝜃)𝑑𝜃 alors 𝑔′ (𝑡) = 𝑓(𝜃) et 𝑔(0) = ∫0 𝑓(𝜃)𝑑𝜃 = 0

Maintenant,

ℒ{𝑔′(𝑡)} = 𝐺(𝑠) = 𝑠ℒ{𝑔(𝑡)} − 𝑔(0− ) = 𝐺(𝑠) − 0


𝑠ℒ{𝑔(𝑡)} = 𝐺(𝑠)
𝐺(𝑠)
ℒ{𝑔(𝑡)} =
𝑠
Ainsi on a :
𝑡
𝐹(𝑠)
ℒ {∫ 𝑓(𝜃)𝑑𝜃 } =
𝑠
0
8. Intégration fréquentielle
Cette propriété établit qu’une intégration dans le domaine
fréquentiel complexe correspond à une division du signal temporel
𝑓(𝑡) par la variable temporelle 𝑡 dans le domaine temporelle.

𝒇(𝒕)
⟺ ∫ 𝑭(𝒔)𝒅𝒔
𝒕
𝒔

Démonstration :

𝐹(𝑠) = ∫ 𝑓(𝑡)𝑒 −𝑠𝑡 𝑑𝑡


0

En intégrant les deux membres de l’équation de s à ∞ on obtient


∞ ∞ ∞

∫ 𝐹(𝑠)𝑑𝑠 = ∫ [∫ 𝑓(𝑡)𝑒 −𝑠𝑡 𝑑𝑡] 𝑑𝑠


𝑠 𝑠 0

Ensuite on interchange l’ordre des intégrales


∞ ∞ ∞

∫ 𝐹(𝑠)𝑑𝑠 = ∫ [∫ 𝑓(𝑡)𝑒 −𝑠𝑡 𝑑𝑠] 𝑑𝑡


𝑠 0 𝑠

Et on calcule l’intégrale intérieure en 𝑠


∞ ∞ ∞
1 −𝑠𝑡 ∞ 𝑓(𝑡) −𝑠𝑡 𝑓(𝑡)
∫ 𝐹(𝑠)𝑑𝑠 = ∫ [[− 𝑒 ] ] 𝑓(𝑡)𝑑𝑡 = ∫ 𝑒 𝑑𝑡 = ℒ { }
𝑡 𝑠 𝑡 𝑡
𝑠 0 0

9. Périodicité
Cette propriété permet de calculer la transformée de Laplace d’un
signal périodique.
Soit le signal périodique 𝑓(𝑡) de période T défini par

𝑓(𝑡) = ∑ 𝑔(𝑡 − 𝑛𝑇)


𝑛=0

Alors on a :
∞ 𝑻
∫ 𝒈(𝒕)𝒆−𝒔𝒕 𝒅𝒕
𝒇(𝒕) = ∑ 𝒈(𝒕 − 𝒏𝑻) ⟺ 𝟎
𝟏 − 𝒆−𝒔𝑻
𝒏=𝟎

Démonstration :
∞ ∞ ∞

ℒ{𝑓(𝑡)} = ℒ {∑ 𝑔(𝑡 − 𝑛𝑇)} = ∫ ∑ 𝑔(𝑡 − 𝑛𝑇) 𝑒 −𝑠𝑡 𝑑𝑡


𝑛=0 0 𝑛=0
∞ 𝑇

= ∑ ∫ 𝑔(𝑡 − 𝑛𝑇)𝑒 −𝑠𝑡 𝑑𝑡


𝑛=0 0

Or d’après la propriété de translation temporelle on connait la


transformée d’un signal décalé
𝑇 𝑇
∫0 𝑔(𝑡 − 𝑛𝑇)𝑒 −𝑠𝑡 𝑑𝑡 = 𝐺0 (𝑠)𝑒 −𝑛𝑇𝑠 avec 𝐺0 (𝑠) = ∫0 𝑔(𝑡)𝑒 −𝑠𝑡 𝑑𝑡

Et en intégrant ce résultat dans la transformée de 𝑓(𝑡) on obtient


∞ ∞ ∞ ∞
−𝑠𝑡
ℒ{𝑓(𝑡)} = ℒ {∑ 𝑔(𝑡 − 𝑛𝑇)} = ∑ ∫ 𝑔(𝑡 − 𝑛𝑇)𝑒 𝑑𝑡 = ∑ 𝐺0 (𝑠)𝑒 −𝑛𝑇𝑠
𝑛=0 𝑛=0 0 𝑛=0

= 𝐺0 (𝑠) ∑ 𝑒 −𝑛𝑇𝑠
𝑛=0

Nous remarquons ici la somme des 𝑛 premiers termes d’une suite


géométrique de raison 𝑞 = 𝑒 −𝑇𝑠

1
∑ 𝑞 𝑛 = 1 + 𝑞 + 𝑞 2 + ⋯ + lim 𝑞 𝑛 =
𝑛→∞ 1−𝑞
𝑛=0

Soit en définitive
∞ 𝑇
𝐺0 (𝑠) ∫0 𝑔(𝑡)𝑒 −𝑠𝑡 𝑑𝑡
ℒ {∑ 𝑔(𝑡 − 𝑛𝑇)} = =
1 − 𝑒 −𝑠𝑇 1 − 𝑒 −𝑠𝑇
𝑛=0

10. Valeur initiale


Ici on montre que la valeur initiale 𝑓(0− )d’un signal temporel 𝑓(𝑡)
se déduit de la valeur finale de sa transformée

𝐥𝐢𝐦 𝒇(𝒕) = 𝐥𝐢𝐦 𝒔𝑭(𝒔) = 𝒇(𝟎− )


𝒕→𝟎 𝒔→∞

Démonstration :

A partir de la propriété de dérivation temporelle,


𝑑
𝑓(𝑡) ⟺ 𝑠𝐹(𝑠) − 𝑓(0− )
𝑑𝑡
Ou bien encore de
𝑑
ℒ {𝑑𝑡 𝑓(𝑡)} = 𝑠𝐹(𝑠) − 𝑓(0− ) =
∞ 𝑑
∫0 𝑑𝑡
𝑓(𝑡)𝑒 −𝑠𝑡 𝑑𝑡

En prenant la limite de l’équation pour 𝑠 en l′infini, on obtient


𝑇
𝑑
lim [𝑠𝐹(𝑠) − 𝑓(0− )] = lim [ lim ∫ 𝑓(𝑡)𝑒 −𝑠𝑡 𝑑𝑡]
𝑠→∞ 𝑠→∞ 𝑇→∞ 𝑑𝑡
𝜀→0 𝜀

En inter changeant les limites on obtient,


𝑇
𝑑
lim [𝑠𝐹(𝑠) − 𝑓(0− )] = lim ∫ 𝑓(𝑡) [ lim 𝑒 −𝑠𝑡 ] 𝑑𝑡
𝑠→∞ 𝑇→∞ 𝑑𝑡 𝑠→∞
𝜀→0 𝜀

Et comme lim 𝑒 −𝑠𝑡 = 0 alors on a


𝑠→∞

lim [𝑠𝐹(𝑠) − 𝑓(0− )] = 0 soit lim 𝑠𝐹(𝑠) = 𝑓(0− )


𝑠→∞ 𝑠→∞

11. Valeur finale


Ce théorème montre que la valeur finale 𝑓(∞) d’un signal temporel
se détermine aussi à partir de la valeur à l’origine de sa
transformée de Laplace.

𝐥𝐢𝐦 𝒇(𝒕) = 𝐥𝐢𝐦 𝒔𝑭(𝒔) = 𝒇(∞)


𝒕→∞ 𝒔→𝟎

Démonstration :

A partir de la propriété de dérivation temporelle,


𝑑
𝑓(𝑡) ⟺ 𝑠𝐹(𝑠) − 𝑓(0− )
𝑑𝑡
Ou bien encore de
𝑑
ℒ {𝑑𝑡 𝑓(𝑡)} = 𝑠𝐹(𝑠) − 𝑓(0− ) =
∞ 𝑑
∫0 𝑑𝑡
𝑓(𝑡)𝑒 −𝑠𝑡 𝑑𝑡

En prenant la limite de l’équation pour 𝑠 en l′infini, on obtient


𝑇
− )]
𝑑
lim[𝑠𝐹(𝑠) − 𝑓(0 = lim [ lim ∫ 𝑓(𝑡)𝑒 −𝑠𝑡 𝑑𝑡]
𝑠→0 𝑠→0 𝑇→∞ 𝑑𝑡
𝜀→0 𝜀

En inter changeant les limites on obtient,


𝑇
𝑑
lim[𝑠𝐹(𝑠) − 𝑓(0− )] = lim ∫ 𝑓(𝑡) [lim 𝑒 −𝑠𝑡 ] 𝑑𝑡
𝑠→0 𝑇→∞ 𝑑𝑡 𝑠→0
𝜀→0 𝜀

Et comme lim 𝑒 −𝑠𝑡 = 1 alors on a


𝑠→0

𝑇
𝑑
lim [𝑠𝐹(𝑠) − 𝑓(0− )] = lim ∫ 𝑓(𝑡)𝑑𝑡
𝑠→∞ 𝑇→∞ 𝑑𝑡
𝜀→0 𝜀
𝑇

= lim ∫ 𝑓(𝑡) = lim [𝑓(𝑇) − 𝑓(𝜀)] = 𝑓(∞) − 𝑓(0− )


𝑇→∞ 𝑇→∞
𝜀→0 𝜀 𝜀→0

soit lim 𝑠𝐹(𝑠) = 𝑓(∞)


𝑠→0

12. Convolution temporelle


Ici on montre qu’une convolution dans le domaine temporelle
correspond à un produit simple dans le domaine fréquentiel
complexe.

𝒇𝟏 (𝒕) ∗ 𝒇𝟐 (𝒕) = ∫ 𝒇𝟏 (𝜽)𝒇𝟐 (𝒕 − 𝜽)𝒅𝜽 ⟺ 𝑭𝟏 (𝒔). 𝑭𝟐 (𝒔)


−∞

Démonstration :
∞ ∞ ∞

ℒ{𝑓1 (𝑡) ∗ 𝑓2 (𝑡)} = ℒ { ∫ 𝑓1 (𝜃)𝑓2 (𝑡 − 𝜃)𝑑𝜃} = ∫ [∫ 𝑓1 (𝜃)𝑓2 (𝑡 − 𝜃)𝑑𝜃 ] 𝑒 −𝑠𝑡 𝑑𝑡


−∞ 0 0
∞ ∞

= ∫ 𝑓1 (𝜃) [∫ 𝑓2 (𝑡 − 𝜃)𝑒 −𝑠𝑡 𝑑𝑡] 𝑑𝜃


0 0
A l’aide de la propriété de translation temporelle on sait que

∫ 𝑓2 (𝑡 − 𝜃)𝑒 −𝑠𝑡 𝑑𝑡 = 𝐹2 (𝑠)𝑒 −𝑠𝜃


0

En introduisant cela dans notre calcul on obtient


∞ ∞
−𝑠𝜃
ℒ{𝑓1 (𝑡) ∗ 𝑓2 (𝑡)} = ∫ 𝑓1 (𝜃)𝐹2 (𝑠)𝑒 𝑑𝜃 = 𝐹2 (𝑠) ∫ 𝑓1 (𝜃)𝑒 −𝑠𝜃 𝑑𝜃
0 0
= 𝐹1 (𝑠)𝐹2 (𝑠)

13. Convolution fréquentielle


Cette propriété montre qu’un produit de convolution dans le
domaine fréquentiel complexe correspond à un produit simple
dans le domaine temporel.
𝟏
𝒇𝟏 (𝒕). 𝒇𝟐 (𝒕) ⟺ 𝑭 (𝒔) ∗ 𝑭𝟐 (𝒔)
𝟐𝝅𝒋 𝟏

Démonstration :

ℒ{𝑓1 (𝑡) ∗ 𝑓2 (𝑡)} = ∫ 𝑓1 (𝑡)𝑓2 (𝑡)𝑒 −𝑠𝑡 𝑑𝑡


0
Rappelons-nous l’intégrale de la transformée inverse
𝜎+𝑗𝜔
1
𝑓1 (𝑡) = ∫ 𝐹1 (𝜇)𝑒 −𝜇𝑡 𝑑𝜇
2𝜋𝑗
𝜎−𝑗𝜔

En substituant dans notre calcul on obtient,


∞ 𝜎+𝑗𝜔
1
ℒ{𝑓1 (𝑡) ∗ 𝑓2 (𝑡)} = ∫ [ ∫ 𝐹1 (𝜇)𝑒 −𝜇𝑡 𝑑𝜇] 𝑓2 (𝑡)𝑒 −𝑠𝑡 𝑑𝑡
2𝜋𝑗
0 𝜎−𝑗𝜔
𝜎+𝑗𝜔 ∞
1
= ∫ 𝐹1 (𝜇) [∫ 𝑓2 (𝑡) 𝑒 −(𝑠−𝜇)𝑡 𝑑𝑡] 𝑑𝜇
2𝜋𝑗
𝜎−𝑗𝜔 ⏟0
=𝐹2 (𝑠−𝜇)

On observe que l’intégrale entre crochets est 𝐹2 (𝑠 − 𝜇) ; alors


𝜎+𝑗𝜔
1 1
ℒ{𝑓1 (𝑡) ∗ 𝑓2 (𝑡)} = ∫ 𝐹1 (𝜇)𝐹2 (𝑠 − 𝜇)𝑑𝜇 = 𝐹 (𝑠) ∗ 𝐹2 (𝑠)
2𝜋𝑗 2𝜋𝑗 1
𝜎−𝑗𝜔
III. TRANSFORMATION DE LAPLACE DES
SIGNAUX USUELS

1. Transformée de Laplace d’un échelon unité


Commençons par la définition de la transformée de Laplace

ℒ{𝑓(𝑡)} = 𝐹(𝑠) = ∫ 𝑓(𝑡)𝑒 −𝑠𝑡 𝑑𝑡


0
Ou
∞ ∞
−𝑠𝑡
𝑒 −𝑠𝑡 1 1
ℒ{𝑢(𝑡)} = ∫ 1𝑒 𝑑𝑡 = [− ] = 0 − (− ) =
𝑠 0 𝑠 𝑠
0
Ainsi on a
𝟏
𝒖(𝒕) ⟺ 𝒔
pour 𝑹𝒆(𝒔) = 𝝈 > 0

2. Transformée de Laplace d’une rampe


En appliquant la définition de la TL on obtient

ℒ{𝑟(𝑡)} = ℒ{𝑡} = ∫ 𝑡𝑒 −𝑠𝑡 𝑑𝑡


0

On utilise une intégration par partie ∫ 𝑢𝑑𝑣 = [𝑢𝑣] − ∫ 𝑣𝑑𝑢

Soit 𝑢(𝑡) = 𝑡 𝑒𝑡 𝑑𝑣(𝑡) = 𝑒 −𝑠𝑡


𝑒 −𝑠𝑡
Alors 𝑑𝑢 = 1 𝑒𝑡 𝑣(𝑡) = − 𝑠

Par substitution dans notre intégrale on obtient


∞ ∞ ∞
𝑡𝑒 −𝑠𝑡 𝑒 −𝑠𝑡 𝑡𝑒 −𝑠𝑡 𝑒 −𝑠𝑡
ℒ{𝑢(𝑡)} = ℒ{𝑡} = [− ] −∫− 𝑑𝑡 = [− − 2 ]
𝑠 0 𝑠 𝑠 𝑠 0
0

La limite supérieure de notre intégrale produit une forme


indéterminée, nous règlerons le problème à l’aide la règle de
l’Hôpital et obtenir
𝑑
𝑡 (𝑡) 𝑡
lim 𝑡𝑒 −𝑠𝑡
= lim 𝑠𝑡 = lim 𝑑𝑡 = lim 𝑠𝑡 = 0
𝑡→∞ 𝑡→∞ 𝑒 𝑡→∞ 𝑑 𝑡→∞ 𝑠𝑒
(𝑒 𝑠𝑡 )
𝑑𝑡
En évaluons le second terme de notre intégration on obtient ℒ{𝑡} =
1
𝑠2

Ce qui donne en définitive :


𝟏
𝒓(𝒕) = 𝒕 ⟺ 𝑝𝑜𝑢𝑟 𝝈 > 0
𝒔𝟐

3. Transformée de Laplace de 𝒕𝒏 𝒖(𝒕)


Remarquons que la rampe unitaire est un exemple de ce genre de
signaux puissance pour 𝑛 = 1.

Pour les autres rangs de cette famille de signaux on utilise une


démonstration par récurrence pour obtenir leur transformée de
Laplace successives.

 𝑛=2

ℒ{(𝑡 2 )𝑢(𝑡)} = ∫ 𝑡 2 𝑒 −𝑠𝑡 𝑑𝑡


0
Par une intégration par partie ∫ 𝑢𝑑𝑣 = [𝑢𝑣] − ∫ 𝑣𝑑𝑢 on
pose
Soit 𝑢(𝑡) = 𝑡 2 𝑒𝑡 𝑑𝑣(𝑡) = 𝑒 −𝑠𝑡
𝑒 −𝑠𝑡
Alors 𝑑𝑢 = 2𝑡 𝑒𝑡 𝑣(𝑡) = − 𝑠

∞ ∞ ∞
𝑡 2 𝑒 −𝑠𝑡 2𝑡𝑒 −𝑠𝑡 𝑡 2 𝑒 −𝑠𝑡
ℒ{(𝑡 2 )𝑢(𝑡)} = [− ] −∫− 𝑑𝑡 = [− ]
𝑠 0
𝑠 ⏟ 𝑠 0
0
=0

2
+ ∫ 𝑡𝑒 −𝑠𝑡 𝑑𝑡
𝑠

0
ℒ{𝑡}

1
Or comme on l’a vu plus haut ℒ{𝑡} = 𝑠2 alors

2 2
ℒ{(𝑡 2 )𝑢(𝑡)} = . ℒ{𝑡} = 3 𝑝𝑜𝑢𝑟 𝜎 > 0
𝑠 𝑠
 𝑛=3

ℒ{(𝑡 3 )𝑢(𝑡)} = ∫ 𝑡 3 𝑒 −𝑠𝑡 𝑑𝑡


0
Par une intégration par partie ∫ 𝑢𝑑𝑣 = [𝑢𝑣] − ∫ 𝑣𝑑𝑢 on
pose

Soit 𝑢(𝑡) = 𝑡 3 𝑒𝑡 𝑑𝑣(𝑡) = 𝑒 −𝑠𝑡


𝑒 −𝑠𝑡
Alors 𝑑𝑢 = 3𝑡 2 𝑒𝑡 𝑣(𝑡) = − 𝑠

∞ ∞ ∞
𝑡 3 𝑒 −𝑠𝑡 3𝑡 2 𝑒 −𝑠𝑡 𝑡 3 𝑒 −𝑠𝑡
ℒ{(𝑡 2 )𝑢(𝑡)} = [− ] −∫− 𝑑𝑡 = [− ]
𝑠 0
𝑠 ⏟ 𝑠 0
0
=0

3
+ ∫ 𝑡 2 𝑒 −𝑠𝑡 𝑑𝑡
𝑠

0
ℒ{𝑡 2 }
2
Or comme on l’a vu plus haut ℒ{𝑡 2 } = 𝑠3 alors

3 6
ℒ{(𝑡 3 )𝑢(𝑡)} = . ℒ{𝑡} = 4 𝑝𝑜𝑢𝑟 𝜎 > 0
𝑠 𝑠
 𝑛≥4
𝑛!
En observant les résultats précédents on a ℒ{𝑡 𝑛 𝑢(𝑡)} = 𝑠𝑛+1

Vérifions cela à l’ordre 𝑛 + 1



Soit à calculer ℒ{𝑡 𝑛+1 𝑢(𝑡)} = ∫0 𝑡 𝑛+1 𝑒 −𝑠𝑡 𝑑𝑡

Par une intégration par partie ∫ 𝑢𝑑𝑣 = [𝑢𝑣] − ∫ 𝑣𝑑𝑢 on


pose

Soit 𝑢(𝑡) = 𝑡 𝑛+1 𝑒𝑡 𝑑𝑣(𝑡) = 𝑒 −𝑠𝑡


𝑒 −𝑠𝑡
Alors 𝑑𝑢 = (𝑛 + 1)𝑡 𝑛 𝑒𝑡 𝑣(𝑡) = − 𝑠

2
𝑡 𝑛+1 𝑒 −𝑠𝑡
ℒ{(𝑡 )𝑢(𝑡)} = [− ]
𝑠 0
∞ ∞
(𝑛 + 1)𝑡 𝑛 𝑒 −𝑠𝑡 𝑡 𝑛+1 𝑒 −𝑠𝑡
−∫− 𝑑𝑡 = [− ]
𝑠 ⏟ 𝑠 0
0
=0

𝑛+1
+ ∫ 𝑡 𝑛 𝑒 −𝑠𝑡 𝑑𝑡
𝑠

0
ℒ{𝑡 𝑛 }

𝑛!
Or comme on l’a vu plus haut ℒ{𝑡 𝑛 } = alors
𝑠𝑛+1

𝑛+1 𝑛 + 1 𝑛! (𝑛 + 1)!
ℒ{(𝑡 𝑛+1 )𝑢(𝑡)} = . ℒ{𝑡} = = 𝑝𝑜𝑢𝑟 𝜎 > 0
𝑠 𝑠 𝑠 𝑛+1 𝑠 𝑛+2
Alors on peut conclure que
𝒏!
∀𝒏 ∈ ℕ ∗ 𝓛{𝒕𝒏 𝒖(𝒕)} = 𝐩𝐨𝐮𝐫 𝝈 > 0
𝒔𝒏+𝟏
4. Transformée de Laplace d’une impulsion de
Dirac 𝜹(𝒕)
Appliquons la définition

𝓛{𝜹(𝒕)} = ∫ 𝜹(𝒕)𝒆−𝒔𝒕 𝒅𝒕 = 𝒆−𝒔(𝟎) = 𝟏


𝟎
Soit

𝜹(𝒕) ⟺ 𝟏 𝐩𝐨𝐮𝐫 𝐭𝐨𝐮𝐭 𝝈

On peut profiter ici pour calculer la transformée de Laplace de la


version décalée 𝜹(𝒕 − 𝒂)
Appliquons la définition

ℒ{𝛿(𝑡 − 𝑎)} = ∫ 𝛿(𝑡 − 𝑎)𝑒 −𝑠𝑡 𝑑𝑡


0

En appliquant la propriété de décalage temporelle, on obtient

𝓛{𝜹(𝒕 − 𝒂)} = 𝓛{𝜹(𝒕)}𝒆−𝒂𝒔 = 𝒆−𝒂𝒔 𝒑𝒐𝒖𝒓 𝝈 > 0

5. Transformée de Laplace de 𝒆−𝒂𝒕 𝒖(𝒕)


Nous appliquons simplement la définition :
∞ ∞

−𝑎𝑡 −𝑎𝑡 −𝑠𝑡
1
ℒ{𝑒 𝑢(𝑡)} = ∫ 𝑒 𝑒 𝑑𝑡 = ∫ 𝑒 −(𝑠+𝑎)𝑡 𝑑𝑡 = [− 𝑒 −(𝑠+𝑎)𝑡 ]
𝑠+𝑎 0
0 0
1
=
𝑠+𝑎
Nous avons donc
𝟏
𝒆−𝒂𝒕 𝒖(𝒕) ⟺ pour 𝝈 > −𝑎
𝒔+𝒂

6. Transformée de Laplace 𝒕𝒏 𝒆−𝒂𝒕 𝒖(𝒕)


Pour cette transformée, nous utiliserons la transformée
𝑛!
ℒ{𝑡 𝑛 𝑢(𝑡)} = 𝑠𝑛+1

Et la propriété de translation fréquentiel 𝑒 −𝑎𝑡 𝑓(𝑡) ⟺ 𝐹(𝑠 + 𝑎)

En remplaçant dans la propriété 𝑓(𝑡) 𝑝𝑎𝑟 𝑡 𝑛 on obtient facilement :


𝒏!
𝒕𝒏 𝒆−𝒂𝒕 𝒖(𝒕) ⟺ pour 𝝈 > −𝑎
(𝒔 + 𝒂)𝒏+𝟏

7. Transformée de Laplace des sinusoïdes

 𝐬𝐢𝐧(𝝎𝒕)𝒖(𝒕)
1
On a vu plus haut que 𝑒 −𝑎𝑡 𝑢(𝑡) ⟺ 𝑠+𝑎 pour 𝜎 > −𝑎 or 𝐬𝐢𝐧(𝝎𝒕) =
𝟏
𝟐𝒋
(𝒆𝒋𝝎𝒕 − 𝒆−𝒋𝝎𝒕 )alors

1 1 1 1
ℒ{sin(𝜔𝑡) 𝑢(𝑡)} = (ℒ{𝑒 𝑗𝜔𝑡 𝑢(𝑡)} − ℒ{𝑒 −𝑗𝜔𝑡 𝑢(𝑡)}) = ( − )
2𝑗 2𝑗 𝑠 − 𝑗𝜔 𝑠 + 𝑗𝜔
1 (𝑠 + 𝑗𝜔) − (𝑠 − 𝑗𝜔) 𝜔
= 2 2
= 2
2𝑗 𝑠 +𝜔 𝑠 + 𝜔2

Ainsi
𝝎
𝐬𝐢𝐧(𝛚𝐭)𝒖(𝒕) ⟺ 𝒑𝒐𝒖𝒓 𝝈 > 0
𝒔𝟐 + 𝝎𝟐
 𝐜𝐨𝐬(𝝎𝒕) 𝒖(𝒕)
1
On a vu plus haut que 𝑒 −𝑎𝑡 𝑢(𝑡) ⟺ pour 𝜎 > −𝑎 or cos(𝜔𝑡) =
𝑠+𝑎
1
2
(𝑒 𝑗𝜔𝑡 + 𝑒 −𝑗𝜔𝑡 )alors

1 1 1 1
ℒ{cos(𝜔𝑡) 𝑢(𝑡)} = (ℒ{𝑒 𝑗𝜔𝑡 𝑢(𝑡)} + ℒ{𝑒 −𝑗𝜔𝑡 𝑢(𝑡)}) = ( + )
2 2 𝑠 − 𝑗𝜔 𝑠 + 𝑗𝜔
1 (𝑠 + 𝑗𝜔) + (𝑠 − 𝑗𝜔) 𝑠
= 2 2
= 2
2 𝑠 +𝜔 𝑠 + 𝜔2
Ainsi
𝒔
𝐜𝐨𝐬(𝛚𝐭)𝒖(𝒕) ⟺ 𝒑𝒐𝒖𝒓 𝝈 > 0
𝒔𝟐 + 𝝎𝟐

8. Transformée de Laplace des sinusoïdes


amorties

 𝒆−𝒂𝒕 𝐬𝐢𝐧(𝛚𝐭)𝒖(𝒕)
𝝎
On a vu ci-dessus que 𝐬𝐢𝐧(𝛚𝐭)𝒖(𝒕) ⟺ 𝒔𝟐+𝝎𝟐 et on sait que
𝑒 −𝑎𝑡 𝑓(𝑡) ⟺ 𝐹(𝑠 + 𝑎) ce qui nous permet aisément d’obtenir
𝝎
𝒆−𝒂𝒕 𝐬𝐢𝐧(𝛚𝐭)𝒖(𝒕) ⟺ pour 𝝈 > 0 et 𝒂 > 0
(𝒔 + 𝒂)𝟐 + 𝝎𝟐

 𝒆−𝒂𝒕 𝐜𝐨𝐬(𝛚𝐭)𝒖(𝒕)
𝒔
On a vu ci-dessus que 𝐜𝐨𝐬(𝛚𝐭)𝒖(𝒕) ⟺ 𝒔𝟐+𝝎𝟐 et on sait que
𝑒 −𝑎𝑡 𝑓(𝑡) ⟺ 𝐹(𝑠 + 𝑎) ce qui nous permet aisément d’obtenir
𝒔+𝒂
𝒆−𝒂𝒕 𝐜𝐨𝐬(𝛚𝐭)𝒖(𝒕) ⟺ pour 𝝈 > 0 et 𝒂 > 0
(𝒔 + 𝒂)𝟐 + 𝝎𝟐
Nous résumons dans le tableau ci-dessous toutes ces transformée
élémentaires.
IV. TRANSFORMATION DE LAPLACE DES
FORMES D’ONDES USUELLES
1. Transformée de Laplace d’un signal
impulsionnel

Nous allons d’abord exprimer le signal en fonction de 𝑢(𝑡).

𝑓𝑝 (𝑡) = 𝐴[𝑢(𝑡) − 𝑢(𝑡 − 𝑎)]


On sait que :

𝑓(𝑡 − 𝑎)𝑢(𝑡 − 𝑎) ⟺ 𝑒 −𝑎𝑠 𝐹(𝑠)


1
𝑢(𝑡) ⇔
𝑠
𝐴
𝐴𝑢(𝑡) ⇔
𝑠
𝐴
𝐴𝑢(𝑡 − 𝑎) ⇔ 𝑒 −𝑎𝑠
𝑠
En appliquant la propriété de linéarité on obtient la transformée du
signal impulsionnel donné
𝑨 𝑨 𝑨
𝑨[𝒖(𝒕) − 𝒖(𝒕 − 𝒂)] ⇔ − 𝒆−𝒂𝒔 = (𝟏 − 𝒆−𝒂𝒔 )
𝒔 𝒔 𝒔
2. Transformée de Laplace d’un segment linéaire

Le signal ainsi représenté est la version décalée d’une rampe unité


causale.

𝑓𝐿 (𝑡) = (𝑡 − 1)𝑢(𝑡 − 1)
On sait que
𝑓(𝑡 − 𝑎)𝑢(𝑡 − 𝑎) ⟺ 𝑒 −𝑎𝑠 𝐹(𝑠)
Et comme
1
𝑡𝑢(𝑡) ⇔
𝑠2
Alors
𝟏 −𝒔
(𝒕 − 𝟏)𝒖(𝒕 − 𝟏) ⇔ 𝒆
𝒔𝟐

3. Transformée de Laplace d’une forme d’onde


triangulaire
Déterminons l’expression causale de cette fonction

𝑓𝑇 (𝑡) = 𝑡[𝑢(𝑡) − 𝑢(𝑡 − 1)] + (−𝑡 + 2)[𝑢(𝑡 − 1) − 𝑢(𝑡 − 2)]


= 𝑡𝑢(𝑡) − 𝑡𝑢(𝑡 − 1) − 𝑡𝑢(𝑡 − 1) + 𝑡𝑢(𝑡 − 2) + 2𝑢(𝑡 − 1) − 2𝑢(𝑡 − 2)

En réduisant les termes, on obtient

𝑓𝑇 (𝑡) = 𝑡𝑢(𝑡) − 2(𝑡 − 1)𝑢(𝑡 − 1) + (𝑡 − 2)𝑢(𝑡 − 2)

On sait que
𝑓(𝑡 − 𝑎)𝑢(𝑡 − 𝑎) ⟺ 𝑒 −𝑎𝑠 𝐹(𝑠)

Et
1
𝑡𝑢(𝑡) ⇔
𝑠2
Alors,
1 1 1
fT (t) = tu(t) − 2(t − 1)u(t − 1) + (t − 2)u(t − 2) ⇔ 2
− 2e−s 2 + e−2s 2
s s s
1
fT (t) ⇔ (1 − 2e−s + e−2s )
s2

Ainsi la TL de cette forme d’onde triangulaire est :


𝟏
𝒇𝑻 (𝒕) ⇔ (𝟏 − 𝒆−𝒔 )𝟐
𝒔𝟐
4. Transformée de Laplace d’une forme d’onde
rectangulaire périodique

Soit la forme d’onde rectangulaire périodique, notée 𝑓𝑅 (𝑡),de


période 𝑇 = 2𝑎 représentée à la figure suivante

On peut appliquer la propriété de périodicité temporelle


𝑻
∫ 𝒈(𝒕)𝒆−𝒔𝒕 𝒅𝒕
ℒ{𝑓(𝑡)} = 𝟎
𝟏 − 𝒆−𝒔𝑻
Pour cette forme d’onde on a
2a a 2a
1 1
ℒ{fR (t)} = ∫ fR (t)e−st dt = [∫ Ae−st dt + ∫ (−A)e−st dt]
1 − e−2as 1 − e−2as
0 0 a
−st a −st 2a
A e e
= ([− ] +[ ] )
1 − e−2as s 0 s a
A
ℒ{fR (t)} = (−e−as + 1 + e−2as − e−as )
s(1 − e−2as )
A −2as −as )
A(1 − e−as )2
= (1 + e − 2e =
s(1 − e−2as ) s(1 + e−as )(1 − e−as )
as −as −as −as
A(1 − e−as ) A e2e 2 − e 2 e 2
= = ( as −as −as )
−as
s(1 + e ) s e 2 e 2 + e−as
2 e 2
−as as −as as
Ae 2 e2 − e 2 A sinh ( 2 )
= ( as −as ) =
s e−as
2 e +e 2
2 s cosh (as)
2
Ce qui donne finalement
𝑨 𝒂𝒔
𝓛{𝒇𝑹 (𝒕)} = 𝒕𝒂𝒏𝒉 ( )
𝒔 𝟐

5. Transformée de Laplace d’un signal sinusoïdal


redressé demi alternance
Ce signal que nous noterons𝑓𝐻𝑊 (𝑡), représenté à la figure
suivante est périodique de période 𝑇 = 2𝑎.

On peut aussi utiliser la propriété de périodicité temporelle


𝑇
∫ 𝑔(𝑡)𝑒 −𝑠𝑡 𝑑𝑡
ℒ{𝑓(𝑡)} = 0
1 − 𝑒 −𝑠𝑇
Pour cette forme d’onde on a
2𝜋
1
ℒ{𝑓𝐻𝑊 (𝑡)} = ∫ sin(𝑡) 𝑒 −𝑠𝑡 𝑑𝑡
1 − 𝑒 −2𝜋𝑠
0
−𝑠𝑡 (−𝑠. 2𝜋
1 𝑒 sin(𝑡) − cos(𝑡)) 1 (1 + 𝑒 −𝜋𝑠 )
= −2𝜋𝑠
[ ] =
1−𝑒 𝑠2 + 1 0
𝑠 2 + 1 (1 − 𝑒 −2𝜋𝑠 )

1 (1 + 𝑒 −𝜋𝑠 )
ℒ{𝑓𝐻𝑊 (𝑡)} =
𝑠 2 + 1 (1 + 𝑒 −𝜋𝑠 )(1 − 𝑒 −𝜋𝑠 )

Ainsi on obtient après simplification


𝟏 𝟏
𝓛{𝒇𝑯𝑾 (𝒕)} =
𝒔𝟐 + 𝟏 (𝟏 − 𝒆−𝝅𝒔 )

V. TRANSFORMATION DE LAPLACE
INVERSE ET DECOMPOSITION EN
ELEMENTS SIMPLES
Cette section présente différentes méthodes de détermination de
la TL inverse. La Décomposition en Eléments Simples (D.E.S) y
est expliquée et illustrée avec des exemples.

1. TL inverse
La TL inverse a été déjà définie par :

𝝈+𝒋𝝎
𝟏
𝓛−𝟏 {𝑿(𝒔)} = 𝒙(𝒕) = ∫ 𝑿(𝒔)𝒆𝒔𝒕 𝒅𝒔
𝟐𝝅𝒋
𝝈−𝒋𝝎
Cette intégrale est difficile à évaluer car elle requiert une
intégration de contour utilisant la théorie des variables
complexes. Heureusement, pour la plupart des problèmes
d’ingénierie nous pouvons utiliser la table des TL, les
propriétés et la TL des signaux usuels pour déterminer la TL
inverse.

2. Décomposition en Eléments Simples (D.E.S)


Très souvent les expressions des TL ne sont pas facilement
reconnaissables, mais dans la plupart des cas elles se présentent
sous une forme rationnelle de s, comme ceci :

𝑁(𝑠)
𝐹(𝑠) =
𝐷(𝑠)

Ou N(s) et D(s) sont des polynômes en s qu’on peut écrire comme


suit :

𝑵(𝒔) 𝒃𝒎 𝒔𝒎 + 𝒃𝒎−𝟏 𝒔𝒎−𝟏 + 𝒃𝒎−𝟐 𝒔𝒎−𝟐 + ⋯ + 𝒃𝟏 𝒔 + 𝒃𝟎


𝑭(𝒔) = =
𝑫(𝒔) 𝒂𝒏 𝒔𝒏 + 𝒂𝒏−𝟏 𝒔𝒏−𝟏 + 𝒂𝒏−𝟐 𝒔𝒏−𝟐 + ⋯ + 𝒂𝟏 𝒔 + 𝒂𝟎

Les coefficients 𝒂𝒌 et𝒃𝒌sont des nombres réels pour 𝑘 =


1,2,3, … , 𝑛, et

 Si 𝑑𝑒𝑔(𝑁(𝑠)) < deg(𝐷(𝑠)) alors 𝐹(𝑠) est dit fonction


rationnelle de forme propre
 Si 𝑑𝑒𝑔(𝑁(𝑠)) ≥ deg(𝐷(𝑠)) on parle de forme rationnelle
impropre

Considérons 𝑋(𝑠) dans la forme rationnelle propre. Et comme il


est de coutume d’utiliser le coefficient de 𝑠 𝑚 unitaire, on réécrit
𝑋(𝑠) comme suit:
𝑏𝑚−1 𝑚−1 𝑏𝑚−2 𝑚−2 𝑏 𝑏
𝑚
𝑏𝑚 (𝑠 + 𝑏𝑚 𝑠 + 𝑠 + ⋯+ 1 𝑠 + 0)
𝑏𝑚 𝑏𝑚 𝑏𝑚
𝐹(𝑠) =
𝑎𝑛 (𝑠 𝑛 + 𝑎𝑛−1 𝑠 𝑛−1 + 𝑎𝑛−2 𝑠 𝑛−2 + ⋯ + 𝑎1 𝑠 + 𝑎0 )
𝑎𝑛 𝑎𝑛 𝑎𝑛 𝑎𝑛

Que l’on peut écrire encore

𝑵(𝒔) 𝒔𝒎 + 𝒃𝒎−𝟏 𝒔𝒎−𝟏 + 𝒃𝒎−𝟐 𝒔𝒎−𝟐 + ⋯ + 𝒃𝟏 𝒔 + 𝒃𝟎


𝑭(𝒔) = = 𝑲. 𝒏
𝑫(𝒔) 𝒔 + 𝒂𝒏−𝟏 𝒔𝒏−𝟏 + 𝒂𝒏−𝟐 𝒔𝒏−𝟐 + ⋯ + 𝒂𝟏 𝒔 + 𝒂𝟎
𝒃𝒎
Ici 𝑲 = 𝒂𝒏
est un coefficient d’amplification
Les zéros et les pôles de X(s) peuvent être réels et distincts,
multiples, complexes conjugués, ou les combinaisons de réels et
complexes conjugués. Pourtant, nous nous intéressons ici surtout
à la nature des pôles, donc nous considérerons chaque cas
séparément, comme indiqué dans les sections suivantes.

o Pôles réels distincts


Si tous les pôles 𝑝1 , 𝑝2 , … , 𝑝𝑛 sont distincts les uns des autres, nous
pouvons factoriser le dénominateur comme suit :

𝑵(𝒔)
𝑭(𝒔) = (𝒔−𝒑 )(𝒔−𝒑
ou les𝑝𝑘 sont des pôles distincts les
𝟏 𝟐 )(𝒔−𝒑𝟑 )…(𝒔−𝒑𝒏 )
uns des autres

La décomposition en éléments simples on peut exprimer 𝐹(𝑠)


𝒓𝟏 𝒓𝟐 𝒓𝒏
𝑭(𝒔) = + + ⋯+
(𝒔 − 𝒑𝟏 ) (𝒔 − 𝒑𝟐 ) (𝒔 − 𝒑𝒏 )

Ou les 𝑟1 , 𝑟2 , … , 𝑟𝑛 sont les résidus de la d-e-s et les 𝑝1 , 𝑝2 , … , 𝑝𝑛


sont les pôles de 𝐹(𝑠).

Pour évaluer les résidus 𝑟𝑘 on utilise

𝒓𝒌 = 𝐥𝐢𝐦 [(𝒔 − 𝒑𝒌 )𝑭(𝒔)] = (𝒔 − 𝒑𝒌 )𝑭(𝒔)|𝒔=𝒑𝒌


𝒔→𝒑𝒌
Exemple 1

Utiliser la méthode de d-e-s pour déterminer l’original de 𝐹1 (𝑠) =


3𝑠+2
𝑠2 +3𝑠+2

Solution

Les pôles sont : 𝑝1 = −1 𝑒𝑡 𝑝2 = −2 alors on a


3𝑠 + 2 𝑟1 𝑟2
𝐹1 (𝑠) = = +
(𝑠 + 1)(𝑠 + 2) 𝑠 + 1 𝑠 + 2

Les résidus sont


3𝑠 + 2
𝑟1 = lim [(𝑠 + 1)𝐹1 (𝑠)] = | = −1
𝑠→−1 𝑠 + 2 𝑠=−1
3𝑠 + 2
𝑟2 = lim [(𝑠 + 2)𝐹1 (𝑠)] = | =4
𝑠→−2 𝑠 + 1 𝑠=−2
Donc on exprime notre fonction image
3𝑠 + 2 −1 4
𝐹1 (𝑠) = = +
(𝑠 + 1)(𝑠 + 2) 𝑠 + 1 𝑠 + 2

En utilisant la table des transformées de Laplace on trouve


1
𝑒 −𝑎𝑡 𝑢(𝑡) ⇔
𝑠+𝑎
donc
−1 4
𝐹1 (𝑠) = + ⟺ 𝑓1 (𝑡) = (−𝑒 −𝑡 + 4𝑒 −2𝑡 )𝑢(𝑡)
𝑠+1 𝑠+2

Exemple 2 :
Utiliser la méthode de d-e-s pour déterminer l’original de

3𝑠 2 + 2𝑠 + 5
𝐹2 (𝑠) =
𝑠 3 + 12𝑠 2 + 44𝑠 + 48
Solution

Les pôles sont : 𝑝1 = −2, 𝑝2 = −4 𝑒𝑡 𝑝3 = −6 alors on a

3𝑠 2 + 2𝑠 + 5 𝑟1 𝑟2 𝑟2
𝐹2 (𝑠) = = + +
(𝑠 + 2)(𝑠 + 4)(𝑠 + 6) 𝑠 + 2 𝑠 + 4 𝑠 + 4

Les résidus sont

3𝑠 2 + 2𝑠 + 5 9
𝑟1 = lim [(𝑠 + 2)𝐹2 (𝑠)] = |𝑠=−2 =
𝑠→−2 (𝑠 + 4)(𝑠 + 6) 8
3𝑠 2 + 2𝑠 + 5 37
𝑟2 = lim [(𝑠 + 4)𝐹2 (𝑠)] = |𝑠=−4 = −
𝑠→−4 (𝑠 + 2)(𝑠 + 6) 4
2
3𝑠 + 2𝑠 + 5 89
𝑟3 = lim [(𝑠 + 6)𝐹2 (𝑠)] = |𝑠=−6 =
𝑠→−6 (𝑠 + 2)(𝑠 + 4) 8
Donc on exprime notre fonction image
9 37 89
3𝑠 2 + 2𝑠 + 5 8
𝐹2 (𝑠) = 3 = − 4 + 8
𝑠 + 12𝑠 2 + 44𝑠 + 48 𝑠 + 2 𝑠 + 4 𝑠 + 6
En utilisant la table des transformées de Laplace on trouve
1
𝑒 −𝑎𝑡 𝑢(𝑡) ⇔
𝑠+𝑎
donc
9 37 89
𝐹2 (𝑠) = 8 − 4 + 8 ⟺ 𝑓2 (𝑡)
𝑠+2 𝑠+4 𝑠+6
9 37 89
= ( 𝑒 −2𝑡 − 𝑒 −4𝑡 + 𝑒 −6𝑡 ) 𝑢(𝑡)
8 4 8
Remarque :

Dans l’expression de l’original de ces deux exemples on voit que


les amortisseurs qui les composent possèdent chacun un
coefficient d’amortissement correspondant au pôle qui lui est
associé.

Prenons le cas de l’exemple 2 :


9 37 89
𝑓2 (𝑡) = ( 𝑒 −2𝑡 − 𝑒 −4𝑡 + 𝑒 −6𝑡 ) 𝑢(𝑡) = 𝑓2 (𝑡)
8 4 8
9 𝑝 𝑡 37 𝑝 𝑡 89 𝑝 𝑡
= ( 𝑒 1 − 𝑒 2 + 𝑒 3 ) 𝑢(𝑡)
8 4 8

Ce qui montre que l’on peut obtenir la forme générale de


l’original 𝑓(𝑡), en connaissant les pôles de sa fonction image 𝐹(𝑠).
Donc
Si
𝒓𝟏 𝒓𝟐 𝒓𝒏
𝑭(𝒔) = + + ⋯+
(𝒔 − 𝒑𝟏 ) (𝒔 − 𝒑𝟐 ) (𝒔 − 𝒑𝒏 )

Alors

𝒏
𝒇(𝒕) = (𝒓𝟏 𝒆𝒑𝟏𝒕 + 𝒓𝟐 𝒆𝒑𝟐𝒕 + ⋯ + 𝒓𝒏 𝒆𝒑𝒏 𝒕 )𝒖(𝒕) = ∑ 𝒓𝒌 𝒆𝒑𝒌 𝒕 𝒖(𝒕)
𝒌=𝟏

o Pôles complexes

Très souvent, les pôles de 𝑋(𝑠) sont complexes, et comme les


pôles complexes apparaissent en paires conjuguées de complexe,
le nombre de pôles complexes est paire. Ainsi, si p est une racine
complexe de 𝐷(𝑠), alors, son pôle conjugué complexe, dénoté p*
est aussi une racine de D(s). La méthode d-e-s peut aussi être
utilisée dans ce cas-là, mais il peut être nécessaire de manipuler
les termes de l'expansion pour les exprimer dans une forme
reconnaissable. La procédure est illustrée avec l'exemple suivant.
Exemple 3
Utiliser la méthode de d-e-s pour déterminer l’original de
𝑠+3
𝐹3 (𝑠) =
𝑠3 + 5𝑠 2 + 12𝑠 + 8
Solution
Les pôles sont : 𝑝1 = −1, 𝑝2 = −2 + 2𝑗 𝑒𝑡 𝑝3 = −2 − 2𝑗 alors on a
𝑠+3 𝑟1 𝑟2 𝑟2
𝐹3 (𝑠) = = + +
𝑠3 2
+ 5𝑠 + 12𝑠 + 8 𝑠 + 1 𝑠 + 2 − 2𝑗 𝑠 + 2 + 2𝑗

Mais comme on a des pôles complexes il est préférable de


conserver leur résidu sous forme canonique
𝑠+3 𝑟1 𝑟2 𝑠 + 𝑟3
𝐹3 (𝑠) = = + 2
𝑠3 2
+ 5𝑠 + 12𝑠 + 8 𝑠 + 1 [𝑠 + 4𝑠 + 8]
𝑟1 𝑟2 𝑠 + 𝑟3
= +
𝑠 + 1 [(𝑠 + 2)2 + 4]

Ici le résidu 𝑟2 𝑠 + 𝑟3 est de degré un parce que le dénominateur


est de degré deux.

Les résidus sont


𝑠+3 2
𝑟1 = lim [(𝑠 + 1)𝐹3 (𝑠)] = 2
|𝑠=−1 =
𝑠→−2 (𝑠 + 2) + 4 5
𝑠+3
𝑟2 𝑠 + 𝑟3 |𝑠=−2+2𝑗 = |
𝑠 + 1 𝑠=−2+2𝑗
(−2 + 2𝑗) + 3
𝑟2 (−2 + 2𝑗) + 𝑟3 =
(−2 + 2𝑗) + 1
1 + 2𝑗 (1 + 2𝑗)(−1 − 2𝑗)
−2𝑟2 + 2𝑟2 𝑗 + 𝑟3 = =
−1 + 2𝑗 (−1 + 2𝑗)(−1 − 2𝑗)
3 − 4𝑗
−2𝑟2 + 2𝑟2 𝑗 + 𝑟3 =
5
5(−2𝑟2 + 2𝑟2 𝑗 + 𝑟3 ) = 3 − 4𝑗

Comme deux nombres complexes ne sont égaux que s’ils ont la


même partie réelle et la même partie imaginaire, on obtient
−10𝑟2 + 5𝑟3 = 3
{
10𝑟2 = −4
2 1
Ce qui nous donne 𝑟2 = − 5 𝑒𝑡 𝑟3 = − 5

Donc on exprime notre fonction image


2
𝑠+3 1 2𝑠 + 1
𝐹3 (𝑠) = 3 = 5 −
𝑠 + 5𝑠 + 12𝑠 + 8 𝑠 + 1 5 [(𝑠 + 2)2 + 4]
2

En utilisant la table des transformées de Laplace on trouve


1
𝑒 −𝑡 𝑢(𝑡) ⇔
𝑠+1
1 2𝑠−1
Ensuite pour le deuxième terme du troisième membre −
5 [(𝑠+2)2 +4]
on voit que son dénominateur ressemble à celui d’une sinusoide
amortie
𝒔+𝒂
𝒆−𝒂𝒕 𝐜𝐨𝐬(𝛚𝐭)𝒖(𝒕) ⟺ 𝒐𝒖 𝒆−𝒂𝒕 𝒔𝒊𝒏(𝛚𝐭)𝒖(𝒕)
(𝒔 + 𝒂)𝟐 + 𝝎𝟐
𝝎

(𝒔 + 𝒂)𝟐 + 𝝎𝟐
Il nous faut donc arranger le numérateur
1 3 3 −3
1 2𝑠 + 1 2 𝑠+2+2−2 2 𝑠+2 2
− 2 = − ( 2 )= − ( + )
5 [(𝑠 + 2) + 4] 5 [(𝑠 + 2) + 4] 5 [(𝑠 + 2) + 4] [(𝑠 + 2)2 + 4]
2

6
2 𝑠+2 2 2 𝑠+2 3 2
=− ( − 10 )=− +
5 [(𝑠 + 2) + 4] 2 [(𝑠 + 2)2 + 4]
2 5 [(𝑠 + 2)2 + 4] 10 [(𝑠 + 2)2 + 4]

donc
𝟐
𝟐 𝒔+𝟐 𝟑 𝟐
𝑭𝟑 (𝒔) = 𝟓 − +
𝒔 + 𝟏 𝟓 [(𝒔 + 𝟐) + 𝟒] 𝟏𝟎 [(𝒔 + 𝟐)𝟐 + 𝟒]
𝟐

𝟐 𝟐 𝟑 −𝟐𝒕
⟺ 𝒇𝟑 (𝒕) = ( 𝒆−𝒕 − 𝒆−𝟐𝒕 𝐜𝐨𝐬(𝟐𝒕) + 𝒆 𝐬𝐢𝐧(𝟐𝒕)) 𝒖(𝒕)
𝟓 𝟓 𝟏𝟎

Remarque :

La présence de pôles complexes conjugués dans la fonction


image laisse apparaitre des sinusoïdes amorties dans l’original.
Vous remarquerez que les coefficients d’amortissement de ces
sinusoïdes correspondent à la parie réelle de la paire de pôles
complexes conjugués tandis que la pulsation de leurs oscillations
correspondent à la valeur absolue de leur parie imaginaire

o Pôles multiples
Dans ce cas,
𝑁(𝑠)
𝐹(𝑠) =
(𝑠 − 𝑝1 )𝑚 (𝑠 − 𝑝2 ) … (𝑠 − 𝑝𝑛−1 )(𝑠 − 𝑝𝑛 )

Notons les 𝑚 résidus correspondant aux pôles multiple 𝑝1


sont 𝑟11 , 𝑟12 , … , 𝑟1𝑚 . On peut exprimer 𝐹(𝑠) de la manière
suivante :
𝒓𝟏𝟏 𝒓𝟏𝟐 𝒓𝟏𝒎 𝒓𝟐
𝑭(𝒔) = 𝒎
+ 𝒎−𝟏
+⋯+ +
(𝒔 − 𝒑𝟏 ) (𝒔 − 𝒑𝟏 ) (𝒔 − 𝒑𝟏 ) (𝒔 − 𝒑𝟐 )
𝒓𝟑 𝒓𝒏
+ + ⋯+
(𝒔 − 𝒑𝟑 ) (𝒔 − 𝒑𝒏 )

Pour les pôles simples 𝑝1 , 𝑝2 , … , 𝑝𝑛 , on procède comme avec les


pôles distincts

𝒓𝒌 = 𝐥𝐢𝐦 [(𝒔 − 𝒑𝒌 )𝑭(𝒔)] = (𝒔 − 𝒑𝒌 )𝑭(𝒔)|𝒔=𝒑𝒌


𝒔→𝒑𝒌

Les résidus 𝑟11 , 𝑟12 , … , 𝑟1𝑚 , correspondants aux pôles répétés sont
obtenus en multipliant chaque membre de la d-e-s par (𝒔 − 𝒑𝟏 )𝒎 .
Alors

(𝑠 − 𝑝1 )𝑚 𝐹(𝑠) = 𝑟11 + (𝑠 − 𝑝1 )𝑟12 + ⋯ + (𝑠 − 𝑝1 )𝑚−1 𝑟1𝑚


𝑟2 𝑟3 𝑟𝑛
+(𝑠 − 𝑝1 )𝑚 ( + + ⋯+ )
(𝑠 − 𝑝2 ) (𝑠 − 𝑝3 ) (𝑠 − 𝑝𝑛 )

Ensuite on calcule la limite des deux membres de l’équation pour


𝑠 → 𝑝1 , on obtient
lim [(𝑠 − 𝑝1 )𝑚 𝐹(𝑠)] = 𝑟11 + lim [(𝑠 − 𝑝1 )𝑟12 + ⋯ + (𝑠 − 𝑝1 )𝑚−1 𝑟1𝑚 ]
𝑠→𝑝1 𝑠→𝑝1

𝑟2 𝑟3 𝑟𝑛
+ lim [(𝑠 − 𝑝1 )𝑚 ( + +⋯+ )]
𝑠→𝑝1 (𝑠 − 𝑝2 ) (𝑠 − 𝑝3 ) (𝑠 − 𝑝𝑛 )

Ou encore

𝑟11 = lim [(𝑠 − 𝑝1 )𝑚 𝐹(𝑠)] 𝑝1


𝑠→𝑝1

Voici donc comment est obtenu le résidu du premier pôle répété.

Pour le résidu 𝑟12du second pôle répété 𝑝1 , est trouvé en dérivant


l’expression précédente et en calculant la limite :
𝑑
𝑟12 = lim [(𝑠 − 𝑝1 )𝑚 𝐹(𝑠)] 𝑝1
𝑠→𝑝1 𝑑𝑠
De façon générale, le résidu 𝑟1𝑘 peuvent être obtenus par

𝑑𝑘−1
(𝑘 − 1)! 𝑟1𝑘 = lim [(𝑠 − 𝑝1 )𝑚 𝐹(𝑠)]
𝑠→𝑝1 𝑑𝑠 𝑘−1

𝟏 𝒅𝒌−𝟏
𝒓𝟏𝒌 = 𝐥𝐢𝐦 [(𝒔 − 𝒑𝟏 )𝒎 𝑭(𝒔)]
𝒔→𝒑𝟏 (𝒌 − 𝟏)! 𝒅𝒔𝒌−𝟏

Exemple 4

Utiliser la méthode de d-e-s pour déterminer l’original de la


fonction image :
𝑠+3
𝐹4 (𝑠) =
(𝑠 + 2)(𝑠 + 1)2

Solution :

Les pôles sont : 𝑝1 = −2 𝑒𝑡 𝑝2 = −1 ou le pôle 𝑝2 = −1 est


multiple. La d-e-s de 𝐹4 (𝑠) est écrite comme suit :
𝑠+3 𝑟1 𝑟21 𝑟22
𝐹4 (𝑠) = = + +
(𝑠 + 2)(𝑠 + 1)2 (𝑠 + 2) (𝑠 + 1)2 (𝑠 + 1)

Les résidus sont :


𝑠+3
𝑟1 = | =1
(𝑠 + 1)2 𝑠=−2

𝑠+3
𝑟21 = | =2
(𝑠 + 2) 𝑠=−1

𝑑 𝑠+3 (𝑠 + 2) − (𝑠 + 3)
𝑟22 = ( )| = | = −1
𝑑𝑠 𝑠 + 2 𝑠=−1 (𝑠 + 1)2 𝑠=−1

𝑠+3 1 2 −1
𝐹4 (𝑠) = 2
= + 2
+ ⟺ 𝑓4 (𝑡)
(𝑠 + 2)(𝑠 + 1) (𝑠 + 2) (𝑠 + 1) (𝑠 + 1)
= 𝑒 −2𝑡 + 2𝑡𝑒 −𝑡 − 𝑒 −𝑡
Exemple 5

Utiliser la méthode de d-e-s pour déterminer l’original de la


fonction image :

𝑠 2 + 3𝑠 + 1
𝐹5 (𝑠) =
(𝑠 + 1)3 (𝑠 + 2)2

Solution

Nous avons deux pôles ici : 𝑝1 = −1 de multiplicité 3 et 𝑝2 = −2 de


multiplicité 2.

La d-e-s de 𝐹5 (𝑠) donne :


𝑟11 𝑟12 𝑟13 𝑟21 𝑟22
𝐹5 (𝑠) = 3
+ 2
+ + 2
+
(𝑠 + 1) (𝑠 + 1) (𝑠 + 1) (𝑠 + 2) (𝑠 + 2)

Les résidus sont :

𝑠 2 + 3𝑠 + 1
𝑟11 = ( )| = −1
(𝑠 + 2)2
𝑠=−1

𝑑 𝑠 2 + 3𝑠 + 1
𝑟12 = ( )|
𝑑𝑠 (𝑠 + 2)2 𝑠=−1
(𝑠 + 2)2 (2𝑠 + 3) − 2(𝑠 + 2)𝑠 2 + 3𝑠 + 1
= |
(𝑠 + 2)4 𝑠=−1
𝑠+4
= | =3
(𝑠 + 2)3 𝑠=−1

1 𝑑2 𝑠 2 + 3𝑠 + 1 1 𝑑 𝑑 𝑠 2 + 3𝑠 + 1
𝑟13 = ( )| = [ ( )]|
2! 𝑑𝑠 2 (𝑠 + 2)2 𝑠=−1
2 𝑑𝑠 𝑑𝑠 (𝑠 + 2)2 𝑠=−1
1𝑑 𝑠+4 1 (𝑠 + 2)3 − 3(𝑠 + 2)2 (𝑠 + 4)
= ( )| = [ ]|
2 𝑑𝑠 (𝑠 + 3)3 𝑠=−1 2 (𝑠 + 2)6 𝑠=−1

1 𝑠 + 2 − 3𝑠 − 12 −𝑠 − 5
= ( 4
)| = | =4
2 (𝑠 + 2) 𝑠=−1
(𝑠 + 2)4 𝑠=−1

Pour le pole 𝑝 = −2

𝑠 2 + 3𝑠 + 1
𝑟21 = | =1
(𝑠 + 1)3 𝑠=−2

𝑑 𝑠 2 + 3𝑠 + 1 (𝑠 + 3)3 (2𝑠 + 3) − 3(𝑠 + 3)2 (𝑠 2 + 3𝑠 + 1)


𝑟22 = ( )| = |
𝑑𝑠 (𝑠 + 1)3 𝑠=−2
(𝑠 + 1)6 𝑠=−2
(𝑠 + 3) (2𝑠 + 3) − 3(𝑠 2 + 3𝑠 + 1) −𝑠 2 − 4𝑠
= | = | =4
(𝑠 + 1)4 𝑠=−2
(𝑠 + 1)4 𝑠=−2

En remplaçant les résidus dans l’expression de la fonction image :


−1 3 −4 1 4
𝐹5 (𝑠) = + + + +
(𝑠 + 1)3 (𝑠 + 1)2 𝑠 + 1 (𝑠 + 2)2 (𝑠 + 2)

A l’aide la table des transformées on a


1 1 (𝑛 − 1)!
𝑒 −𝑎𝑡 ⟺ 𝑡𝑒 −𝑎𝑡 ⟺ 𝑡 𝑛−1 𝑒 −𝑎𝑡 ⟺
𝑠+𝑎 (𝑠 + 𝑎)2 (𝑠 + 𝑎)𝑛

Ce qui nous donne


1
𝑓5 (𝑡) = − 𝑡 2 𝑒 −𝑡 + 3𝑡𝑒 −𝑡 + 𝑡𝑒 −2𝑡 + 4𝑒 −2𝑡
2
3. Cas ou la fonction image F(s) est impropre
Jusque la nôtre travail s’est base sur la condition que 𝐹(𝑠) est
une fonction rationnelle propre. Cependant, si 𝐹(𝑠) est une
fonction rationnelle impropre, c’est-à-dire, si ≥ 𝑛 , nous devons
d’abord procéder a une division euclidienne pour obtenir une
expression de la forme :
𝑵(𝒔) 𝑵𝟏 (𝒔)
𝑭(𝒔) = = 𝒌𝟎 + 𝒌𝟏 𝒔 + 𝒌𝟐 𝒔𝟐 + ⋯ + 𝒌𝒎−𝒏 𝒔𝒎−𝒏 +
𝑫(𝒔) 𝑫𝟏 (𝒔)

Ou 𝑁(𝑠) /𝐷(𝑠) est une fonction rationnelle propre.

Exemple 6
𝒔𝟐 +𝟐𝒔+𝟐
Déterminer l’original de 𝑭𝟔 (𝒔) = 𝒔+𝟏

Solution

Pour cet exemple, 𝐹6 (𝑠) est une fonction rationnelle impropre.


Alors nous devons procéder à une division euclidienne d’abord
avant de faire la décomposition en éléments simples.

Apres la division euclidienne, on obtient

s 2 + 2s + 2 1
F6 (s) = = +1+s
s+1 s+1
Et on reconnait ici,
1
⟺ 𝑒 −𝑡 𝑒𝑡 1 ⟺ 𝛿(𝑡) 𝑒𝑡 𝑠 ⟺ 𝛿 ′ (𝑡)
𝑠+1
Pour 𝑠 on utilise la propriété d’intégration temporelle et on obtient

s 2 + 2s + 2 1
F6 (s) = = + 1 + s ⟺ 𝑓6 (𝑡) = 𝑒 −𝑡 + 𝛿(𝑡) + 𝛿 ′ (𝑡)
s+1 s+1
4. Méthode alternative à la D-E-S
La d-e-s peut aussi être réalisée par la méthode de
« nettoyage des fractions », qui consiste à rendre identique les
dénominateurs des deux membres de l’équation, et à déterminer
les numérateurs par un système d’équations. Mais pour cela il faut
que la fonction image 𝐹(𝑠) soit d’abord une fonction rationnelle
propre, sinon il faut procéder d’abord à une division euclidienne et
après travailler avec les quotients et les restes.

Supposons que l’on puisse exprimer le dénominateur 𝐷(𝑠)


comme un produit de facteurs linéaires et quadratiques. Si notre
supposition est bonne, soit (𝑠 − 𝑎) un facteur lineaire de 𝐷(𝑠), et
considerons (𝑠 − 𝑎)𝑚 comme le plus grand diviseur de
𝐷(𝑠).ensuite nous pouvons exprimer 𝐹(𝑠) comme
𝑵(𝒔) 𝒓𝟏 𝒓𝟐 𝒓𝒎
𝑭(𝒔) = = + 𝟐
+ ⋯+
𝑫(𝒔) 𝒔 − 𝒂 (𝒔 − 𝒂) (𝒔 − 𝒂)𝒎

Soit 𝑠 2 + 𝛼𝑠 + 𝛽 un facteur quadratique de 𝐷(𝑠), et supposons


que (𝑠 2 + 𝛼𝑠 + 𝛽)𝑛 le plus haut degre de ce facteur qui divise
𝐷(𝑠). Alors, nous realisons lea etapes suivantes :

i. A ce facteur, nous assignons la somme des 𝑛 fractions


𝑟1 𝑠 + 𝑘1 𝑟2 𝑠 + 𝑘2 𝑟𝑛 𝑠 + 𝑘𝑛
2
+ 2 2
+ ⋯+ 2
𝑠 + 𝛼𝑠 + 𝛽 (𝑠 + 𝛼𝑠 + 𝛽) (𝑠 + 𝛼𝑠 + 𝛽)𝑛

ii. On répète l’étape i pour chacun des facteurs linéaires et


quadratiques de 𝐷(𝑠)
iii. On écrit la fonction 𝐹(𝑠) comme etant egale a la somme des 𝑛
fractions partielles
iv. On développe l’expression résultante des fractions et on
ordonne les termes par degré décroissant des puissances
de 𝑠.
v. On crée un système d’équations pour nous permettre
d’identifier les différents coefficients lies aux puissances de 𝑠
vi. On résout le système d’équations pour obtenir les résidus

Exemple 7

Déterminer l’original de la fonction image suivante à l’aide de la


méthode précédente
−2𝑠 + 4
𝐹7 (𝑠) =
(𝑠 2 + 1)(𝑠 − 1)2

Solution

En utilisant les étapes 1 à 3 on obtient


−2𝑠 + 4 𝑟1 𝑠 + 𝐴 𝑟21 𝑟22
𝐹7 (𝑠) = = 2 + +
(𝑠 2 + 1)(𝑠 − 1)2 (𝑠 + 1) (𝑠 − 1) 2 (𝑠 − 1)

Avec l’étape 4,

−2𝑠 + 4 = (𝑟1 𝑠 + 𝐴)(𝑠 − 1)2 + 𝑟21 (𝑠 2 + 1) + 𝑟22 (𝑠 2 + 1)(𝑠 − 1)

Et avec l’étape 5,

−2𝑠 + 4 = 𝑠 3 (𝑟1 + 𝑟22 ) + 𝑠 2 (−2𝑟1 + 𝐴 − 𝑟22 + 𝑟21 )


+ 𝑠(𝑟1 − 2𝐴 + 𝑟22 ) + (𝑟21 + 𝐴 − 𝑟22 )

Nous procédons à une identification des termes de part et d’autre


de l’équation en fonction de 𝑠 et on obtient le système d’équations
suivant :
0 = 𝑟1 + 𝑟22
0 = −2𝑟1 + 𝐴 − 𝑟22 + 𝑟21
{
−2 = 𝑟1 − 2𝐴 + 𝑟22
4 = 𝑟21 + 𝐴 − 𝑟22
En soustrayant la deuxième équation de la quatrième équation, on
obtient

4 = 2𝑟1 𝑠𝑜𝑖𝑡 𝑟1 = 2

En substituant cxe2 résultat dans la première équation on obtient

0 = 2 + 𝑟22 𝑠𝑜𝑖𝑡 𝑟22 = −2

En procédant de même on obtient

𝐴 = 1 𝑒𝑡 𝑟21 =

Ce qui nous donne une décomposition en éléments simples de


notre fonction image 𝐹7 (𝑠)
−2𝑠 + 4 2𝑠 + 1 1 2
𝐹7 (𝑠) = = 2 + +
(𝑠 2 + 1)(𝑠 − 1)2 (𝑠 + 1) (𝑠 − 1)2 (𝑠 − 1)

Exemple 8
𝑠+3
Faire de même avec 𝐹8 (𝑠) = 𝑠3 +5𝑠2 +12𝑠+8

Solution

Dans un premier temps on écrit la fonction image comme la


somme d’un terme linéaire et un autre quadratique :
𝑠+3 𝑠+3
𝐹8 (𝑠) = =
𝑠3 + 5𝑠 + 12𝑠 + 8 (𝑠 + 1)(𝑠 2 + 4𝑠 + 8)
2
𝑟1 𝑟2 𝑠 + 𝑟3
= + 2
𝑠 + 1 (𝑠 + 4𝑠 + 8)

On calcule le résidu 𝑟1 qui est lie au pôle réel simple 𝑠 = −1


𝑠+3 2
𝑟1 = | =
𝑠 2 + 4𝑠 + 8 𝑠=−1 5
Ensuite, pour calculer 𝑟2 𝑒𝑡 𝑟3 on suit la procédure évoquée plus
haut et on obtient

𝑠 + 3 = 𝑟1 (𝑠 2 + 4𝑠 + 8) + (𝑟2 𝑠 + 𝑟3 )(𝑠 + 1)

Comme 𝑟1 est déjà connu, on va chercher deux équations pour


déterminer 𝑟2 𝑒𝑡 𝑟3
0 = 𝑟1 + 𝑟2
{
3 = 8𝑟1 + 𝑟3
2
𝑟1 = − 𝑟2 𝑠𝑜𝑖𝑡 𝑟2 = −
5
1
𝑟3 = −8 𝑟1 𝑠𝑜𝑖𝑡 𝑟3 = −
5
Donc on obtient la décomposition de la fonction image en
éléments simples

𝑠+3 2⁄5 1 2𝑠 + 1
𝐹8 (𝑠) = = −
𝑠3 2
+ 5𝑠 + 12𝑠 + 8 𝑠 + 1 5 (𝑠 2 + 4𝑠 + 8)
Ce qui donne l’original
2 2 3
𝑓8 (𝑡) = 𝑓3 (𝑡) = ( 𝑒 −𝑡 − 𝑒 −2𝑡 cos(2𝑡) + 𝑒 −2𝑡 sin(2𝑡)) 𝑢(𝑡)
5 5 10

VI. EXERCICES
A. Exercices résolus
Exercice 1

Déterminer la transformée de Laplace des signaux suivants

(a) 𝑥(𝑡) = −𝑒 −𝑎𝑡 𝑢(−𝑡)


(b) 𝑥(𝑡) = 𝑒 𝑎𝑡 𝑢(−𝑡)
Réponse :

(a) De la définition de la transformation de Laplace on tire


+∞ 0−
𝑋(𝑠) = − ∫ 𝑒 −𝑎𝑡 𝑢(−𝑡)𝑒 −𝑠𝑡 𝑑𝑡 = − ∫ 𝑒 −(𝑠+𝑎)𝑡 𝑑𝑡
−∞ −∞
0 −
1 −(𝑠+𝑎)𝑡
1
= 𝑒 ] = 𝑅𝑒(𝑠) < −𝑎
𝑠+𝑎 −∞ 𝑠+𝑎

Ainsi, on obtient
1
−𝑒 −𝑎𝑡 𝑢(−𝑡) ↔ 𝑅𝑒(𝑠) < −𝑎
𝑠+𝑎
(b) De façon similaire,
+∞ 0−
𝑎𝑡 −𝑠𝑡
𝑋(𝑠) = ∫ 𝑒 𝑢(−𝑡)𝑒 𝑑𝑡 = ∫ 𝑒 −(𝑠−𝑎)𝑡 𝑑𝑡
−∞ −∞
0 −
1 1
=− 𝑒 −(𝑠−𝑎)𝑡 ] = 𝑅𝑒(𝑠) < 𝑎
𝑠+𝑎 −∞ 𝑠−𝑎

Ainsi, on obtient
1
𝑒 𝑎𝑡 𝑢(−𝑡) ↔ 𝑅𝑒(𝑠) < 𝑎
𝑠−𝑎
Exercice 2 :
−𝑎𝑡
Soit le signal 𝑥(𝑡) = {𝑒 0≤𝑡≤𝑇
0 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠
Déterminer la transformée de Laplace de 𝑥(𝑡).

Réponse :

D’après l’équation de définition de la transformée on a


𝑇 𝑇
𝑋(𝑠) = ∫ 𝑒 −𝑎𝑡 𝑒 −𝑠𝑡 𝑑𝑡 = ∫ 𝑒 −(𝑠+𝑎)𝑡 𝑑𝑡
0 0
𝑇
1 1
=− 𝑒 −(𝑠+𝑎)𝑡 ] = [1 − 𝑒 −(𝑠+𝑎)𝑇 ]
𝑠+𝑎 0 𝑠 + 𝑎

Exercice 3

Déterminer la transformée de Laplace 𝑋(𝑠) et représenter la


position des pôles et zéros ainsi que la Région de Convergence
(RDC) des signaux suivants :

𝑎. 𝑥(𝑡) = 𝑒 −2𝑡 𝑢(𝑡) + 𝑒 −3𝑡 𝑢(𝑡)


𝑏. 𝑥(𝑡) = 𝑒 −3𝑡 𝑢(𝑡) + 𝑒 −2𝑡 𝑢(−𝑡)
𝑐. 𝑥(𝑡) = 𝑒 2𝑡 𝑢(𝑡) + 𝑒 −3𝑡 𝑢(−𝑡)

Réponse :

a. De la table des transformée on tire


1
𝑒 −2𝑡 𝑢(𝑡) ↔ 𝑅𝑒(𝑠) > −2
𝑠+2
−3𝑡
1
𝑒 𝑢(𝑡) ↔ 𝑅𝑒(𝑠) > −3
𝑠+3
On voit que les deux RDC se recouvrent, et ainsi,
5
1 1 2 (𝑠 + )
𝑋(𝑠) = + = 2 𝑅𝑒(𝑠) > −2
𝑠+2 𝑠+3 (𝑠 + 2)(𝑠 + 3)
5
Dans cette équation on voit que 𝑋(𝑠) a un zéro à 𝑠 = − et
2
deux pôles à 𝑠 = −2 𝑒𝑡 𝑠 = −3 et que sa RDC est 𝑅𝑒(𝑠) > −2
comme représenté sur la courbe de gauche.

b. De la table des transformée on tire


1
𝑒 2𝑡 𝑢(−𝑡) ↔ − 𝑅𝑒(𝑠) < 2
𝑠−2
1
𝑒 −3𝑡 𝑢(𝑡) ↔ 𝑅𝑒(𝑠) > −3
𝑠+3
On voit que les deux RDC se recouvrent, et ainsi,
1 1 5
𝑋(𝑠) = − = − 3 < 𝑅𝑒(𝑠) < 2
𝑠 + 3 𝑠 − 2 (𝑠 − 2)(𝑠 + 3)

Dans cette équation on voit que 𝑋(𝑠) n’a pas de zéro et


possède deux pôles à 𝑠 = 2 𝑒𝑡 𝑠 = −3 et que sa RDC est
−3 < 𝑅𝑒(𝑠) < 2 comme représenté sur la courbe de droite.

c. De la table des transformée on tire


1
𝑒 2𝑡 𝑢(𝑡) ↔ − 𝑅𝑒(𝑠) < 2
𝑠−2
1
𝑒 −3𝑡 𝑢(−𝑡) ↔ − 𝑅𝑒(𝑠) > −3
𝑠+3
On voit que les deux RDC ne se recouvrent pas. Il n’y a donc
pas de RDC commune, ainsi 𝑥(𝑡) ne possède pas de
transformée de Laplace 𝑋(𝑠).
Exercice 4

Déterminer la transformée 𝑋(𝑠) et représenter la position des


pôles et zéros dans le plan complexe et la RDC pour 𝑎 > 0 𝑒𝑡 𝑎 <
0

𝑥(𝑡) = 𝑒 −𝑎|𝑡|

Réponse :

Le signal 𝑥(𝑡) est représenté à la figure suivant.

Comme le signal 𝑥(𝑡) est un signal symétrique, on peut l’exprimer


par

𝑥(𝑡) = 𝑒 −𝑎𝑡 𝑢(𝑡) + 𝑒 𝑎𝑡 𝑢(−𝑡)

Notons que 𝑥(𝑡) est continu en 𝑡 = 0 𝑒𝑡 𝑥(0− ) = 𝑥(0) = 𝑥(0+ ) = 1.


A partir de la table des transformées
1
𝑒 −𝑎𝑡 𝑢(𝑡) ↔ 𝑅𝑒(𝑠) > −𝑎
𝑠+𝑎
1
𝑒 𝑎𝑡 𝑢(−𝑡) ↔ 𝑅𝑒(𝑠) < 𝑎
𝑠+𝑎
Si 𝑎 > 0, on voit que les RDC des deux équations précédentes se
recouvrent, et ainsi,
1 1 −2𝑎
𝑋(𝑠) = − = 2 − 𝑎 < 𝑅𝑒(𝑠) < 𝑎
𝑠 + 𝑎 𝑠 − 𝑎 𝑠 − 𝑎2
On voit ici que 𝑋(𝑠) n’a pas de zéro mais possède
deux pôles à 𝑠 = 𝑎 𝑒𝑡 𝑠 = −𝑎 et que sa RDC est −𝑎 <
𝑅𝑒(𝑠) < 𝑎, comme représenté plus haut.

Si 𝑎 < 0, on voit que les RDC ne se recouvrent pas et n’ont donc


pas de RDC commune ; ainsi, 𝑥(𝑡) n’a pas de transformée 𝑋(𝑠).

Exemple 5

Déterminer la transformée de Laplace de même que la RDC


associée pour chacun des signaux suivants :
(𝑎) 𝑥(𝑡) = 𝛿(𝑡 − 𝑡0 ) (𝑏) 𝑥(𝑡) = 𝛿(𝑡 − 𝑡0 ) (𝑒)𝑥(𝑡) = 𝛿(𝑎𝑡 + 𝑏)

(𝑐) 𝑥(𝑡) = 𝑒 −2𝑡 [𝑢(𝑡) − 𝑢(𝑡 − 5)] (𝑑) 𝑥(𝑡) = ∑ 𝛿(𝑡 − 𝑘𝑇)
𝑘=0

Réponse :

(a) En utilisant la transformée de 𝛿(𝑡) et l’opération de


décalage temporel, on obtient

𝛿(𝑡 − 𝑡0 ) ↔ 𝑒 −𝑠𝑡0 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑠 𝑠

(b) En utilisant la transformée de 𝛿(𝑡) et l’opération de


décalage temporel, on obtient
𝑒 −𝑠𝑡0
𝑢(𝑡 − 𝑡0 ) ↔ 𝑅𝑒(𝑠) > 0
𝑠
(c) Réécrivons 𝑥(𝑡) comme
𝑥(𝑡) = 𝑒 −2𝑡 [𝑢(𝑡) − 𝑢(𝑡 − 5)] = 𝑒 −2𝑡 𝑢(𝑡) − 𝑒 −2𝑡 𝑢(𝑡 − 5)
= 𝑒 −2𝑡 𝑢(𝑡) − 𝑒 −10 𝑒 −2(𝑡−5) 𝑢(𝑡 − 5)

Ensuite, de la table des transformées et en utilisant le décalage


temporel, on obtient
1 1 1
𝑋(𝑠) = − 𝑒 −10 𝑒 −5𝑡 = (1 − 𝑒 −5(𝑠+2) ) 𝑅𝑒(𝑠) > −2
𝑠+2 𝑠+2 𝑠+2

(d) En utilisant la transformée d’un signal périodique, on a


∞ ∞
−𝑠𝑘𝑇
1
𝑋(𝑠) = ∑ 𝑒 = ∑(𝑒 −𝑠𝑇 )𝑘 = 𝑅𝑒(𝑠) > 0
1 − 𝑒 −𝑠𝑇
𝑘=0 𝑘=0

(e) Soit

𝑓(𝑡) = 𝛿(𝑎𝑡)

Ensuite du facteur d’échelle on a


1
𝑓(𝑡) = 𝛿(𝑎𝑡) ↔ 𝐹(𝑠) = pour tout 𝑠
|𝑎|

Maintenant, comme
𝑏 𝑏
𝑥(𝑡) = 𝛿(𝑎𝑡 + 𝑏) = 𝛿 [𝑎 (𝑡 + )] = 𝑓 (𝑡 + )
𝑎 𝑎
En utilisant le décalage temporel et le facteur d’échelle, on
obtient
𝑏 1 𝑠𝑏
𝑋(𝑠) = 𝑒 𝑠𝑎 𝐹(𝑠) = 𝑒 𝑎 pour tout 𝑠
|𝑎|

Exercice 6
2𝑠+4
(a) 𝑋(𝑠) = 𝑠2 +4𝑠+3 𝑅𝑒(𝑠) > −1
2𝑠+4
(b) 𝑋(𝑠) = 𝑠2 +4𝑠+3 𝑅𝑒(𝑠) < −3
2𝑠+4
(c) 𝑋(𝑠) = − 3 < 𝑅𝑒(𝑠) < −1
𝑠2 +4𝑠+3

Réponse :

Un développement en éléments simples nous donne


2𝑠 + 4 𝑠+2 𝑐1 𝑐2
𝑋(𝑠) = =2 = +
𝑠2 + 4𝑠 + 3 (𝑠 + 1)(𝑠 + 3) 𝑠 + 1 𝑠 + 3

On calcule les coefficients


𝑠+2
𝑐1 = (𝑠 + 1)𝑋(𝑠)|𝑠=−1 = 2 | =1
𝑠 + 3 𝑠=−1

𝑠+2
𝑐2 = (𝑠 + 3)𝑋(𝑠)|𝑠=−3 = 2 | =1
𝑠 + 1 𝑠=−3

Alors,
1 1
𝑋(𝑠) = +
𝑠+1 𝑠+3

(a) La RDC de 𝑋(𝑠) est 𝑅𝑒(𝑠) > −1. Et comme 𝑥(𝑡) est un
signal unilatéral à droite et de la table des transformées on
obtient

𝑥(𝑡) = 𝑒 −𝑡 𝑢(𝑡) + 𝑒 −3𝑡 𝑢(𝑡) = (𝑒 −𝑡 + 𝑒 −3𝑡 )𝑢(𝑡)

(b) La RDC de 𝑋(𝑠) est 𝑅𝑒(𝑠) < −3. Et comme 𝑥(𝑡) est un
signal unilatéral à gauche et de la table des transformées
on obtient

𝑥(𝑡) = −𝑒 −𝑡 𝑢(−𝑡) + 𝑒 −3𝑡 𝑢(−𝑡) = −(𝑒 −𝑡 + 𝑒 −3𝑡 )𝑢(−𝑡)

(c) La RDC de 𝑋(𝑠) est −3 < 𝑅𝑒(𝑠) < −1. Et comme 𝑥(𝑡) est
un signal bilatéral et de la table des transformées on
obtient

𝑥(𝑡) = −𝑒 −𝑡 𝑢(−𝑡) + 𝑒 −3𝑡 𝑢(𝑡)

Exercice 7

Déterminer la transformée inverse de Laplace de


5𝑠 + 13
𝑋(𝑠) = 𝑅𝑒(𝑠) > 0
𝑠(𝑠 2+ 4𝑠 + 13)
Réponse :

On peut écrire

𝑠 2 + 4𝑠 + 13 = (𝑠 + 2)2 + 9 = (𝑠 + 2)2 + 32
= (𝑠 + 2 − 3𝑗)(𝑠 + 2 + 3𝑗)

Alors
5𝑠 + 13 𝑐1 𝑐2 𝑠 + 𝑐3
𝑋(𝑠) = = +
𝑠((𝑠 + 2) + 3 ) 𝑠 (𝑠 + 2)2 + 32
2 2

La décomposition en éléments simples donne les coefficients


suivants
5𝑠 + 13
𝑐1 = 𝑠𝑋(𝑠)|𝑠=0 = | =1
𝑠2 + 4𝑠 + 13 𝑠=0
𝑐2 𝑠 + 𝑐3 5𝑠 + 13 1 −𝑠 + 1
= − =
(𝑠 + 2)2 + 32 𝑠((𝑠 + 2)2 + 32 ) 𝑠 (𝑠 + 2)2 + 32

Alors par identification, on a

𝑐2 = −1 et 𝑐3 = 1

Ainsi,
1 𝑠−1 1 𝑠+2−3
𝑋(𝑠) = − 2 2
= −
𝑠 (𝑠 + 2) + 3 𝑠 (𝑠 + 2)2 + 32
1 𝑠+2 3
= − 2 2
+
𝑠 (𝑠 + 2) + 3 (𝑠 + 2)2 + 32

Et de la table des transformées on obtient

𝑥(𝑡) = 𝑢(𝑡) − 𝑒 −2𝑡 cos(3𝑡) 𝑢(𝑡) + 𝑒 −2𝑡 sin(3𝑡) 𝑢(𝑡)


= [1 − 𝑒 −2𝑡 (cos(3𝑡) − sin(3𝑡))]𝑢(𝑡)

Exercice 8

Déterminer l’original de

2 + 2𝑠𝑒 −2𝑠 + 4𝑒 −4𝑠


𝑋(𝑠) = 𝑅𝑒(𝑠) > −1
𝑠 2 + 4𝑠 + 3
Réponse :

On peut écrire 𝑋(𝑠) comme une somme


𝑋(𝑠) = 𝑋1 (𝑠) + 𝑋2 (𝑠)𝑒 −2𝑠 + 𝑋3 (𝑠)𝑒 −4𝑠

Avec
2 2𝑠 4
𝑋1 (𝑠) = 𝑋2 (𝑠) = 𝑋3 (𝑠) =
𝑠2 + 4𝑠 + 3 𝑠2 + 4𝑠 + 3 𝑠2 + 4𝑠 + 3
Si

𝑥1 (𝑡) ↔ 𝑋1 (𝑠) 𝑥2 (𝑡) ↔ 𝑋2 (𝑠) 𝑥3 (𝑡) ↔ 𝑋3 (𝑠)

Alors d’après la propriété de linéarité et le décalage temporel on


obtient

𝑥(𝑡) = 𝑥1 (𝑡) + 𝑥2 (𝑡 − 2) + 𝑥3 (𝑡 − 4)

Ensuite, en utilisant la décomposition en éléments simples et la


table des transformées
1 1
𝑋1 (𝑠) = − ↔ 𝑥1 (𝑡) = (𝑒 −𝑡 − 𝑒 −3𝑡 )𝑢(𝑡)
𝑠+1 𝑠+3
−1 3
𝑋2 (𝑠) = + ↔ 𝑥2 (𝑡) = (−𝑒 −𝑡 + 3𝑒 −3𝑡 )𝑢(𝑡)
𝑠+1 𝑠+3
2 2
𝑋3 (𝑠) = − ↔ 𝑥3 (𝑡) = 2(𝑒 −𝑡 − 𝑒 −3𝑡 )𝑢(𝑡)
𝑠+1 𝑠+3
Ainsi, la linéarité donne

𝑥(𝑡) = (𝑒 −𝑡 − 𝑒 −3𝑡 )𝑢(𝑡) + (−𝑒 −(𝑡−2) + 3𝑒 −3(𝑡−2) )𝑢(𝑡 − 2)


+ 2(𝑒 −(𝑡−4) − 𝑒 −3(𝑡−4) )𝑢(𝑡 − 4)

Exercice 9

Résoudre l’équation différentielle linéaire du second ordre

𝑦 ′′ (𝑡) + 5𝑦 ′ (𝑡) + 6𝑦(𝑡) = 𝑥(𝑡)


Avec les conditions initiales 𝑦(0) = 2, 𝑦 ′ (0) = 1, 𝑒𝑡 𝑥(𝑡) = 𝑒 −𝑡 𝑢(𝑡)

Réponse :

Posons 𝑦(0) = 𝑦(0− ) 𝑎𝑛𝑑 𝑦 ′ (0) = 𝑦 ′ (0− ). Soit 𝑦(𝑡) ↔ 𝑌1 (𝑠)

De la dérivation temporelle on tire

𝑦 ′ (𝑡) ↔ 𝑠𝑌1 (𝑠) − 𝑦(0− ) = 𝑠𝑌1 (𝑠) − 2

𝑦 ′′ (𝑡) ↔ 𝑠 2 𝑌1 (𝑠) − 𝑠𝑦(0− ) − 𝑦 ′ (0− ) = 𝑠 2 𝑌1 (𝑠) − 2𝑠 − 1

D’après la table des transformées


1
𝑥(𝑡) ↔ 𝑋1 (𝑠) =
𝑠+1
En prenant la forme unilatérale de la transformée, on obtient
1
[𝑠 2 𝑌1 (𝑠) − 2𝑠 − 1] + 5[𝑠𝑌1 (𝑠) − 2] + 6𝑌1 (𝑠) =
𝑠+1
1 2𝑠2 +13𝑠+12
Ou (𝑠 2 + 5𝑠 + 6)𝑌1 (𝑠) = + 2𝑠 + 11 =
𝑠+1 𝑠+1

Ainsi,

2𝑠 2 + 13𝑠 + 12 2𝑠 2 + 13𝑠 + 12
𝑌1 (𝑠) = =
(𝑠 + 1)(𝑠 2 + 5𝑠 + 6) (𝑠 + 1)(𝑠 + 2)(𝑠 + 3)

En utilisant la décomposition en éléments simples, on obtient


1 1 1 9 1
𝑌1 (𝑠) = +6 −
2𝑠 + 1 𝑠 + 2 2𝑠 + 3
En utilisant la transformée inverse de Laplace de 𝑌1 (𝑠), on a
1 9
𝑦(𝑡) = ( 𝑒 −𝑡 + 6𝑒 −2𝑡 − 𝑒 −3𝑡 ) 𝑢(𝑡)
2 2
Exercice 10

Considérons le circuit RC de la figure (a). L’interrupteur est fermé


à 𝑡 = 0. Supposons qu’il y a une tension initiale aux bornes du
condensateur et 𝑣𝑐 (0− ) = 𝑣0 .

a. Déterminer le courant 𝑖(𝑡)


b. Déterminer la tension aux bornes du condensateur 𝑣𝑐 (𝑡)

Réponse :

a. A la fermeture, le circuit de la fig.a peut être représenté par


celui de la fig.b avec 𝑣𝑠 (𝑡) = 𝑉𝑢(𝑡). Si le courant 𝑖(𝑡) est le
signal de sortie et l’entrée est la tension 𝑣𝑠 (𝑡), l’équation
différentielle qui décrit le circuit est

1 𝑡
𝑅𝑖(𝑡) + ∫ 𝑖(𝜏)𝑑𝜏 = 𝑣𝑠 (𝑡)
𝐶 −∞

𝑣𝑐 (𝑡)

En prenant la transformée de Laplace de cette équation et la


propriété d’intégration temporelle, on obtient

1 1 1 0 𝑉
𝑅 𝐼(𝑠)
⏟ + 𝐼(𝑠) + ∫ 𝑖(𝜏)𝑑𝜏 =
ℒ{𝑖(𝑡)}
𝐶 𝑠 𝑠
⏟ −∞ 𝑠
[ 𝑣𝑐 (0 )=𝑣0 ]

Et notre équation se réduit à


1 𝑣0 𝑉
(𝑅 + 𝐶𝑠) 𝐼(𝑠) + 𝑠
= 𝑠,

En isolant 𝐼(𝑠), on obtient


𝑉 − 𝑣0 1 𝑉 − 𝑣0 1
𝐼(𝑠) = =
𝑠 𝑅 + 1/𝐶𝑠 𝑅 𝑠 + 1/𝑅𝐶

En prenant la transformée inverse de 𝐼(𝑠) ; on trouve


𝑉 − 𝑣0 − 𝑡
𝑖(𝑡) = 𝑒 𝑅𝐶 𝑢(𝑡)
𝑅
b. Quand 𝑣𝑐 (𝑡) est la sortie et 𝑣𝑠 (𝑡) l’entrée, l’équation qui
régit le circuit est
𝑑𝑣𝑐 (𝑡) 1 1
+ 𝑣𝑐 (𝑡) = 𝑣 (𝑡)
𝑑𝑡 𝑅𝐶 𝑅𝐶 𝑠
En utilisant le transformée unilatérale de Laplace de l’équation
différentielle précédente et la dérivation temporelle on obtient
1 1 𝑉
𝑠𝑉𝑐 (𝑠) − 𝑣𝑐 (0− ) + 𝑉𝑐 (𝑠) =
𝑅𝐶 𝑅𝐶 𝑠
Ou encore
1 1 𝑉
(𝑠 + ) 𝑉 (𝑠) = + 𝑣0
𝑅𝐶 𝑐 𝑅𝐶 𝑠
En isolant 𝑉𝑐 (𝑠), on a
𝑉 1 𝑣0
𝑉𝑐 (𝑠) = +
𝑅𝐶 𝑠(𝑠 + 1/𝑅𝐶) 𝑠 + 1/𝑅𝐶
1 1 𝑣0
= 𝑉( − )+
𝑠 𝑠 + 1/𝑅𝐶 𝑠 + 1/𝑅𝐶

En prenant la transformée inverse de 𝑉𝑐 (𝑠) ; on trouve


𝑡 𝑡
𝑣𝑐 (𝑡) = 𝑉 [1 − 𝑒 −𝑅𝐶 ] 𝑢(𝑡) + 𝑣0 𝑒 −𝑅𝐶 𝑢(𝑡)

Notons que 𝑣𝑐 (0+ ) = 𝑣0 = 𝑣𝑐 (0− ). Ainsi, on écrit 𝑣𝑐 (𝑡) comme


𝑡 𝑡
𝑣𝑐 (𝑡) = 𝑉 [1 − 𝑒 −𝑅𝐶 ] + 𝑣0 𝑒 −𝑅𝐶 𝑝𝑜𝑢𝑟 𝑡 ≥ 0

Exercice 11

En utilisant la technique de transformation du circuit, refaire


l’exercice précédent.

Réponse :

a. En utilisant les techniques de transformation des circuits on


voit que le réseau correspondant à notre circuit de
l’exercice précédent est construit comme suit

En écrivant la loi des mailles, on obtient


1 𝑣 𝑉
(𝑅 + ) 𝐼(𝑠) + 0 = ,
𝐶𝑠 𝑠 𝑠

En isolant 𝐼(𝑠), on obtient


𝑉 − 𝑣0 1 𝑉 − 𝑣0 1
𝐼(𝑠) = =
𝑠 𝑅 + 1/𝐶𝑠 𝑅 𝑠 + 1/𝑅𝐶

En prenant la transformée inverse de 𝐼(𝑠) ; on trouve


𝑉 − 𝑣0 − 𝑡
𝑖(𝑡) = 𝑒 𝑅𝐶 𝑢(𝑡)
𝑅
b. De notre figure transformée, on tire
1 𝑣0
𝑉𝑐 (𝑠) = 𝐼(𝑠) +
𝐶𝑠 𝑠
En remplaçant 𝐼(𝑠) obtenu précédemment dans cette équation ci-
dessus, on a
𝑉 − 𝑣0 1 𝑣0
𝑉𝑐 (𝑠) = +
𝑅𝐶 𝑠(𝑠 + 1 ) 𝑠
𝑅𝐶
1 1 𝑣0
= (𝑉 − 𝑣0 ) ( − )+
𝑠 𝑠 + 1/𝑅𝐶 𝑠
1 1 𝑣0
= 𝑉( − )+
𝑠 𝑠 + 1/𝑅𝐶 𝑠 + 1/𝑅𝐶

En prenant la transformée inverse de 𝑉𝑐 (𝑠), on a


𝑡 𝑡
𝑣𝑐 (𝑡) = 𝑉 (1 − 𝑒 −𝑅𝐶 ) 𝑢(𝑡) + 𝑣0 𝑒 −𝑅𝐶 𝑢(𝑡)

Exercice 12

Déterminer la transformée de Laplace des signaux suivants :


𝑎. 12 𝑐. 24𝑢(𝑡 − 12) 𝑒. 4𝑡 5 𝑢(𝑡)
𝑏. 6𝑢(𝑡) 𝑑. 5𝑡𝑢(𝑡)

Réponse :

A partir de la définition ou de la table des transformées de


Laplace on a
12 6 24 5 5!
𝑎. 𝑏. 𝑐. 𝑒 −12𝑠 𝑑. 𝑒. 4
𝑠 𝑠 𝑠 𝑠2 𝑠6
Exercice 13

Déterminer la transformée de Laplace des signaux suivants :

𝑎. 8𝑗 𝑐. 8𝑡 7 𝑒 −5𝑡 𝑢(𝑡)
𝑏. 5𝑒 −5𝑡 𝑢(𝑡) 𝑑. 15𝛿(𝑡 − 4)

Réponse :

A partir de la définition ou de la table des transformées de


Laplace on a
8𝑗 5 5 7!
𝑎. 𝑏. 𝑐. 𝑑. 8 𝑒. 15𝑒 −4𝑠
𝑠 𝑠 𝑠+5 (𝑠 + 5)8

Exercice 14

Déterminer la transformée de Laplace des signaux suivants :


𝑎. (𝑡 3 + 3𝑡 2 + 4𝑡 + 3)𝑢(𝑡) 𝑐. (3sin(5𝑡)𝑢(𝑡)) 𝑒. (2tan(4𝑡)𝑢(𝑡))
𝑏. 3(2𝑡 − 3)𝛿(𝑡 − 3) 𝑑. (5cos(3𝑡)𝑢(𝑡))

Réponse :

a. De la table des transformées et propriété de linéarité on


obtient
3! 3 ∗ 2! 4 3
+ 3 + 2+
𝑠4 𝑠 𝑠 𝑠
b. 3(2𝑡 − 3)𝛿(𝑡 − 3) = 3(2𝑡 − 3)|𝑡=3 𝛿(𝑡 − 3) = 9𝛿(𝑡 − 3)

Et on a 9𝛿(𝑡 − 3) ⟺ 9𝑒 −3𝑠
5
c. 3 𝑠2 +52

𝑠
d. 5 𝑠2 +32

sin(4𝑡) 4/(𝑠2 +22 ) 8


e. 2 tan(4𝑡) = 2 ⇔2 =
cos(4𝑡) 𝑠/((𝑠2 +22 )) 𝑠

Exercice 15
Déterminer la transformée de Laplace des signaux suivants :

𝑎. 2𝑡 2 (cos(3𝑡)𝑢(𝑡)) 𝑐. 2𝑒 −5𝑡 sin(5𝑡)


𝜋
𝑏. 8𝑒 −3𝑡 cos(4𝑡) 𝑑. (cos(𝑡)𝛿(𝑡 − ))
4
Réponse :

Pour cet exercice on utilise principalement cette relation


𝑑𝑛
𝑡 𝑓(𝑡) ⇔ (−1)𝑛
𝑛
𝐹(𝑠)
𝑑𝑠 𝑛
a.
d2 s d s2 + 32 − s(2s) d −s2 + 9
2(−1)2 2
( 2 2
)=2 [ 2 2 2
]=2 ( 2 )
ds s + 3 ds (s + 3 ) ds (s + 32 )2
(s2 + 32 )2 (−2s) − 2(s2 + 9)(2s)(−s2 + 9)
=2
(s2 + 32 )4
(s2 + 9)2 (−2s) − 4s(−s2 + 9) −2s3 − 18s + 4s3 − 36s
=2 2 3
=2
(s + 9) (s2 + 9)3
3
2s − 54s 2s(s − 27) 4s(s2 − 27)
2
=2 2 3
=2 =
(s + 9) (s2 + 9)3 (s2 + 9)3
b.
2∗5 10
2 2
=
(𝑠 + 5) + 5 (𝑠 + 5)2 + 25

c.
8(𝑠 + 3) 8(𝑠 + 3)
2 2
=
(𝑠 + 3) + 4 (𝑠 + 3)2 + 16

d.
𝜋 √2 𝜋 √2 −(𝜋/4)𝑠
cos(𝑡)|𝑡=𝜋 𝛿 (𝑡 − ) = 𝛿 (𝑡 − ) ⟺ 𝑒
4 4 2 4 2

B. Exercices supplémentaires

Exercice 16
Déterminer la transformée de Laplace des signaux suivants :

𝑎. (2𝑡 2 − 5𝑡 + 4)𝑢(𝑡 − 3) 𝑐. (2𝑡 − 4)𝑒 2(𝑡−2) 𝑢(𝑡 − 3)


𝑏. (𝑡 − 3)𝑒 −2𝑡 𝑢(𝑡 − 2) 𝑑. 4𝑡𝑒 −3𝑡 (cos(2𝑡))𝑢(𝑡)

Exercice 17
Déterminer la transformée de Laplace des signaux suivants :
𝑑 𝑑 2 𝑑 2 −2𝑡
𝑎. (𝑠𝑖𝑛3𝑡) 𝑏. (𝑡 cos(2𝑡)) (𝑡 𝑒 )
𝑑𝑡 𝑑𝑡 𝑑𝑡
𝑡
sin(𝑡) sin(𝜃) sin(𝑎𝑡)
𝑑. 𝑒. ∫ 𝑑𝜃 𝑓.
𝑡 0 𝜃 𝑡

Exercice 18
Déterminer la transformée de Laplace 𝑋(𝑠) avec sa RDC et
représenter la position des pôles et zéros des signaux suivants :

𝑎. 𝑥(𝑡) = 𝑒 −2𝑡 𝑢(𝑡) + 𝑒 −3𝑡 𝑢(𝑡)


𝑏. 𝑥(𝑡) = 𝑒 −3𝑡 𝑢(𝑡) + 𝑒 −2𝑡 𝑢(−𝑡)
𝑐. 𝑥(𝑡) = 𝑒 2𝑡 𝑢(𝑡) + 𝑒 −3𝑡 𝑢(−𝑡)

Exercice 19

Déterminer la transformée inverse de Laplace des fonctions


images suivantes
4 4
𝑎. 𝑐.
𝑠+3 (𝑠 + 3)4
4 3𝑠 + 4
𝑏. 𝑑.
(𝑠 + 3)2 (𝑠 + 3)5

Exercice 20
Déterminer la transformée inverse de Laplace des fonctions
images suivantes
3𝑠 + 4 𝑠 2 + 3𝑠 + 2 𝑠+1
𝑎. 𝑐. 𝑒. 3
𝑠 2 + 4𝑠 + 85 3 2
𝑠 + 5𝑠 + 10.5𝑠 + 9 𝑠 + 6𝑠 2 + 11𝑠 + 6
2
4𝑠 + 5 𝑠 − 16
𝑏. 2 𝑑. 3
𝑠 + 5𝑠 + 18.5 𝑠 + 8𝑠 2 + 24𝑠 + 32

Exercice 21
Déterminer la transformée inverse de Laplace des fonctions
images suivantes
3𝑠 + 2 2𝑠 + 3 3
𝑎. 𝑐. 𝑒. 𝑒 −2𝑠
𝑠 2 + 25 𝑠2 + 4.25𝑠 + 1 (2𝑠 + 3)3
5𝑠 2 + 3 𝑠 3 + 8𝑠 2 + 24𝑠 + 32
𝑏. 𝑑.
(𝑠 2 + 4)2 𝑠 2 + 6𝑠 + 8
Exercice 22
Utiliser le théorème de la valeur initiale du signal dont la
transformée de Laplace est

2𝑠 + 3
𝑠2 + 4.25𝑠 + 1
Exercice 23
Soit une fonction image 𝐹(𝑠) possédant 𝑠 = 0 et l’autre a deux
pôles distincts, un a 𝑠 = −1.

Cette fonction a aussi un seul zéro a 𝑠 = 1, et nous savons


que
lim 𝑓(𝑡) = 10 . Determiner 𝐹(𝑠)𝑒𝑡𝑓(𝑡)
𝑡⟶∞

Exercice 24
Résoudre les équations différentielles suivantes à l’aide de la
Transformée de Laplace :

𝑎. 𝑦 ′′ (𝑡) − 3𝑦 ′ (𝑡) + 2𝑦(𝑡) = 𝑡. cos(𝑡) 𝑦(0) = 𝑦 ′ (0) = 0


′′ (𝑡)
𝑏. 𝑦 + 4𝑦(𝑡) = cos(𝑡) − 5 sin(𝑡) 𝑦(0) = 0 𝑒𝑡 𝑦 ′ (0) = 1
𝑐. 2𝑦 ′ (𝑡) − 𝑦(𝑡) = 𝑡 2 𝑒 𝑡 𝑦(0) = 1

Exercice 25
Déterminer les solutions causales du système différentiel suivant :
𝑑𝑥
= 2𝑥(𝑡) + 𝑦(𝑡) + 𝑒 𝑡 𝑢(𝑡)
𝑑𝑡
𝑑𝑦
= 3𝑥(𝑡) + 4𝑦(𝑡) − 𝑒 𝑡 𝑢(𝑡)
𝑑𝑡
{ 𝑥(0+ ) = 0 𝑦(0+ ) = 4
Chapitre 4
ANALYSE SPECTRALE
DES SIGNAUX PERIODIQUES

L’analyse harmonique ou fréquentielle est l’instrument majeur


de la théorie des signaux et des systèmes. Le développement en
séries de Fourier et, plus généralement, la transformation de
Fourier permettent d’obtenir une représentation spectrale des
signaux déterministes. Celle- ci exprime la répartition de
l’amplitude, de la phase, de l’énergie ou de la puissance des
signaux considérés en fonction de la fréquence.
Ce chapitre et le suivant sont une introduction aux
représentations spectrales des signaux à l’aide des séries de
Fourier et de la transformation de Fourier. Pour plus de détails, on
consultera avantageusement le livre de B.P.Lathy.

I. DEFINITIONS DE BASE

1. Signal périodique
Un signal périodique est un signal qui se répète identiquement
à lui-même au bout d’un certain temps appelé période.
Mathématiquement on montre qu’un signal x est périodique de
période T s’il vérifie la relation :

𝒙(𝒕) = 𝒙(𝒕 + 𝑻)

La période correspond donc au temps au bout duquel le


signal se répète identiquement à lui-même. Elle s’exprime en
seconde (s). Cependant il faut distinguer la période
fondamentale du signal de celles de ses harmoniques.
La période fondamentale est le plus petit temps au bout
duquel le signal se répète identiquement à lui-même, tandis que
les périodes des différents harmoniques du signal sont des
multiples de la période fondamentale. La relation précédente peut
s’écrire :

𝒙(𝒕) = 𝒙(𝒕 + 𝒌𝑻𝟎 )

où 𝑻𝟎 est la période fondamentale et les 𝒌𝑻𝟎 sont les multiples


de 𝑇0 appelés périodes d’harmonique de rang k

La définition d’un signal périodique peut être complétée par


celle de la fréquence. La fréquence d’un signal correspond au
nombre de fois que ce signal se répète sur une période.
Mathématiquement la fréquence est l’inverse de la période : 𝑭 =
𝟏
(𝑯𝒛) .
𝑻
On distingue ici aussi la fréquence fondamentale qui est
l’inverse de la période fondamentale des fréquences
d’harmoniques qui sont ses différents multiples.
𝟏 𝟏
𝑭𝟎 = 𝑻 et 𝑭𝒌 = 𝒌. 𝑻 = 𝒌. 𝑭𝟎
𝟎 𝟎

2. Spectre
On appelle spectre d’un signal, toute représentation de ce
signal en fonction de la fréquence. Ainsi, si nous représentons
l’amplitude du signal en fonction de la fréquence on obtient un
spectre d’amplitude; si c’est la phase on parle de spectre de phase

3. Analyse Spectrale
L’analyse spectrale ou analyse harmonique constitue un
ensemble de méthodes et de techniques qui permettent de mettre
en évidence les caractéristiques essentielles d’un signal dans le
domaine fréquentiel. Il s’agit essentiellement d’outils
mathématiques tels que les séries et transformées de Fourier qui
nous aideront à déterminer des caractéristiques importantes
comme la distribution de l’amplitude, de la phase, de l’énergie
…etc. d’un signal en fonction de la fréquence.

II. OUTILS D’ANALYSE SPECTRALE DES


SIGNAUX

1. Introduction
L'analyse harmonique ou fréquentielle est l'instrument majeur
de la théorie des signaux. Le développement en séries de Fourier
et, plus généralement, la transformation de Fourier permettent
d'obtenir une représentation spectrale des signaux déterministes.
Celle-ci exprime la répartition de l'amplitude, de la phase, de
l'énergie ou de la puissance des signaux considérées en fonction
de la fréquence.

Les calculs et mises en forme des résultats à venir sont


grandement facilites si l'on maitrise et sait utiliser les relations
suivantes :
−𝑩
𝑨𝒄𝒐𝒔(𝜶) + 𝑩𝒔𝒊𝒏(𝜶) = √𝑨𝟐 + 𝑩𝟐 𝒄𝒐𝒔(𝜶 + 𝒂𝒕𝒂𝒏( )
𝑨
𝟏 𝟏 𝟏
∫ (𝒔𝒊𝒏(𝟐𝝅𝒇𝒕 + 𝜶))𝟐 𝒅𝒕 = ∫ 𝒔𝒊𝒏(𝜶)𝟐 𝒅𝒕 =
𝑻 𝟐𝝅 𝟐
𝑻 𝑻
𝟐𝒄𝒐𝒔(𝜶) = 𝒆𝒋𝜶 + 𝒆−𝒋𝜶
𝒆𝒋𝜶 = 𝒄𝒐𝒔(𝜶) + 𝒋𝒔𝒊𝒏(𝜶) ↔ {
𝟐𝒋𝒔𝒊𝒏(𝜶) = 𝒆𝒋𝜶 − 𝒆−𝒋𝜶
2. Deux représentations pour un même signal
Le temps et la fréquence sont deux bases servant à la
description des signaux. Ce sont deux points de vue différents
d'une même réalité ; ils sont complémentaires. Il est important de
bien comprendre les relations qui existent entre ces deux bases ;
c’est le but de ce chapitre.

Une grandeur sinusoïdale est décrite par l'équation

𝒙(𝒕) = 𝑨𝒄𝒐𝒔(𝟐𝝅𝒇𝟎 𝒕 + 𝜶)

Son évolution temporelle est contenue dans le mot cos ; dès


lors, on sait que le signal x(t) ondule avec une forme précise fixée
par la fonction cosinus. Cependant, des informations
supplémentaires sont données : l'amplitude A, la phase et la
fréquence𝒇𝟎 . Ce sont ces informations qui sont fournies par la
représentation fréquentielle ou spectrale du signal 𝒙(𝒕).

Comme le temps et la fréquence sont les deux composantes


de la description d'un même signal, une sinusoïde devrait être
représentée dans un espace à trois dimensions (fig. 1.1). Une telle
représentation étant mal pratique, on la remplace par ses
projections sur les plans temporel et fréquentiel.

Dans la projection sur l'axe du temps, on retrouve le dessin bien


connu d'une sinusoïde, alors que la projection sur l'axe des
fréquences conduit à une raie située en 𝒇 = 𝒇𝟎 et de hauteur𝑨.
Comme cette projection ne fournit que l’amplitude𝑨, il est
nécessaire, pour la fréquence considérée, de donner également la
phase. Ces deux diagrammes portent le nom de spectres
d'amplitudes et de phases.

Considérons un signal composé de deux sinusoïdes


𝝅 𝟏 𝝅
𝒙(𝒕) = 𝑨𝒄𝒐𝒔 (𝟐𝝅𝒇𝟎 𝒕 − ) + 𝑨𝒄𝒐𝒔 (𝟒𝝅𝒇𝟎 𝒕 − )
𝟐 𝟐 𝟒
La figure 1.2a illustre le comportement temporel de ce signal et de
ses deux composantes. La figure 1.2b montre ce qui se passe
alors dans l'espace des fréquences. On notera que la somme des
deux sinusoïdes dans l'espace-temps conduit également à la
somme des spectres d'amplitudes et de phases.
3. Séries de Fourier (outil d’analyse
mathématique)
a. Définition

On appelle série de Fourier, toute série de fonctions définie par:


2𝜋
𝑢𝑛 (𝑡) = 𝑎𝑛 cos(𝑛𝜔𝑡) + 𝑏𝑛 sin(𝑛𝜔𝑡) 𝑎𝑣𝑒𝑐 𝑛 ∈ ℕ 𝑒𝑡 𝜔 =
𝑇
En tout point 𝑡 ou la série converge on note 𝑆(𝑡) sa somme :
+∞

𝑆(𝑡) = ∑[𝑎𝑛 cos(𝑛𝜔𝑡) + 𝑏𝑛 sin(𝑛𝜔𝑡)]


𝑛=0
+∞

= 𝑎0 + ∑[𝑎𝑛 cos(𝑛𝜔𝑡) + 𝑏𝑛 sin(𝑛𝜔𝑡)]


𝑛=1

Remarque : si la fonction S(t) existe alors elle est nécessairement


2𝜋- périodique.
Les séries de Fourier permettent donc de passer du domaine
temporel au domaine fréquentiel, et on utilise principalement les
séries de Fourier dans le cas des signaux périodiques, cependant
il est inexact de dire que les séries de Fourier ne peuvent être
utilisées qu’en présence de signaux périodiques.

b. Existence
Un signal est développable en série de Fourier ssi il satisfait les
conditions de Dirichlet.

Théorème de Dirichlet :
On dit qu’un signal T-périodique 𝑥(𝑡) satisfait les conditions de
Dirichlet si :

 Sur [𝑎; 𝑎 + 𝑇](𝑎 ∈ ℝ), x(t) est continu, dérivable et admet


un signal dérivé 𝑥′(𝑡), continu, sauf éventuellement en un
nombre fini de de points 𝑡
 En chacun des points 𝑡𝑖 de discontinuité
- Si 𝑡𝑖 ∈ ]𝑎; 𝑎 + 𝑇[, les signaux 𝑥(𝑡) 𝑒𝑡 𝑥′(𝑡) admettent
des limites réelles à gauche et à droite aux points 𝑡𝑖
- Si 𝑡𝑖 = 𝑎 (𝑟𝑒𝑠𝑝. 𝑡𝑖 = 𝑎 + 𝑇), les signaux 𝑥(𝑡) 𝑒𝑡 𝑥′(𝑡)
admettent des limites réelles à gauche (resp. à droite)
aux points 𝑡𝑖

Remarque :
 [𝑎; 𝑎 + 𝑇] désigne un intervalle ferme de longueur T.
Si 𝑇 = 2𝜋, on peut choisir pour [𝑎; 𝑎 + 𝑇], les
intervalles :[0; 2𝜋] 𝑜𝑢 [−𝜋; 𝜋] 𝑜𝑢 [−2𝜋; 0] …

 Si la restriction de 𝑥(𝑡) mentionnée ci-dessus sur


l’intervalle [𝑎; 𝑎 + 𝑇] est deux fois dérivable alors elle
satisfait les conditions de Dirichlet.
 Pour plus de simplicité il suffit de montrer que 𝑥(𝑡) est au
moins de classe C2

c. Unicité (théorème de Jordan-Dirichlet)


Si 𝑥(𝑡) satisfait les conditions de Dirichlet
i/ alors la série de Fourier de 𝑥(𝑡) converge pour tout réel 𝑡
ii/ si 𝑥(𝑡) est continu en 𝑡0 on a :
+∞

𝑆𝑥 (𝑡0 ) = 𝑎0 + ∑ 𝑎𝑛 𝑐𝑜𝑠(𝑛𝜔𝑡0 ) + 𝑏𝑛 𝑠𝑖𝑛(𝑛𝜔𝑡0 ) = 𝑥(𝑡0 )


𝑛=1
iii/ si 𝑥(𝑡) n’est pas continu en 𝑡0 on a :
+∞
1
𝑆𝑥 (𝑡0 ) = 𝑎0 + ∑ 𝑎𝑛 𝑐𝑜𝑠(𝑛𝜔𝑡0 ) + 𝑏𝑛 𝑠𝑖𝑛(𝑛𝜔𝑡0 ) = [𝑥(𝑡0− ) + 𝑥(𝑡0+ )]
2
𝑛=1
Conséquence :
Si un une série de Fourier converge, elle converge vers un signal
unique et, pour un signal donné, satisfaisant les conditions de
Dirichlet, il existe une série de Fourier unique. Ce qui fait que le
développement en série de Fourier devient une opération bijective.

4. Analyseur de spectre (instrument électronique


d’analyse)
Un analyseur de spectre est un appareil de mesure, qui
représente un signal en fonction de sa fréquence. Alors qu’un
oscilloscope représente l’amplitude d’un signal en fonction du
temps, l’analyseur de spectre représente l’amplitude d’un signal en
fonction de sa fréquence.
La CIE nous fournit un signal à 50 Hz, si on observe l’évolution de
la tension en fonction du temps sur un oscilloscope nous
observerions le signal suivant

Si on représente dans le domaine fréquentiel (mesure sous


l’analyseur de spectre), nous observerions le signal suivant :
Il s’agit d’un signal à 50 Hz, c'est-à-dire un signal dont la seule
amplitude non nulle est à 50 Hz.
Sur la figure suivante, nous observerons la trace temporelle et
fréquence d’un signal composée de trois sinusoïdes :
Dans le cas précédent, le signal à 200 Hz est appelée la
fondamentale, les fréquences à 400 Hz et 600 Hz sont les
harmoniques. La fréquence des harmoniques est toujours un
multiple de la fréquence du fondamentale.
Ainsi, l’analyseur de spectre représente l’amplitude et
chaque fréquence existante dans le signal à mesurer. Le signal
étudié est donc constitué d’une somme de signaux sinusoïdaux
dont l’amplitude et les fréquences sont déterminées par l’analyseur
de spectre.
Les représentations spectrale et temporelle donne les
mêmes informations. La représentation spectrale représente un
signal en fonction de la fréquence (analyseur de spectre) alors que
la représentation temporelle représente le même signal en fonction
du temps (oscilloscope). La représentation spectrale donne
l’amplitude de toutes les fréquences présentes dans le signal
temporel, on peut ainsi écrire le signal temporel comme une
sommation de signaux sinusoïdaux

5. Matlab, Scilab (outils logiciels d’analyse)


Matlab et Scilab sont des logiciels de calculs scientifiques
très utilisés en analyse spectrale pour le calcul des spectres et
autres caractéristiques des signaux et systèmes. Matlab est
aujourd’hui un logiciel incontournable en traitement du signal, mais
compte tenu de son cout élevé, il est encore difficile d’acquisition
pour nos pays dits en voie de développement. Scilab quand à lui
est un logiciel libre qui ne contient pas malheureusement autant de
bibliothèques et fonctionnalités que Matlab en tout cas pour le
moment. Mais si nous nous y mettons tous on pourrait atteindre et
même dépasser les performances de Matlab.

Nous proposons dans d’autres publications, des manuels de prise


en main et de manipulations approfondies de ces logiciels.
III. DIFFERENTES FORMES DE SERIES DE
FOURIER

1. Séries de Fourier Trigonométrique ou à


coefficients réels
L'élément fondamental de l'analyse de Fourier est constitué
par le fait qu'un signal périodique peut être décomposé en une
somme d'ondes sinusoïdales. Une illustration de la construction
d'un signal périodique non-sinusoïdal est donnée à la figure 1.3 :
Le signal résultant est la somme de trois sinusoïdes dont la
fréquence est chaque fois un multiple de la fondamentale 𝒇𝟎 .
1
Considérons un signal périodique x(t) de période 𝑇 = 𝑓 . Son
0
développement en série de Fourier est alors le suivant
+∞ +∞

𝒙(𝒕) = 𝒂𝟎 + ∑ 𝒂𝒌 𝐜𝐨𝐬(𝟐𝒌𝝅𝒇𝟎 𝒕) + ∑ 𝒃𝒌 𝒔𝒊𝒏(𝟐𝒌𝝅𝒇𝟎 𝒕) (𝑰)


𝒌=𝟏 𝒌=𝟏

𝟏
Ou 𝒇𝟎 = est la fréquence fondamentale du signal, 𝒂𝟎 est la
𝑻
valeur moyenne ou composante continue (DC) du signal et
𝒂𝒌 , 𝒃𝒌 sont les coefficients de Fourier du développement en
cosinus et sinus.

Les coefficients de Fourier 𝒂𝒌 et 𝒃𝒌 se calculent comme suit


𝑻
𝟐
𝟏
𝒂𝟎 = ∫ 𝒙(𝒕)𝒅𝒕
𝑻
𝑻

𝟐
𝑻
𝟐 +𝟐
𝒂𝒌 = ∫ 𝒙(𝒕)𝒄𝒐𝒔(𝟐𝒌𝝅𝒇𝟎 𝒕)𝒅𝒕 𝒌≥𝟏
𝑻 −𝑻
𝟐
𝑻
+
𝟐 𝟐
𝒃𝒌 = ∫ 𝒙(𝒕)𝒔𝒊𝒏(𝟐𝒌𝝅𝒇𝟎 𝒕)𝒅𝒕 𝒌≥𝟏
𝑻 −𝑻
𝟐
N.B. : Cette représentation qui sert de point de départ au
développement en séries de Fourier n'a aucun intérêt en
traitement du signal ; elle est remplacée par la série en cosinus et
la série complexe.
c. Evaluation des coefficients 𝒂𝒌 𝒆𝒕 𝒃𝒌

L’évaluation des coefficients 𝒂𝒌 𝒆𝒕 𝒃𝒌n’est pas une tâche difficile


parce que sinus et cosinus sont des fonctions orthogonales et
l’intégrale de leur produit, appelé aussi produit scalaire, calculée
sur un intervalle de longueur 2𝜋 est nulle.

Considérons les fonctions sin(𝑚𝑡) etcos(𝑚𝑡) ou m et n sont des


entiers. Alors,
2𝜋

∫ sin(𝑚𝑡) 𝑑𝑡 = 0
0
2𝜋

∫ cos(𝑚𝑡) 𝑑𝑡 = 0
0
2𝜋

∫ sin(𝑚𝑡) cos(𝑛𝑡)𝑑𝑡 = 0
0

 Pour les deux premières intégrales, le résultat est évident en


utilisant le théorème des aires, qui dit que : pour une fonction
donnée et sur un intervalle donné si la somme des aires
positives est opposée à celle des aires négatives alors l’aire
de e signal calculée sur cet intervalle est nulle.
 Pour la troisième, le résultat est aussi nul si nous remarquons
que cette intégrale n’est rien d’autre que le produit scalaire
des signaux sinus et cosinus qui sont des fonctions
orthogonales sur l’intervalle de longueur2𝜋. On peut aussi le
démontrer en utilisant la formule de Simpson
1
sin(𝑥) . cos(𝑦) = [𝑠𝑖𝑛(𝑥 + 𝑦) + sin(𝑥 − 𝑦)]
2
On constate qu’on a encore des fonctions sinusoïdales dont
l’intégrale sur un intervalle de longueur 2𝜋 est nulle.
Cela peut s’observer sur la figure 1.4 suivante, ou on voit que sur
une période du signal produit (aire hachurée)
sin(𝑥) . cos(𝑦)

L’aire positive est opposée à l’aire négative.

Fig.1.4

De plus, si m et n sont des entiers, alors


2𝜋
∫0 sin(𝑚𝑡) sin(𝑛𝑡)𝑑𝑡 = 0 car

1
sin(𝑥) . sin(𝑦) = [𝑐𝑜𝑠(𝑥 + 𝑦) − 𝑐𝑜𝑠(𝑥 − 𝑦)]
2
Le résultat de cette intégrale peut être confirmé
graphiquement sur la figure 1.5 suivante, ou m=2 et n=3.

Fig 1.5
De même, si m et n sont des entiers, alors
2𝜋
∫0 cos(𝑚𝑡) cos(𝑛𝑡)𝑑𝑡 = 0 car

1
cos(𝑥) . cos(𝑦) = [𝑐𝑜𝑠(𝑥 + 𝑦) + cos(𝑥 − 𝑦)]
2
Le résultat de cette intégrale peut être confirmé graphiquement sur
la figure 1.6 suivante, ou m=2 et n=3.

Fig.1.6

Cependant, si dans les intégrales


2𝜋 2𝜋
∫0 sin(𝑚𝑡) sin(𝑛𝑡)𝑑𝑡 = 0 et ∫0 cos(𝑚𝑡) cos(𝑛𝑡)𝑑𝑡 = 0 on a 𝑚 =
𝑛, alors
2𝜋 2𝜋
∫0 (sin(𝑚𝑡))2 𝑑𝑡 = 𝜋 et ∫0 (cos(𝑚𝑡))2 𝑑𝑡 = 𝜋
Fig .1.7

Pour évaluer les coefficients, disons le coefficient 𝑎0 , intégrons les


deux membres de l’équation (I) sur un intervalle de longueur 2𝜋 .
2𝜋 2𝜋 +∞ 2𝜋 +∞ 2𝜋

∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝑎0 𝑑𝑡 + ∑ ∫ 𝑎𝑘 cos(2𝑘𝜋𝑓0 𝑡) 𝑑𝑡 + ∑ ∫ 𝑏𝑘 𝑠𝑖𝑛(2𝑘𝜋𝑓0 𝑡)𝑑𝑡


0 0 ⏟
𝑘=1 0 ⏟
𝑘=1 0
=0 =0
2𝜋

∫ 𝑥(𝑡)𝑑𝑡 = 2𝜋. 𝑎0
0
2𝜋
1
𝑎0 = ∫ 𝑥(𝑡)𝑑𝑡
2𝜋
0

Ce résultat peut être généralisé à tout signal périodique de période


T par :
𝑻
𝟏
𝒂𝟎 = ∫ 𝒙(𝒕)𝒅𝒕
𝑻
𝟎

Déterminons maintenant les coefficients 𝑎𝑘 en multipliant les deux


membres de l’équation (I) par cos(2𝑛𝜋𝑡) puis en intégrant sur un
intervalle de longueur 2𝜋 .
2𝜋 2𝜋

∫ 𝑥(𝑡) cos(𝑛2𝜋𝑡) 𝑑𝑡 = ∫ 𝑎0 cos(2𝑛𝜋𝑡) 𝑑𝑡 +


0 ⏟
0
=0
+∞ 2𝜋 +∞ 2𝜋

∑ 𝑎𝑘 ∫ cos(2𝑘𝜋𝑓0 𝑡) cos(2𝑛𝜋𝑡)𝑑𝑡 + ∑ 𝑏𝑘 ∫ 𝑠𝑖𝑛(2𝑘𝜋𝑓0 𝑡)cos(2𝑛𝜋𝑡)𝑑𝑡


𝑘=1 0 𝑘=1 ⏟
0
=0

Ici la première somme n’aura de sens (sera non nulle) que si 𝑘 =


𝑛. Ce qui nous donne
+∞ 2𝜋 2𝜋

∑ 𝑎𝑘 ∫ cos(2𝑘𝜋𝑓0 𝑡) cos(2𝑛𝜋𝑡)𝑑𝑡 = 𝑎𝑛 ∫ cos(2𝑘𝜋𝑓0 𝑡)2 𝑑𝑡 = 𝜋. 𝑎𝑛


𝑘=1 0 0

Pour finir on obtient


2𝜋

𝜋. 𝑎𝑛 = ∫ 𝑥(𝑡) cos(𝑛2𝜋𝑡) 𝑑𝑡
0
2𝜋 2𝜋
1 2
𝑎𝑛 = ∫ 𝑥(𝑡) cos(𝑛2𝜋𝑡) 𝑑𝑡 = ∫ 𝑥(𝑡) cos(𝑛2𝜋𝑡) 𝑑𝑡
𝜋 2𝜋
0 0

On peut aussi généraliser ce résultat à toute période T

𝟐𝝅
𝟐
𝒂𝒏 = ∫ 𝒙(𝒕) 𝐜𝐨𝐬(𝒏𝟐𝝅𝒕) 𝒅𝒕
𝑻
𝟎

En faisant de même pour les coefficients 𝑏𝑘 on obtient

𝟐𝝅
𝟐
𝒃𝒏 = ∫ 𝒙(𝒕) 𝐬𝐢𝐧(𝒏𝟐𝝅𝒕) 𝒅𝒕
𝑻
𝟎
d. Symétrie dans la Série de Fourier trigonométrique

A part quelques exceptions, la plupart des signaux utilisés en


science et en ingénierie, ne possèdent pas tous, tous les termes
en cosinus et en sinus ou de valeur moyenne en même temps.
Certains signaux possèdent des termes en cosinus seulement
tandis que d’autres ne possèdent que les termes en sinus. Et
d’autres ont ou pas de valeur moyenne. Heureusement, il est
possible de prédire quels termes seront présents dans la forme
trigonométrique des Séries de Fourier, en observant si la forme
d’onde du signal possède ou pas ce type de symétrie.
Avant cela, nous rappelons ici à titre indicatif la définition de
signaux pairs et impairs :
 Un signal 𝑥(𝑡) est pair si sur son ensemble de définition, on
a 𝑥(−𝑡) = 𝑥(𝑡)
 Un signal x(t) est impair si sur son ensemble de définition, on
a −𝑥(−𝑡) = 𝑥(𝑡)
 Un signal T-périodique, a une symétrie demi-onde si
𝑇
−𝑥 (𝑡 + 2) = 𝑥(𝑡)

Nous parlerons de trois types de symétrie que l’on peut utiliser


pour faciliter le calcul des séries de Fourier trigonométriques. Ce
sont :
 Symétrie impaire : si un signal est de symétrie impaire,
c'est-à-dire si le signal est impair, sa série de Fourier sera
constituée seulement de termes en sinus. En d’autres
termes, si x(t) est impair, tous ses coefficients 𝑎𝑛 y compris
𝑎0 sont nuls.
 Symétrie paire : si un signal est de symétrie paire, c'est-à-
dire si le signal est pair, sa série de Fourier sera constituée
seulement de termes en cosinus. En d’autres termes, si x(t)
est pair, tous ses coefficients 𝑏𝑛 sont nuls et 𝑎0 peut être
nuls ou pas.
 Symétrie demi-onde : si un signal a une symétrie demi-
onde (que nous définirons de suite), seules sont présentes
les harmoniques de rang impaire (en cosinus et sinus)
dans sa série de Fourier trigonométrique. En d’autres
termes, tous les coefficients d’harmoniques de rang pairs
(en cosinus et sinus) seront nuls.

Pour comprendre la parité on peut utiliser le fait que le


produit de deux signaux impairs ou de deux signaux pairs est un
signal pair, tandis que le produit d’un signal pair avec un signal
impair est un signal impair. La somme ou la différence d’un signal
pair et d’un signal impair est signal qui n’est ni pair ni impair.

2. Série de Fourier en cosinus


L’écriture des séries de Fourier sous forme trigonométrique
suivante :
+∞ +∞

𝑥(𝑡) = 𝑎0 + ∑ 𝑎𝑘 cos(𝑘𝜔𝑡) + ∑ 𝑏𝑘 𝑠𝑖𝑛(𝑘𝜔𝑡)


𝑘=1 𝑘=1
Présente en fait peu d’intérêt en physique, en effet si le signal 𝑥(𝑡)
subit une simple translation suivant l’axe des temps alors les
coefficients 𝑎𝑛 𝑒𝑡 𝑏𝑛 sont modifiés. En effet, le signal 𝑥(𝑡) est
décalé de 𝜃, alors la série de Fourier s’écrit :
+∞

𝑥(𝑡 − 𝜃) = 𝑎0 + ∑[𝑎𝑛 cos(𝑛𝜔(𝑡 − 𝜃)) + 𝑏𝑛 sin(𝑛𝜔(𝑡 − 𝜃))]


𝑛=1

Et après développement on obtient :


+∞

𝑥(𝑡 − 𝜃) = 𝑎0 + ∑[𝑎𝑛 cos(𝑛𝜔(𝑡 − 𝜃)) + 𝑏𝑛 sin(𝑛𝜔(𝑡 − 𝜃))]


𝑛=1
+∞

𝑥(𝑡 − 𝜃) = 𝑎0 + ∑[𝑎′𝑛 cos(𝑛𝜔𝑡) + 𝑏′𝑛 sin(𝑛𝜔𝑡)]


𝑛=1

𝑎′𝑛 = 𝑎𝑛 cos(𝑛𝜔𝜃) − 𝑏𝑛 sin(𝑛𝜔𝜃)


𝑎𝑣𝑒𝑐
𝑏′𝑛 = 𝑏𝑛 cos(𝑛𝜔𝜃) − 𝑎𝑛 sin(𝑛𝜔𝜃)

On constate donc que les coefficients 𝑎𝑛 𝑒𝑡 𝑏𝑛 ne sont pas


invariants dans le temps.
En conséquence, on cherche une nouvelle écriture des séries de
Fourier dans laquelle la puissance est conservée après une
translation temporelle.

Cette nouvelle expression s’obtient en prenant en compte la


relation trigonométrique suivante
−𝐵
𝐴𝑐𝑜𝑠(𝑡) + 𝐵𝑠𝑖𝑛(𝑡) = √𝐴2 + 𝐵2 𝑐𝑜𝑠(𝑡 + 𝑎𝑡𝑎𝑛( )
𝐴

on voit que le développement en série de Fourier peut également


s'écrire
+∞

𝒙(𝒕) = 𝑨𝟎 + ∑ 𝑨𝒌 𝐜𝐨𝐬(𝒏𝝎𝒕 + 𝝋𝒏 )
𝒏=𝟏

−𝒃
Avec𝑨𝟎 = 𝒂𝟎 et 𝑨𝒏 = √𝒂𝟐𝒏 + 𝒃𝟐𝒏 𝝋𝒏 = 𝒂𝒓𝒄𝒕𝒂𝒏 ( 𝒂 𝒏 )
𝒏

Sous cette forme, 𝑥(𝑡) apparait comme la somme :

 D’un terme constant 𝑎0 qui représente la valeur moyenne de


𝑥(𝑡) sur une période
 Et d’une infinité de signaux sinusoïdaux de pulsions
𝜔, 2𝜔, … , 𝑛𝜔 et d’amplitudes 𝐴1 , 𝐴2 , … , 𝐴𝑛 et de phases
𝜑1 , 𝜑2 , … , 𝜑𝑛 qui sont les harmoniques de rang n.

La représentation en bâtons des valeurs de 𝐴𝑛 en fonction de 𝑛𝜔


(donc en fonction de la fréquence) est appelée spectre
d’amplitude du signal 𝒙(𝒕)

La représentation en bâtons des valeurs de 𝜑𝑛 en fonction de 𝑛𝜔


(donc en fonction de la fréquence) est appelée spectre de phase
du signal 𝒙(𝒕)

Cette série en cosinus est extrêmement importante car elle


correspond à la description bien connue des signaux en régime
sinusoïdal permanent où l'on représente un courant ou une
tension par leur amplitude et leur phase. D'un point de vue
pratique, cela revient à considérer que le signal 𝑥(𝑡) est créé de
manière équivalente par une infinité de générateurs sinusoïdaux.
La représentation spectrale qui lui est associée porte le nom de
spectre unilatéral.

Une illustration en est donnée à la figure 1.4. On y voit une onde


périodique en dents de scie qui peut être reconstruite par une
superposition d'ondes sinusoïdales. Cette superposition peut être
présentée dans l'espace-temps ou, de manière équivalente et plus
explicite, dans l'espace des fréquences.
3. Série de Fourier complexe
Se souvenant des relations d'Euler :
1
𝑐𝑜𝑠(𝑛𝜔𝑡) = (𝑒 𝑗𝑛𝜔𝑡 + 𝑒 −𝑗𝑛𝜔𝑡 )
2
1 𝑗𝑛𝜔𝑡
𝑠𝑖𝑛(𝑛𝜔𝑡) = (𝑒 − 𝑒 −𝑗𝑛𝜔𝑡 )
2𝑗

on montre aisément que la série de Fourier peut être transformée


en une série de Fourier complexe.

+∞

𝑥(𝑡) = 𝑎0 + ∑ 𝑎𝑛 cos(𝑛𝜔𝑡) + 𝑏𝑛 sin(𝑛𝜔𝑡)


𝑛=
+∞
(𝑒 𝑗𝑛𝜔𝑡 + 𝑒 −𝑗𝑛𝜔𝑡 ) (𝑒 𝑗𝑛𝜔𝑡 − 𝑒 −𝑗𝑛𝜔𝑡 )
𝑥(𝑡) = 𝑎0 + ∑ 𝑎𝑛 ( ) + 𝑏𝑛 ( )
2 2𝑗
𝑛=
+∞
𝑎𝑛 − 𝑗𝑏𝑛 𝑗𝑛𝜔𝑡 𝑎𝑛 + 𝑗𝑏𝑛 −𝑗𝑛𝜔𝑡
= 𝑎0 + ∑ ( )𝑒 +( )𝑒
2 2
𝑛=
+∞ +∞
𝑗𝑛𝜔𝑡 −𝑗𝑛𝜔𝑡
= 𝑎0 + ∑ 𝑐𝑛 𝑒 + ̅̅̅𝑒
𝑐𝑛 = ∑ 𝑐𝑛 𝑒 𝑗𝑛𝜔𝑡
𝑛= 𝑛=−∞
1 1
𝑐0 = 𝑎0 𝑐𝑛 = (𝑎𝑛 − 𝑗𝑏𝑛 )𝑐−𝑛 = ̅̅̅
𝑐𝑛 = (𝑎𝑛 + 𝑗𝑏𝑛 ) ⟺ 𝑎𝑛
2 2
= 𝑐𝑛 + 𝑐−𝑛 𝑒𝑡 𝑏𝑛 = 𝑗(𝑐𝑛 − 𝑐−𝑛 )

𝑒𝑡 𝑎𝑛 = 2𝑅𝑒(𝑐𝑛 ) 𝑒𝑡 𝑏𝑛 = −2𝐼𝑚(𝑐𝑛 )de plus :

𝑎+𝑇 𝑎+𝑇
1 1 2 2
𝑐𝑛 = (𝑎𝑛 − 𝑗𝑏𝑛 ) = [ ∫ 𝑥(𝑡)cos(𝑛𝜔𝑡)𝑑𝑡 − 𝑗 ∫ 𝑥(𝑡)sin(𝑛𝜔𝑡)𝑑𝑡]
2 2 𝑇 𝑇
𝑎 𝑎
𝑎+𝑇
1
= ∫ 𝑥(𝑡)𝑒 −𝑗𝑛𝜔𝑡 𝑑𝑡
𝑇
𝑎
pour chacun des calculs analogues concernant un signal T-
périodique quelconque on obtient :
𝑎+𝑇
1
𝑐𝑛 = ∫ 𝑥(𝑡)𝑒 −𝑗𝑛𝜔𝑡 𝑑𝑡
𝑇
𝑎
+∞

𝑥(𝑡) = ∑ 𝑐𝑛 𝑒 𝑗𝑛𝜔𝑡
𝑛=−∞

La représentation spectrale graphique qui lui est associée


porte le nom de spectre bilatéral. Pour la suite du cours, on
retiendra essentiellement cette description car elle est
analytiquement plus intéressante que la forme en cosinus.
On remarquera au passage que la formule d'Euler remplace les
fonctions sinus et cosinus par des exponentielles à exposant
imaginaire appelées phaseurs. Ces phaseurs ne sont rien d'autres
que des fonctions complexes oscillant cosinusoïdalement sur l'axe
réel et sinusoïdalement sur l'axe imaginaire.

4. Théorème de la Puissance ou de Parseval


Dans l'espace-temps, la définition de la puissance
moyenne normalisée est la suivante
𝑻
𝟏 +𝟐
𝑷 = ∫ 𝒙(𝒕)𝟐 𝒅𝒕 = 𝑿𝟐𝒆𝒇𝒇
𝑻 −𝑻
𝟐

On notera que cette définition coïncide avec celle du carrée de la


valeur efficace du signal x(t). La puissance normalisée ne
s'exprime donc pas en [W], mais en [𝑉 2 ] ou [𝐴2 ] selon que le
signal est une tension ou un courant électrique.

Le théorème de Parseval montre que la puissance normalisée


d'un signal peut se calculer aussi bien dans le domaine temporel
que dans le domaine fréquentiel. En e et, comme dans l'espace
des fréquences, le signal x(t) est représenté par des générateurs
d’amplitude 𝐴𝑘 , il s'ensuit que la puissance totale est égale à la
somme des puissances fournies par chaque générateur. On en
déduit alors :

+∞
𝟏
𝑷= 𝑿𝟐𝒆𝒇𝒇 = ∑ 𝑷𝒌 = 𝑨𝟐𝟎 + ∑ 𝑨𝟐𝒌 = 𝑷𝒅𝒄 + 𝑷𝒂𝒄
𝟐
𝒌=𝟏
+∞ +∞
𝟏
= 𝑿(𝟎) + ∑ 𝟐|𝑿(𝒋𝒌)|𝟐 = ∑ |𝑿(𝒋𝒌)|𝟐
𝟐
𝟐
𝒌=𝟏 𝒌=−∞
De ces résultats, on conclut que la puissance peut se calculer
avec l'une ou l'autre de ces équations et que le carrée de la valeur
efficace d'un signal est égal à la somme des carrées des valeurs
efficaces de chacune de ses composantes.

A ce stade, il est intéressant de rappeler ce que valent les


puissances des trois signaux usuels que sont le carrée, le sinus et
le triangle à valeur moyenne nulle (𝑃𝑑𝑐 = 0) et d'amplitude A :

𝑨𝟐
𝒙(𝒕) = 𝑨𝒔𝒒𝒓(𝟐𝝅𝒇𝒕) → 𝑷𝒂𝒄 =
𝟏
𝑨𝟐
𝒙(𝒕) = 𝑨𝒔𝒊𝒏(𝟐𝝅𝒇𝒕) → 𝑷𝒂𝒄 =
𝟐
𝑨𝟐
𝒙(𝒕) = 𝑨𝒕𝒓𝒊(𝟐𝝅𝒇𝒕) → 𝑷𝒂𝒄 =
𝟑
6. Exemples de calcul de séries de Fourier de
formes d’ondes usuelles

a. Série de Fourier d’une forme d’onde carrée

Pour la forme d’onde carrée de la figure suivante, la série


de Fourier trigonométrique est constituée uniquement de termes
en sinus, parce que comme on l’a vu plus haut cette forme d’onde
est impaire. De plus il n’y aura que des harmoniques de rangs
impairs car l’onde présente en plus une symétrie demi-onde.
Cependant nous calculerons ici tous les coefficients pour vérifier
cela.

Les coefficients 𝑎𝑛 sont obtenus comme suit :

1 2𝜋 1 𝜋 2𝜋
𝑎𝑛 = ∫ 𝑓(𝑡)𝑑𝑡 = [∫ 𝐴𝑐𝑜𝑠(𝑛𝑡)𝑑𝑡 + ∫ (−𝐴) cos(𝑛𝑡) 𝑑𝑡]
𝜋 0 𝜋 0 𝜋
𝐴
= (sin(𝑛𝑡)|𝜋0 − sin(𝑛𝑡)|2𝜋
𝜋 )
𝑛𝜋
𝐴
= (sin(𝑛𝜋) − 0 − sin(2𝑛𝜋) + sin(𝑛𝜋)) = 0
𝑛𝜋
Tous les coefficients 𝑎𝑛 sont tous nuls comme prévu avec le fait
que la fonction est impaire. Pour le terme 𝑎0 , on va utiliser son
expression
𝜋 2𝜋
1 1
𝑎0 = [∫ 𝐴𝑑𝑡 + ∫ (−𝐴)𝑑𝑡] = (𝜋 − 0 − 2𝜋 + 𝜋) = 0
2𝜋 2𝜋
0 𝜋

Les coefficients 𝑏𝑛 sont obtenus par :

1 2𝜋 1 𝜋 2𝜋
𝑏𝑛 = ∫ 𝑓(𝑡)𝑑𝑡 = [∫ 𝐴𝑠𝑖𝑛(𝑛𝑡)𝑑𝑡 + ∫ (−𝐴) sin(nt) 𝑑𝑡]
𝜋 0 𝜋 0 𝜋
𝐴 𝜋
= (− cos(𝑛𝑡)|0 + cos(𝑛𝑡)|2𝜋
𝜋 )
𝑛𝜋
𝐴
= (−cos(𝑛𝜋) + 1 + cos(2𝑛𝜋) − cos(𝑛𝜋))
𝑛𝜋
𝐴 2𝐴
= (2 − 2 cos(𝑛𝜋)) = (1 − cos(𝑛𝜋))
𝑛𝜋 𝑛𝜋
Or en utilisant la formule de Moivre et Euler on sait que :
𝑛
𝑗𝜋 𝑛
(𝑒 ) = (cos(𝜋)
⏟ + 𝑗 𝑠𝑖𝑛(𝜋)
⏟ ) 𝑠𝑜𝑖𝑡 𝑒 𝑗𝑛𝜋 = cos(𝑛𝜋) = (−1)𝑛
=−1 =0

2𝐴
𝑏𝑛 = (1 − (−1)𝑛 )
𝑛𝜋
Pour les 𝑛 pair c-à-dire 𝑛 = 2𝑘

𝑏2𝑘 = 0

C’est une confirmation du fait que la fonction présente une


symétrie demi-onde

Pour les 𝑛 pair c-à-dire 𝑛 = 2𝑘 + 1


4𝐴
𝑏2𝑘+1 =
(2𝑘 + 1)𝜋

Ce qui nous donne la série de Fourier d’une onde carrée


+∞
4𝐴 1
𝑓(𝑡) = ∑ sin((2𝑘 + 1)𝑡)
𝜋 2𝑘 + 1
𝑘=0

On a vu plus haut que, si le signal présente une symétrie demi-


onde, et est pair ou impair, on peut calculer les coefficients non
nuls le quart de période et multiplier le résultat par 4. Cette
propriété est vérifiée avec la procédure suivante.

Lorsque le signal est impair et présente une symétrie demi-onde,


sa série de Fourier contiendra uniquement les coefficients𝑏𝑛 , alors
𝜋⁄
2
1 4𝐴 𝜋⁄
𝑏𝑛 = 4. ∫ 𝑓(𝑡) sin(𝑛𝜔𝑡) 𝑑𝑡 = (−cos(𝑛𝑡)|0 2 )
𝜋 𝑛𝜋
0
4𝐴 𝜋
= (− cos (𝑛 ) + 1)
𝑛𝜋 2
Pour les 𝑛 impairs on a :
4𝐴 4𝐴
𝑏2𝑘+1 = (−0 + 1) =
(2𝑘 + 1)𝜋 (2𝑘 + 1)𝜋

Maintenant, considérons le signal suivant qui est une version


𝜋
décalée du précèdent. Nous l’avons décalé de et rendu ainsi pair
2
𝜋
soit 𝑔(𝑡) = 𝑓(𝑡 + 2
). Cependant le signal a toujours une symétrie
demi-onde. La série de Fourier associée ne sera constituée de
termes en cosinus.
Comme le signal est pair et présente une symétrie demi-onde, il
suffit d’intégrer sur le quart de période et de multiplier le résultat
par 4. Les coefficients 𝑎𝑛 sont déterminés avec
𝜋⁄
2
1 4𝐴 𝜋⁄ 4𝐴 𝜋
𝑎𝑛 = 4. ∫ 𝑔(𝑡) cos(𝑛𝜔𝑡) 𝑑𝑡 = (sin(𝑛𝑡)|0 2 ) = (sin (𝑛 ))
𝜋 𝑛𝜋 𝑛𝜋 2
0

On observe que pour les 𝑛 𝑝𝑎𝑖𝑟𝑠 c’est-a-dire 𝑛 = 2𝑘 on a

𝑎2𝑘 = 0

Pour les 𝑛 impairs c’est-a-dire 𝑛 = 2𝑘 + 1 on a :


4𝐴 𝑛−1
𝑎2𝑘+1 = (−1) 2
(2𝑘 + 1)𝜋

Alors, la série de Fourier trigonométrique de ce signal pair à


symétrie demi-onde est :
+∞ 𝑛−1
4𝐴 (−1) 2
𝑔(𝑡) = ∑ cos((2𝑘 + 1)𝑡)
𝜋 2𝑘 + 1
𝑘=0

Cette série de Fourier peut être aussi obtenue comme suit :

En considérant le décalage temporel de 𝜋⁄2 ces deux formes


d’onde nous permet d’écrire à partir de :
+∞
4𝐴 1 4𝐴 1 1
𝑓(𝑡) = ∑ sin((2𝑘 + 1)𝑡) = (sin(𝜔𝑡) + sin(3𝜔𝑡) + sin(3𝜔𝑡) + ⋯ )
𝜋 2𝑘 + 1 𝜋 3 3
𝑘=0

𝜋
Et en remplaçant 𝜔𝑡 par 𝜔𝑡 + . Avec cette substitution, on obtient
2
𝜋
𝑔(𝑡) = 𝑓(𝑡 + ) comme suit :
2

𝜋 4𝐴 𝜋 1 𝜋 1 𝜋
𝑔(𝑡) = 𝑓 (𝑡 + ) = (sin (𝜔𝑡 + ) + sin (3𝜔𝑡 + ) + sin (5𝜔𝑡 + )
2 𝜋 2 3 2 5 2
+ ⋯)

Et en utilisant les identités sin (𝑡 + 𝜋2) = cos(𝑡) 𝑒𝑡 sin(𝑡 + 3𝜋⁄2) = −cos(𝑡)


et ainsi de suite, nous écrivons donc
4𝐴 1 1
𝑔(𝑡) = [cos(𝜔𝑡) + cos(3𝜔𝑡) + sin(5𝜔𝑡) + ⋯ ]
𝜋 3 5
+∞ 𝑛−1
4𝐴 (−1) 2
𝑔(𝑡) = ∑ cos((2𝑘 + 1)𝑡)
𝜋 2𝑘 + 1
𝑘=0

b. Série de Fourier d’une onde en dents de scie

Le signal en dents de scie est impair et sans symétrie demi-onde ;


ainsi il ne contient que des coefficients en sinus qui seront de
rangs pairs et impairs. Ceci indique que nous aurons besoin de
calculer seulement ses coefficients𝑏𝑛 .
En observant le graphe on voit que la valeur moyenne est nulle
et 𝜔 = 1.

Comme le signal est impair il suffit de calculer les coefficients 𝑏𝑛


sur la demi-période et multiplier le résultat par 2. De la table des
intégrales,
1 𝑡
∫ 𝑡. 𝑠𝑖𝑛(𝑎𝑡)𝑑𝑡 = 2
sin(𝑎𝑡) − cos(𝑎𝑡)
𝑎 𝑎
Alors,
𝜋 𝜋
2 𝐴 2𝐴
𝑏𝑛 = ∫ 𝑡𝑠𝑖𝑛(𝑛𝑡)𝑑𝑡 = 2 ∫ 𝑡. sin(𝑛𝑡) 𝑑𝑡
𝜋 𝜋 𝜋
0 0
𝜋
2𝐴 1 𝑡
= 2 ( 2 sin(𝑛𝑡) − cos(𝑛𝑡))|
𝜋 𝑛 𝑛 0

2𝐴 2𝐴
= 2 2
(sin(𝑛𝑡) − 𝑛𝑡 cos(𝑛𝑡))|𝜋0 = 2 2 (sin(𝑛𝜋) − 𝑛𝜋 cos(𝑛𝜋))
𝑛 𝜋 𝑛 𝜋
On sait que sin(𝑛𝜋) = 0 ∀𝑛 ∈ ℤ 𝑒𝑡 cos(𝑛𝜋) = (−1)𝑛
2𝐴
𝑏𝑛 = − (−1)𝑛
𝑛𝜋
On a donc la série de Fourier correspondante
+∞
2𝐴 (−1)𝑛
𝑓(𝑡) = − ∑ sin(𝑛𝑡)
𝜋 𝑛
𝑛=1

c. Série de Fourier d’une onde triangulaire

Ce signal triangulaire est impair avec une symétrie demi onde ;


alors, la série de Fourier trigonométrique contient des termes en
sinus uniquement de rangs impairs. Nous allons calculer
uniquement les coefficients 𝑏𝑛 .

Nous allons intégrer sur la demi-période et multiplier le résultat par


4. Comme on l’a fait plus haut on utilise
1 𝑡
∫ 𝑡. 𝑠𝑖𝑛(𝑎𝑡)𝑑𝑡 = 2
sin(𝑎𝑡) − cos(𝑎𝑡)
𝑎 𝑎
Et on a :
𝜋/2 𝜋/2
𝜋/2
4 2𝐴 8𝐴 8𝐴 1 𝑡
𝑏𝑛 = ∫ 𝑡𝑠𝑖𝑛(𝑛𝑡)𝑑𝑡 = 2 ∫ 𝑡. sin(𝑛𝑡) 𝑑𝑡 = 2 ( 2 sin(𝑛𝑡) − cos(𝑛𝑡))|
𝜋 𝜋 𝜋 𝜋 𝑛 𝑛 0
0 0

8𝐴 8𝐴 𝜋 𝜋 𝜋
= 2 2
(sin(𝑛𝑡) − 𝑛𝑡 cos(𝑛𝑡))|𝜋/2
0 = 2 2 (sin (𝑛 ) − 𝑛 cos (𝑛 ))
𝑛 𝜋 𝑛 𝜋 2 2 2
On s’intéresse ici simplement aux entiers impairs, ce qui donne
+∞ (2𝑘+1)−1
8𝐴 (−1) 2
𝑓(𝑡) = 2 ∑ sin[(2𝑘 + 1)𝑡]
𝜋 𝑛2
𝑘=0
IV. SPECTRES D’AMPLITUDES ET DE
PHASES

1. Spectres unilatéraux et bilatéraux


 La description de x(t) avec les fonctions cosinusoïdales
conduit aux spectres unilatéraux d'amplitudes et de phases
(𝑨𝒌 𝒆𝒕 𝜶𝒌 ) du signal x(t). Ici, les fréquences sont positives
ou nulles car le compteur k des harmoniques varie de 0 à
+∞ (figure 1.6).
 La description de x(t) avec les fonctions complexes conduit
aux spectres bilatéraux d'amplitudes et de
phases (|𝑋(𝑗𝑘)| 𝑒𝑡 𝛼𝑘 ). Ici, les fréquences sont négatives
et positives car le compteur k varie de −∞ à + ∞.

Dans le cas des spectres bilatéraux, on notera que les spectres


d'amplitudes sont toujours des fonctions paires car on a :
𝑨𝒌
|𝑿(𝒋𝒌)| = |𝑿(−𝒋𝒌)| = , 𝒌 ≠ 𝟎alors que les spectres de phases
𝟐
sont des fonctions impaires on a en effet 𝜶𝒌 = −𝜶−𝒌 , 𝒌 ≠ 𝟎

Pour le cas particulier de la composante continue on a : |𝑿(𝟎)| =


𝑨𝟎 ; 𝜶𝟎 = 𝟎 𝒐𝒖 𝝅

2. Coefficients spectraux et symétries des


signaux
Si l'on tient compte des symétries du signal, le calcul des
séries de Fourier est simplifié. On démontre en effet aisément les
propriétés suivantes :

 une fonction paire est représentée par des cosinus


seulement ; on a alors :
𝜶𝒌 = 𝟎, ±𝝅 𝒆𝒕 𝑰𝒎{𝑿(𝒋𝒌)} = 𝟎 (1.27)

 une fonction impaire est représentée par des sinus


seulement ; on a alors
𝝅
𝜶𝒌 = ± 𝟐 𝒆𝒕 𝑹𝒆{𝑿(𝒋𝒌)} = 𝟎(1.28)

 une fonction à symétrie demi-onde ne possède pas


d'harmoniques pairs :

𝑿 (𝒋𝒌) = 𝟎; si k est pair (1.29)

Les fonctions à symétrie demi-onde sont telles qu'une rotation


autour de l'abscisse de l'alternance positive ou négative permet de
reproduire l'autre alternance (figure 1.7).
3. Exemple de représentation spectrale d’un
signal
Considérant le signal
𝜋
𝑥(𝑡) = 3 + 2 cos(2𝜋𝑓0 𝑡) − 3.464 sin(2𝜋𝑓0 𝑡) + 2sin(6𝜋𝑓0 𝑡 + )
4
on souhaite le décrire dans les représentations spectrales uni- et
bilatérales. La simple observation de l'expression de x(t) montre
que ce signal est constitué d'une composante DC et de deux
composantes AC d'ordre 1 et 3. Utilisant les règles de
trigonométrie, on obtient la forme en cosinus :
𝝅
𝒙(𝒕) = 𝟑 + 𝟐 𝐜𝐨𝐬(𝟐𝝅𝒇𝟎 𝒕) − 𝟑. 𝟒𝟔𝟒 𝐬𝐢𝐧(𝟐𝝅𝒇𝟎 𝒕) + 𝟐𝐬𝐢 𝐧 (𝟔𝝅𝒇𝟎 𝒕 + )
𝟒
−(−𝟑. 𝟒𝟔𝟒)
= 𝟑 + √𝟐𝟐 + (−𝟑. 𝟒𝟔𝟒)𝟐 𝐜𝐨𝐬 (𝟐𝝅𝒇𝟎 𝒕 + 𝒂𝒓𝒄𝒕𝒂𝒏 ( ))
𝟐
𝝅 𝝅
+𝟐𝐜𝐨𝐬(𝟔𝝅𝒇𝟎 𝒕 + − )
𝟒 𝟐
𝝅 𝝅
= 𝟑 + 𝟒 𝐜𝐨𝐬 (𝟐𝝅. 𝟏. 𝒇𝟎 𝒕 + ) + 𝟐𝐜𝐨 𝐬 (𝟐𝝅. 𝟑. 𝒇𝟎 𝒕 − )
𝟑 𝟒
= 𝑨𝟎 + 𝑨𝟏 𝒄𝒐𝒔(𝟐𝝅𝒇𝟎 𝒕 + 𝜶𝟏 ) + 𝑨𝟑 𝒄𝒐𝒔(𝟔𝝅𝒇𝟎 𝒕 + 𝜶𝟑 )

Cette expression est la forme mathématique de la représentation


spectrale unilatérale de laquelle on déduit immédiatement les
composantes spectrales unilatérales

𝐴0 ⋁ 𝛼0 = 3 ⋁ 0
𝜋
𝐴1 ⋁ 𝛼1 = 4 ⋁
3
𝜋
𝐴3 ⋁ 𝛼3 = 2 ⋁ −
4
Appliquant les règles d'Euler à l'expression en cosinus, on obtient
la forme complexe :
𝝅 𝝅 𝝅 𝝅
𝒋(𝟐𝝅𝒇𝟎 𝒕+ ) −𝒋(𝟐𝝅𝒇𝟎 𝒕+ ) 𝒋(𝟐𝝅.𝟑.𝒇𝟎 𝒕− ) −𝒋(𝟐𝝅.𝟑.𝒇𝟎 𝒕− )
𝒙(𝒕) = 𝟑 + 𝟐𝒆 𝟑 + 𝟐𝒆 𝟑 + 𝟏𝒆 𝟒 + 𝟏𝒆 𝟒
𝝅 𝝅 𝝅 𝝅
= 𝟑 + 𝟐𝒆𝒋𝟑 𝒆𝒋(𝟐𝝅𝒇𝟎𝒕) + 𝟐𝒆−𝒋𝟑 𝒆−𝒋(𝟐𝝅𝒇𝟎 𝒕) + 𝟏𝒆−𝒋𝟒 𝒆𝒋(𝟐𝝅.𝟑.𝒇𝟎 𝒕) + 𝟏𝒆𝒋 𝟒 𝒆−𝒋(𝟐𝝅.𝟑.𝒇𝟎 𝒕)
= 𝑿(𝟎) + 𝑿(𝒋𝟏)𝒆𝒋(𝟐𝝅𝒇𝟎 𝒕) + 𝑿(−𝒋𝟏)𝒆−𝒋(𝟐𝝅𝒇𝟎𝒕) + 𝑿(𝒋𝟑)𝒆𝒋(𝟔𝝅𝒇𝟎𝒕) + 𝑿(−𝒋𝟑)𝒆−𝒋(𝟔𝝅𝒇𝟎 𝒕)

Cette expression est la forme mathématique de la représentation


spectrale bilatérale de laquelle on tire immédiatement les
composantes spectrales bilatérales

𝑋(0) = 3 = 3 ⋁ 0
𝝅 𝜋
𝑋(±𝑗1) = 2𝒆±𝒋 𝟑 = 2 ⋁ ±
3
𝝅 𝜋
𝑋(∓𝑗3) = 1𝒆∓𝒋 𝟒 = 1⋁∓
4
De la lecture de ces descriptions découle immédiatement le tracé
des spectres d'amplitudes et de phases dans les deux
représentations spectrales (figure 1.8). On notera que, pour 𝑘 ≠ 0,
les amplitudes du spectre bilatéral sont 2 fois plus petites que
celles du spectre unilatéral. Les puissances et valeurs efficaces
associées à ce signal se calculent aisément à partir du spectre
unilatéral. Afin de pouvoir préciser les unités, on admet que le
signal x(t) est une tension électrique ; on a alors :

2
1 1
𝑃𝑑𝑐 = 𝐴20 = 32 = 9 𝑉𝑑𝑐 𝑃𝑎𝑐 = ∑ 𝐴2𝑘 = (42 + 22 ) = 10 𝑉𝑎𝑐
2
2 2
𝑘≥1
2
𝑃 = 𝑃𝑑𝑐 + 𝑃𝑎𝑐 = 19 𝑉𝑒𝑓𝑓 𝑋𝑒𝑓𝑓 = √𝑃 = √19 = 4.36 𝑉𝑒𝑓𝑓
𝑋𝑑𝑐 = 𝐴0 = 3 𝑉𝑑𝑐 𝑋𝑎𝑐 = √𝑃𝑎𝑐 = √10 = 3.16 𝑉𝑎𝑐
V. QUELQUES THEOREMES UTILES

1. Décalage temporel
Il est fréquent en analyse des signaux de devoir décaler
temporellement un signal x(t) ; on obtient alors un nouveau
signal 𝑦(𝑡) = 𝑥(𝑡 + 𝑡𝑑). Ce décalage td peut être positif (signal
avance) ou négatif (signal retardé) (fig. 1.16). On montre alors
qu'entre les espaces temps et fréquences, il existe la relation
suivante :
Comme le module du phaseur 𝒆𝒋𝟐𝝅𝒌𝒇𝟎𝒕𝒅 vaut toujours un, il
s'ensuit que seul le spectre de phases est modifié par un décalage
temporel. On a donc :

|𝒀(𝒋𝒌)| = |𝑿(𝒋𝒌)|, 𝜷𝒌 = 𝜶𝒌 + 𝟐𝝅𝒌𝒇𝟎 𝒕𝒅

A un décalage temporel correspond une phase variant


linéairement avec la fréquence.

2. Modulation d’amplitude
Il est fréquent en télécommunications de devoir émettre
des signaux dont le spectre a été préalablement déplacé dans un
domaine de fréquences permettant la transmission des messages
par ondes électromagnétiques. Une des possibilités consiste à
moduler l'amplitude de la porteuse p(t) à l'aide du message m(t).

La modulation d'amplitude est généralement obtenue par la


multiplication des deux signaux entre eux (figure 1.17)

𝒙(𝒕) = 𝒎(𝒕). 𝒑(𝒕)


Dans le cas particulier où la porteuse p(t) est une fonction
sinusoïdale, on peut la remplacer par deux phaseurs de fréquence
±𝒇𝒑 grâce aux formules d'Euler

𝟏 𝒋𝟐𝝅𝒇 𝒕
𝒄𝒐𝒔(𝟐𝝅𝒇𝒑 𝒕) = (𝒆 𝒑 + 𝒆−𝒋𝟐𝝅𝒇𝒑 𝒕 )
𝟐
On a donc a affaire, de manière plus fondamentale, à une
multiplication du message m(t) par un phaseur:
𝒙(𝒕) = 𝒎(𝒕). 𝒑(𝒕) = 𝒎(𝒕). 𝒆±𝒋𝟐𝝅𝒇𝒑 𝒕

On montre alors aisément la propriété suivante :

𝒙(𝒕) = 𝒎(𝒕). 𝒑(𝒕) = 𝒎(𝒕). 𝒆±𝒋𝟐𝝅𝒇𝒑𝒕 → 𝑿(𝒋𝒌) = 𝑴 (𝒋(𝒌𝒇𝟎 ± 𝒇𝒑 ))


A une multiplication par un phaseur dans le domaine
temporel correspond un décalage dans l'espace des
fréquences.

La figure 1.17 illustre la modulation d'amplitude d'une porteuse de


fréquence 10kHz par un signal triangulaire de fréquence 1kHz. Au
niveau fréquentiel, on voit très bien que le spectre original situé
autour de la fréquence nulle est déplacé autour des fréquences de
la porteuse ±10𝑘𝐻𝑧 avec une amplitude réduite de moitié. On
notera que le signal modulé x(t) n'est périodique que si le rapport
des fréquences 𝑓𝑝 = 𝑓0 est rationnel.

VI. EXERCICES
A. Exercices résolus
Exercice 1

Déterminer la SF complexe des signaux suivants


𝜋
(𝑎) 𝑥(𝑡) = cos(𝜔0 𝑡) (𝑏) 𝑥(𝑡) = sin(𝜔0 𝑡) (𝑐) 𝑥(𝑡) = cos(2𝑡 + )
4
(𝑑) 𝑥(𝑡) = cos(4𝑡) + sin(6𝑡) (𝑒) 𝑥(𝑡) = 𝑠𝑖𝑛2 (𝑡)

Réponse :

(a) Utilisons la définition des SF complexes pour évaluer les


coefficients 𝑐𝑘 avec la formule d’Euler, on a

1 1 1
cos(𝜔0 𝑡) = (𝑒 𝑗𝜔0 𝑡 + 𝑒 −𝑗𝜔0 𝑡 ) = 𝑒 𝑗𝜔0 𝑡 + 𝑒 −𝑗𝜔0 𝑡 = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡
2 2 2
𝑘=−∞

Ainsi, les coefficients de Fourier complexes de cos(𝜔0 𝑡) sont


1 1
𝑐1 = 𝑐−1 = 𝑐 = 0, |𝑘| ≠ 1
2 2 𝑘
(b) De façon similaire on a
1 1 1
sin(𝜔0 𝑡) = (𝑒 𝑗𝜔0 𝑡 −𝑒 −𝑗𝜔0 𝑡 ) = 𝑒 𝑗𝜔0 𝑡 + 𝑒 −𝑗𝜔0 𝑡
2𝑗 2𝑗 2𝑗

= ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡
𝑘=−∞
Ainsi, les coefficients de Fourier complexes de sin(𝜔0 𝑡)
sont
1 1
𝑐1 = 𝑐−1 = − 𝑐 = 0, |𝑘| ≠ 1
2𝑗 2𝑗 𝑘
(c) La fréquence angulaire fondamentale 𝜔0 de 𝑥(𝑡) est 2.
Ainsi,

∞ ∞
𝜋
𝑥(𝑡) = 𝑐𝑜𝑠 (2𝑡 + ) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡 = ∑ 𝑐𝑘 𝑒 𝑗2𝑘𝑡
4
𝑘=−∞ 𝑘=−∞

En utilisant la formule d’Euler,


𝜋 1 𝜋 𝜋
𝑥(𝑡) = 𝑐𝑜𝑠 (2𝑡 + ) = (𝑒 𝑗(2𝑡+ ⁄4)𝑡 + 𝑒 −𝑗(2𝑡+ ⁄4)𝑡 )
4 2

1 −𝑗𝜋⁄ −𝑗2𝑡 1 𝑗𝜋⁄ 𝑗2𝑡
= 𝑒 4 𝑒 + 𝑒 4 𝑒 = ∑ 𝑐𝑘 𝑒 𝑗2𝑘𝑡
2 2
𝑘=−∞

𝜋
Ainsi, les coefficients de Fourier complexe de 𝑐𝑜𝑠 (2𝑡 + 4 ) sont

1 𝜋 1 1 + 𝑗 √2
𝑐1 = 𝑒 𝑗 4 = = (1 + 𝑗)
2 2 √2 4
1 𝜋 1 1 − 𝑗 √2
𝑐−1 = 𝑒 −𝑗 4 = = (1 − 𝑗)
2 2 √2 4
𝑐𝑘 = 0 |𝑘| ≠ 1
2𝜋
(d) La période fondamentale 𝑇0 de 𝑥(𝑡) est 𝜋 et 𝜔0 = 𝑇0
=2
Ainsi,
+∞ +∞
𝑗𝑘𝜔0 𝑡
𝑥(𝑡) = cos(4𝑡) + sin(6𝑡) = ∑ 𝑐𝑘 𝑒 = ∑ 𝑐𝑘 𝑒 𝑗𝑘2𝑡
𝑘=−∞ 𝑘=−∞

En utilisant encore la formule d’Euler, on a


1 1
𝑥(𝑡) = cos(4𝑡) + sin(6𝑡) = (𝑒 𝑗4𝑡 + 𝑒 −𝑗4𝑡 ) + (𝑒 𝑗6𝑡 + 𝑒 −𝑗6𝑡 )
2 2𝑗
+∞
1 1 1 1
= − 𝑒 −𝑗6𝑡 + 𝑒 −𝑗4𝑡 + 𝑒 𝑗4𝑡 + 𝑒 𝑗6𝑡 = ∑ 𝑐𝑘 𝑒 𝑗𝑘2𝑡
2𝑗 2 2 2𝑗
𝑘=−∞

Ainsi, les coefficients de Fourier complexes de cos(4𝑡) + sin(6𝑡)


sont :
1 1 1 1
𝑐−3 = − 𝑐−4 = 𝑐4 = 𝑐6 =
2𝑗 2 2 2𝑗

𝑒𝑡 𝑐𝑘 = 0 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑠 𝑙𝑒𝑠 𝑎𝑢𝑡𝑟𝑒𝑠 𝑘


2𝜋
(e) La période fondamentale 𝑇0 de 𝑥(𝑡) est 𝜋 et 𝜔0 = 𝑇0
=2

Ainsi,
2
2 (𝑡)
𝑒 𝑗𝑡 − 𝑒 −𝑗𝑡 1
𝑥(𝑡) = 𝑠𝑖𝑛 =( ) = − (𝑒 𝑗2𝑡 − 2 + 𝑒 −𝑗2𝑡 )
2 4
+∞
1 1 1
= − 𝑒 −2𝑗𝑡 + − 𝑒 2𝑗𝑡 = ∑ 𝑐𝑘 𝑒 𝑗𝑘2𝑡
4 2 4
𝑘=−∞

Ainsi, les coefficients de Fourier complexes sont :


1 1 1
𝑐−1 = − 𝑐0 = 𝑐1 = −
4 2 2
𝑒𝑡 𝑐𝑘 = 0 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑠 𝑙𝑒𝑠 𝑎𝑢𝑡𝑟𝑒𝑠 𝑘
Exercice 2

Soit le signal carré 𝑥(𝑡) suivant

a. Déterminer la série de Fourier complexe de 𝑥(𝑡)


b. Déterminer la série de Fourier trigonométrique de 𝑥(𝑡)

Réponse :

a. Posons
+∞
2𝜋
𝑥(𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0
𝑘=−∞

Le calcul des coefficients 𝑐𝑘 , on a

1 𝑇0 1 𝑇0 /2
𝑐𝑘 = ∫ 𝑥(𝑡)𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡 = ∫ 𝐴𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡
𝑇0 0 𝑇0 0
𝑇0 /2
𝐴 𝐴
= 𝑒 −𝑗𝑘𝜔0 𝑡 ] = (𝑒 −𝑗𝑘𝜔0 𝑇0 /2 − 1)
−𝑗𝑘𝜔0 𝑇0 0
−𝑗𝑘𝜔 𝑇
0 0
𝐴 𝐴
= (1 − 𝑒 −𝑗𝑘𝜋 ) = [1 − (−1)𝑘 ]
𝑗𝑘2𝜋 𝑗𝑘2𝜋
𝑘
𝑎𝑣𝑒𝑐 𝜔0 𝑇0 = 2𝜋 𝑒𝑡 𝑒 −𝑗𝑘𝜋 = (𝑒 −𝑗𝜋 ) . Ainsi,
𝑐𝑘 = 0 𝑘 = 2𝑚 ≠ 0
𝐴
𝑐𝑘 = 𝑘 = 2𝑚 + 1
𝑗𝑘𝜋
1 𝑇0 1 𝑇0 /2 𝐴
𝑐0 = ∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝐴 𝑑𝑡 =
𝑇0 0 𝑇0 0 2

Ensuite,
𝐴 𝐴
𝑐0 = 𝑐2𝑚 = 0 𝑐2𝑚+1 =
2 𝑗(2𝑚 + 1)𝜋

Et on obtient

𝐴 𝐴 1
𝑥(𝑡) = + ∑ 𝑒 𝑗(2𝑚+1)𝜔0 𝑡
2 𝑗𝜋 2𝑚 + 1
𝑚=−∞

b. Des équations précédentes, on a


𝑎0 𝐴
= 𝑐0 = 𝑎2𝑚 = 𝑏2𝑚 = 0 , 𝑚 ≠ 0
2 2
𝑎2𝑚+1 = 2𝑅𝑒[𝑐2𝑚+1 ] = 0 𝑏2𝑚+1 = −2𝐼𝑚[𝑐2𝑚+1 ]
2𝐴
=
(2𝑚 + 1)𝜋

En remplaçant ces valeurs dans l’expression de 𝑥(𝑡), on obtient



𝐴 2𝐴 1
𝑥(𝑡) = + ∑ sin[(2𝑚 + 1)𝜔0 𝑡]
2 𝜋 2𝑚 + 1
𝑚=0
𝐴 2𝐴 1 1
= + (sin(𝜔0 𝑡) + sin(3𝜔0 𝑡) + sin(5𝜔0 𝑡) + ⋯ )
2 𝜋 3 5
Exercice 3

Considérons le signal carré périodique 𝑥(𝑡) de la figure suivante.

a. Déterminer la série de Fourier exponentiel complexe de


𝑥(𝑡)
b. Déterminer la série de Fourier trigonométrique de 𝑥(𝑡)

a. Soit

2𝜋
𝑥(𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0
𝑘=−∞

Calculons le coefficient complexe

1 𝑇0 /2 1 𝑇0 /4 −𝑗𝑘𝜔 𝑡
𝑐𝑘 = ∫ 𝑥(𝑡)𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡 = ∫ 𝐴𝑒 0 𝑑𝑡
𝑇0 −𝑇0 /2 𝑇0 −𝑇0 /4
𝑇0 /4
𝐴 −𝑗𝑘𝜔0 𝑡
𝐴
= 𝑒 ] = (𝑒 −𝑗𝑘𝜔0 𝑇0 /4 − 𝑒 𝑗𝑘𝜔0 𝑇0 /4 )
−𝑗𝑘𝜔0 𝑇0 −𝑇 /4
−𝑗𝑘𝜔 0 𝑇0
0
𝐴 𝐴 𝑘𝜋
= (𝑒 −𝑗𝑘𝜋/2 − 𝑒 𝑗𝑘𝜋/2 ) = sin ( )
−𝑗𝑘2𝜋 𝑘𝜋 2

Ainsi,
𝑐𝑘 = 0 𝑘 = 2𝑚 ≠ 0
𝐴
𝑐𝑘 = (−1)𝑚 𝑘 = 2𝑚 + 1
𝑘𝜋
1 𝑇0 1 𝑇0 /2 𝐴
𝑐0 = ∫ 𝑥(𝑡)𝑑𝑡 = ∫ 𝐴 𝑑𝑡 =
𝑇0 0 𝑇0 0 2

Ensuite,
𝐴 𝐴
𝑐0 = 𝑐2𝑚 = 0 𝑐2𝑚+1 = (−1)𝑚
2 (2𝑚 + 1)𝜋

Et on obtient

𝐴 𝐴 (−1)𝑚 𝑗(2𝑚+1)𝜔 𝑡
𝑥(𝑡) = + ∑ 𝑒 0
2 𝜋 2𝑚 + 1
𝑚=−∞

b. En utilisant les relations entre les différents coefficients des


formes de SF, on a
𝑎0 𝐴
= 𝑐0 = 𝑎2𝑚 = 2𝑅𝑒[𝑐2𝑚 ] = 0, 𝑚 ≠ 0
2 2
2𝐴
𝑎2𝑚+1 = 2𝑅𝑒[𝑐2𝑚+1 ] = (−1)𝑚 𝑏2𝑚+1
(2𝑚 + 1)𝜋
= −2𝐼𝑚[𝑐2𝑚+1 ] = 0

En remplaçant ces valeurs dans l’expression de 𝑥(𝑡), on obtient



𝐴 2𝐴 (−1)𝑚
𝑥(𝑡) = + ∑ cos[(2𝑚 + 1)𝜔0 𝑡]
2 𝜋 2𝑚 + 1
𝑚=0
𝐴 2𝐴 1 1
= + (cos(𝜔0 𝑡) − cos(3𝜔0 𝑡) + cos(5𝜔0 𝑡) + ⋯ )
2 𝜋 3 5
Notons que 𝑥(𝑡) est pair ; ainsi 𝑥(𝑡) ne contient que la composante
continue et des termes en cosinus. Notons aussi que notre signal
𝑥(𝑡) peut être obtenu par décalage à gauche de 𝑇0 du signal de
l’exercice précédent.

Exercice 4

Considérons le signal 𝑥(𝑡) de la figure suivante

a. Déterminer la série de Fourier exponentiel complexe de


𝑥(𝑡)
b. Déterminer la série de Fourier trigonométrique de 𝑥(𝑡)

Réponse :

Notons qu’on peut exprimer 𝑥(𝑡) par

𝑥(𝑡) = 𝑥1 (𝑡) − 𝐴

Ou 𝑥1 (𝑡) est représenté à la figure suivante


En comparant cette figure à celle de l’exercice 2 on voit que 𝑥1 (𝑡)
est identique sauf que le signal de l’exercice 2 a une amplitude 2A

a. En remplaçant A par 2A dans l’exercice 2.a. on a



2𝐴 1
𝑥1 (𝑡) = 𝐴 + ∑ 𝑒 𝑗(2𝑚+1)𝜔0 𝑡
𝑗𝜋 2𝑚 + 1
𝑚=−∞
Ainsi,

2𝐴 1
𝑥(𝑡) = 𝑥1 (𝑡) − 𝐴 = ∑ 𝑒 𝑗(2𝑚+1)𝜔0 𝑡
𝑗𝜋 2𝑚 + 1
𝑚=−∞
b. De façon similaire, en remplaçant A par 2A dans l’exercice
2.b. on a

4𝐴 1
𝑥1 (𝑡) = 𝐴 + ∑ sin[(2𝑚 + 1)𝜔0 𝑡]
𝜋 2𝑚 + 1
𝑚=0

Ainsi,

4𝐴 1
𝑥(𝑡) = ∑ sin[(2𝑚 + 1)𝜔0 𝑡]
𝜋 2𝑚 + 1
𝑚=0
4𝐴 1 1
= (sin(𝜔0 𝑡) + sin(3𝜔0 𝑡) + sin(5𝜔0 𝑡) + ⋯ )
𝜋 3 5
Notons que 𝑥(𝑡) est impair ; alors, 𝑥(𝑡) ne contient que des termes
en sinus.

Exercice 5

Considérons le peigne de Dirac 𝜓 𝑇0 représenté à la figure suivante


et défini par

𝜓 𝑇0 (𝑡) = ∑ 𝛿(𝑡 − 𝑘𝑇0 )


𝑘=−∞

a. Déterminer la série de Fourier exponentiel complexe de


𝜓 𝑇0 (𝑡)
b. Déterminer la série de Fourier trigonométrique de 𝜓 𝑇0 (𝑡)

Réponse :

a. Soit

2𝜋
𝜓 𝑇0 (𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0
𝑘=−∞

Le calcul des coefficients complexes de 𝜓 𝑇0 (𝑡), on obtient


1 𝑇0 /2 𝑗𝑘𝜔 𝑡 1
𝑐𝑘 = ∫ 𝛿(𝑡)𝑒 −𝑒 0 =
𝑇0 −𝑇0 /2 𝑇0

Ensuite, on a
∞ ∞
1 2𝜋
𝜓 𝑇0 (𝑡) = ∑ 𝛿(𝑡 − 𝑘𝑇0 ) = ∑ 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0 𝑇0
𝑘=−∞ 𝑘=−∞

b. Considérons la SF de 𝜓 𝑇0 (𝑡)
+∞
𝑎0 2𝜋
𝜓 𝑇0 (𝑡) = + ∑(𝑎𝑘 cos(𝑘𝜔0 𝑡) + 𝑏𝑘 sin(𝑘𝜔0 𝑡) 𝜔0 =
2 𝑇0
𝑘=1

Comme 𝜓 𝑇0 (𝑡) est pair, 𝑏𝑘 = 0, et on a

2 𝑇0 /2 2
𝑎𝑘 = ∫ 𝛿(𝑡) cos(𝑘𝜔0 𝑡) 𝑑𝑡 =
𝑇0 −𝑇0 /2 𝑇0

Ainsi, on a
+∞
1 2 2𝜋
𝜓 𝑇0 (𝑡) = + ∑(cos(𝑘𝜔0 𝑡)) 𝜔0 =
𝑇0 𝑇0 𝑇0
𝑘=1

Exercice 6

Considérons l’onde triangulaire 𝑥(𝑡) de la figure a. Et en utilisant la


technique de dérivation, déterminer :

a. Déterminer la série de Fourier exponentiel complexe de


𝑥(𝑡)
b. Déterminer la série de Fourier trigonométrique de 𝑥(𝑡)
Réponse :

La dérivée 𝑥 ′ (𝑡) de l’onde triangulaire 𝑥(𝑡) est l’onde carrée de la


figure.b.

a. Soit

2𝜋
𝑥(𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0
𝑘=−∞
En dérivant cette relation, on obtient

𝑥 ′ (𝑡) = ∑ 𝑗𝑘𝜔0 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡


𝑘=−∞

Cette relation indique que les coefficients complexes de 𝑥′(𝑡) sont


𝑗𝑘𝜔0 𝑐𝑘 . Ainsi, on peut trouver 𝑐𝑘 (𝑘 ≠ 0) si les coefficients de
Fourier de 𝑥′(𝑡) sont connus. Le terme 𝑐0 ne peut pas être
déterminé par la relation précédente et doit être directement
évalué en terme de 𝑥(𝑡) avec l’équation

1 𝑇0 𝐴
𝑐0 = ∫ 𝑥(𝑡)𝑑𝑡 =
𝑇0 0 2

En comparant la figure.b. et la courbe de l’exercice 4, on voit que


𝑥′(𝑡) est identique à celle de l’exercice 4 avec A remplacée par
2𝐴/𝑇0 . En remplaçant dans l’expression de la SF complexe du
signal de l’exercice 4a. 𝐴 par 2𝐴/𝑇0 , on a

′ (𝑡)
4𝐴 1
𝑥 = ∑ 𝑒 𝑗(2𝑚+1)𝜔0 𝑡
𝑗𝜋𝑇0 2𝑚 + 1
𝑚=−∞

En resolvant
∞ ∞
′ (𝑡) 𝑗𝑘𝜔0 𝑡
4𝐴 1
𝑥 = ∑ 𝑗𝑘𝜔0 𝑐𝑘 𝑒 = ∑ 𝑒 𝑗(2𝑚+1)𝜔0 𝑡
𝑗𝜋𝑇0 2𝑚 + 1
𝑘=−∞ 𝑚=−∞

on a
𝑐𝑘 = 0 𝑘 = 2𝑚 ≠ 0
4𝐴 2𝐴
𝑗𝑘𝜔0 𝑐𝑘 = 𝑜𝑢 𝑐𝑘 = − 2 2 𝑘 = 2𝑚 + 1
𝑗𝜋𝑘𝑇0 𝜋 𝑘

En remplaçant ces valeurs dans l’expression de 𝑥(𝑡)



𝐴 2𝐴 1
𝑥(𝑡) = − 2 ∑ 𝑒 𝑗(2𝑚+1)𝜔0 𝑡
2 𝜋 (2𝑚 + 1)2
𝑚=−∞

b. De façon similaire, en dérivant l’expression d’une SF


trigonométrique, on obtient

′ (𝑡)
𝑥 = ∑ 𝑘𝜔0 (𝑏𝑘 cos(𝑘𝜔0 𝑡) − 𝑎𝑘 sin(𝑘𝜔0 𝑡))
𝑘=1

L’équation précédente montre que les coefficients de Fourier en


cosinus de 𝑥′(𝑡) sont 𝑘𝜔0 𝑏𝑘 et que les coefficients en sinus sont
−𝑘𝜔0 𝑎𝑘 . Ensuite,

′ (𝑡)
8𝐴 1
𝑥 = ∑ sin[(2𝑚 + 1)𝜔0 𝑡]
𝜋𝑇0 2𝑚 + 1
𝑚=0

De cette équation on tire


𝑏𝑘 = 0 𝑎𝑘 = 0 𝑘 = 2𝑚 ≠ 0
8𝐴 4𝐴
−𝑘𝜔0 𝑎𝑘 = 𝑜𝑢 𝑎𝑘 = − 2 2 𝑘 = 2𝑚 + 1
𝜋𝑘𝑇0 𝜋 𝑘

On obtient de cela l’expression de la SF trigonométrique



𝐴 4𝐴 1
𝑥(𝑡) = − 2 ∑ cos[(2𝑚 + 1)𝜔0 𝑡]
2 𝜋 (2𝑚 + 1)2
𝑚=0
Exercice 7

Soit l’onde triangulaire 𝑥(𝑡) de la figure a. En utilisant la technique


de dérivation temporelle, déterminer la SF du signal triangulaire
𝑥(𝑡)

Réponse :

Le signal 𝑥(𝑡) de la figure a. a pour dérivée le signal 𝑥 ′ (𝑡) de la


figure.b.

On sait aussi que



′ (𝑡)
𝐴
𝑥 = − + 𝐴 ∑ 𝛿(𝑡 − 𝑘𝑇0 )
𝑇0
𝑘=−∞

En utilisant le résultat de l‘exercice 5, cette équation devient


′ (𝑡)
2𝐴 2𝜋
𝑥 = ∑ cos(𝑘𝜔0 𝑡) 𝜔0 =
𝑇0 𝑇0
𝑘=−∞

En égalisant les deux versions de 𝑥′(𝑡) on obtient


2𝐴 𝐴
𝑎𝑘 = 0, 𝑘 ≠ 0 𝑘𝜔0 𝑏𝑘 = 𝑜𝑢 𝑏𝑘 =
𝑇0 𝑘𝜋

Pour la valeur moyenne on a

𝑎0 1 𝑇0 𝐴
= ∫ 𝑥(𝑡)𝑑𝑡 =
2 𝑇0 0 2

Ainsi, la SF de 𝑥(𝑡) devient



𝐴 𝐴 1 2𝜋
𝑥(𝑡) = + ∑ sin(𝑘𝜔0 𝑡) 𝜔0 =
2 𝜋 𝑘 𝑇0
𝑘=1

Exercice 8

Déterminer et tracer le spectre d’amplitude du train d’impulsion


𝑇0 𝑇0
rectangulaire 𝑥(𝑡) de la figure a. pour (a) 𝑑 = 4
et (b) 𝑑 = 8

Réponse :

Le calcul du coefficient complexe donne


1 𝑇0 𝐴 𝑑
𝑐𝑘 = ∫ 𝑥(𝑡)𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡 = ∫ 𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡
𝑇0 0 𝑇0 0
𝐴 1 𝑑 𝐴 1
= [− ] = (1 − 𝑒 −𝑗𝑘𝜔0 𝑑 )
𝑇0 𝑗𝑘𝜔0 0 𝑇0 𝑗𝑘𝜔0

𝐴
= 𝑒 −𝑗𝑘𝜔0 𝑑/2 (𝑒 𝑗𝑘𝜔0 𝑑/2 − 𝑒 −𝑗𝑘𝜔0 𝑑/2 )
𝑗𝑘𝜔0 𝑇0
𝑘𝜔0 𝑑
𝑑 sin( 2 ) −𝑗𝑘𝜔 𝑑/2
=𝐴 𝑒 0
𝑇0 𝑘𝜔0 𝑑/2
𝑘𝜔0 𝑑
Notons que 𝑐𝑘 = 0 whenever 2
= 𝑚𝜋 ; c'est-à-dire

𝑚2𝜋
𝑛𝜔0 = 𝑚 = 0, ±1, ±2, …
𝑑
𝑇0 𝑘𝜔0 𝑑 𝑘𝜋𝑑
(a) 𝑑 = 4
, 2 = 𝑇0
= 𝑘𝜋/4,

𝑘𝜋
𝐴 sin( 4 )
|𝑐𝑘 | = | |
4 𝑘𝜋/4

Le spectre d’amplitude de ce cas est tracé à la figure (b)


𝑇0 𝑘𝜔0 𝑑 𝑘𝜋𝑑
(b) 𝑑 = 8
, 2 = 𝑇0
= 𝑘𝜋/8
𝑘𝜋
𝐴 sin( 8 )
|𝑐𝑘 | = | |
8 𝑘𝜋/8

Le spectre d’amplitude de ce cas est tracé à la figure (c)

Exercice 9

Si 𝑥1 (𝑡) 𝑒𝑡 𝑥2 (𝑡) sont périodiques de période fondamentale 𝑇0 et


les expressions de leur SF complexe sont
∞ ∞
𝑗𝑘𝜔0 𝑡
2𝜋
𝑥1 (𝑡) = ∑ 𝑑𝑘 𝑒 𝑥2 (𝑡) = ∑ 𝑒𝑘 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0
𝑘=−∞ 𝑘=−∞

Montrer que le signal 𝑥(𝑡) = 𝑥1 (𝑡)𝑥2 (𝑡) est périodique de période


fondamentale 𝑇0 et peut s’exprimer comme suit
∞ ∞
𝑗𝑘𝜔0 𝑡
2𝜋
𝑥(𝑡) = ∑ 𝑐𝑘 𝑒 avec 𝑐𝑘 = ∑ 𝑑𝑚 𝑒𝑘−𝑚 𝜔0 =
𝑇0
𝑘=−∞ 𝑚=−∞

Réponse :

On sait que

𝑥(𝑡 + 𝑇0 ) = 𝑥1 (𝑡 + 𝑇0 )𝑥2 (𝑡 + 𝑇0 ) = 𝑥1 (𝑡)𝑥2 (𝑡) = 𝑥(𝑡)

Ainsi, 𝑥(𝑡) est périodique de période fondamentale 𝑇0 . Soit



2𝜋
𝑥(𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0
𝑘=−∞
Alors

1 𝑇0 /2 1 𝑇0 /2
𝑐𝑘 = ∫ 𝑥(𝑡)𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡 = ∫ 𝑥 (𝑡)𝑥2 (𝑡)𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡
𝑇0 −𝑇0 /2 𝑇0 −𝑇0 /2 1

1 𝑇0 /2
= ∫ ( ∑ 𝑑𝑘 𝑒 𝑗𝑚𝜔0 𝑡 ) 𝑥2 (𝑡)𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡
𝑇0 −𝑇0 /2
𝑚=−∞
∞ 𝑇0 /2 ∞
1
= ∑ 𝑑𝑚 [ ∫ 𝑥(𝑡)𝑒 −𝑗(𝑘−𝑚)𝜔0 𝑡 𝑑𝑡] = ∑ 𝑑𝑚 𝑒𝑘−𝑚
𝑇
⏟ 0 −𝑇0 /2
𝑚=−∞ 𝑚=−∞
𝑒𝑘−𝑚

1 𝑇 /2
Avec 𝑒𝑘 = 𝑇 ∫−𝑇0 /2 𝑥2 (𝑡)𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡
0 0

Exercice 10

Vérifier l’identité de Parseval pour les séries de Fourier, c'est-à-


dire

1
∫ |𝑥(𝑡)|2 𝑑𝑡 = ∑ |𝑐𝑘 |2
𝑇0 𝑇0
𝑘=−∞

Réponse :

Si

𝑥(𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡
𝑘=−∞

Alors
∞ ∗ ∞ ∞

𝑥 ∗ (𝑡)
= ( ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡
) = ∑ 𝑐𝑘∗ 𝑒 −𝑗𝑘𝜔0 𝑡 ∗
= ∑ 𝑐−𝑘 𝑒 𝑗𝑘𝜔0 𝑡
𝑘=−∞ 𝑘=−∞ 𝑘=−∞

Avec * qui indique le complexe conjugué. Cette équation indique


que si les coefficients de Fourier de 𝑥(𝑡) sont 𝑐𝑘 , alors les

coefficients de 𝑥 ∗ (𝑡) sont 𝑐−𝑘 . En posant 𝑥1 (𝑡) = 𝑥(𝑡) 𝑒𝑡 𝑥2 (𝑡) =

𝑥 (𝑡) dans l’exercice précédent, on a

𝑑𝑘 = 𝑐𝑘 𝑒𝑡 𝑒𝑘 = 𝑐−𝑘 𝑜𝑢 (𝑒−𝑘 = 𝑐𝑘∗ ), et on obtient

1 𝑇0 /2
∫ 𝑥(𝑡)𝑥 ∗ (𝑡)𝑑𝑡 = ∑ 𝑐𝑘 𝑐𝑘∗
𝑇0 −𝑇0 /2
𝑘=−∞
𝑇0 /2 ∞
1
∫ |𝑥(𝑡)|2 𝑑𝑡 = ∑ |𝑐𝑘 |2
𝑇0 −𝑇0 /2
𝑘=−∞

B. Exercices supplémentaires

Exercice 11

Soit le signal sinusoïdal redressé 𝑥(𝑡) défini par 𝒙(𝒕) = |𝑨𝒔𝒊𝒏(𝝅𝒕)|


a) Représenter graphiquement 𝑥(𝑡) et déterminer sa période
b) Déterminer la série de Fourier complexe associée a 𝑥(𝑡)
c) Déterminer la série de Fourier trigonométrique associée a
𝑥(𝑡)

Exercice 12

Considérant les 2 signaux suivants pour lesquels 𝑓0 = 1 𝑘𝐻𝑧

𝑥1 (𝑡) = 6 − 2 cos(2𝜋𝑓0 𝑡) + 3sin(2𝜋𝑓0 𝑡)


𝜋
𝑥2 (𝑡) = 4 + 1.8 cos (2𝜋𝑓0 𝑡 + ) + 0.8sin(6𝜋𝑓0 𝑡)
3
a) Dessiner leur spectre d’amplitude et de phase unilatéraux
et bilatéraux ;
b) Ecrire 𝑥1 (𝑡) et 𝑥2 (𝑡) sous forme de série de Fourier
complexe

Exercice 13

Utiliser la formule d’Euler pour montrer que la série de Fourier du


signal suivant

𝜋
𝑥(𝑡) = (1 + 𝑐𝑜𝑠 (2𝜋𝑓0 𝑡 + )) . 𝑐𝑜𝑠(10𝜋𝑓0 𝑡)
6

Est décrite par les harmoniques 4, 5 et 6. Pour ce faire :

a) Remplacer chaque fonction cosinus par deux phaseurs ;


effectuer le produit ;
b) Ecrire 𝑥(𝑡) sous la forme d’une somme de phaseurs ;
c) Que valent les coefficients spectraux non-nuls ?
d) Dessiner les spectres bilatéraux et unilatéraux d’amplitude
et de phase
Exercice 14

Soit le signal T-périodique de période 𝑇 = 20 𝑚𝑠 décrit par son


spectre bilatéral 𝑋(𝑗𝑘) :

Exercice 15

Considérant les spectres unilatéraux d’un signal 𝑥(𝑡)

1. donnez l’expression de x (t) ;

2. dessinez son spectre bilatéral ;


3. calculez sa puissance et sa valeur efficace.

Exercice 16

Considérant les trois signaux 𝑥1 (𝑡), 𝑥2 (𝑡), 𝑥3 (𝑡) de période T = 1


[ms] décrits par leurs spectres respectifs :

1. donnez l’expression temporelle des trois signaux ;

2. écrivez ces expressions à l’aide de cosinus seulement ;

3. dessinez leurs spectres d’amplitude et de phase uni- et


bilatéraux.

4. Calculez la puissance de chacun des trois signaux

Problèmes

Problème 1

On a enregistré le spectre d’un signal impulsionnel dont on


rappelle la forme et la décomposition de Fourier :
L’allure du spectre entre 0 et 40 MHz (échelle 4 MHz/carreau) est
à la figure suivante :
1) Marquer sur ce spectre où se trouvent la valeur moyenne, le
fondamental et les harmoniques 2, 8 et 32.
2) Déterminer graphiquement la fréquence de l’harmonique 32. En
déduire la fréquence fo du signal et sa période T.
3) Donner, en fonction de a, E, n et π l’amplitude de l’harmonique
de rang n de ce signal impulsionnel.
Problème 2

Lors d’une transmission votre laboratoire reçoit le signal composite


suivant dont le spectre est contenu dans le tableau suivant :

F 0 190 380 570 760 950 1140 1330 1520 1710


(kHz)
𝑨𝑭 4 150 100 75 68 50 45 18 7 3
𝝅 𝝅 𝝅 𝝅 −𝝅 −𝝅 −𝝅 𝝅
𝝋𝑭 𝟎
𝟒 𝟒 𝟏𝟎 𝟒 𝟒 𝟏𝟎 𝟏𝟔 𝟖

1. Qu’est-ce qu’un spectre ? Et en quoi consiste une analyse


spectrale ?
2. Dans quelle forme de Série de Fourier est donné le signal
composite ?
3. Tracer les spectres d’amplitude et de phase unilatéraux de ce
signal composite noté x(t).
4. Déterminer l’expression temporelle de x(t).

5. Déduire du théorème de Perceval la puissance totale de ce


signal.

Problème 3
Soit la fonction f périodique de période 2π, définie sur [0; 2π] par :
𝑓(0) = 0
{ 𝑓(𝑥) = 2(𝑥 − 𝜋) ; 𝑥 ∈ ]0; 𝜋]
𝑓(𝑥) = 2(𝑥 + 𝜋) ; 𝑥 ∈ ]𝜋; 2𝜋]
1. Représenter graphiquement f sur l'intervalle [−3𝜋; 3𝜋].
2. Le signal f vérifie-t-il les conditions de Dirichlet? Justifier votre
réponse.
3. Montrer que f est impair.
4. Déterminer la série de Fourier associée à f.
5. Etudier la convergence de la série numérique de terme général :
(−1)𝑝
𝑈𝑝 =
2𝑝 + 1
(−1)𝑝
6. Calculer ∑+∞
𝑝=0 et en utilisant la formule de Perceval
2𝑝+1
1
calculer : ∑+∞
𝑛=1 𝑛2

Problème 4
On considère la fonction numérique f définie sur ℝ, paire,
𝜋 𝜋
périodique de période 𝜋, telle que 𝑓(𝑡) = 2 𝑡 si 𝑡 ∈ [0; 2 ]
1. Tracer la représentation de f sur l’intervalle [−𝜋; 𝜋]
2. Déterminer les coefficients de Fourier réels associés à la
fonction f. On précisera la valeur de 𝑎𝑛 suivant la parité de l’entier
non nul n
3.
 Montrer que la fonction vérifie les conditions de Dirichlet
𝜋2 1
 Soit la série de Fourier : 𝑠(𝑡) = 8
− ∑+∞
𝑝=0 (2𝑝+1) cos(2(2𝑝 +

1)𝑡)
Donner en la justifiant la valeur de 𝑠(𝑡) sur les intervalles
𝜋 𝜋
[0; 2 ] 𝑒𝑡 [ 2 ; 𝜋]
3. Soit les séries numériques convergentes de terme général :
1 1
.𝑈𝑝 = (2𝑝+1)2 𝑒𝑡 𝑉𝑝 = (2𝑝+1)4
 En utilisant le développement en série de Fourier,
déterminer la somme :
+∞
1
𝑆𝑢 = ∑
(2𝑝 + 1)2
𝑝=0
1 𝑎+𝑇 2
 On rappelle la formule de Perceval : ∫
𝑇 𝑎
𝑓 (𝑡)𝑑𝑡 = 𝑎02 +
1 +∞
∑ (𝑎2 + 𝑏𝑛2 )
2 𝑛=0 𝑛
En utilisant cette formule, calculer la somme : 𝑆𝑣 =
1
∑+∞
𝑝=0 (2𝑝+1)4

Problème 5
On considère le signal défini par la fonction périodique f de
période𝑝 = 2𝜋, définie par
𝑒 𝑡 +𝑒 −𝑡
∀𝑡 ∈ [−𝜋; 𝜋] 𝑓(𝑡) = 𝑐ℎ(𝑡) = ,
2
1. Le plan étant muni d’un repère orthonormé (O, I, J) où l’unité
graphique est 2cm, représenter graphiquement f sur l’intervalle
[−2𝜋; 2𝜋]
𝜋
2. Soit 𝐼𝑛 = ∫0 2𝑐ℎ(𝑡)cos(𝑛𝑡)𝑑𝑡
A l’aide d’une double intégration par parties, montrer que :
(−1)𝑛 𝜋
𝐼𝑛 = 2 (𝑒 − 𝑒 −𝜋 )
𝑛 +1
3. La fonction f vérifie-t-elle les conditions de Dirichlet ? Justifier la
réponse
4.
 Calculer les coefficients de Fourier associés à f.
 Ecrire la somme de la série de Fourier associée à f
5. On considère la série de terme général :
(−1)𝑛
𝑈𝑛 = 2 𝑎𝑣𝑒𝑐 𝑛 ∈ ℕ
𝑛 +1
 Etudier la nature de cette série
(−1)𝑛
 Calculer ∑+∞
𝑛=0 𝑛2 +1
Chapitre 5
ANALYSE SPECTRALE
DES SIGNAUX NON PERIODIQUES

Ce chapitre introduit la transformation de Fourier, aussi


connue sous le nom d’intégrale de Fourier. La définition, les
théorèmes, et les propriétés sont présentées et prouvées. La
transformée de Fourier des signaux usuels sera calculée avec des
exemples pour illustrer l’utilisation de cet outil très puissant.

I. DEFINITION DE LA TRANSFORMATION DE
FOURIER
1. Passage de la série a la transformation
de Fourier
Le passage d’un signal périodique à un signal apériodique
peut se faire en considérant que la période T devient de plus en
plus grande pour finalement tendre vers l’infini. On constate alors
1
que les raies spectrales, distantes de 𝑓0 = , se rapprochent pour
𝑇
peu à peu se transformer en spectre continu. Mais en même
temps, l’amplitude de celui-ci diminue pour tendre zéro.

Pour voir plus précisément comment les choses se passent,


considérons une suite d’impulsions rectangulaires dont la période
augmente alors que la largeur reste constante (figure 5.1).

Nous savons qu’un signal périodique x(t) est décrit par :


+∞ +∞
𝑗𝑘𝜔𝑡
𝑥(𝑡) = ∑ 𝑋(𝑗𝑘)𝑒 = ∑ 𝑋(𝑗𝑘)𝑒 𝑗2𝑘𝜋𝑓0 𝑡
𝑘=−∞ 𝑘=−∞
𝑇
2
1
𝑋(𝑗𝑘) = ∫ 𝑥(𝑡)𝑒 −𝑗2𝑘𝜋𝑓0𝑡 . 𝑑𝑡
𝑇
−𝑇
2
Pour éviter le problème de l’annulation de 𝑋(𝑗𝑘) lorsque 𝑇 → ∞, on
considère la fonction
𝑇
2

𝑇. 𝑋(𝑗𝑘) = ∫ 𝑥(𝑡)𝑒 −𝑗2𝑘𝜋𝑓0 𝑡 . 𝑑𝑡


−𝑇
2

Et les correspondances suivantes :


𝑇 → ∞ 𝑓0 → 𝑑𝑓 𝑘. 𝑓0 → 𝑓 𝑇. 𝑋(𝑗𝑘) →→ 𝑋(𝑗𝑓)

Fig. 5.1 – Passage de la série de Fourier à la densité spectrale


A partir de celles-ci, on voit que la série de Fourier discrète
devient une fonction continue. Cette fonction 𝑋 (𝑗𝑓) est une
densité spectrale d’amplitude qui, par définition, est la transformée
de Fourier du signal apériodique 𝑥(𝑡) :
+∞

𝑋(𝑗𝑓) = ∫ 𝑥(𝑡)𝑒 −𝑗2𝜋𝑓𝑡


−∞

La transformée inverse s’obtient en considérant la fonction


périodique pour laquelle la période T tend vers l’infini ; on a alors :
+∞

𝑥(𝑡) = ∑ 𝑋(𝑗𝑘)𝑒 𝑗2𝑘𝜋𝑓0 𝑡


𝑘=−∞
+∞
1
= lim ∑ (𝑇. 𝑋(𝑗𝑘))𝑒 𝑗2𝑘𝜋𝑓0 𝑡
𝑇→∞ 𝑇
𝑘=−∞
+∞

= lim ∑ (𝑇. 𝑋(𝑗𝑘))𝑒 𝑗2𝑘𝜋𝑓0 𝑡 𝑓0


𝑇→∞
𝑘=−∞

Lorsque l’on passe à la limite

𝑇→∞ 𝑇. 𝑋(𝑗𝑘) → 𝑋(𝑗𝑓)𝑓0 → 𝑑𝑓 𝑘. 𝑓0 → 𝑓

on obtient la définition de la transformation inverse de Fourier :


+∞

𝑥(𝑡) = ∫ 𝑋(𝑗𝑓)𝑒 𝑗2𝑘𝜋𝑓0 𝑡 𝑑𝑓


−∞

Il est important de noter que les unités de 𝑋 (𝑗𝑓) ne sont pas les
mêmes que celles du signal original 𝑥(𝑡). Dans le cas où 𝑥(𝑡) est
une tension électrique, sa transformée 𝑋 (𝑗 · 𝑓 ) s’exprime en
V/Hz
2. Définition
Les deux relations que nous venons de démontrer
constituent les transformations de Fourier directe et inverse. On
constate que les descriptions temporelle et spectrale sont
parfaitement symétriques
+∞

Ϝ{𝑥(𝑡)} = 𝑋(𝑗𝑓) = ∫ 𝑥(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡


−∞
+∞

Ϝ−1 {𝑋(𝑠)} = 𝑥(𝑡) = ∫ 𝑋(𝑗𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓


−∞

Ou Ϝ{𝑥(𝑡)} est la transformée de Fourier de la fonction temporelle


x(t), 𝐹 −1 {𝑋(𝑗𝑓)} est la transformée de Fourier inverse.

Si la fonction 𝑥(𝑡) ne possède pas de symétries particulières,


sa densité spectrale d’amplitude 𝑋(𝑗𝑓) est une fonction complexe :

𝑥(𝑡) ← −−→ 𝑋(𝑗𝑓) = 𝑋𝑟 (𝑓) + 𝑗𝑋𝑖 (𝑓)

Les densités spectrales du module et de la phase valent alors :

|𝑋(𝑓)| = √𝑋𝑟2 (𝑓) + 𝑋𝑖2 (𝑓)

𝑋𝑖 (𝑓)
arg(𝑋(𝑓)) = 𝛼(𝑓) = 𝑎𝑟𝑐𝑡𝑎𝑛 ( )
𝑋𝑟 (𝑓)

Le module |𝑋(𝑓)| est appelé spectre d’amplitude et


l’argument arg(𝑋(𝑓)) = 𝛼(𝑓)spectre de phase du signal.

Le spectre d'amplitude est une fonction paire, le spectre de


phase une fonction impaire.
La transformée d'un signal réel pair est une fonction réelle
paire. Celle d'un signal réel impair est une fonction imaginaire
impaire.

La partie réelle de 𝑋(𝑓) s'identifie avec la transformée de la


partie paire du signaI.

La transformée de la partie impaire du signal est égale à la


partie imaginaire de 𝑋(𝑓)multipliée par j.

II. PROPRIETES DE LA TRANSFORMATION


DE FOURIER
L'importance de la transformation de Fourier en théorie du
signal est largement due à certaines de ses propriétés
remarquables. Celles-ci sont présentées en détail ici et résumées,
sous forme de tableaux 5.1.

Les principales sont rappelées ci-après avec démonstrations


tandis que d’autres sont laissées comme exercices. Leur emploi
est largement illustré par la suite.

1. Linéarité
La propriété de linéarité dit que si 𝑓1 (𝑡), 𝑓2 (𝑡), … , 𝑓𝑛 (𝑡) ont
respectivement pour transformée de Fourier

𝐹1 (𝜔), 𝐹2 (𝜔), … , 𝐹𝑛 (𝜔) et si 𝑐1 , 𝑐2 , … , 𝑐𝑛 sont des constantes


arbitraires, alors on a :

𝒄𝟏 . 𝒇𝟏 (𝒕) + 𝒄𝟐 . 𝒇𝟐 (𝒕) + ⋯ + 𝒄𝒏 . 𝒇𝒏 (𝒕)


⟺ 𝒄𝟏 . 𝑭𝟏 (𝝎) + 𝒄𝟐 . 𝑭𝟐 (𝝎) + ⋯ + 𝒄𝒏 . 𝑭𝒏 (𝝎)
Démonstration :
𝐹{𝑐1 . 𝑓1 (𝑡) + 𝑐2 . 𝑓2 (𝑡) + ⋯ + 𝑐𝑛 . 𝑓𝑛 (𝑡)}

= ∫ [𝑐1 . 𝐹1 (𝜔) + 𝑐2 . 𝐹2 (𝜔) + ⋯ + 𝑐𝑛 . 𝐹𝑛 (𝜔)]𝑒 −𝑗𝜔𝑡 𝑑𝑡


𝑡0
∞ ∞ ∞

= 𝑐1 ∫ 𝑓1 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 + 𝑐2 ∫ 𝑓2 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 + ⋯ + 𝑐𝑛 ∫ 𝑓𝑛 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


𝑡0 𝑡0 𝑡0
= 𝑐1 . 𝐹1 (𝜔) + 𝑐2 . 𝐹2 (𝜔) + ⋯ + 𝑐𝑛 . 𝐹𝑛 (𝜔)

Note 1 : il est préférable de multiplier f(t) par u(t) pour forcer


sa causalité.

2. Facteur d’échelle ou dilatation-comprimation


Soit a une constante réelle ; la propriété de dilatation dit
que :
𝟏 𝝎
𝒙(𝒂𝒕) ⟺ 𝑿( )
|𝒂| 𝒂
Démonstration :
Nous devons considérer les deux cas 𝑎 < 0 𝑒𝑡 𝑎 > 0
Pour 𝑎 > 0,

𝐹{𝑥(𝑎𝑡)} = ∫ 𝑥(𝑎𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


0
𝜃
En posant 𝑡 = 𝑎
on obtient :
∞ ∞
𝜃 𝜃 1 𝜔 1 𝜔
−𝑗𝜔( ) −( )𝜃
𝐹{𝑥(𝑎𝑡)} = ∫ 𝑥(𝜃)𝑒 𝑎 𝑑( ) = ∫ 𝑥(𝜃)𝑒 𝑎 𝑑𝜃 = 𝑋 ( )
𝑎 𝑎 𝑎 𝑎
0 0
Pour 𝑎 < 0,

𝐹{𝑥(−𝑎𝑡)} = ∫ 𝑥(−𝑎𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


0
𝜃
En posant 𝑡 = − on obtient :
𝑎
∞ ∞
𝜃 𝜃 1 𝑗𝜔
−𝑗𝜔(− ) −( )𝜃
𝐹{𝑥(−𝑎𝑡)} = ∫ 𝑥(𝜃)𝑒 𝑎 𝑑 (− ) = − ∫ 𝑥(𝜃)𝑒 𝑎 𝑑𝜃
𝑎 𝑎
0 0
1 𝜔
= − 𝑋( )
𝑎 −𝑎

3. Décalage ou translation temporelle


La propriété de translation temporelle dit qu’un décalage
temporel à droite dans le domaine temporel correspond à un
amortissement exponentiel par 𝑒 −𝑎𝑗𝜔 dans le domaine fréquentiel
complexe :

𝒙(𝒕 − 𝒂)𝒖(𝒕 − 𝒂) ⟺ 𝒆−𝒂𝑗𝜔 𝑿(𝑗𝜔)


Démonstration :
𝑎 ∞

𝐹{𝑥(𝑡 − 𝑎)𝑢(𝑡 − 𝑎)} = ∫ 0𝑒 −𝑠𝑡 𝑑𝑡 + ∫ 𝑥(𝑡 − 𝑎)𝑒 −𝑠𝑡 𝑑𝑡


0 𝑎
Posons 𝜃 = 𝑡 − 𝑎 ; alors 𝑡 = 𝜃 + 𝑎 𝑒𝑡 𝑑𝑡 = 𝑑𝜃. Avec cette
substitution on a :
∞ ∞

∫ 𝑥(𝜃)𝑒 −𝑗𝜔(𝜃+𝑎) 𝑑𝜃 = 𝑒 −𝑎𝑠 ∫ 𝑥(𝜃)𝑒 −𝑗𝜔𝜃 𝑑𝜃 = 𝑒 −𝑎𝑗𝜔 𝑋(𝑗𝜔)


0 0

4. Translation fréquentielle
La propriété de décalage fréquentielle dit qu’un
amortissement exponentiel dans le domaine temporel correspond
à une translation dans le domaine fréquentiel.

𝒆−𝒋𝝎𝟎𝒕 𝒙(𝒕) ⟺ 𝑿(𝑗𝜔 + 𝒋𝝎𝟎 )


Démonstration :
∞ ∞

𝐹{𝑒 −𝒋𝝎𝟎𝑡 𝑥(𝑡)} = ∫ 𝑒 −𝒋𝝎𝟎𝑡 𝑥(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 = ∫ 𝑥(𝑡)𝑒 −(𝑗𝜔+𝒋𝝎𝟎)𝑡 𝑑𝑡


0 0
= 𝑋(𝑗𝜔 + 𝒋𝝎𝟎 )

De la propriété de translation temporelle et dilatation que :


1 𝜔 − 𝜔0
𝑒 𝑗𝜔0 𝑡 𝑥(𝑎𝑡) ⇔ 𝑋( )
|𝑎| 𝑎
De cette propriété on peut aussi déterminer la transformée de
Fourier des signaux modules 𝑥(𝑡) cos(𝜔0 𝑡) 𝑒𝑡 𝑥(𝑡)sin(𝜔0 𝑡).

𝒆−𝒋𝝎𝟎𝒕 𝒙(𝒕) ⟺ 𝑿(𝑗𝜔 + 𝒋𝝎𝟎 )


1
On sait que : cos(𝜔0 𝑡) = 2 (𝑒 𝑗𝜔0 𝑡 + 𝑒 −𝑗𝜔0 𝑡 )

On obtient
1
𝑥(𝑡) cos(𝜔0 𝑡) ⟺ (𝑿(𝑗𝜔 − 𝒋𝝎𝟎 ) + 𝑿(𝑗𝜔 + 𝒋𝝎𝟎 ))
2
1
𝑥(𝑡) sin(𝜔0 𝑡) ⟺ (𝑿(𝑗𝜔 − 𝒋𝝎𝟎 ) − 𝑿(𝑗𝜔 + 𝒋𝝎𝟎 ))
2𝑗

5. Dérivation temporelle
Cette propriété indique qu’une dérivation temporelle
correspond à une multiplication par 𝑗𝜔 moins la valeur à l’origine
de x(t).
𝒅𝒏
𝒙(𝒕) ⟺ (𝒋𝝎)𝒏 𝑿(𝝎)
𝒅𝒕𝟐
Démonstration :
+∞ +∞
𝑑𝑛 𝑑𝑛 1 𝑗𝜔𝑡
1 𝑑𝑛 𝑗𝜔𝑡
𝑥(𝑡) = 𝑛 ( ∫ 𝑋(𝜔)𝑒 𝑑𝜔) = ∫ 𝑋(𝜔) 𝑛 𝑒 𝑑𝜔
𝑑𝑡 𝑛 𝑑𝑡 2𝜋 2𝜋 𝑑𝑡
−∞ −∞
+∞ +∞
1 1
= ∫ 𝑋(𝜔)(𝑗𝜔)𝑛 𝑒 𝑗𝜔𝑡 𝑑𝜔 = (𝑗𝜔)𝑛 ( ∫ 𝑋(𝜔)𝑒 𝑗𝜔𝑡 𝑑𝜔)
2𝜋 2𝜋
−∞ −∞

6. Dérivation fréquentielle
Cette propriété dit que la dérivation dans le domaine
fréquentiel complexe correspond à la multiplication par la variable
temporelle 𝑡 dans le domaine temporel.
𝒅𝒏
(−𝒋𝒕)𝒏 𝒙(𝒕) ⟺ 𝑿(𝝎)
𝒅𝝎𝒏
Démonstration :
En utilisant la transformée de Fourier, on obtient
+∞ +∞
𝑑𝑛 𝑑𝑛 −𝑗𝜔𝑡
𝑑 𝑛 −𝑗𝜔𝑡
𝑋(𝜔) = ( ∫ 𝑥(𝑡)𝑒 𝑑𝑡 ) = ∫ 𝑥(𝑡) 𝑒 𝑑𝑡
𝑑𝑡 𝑛 𝑑𝑡 𝑛 𝑑𝑡 𝑛
−∞ −∞
+∞ +∞

= ∫ 𝑥(𝑡)(−𝑗𝑡)𝑛 𝑒 −𝑗𝜔𝑡 𝑑𝑡 = (−𝑗𝑡)𝑛 ∫ 𝑥(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


−∞ −∞

7. Intégration temporelle
Cette propriété établit que l’intégration dans le domaine
temporel correspond dans le domaine fréquentiel à une division de
la transformée 𝑋(𝑗𝜔) par la variable complexe 𝑗𝜔.
𝒕
𝑿(𝒋𝝎)
∫ 𝒙(𝜽)𝒅𝜽 ⟺ + 𝝅𝑿(𝟎)𝜹(𝝎)
𝒋𝝎
−∞

8. Aire en dessous de x(t)


Ici on montre que la valeur initiale 𝑋(0)d’un signal
fréquentiel 𝑋(𝑗𝜔) s’obtient en calculant l’aire du signal temporel
𝑥(𝑡)
+∞

𝑿(𝟎) = ∫ 𝒙(𝒕)𝒅𝒕
−∞
Démonstration :

A partir de la définition de la transformée de Fourier de 𝑥(𝑡),


+∞

𝑋(𝑗𝜔) = ∫ 𝑥(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


−∞

Si dans cette relation on prend 𝑒 −𝑗𝜔𝑡 |𝜔=0 = 1 on obtient l’aire


de 𝑥(𝑡).

9. Aire en dessous de 𝑿(𝒋𝝎)


Ce théorème montre que la valeur à l’origine d’un signal
temporel se détermine aussi à partir de l’aire de sa transformée
de Fourier.
+∞
𝟏
𝒙(𝟎) = ∫ 𝑿(𝒋𝝎)𝒆𝒋𝝎𝒕 𝒅𝝎
𝟐𝝅
−∞

Démonstration :

A partir de la définition de l’original,


+∞
1
𝑥(𝑡) = ∫ 𝑋(𝑗𝜔)𝑒 𝑗𝜔𝑡 𝑑𝜔
2𝜋
−∞

Si on prend 𝑒 𝑗𝜔𝑡 |𝑡=0 = 1 alors on obtient le résultat recherché.

10. Convolution temporelle


Ici on montre qu’une convolution dans le domaine
temporelle correspond à un produit simple dans le domaine
fréquentiel complexe.

𝒙𝟏 (𝒕) ∗ 𝒙𝟐 (𝒕) = ∫ 𝒙𝟏 (𝜽)𝒙𝟐 (𝒕 − 𝜽)𝒅𝜽 ⟺ 𝑿𝟏 (𝒋𝝎). 𝑿𝟐 (𝒋𝝎)


−∞

Démonstration :
∞ ∞ ∞

𝐹{𝑥1 (𝑡) ∗ 𝑥2 (𝑡)} = 𝐹 { ∫ 𝑥1 (𝜃)𝑥2 (𝑡 − 𝜃)𝑑𝜃 } = ∫ [∫ 𝑥1 (𝜃)𝑥2 (𝑡 − 𝜃)𝑑𝜃] 𝑒 −𝑗𝜔𝑡 𝑑𝑡


−∞ 0 0
∞ ∞

= ∫ 𝑥1 (𝜃) [∫ 𝑥2 (𝑡 − 𝜃)𝑒 −𝑗𝜔𝑡 𝑑𝑡 ] 𝑑𝜃


0 0

A l’aide de la propriété de translation temporelle on sait que


∫ 𝑥2 (𝑡 − 𝜃)𝑒 −𝑗𝜔𝑡 𝑑𝑡 = 𝑋2 (𝑗𝜔)𝑒 −𝑗𝜔𝜃


0

En introduisant cela dans notre calcul on obtient


∞ ∞

𝐹{𝑥1 (𝑡) ∗ 𝑥2 (𝑡)} = ∫ 𝑥1 (𝜃)𝑋2 (𝑗𝜔)𝑒 −𝑗𝜔𝜃 𝑑𝜃 = 𝑋2 (𝑠) ∫ 𝑥1 (𝜃)𝑒 −𝑗𝜔𝜃 𝑑𝜃


0 0
= 𝑋1 (𝑗𝜔)𝑋2 (𝑗𝜔)

11. Convolution fréquentielle


Cette propriété montre qu’un produit de convolution dans le
domaine fréquentiel complexe correspond à un produit simple
dans le domaine temporel.
𝟏
𝒙𝟏 (𝒕). 𝒙𝟐 (𝒕) ⟺ 𝑿 (𝒋𝝎) ∗ 𝑿𝟐 (𝒋𝝎)
𝟐𝝅 𝟏
Démonstration :

𝐹{𝑥1 (𝑡) ∗ 𝑥2 (𝑡)} = ∫ 𝑥1 (𝑡)𝑥2 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


0
Rappelons-nous l’intégrale de la transformée inverse
+∞
1
𝑥1 (𝑡) = ∫ 𝑋1 (𝑗𝜇)𝑒 −𝑗𝜇𝑡 𝑑𝜇
2𝜋
−∞

En substituant dans notre calcul on obtient,


∞ +∞
1
𝐹{𝑥1 (𝑡) ∗ 𝑥2 (𝑡)} = ∫ [ ∫ 𝑋1 (𝑗𝜇)𝑒 −𝑗𝜇𝑡 𝑑𝜇] 𝑥2 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡
2𝜋
0 −∞
+∞ ∞
1
= ∫ 𝑋1 (𝑗𝜇) [∫ 𝑥2 (𝑡) 𝑒 −𝑗(𝜔−𝜇)𝑡 𝑑𝑡] 𝑑𝜇
2𝜋
−∞ ⏟0
=𝑋2 (𝑗𝜔−𝑗𝜇)

On observe que l’intégrale entre crochets est 𝑋2 (𝑗𝜔 − 𝑗𝜇) ; alors


+∞
1
𝐹{𝑥1 (𝑡) ∗ 𝑥2 (𝑡)} = ∫ 𝑋1 (𝑗𝜇)𝑋2 (𝑗𝜔 − 𝑗𝜇)𝑑𝜇
2𝜋
−∞
1
= 𝑋 (𝑗𝜔) ∗ 𝑋2 (𝑗𝜔)
2𝜋 1

12. Propriété de la fonction conjuguée


Cette propriété établit que si 𝑋(𝑗𝜔) est la transformée de
Fourier de la fonction complexe 𝑥(𝑡), alors la transformée de sa
fonction conjuguée 𝑥 ∗ (𝑡) est alors

𝒙∗ (𝒕) ⟺ 𝑿∗ (−𝒋𝝎)

Démonstration :

Soit 𝑥(𝑡) = 𝑥𝑟 (𝑡) + 𝑗𝑥𝑖 (𝑡) 𝑒𝑡 𝑥 ∗ (𝑡) = 𝑥𝑟 (𝑡) − 𝑗𝑥𝑖 (𝑡) sont signal
conjugué
+∞ +∞
−𝑗𝜔𝑡
𝑋(𝑗𝜔) = ∫ 𝑥(𝑡)𝑒 𝑑𝑡 = ∫ [𝑥𝑟 (𝑡) + 𝑗𝑥𝑖 (𝑡)]𝑒 −𝑗𝜔𝑡 𝑑𝑡
−∞ −∞
+∞ +∞

= ∫ 𝑥𝑟 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 + 𝑗 ∫ 𝑥𝑖 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


−∞ −∞
Alors,
+∞ +∞

𝑋 ∗ (𝑗𝜔) = ∫ 𝑥𝑟 (𝑡)𝑒 𝑗𝜔𝑡 𝑑𝑡 − 𝑗 ∫ 𝑥𝑖 (𝑡)𝑒 𝑗𝜔𝑡 𝑑𝑡


−∞ −∞

En remplaçant 𝜔 𝑝𝑎𝑟 – 𝜔, on obtient


+∞ +∞

𝑋 ∗ (−𝑗𝜔) = ∫ 𝑥𝑟 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 − 𝑗 ∫ 𝑥𝑖 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


−∞ −∞
+∞

= ∫ [𝑥𝑟 (𝑡) − 𝑗𝑥𝑖 (𝑡)]𝑒 −𝑗𝜔𝑡 𝑑𝑡


−∞

13. Théorème de Parseval


Ce théorème dit que l’énergie d’un signal est la même quel
que soit le domaine dans lequel on la calcule.
+∞ +∞
𝟏
∫ |𝒙(𝒕)|𝟐 𝒅𝒕 = ∫ |𝑿(𝒋𝝎)|𝟐 𝒅𝝎
𝟐𝝅
−∞ −∞

Démonstration :

De la propriété de convolution fréquentielle,


1
𝑥1 (𝑡). 𝑥2 (𝑡) ⟺ 𝑋 (𝑗𝜔) ∗ 𝑋2 (𝑗𝜔)
2𝜋 1
Ou bien

𝐹{𝑥1 (𝑡) ∗ 𝑥2 (𝑡)} = ∫ 𝑥1 (𝑡)𝑥2 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


0
+∞
1
= ∫ 𝑋1 (𝑗𝜇)𝑋2 (𝑗𝜔 − 𝑗𝜇)𝑑𝜇
2𝜋
−∞
Dans cette relation on pose 𝜔 = 0, et sous cette condition on a
∞ +∞
1
∫ 𝑥1 (𝑡)𝑥2 (𝑡)𝑑𝑡 = ∫ 𝑋1 (𝑗𝜇)𝑋2 (−𝑗𝜇)𝑑𝜇
2𝜋
0 −∞

Pour le cas spécial ou 𝑥2 (𝑡) = 𝑥1∗ (𝑡), et la propriété de signal


conjugué 𝒙∗ (𝒕) ⟺ 𝑿∗ (−𝒋𝝎)et par substitution on obtient :
+∞ +∞
∗ (𝑡)]𝑑𝑡
1
∫ [𝑥1 (𝑡) ∗ 𝑥1 = ∫ 𝑋1 (𝑗𝜇)𝑋1 (−𝑗𝜇)𝑑𝜇
2𝜋
−∞ −∞
+∞
1
= ∫ 𝑋1 (𝑗𝜇)𝑋1 ∗ (𝑗𝜇)𝑑𝜇
2𝜋
−∞

Et comme
𝑥(𝑡)𝑥 ∗ (𝑡) = |𝑥(𝑡)|2 𝑒𝑡 𝑋(𝑗𝜔)𝑋 ∗ (𝑗𝜔) = |𝑋(𝑗𝜔)|2

14. Intercorrelation et autocorrelation


L’Intercorrélation de deux signaux est une fonction qui
traduit la ressemblance entre un signal et la version décalée d’un
autre signal. Sa transformée de Fourier, appelée interspectre est
égale au produit conjugué de leurs transformées de Fourier :
+∞ +∞

𝝓𝒙𝒚 (𝜽) = ∫ 𝒙(𝒕)𝒚 (𝒕 − 𝜽)𝒅𝒕 ⟺ 𝚽𝒙𝒚 (𝒋𝝎) = ∫ 𝝓𝒙𝒚 (𝜽)𝒆−𝒋𝝎𝜽 𝒅𝜽


−∞ −∞
= 𝑿(𝒋𝝎)𝒀∗ (𝒋𝝎)
Ce type d’operation est tres utilise dans les systemes de
RaDAR (Radio Detection And Ranging) et SONAR (SOund
NAvigation and Ranging). En effet, l’intercorrélation permet alors
de comparer une onde émise à son écho reçu après réflexion sur
un objet, que l’on peut considérer comme une version atténuée et
retardée du signal.
III. TRANSFORMEE DE FOURIER DES
SIGNAUX USUELS
1. Transformée de Fourier d’une impulsion de
Dirac
𝜹(𝒕) ⟺ 𝟏
Démonstration :
On sait que

+∞

∫ 𝑥(𝑡)𝛿(𝑡 − 𝑎)𝑑𝑡 = 𝑥(𝑎)


−∞
Et si 𝑥(𝑡) est défini a 𝑡 = 0, alors,
+∞

∫ 𝑥(𝑡)𝛿(𝑡)𝑑𝑡 = 𝑥(0)
−∞
Avec la définition de la transformée de Fourier
+∞

𝑋(𝑗𝜔) = ∫ 𝛿(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 = 𝑒 −𝑗𝜔𝑡 |𝑡=0 = 1


−∞
De la même manière, la TF de l’impulsion de Dirac décalée 𝛿(𝑡 −
𝑎) est donnée en appliquant la propriété de décalage temporelle :

𝜹(𝒕) ⟺ 𝒆−𝒋𝝎𝒂

2. Transformée de Fourier d’une constante


En appliquant la définition de la TL on obtient

𝑨 ⟺ 𝟐𝑨𝝅𝜹(𝒋𝝎)
Démonstration :
+∞ +∞
−1 {2𝐴𝜋𝛿(𝑗𝜔)}
1
𝐹 = ∫ 2𝐴𝜋𝛿(𝑗𝜔)𝑒 𝑗𝜔𝑡 𝑑𝜔 = 𝐴 ∫ 𝛿(𝑗𝜔)𝑒 𝑗𝜔𝑡 𝑑𝜔
2𝜋
−∞ −∞

= 𝐴𝑒 𝑗𝜔𝑡 |𝜔=0 = 𝐴

Et en appliquant la propriété de décalage fréquentiel on a :

𝒆𝒋𝝎𝟎𝒕 ⟺ 𝟐𝝅𝜹(𝒋𝝎 − 𝒋𝝎𝟎 )

3. Transformée de Fourier de 𝒄𝒐𝒔(𝝎𝟎 𝒕)


𝟏 𝒋𝝎 𝒕
𝒄𝒐𝒔(𝝎𝟎 𝒕) = (𝒆 𝟎 + 𝒆−𝒋𝝎𝟎𝒕 ) ⟺ 𝝅𝜹(𝒋𝝎 − 𝒋𝝎𝟎 ) + 𝝅𝜹(𝒋𝝎 + 𝒋𝝎𝟎 )
𝟐
Pour obtenir ce résultat il suffit d’appliquer la propriété de linéarité

4. Transformée de Fourier de 𝒔𝒊𝒏(𝝎𝟎 𝒕)


𝟏 𝒋𝝎 𝒕
𝒔𝒊𝒏(𝝎𝟎 𝒕) = (𝒆 𝟎 − 𝒆−𝒋𝝎𝟎𝒕 )
𝟐𝒋
⟺ 𝒋𝝅𝜹(𝒋𝝎 − 𝒋𝝎𝟎 ) − 𝒋𝝅𝜹(𝒋𝝎 + 𝒋𝝎𝟎 )
Pour obtenir ce résultat il suffit d’appliquer la propriété de
linéarité

5. Transformée de Fourier du signe


2
𝑠𝑔𝑛(𝑡) = 𝑢(𝑡) − 𝑢(−𝑡) ⟺
𝑗𝜔

Démonstration :

Pour déterminer la TF de la fonction signe 𝑠𝑔𝑛(𝑡), il est


intéressant de l’exprimer comme une exponentielle comme sur la
figure

Alors,

𝑠𝑔𝑛(𝑡) = lim [𝑒 −𝑎𝑡 𝑢(𝑡) − 𝑒 −𝑎𝑡 𝑢(−𝑡)]


𝑎→0
Et
0 +∞
𝑎𝑡 −𝑗𝜔
𝐹{𝑠𝑔𝑛(𝑡)} = lim [ ∫ −𝑒 𝑒 𝑑𝑡 + ∫ 𝑒 −𝑎𝑡 𝑒 −𝑗𝜔𝑡 𝑑𝑡]
𝑎→0
−∞ 0

0 +∞
(𝑎−𝑗𝜔)𝑡
= lim [ ∫ −𝑒 𝑑𝑡 + ∫ 𝑒 −(𝑎+𝑗𝜔)𝑡 𝑑𝑡]
𝑎→0
−∞ 0

−1 1 −1 1 2
= lim [ + ]= + =
𝑎→0 𝑎 − 𝑗𝜔 𝑎 + 𝑗𝜔 −𝑗𝜔 𝑗𝜔 𝑗𝜔

6. Transformée de Fourier de 𝒖(𝒕)


Pour cette transformée, nous utiliserons la définition de la
transformée de Fourier :
+∞ +∞ ∞
−𝑗𝜔𝑡 −𝑗𝜔𝑡
𝑒 −𝑗𝜔𝑡
𝑈(𝑗𝜔) = ∫ 𝑢(𝑡)𝑒 𝑑𝑡 = ∫ 𝑒 𝑑𝑡 = |
−𝑗𝜔 0
−∞ 0

Pour résoudre ce problème, on va faire usage de la fonction


𝑠𝑔𝑛(𝑡) que l’on peut exprimer

𝑠𝑔𝑛(𝑡) = 2𝑢(𝑡) − 1
1 1 1
On réécrit cela 𝑢(𝑡) = 2 [1 + 𝑠𝑔𝑛(𝑡)] = 2 + 2 𝑠𝑔𝑛(𝑡) et comme on
sait que
2
1 ⟺ 2𝜋𝛿(𝑗𝜔) 𝑒𝑡 𝑠𝑔𝑛(𝑡) ⟺ , ce qui nous donne :
𝑗𝜔

𝟏
𝒖(𝒕) ⟺ 𝝅𝜹(𝒋𝝎) +
𝒋𝝎
7. Transformée de Fourier de signaux causals

 𝒆−𝒋𝝎𝒕 𝒖(𝒕)
1
De la TF de l’échelon unité 𝑢(𝑡) ⟺ 𝜋𝛿(𝑗𝜔) + 𝑗𝜔 et la propriété de
décalage fréquentiel 𝑒 𝑗𝜔0 𝑡 𝑥(𝑡) ⟺ 𝑋(𝜔 − 𝜔0 ) on obtient :
𝟏
𝒆−𝒋𝝎𝟎𝒕 𝒖(𝒕) ⟺ 𝝅𝜹(𝝎 − 𝝎𝟎 ) +
𝒋(𝝎 − 𝝎𝟎 )

 𝐬𝐢𝐧(𝝎𝒕)𝒖(𝒕)
1
On a vu plus haut que 𝑒 −𝑗𝜔0 𝑡 𝑢(𝑡) ⟺ 𝜋𝛿(𝜔 − 𝜔0 ) + 𝑗(𝜔−𝜔 ) , or on
0
𝟏
sait que 𝐬𝐢𝐧(𝝎𝒕) = 𝟐𝒋
(𝒆𝒋𝝎𝒕 −𝒆 −𝒋𝝎𝒕
)alors

1
(𝐹{𝑒 𝑗𝜔𝑡 𝑢(𝑡)} − 𝐹{𝑒 −𝑗𝜔𝑡 𝑢(𝑡)})
𝐹{sin(𝜔𝑡) 𝑢(𝑡)} =
2𝑗
1 1 1
= (𝜋𝛿(𝜔 + 𝜔0 ) + − 𝜋𝛿(𝜔 − 𝜔0 ) + )
2𝑗 𝑗(𝜔 + 𝜔0 ) 𝑗(𝜔 − 𝜔0 )
𝝅 𝝎
𝑭{𝐬𝐢𝐧(𝝎𝒕) 𝒖(𝒕)} = [𝜹(𝝎 + 𝝎𝟎 ) − 𝜹(𝝎 − 𝝎𝟎 )] + 𝟐
𝟐𝒋 𝝎𝟎 − 𝝎𝟐

Ainsi
𝝅 𝝎
𝐬𝐢𝐧(𝛚𝐭)𝒖(𝒕) ⟺ [𝜹(𝝎 + 𝝎𝟎 ) − 𝜹(𝝎 − 𝝎𝟎 )] + 𝟐
𝟐𝒋 𝝎 𝟎 − 𝝎𝟐

 𝐜𝐨𝐬(𝝎𝒕) 𝒖(𝒕)
1
On a vu plus haut que 𝑒 −𝑗𝜔0 𝑡 𝑢(𝑡) ⟺ 𝜋𝛿(𝜔 − 𝜔0 ) + 𝑗(𝜔−𝜔 or on
0)
1
sait que cos(𝜔0 𝑡) = 2 (𝑒 𝑗𝜔0 𝑡 + 𝑒 −𝑗𝜔0 𝑡 )alors
1
𝐹{cos(𝜔0 𝑡) 𝑢(𝑡)} = (𝐹{𝑒 𝑗𝜔0 𝑡 𝑢(𝑡)} + 𝐹{𝑒 −𝑗𝜔0 𝑡 𝑢(𝑡)})
2
1 1 1
= (𝜋𝛿(𝜔 + 𝜔0 ) + + 𝜋𝛿(𝜔 − 𝜔0 ) + )
2 𝑗(𝜔 + 𝜔0 ) 𝑗(𝜔 − 𝜔0 )
𝝅 𝒋𝝎
𝑭{𝐜𝐨𝐬(𝜔0 𝒕) 𝒖(𝒕)} = [𝜹(𝝎 + 𝝎𝟎 ) + 𝜹(𝝎 − 𝝎𝟎 )] + 𝟐
𝟐 𝝎𝟎 − 𝝎𝟐
Ainsi
𝝅 𝒋𝝎
𝐜𝐨𝐬(𝛚𝐭)𝒖(𝒕) ⟺ [𝜹(𝝎 + 𝝎𝟎 ) + 𝜹(𝝎 − 𝝎𝟎 )] + 𝟐
𝟐 𝝎𝟎 − 𝝎𝟐

IV. TRANSFORMATION DE FOURIER DES


FORMES D’ONDES USUELLES
1. Transformée de Fourier d’un signal
𝒇(𝒕) = 𝑨[𝒖(𝒕 + 𝑻) − 𝒖(𝒕 − 𝑻)]

Nous allons d’abord exprimer le signal en fonction de 𝑢(𝑡).

𝑓(𝑡) = 𝐴[𝑢(𝑡 + 𝑇) − 𝑢(𝑡 − 𝑇)]


En appliquant la propriété de linéarité on obtient la transformée du
signal impulsionnel donné
+∞ +𝑇 𝑇
−𝑗𝜔𝑡 −𝑗𝜔𝑡
𝐴𝑒 −𝑗𝜔𝑡
𝐹(𝑗𝜔) = ∫ 𝑓(𝑡)𝑒 𝑑𝑡 = ∫ 𝐴𝑒 𝑑𝑡 = |
−𝑗𝜔 −𝑇
−∞ −𝑇
−𝑗𝜔𝑡 −𝑇 𝑗𝜔𝑇 −𝑗𝜔𝑇
𝐴𝑒 𝐴(𝑒 −𝑒 ) sin(𝜔𝑇) sin(𝜔𝑇)
= | = = 2𝐴 = 2𝐴𝑇
𝑗𝜔 𝑇 𝑗𝜔 𝜔 𝜔𝑇
Ici on reconnait bien la fonction sinus cardinal
sin(𝜔𝑇)
sin(2𝑓𝑇) =
𝜔𝑇
Ce qui donne
𝐬𝐢𝐧(𝝎𝑻)
𝒇(𝒕) = 𝑨[𝒖(𝒕 + 𝑻) − 𝒖(𝒕 − 𝑻)] ⟺ 𝟐𝑨𝑻
𝝎𝑻

2. Transformée de Fourier 𝒇(𝒕) = 𝑨[𝒖(𝒕) − 𝒖(𝒕 − 𝟐𝑻)]

En utilisant la définition de la Tf on a
+∞ +2𝑇 2𝑇 0
−𝑗𝜔𝑡 −𝑗𝜔𝑡
𝐴𝑒 −𝑗𝜔𝑡 𝐴𝑒 −𝑗𝜔𝑡
𝐹(𝑗𝜔) = ∫ 𝑓(𝑡)𝑒 𝑑𝑡 = ∫ 𝐴𝑒 𝑑𝑡 = | = |
−𝑗𝜔 0 𝑗𝜔 2𝑇
−∞ 0
𝐴(1 − 𝑒 −𝑗𝜔𝑇 )
=
𝑗𝜔
et avec la substitution
1 = 𝑒 𝑗𝜔𝑇 . 𝑒 −𝑗𝜔𝑇
𝑒 −𝑗𝜔2𝑇 = 𝑒 −𝑗𝜔𝑇 . 𝑒 −𝑗𝜔𝑇
Nous obtenons
𝐴𝑒 −𝑗𝜔𝑇 𝑒 𝑗𝜔𝑇 − 𝑒 −𝑗𝜔𝑇 sin(𝜔𝑇)
𝐹(𝑗𝜔) = ( ) = 2𝐴𝑒 −𝑗𝜔𝑇 ( )
𝜔 𝑗 𝜔
sin(𝜔𝑇)
= 2𝐴𝑇𝑒 −𝑗𝜔𝑇 ( )
𝜔𝑇

3. Transformée de Fourier de 𝒇(𝒕) = 𝑨[𝒖(𝒕 + 𝑻) +


𝒖(𝒕) − 𝒖(𝒕 − 𝑻) − 𝒖(𝒕 − 𝟐𝑻)]

Déterminons d’abord l’expression causale de 𝑓(𝑡)


𝑓(𝑡) = 𝐴[𝑢(𝑡 + 𝑇) − 𝑢(𝑡)] + 2𝐴[𝑢(𝑡) − 𝑢(𝑡 − 𝑇)] + 𝑢(𝑡 − 𝑇) − 𝑢(𝑡
− 2𝑇)
= 𝐴[𝑢(𝑡 + 𝑇) + 𝑢(𝑡) − 𝑢(𝑡 − 𝑇) − 𝑢(𝑡 − 2𝑇)]

Ce signal est la somme des deux fonctions précédentes


sin(𝜔𝑇) sin(𝜔𝑇)
𝐹(𝑗𝜔) = 𝐹1 (𝑗𝜔) + 𝐹2 (𝑗𝜔) = 2𝐴𝑇 + 2𝐴𝑇𝑒 −𝑗𝜔𝑇 ( )
𝜔𝑇 𝜔𝑇

sin(𝜔𝑇)
= 2𝐴𝑇(1 − 𝑒 −𝑗𝜔𝑇 ) ( )
𝜔𝑇
𝑗𝜔𝑇 𝑗𝜔𝑇 sin(𝜔𝑇)
= 2𝐴𝑇𝑒 −𝑗𝜔𝑇/2 (𝑒 2 − 𝑒− 2 )( )
𝜔𝑇
𝜔𝑇 sin(𝜔𝑇)
= 4𝐴𝑇𝑒 −𝑗𝜔𝑇/2 𝑐𝑜𝑠 ( )
2 𝜔𝑇

𝝎𝑻 𝐬𝐢𝐧(𝝎𝑻)
𝑭(𝒋𝝎) = 𝟒𝑨𝑻𝒆−𝒋𝝎𝑻/𝟐 𝒄𝒐𝒔 ( )
𝟐 𝝎𝑻
4. Transformée de Fourier de
𝒇(𝒕) = 𝑨𝒄𝒐𝒔(𝝎𝟎 𝒕)[𝒖(𝒕 + 𝑻) − 𝒖(𝒕 − 𝑻)]
La transformée de Fourier de cette onde peut être obtenue de

𝐹(𝜔 − 𝜔0 ) + 𝐹(𝜔 + 𝜔0 )
𝑓(𝑡)𝑐𝑜𝑠(𝜔0 𝑡) ⟺
2
Et de
sin(𝜔𝑇)
𝐴[𝑢(𝑡 + 𝑇) − 𝑢(𝑡 − 𝑇)] ⟺ 2𝐴𝑇
𝜔𝑇
Alors,

𝑨𝒄𝒐𝒔(𝝎𝟎 𝒕)[𝒖(𝒕 + 𝑻) − 𝒖(𝒕 − 𝑻)]


𝒔𝒊𝒏[(𝝎 − 𝝎𝟎 )𝑻] 𝒔𝒊𝒏[(𝝎 + 𝝎𝟎 )𝑻]
⟺ 𝑨𝑻 [ + ]
(𝝎 − 𝝎𝟎 )𝑻 (𝝎 + 𝝎𝟎 )𝑻

5. Transformée de Fourier d’un signal


T-périodique
La Tf d’un signal T-périodique peut être obtenue de la définition de
la forme complexe des séries de Fourier :
+∞
2𝜋
𝑥(𝑡) = ∑ 𝐶𝑛 𝑒 𝑗𝑛𝜔0 𝑡 𝑎𝑣𝑒𝑐 𝜔0 =
𝑇
𝑛=−∞

Et de 𝑒 𝑗𝜔0 𝑡 ⟺ 2𝜋𝛿(𝑗𝜔 − 𝑗𝜔0 )

Alors

𝐶1 𝑒 𝑗𝜔0 𝑡 ⟺ 2𝜋𝐶1 𝛿(𝑗𝜔 − 𝑗𝜔0 )


𝐶2 𝑒 𝑗2𝜔0 𝑡 ⟺ 2𝜋𝐶2 𝛿(𝑗𝜔 − 𝑗2𝜔0 )

𝑗𝑛𝜔0 𝑡
𝐶𝑛 𝑒 ⟺ 2𝜋𝐶𝑛 𝛿(𝑗𝜔 − 𝑗𝑛𝜔0 )
En utilisant la définition de la TF et la propriété de linéarité on
obtient,
+∞ +∞ +∞

𝑭{𝒙(𝒕)} = 𝑭 { ∑ 𝑪𝒏 𝒆𝒋𝒏𝝎𝟎𝒕 } = ∑ 𝑪𝒏 𝑭{𝒆𝒋𝒏𝝎𝟎 𝒕 } = 𝟐𝝅 ∑ 𝑪𝒏 𝜹(𝒋𝝎 − 𝒋𝒏𝝎𝟎 )


𝒏=−∞ 𝒏=−∞ 𝒏=−∞

6. Transformée de Fourier d’un peigne de Dirac


Le peigne de Dirac est un signal périodique de la forme
+∞

𝑓(𝑡) = 𝐴 ∑ 𝛿(𝑡 − 𝑛𝑇)


𝑛=−∞

C’est un train d’impulsion de Dirac régulièrement espacées de


𝑇 et de même amplitude 𝐴 comme sur la figure

Comme c’est un signal périodique, sa série de Fourier est de la


forme déjà obtenue plus haut. Alors,
+∞
2𝜋
𝐹(𝑗𝜔) = 2𝜋 ∑ 𝐶𝑛 𝛿(𝑗𝜔 − 𝑗𝑛𝜔0 ) 𝑎𝑣𝑒𝑐 𝜔0 =
𝑇
𝑛=−∞
Et le coefficient 𝐶𝑛 s’obtient par
𝑇 𝑇
2 2
1 1 1
𝐶𝑛 = ∫ 𝑓(𝑡)𝑒 −𝑗𝑛𝜔0 𝑡 𝑑𝑡 = ∫ 𝛿(𝑡)𝑒 −𝑗𝑛𝜔0 𝑡 𝑑𝑡 =
𝑇 𝑇 𝑇
−𝑇 −𝑇
2 2

Ce qui nous donne


+∞
𝟐𝝅
𝑭(𝒋𝝎) = ∑ 𝜹(𝒋𝝎 − 𝒋𝒏𝝎𝟎 )
𝑻
𝒏=−∞
V. TRANSFORMATION DE FOURIER A
PARTIR DE CELLE DE LAPLACE
1. Relations avec la transformée de Laplace
Les définitions des transformées de Fourier et Laplace
montrent une forte similitude. On a en effet :
+∞

𝑋(𝑗𝜔) = ∫ 𝑥(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


−∞
+∞

𝑋(𝑠) = ∫ 𝑥(𝑡)𝑒 −𝑠𝑡 𝑑𝑡 𝑎𝑣𝑒𝑐 𝑠 ∈ ℂ 𝑒𝑡 𝑠 = 𝜎 + 𝑗𝜔


−∞

Si l’on a défini des transformations si proches, mais malgré tout


distinctes, c’est que tous les signaux ne sont pas transformables
de Fourier et/ou de Laplace. En effet, l’existence de ces
transformations entraîne les restrictions suivantes :

– pour la transformation de Fourier, il faut que le signal soit


intégrable en valeur absolue et que le nombre de ses
discontinuités soit fini :
+∞

∫ |𝑥(𝑡)|𝑑𝑡 < ∞
−∞

– pour la transformation de Laplace, il faut que :


+∞

∫ |𝑥(𝑡)𝑒 −𝑠𝑡 |𝑑𝑡 < ∞


−∞

autrement dit, il faut que le signal x(t) pondéré par une


exponentielle amortie soit intégrable en valeur absolue.
Des deux points ci-dessus, il découle que tous les signaux
à énergie finie, permanents ou non, possèdent une transformée de
Fourier mais pas nécessairement une transformée de Laplace.
Ainsi en est-il de l’exponentielle symétrique et, au sens des limites,
des signaux périodiques à puissance finie.

Par contre, des signaux démarrant en 𝑡 = 0 [𝑠] tels qu’une


rampe 𝑥(𝑡) = 𝑎 𝑡 𝑢(𝑡), une parabole 𝑥(𝑡) = 𝑎 𝑡 2 𝑢(𝑡), ne sont pas
transformables de Fourier, alors qu’ils possèdent une transformée
de Laplace.

Il existe d’autre part des signaux qui possèdent les deux


transformées ; par exemple, les signaux amortis démarrant en t =
0 [s]. Et d’autres qui n’en possèdent pas du tout ; par exemple
𝑥(𝑡) = 𝑎. 𝑡 pour −∞ < 𝑡 < +∞.

2. Transformée de Fourier à partir de celle de


Laplace
Si un signal temporel 𝑥(𝑡) est nul pour 𝑡 ≤ 0, c’est-à-dire
que 𝑥(𝑡)est causale, on peut obtenir sa transformée de Fourier à
partir de sa transformée de Laplace en remplaçant simplement
dans la TL le 𝑠 par 𝑗𝜔.

Exemple 1
1
Sachant que 𝑇𝐿{𝑒 −𝑎𝑡 𝑢(𝑡)} = calculer 𝑇𝐹{𝑒 −𝑎𝑡 𝑢(𝑡)}
𝑠+𝑎

Solution :
1 1
𝑇𝐹{𝑒 −𝑎𝑡 𝑢(𝑡)} = 𝑇𝐿{𝑒 −𝑎𝑡 𝑢(𝑡)}|𝑠=𝑗𝜔 = | =
𝑠 + 𝑎 𝑠=𝑗𝜔 𝑗𝜔 + 𝑎
Exemple 2
𝑠+𝑎
Sachant que 𝑇𝐿{𝑒 −𝑎𝑡 cos(𝜔0 𝑡)𝑢(𝑡)} = (𝑠+𝑎)2 , calculer
+𝜔02
𝑇𝐹{𝑒 −𝑎𝑡 cos(𝜔0 𝑡)𝑢(𝑡)}

Solution :

𝑇𝐹{𝑒 −𝑎𝑡 cos(𝜔0 𝑡) 𝑢(𝑡)} = 𝑇𝐿{𝑒 −𝑎𝑡 cos(𝜔0 𝑡) 𝑢(𝑡)}|𝑠=𝑗𝜔


𝑠+𝑎
= |
(𝑠 + 𝑎)2 + 𝜔02 𝑠=𝑗𝜔

𝑗𝜔 + 𝑎
𝑇𝐹{𝑒 −𝑎𝑡 cos(𝜔0 𝑡)𝑢(𝑡)} =
(𝑗𝜔 + 𝑎)2 + 𝜔02

Remarque :

On peut aussi déterminer la transformée de Fourier d’un


signal temporel non causal et nul pour des valeurs positives de
temps. Mais puisque la transformée de Laplace unilatérale n’existe
pas pour les temps négatifs, nous devons d’abord exprimer le
signal dans le domaine des temps positifs, et calculer la
transformée de Laplace unilatérale. Alors, la transformée de
Fourier du signal peut être obtenue à l’aide de la substitution
précédente (𝑠 → 𝑗𝜔).

En d’autres termes, si 𝑥(𝑡) = 0 𝑝𝑜𝑢𝑟 𝑡 ≥ 0 𝑒𝑡 𝑥(𝑡) ≠ 0 𝑝𝑜𝑢𝑟 𝑡 < 0,


on utilise la substitution :

𝑻𝑭{𝒙(𝒕)} = 𝑻𝑳[𝒙(−𝒕)]|𝒔=−𝒋𝝎

Exemple 3

Calculer la TF de 𝑥(𝑡) = 𝑒 −𝑎|𝑡|

a. En utilisant la définition de la TF
b. Par une substitution dans la TL correspondante
Solution :

a. En utilisant la définition de la TF on obtient


0 +∞

𝑇𝐹{𝑒 −𝑎|𝑡| } = ∫ 𝑒 𝑎𝑡 𝑒 −𝑗𝜔𝑡 𝑑𝑡 + ∫ 𝑒 −𝑎𝑡 𝑒 −𝑗𝜔𝑡 𝑑𝑡


−∞ 0
0 +∞
(𝑎−𝑗𝜔)𝑡
= ∫𝑒 𝑑𝑡 + ∫ 𝑒 −(𝑎+𝑗𝜔)𝑡 𝑑𝑡
−∞ 0

1 1 2
= + = 2
𝑎 − 𝑗𝜔 𝑎 + 𝑗𝜔 𝜔 + 𝑎2
2
Donc 𝑇𝐹{𝑒 −𝑎|𝑡| } = 𝜔2 +𝑎2

b. Par substitution dans la transformée de Laplace

𝑇𝐹{𝑒 −𝑎|𝑡| } = 𝑇𝐿{𝑒 −𝑎𝑡 }|𝑠=𝑗𝜔 + 𝑇𝐿{𝑒 𝑎𝑡 }|𝑠=−𝑗𝜔


1 1
= | + |
𝑠 + 𝑎 𝑠=𝑗𝜔 𝑠 + 𝑎 𝑠=−𝑗𝜔

1 1 2
+ = 2
𝑗𝜔 + 𝑎 −𝑗𝜔 + 𝑎 𝜔 + 𝑎2

A travers cet exemple on voit aussi que si 𝑥(𝑡) est réel et pair alors
𝑋(𝑗𝜔) est aussi réel et pair.

VI. CAS DES SIGNAUX A ENERGIE FINIE


1. Spectre d’amplitude et spectre de phase
Les signaux à énergie finie ont été définis au chapitre II. Ils
satisfont à la condition
+∞

𝑊𝑥 = ∫ |𝑥(𝑡)|2 𝑑𝑡 < ∞
−∞

Ou 𝑊𝑥 est l’énergie totale normalisée. Cette condition implique


que ces signaux ont un comportement transitoire.

Tout signal de cette classe possède une transformée de


Fourier
𝑋(𝑓) = 𝐹[𝑥(𝑡)] = |𝑋(𝑓)|𝑒 𝑗𝛼𝑥 (𝑓)

Ou |𝑋(𝑓)| est le spectre d’amplitude et 𝛼𝑥 (𝑓) est le spectre de


phase du signal. Si celui-ci est mesuré en volts, |𝑋(𝑓)| est en
𝑉/𝐻𝑧 et 𝛼𝑥 (𝑓) en radian.

Exemple 1

Soit 𝑥(𝑡) = 𝑒 −𝑎𝑡 𝑢(𝑡), sa transformée de Fourier vaut


+∞ +∞
1
𝑋(𝑓) = ∫ 𝑒 −𝑎𝑡 −𝑗2𝜋𝑓𝑡
𝑒 𝑑𝑡 = ∫ 𝑒 [−(𝑎+𝑗2𝜋𝑓)𝑡] 𝑑𝑡 =
𝑎 + 𝑗2𝜋𝑓
0 0

1 2𝜋𝑓
|𝑋(𝑓)| = 𝑒𝑡 𝛼𝑥 (𝑓) = −𝑎𝑟𝑐𝑡𝑎𝑛 ( )
√𝑎2 + (2𝜋𝑓)2 𝑎

Ce signal est représenté sur la figure 5.2, ses spectres


d’amplitude, et de phase sur la figure 5.3.

Fig.5.2
Fig.5.3

Exemple 2
Soit (Fig.5.4) le produit 𝑧(𝑡) = 𝑥(𝑡). 𝑦(𝑡) ou 𝑥(𝑡) est le signal de
l’exemple 1 et 𝒚(𝒕) = 𝒄𝒐𝒔(𝟐𝝅𝒇𝟎 𝒕) = 𝟏𝟐[𝒆𝒋𝟐𝝅𝒇𝟎𝒕 +𝒆−𝒋𝟐𝝅𝒇𝟎𝒕 ]

Fig.5.4
En utilisant la propriété d’amortissement exponentiel, on obtient
1 1
𝑍(𝑓) = 𝑋(𝑓 − 𝑓0 ) + 𝑋(𝑓 + 𝑓0 ) ou 𝑋(𝑓) est donné dans l’exemple
2 2
1.

Les spectres d’amplitude et de phase de 𝑧(𝑡) sont sont


esquissés sur la figure 5.5 pour 𝒇𝟎 ≫ 𝒂. Ce résultat peut
également s'obtenir directement en exploitant la propriété de
modulation comme montré plus haut dans les propriétés.

Fig.5.5

Exemple 3 : impulsion rectangulaire

La paire de transformées suivante joue un rôle capital en théorie


du signal
𝑟𝑒𝑐𝑡(𝑡) ↔ 𝑠𝑖𝑛𝑐(𝑓)
𝑠𝑖𝑛𝑐(𝑡) ↔ 𝑟𝑒𝑐𝑡(𝑓)
Grâce à la propriété de facteur d’échelle ou dilatation, on
généralise facilement ce résultat à un signal pair rectangulaire
centré a l’origine, d'amplitude A et de durée T (fig.5.6)

Fig.5.6

𝑡
𝑥(𝑡) = 𝐴. 𝑟𝑒𝑐𝑡 ( ) = 𝐴. 𝑟𝑒𝑐𝑡𝑇 (𝑡)
𝑇
A pour transformée de Fourier (fig.5.7)

𝑋(𝑓) = 𝐴𝑇. 𝑠𝑖𝑛𝑐(𝑓𝑇)

Fig.5.7

On vérifie ce résultat en utilisant la définition de la fonction sinus


cardinal:
𝑇/2

𝐹{𝐴 𝑟𝑒𝑐𝑡(𝑡/𝑇)} = 𝐴 ∫ 𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡


−𝑇/2
𝐴
= [𝑒 𝑗𝜋𝑓𝑇 − 𝑒 −𝑗𝜋𝑓𝑇 ]
2𝑗𝜋𝑓
𝐴 𝐴𝑇
= sin(𝜋𝑓𝑇) = sin(𝜋𝑓𝑇)
𝜋𝑓 𝜋𝑓𝑇
= 𝐴 𝑇 𝑠𝑖𝑛𝑐(𝑓𝑇)

Fig.5.8

Les spectres d'amplitude et de phase du signal sont


représentés sur la figure 5.8. Le spectre de phase qui vaut
alternativement 0 𝑒𝑡 ∓ 𝜋, est dessiné de façon à obtenir une
fonction impaire.

Exemple 4 : Impulsion rectangulaire décalée

Considérons un signal rectangulaire d'amplitude A et de durée


T dont l'axe de symétrie est décalé de l’origine a 𝑡0 ≠ 0 (fig. 5.9) :
Fig.5.9

𝑥(𝑡) = 𝐴 𝑟𝑒𝑐𝑡[(𝑡 − 𝑡0 )/𝑇] = 𝐴 𝑟𝑒𝑐𝑡𝑇 (𝑡 − 𝑡0 )

Sa transformée de Fourier est obtenue en tenant compte


de la propriété de translation temporelle et du résultat précèdent:

𝑋(𝑓) = 𝐴 𝑇 𝑠𝑖𝑛𝑐(𝑓𝑇)𝑒 −𝑗2𝜋𝑓𝑡0

Les spectres d'amplitude et de phase (fig. 5.10) sont alors donnés


par:
|𝑋(𝑓)| = 𝐴 𝑇 |𝑠𝑖𝑛𝑐(𝑓𝑇)|

−2𝜋𝑡0 𝑓 𝑝𝑜𝑢𝑟 𝑠𝑖𝑛𝑐(𝑓𝑇) > 0


𝛼𝑥 (𝑓) = {
−2𝜋𝑡0 𝑓 ∓ 𝜋 𝑝𝑜𝑢𝑟 𝑠𝑖𝑛𝑐(𝑓𝑇) < 0

On vérifie ainsi que le spectre d'amplitude d'un signal est


invariant à toute translation. Celle-ci ne modifie que le spectre de
phase en lui ajoutant un terme variant linéairement avec la
fréquence. La figure 5.10 présente trois exemples de
décalage 𝑡0 différents. Le choix des sauts de phase de ∓𝜋 est fait
de manière à garantir le caractère impair𝛼𝑥 (𝑓), qui est de plus
considérée comme valeur principale(−𝜋 < 𝛼𝑥 < 𝜋).
Fig.5.10
Exemple 5 : impulsion triangulaire

L'impulsion triangulaire est égale à la convolution de deux


impulsions rectangulaires

𝑡𝑟𝑖(𝑡) = 𝑟𝑒𝑐𝑡(𝑡) ∗ 𝑟𝑒𝑐𝑡(𝑡)

On en déduit, grâce à la propriété de convolution que

𝑡𝑟𝑖(𝑡) ↔ 𝑠𝑖𝑛𝑐 2 (𝑓)

ou, d'une manière plus générale, grâce à la propriété de


dilatation, que tout signal pair triangulaire d'amplitude 𝐴 et de
support 2𝑇 (fig. 5.11)

𝑥(𝑡) = 𝐴 𝑡𝑟𝑖(𝑡/𝑇)

Fig.5.11

A pour transformée de Fourier (Fig.5.12)

𝑋(𝑓) = 𝐴 𝑇 𝑠𝑖𝑛𝑐 2 (𝑓𝑇)

Fig.5.12
2. Fonction d’intercorrélation
Le produit scalaire
+∞

𝑟𝑥𝑦 (𝜏) =< 𝑥 , 𝑦𝜏 > = ∫ 𝑥 ∗ (𝑡). 𝑦(𝑡 + 𝜏)𝑑𝑡


−∞

Ou 𝑦𝜏 est la fonction décalée𝑦(𝑡 + 𝜏), est appelée fonction


d'intercorrélation des signaux â énergie finie réels ou complexes
𝑥(𝑡) et 𝑦(𝑡). En vertu de la condition d’orthogonalité, ces signaux
sont orthogonaux - ou non corrélés - pour chaque valeur
de 𝝉où la fonction d'intercorrélation s'annule.

En vertu de la propriété hermitienne, on vérifie aisément


que

𝑟𝑥𝑦 (𝜏) = 𝑟𝑦𝑥 (−𝜏)

3. Fonction d’autocorrélation
En posant dans l’intercorrélation 𝑦(𝑡 + 𝜏) = 𝑥(𝑡 + 𝜏), on obtient
la fonction d'autocorrélation du signal à énergie finie𝑥(𝑡)
+∞

𝑟𝑥 (𝜏) =< 𝑥 ∗ , 𝑥𝜏 > = ∫ 𝑥 ∗ (𝑡)𝑥(𝑡 + 𝜏)𝑑𝑡


−∞


Avec, par symétrie hermitienne : 𝑟𝑥𝑦 (𝜏) = 𝑟𝑦𝑥 (−𝜏). Cette
symétrie entraîne que la partie réelle de la fonction
d'autocorrélation est une fonction paire et que la partie
imaginaire est une fonction impaire.

La valeur à l'origine (𝝉 = 𝟎) de la fonction


d'autocorrélation est égale à l'énergie du signal
+∞
∗ ‖𝑥‖2
𝑟𝑥 (0) =< 𝑥 , 𝑥𝜏 > = = 𝑊𝑥 = ∫ |𝑥(𝑡)|2 𝑑𝑡
−∞

Le produit scalaire de deux vecteurs est proportionnel à la


projection de l'un sur l'autre. Il est maximum, en valeur absolue,
lorsque les deux vecteurs ont la même orientation et nul lorsqu'ils
sont orthogonaux. Il peut donc être considéré comme une mesure
de la similitude d'orientation des vecteurs.

Par analogie le produit scalaire de deux signaux est une


mesure de leur similitude de forme et de position. La fonction
d'intercorrélation traduit l'évolution de cette similitude en fonction
du paramètre de translation relative 𝜏.

Dans l'espace des signaux, cette translation correspond à une


rotation du vecteur représentatif. Il existe donc une liaison entre la
distance euclidienne entre deux signaux et leur intercorrélation.

Le terme d'autocorrélation est utilisé dans tous les ouvrages de


référence. Par contre, le terme d'intercorrélation est parfois
remplacé, dans la littérature française, par corrélation croisée ou
corrélation mutuelle (en anglais: crosscorrelation: en allemand,
kreuzkorrelation).

Certains auteurs intervertissent les indices dans la définition.

Les fonctions d'intérêt d'autocorrélation sont surtout


rencontrées avec des signaux réels. C'est pourquoi les notations
simplifiées suivantes seront souvent utilisées dans le reste de cet
ouvrage lorsque le caractère réel des signaux considérés aura été
dûment signalé.

Les fonctions d'intercorrélation et d'autocorrélation de signaux


réels sont aussi réelles.
Si 𝑥(𝑡) et 𝑦(𝑡) sont mesurés en volts,𝑟𝑥𝑦 (𝜏) 𝑒𝑡 𝑟𝑥 (𝜏) sont en 𝑉 2 . 𝑠.

4. Propriétés
A. Autocorrélation

On rappellera tout d’abord que la fonction d’autocorrélation


(fac) consiste à décaler un signal par rapport à lui-même, puis à
intégrer le produit des deux. On montre alors aisément que la
fonction d’autocorrélation possède les propriétés suivantes :

 Lorsque le décalage temporel est nul (𝜏 = 0), la fac est


égale à l’énergie dusignal pour les signaux à énergie finie :
+∞

𝑟𝑥 (0) = ∫ 𝑥 2 (𝑡)𝑑𝑡 = 𝑊𝑥
−∞
 Comme la correspondance entre les 2 signaux ne peut pas
être aussi forte que lorsque les signaux se superposent
exactement cela entraîne que la fac est maximum pour un
décalage nul. On a donc :

𝑟𝑥 (0) ≥ 𝑟𝑥 (𝜏)

 La fac est une fonction paire :

𝑟𝑥 (𝜏) = 𝑟𝑥 (−𝜏)

 La fac d’un bruit blanc (ainsi appelé par analogie à la lumière


blanche constituée de toutes les fréquences lumineuses) est
une impulsion de Dirac. En effet, le bruit blanc étant formé
d’une multitude de fréquences possédant la même
puissance, il en résulte un signal variant si rapidement que
sa valeur présente est indépendante des valeurs passées et
que sa valeur est non nulle pour τ = 0 seulement. On a donc:

𝑟𝑥 (𝜏) = 𝜎 2 . 𝛿(𝑡)
Ou 𝜎 2 est la variance du signal aléatoire ; c’est également,
comme on le verra plus tard, la puissance du signal aléatoire.

B. Intercorrélation

Comme pour la fonction d’autocorrélation, on se contentera


d’énoncer les propriétés des fonctions d’intercorrélation (fic) :

 En général, la fic n’est ni paire, ni impaire.


 Le maximum de la fic se situe à l’endroit du décalage
correspondant au maximum de similitude entre les deux
signaux. Cette propriété est très utilisée pour mesurer des
temps de propagation.
 Comme le fait de retarder y(t) par rapport à x(t) d’une
valeur τ équivaut à avancer le signal x(t) par rapport à y(t),
on aura :

𝑟𝑥𝑦 (𝜏) = 𝑟𝑦𝑥 (−𝜏)

 Si les deux signaux sont périodiques de même période, la


fic sera également périodique.

5. Relation avec le produit de convolution


L'introduction du changement de variable d'intégration 𝑡 ′ = −𝑡
dans l'expression de l'intercorrélation de deux signaux permet de
l'écrire sous la forme du produit de convolution de 𝑥 ∗ (−𝑡)et de
𝑦(𝑡):
+∞

𝑟𝑥𝑦 (𝜏) = ∫ 𝑥 ∗ (𝑡)𝑦(𝑡 + 𝜏)𝑑𝑡


−∞
+∞

= ∫ 𝑥 ∗ (−𝑡′)𝑦(𝜏 − 𝑡′)𝑑𝑡′
−∞
= 𝑥 ∗ (−𝜏) ∗ 𝑦(𝜏)

Pour l'autocorrélation, on obtient de manière analogue

𝑟𝑥 = 𝑥 ∗ (−𝜏) ∗ 𝑥(𝜏)

Dans le cas de signaux réels, on obtient respectivement:


𝑟𝑥𝑦 = 𝑥(−𝜏) ∗ 𝑦(𝜏)

𝑟𝑥 = 𝑥(−𝜏) ∗ 𝑥(𝜏)

La parenté d'écriture entre la convolution et la corrélation ne


doit pas tromper. Les résultats du calcul sont très différents
lorsque les signaux sont de forme asymétrique. L'examen des
formules précédentes montre que l'identité entre convolution et
corrélation n'est réalisée que lorsque l'un des deux signaux au
moins est pair. La figure 5.14 illustre graphiquement la procédure
de calcul de la convolution et de la corrélation des signaux
réels𝑥(𝑡) = 𝑒 −𝑎𝑡 𝑢(𝑡) 𝑒𝑡 𝑦(𝑡) = 𝑒 −2𝑎𝑡 𝑢(𝑡).On vérifiera, à titre
d'exercice, que les résultats sont :
1
𝑥(𝜏) ∗ 𝑦(𝜏) = ( ) [𝑒 −𝑎𝜏 − 𝑒 −2𝑎𝜏 ] 𝑢(𝜏)
𝑎
𝑟𝑥𝑦 (𝜏) = (3𝑎)−1 𝑒 𝑎𝜏 𝑢(−𝜏) + (3𝑎)−1 𝑒 −2𝑎𝜏 𝑢(𝜏)
Fig.5.14
6. Densité spectrale d’énergie
Soit 𝑅𝑥 (𝑓)la transformée de Fourier de la fonction
d'autocorrélation d'un signal, réel ou complexe, à énergie finie 𝑥(𝑡)
:
+∞

𝑅𝑥 (𝑓) = 𝐹{𝑟𝑥 (𝜏)} = ∫ 𝑟𝑥 (𝜏)𝑒 −𝑗2𝜋𝑓𝜏 𝑑𝜏


−∞

De la relation avec la convolution, on tire

𝑅𝑥 (𝑓) = 𝐹{𝑥 ∗ (−𝜏) ∗ 𝑥(𝜏)}

Or, en vertu de la propriété de retournement

𝐹{𝑥 ∗ (−𝜏)} = 𝑋 ∗ (𝑓)

Le résultat suivant se déduit alors facilement:

𝑅𝑥 (𝑓) = 𝑋 ∗ (𝑓). 𝑋(𝑓) = |𝑋(𝑓)|2

En posant 𝜏 = 0 dans l'expression de la transformée de Fourier


inverse de 𝑅𝑥 (𝑓)
+∞

𝑟𝑥 (𝜏) = ∫ 𝑅𝑥 (𝑓)𝑒 𝑗2𝜋𝑓𝜏 𝑑𝑓


−∞

et, en tenant compte du résultat (439), on obtient la forme


particulière de l'identité de Parseval
+∞ +∞

𝑊𝑥 = 𝑟𝑥 (0) = ∫ |𝑥(𝑡)|2 𝑑𝑡 = ∫ 𝑅𝑥 (𝑓)𝑑𝑓


−∞ −∞

L'énergie totale 𝑊𝑥 du signal peut donc se calculer soit en


intégrant sa distribution temporelle|𝑥(𝑡)|2 , soit en intégrant sa
distribution fréquentielle 𝑅𝑥 (𝑓). Pour cette raison, 𝑅𝑥 (𝑓)est
appelée la densité spectrale d'énergie (ou DSE)- ou parfois plus
simplement le spectre d'énergie - du signal 𝑥(𝑡).

7. Propriétés de la DSE
De ce qui précède, on déduit que la densité spectrale
d'énergie 𝑅𝑥 (𝑓) est

• indépendante du spectre de phase du signal, donc insensible,


en vertu du théorème du retard, à toute translation du signal sur
l’axe du temps;

• une fonction réelle non négative :

𝑅𝑥 (𝑓) ≥ 0

La part de l'énergie du signal𝑥(𝑡) distribuée entre les


fréquences 𝑓1 𝑒𝑡 𝑓2 est donnée par
−𝑓1 𝑓2 𝑓2

∆𝑊𝑥 = ∫ 𝑅𝑥 (𝑓)𝑑𝑓 + ∫ 𝑅𝑥 (𝑓)𝑑𝑓 = 2 ∫ 𝑅𝑥 (𝑓)𝑑𝑓


−𝑓2 𝑓1 𝑓1

Dans le cas d'un signal 𝑥(𝑡)réel, la fonction d'autocorrélation


est une fonction réelle paire. Sa transformée de Fourier est par
conséquent aussi une fonction réelle paire

𝑅𝑥 (𝑓) = 𝑅𝑥 (−𝑓)

Si le signal est mesuré en volts, la densité spectrale d'énergie est


en𝑉 2 . 𝑠 2 = 𝑉 2 . 𝑠/𝐻𝑧

Exemple 6

Soit le signal 𝑥(𝑡) = 𝑒 −𝑎𝑡 𝑢(𝑡), sa fac vaut


1 −𝑎|𝑡|
𝑟𝑥 (𝜏) = 𝑒
2𝑎
Et la DSE du signal est
1
𝑅𝑥 (𝑓) = 𝐹{𝑟𝑥 (𝜏)} =
𝑎2 + (2𝜋𝑓)2

On vérifie qu’elle est bien égale au carré du spectre d’amplitude de


𝑥(𝑡), calculé à l’exemple 1.

Ces trois fonctions sont représentées sur la figure 5.15.

Exemple 7

La fonction d’autocorrélation et la densité spectrale d'énergie du


𝑡
signal 𝑥(𝑡) = 𝐴 𝑟𝑒𝑐𝑡 ( )valent respectivement (fig. 5.16) :
𝑇

𝑟𝑥 (𝜏) = 𝐴2 𝑇 𝑡𝑟𝑖(𝜏/𝑇)

𝑅𝑥 (𝑓) = (𝐴 𝑇)2 𝑠𝑖𝑛𝑐 2 (𝑓𝑇)

Ce résultat peut facilement s’obtenir par voie graphique en


suivant la procédure illustrée a la figure 5.14.
Fig.5.15
Fig.5.16

8. Densité interspectrale d’énergie


La transformée de Fourier de la fonction d'intercorrélation de
deux signaux à énergie finie est appelée densité interspectrale
d'énergie (DIE). Cette terminologie n'est pas unique: on rencontre
dans la littérature française les termes: densité spectrale
mutuelle, croisée ou d'interaction. Pour des signaux réels ou
complexes, on a

𝑅𝑥𝑦 (𝑓) = 𝐹{𝑟𝑥𝑦 (𝜏)} = 𝑋 ∗ (𝑓) 𝑌(𝑓)

La densité interspectrale d'énergie est en général une fonction


complexe et non symétrique avec

𝑅𝑥𝑦 (𝑓) = 𝑅𝑦𝑥 ∗ (𝑓)


9. Théorème du produit
En posant 𝜏 = 0 dans l'expression de la fonction d'intercorrélation,
on obtient la forme suivante de la relation générale de Parseval
qui est connue sous le nom de théorème du produit

𝑟𝑥𝑦 (0) = 𝐹 −1 {𝑅𝑥 (𝑓)}𝜏=0


+∞ +∞
∗ (𝑡)
= ∫ 𝑥 𝑦(𝑡)𝑑𝑡 = ∫ 𝑋 ∗ (𝑓) 𝑌(𝑓)𝑑𝑓
−∞ −∞

Elle exprime la conservation du produit scalaire entre l'espace


temps et l'espace fréquence.

Exemple 8

Les signaux réels


𝑥(𝑡) = 𝐴 𝑟𝑒𝑐𝑡(𝑡/𝑇)
𝑦(𝑡) = 𝐵 𝑟𝑒𝑐𝑡[(𝑡 + 𝑇/4)(𝑇/2)] − 𝐵 𝑟𝑒𝑐𝑡[(𝑡 − 𝑇/4)(𝑇/2)]

sont représentés sur la figure 5.17 avec leurs fonctions


d’intercorrélation 𝑟𝑥𝑦 (𝜏) 𝑒𝑡 𝑟𝑦𝑥 (𝜏). Celles-ci peuvent facilement être
déterminées par voie graphique en suivant la procédure illustrée à
la figure 5.14. La densité inter spectrale d'énergie vaut ici

𝑅𝑥𝑦 (𝑓) = 𝑗𝐴𝐵𝑇 2 𝑠𝑖𝑛𝑐(𝑓𝑇)𝑠𝑖𝑛𝑐(𝑓𝑇/2)sin(𝜋𝑓𝑇/2)

𝑓𝑇
= 𝑗𝐴𝐵(𝑇 2 /2) [𝑠𝑖𝑛𝑐 ( ) sin(𝜋𝑓𝑇)]
2
Le lecteur pourra vérifier ce résultat à titre d'exercice soit en
utilisant le résultat 𝑅𝑥𝑦 (𝑓) = 𝐹{𝑟𝑥𝑦 (𝜏)} = 𝑋 ∗ (𝑓) 𝑌(𝑓), soit en
calculant directement la transformée de Fourier de 𝑟𝑥𝑦 (𝜏). Il
observera que la formule de conservation de l’énergie donne ici un
résultat nul, indiquant que les signaux sont orthogonaux.

Condition suffisante d’orthogonalité

De ce qui précède, il découle que deux signaux dont les


spectres ont des supports disjoints sont orthogonaux. La condition
n'est toutefois pas nécessaire, comme on peut le constater dans
l'exemple précédent.

Fig.5.17
VII. CAS DES SIGNAUX A PUISSANCE
MOYENNE FINIE

1. Modèles de signaux physiquement


irréalisables
Les signaux à puissance moyenne finie non nulle ont été
définis au chapitre 2, ils satisfont à la condition
𝑇/2
1
0 < 𝑃𝑥 = lim ∫ |𝑥(𝑡)|2 𝑑𝑡 < ∞
𝑇→∞ 𝑇
−𝑇/2

Ou 𝑃𝑥 est la puissance totale normalisée.

Ces signaux, comme on l'a déjà relevé au chapitre .2~


possèdent une énergie infinie et sont de ce fait physiquement
irréalisables. Ils constituent toutefois une abstraction commode
permettant de modéliser des catégories importantes de signaux
ayant un comportement quasi permanent. C'est le cas de la
Constante (en électrotechnique : régime continu), du saut unité, de
la fonction signe et de l'ensemble des signaux périodiques, ou
quasi-périodiques usuels. Cette abstraction sera également
utilisée dans la modélisation des signaux aléatoires.

2. Extension de la transformation de Fourier


Les signaux à puissance finie ne satisfont pas les critères
de convergence usuels de la transformée de Fourier. Cette
méthode d'analyse ne peut être envisagée rigoureusement dans
ce cas qu'en élargissant le champ d'application de la
transformation de Fourier aux fonctions appelées distributions dont
l’étude ne fait malheureusement pas partie de ce livre.
Cependant il faut savoir que le résultat essentiel de la théorie
des distributions pour l'analyse des signaux est la correspondance

𝛿(𝑡) ← −→ 1

qui se déduit de la propriété fondamentale de l'impulsion de


Dirac vu au chapitre 2.

En raison de la symétrie des transformations directe et inverse,


on a également

1 ← −→ 𝛿(𝑓)

Par application directe des propriétés de translation temporelle


et d’amortissement exponentiel, on a également

𝛿(𝑡 − 𝑡0 ) ← −→ 𝑒 −𝑗2𝜋𝑓𝑡0

et

𝑒 −𝑗2𝜋𝑓0 𝑡 ← −→ 𝛿(𝑓 − 𝑓0 )

3. Application : signal constant et valeur moyenne


La transformée de Fourier d'un signal de valeur constante
𝑥(𝑡) = 𝐶 est une impulsion de Dirac de poids C (fig. 5.18)

𝑥(𝑡) = 𝐶 ← −→ 𝑋(𝑓) = 𝐶 𝛿(𝑓)

Fig.5.18
On peut étendre, par analogie, ce résultat à la valeur moyenne
d'un signal
𝑇/2
1
𝑥̅ = lim ∫ 𝑥(𝑡)𝑑𝑡
𝑇→∞ 𝑇
−𝑇/2

𝑥̅ ← −→ 𝑥̅ 𝛿(𝑓)

4. Transformée de Fourier des signaux à valeur


moyenne non nulle
Tout signal à puissance moyenne finie peut être représenté
par la somme de sa valeur moyenne et d'un terme à valeur
moyenne nulle

𝑥(𝑡) = 𝑥̅ + 𝑥0 (𝑡)

avec ̅̅̅(𝑡)
𝑥0 = ̅̅̅̅̅̅̅̅̅̅̅
𝑥(𝑡) − 𝑥̅ = 0

En dérivant 𝑥(𝑡), on obtient


𝑑𝑥
𝑥 ′ (𝑡) = = 𝑥0′ (𝑡)quelque soit la constante𝑥̅
𝑑𝑡
En d'autres termes, on peut toujours écrire
𝑡

𝑥(𝑡) = ∫ 𝑥0′ (𝑡)𝑑𝑡 + 𝑥̅


−∞

ou 𝑥̅ joue le rôle de constante d'intégration.

Par la propriété de dérivation temporelle, on a

𝐹{𝑥0′ (𝑡)} = 𝑗2𝜋𝑓𝑋0 (𝑓) ∀𝑥̅


et donc
𝑡
1
𝐹 {𝑥0 (𝑡) = ∫ 𝑥0′ (𝑡)𝑑𝑡} = 𝐹{𝑥0′ (𝑡)}
𝑗2𝜋𝑓
−∞

En tenant compte de des relations précédentes, la


transformée de Fourier d'un signal a puissance moyenne finie 𝑥(𝑡)
peut s'écrire
1
𝑋(𝑓) = 𝐹{𝑥0′ (𝑡)} + 𝑥̅ 𝛿(𝑓)
𝑗2𝜋𝑓

Exemple 9 : signal saut unité de Heaviside


1 1
Soit 𝑥(𝑡) = 𝑢(𝑡)et𝑥̅ = 2 , 𝑥0 (𝑡) = 2 𝑠𝑔𝑛(𝑡)et 𝑥0′ (𝑡) = 𝛿(𝑡). Du
résultat précèdent, on déduit la correspondance
1 1
𝑢(𝑡) ← −→ + 𝛿(𝑓)
𝑗2𝜋𝑓 2

On peut en déduire, par Plancherel, que la transformée de Fourier


de l'intégrale
𝑡

𝑧(𝑡) = 𝑦(𝑡) ∗ 𝑢(𝑡) = ∫ 𝑦(𝑡)𝑑𝑡


−∞

vaut
1
𝑍(𝑓) = (𝑗2𝜋𝑓)−1 𝑌(𝑓) + 𝑌(0)𝛿(𝑓)
2
Exemple 10 : signal signe

Soit 𝑥(𝑡) = 𝑠𝑔𝑛(𝑡), 𝑥̅ = 0 𝑒𝑡 𝑥0′ (𝑡) = 2 𝛿(𝑡) d’où


1
𝑠𝑔𝑛(𝑡) ← −→
𝑗𝜋𝑓

5. Corrélation de signaux à puissance moyenne


finie
Le produit scalaire définissant l'intercorrélation de signaux
à énergie finie n'est pas applicable dans le cas de signaux à
puissance moyenne finie non nulle pour lesquels l'intégrale n'est
pas définie. On lui substitue alors la valeur moyenne limite
𝑇/2

𝑟𝑥𝑦 (𝜏) =< 𝑥 ∗ , 𝑦𝜏 > = lim ∫ 𝑥 ∗ (𝑡) 𝑦(𝑡 + 𝜏) 𝑑𝑡


𝑇→∞
−𝑇/2

qui définit la fonction d'intercorrélation de signaux à puissance


moyenne finie. C'est aussi une mesure de la similitude de forme et
de position de ces signaux.

Par analogie, la fonction d'autocorrélation de signaux à


puissance moyenne finie est définie par la limite
𝑇/2
1
𝑟𝑥 (𝜏) =< 𝑥 ∗ , 𝑥𝜏 > = lim ∫ 𝑥 ∗ (𝑡) 𝑥(𝑡 + 𝜏) 𝑑𝑡
𝑇→∞ 𝑇
−𝑇/2

Lorsque les signaux sont réels, les fonctions d'inter- et


d'autocorrélation sont aussi réelles. Si𝑥(𝑡) et𝑦(𝑡) sont mesurés en
volts, 𝑟𝑥𝑦 (𝜏) 𝑒𝑡 𝑟𝑥 (𝜏) sont en𝑉 2 .

Les fonctions d'inter- et d'autocorrélation jouissent des mêmes


propriétés que leurs fonctions analogues des signaux à énergie
finie.
La valeur à l'origine de la fonction d'autocorrélation correspond
à la puissance normalisée du signal. Si les signaux sont
réels𝑟𝑥𝑦 (𝜏) = 𝑟𝑦𝑥 (−𝜏) et 𝑟𝑥 (𝜏) = 𝑟𝑥 (−𝜏).

La fonction d'autocorrélation d'un signal réel est toujours


une fonction réelle paire.

Des relations analogues à celles des signaux à énergie finie


lient les fonctions de corrélation 𝑟𝑥𝑦 (𝜏) 𝑒𝑡 𝑟𝑥 (𝜏) au produit de
convolution de signaux à puissance moyenne finie, qui doit lui-
même être défini comme une limite
𝑇/2
1
𝑥(𝜏) ∗ 𝑦(𝜏) = lim ∫ 𝑥(𝑡) 𝑦(𝜏 − 𝑡) 𝑑𝑡
𝑇→∞ 𝑇
−𝑇/2

On a alors les équivalences suivantes :

𝑟𝑥𝑦 (𝜏) = 𝑥 ∗ (−𝜏) ∗ 𝑦(𝜏)


𝑟𝑥 (𝜏) = 𝑥 ∗ (−𝜏) ∗ 𝑥(𝜏)

Les signaux 𝑥(𝑡) et 𝑦(𝑡 + 𝜏) sont orthogonaux pour chaque


valeur de 7 où la fonction d'intercorrélation s'annule.

6. Densité spectrale de puissance (DSP)


La transformée de Fourier de la fonction d'autocorrélation
est appelée la densité spectrale de puissance(DSP) du signal à
puissance moyenne finie x(t) :
+∞

𝑅𝑥 (𝑓) = 𝐹{𝑟𝑥 (𝜏)} = ∫ 𝑟𝑥 (𝜏)𝑒 −𝑗2𝜋𝑓𝜏 𝑑𝜏


−∞

La relation inverse est


+∞

𝑟𝑥 (𝜏) = ∫ 𝑅𝑥 (𝑓)𝑒 𝑗2𝜋𝑓𝜏 𝑑𝑓


−∞

Pour 𝜏 = 0, on obtient la forme particulière de l'identité de


Parseval
𝑇/2 +∞
1
𝑃𝑥 = 𝑟𝑥 (0) = lim ∫ |𝑥(𝑡)|2 𝑑𝑡 = ∫ 𝑅𝑥 (𝑓)𝑑𝑓
𝑇→∞ 𝑇
−𝑇/2 −∞

La fonction𝑅𝑥 (𝑓) représente donc bien la distribution


fréquentielle de la puissance totale du signa], d'où son nom. C'est
par conséquent une fonction non négative :

𝑅𝑥 (𝑓) ≥ 0

Si x (t) est en volts, 𝑟𝑥 (𝜏)est en𝑉 2 et 𝑅𝑥 (𝑓)en𝑉 2 /𝐻𝑧.

Dans le cas d'un signal 𝑥(𝑡)réel, 𝑟𝑥 (𝜏) est une fonction réelle et
paire et la densité spectrale de puissance est aussi une fonction
réelle paire:

𝑅𝑥 (𝑓) = 𝑅𝑥 (−𝑓)

Au contraire de la densité spectrale d'énergie (DSE), la densité


spectrale de puissance (DSP), n'est pas égale au carré du module
de la transformée de Fourier du signal.

Une autre relation peut toutefois être établie par un passage à


la limite.

Soit x(t) un signal à puissance moyenne finie et 𝑥(𝑡. 𝑇) = 𝑥(𝑡) ∗


𝑟𝑒𝑐𝑡(𝑡/𝑇) un signal à énergie finie dont la transformée de Fourier
est 𝑋 (𝑓, 𝑇)

𝑥(𝑡) = lim 𝑥(𝑡, 𝑇)


𝑇→∞
Par définition, la densité spectrale d'énergie de 𝑥(𝑡, 𝑇) s'écrit

𝑅𝑥 (𝑓, 𝑇) = |𝑋(𝑓, 𝑇)|2

Lorsque 𝑇 → ∞, l'énergie du signal devient infinie, la puissance


restant elle, finie
𝑇/2 𝑇/2
1 1
𝑃𝑥 = lim ∫ |𝑥(𝑡)|2 𝑑𝑡 = lim ∫ |𝑥(𝑡, 𝑇)|2 𝑑𝑡
𝑇→∞ 𝑇 𝑇→∞ 𝑇
−𝑇/2 −𝑇/2
𝑇/2
1
= lim ∫ |𝑋(𝑓, 𝑇)|2 𝑑𝑓
𝑇→∞ 𝑇
−𝑇/2

La dernière égalité découle de la définition de l’énergie.

En comparant les relations, on voit que l'on peut aussi définir la


densité spectrale de puissance par la limite, pour autant que celle-
ci existe:
1
𝑅𝑥 (𝑓) = lim |𝑋(𝑓, 𝑇)|2
𝑇→∞ 𝑇

Exemple 11

Les fonctions d'autocorrélation du signal 𝑠𝑔𝑛(𝑡) et du signal


saut unité 𝑢(𝑡) sont respectivement égales à 1 et 1/2. Par
+∞

𝑅𝑥 (𝑓) = 𝐹{𝑟𝑥 (𝜏)} = ∫ 𝑟𝑥 (𝜏)𝑒 −𝑗2𝜋𝑓𝜏 𝑑𝜏


−∞

et
𝑥(𝑡) = 𝐶 ← −→ 𝑋(𝑓) = 𝐶 𝛿(𝑓)
les densités spectrales de puissance correspondantes sont
1
respectivement égales â 𝛿(𝑓) et2 𝛿(𝑓). Ces résultats ne peuvent
pas se déduire des exemples 9 ou 10.

Pour le signal saut unité 𝑥(𝑡) = 𝑢(𝑡)on a

𝑥(𝑡, 𝑇) = 𝑟𝑒𝑐𝑡[(𝑡 − 𝑇/4)(𝑇/2)] ← −−→ 𝑋(𝑓, 𝑇)


𝑇 𝑓𝑇
= ( ) 𝑠𝑖𝑛𝑐 ( ) . 𝑒 −𝑗2𝜋𝑓𝑇/2
2 2
D’où
1 1 𝑇 1
𝑅𝑥 (𝑓) = lim |𝑋(𝑓, 𝑇)|2 = lim 𝑠𝑖𝑛𝑐 2 (𝑓𝑇/2) = 𝛿(𝑓)
𝑇→∞ 𝑇 2 𝑇→∞ 2 2

Par contre, dans le cas du signal 𝑥(𝑡) = 𝑠𝑔𝑛(𝑡), on a


𝑇
𝑡 + 𝑇/4 𝑡−
𝑥(𝑡, 𝑇) = 𝑟𝑒𝑐𝑡 ( ) − 𝑟𝑒𝑐𝑡 ( 4 ) ←→ 𝑋(𝑓)
𝑇/2 𝑇
2
𝑓𝑇 𝜋𝑓𝑇
= 𝑗𝑇 𝑠𝑖𝑛𝑐 ( ) . 𝑠𝑖𝑛 ( )
2 2
1
et la limite𝑅𝑥 (𝑓) = lim 𝑇 |𝑋(𝑓, 𝑇)|2 n’est pas finie.
𝑇→∞

7. Densité interspectrale de puissance


La transformée de Fourier de la fonction d'intercorrélation
𝑟𝑥𝑦 (𝜏)est appelée densité interspectrale de puissance ou
encore densité spectrale de puissance mutuelle

𝑅𝑥𝑦 (𝑓) = 𝐹{𝑟𝑥𝑦 (𝜏)}

C'est en général une fonction complexe ct non symétrique.


VIII. EXERCICES
A. Exercices résolus
Exercice 1
Déterminer la transformée de Fourier d’un signal périodique 𝑥(𝑡)
de période 𝑇0

Réponse :

On peut exprimer 𝑥(𝑡) par


+∞
2𝜋
𝑥(𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0
𝑘=−∞

En prenant la transformée bilatérale et la propriété de linéarité, on


a
+∞

𝑋(𝜔) = 2𝜋 ∑ 𝑐𝑘 𝛿(𝜔 − 𝑘𝜔0 )


𝑘=−∞

qui indique que la transformée de Fourier d’un signal périodique


consiste en une séquence d’impulsions équidistantes localisées
aux différentes fréquences harmoniques du signal.

Exercice 2
Déterminer la TF d’un peigne de Dirac
+∞

𝜓 𝑇0 (𝑡) = ∑ 𝛿(𝑡 − 𝑘𝑇0 )


𝑘=−∞

Réponse :

On sait que la série de Fourier complexe de l’impulsion de Dirac


(voir exercice 5 du chapitre 4) est donnée par
+∞
1 2𝜋
𝜓 𝑇0 (𝑡) = ∑ 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0 𝑇0
𝑘=−∞

En utilisant maintenant la TF d’un signal périodique calculée à


l’exercice précédent
+∞

𝑋(𝜔) = 2𝜋 ∑ 𝑐𝑘 𝛿(𝜔 − 𝑘𝜔0 )


𝑘=−∞
On a
+∞
2𝜋
ℱ[𝜓 𝑇0 (𝑡)] = ∑ 𝛿(𝜔 − 𝑘𝜔0 )
𝑇0
𝑘=−∞
+∞

= 𝜔0 ∑ 𝛿(𝜔 − 𝑘𝜔0 ) = 𝜔0 𝜓𝜔0 (𝜔)


𝑘=−∞

Ou bien encore
+∞ +∞

∑ 𝛿(𝑡 − 𝑘𝑇0 ) ↔ 𝜔0 ∑ 𝛿(𝜔 − 𝑘𝜔0 )


𝑘=−∞ 𝑘=−∞

Ainsi, la TF d’une impulsion de Dirac est aussi une impulsion de


Dirac similaire.
Exercice 3

Montrer que
1 1
𝑥(𝑡) cos(𝜔0 𝑡) ↔ 𝑋(𝜔 − 𝜔0 ) + 𝑋(𝜔 + 𝜔0 )
2 2
1 1
𝑥(𝑡) sin(𝜔0 𝑡) ↔ 𝑗 [ 𝑋(𝜔 − 𝜔0 ) − 𝑋(𝜔 + 𝜔0 )]
2 2
Réponse :

La première équation est connue sous le nom de théorème de la


modulation.

De la formule d’Euler on a
1
cos(𝜔0 𝑡) = (𝑒 𝑗𝜔0 𝑡 + 𝑒 −𝑗𝜔0 𝑡 )
2
Ensuite, en utilisant la propriété de linéarité et celle de
l’amortissement exponentiel, on obtient
1 1
ℱ[𝑥(𝑡) cos(𝜔0 𝑡)] = ℱ [ 𝑥(𝑡)𝑒 𝑗𝜔0 𝑡 + 𝑥(𝑡)𝑒 −𝑗𝜔0 𝑡 ]
2 2
1 1
= 𝑋(𝜔 − 𝜔0 ) + 𝑋(𝜔 + 𝜔0 )
2 2
Ainsi,
1 1
𝑥(𝑡) cos(𝜔0 𝑡) ↔ 𝑋(𝜔 − 𝜔0 ) + 𝑋(𝜔 + 𝜔0 )
2 2
De façon similaire on a
1 𝑗𝜔 𝑡
sin(𝜔0 𝑡) = (𝑒 0 − 𝑒 −𝑗𝜔0 𝑡 )
2𝑗

Ensuite, en utilisant la propriété de linéarité et celle de


l’amortissement exponentiel, on obtient
1 1
ℱ[𝑥(𝑡) sin(𝜔0 𝑡)] = ℱ [ 𝑥(𝑡)𝑒 𝑗𝜔0 𝑡 + 𝑥(𝑡)𝑒 −𝑗𝜔0 𝑡 ]
2𝑗 2𝑗
1 1
= 𝑋(𝜔 − 𝜔0 ) − 𝑋(𝜔 + 𝜔0 )
2𝑗 2𝑗

Ainsi,
1 1
𝑥(𝑡) sin(𝜔0 𝑡) ↔ 𝑋(𝜔 − 𝜔0 ) − 𝑋(𝜔 + 𝜔0 )
2𝑗 2𝑗

Exercice 4

Déterminer la TF du signal signe 𝑠𝑔𝑛(𝑡) et défini par


1 𝑡>0
𝑠𝑔𝑛(𝑡) = {
−1 𝑡<0
Réponse :

L’expression causale de la fonction 𝑠𝑔𝑛(𝑡) est

𝑠𝑔𝑛(𝑡) = 2𝑢(𝑡) − 1

On voit donc que


𝑑
𝑠𝑔𝑛(𝑡) = 2𝛿(𝑡)
𝑑𝑡
Notons 𝑋(𝜔) la TF du signal 𝑠𝑔𝑛(𝑡)

𝑠𝑔𝑛(𝑡) ↔ 𝑋(𝜔)

Ensuite, en appliquant la propriété de dérivation temporelle, on a


2
𝑗𝜔𝑋(𝜔) = ℱ[2𝛿(𝑡)] = 2 ↔ 𝑋(𝜔) =
𝑗𝜔

Donc,
2
𝑠𝑔𝑛(𝑡) ↔
𝑗𝜔

Notons que 𝑠𝑔𝑛(𝑡) est un signal impair, donc sa TF est imaginaire


pur.

Exercice 5

En utilisant la propriété de convolution temporelle, déterminer la


transformée inverse de Fourier de
1
𝑋(𝜔) =
(𝑎 + 𝑗𝜔)2

Réponse :

On sait que
1
𝑒 −𝑎𝑡 𝑢(𝑡) ↔
𝑎 + 𝑗𝜔

Maintenant comme
1 1 1
𝑋(𝜔) = 2
=( )( )
(𝑎 + 𝑗𝜔) 𝑎 + 𝑗𝜔 𝑎 + 𝑗𝜔
Ensuite, en utilisant le théorème de convolution temporel on a

𝑥(𝑡) = 𝑒 −𝑎𝑡 𝑢(𝑡) ∗ 𝑒 −𝑎𝑡 𝑢(𝑡)


+∞
=∫ 𝑒 −𝑎𝑡 𝑢(𝜃)𝑒 −𝑎(𝑡−𝜃) 𝑢(𝑡 − 𝜃)𝑑𝜃
−∞
𝑡
= 𝑒 −𝑎𝑡 ∫ 𝑑𝜃 = 𝑡𝑒 −𝑎𝑡 𝑢(𝑡)
0

Donc,
1
𝑡𝑒 −𝑎𝑡 𝑢(𝑡) ↔
(𝑎 + 𝑗𝜔)2

Exercice 6

Déterminer, à l’aide de la transformée de Fourier, la réponse


impulsionnelle du système linéaire défini par l’équation
différentielle suivante.

𝑦 ′ (𝑡) + 2𝑦(𝑡) = 𝑥(𝑡) + 𝑥′(𝑡)

Réponse :

En prenant la TF de l’équation on a

𝑗𝜔𝑌(𝜔) + 2𝑌(𝜔) = 𝑋(𝜔) + 𝑗𝜔𝑋(𝜔)

Et en factorisant

(𝑗𝜔 + 2)𝑌(𝜔) = (1 + 𝑗𝜔)𝑋(𝜔)

Ensuite en posant
𝑌(𝜔) 1 + 𝑗𝜔 2 + 𝑗𝜔 − 1 1
𝐻(𝜔) = = = =1−
𝑋(𝜔) 2 + 𝑗𝜔 2 + 𝑗𝜔 2 + 𝑗𝜔
En utilisant la transformée inverse de Laplace de 𝐻(𝜔), la
réponse impulsionnelle ℎ(𝑡) est

ℎ(𝑡) = 𝛿(𝑡) − 𝑒 −2𝑡 𝑢(𝑡)

notons que la procédure est identique à celle de Laplace en


remplaçant 𝑠 par 𝑗𝜔.

Exercice 7

Considérons un système SLIC décrit par


𝑑𝑦(𝑡)
+ 2𝑦(𝑡) = 𝑥(𝑡)
𝑑𝑡
En utilisant la TF, déterminer le signal de sortie 𝑦(𝑡) à chacun des
signaux d’entrée :

a. 𝑥(𝑡) = 𝑒 −𝑡 𝑢(𝑡)
b. 𝑥(𝑡) = 𝑢(𝑡)

Réponse :

a. La TF de l’équation différentielle donne

𝑗𝜔𝑌(𝜔) + 2𝑌(𝜔) = 𝑋(𝜔)

Ensuite,
𝑌(𝜔) 1
𝐻(𝜔) = =
𝑋(𝜔) 2 + 𝑗𝜔

La TF du signal d’entrée 𝑥(𝑡) = 𝑒 −𝑡 𝑢(𝑡) est


1
𝑋(𝜔) =
1 + 𝑗𝜔

Et
1 1 1
𝑌(𝜔) = 𝑋(𝜔)𝐻(𝜔) = = −
(1 + 𝑗𝜔)(2 + 𝑗𝜔) 1 + 𝑗𝜔 2 + 𝑗𝜔

En prenant la TF inverse on a

𝑦(𝑡) = (𝑒 −𝑡 − 𝑒 −2𝑡 )𝑢(𝑡)

b. La TF du signal d’entrée est


1
𝑋(𝜔) = 𝜋𝛿(𝜔) +
𝑗𝜔

En utilisant la décomposition en éléments simples appliquée à


𝑌(𝜔) on obtient
1 1
𝑌(𝜔) = 𝑋(𝜔)𝐻(𝜔) = [𝜋𝛿(𝜔) + ]
𝑗𝜔 2 + 𝑗𝜔
1 1 1
= 𝜋𝛿(𝜔) +
2 + 𝑗𝜔 𝑗𝜔 2 + 𝑗𝜔

𝜋 1 1 1 1
= 𝛿(𝜔) + −
2 2 𝑗𝜔 2 2 + 𝑗𝜔
1 1 1 1
= [𝜋𝛿(𝜔) + ] −
2 𝑗𝜔 2 2 + 𝑗𝜔

Avec le fait que 𝑓(𝜔)𝛿(𝜔) = 𝑓(0)𝛿(𝜔). Alors


1 1 1
𝑦(𝑡) = 𝑢(𝑡) − 𝑒 −2𝑡 𝑢(𝑡) = (1 − 𝑒 −2𝑡 )𝑢(𝑡)
2 2 2
On observe ici que la méthode avec la transformée de Laplace est
plus facile.
Exercice 8

Considérons le système de l’exercice précédent. Si l’entrée est


une onde carrée périodique comme celle de la figure suivante,
déterminer l’amplitude de la troisième harmonique du signal de
sortie 𝑦(𝑡).

Réponse :

Notons tout d’abord que le signal a pour SF complexe


+∞
10 1
𝑥(𝑡) = 5 + ∑ 𝑒 𝑗(2𝑚+1)𝜋𝑡
𝑗𝜋 2𝑚 + 1
𝑘=−∞

On sait aussi à partir de l’exercice précédent que


1 1
𝐻(𝜔) = ↔ 𝐻(𝑘𝜔0 ) = 𝐻(𝑘𝜋) =
2 + 𝑗𝜔 2 + 𝑗𝑘𝜋

Sachant que la sortie d’un SSLIC à une entrée périodique est


aussi périodique, c'est-à-dire si
+∞

𝑥(𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘𝜔0 𝑡
𝑘=−∞

Alors la sortie correspondante est aussi périodique de série de


Fourier
+∞

𝑦(𝑡) = ∑ 𝑐𝑘 𝐻(𝑘𝜔0 )𝑒 𝑗𝑘𝜔0 𝑡


𝑘=−∞

En appliquant ce résultat important à notre sortie on a


+∞
10 1
𝑦(𝑡) = 5𝐻(0) + ∑ 𝐻[(2𝑚 + 1)𝜋]𝑒 𝑗(2𝑚+1)𝜋𝑡
𝑗𝜋 2𝑚 + 1
𝑘=−∞
+∞
5 10 1
= + ∑ 𝑒 𝑗(2𝑚+1)𝜋𝑡
2 𝑗𝜋 (2𝑚 + 1)[2 + 𝑗(2𝑚 + 1)𝜋]
𝑘=−∞

Soit
+∞

𝑦(𝑡) = ∑ 𝑑𝑘 𝑒 𝑗𝑘𝜔0 𝑡
𝑘=−∞

La forme en cosinus de 𝑦(𝑡) est


𝑦(𝑡) = 𝐷0 + ∑ 𝐷𝑘 cos(𝑘𝜔0 𝑡 − 𝜑𝑘 )
𝑘=−∞

Avec 𝐷𝑘 l’amplitude du 𝑘 𝑖è𝑚𝑒 composant harmonique de 𝑦(𝑡). A


l’aide des relations entre les coefficients de différentes formes de
SF, on a

𝐷𝑘 = 2|𝑑𝑘 |

De l’expression de 𝑦(𝑡), avec 𝑚 = 0, on obtient


10
𝐷1 = 2|𝑑1 | = 2 | | = 1.71
𝑗𝜋(2 + 𝑗𝜋)

De même avec 𝑚 = 0, on obtient


10
𝐷3 = 2|𝑑3 | = 2 | | = 0.22
𝑗𝜋(3)(2 + 𝑗3𝜋)

B. Exercices supplémentaires
Exercice 9 :

A partir de la seule observation du signal temporel de la figure


suivante, préciser ce que vaut sa densité spectrale d’amplitude en
𝑓 = 0 [𝐻𝑧] puis calculer et esquisser sa transformée de Fourier.

Exercice 10 :

Partant de la TF d’une impulsion rectangulaire et de la propriété


d’intégration temporelle, calculer les TF de 𝑥(𝑡) 𝑒𝑡 𝑦(𝑡) (figure.
suivante). Apres calculs, vous remarquerez que 𝑌(𝑗𝑓) peut s’écrire
sous la forme d’un 𝑠𝑖𝑛𝑐2.
Exercice 11

Partant de la TF d’une impulsion et d’un saut unité, trouvez celle


de z (t) (figure précédente). Est-il possible de trouver 𝑍(𝑗 𝑓) à partir
de 𝑌(𝑗𝑓) ? Vous pouvez vérifier votre résultat en calculant 𝑍(𝑗 𝑓 = 0)
qui doit être égal à ∆𝑡/2.

Exercice 12

Soit un signal carré symétrique (à valeur moyenne nulle)


d’amplitude A. Esquissez

1. le signal x(t) ;

2. le spectre que l’on obtient avec les séries de Fourier ;

3. le spectre que l’on obtient avec la transformation de Fourier.


Exercice 13

Considérant le signal 𝑥(𝑡) = 𝑒 −𝑎·|𝑡| , calculez et esquissez 𝑥(𝑡) et


𝑋(𝑗𝑓), puis vérifiez les 2 égalités suivantes :
+∞

𝑋(0) = ∫ 𝑥(𝑡)𝑑𝑡
−∞
+∞

𝑥(0) = ∫ 𝑋(𝑡)𝑑𝑓
−∞

Exercice 14

Soit 𝑋(𝑗𝑓) la transformée de Fourier du signal x(t) de la figure


suivante. Sans calculer explicitement 𝑋(𝑗𝑓), recherchez :

1. la densité spectrale de phase de 𝑋(𝑗𝑓) ;

2. la valeur de 𝑋(𝑓 = 0) ;
+∞
3. la valeur de ∫−∞ 𝑋(𝑗𝑓)𝑑𝑓
+∞
4. la valeur de∫−∞ |𝑋(𝑗𝑓)|2 𝑑𝑓
Exercice 15

Soit un message 𝑚(𝑡) = 𝐴𝑐𝑜𝑠(2𝜋𝑓𝑡) modulé en amplitude par une


porteuse sinusoïdale 𝑝(𝑡) = 𝑠𝑖𝑛(2𝜋𝑓𝑡) :

1. calculez la TF du signal modulé 𝑥(𝑡) = 𝑚(𝑡). 𝑝(𝑡) =


𝐴𝑠𝑖𝑛(2𝜋𝑓0 𝑡). 𝑐𝑜𝑠(2𝜋𝑓1 𝑡) ;

2. esquissez le spectre du signal modulé |𝑋(𝑗𝑓)|𝑠𝑖 𝑓1 =


10 [𝑘𝐻𝑧] 𝑒𝑡 𝑓0 = 800 [𝑘𝐻𝑧] ;

3. idem que le point 2) lorsque le signal m(t) possède un spectre


continu |𝑀(𝑗𝑓)| triangulaire et non-nul entre 2 [kHz] et 10 [kHz].

Exercice 16

Soit le signal :

𝑈 . cos(2𝜋𝑓0 𝑡) 𝑠𝑖 |𝑡| ≤ 𝑡0
𝑥(𝑡) = { 0
0 𝑠𝑖 |𝑡| > 𝑡0

1. esquissez 𝑥(𝑡) ;

2. calculez sa TF 𝑋(𝑗𝑓) ;

3. esquissez |𝑋(𝑗𝑓)| 𝑝𝑜𝑢𝑟 𝑈0 = 1 [𝑉] 𝑇 = 1/𝑓0 = 1 [𝑚𝑠] 𝑡0 =


10 [𝑚𝑠].

Ce signal correspond à l’observation d’une fonction


sinusoïdale pendant une durée finie 2𝑡0 . On remarquera, une fois
le calcul effectué, que l’analyse spectrale d’une sinusoïde pendant
une durée finie revient à remplacer les raies spectrales situées en
𝑓 = ±𝑓0 par la fonction sinus cardinal.
Exercice 17

Soit le signal :
1 𝑇
[1 − cos(2𝜋𝑓0 𝑡)] 𝑠𝑖 |𝑡| ≤
𝑥(𝑡) = {2 2
𝑇
0 𝑠𝑖 |𝑡| >
2
1. esquissez 𝑥(𝑡) ;
2. calculez sa TF 𝑋(𝑗𝑓) ;
3. esquissez |𝑋(𝑗𝑓)|et la TF d’une impulsion rectangulaire de
même durée
4. observez les différences

Exercice 18

Considérant un signal 𝑥(𝑡) dont le spectre est le suivant :

1 𝑠𝑖 100 [𝐻𝑧] ≤ |𝑓| ≤ 200 [𝐻𝑧]


𝑋(𝑗𝑓) = {
0 𝑠𝑖𝑛𝑜𝑛
1. esquissez 𝑋(𝑗𝑓) ;

2. calculez sa 𝑥(𝑡) ;

3. que vaut sa puissance ?

Exercice 19

Considérant le spectre 𝑋(𝑗𝑓) de la figure suivante constitué d’un


sinus cardinal d’amplitude 𝑋 (0) = 2. 10−3 et de 2 impulsions de
Dirac de surface 1/2, trouvez puis esquissez le signal x(t)
correspondant.
Exercice 20

Démontrer que𝑠𝑖𝑛𝑐(𝑡) ∗ 𝑠𝑖𝑛𝑐(𝑡) = 𝑠𝑖𝑛𝑐(𝑡)

Exercice 21

Démontrer que
+∞
3
∫ 𝑠𝑖𝑛𝑐 3 (𝑓)𝑑𝑓 =
4
−∞
+∞
2
∫ 𝑠𝑖𝑛𝑐 4 (𝑓)𝑑𝑓 =
3
−∞

Exercice 22

Soit le signal représenté sur la figure suivante. Déterminer:

 l'expression analytique de son spectre d'amplitude


 le graphe de sa fonction d'autocorrélation
 l'expression analytique de sa densité spectrale
d'énergie.
BIBLIOGRAPHIE
1. W. Kamen et B.S Heck. Fondamentals of Signals and
Systems Using the Web and Matlab. Prentice-Hall,
Englewood Cliffs, 2e édition, 1997

2. Z.Z. Karu. Signals and Systems Made Ridiculously Simple.


ZiZiPress, Cambridge, MA , USA. 1995

3. H. Kwkernaak et R. Sivan. Modern Signals and Systems.


Prentice-Hall, Englewood Cliffs. 1991.

4. B.P. Lathi. Signal Processing and Linear Systems. Berkeley


Cambridge Press, Carmichael, 1998.

5. D.K. Lindner. Introduction to Signals and Systems.


WCB/McGraw-Hill, Boston, 1999.

6. F. Oberhettinger et L. Badii. Tables of Laplace Transforms.


Springer-Verlag, Berlin, 1973.

7. A. Oppenheim et A. Willsky. Signale und Système. VCH


Verlagsgesellschaft, Basel, 1989.

8. Frédéric de Coulon. Théorie et Traitement des Signaux.


PPUR, Traité d’électricitéVol. VI, Lausanne, 1996.

Vous aimerez peut-être aussi