Vous êtes sur la page 1sur 44

Chapitre 4

ELEMENTS D’ANALYSE SPECTRALE


DES SIGNAUX

L’analyse harmonique ou fréquentielle est l’instrument majeur de la théorie des signaux et des systèmes. Le
développement en séries de Fourier et, plus généralement, la transformation de Fourier permet d’obtenir une
représentation spectrale des signaux déterministes. Celle- ci exprime la répartition de l’amplitude, de la phase, de
l’énergie ou de la puissance des signaux considérés en fonction de la fréquence.
Ce chapitre et le suivant sont une introduction aux représentations spectrales des signaux à l’aide des séries
de Fourier et de la transformation de Fourier. Pour plus de détails, on consultera avantageusement le livre de
B.P.Lathy.

I. DEFINITIONS DE BASE

I. Signal périodique
Un signal périodique est un signal qui se répète identiquement à lui-même au bout d’un certain temps appelé
période. Mathématiquement on montre qu’un signal x est périodique de période T s’il vérifie la relation :

𝒙(𝒕) = 𝒙(𝒕 + 𝑻) (4.1)

La période correspond donc au temps au bout duquel le signal se répète identiquement à lui-même. Elle
s’exprime en seconde (s). Cependant il faut distinguer la période fondamentale du signal de celles de ses
harmoniques.
La période fondamentale est le plus petit temps au bout duquel le signal se répète identiquement à lui-
même, tandis que les périodes des différents harmoniques du signal sont des multiples de la période
fondamentale. La relation précédente peut s’écrire :

𝒙(𝒕) = 𝒙(𝒕 + 𝒌𝑻𝟎 ) (4.2)

où 𝑻𝟎 est la période fondamentale et les 𝒌𝑻𝟎 sont les multiples de 𝑇0 appelés périodes d’harmonique de rang k

La définition d’un signal périodique peut être complétée par celle de la fréquence. La fréquence d’un signal
correspond au nombre de fois que ce signal se répète sur une période. Mathématiquement la fréquence est
𝟏
l’inverse de la période : 𝑭 = 𝑻 (𝑯𝒛) .
On distingue ici aussi la fréquence fondamentale qui est l’inverse de la période fondamentale des fréquences
d’harmoniques qui sont ses différents multiples.
𝟏 𝟏
𝑭𝟎 = 𝑻 et 𝑭𝒌 = 𝒌. 𝑻 = 𝒌. 𝑭𝟎
𝟎 𝟎

II. Spectre
On appelle spectre d’un signal, toute représentation de ce signal en fonction de la fréquence. Ainsi, si nous
représentons l’amplitude du signal en fonction de la fréquence on obtient un spectre d’amplitude ; si c’est la phase
on parle de spectre de phase …

III. Analyse Spectrale


L’analyse spectrale ou analyse harmonique constitue un ensemble de méthodes et de techniques qui
permettent de mettre en évidence les caractéristiques essentielles d’un signal dans le domaine fréquentiel. Il s’agit
essentiellement d’outils mathématiques tels que les séries et transformées de Fourier qui nous aideront à
déterminer des caractéristiques importantes comme la distribution de l’amplitude, de la phase, de l’énergie …etc.
d’un signal en fonction de la fréquence.

IV. Fondements de l'analyse dans le domaine fréquentiel

La méthode de convolution, dans laquelle une entrée de système SLIC est exprimée comme une somme
d’impulsions et la réponse est trouvée comme la somme des réponses du système à toutes les composantes
d’impulsion, est une méthode d’analyse dans le domaine temporel. Nous introduisons maintenant une autre
approche tout aussi fructueuse, la méthode du domaine fréquentiel, où l'entrée est exprimée comme une somme
de sinusoïdes (ou exponentielles), et la réponse du système est obtenue en ajoutant les réponses du système à
toutes les composantes sinusoïdales (ou exponentielles) du signal d'entrée. Une telle méthode n'est intéressante
que si la réponse d'un système SLIC à une sinusoïde (ou exponentielle) est simple et facile à obtenir. C'est
précisément le cas, comme le montre l'analyse suivante.

1. Deux représentations pour un même signal


Le temps et la fréquence sont deux bases servant à la description des signaux. Ce sont deux points de vue
différents d'une même réalité ; ils sont complémentaires. Il est important de bien comprendre les relations qui
existent entre ces deux bases ; c’est le but de ce chapitre.

Une grandeur sinusoïdale est décrite par l'équation

𝒙(𝒕) = 𝑨𝒄𝒐𝒔(𝟐𝝅𝒇𝟎 𝒕 + 𝜶)

Son évolution temporelle est contenue dans le mot cos ; dès lors, on sait que le signal x(t) ondule avec une
forme précise fixée par la fonction cosinus. Cependant, des informations supplémentaires sont données :
l'amplitude A, la phase et la fréquence𝒇𝟎 . Ce sont ces informations qui sont fournies par la représentation
fréquentielle ou spectrale du signal 𝒙(𝒕).

Comme le temps et la fréquence sont les deux composantes de la description d'un même signal, une
sinusoïde devrait être représentée dans un espace à trois dimensions (fig. 4.1). Une telle représentation étant mal
pratique, on la remplace par ses projections sur les plans temporel et fréquentiel.

Dans la projection sur l'axe du temps, on retrouve le dessin bien connu d'une sinusoïde, alors que la projection
sur l'axe des fréquences conduit à une raie située en 𝒇 = 𝒇𝟎 et de hauteur𝑨. Comme cette projection ne fournit
que l’amplitude 𝑨, il est nécessaire, pour la fréquence considérée, de donner également la phase. Ces deux
diagrammes portent le nom de spectres d'amplitudes et de phases.

Considérons un signal composé de deux sinusoïdes


𝝅 𝟏 𝝅
𝒙(𝒕) = 𝑨𝒄𝒐𝒔 (𝟐𝝅𝒇𝟎 𝒕 − ) + 𝑨𝒄𝒐𝒔 (𝟒𝝅𝒇𝟎 𝒕 − )
𝟐 𝟐 𝟒
La figure 4.2a illustre le comportement temporel de ce signal et de ses deux composantes. La figure 4.2b montre
ce qui se passe alors dans l'espace des fréquences. On notera que la somme des deux sinusoïdes dans l'espace-
temps conduit également à la somme des spectres d'amplitudes et de phases.
Figure 4.1 :

Figure 4.2 :
2. Facilité de distinguer des signaux multiplexés dans le temps

Supposons que nous souhaitions mesurer le niveau de distorsion d’un oscillateur. Ou que nous essayons de
détecter le bruit dû à un engrenage défectueux sur une machine tournante. Dans chaque cas, nous essayons de
détecter une composante sinusoïdale de faible amplitude en présence d’un signal ayant une contribution
beaucoup plus importante. La figure 4.3 montre un signal dans le domaine temporel qui semble être une sinusoïde
pure. Mais la représentation de ce même signal dans le domaine fréquentiel montre qu’il est effectivement
composé d’une grande composante sinusoïdale et d’autres composantes plus faibles. Lorsque ces composantes
sont séparées dans le domaine fréquentiel, les petites composantes sont faciles à voir puisqu’elles ne sont pas
masquées par les composantes de fortes contributions.

Figure 4.3 : Signal temporel (en haut) et sa représentation fréquentielle (en bas)

Ceci fait partie des nombreux exemples de multiplexage temporel dont les composantes temporelles sont difficiles
à distinguer mais dont la représentation spectrale dévoile la complexité et la simplifie.

Le multiplexage temporel (en anglais, TDM, time-division multiplexing) est une technique de
multiplexage numérique (ou plus rarement analogique) permettant à un ou plusieurs émetteurs de transmettre
plusieurs canaux numériques élémentaires à bas ou moyen débit (voix, données, vidéo) sur un même support
de communication ... Pour faire simple disons que c’est une technique permettant de véhiculer plusieurs
signaux indépendants à travers un seul support de transmission via un signal composite.

𝑥1 (𝑡) 𝑛
𝑥′1 (𝑡)
𝑥2 (𝑡) 𝑥(𝑡) = ෍ 𝑥𝑘 (𝑡)
𝑥′2 (𝑡)
𝑘=1

𝑥𝑛−1 (𝑡) 𝑥′𝑛−1(𝑡)


𝑥𝑛 (𝑡) 𝑥′𝑛 (𝑡)

Figure 4.4 : Modèle de multiplexage temporel

L’un des avantages le plus capital de cette technique est la réduction du coût de transmission des
informations. Cependant, cette technique présente un sérieux revers lié au brassage de plusieurs signaux dans
le temps. En effet, dans le domaine temporel, des signaux multiplexés sont difficiles voire impossibles à
distingués car à un instant donné la valeur du signal composite est égale à la somme des valeurs de chacun
des signaux qui le constituent à ce même instant.
Prenons comme exemple illustratif un signal composite contenant quatre sinusoïdes parfaites de fréquences
différentes :

𝑥1 (𝑡) = 30 cos(80𝜋𝑡) , 𝑥2 (𝑡) = 50 cos(50𝜋𝑡) , 𝑥3 (𝑡) = 2 cos(20𝜋𝑡 ) , 𝑥4 (𝑡) = 10cos(35𝜋𝑡)

𝑒𝑡
4

𝑥(𝑡) = ෍ 𝑥𝑘 (𝑡) = 𝑥1 (𝑡) + 𝑥2 (𝑡) + 𝑥3 (𝑡) + 𝑥4 (𝑡)


𝑘=1

Nous présentons dans un premier temps le signal composite et ses composantes dans le domaine temporel
à la figure 4.5

Figure 4.5 : Représentation temporelle du signal composite (en bas) et ses signaux constitutifs (en haut)

Ensuite pour distinguer les signaux à l’arrivée on emmène le signal composite dans le domaine fréquentiel où
ses signaux constitutifs apparaitront en fonction de leurs fréquences ce qui facilite leur distinction. Et enfin on
utilise un filtre adapté pour les séparer.

Figure 4.6 : Représentation temporelle (en haut) et spectrale (en bas)


3. Réponse du système SLIC à un 𝒆𝒔𝒕 exponentiel permanent

Nous montrons maintenant qu'une réponse du système SLIC à une entrée exponentielle permanente 𝑒 𝑠𝑡 est,
dans une constante multiplicative, la même exponentielle. Autrement dit, dans le cas d'une entrée exponentielle, la
forme de la sortie correspond à la forme de l'entrée. Observez que nous considérons ici une exponentielle
permanent commençant à 𝑡 = −∞, par opposition à une exponentielle causale 𝒆𝒔𝒕 𝒖(𝒕) commençant à 𝑡 = 0. La
réponse du système à une exponentielle permanente 𝑒 𝑠𝑡 est
+∞ +∞
𝒚(𝒕) = 𝒉(𝒕) ∗ 𝒆𝒔𝒕 = ∫−∞ 𝒉(𝜽)𝒆𝒔(𝒕−𝜽) 𝒅𝜽 = 𝒆𝒔𝒕 ∫−∞ 𝒉(𝜽)𝒆−𝒔𝜽 𝒅𝜽 (4.3)

L'intégrale de droite, fonction de 𝑠 mais constante par rapport à 𝑡, sera notée 𝑯(𝒔). Donc
+∞
𝒚(𝒕) = 𝑯(𝒔). 𝒆𝒔𝒕 = 𝑯(𝒔). 𝒙(𝒕)|𝒙(𝒕)=𝒆𝒔𝒕 avec 𝑯(𝒔) = ∫−∞ 𝒉(𝜽)𝒆−𝒔𝜽 𝒅𝜽 (4.4)

Pour 𝒉(𝒕) causal, l'intégrale du côté droit serait comprise entre les limites 0 𝑒𝑡 ∞. Pour une entrée exponentielle
éternelle, la sortie est la même que l'entrée où la constante multiplicative 𝑯(𝒔) est appelée fonction de transfert du
système. Aucune autre entrée n'a cette propriété.1 Comme nous le verrons plus tard, l’équation (4.4) indique que
la fonction de transfert d’un système 𝑯(𝒔) est la transformée de Laplace de sa réponse impulsionnelle 𝒉(𝒕).

Pour l'entrée 𝒙(𝒕) = 𝒆𝒔𝒕 (et uniquement pour 𝒆𝒔𝒕 ), la sortie est 𝒚(𝒕) = 𝑯(𝒔)𝒆𝒔𝒕 = 𝑯(𝒔) 𝒙(𝒕). Ainsi, un
réarrangement de l'Eq. (4.4) peut être considérée comme une définition alternative de la fonction de transfert 𝑯(𝒔)
d'un système SLIC:
𝑺𝒊𝒈𝒏𝒂𝒍 𝒅𝒆 𝒔𝒐𝒓𝒕𝒊𝒆 𝒚(𝒕)
𝑯(𝒔) = |
𝑺𝒊𝒈𝒏𝒂𝒍 𝒅′𝒆𝒏𝒕𝒓é𝒆 𝒆𝒏𝒕𝒓é𝒆=𝒆𝒙𝒑𝒐𝒏𝒆𝒏𝒕𝒊𝒆𝒍𝒍𝒆
= 𝒙(𝒕)| (4.5)
𝒙(𝒕)=𝒆𝒔𝒕
𝒑𝒆𝒓𝒎𝒂𝒏𝒆𝒏𝒕𝒆

Exemple 4.1 : (Fonctions de transfert des systèmes communs)


Utilisez Eq. (4.5) pour déterminer les fonctions de transfert de
(a) une temporisation idéale de T secondes (b) un différentiateur idéal
(𝑘)
(c) un intégrateur idéal d) un système SLIC spécifié par : ∑𝐾
𝑘=0 𝑎𝑘 𝑦 (𝑡) = ∑𝐿𝑙=0 𝑏𝑙 𝑥 (𝑙) (𝑡)

Les pôles et les zéros d'un système nous aident à comprendre intuitivement le comportement du système.
Lorsqu'une entrée exponentielle éternelle 𝑥(𝑡) = 𝒆𝒔𝒕 a une fréquence complexe s proche d'un zéro du système,
𝐻(𝑠) est petit, de même que la sortie correspondante. Inversement, si la fréquence s est proche d'un pôle du
système, à la fois 𝐻(𝑠) et la sortie correspondante deviennent grandes. En fait, lorsque la fréquence d’une entrée
correspond à un pôle du système, une résonance se produit et de nouveaux modes (différents de l’entrée
d’origine) sont possibles en sortie. Au début, il peut sembler qu'un mode résonant viole notre conclusion
précédente que la sortie d'un système SLIC à une exponentielle éternelle est la même exponentielle éternelle
modifiée seulement en gain et en phase. Cependant, comme indiqué précédemment, un tel comportement n'est
garanti que si l'entrée est dans la région de convergence de 𝑯(𝒔). Dans le cas de la résonance, l'entrée n'est pas
dans la région de convergence de 𝑯(𝒔). En résumé, les zéros du système ont tendance à supprimer la réponse du
système et les pôles du système ont tendance à l'amplifier. De plus, comme nous le verrons plus loin, les pôles
d’un système sont directement liés à la stabilité du système.

1
La fonction avec une telle propriété est appelée fonction propre, et la constante 𝐻(𝑠) est appelée valeur propre du système.
II. OUTILS D’ANALYSE SPECTRALE DES SIGNAUX
Les outils d’analyse spectrale sont nombreux et variés. On peut les regrouper en plusieurs classes dont les plus
utilisées sont :
4. Les outils mathématiques
5. Les outils électroniques
6. Les outils informatiques (logiciels)

1. Outils mathématiques
Nous allons classer ces outils en fonction de certains critères : la durée des phénomènes (P, la forme du signal
(numérique ou analogique).
Durée des phénomènes Phénomènes à temps Phénomènes à temps discrets
continu
Phénomènes périodiques Séries de Fourier Transformée de Fourier
Permanents Non Transformée de Fourier Discret
périodiques
Phénomènes Transformée de Laplace Transformée en Z
transitoires

Nous allons dans les chapitres suivants rappeler ces méthodes et l’impact de leur utilisation dans les
télécommunications notamment dans la transmission et la numérisation des signaux, la caractérisation et l’analyse
spectrale du comportement des systèmes linéaires.
2. Outils électroniques
Un analyseur de spectre est un appareil de mesure, qui représente un signal en fonction de sa fréquence.
Alors qu’un oscilloscope représente l’amplitude d’un signal en fonction du temps, l’analyseur de spectre représente
l’amplitude d’un signal en fonction de sa fréquence. La CIE nous fournit un signal à 50 Hz, si on observe l’évolution
de la tension en fonction du temps sur un oscilloscope nous observerions le signal suivant

Figure 4.7 :

Si on représente dans le domaine fréquentiel (mesure sous l’analyseur de spectre), nous observerions le signal
suivant :

Figure 4.8 :
Il s’agit d’un signal à 50 Hz, c'est-à-dire un signal dont la seule amplitude non nulle est à 50 Hz. Sur la figure
suivante, nous observerons la trace temporelle et fréquence d’un signal composée de trois sinusoïdes :

Figure 4.9 :

Dans le cas précédent, le signal à 200 Hz est appelée la fondamentale, les fréquences à 400 Hz et 600 Hz
sont les harmoniques. La fréquence des harmoniques est toujours un multiple de la fréquence du fondamentale.
Ainsi, l’analyseur de spectre représente l’amplitude et chaque fréquence existante dans le signal à mesurer.
Le signal étudié est donc constitué d’une somme de signaux sinusoïdaux dont l’amplitude et les fréquences sont
déterminées par l’analyseur de spectre. Les représentations spectrale et temporelle donne les mêmes
informations. La représentation spectrale représente un signal en fonction de la fréquence (analyseur de spectre)
alors que la représentation temporelle représente le même signal en fonction du temps (oscilloscope). La
représentation spectrale donne l’amplitude de toutes les fréquences présentes dans le signal temporel, on peut
ainsi écrire le signal temporel comme une sommation de signaux sinusoïdaux

3. Outils informatiques

 Matlab
 Scilab
𝑷𝒉𝒐𝒕𝒐𝒔𝒉𝒐𝒑 pour les images
 Adobe{ 𝑨𝒖𝒅𝒊𝒕𝒊𝒐𝒏 pour les sons et la musiques
𝑷𝒓𝒆𝒎𝒊𝒆𝒓 pour les vidéos
 AudioSpectreAnalyser - V1.1.1.0
 CoolEdit
 Praat

III. LES SÉRIES DE FOURIER


Tout comme Eq (1.9) représente un signal 𝒙(𝒕) en termes de fonctions delta, la série de Fourier nous dit que
nous pouvons représenter un signal périodique 𝒙(𝒕) en termes d'exponentielles complexes permanentes ou, de
manière équivalente, en termes de sinusoïdes permanents . Étant donné la simplicité de l'analyse du système pour
les entrées exponentielles, comme on le voit dans la Sec. 4.3, une telle représentation est très intéressante.
Il existe deux formes principales de la série de Fourier : la forme exponentielle et la forme trigonométrique.
Dans le cas de signaux réels, la forme trigonométrique conduit également à une forme trigonométrique compacte.
Chaque formulaire contient des informations identiques. Nous préférons la forme exponentielle car, comparée aux
formes trigonométriques, elle est très compacte. En outre, une réponse du système SLIC aux signaux
exponentiels est également plus simple (plus compacte) que la réponse du système aux sinusoïdes. De plus, la
manipulation mathématique et le traitement de la forme exponentielle (qui simplifie la multiplication, la division, la
différenciation et l'intégration) s'avèrent beaucoup plus faciles que les formes trigonométriques.
Un inconvénient mineur de la forme exponentielle est qu'elle, étant un signal complexe, est moins facile à
visualiser qu'une construction basée sur des sinusoïdes. Heureusement, cette difficulté peut être facilement
surmontée en raison du lien étroit entre les coefficients et les spectres exponentiels et trigonométriques compacte.
Aux fins de l'analyse mathématique, nous utiliserons des signaux et des spectres exponentiels, mais pour favoriser
une compréhension intuitive ou qualitative, nous parlerons en termes de décomposition sinusoïdale compacte.
Ainsi, bien que la plupart de nos futures manipulations mathématiques se feront en termes de spectres
exponentiels, nous parlerons de manière interchangeable d'exponentielles et de sinusoïdes. C'est un point
important ; les lecteurs devraient faire un effort supplémentaire pour se familiariser avec les trois formes de
spectres, leurs relations et leur convertibilité.

1. Forme exponentielle de la série de Fourier


Un signal périodique 𝑥(𝑡) de période fondamentale 𝑇0 (fréquence fondamentale 𝑓0 = 1/𝑇0 ) peut être exprimé
comme la somme d'une exponentielle complexe de période 𝑇0 et de ses harmoniques:
+∞

𝑥 (𝑡) = ෍ 𝑋𝑘 𝑒 𝑗𝑘𝜔0 𝑡 (4.6)


𝑘=−∞

Ici, 𝜔0 = 2𝜋𝑓0 = 2𝜋/ 𝑇0 est la fréquence fondamentale (radian). Souvent, Eq. (4.6) fait référence à l'équation de
synthèse de la série de Fourier.
Les coefficients 𝑋𝑘 sont complexes, en général, et sont donnés par

1
𝑋𝑘 = ∫ 𝑥(𝑡)𝑒 −𝑗𝑘𝜔0𝑡 𝑑𝑡 (4.7)
𝑇0
𝑇0

Souvent, Eq. (4.7) fait référence à l'équation d'analyse de la série de Fourier. Une discussion sur les propriétés
de base des séries de Fourier est reportée à Sec. 1.8, où ils sont présentés avec les propriétés correspondantes
de la transformée de Fourier. Pour désigner la relation de série de Fourier entre 𝑥(𝑡) et 𝑋𝑘 , nous adoptons la
notation compacte de
𝑥(𝑡) ⟺ 𝑋𝑘
Pour des raisons évidentes, les coefficients de la série de Fourier pour un signal arbitraire sont étiquetés de
manière cohérente avec la fonction du domaine temporel ; autrement dit, 𝑌𝑘 sont les coefficients de la série de
Fourier du signal 𝑦(𝑡), 𝑍𝑘 pour 𝑧(𝑡), et ainsi de suite.
Le lecteur alerte notera que Eq. (4.6) est juste un cas particulier de l'Eq. (4.) où 𝒔𝒌 = 𝒋𝒌𝝎𝟎. Ainsi, la sortie d'un
système SLIC 𝐻(𝑠) vers une entrée périodique peut, étant donné des conditions mineures sur 𝐻(𝑠), être
facilement calculée en connaissant la série de Fourier de l'entrée et en utilisant Eq. (1.54) avec 𝒔𝒌 = 𝒋𝒌𝝎𝟎. Pour
comprendre la sortie d'un système SLIC en réponse à une entrée périodique, nous venons de toucher le jackpot.
a. Le spectre de la série Fourier
La série exponentielle de Fourier dans l'Eq. (4.6) indique qu'un signal périodique 𝑥(𝑡) peut être exprimé
comme une somme pondérée d'exponentielles complexes harmoniquement liées 𝒆𝒋𝒌𝝎𝟎 𝒕 . Les poids 𝑋𝑘 constituent
ce que l'on appelle le spectre d’amplitude de 𝑥(𝑡). Pour tracer les coefficients complexes 𝑋𝑘 en fonction de 𝑘 ou,
de manière plus informative, en fonction de la fréquence radian 𝒌𝝎𝟎 , nous avons besoin de deux tracés: les
parties réelle et imaginaire de 𝑋𝑘 ou l’amplitude et l'angle de 𝑋𝑘 que nous noterons ∠𝑋𝑘 . Nous préférons ce dernier
car il est plus intuitif et informatif.
Le spectre d’amplitude |𝑿𝒌 | nous indique la force de chaque composante exponentielle ejkω0t, et le spectre de
phase ∠𝑿𝒌 nous indique la phase de chaque composante exponentielle. Pour faciliter le tracé des spectres
d'amplitude et de phase, les coefficients 𝑿𝒌 doivent être exprimés sous forme polaire comme |𝑿𝒌 |𝒆𝒋∠𝑿𝒌 .
Plus intuitivement, ces spectres montrent en un coup d'œil les magnitudes et les phases des sinusoïdes qui
composent la composition du signal 𝑥(𝑡). Connaissant ces spectres, nous pouvons reconstruire ou synthétiser le
signal 𝑥(𝑡) selon l'Eq. (4.6). Par conséquent, les spectres de fréquence, qui fournissent une manière alternative de
décrire un signal périodique 𝑥(𝑡), sont en tout point équivalents au tracé de 𝑥(𝑡) en fonction de 𝑡. Contrairement à
la description du domaine temporel 𝑥(𝑡), les spectres de fréquence |𝑿𝒌 | et ∠𝑿𝒌 constituent la description dans le
domaine fréquentiel du signal. Les signaux ont donc une double identité : l'identité du domaine temporel et
l'identité du domaine fréquentiel. Les deux identités se complètent ; pris ensemble, ils permettent de mieux
comprendre un signal.
Dans le cas particulier de 𝑘 = 0, notez que 𝑿𝟎 est juste la valeur moyenne de 𝑥(𝑡) prise sur une période. Cette
composante continue du signal peut souvent être déterminée par inspection de 𝑥(𝑡). De plus, Eq. (4.7) montre que
pour le réel 𝑥(𝑡), 𝑿𝒌 est symétrique conjuguée (𝑿𝒌 = 𝑿∗𝒌 ), ce qui assure que
|𝑿𝒌 | = |𝑿−𝒌 | et ∠𝑿𝒌 = −∠𝑿∗𝒌 (4.8)

En d'autres termes, un signal réel 𝑥(𝑡) a un spectre de magnitude pair |𝑿𝒌 | et un spectre de phase impair ∠𝑿𝒌.

Exemple 4.2 (Les séries et spectres de Fourier exponentiels)


Trouvez la série exponentielle de Fourier pour le signal périodique 𝑥(𝑡) indiqué dans la figure 4.10. Esquissez les
spectres d'amplitude et de phase pour 𝑥(𝑡).

Figure 4.10 : un signal 𝑥(𝑡) 𝜋-périodique avec 𝑥(𝑡) = 𝑒 −𝑡/2 sur 0 ≤ 𝑡 ≤ 𝜋


2𝜋
Dans cet exemple, 𝑇0 = 𝜋 𝑠, 𝜔0 = 𝑇0
= 2 𝑟𝑑. 𝑠 −1 𝑒𝑡 𝑥 (𝑡) = ∑+∞
𝑘=−∞ 𝑋𝑘 𝑒
𝑗2𝑘𝑡
; où

𝜋 𝜋
1 −𝑗2𝑘𝑡
1 −𝑡/2 −𝑗2𝑘𝑡
1 −𝑡(𝑗2𝑘+1/2)
2 1 − 𝑒 −𝜋/2 0.504
𝑋𝑘 = ( )
∫𝑥 𝑡 𝑒 𝑑𝑡 = ∫ 𝑒 𝑒 𝑑𝑡 = ∫ 𝑒 𝑑𝑡 = ( )≈ (4.9)
𝑇0 𝜋 𝜋 𝜋 1 + 𝑗4𝑘 1 + 𝑗4𝑘
𝑇0 0 0

Figure 4.11 : Spectres d’ un signal 𝑥(𝑡) 𝜋-périodique avec 𝑥(𝑡) = 𝑒 −𝑡/2 sur 0 ≤ 𝑡 ≤ 𝜋. (a) |𝑋𝑘 | et (b) ∠𝑋𝑘
Les résultats sont présentés dans la figure 4.11. Observez que le signal a une teneur en courant continu
significative et que les coefficients 𝑿𝒌 sont complexes. De plus, 𝑿𝒌 et 𝑿−𝒌 sont des conjugués, comme prévu
provenant d'un signal réel. Ainsi, le spectre d'amplitude est une fonction paire et le spectre angulaire est une
fonction impaire. Ceci confirme l'observation de l'Eq. (4.8).
Un aspect intéressant de la série de Fourier est que chaque fois qu'il y a une discontinuité de saut dans 𝑥(𝑡),
la série au point de discontinuité converge vers une moyenne des limites gauche et droite de 𝑥(𝑡) à l'instant de
discontinuité, comportement dicté par la propriété d'erreur quadratique moyenne minimisante de la série de Fourier
[1]. Dans l’exemple 4.2, par exemple, 𝑥(𝑡) est discontinu à 𝑡 = 0 avec 𝑥 (0 +) = 1 et 𝑥 (0 −) = 𝑒 − 𝜋 / 2 = 0.2079.
La série de Fourier correspondante converge vers une valeur (1 + 0,2079) /2 = 0,6039 à 𝑡 = 0 (Revoir le
théorème de l’unicité de Jordan-Dirichlet).
b. Qu'est-ce qu'une fréquence négative ?
La figure 4.11 illustre une caractéristique intéressante de la série exponentielle de Fourier, à savoir qu'il existe
des spectres pour des valeurs positives aussi bien que négatives de 𝒌𝝎𝟎 (la fréquence angulaire). L'existence de
fréquences négatives est quelque peu inquiétante car, par définition commune, la fréquence (le nombre de
répétitions par seconde) est une quantité positive. Comment interpréter une fréquence négative ?
Pour comprendre ce mystère apparent, nous devons bien comprendre ce que l'on entend par fréquence.
Prenons une sinusoïde de 1 𝐻𝑧 et une onde carrée de 1 𝐻𝑧. Les deux ont un taux de répétition ou une fréquence
identique, mais nous savons que les signaux eux-mêmes sont différents et ont donc des séries de Fourier
différentes. Pour tenir compte de ces différences, les spectres de Fourier considèrent nécessairement la fréquence
d'une manière plus restrictive et plus précise pour indiquer un contenu exponentiel complexe (ou sinusoïdal).

Considérons deux composantes de nos spectres de Fourier : 𝑒 𝑗𝜔0 𝑡 et 𝑒 𝑗𝜔0𝑡 . La première est une composante
de fréquence positive et la seconde est une composante de fréquence négative. Mathématiquement, la distinction
est claire, mais intuitivement cette explication fait défaut. Notez, cependant, que 𝑒 𝑗𝜔0 𝑡 et 𝑒 −𝑗𝜔0 𝑡 sont des fonctions
périodiques qui partagent la même période 𝑇0 = 2𝜋 / 𝜔0 . Ainsi, 𝑒 𝑗𝜔0 𝑡 et 𝑒 −𝑗𝜔0 𝑡 se répètent le même nombre de
fois par seconde. Cependant, la manière dont 𝑒 𝑗𝜔0𝑡 et 𝑒 𝑗𝜔0 𝑡 se répètent est différente, et c'est là que réside
l'essence de ce que l'on entend par fréquence négative.

La figure 4.12 permet de démontrer cette distinction. Les deux 𝑒 𝑗𝜔0 𝑡 et 𝑒 −𝑗𝜔0 𝑡 sont des vecteurs complexes de
longueur unitaire qui, en tant que fonctions de 𝑡, tournent dans le plan complexe. La composante de fréquence
positive 𝑒 𝑗𝜔0𝑡 tourne dans le sens inverse des aiguilles d'une montre, tandis que la composante de fréquence
négative 𝑒 𝑗𝜔0𝑡 tourne dans la direction opposée ou dans le sens des aiguilles d'une montre. Le signe négatif
inverse simplement le sens de rotation et la signification de la fréquence négative devient claire.

Figure 4.12 : Comprendre la fréquence négative

La situation est analogue au cas où deux personnes courent dans des directions opposées avec la même
vitesse. Bien que le terme vitesse négative semble assez étrange, il permet de distinguer les différentes directions
des deux coureurs. Il en va de même pour ces exponentielles et le terme fréquence. Bien que la fréquence
négative puisse sembler étrange, elle nous permet de distinguer le sens de rotation de nos composants
exponentiels complexes.
La figure 4.12 donne également un aperçu des raisons pour lesquelles des fréquences négatives sont
nécessaires dans la plupart des séries de Fourier. Il serait impossible, par exemple, de générer un signal purement
réel en utilisant uniquement des composants à fréquence positive. Les signaux réels nécessitent une danse
symétrique-conjuguée soigneusement chorégraphiée entre des fréquences positives et négatives où la
composante imaginaire de 𝑒 𝑗𝑘𝜔0 𝑡 ne peut être contrée que par son miroir de fréquence négative 𝑒 −𝑗𝑘𝜔0𝑡 .
c. Propriété de finalité de la série de Fourier
L'une des propriétés importantes de la série de Fourier est la propriété de finalité. Considérons un signal 𝑥(𝑡) et sa
représentation en série de Fourier 𝒙(𝒕) = ∑+∞
𝒌=−∞ 𝑿𝒌 𝒆
𝒋𝒌𝝎𝟎 𝒕
. Si nous approchons 𝑥(𝑡) par une série de Fourier
tronquée (nombre fini de termes) comme
𝑲

𝒙(𝒕) ≈ 𝒙𝑲 (𝒕) = ෍ 𝑿𝒌 𝒆𝒋𝒌𝝎𝟎 𝒕 (4.10)


𝒌=−𝑲

alors selon la propriété de finalité, cette approximation est l'optimum pour un 𝑲. donné. Pensé d'une autre façon,
les coefficients 𝑿𝒌 sont eux-mêmes optimaux, et chaque coefficient est indépendant des autres. Il n'y a pas d'autre
choix pour 𝑿𝒌 que les coefficients de Fourier qui amélioreront l'approximation. L'optimum ici est dans le sens de
minimiser l'énergie sur un cycle de l'erreur 𝒙(𝒕) − 𝒙𝑲 (𝒕).
2. Formes trigonométriques et trigonométriques compactes
La forme trigonométrique de la série de Fourier ré-exprime l'Eq. (4.6) comme suit ;
+∞ +∞

𝒙(𝒕) = 𝒂𝟎 + ෍ 𝒂𝒌 𝐜𝐨𝐬(𝒌𝝎𝟎 𝒕) + ෍ 𝒃𝒌 𝒔𝒊𝒏(𝒌𝝎𝟎 𝒕) (𝟒. 𝟏𝟏)


𝒌=𝟏 𝒌=𝟏

𝟐𝝅
Où 𝝎𝟎 = 𝑻𝟎
est la fréquence fondamentale du signal, 𝒂𝟎 est la valeur moyenne ou composante continue (DC)
du signal et 𝒂𝒌 , 𝒃𝒌 sont les coefficients de Fourier du développement en cosinus et sinus.

Les coefficients de Fourier 𝒂𝒌 et 𝒃𝒌 se calculent comme suit


𝑻
𝟐
𝟏
𝒂𝟎 = ∫ 𝒙(𝒕)𝒅𝒕
𝑻
𝑻

𝟐
𝑻
𝟐 +
𝒂𝒌 = 𝑻 ∫ 𝑻
𝟐
𝒙(𝒕)𝒄𝒐𝒔(𝟐𝒌𝝅𝒇𝟎𝒕)𝒅𝒕 𝒌≥𝟏

𝟐
𝑻 (4.12)
𝟐 +
𝒃𝒌 = 𝑻 ∫ 𝑻
𝟐
𝒙(𝒕)𝒔𝒊𝒏(𝟐𝒌𝝅𝒇𝟎 𝒕)𝒅𝒕 𝒌≥𝟏

𝟐
L'équation (4.11) nous dit ce que nous savons déjà : nous pouvons décomposer un signal périodique en une
somme de sinus et de cosinus. Compte tenu de l'équivalence des formes exponentielle et trigonométrique, il faut
peu d'efforts pour démontrer que

𝒂𝒌 = 𝑿𝒌 + 𝑿−𝒌 , 𝒃𝒌 = 𝒋(𝑿𝒌 − 𝑿−𝒌 )


(𝒂𝒌 − 𝒋𝒃𝒌 )
𝒂 𝟎 = 𝑿𝟎 𝒆𝒕 𝑿𝒌 = (4.13)
𝟐
Les résultats obtenus jusqu'à présent sont généraux et s'appliquent que x(t) soit une fonction réelle ou complexe
de t. Cependant, lorsque x(t) est réel, les coefficients 𝑎𝑘 et 𝑏𝑘 sont réels pour tout 𝑘, et en utilisant les identités
trigonométriques, nous pouvons exprimer la série de Fourier dans l'équation. (4.11) sous la forme trigonométrique
compacte comme
+∞

𝒙(𝒕) = 𝑪𝟎 + ෍ 𝑪𝒌 𝐜𝐨𝐬(𝒌𝝎𝟎 𝒕 + 𝝋𝒏 ) (𝟒. 𝟏𝟒)


𝒌=𝟏

Avec 𝑪𝟎 = 𝒂 𝟎 = 𝑿𝟎

𝑪𝒌 = +√𝒂𝟐𝒌 + 𝒃𝟐𝒌 = 𝟐|𝑿𝒌 |

−𝒃
𝒌
𝝋𝒌 = 𝒂𝒓𝒄𝒕𝒂𝒏 ( 𝒂𝒌 ) = ∠𝑿𝒌 (𝟒. 𝟏𝟓)

Notez que les coefficients 𝑪𝒌 sont toujours positifs, bien que 𝑪𝟎 puisse être positif ou négatif. De plus, 𝝋 doit
𝒌
toujours être calculé en utilisant une fonction arc-tangente à deux arguments. Par exemple, si 𝒂𝒌 = −𝟏 et 𝒃𝒌 =
−𝟏, 𝝋 se situe dans le troisième quadrant, et
𝒌

−𝟏 𝟑𝝅 𝟏 𝝅
𝝋𝒌 = 𝒂𝒓𝒄𝒕𝒂𝒏 ( )=− ≠ 𝒂𝒓𝒄𝒕𝒂𝒏 ( ) =
−𝟏 𝟒 𝟏 𝟒
Sous cette forme, 𝑥(𝑡) (Eq. 4.14) apparait comme la somme :

 D’un terme constant 𝐶0 qui représente la valeur moyenne de 𝑥(𝑡) sur une période
 Et d’une infinité de signaux sinusoïdaux de pulsions 𝜔, 2𝜔, … , 𝑛𝜔 et d’amplitudes 𝐴1 , 𝐴2 , … , 𝐴𝑛 et de phases
𝜑1 , 𝜑2 , … , 𝜑𝑛 qui sont les harmoniques de rang n.

La représentation en bâtons des valeurs de 𝐴𝑛 en fonction de 𝑛𝜔 (donc en fonction de la fréquence) est appelée
spectre d’amplitude du signal 𝒙(𝒕)

La représentation en bâtons des valeurs de 𝜑𝑛 en fonction de 𝑛𝜔 (donc en fonction de la fréquence) est appelée
spectre de phase du signal 𝒙(𝒕)

Cette série en cosinus est extrêmement importante car elle correspond à la description bien connue des
signaux en régime sinusoïdal permanent où l'on représente un courant ou une tension par leur amplitude et leur
phase. D'un point de vue pratique, cela revient à considérer que le signal 𝑥(𝑡) est créé de manière équivalente par
une infinité de générateurs sinusoïdaux. La représentation spectrale qui lui est associée porte le nom de spectre
unilatéral.

Exemple 4.3 :

Soit le signal carré 𝑥 (𝑡) suivant

a. Déterminer la série de Fourier complexe de 𝑥(𝑡)


b. Déterminer la série de Fourier trigonométrique de 𝑥(𝑡)

Figure 4.12

Réponse :
2𝜋
a. Posons 𝑥 (𝑡) = ∑+∞
𝑘=−∞ 𝑐𝑘 𝑒
𝑗𝑘𝜔0𝑡
𝜔0 = 𝑇0
Le calcul des coefficients 𝑐𝑘 , on a

1 𝑇0 1 𝑇0 /2
𝑐𝑘 = ∫ 𝑥(𝑡)𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡 = ∫ 𝐴𝑒 −𝑗𝑘𝜔0 𝑡 𝑑𝑡
𝑇0 0 𝑇0 0
𝑇0 /2
𝐴 𝐴
= 𝑒 −𝑗𝑘𝜔0 𝑡 ] = (𝑒 −𝑗𝑘𝜔0 𝑇0 /2 − 1)
−𝑗𝑘𝜔0 𝑇0 0
−𝑗𝑘𝜔 𝑇
0 0
𝐴 𝐴
= (1 − 𝑒 −𝑗𝑘𝜋 ) = [1 − (−1)𝑘 ]
𝑗𝑘2𝜋 𝑗𝑘2𝜋
𝑘
𝑎𝑣𝑒𝑐 𝜔0 𝑇0 = 2𝜋 𝑒𝑡 𝑒 −𝑗𝑘𝜋 = (𝑒 −𝑗𝜋 ) . Ainsi,

𝑐𝑘 = 0 𝑘 = 2𝑚 ≠ 0
𝐴
𝑐𝑘 = 𝑘 = 2𝑚 + 1
𝑗𝑘𝜋
1 𝑇0 1 𝑇0 /2 𝐴
𝑐0 = ∫ 𝑥 (𝑡)𝑑𝑡 = ∫ 𝐴 𝑑𝑡 =
𝑇0 0 𝑇0 0 2

Ensuite,
𝐴 𝐴
𝑐0 = 𝑐2𝑚 = 0 𝑐2𝑚+1 =
2 𝑗(2𝑚 + 1)𝜋

Et on obtient

𝐴 𝐴 1
𝑥 (𝑡) = + ෍ 𝑒 𝑗(2𝑚+1)𝜔0𝑡
2 𝑗𝜋 2𝑚 + 1
𝑚=−∞

b. Des équations précédentes, on a


𝑎0 𝐴
= 𝑐0 = 𝑎2𝑚 = 𝑏2𝑚 = 0 , 𝑚 ≠ 0
2 2
2𝐴
𝑎2𝑚+1 = 2𝑅𝑒[𝑐2𝑚+1 ] = 0 𝑏2𝑚+1 = −2𝐼𝑚[𝑐2𝑚+1 ] =
(2𝑚 + 1)𝜋

En remplaçant ces valeurs dans l’expression de 𝑥(𝑡), on obtient



𝐴 2𝐴 1
𝑥 (𝑡) = + ෍ sin[(2𝑚 + 1)𝜔0 𝑡]
2 𝜋 2𝑚 + 1
𝑚=0
𝐴 2𝐴 1 1
= + (sin(𝜔0 𝑡) + sin(3𝜔0 𝑡) + sin(5𝜔0 𝑡) + ⋯ )
2 𝜋 3 5
Exemple 4.4 :

Considérons le peigne de Dirac 𝜓 𝑇0 représenté à la figure suivante et défini par


𝜓 𝑇0 (𝑡) = ෍ 𝛿 (𝑡 − 𝑘𝑇0 )
𝑘=−∞

a. Déterminer la série de Fourier exponentiel complexe de 𝜓 𝑇0 (𝑡)


b. Déterminer la série de Fourier trigonométrique de 𝜓 𝑇0 (𝑡)
Figure 4.13

Réponse :

a. Soit

2𝜋
𝜓 𝑇0 (𝑡) = ෍ 𝜓𝑘 . 𝑒 𝑗𝑘𝜔0 𝑡 𝜔0 =
𝑇0
𝑘=−∞

Le calcul des coefficients complexes de 𝜓 𝑇0 (𝑡), on obtient

1 𝑇0 /2 𝑗𝑘𝜔0 𝑡 1
𝜓𝑘 = ∫ 𝛿(𝑡)𝑒 −𝑒 =
𝑇0 −𝑇0 /2 𝑇0

Ensuite, on a
∞ ∞
1 2𝜋
𝜓 𝑇0 (𝑡) = ෍ 𝛿(𝑡 − 𝑘𝑇0 ) = ෍ 𝑒 𝑗𝑘𝜔0𝑡 𝜔0 =
𝑇0 𝑇0
𝑘=−∞ 𝑘=−∞

b. Considérons la SF de 𝜓 𝑇0 (𝑡)
+∞
𝑎0 2𝜋
𝜓 𝑇0 (𝑡) = + ෍(𝑎𝑘 cos(𝑘𝜔0 𝑡) + 𝑏𝑘 sin(𝑘𝜔0 𝑡) 𝜔0 =
2 𝑇0
𝑘=1

Comme 𝜓 𝑇0 (𝑡) est pair, 𝑏𝑘 = 0, et on a

2 𝑇0 /2 2
𝑎𝑘 = ∫ 𝛿(𝑡) cos(𝑘𝜔0 𝑡) 𝑑𝑡 =
𝑇0 −𝑇0 /2 𝑇0

Ainsi, on a
+∞
1 2 2𝜋
𝜓 𝑇0 (𝑡) = + ෍(cos(𝑘𝜔0 𝑡)) 𝜔0 =
𝑇0 𝑇0 𝑇0
𝑘=1

3. Théorème de la Puissance ou de Parseval


Dans l'espace-temps, la définition de la puissance moyenne normalisée est la suivante
𝑻
𝟏 +𝟐
𝑷 = ∫ 𝑻 𝒙(𝒕)𝟐 𝒅𝒕 = 𝑿𝟐𝒆𝒇𝒇 (𝟒. 𝟏𝟔)
𝑻 −
𝟐

On notera que cette définition coïncide avec celle du carrée de la valeur efficace du signal x(t). La puissance
normalisée ne s'exprime donc pas en [W], mais en [𝑉 2 ] ou [𝐴2 ] selon que le signal est une tension ou un courant
électrique.
Le théorème de Parseval montre que la puissance normalisée d'un signal peut se calculer aussi bien dans le
domaine temporel que dans le domaine fréquentiel. En e et, comme dans l'espace des fréquences, le signal x(t)
est représenté par des générateurs d’amplitude 𝐴𝑘 , il s'ensuit que la puissance totale est égale à la somme des
puissances fournies par chaque générateur. On en déduit alors :

+∞ +∞ +∞ +∞
𝟏 𝟏 𝟏
𝑷= 𝑿𝟐𝒆𝒇𝒇 = ෍ 𝑷𝒌 = 𝒂𝟐𝟎 + ෍(𝒂𝟐𝒌 + 𝒃𝟐𝒌 ) = 𝑨𝟐𝟎 + ෍ 𝑨𝟐𝒌 = 𝑷𝒅𝒄 + 𝑷𝒂𝒄 = 𝑿(𝟎)𝟐 + ෍ 𝟐|𝑿𝒌 |𝟐 = ෍ |𝑿𝒌 |𝟐
𝟐 𝟐 𝟐
𝒌=𝟏 𝒌=𝟏 𝒌=𝟏 𝒌=−∞
(4.17)
De ces résultats, on conclut que la puissance peut se calculer avec l'une ou l'autre de ces équations et que le
carrée de la valeur efficace d'un signal est égal à la somme des carrées des valeurs efficaces de chacune de ses
composantes.

C’est ce principe de conservation de la puissance qui fait que la forme compacte est préférée à la forme
trigonométrique en télécommunication notamment lors de la diffusion. En effet la diffusion (ou broadcast) est un
mode de transmission dans lequel un émetteur transmet vers plusieurs destinataires généralement inconnus. Et
pour un opérateur, pour ne pas perdre ses clients, a intérêt à offrir la même puissance de signal à des clients
distants situés dans le rayon de couverture de l’antenne d’émission.

Considérons pour notre illustration, un émetteur 𝑇𝑥 et deux récepteurs 𝑅𝑥1 et 𝑅𝑥2 décalés respectivement de 𝑎 et
𝑎 + 𝑐 par rapport à 𝑇𝑥 comme sur la figure 4.13.

Tx Rx1 Rx2

a c

Figure 4.13 :

Soit 𝑥(𝑡) le signal émis depuis 𝑇𝑥, 𝑦1 (𝑡)𝑒𝑡 𝑦2 (𝑡) les signaux reçus respectivement par 𝑅𝑥1 et 𝑅𝑥2. Observons
maintenant ce qui se passera au niveau des puissances reçues au niveau des récepteurs suivant chacune des
formes trigonométrique et compacte de série de Fourier.
+∞ +∞

𝑥 (𝑡) = 𝑎0 + ෍ 𝑎𝑘 cos(𝑘𝜔0 𝑡) + ෍ 𝑏𝑘 𝑠𝑖𝑛(𝑘𝜔0 𝑡) 𝑓𝑜𝑟𝑚𝑒 𝑡𝑟𝑖𝑔𝑜𝑛𝑜𝑚é𝑡𝑟𝑖𝑞𝑢𝑒


𝑘=1 𝑘=1
+∞

𝑥 (𝑡) = 𝐶0 + ෍ 𝐶𝑘 cos(𝑘𝜔0 𝑡 + 𝜑𝑛 ) 𝑓𝑜𝑟𝑚𝑒 𝑐𝑜𝑚𝑝𝑎𝑐𝑡𝑒


𝑘=1

En Rx1 avec la forme compacte


+∞

𝑦1 (𝑡) = 𝐶0 + ෍ 𝐶𝑘 cos(𝑘𝜔0 (𝑡 − 𝑎) + 𝜑𝑛 )
𝑘=1
+∞ +∞

𝑦1 (𝑡) = 𝐶0 + ෍ 𝐶𝑘 cos (𝑘𝜔0 𝑡 + ⏟


𝜑𝑛 − 𝑘𝜔0 𝑎) = 𝐶0 + ෍ 𝐶𝑘 cos(𝑘𝜔0 𝑡 + 𝜑1 )
𝑘=1 𝜑1 𝑘=1

Il n’y a eu que modification de la phase du signal qui passe de 𝜑𝑛 à 𝜑1 = 𝜑𝑛 − 𝑘𝜔0 𝑎 tandis que la puissance du
signal représentée par ces coefficients de Fourier 𝐶𝑘 ne change pas.
En Rx2 avec la forme compacte
+∞

𝑦2 (𝑡) = 𝐶0 + ෍ 𝐶𝑘 cos(𝑘𝜔0 (𝑡 − (𝑎 + 𝑐)) + 𝜑𝑛 )


𝑘=1
+∞ +∞

𝑦1 (𝑡) = 𝐶0 + ෍ 𝐶𝑘 cos (𝑘𝜔0 𝑡 + ⏟


𝜑𝑛 − 𝑘𝜔0 (𝑎 + 𝑐)) = 𝐶0 + ෍ 𝐶𝑘 cos(𝑘𝜔0 𝑡 + 𝜑2 )
𝑘=1 𝜑2 𝑘=1

Ici encore il n’y a eu que modification de la phase du signal qui passe de 𝜑𝑛 à 𝜑2 = 𝜑𝑛 − 𝑘𝜔0 (𝑎 + 𝑐) tandis que
la puissance du signal représentée par ces coefficients de Fourier 𝐶𝑘 ne change toujours pas.
Voyons ce qu’il se passe maintenant avec la forme trigonométrique. En Rx1 avec la forme trigonométrique
+∞ +∞

𝑦1 (𝑡) = 𝑎0 + ෍ 𝑎𝑘 cos(𝑘𝜔0 (𝑡 − 𝑎)) + ෍ 𝑏𝑘 𝑠𝑖𝑛(𝑘𝜔0 (𝑡 − 𝑎))


𝑘=1 𝑘=1
+∞ +∞

𝑦1 (𝑡) = 𝑎0 + ෍ 𝑎𝑘 cos(𝑘𝜔0 𝑡 − 𝑘𝜔0 𝑎) + ෍ 𝑏𝑘 𝑠𝑖𝑛(𝑘𝜔0 𝑡 − 𝑘𝜔0 𝑎)


𝑘=1 𝑘=1
+∞ +∞

𝑦1(𝑡) = 𝑎0 + ෍ 𝑎𝑘 [cos(𝑘𝜔0 𝑡). cos(𝑘𝜔0 𝑎) − sin(𝑘𝜔0 𝑡). sin(𝑘𝜔0 𝑎)] + ෍ 𝑏𝑘 [sin(𝑘𝜔0 𝑡). cos(𝑘𝜔0 𝑎) − sin(𝑘𝜔0 𝑎). 𝑐𝑜s(𝑘𝜔0 𝑡)]
𝑘=1 𝑘=1

En regroupant les termes en cos(𝑘𝜔0 𝑡) et sin(𝑘𝜔0 𝑡) on obtient :


+∞ +∞

𝑦1 (𝑡) = 𝑎0 + ෍ ⏟
[𝑎𝑘 cos(𝑘𝜔0 𝑎) − 𝑏𝑘 sin(𝑘𝜔0 𝑎)] cos(𝑘𝜔0 𝑡) + ෍ ⏟
[𝑎𝑘 sin(𝑘𝜔0 𝑎) + 𝑏𝑘 cos(𝑘𝜔0 𝑎)] 𝑠𝑖𝑛(𝑘𝜔0 𝑡)
𝑘=1 𝑎𝑘1 𝑘=1 𝑏𝑘1

+∞ +∞

𝑦1 (𝑡) = 𝑎0 + ෍ 𝑎𝑘1 cos(𝑘𝜔0 𝑡) + ෍ 𝑏𝑘1 𝑠𝑖𝑛(𝑘𝜔0 𝑡)


𝑘=1 𝑘=1

Vous voyez que les coefficients ont changé passant de 𝑎𝑘 𝑒𝑡 𝑏𝑘 à 𝑎𝑘1 = 𝑎𝑘 cos(𝑘𝜔0 𝑎) − 𝑏𝑘 sin(𝑘𝜔0 𝑎) et 𝑎𝑘 sin(𝑘𝜔0 𝑎) +
𝑏𝑘 cos(𝑘𝜔0 𝑎) ce qui a un impact sur la puissance du signal.
Observez aussi que dans la forme compact la phase a changé sans que la puissance ne change, c’est ce qui
explique le fait que dans les quartiers toutes les antennes d’un bloc sont toutes orientées de la même manière
tandis que tout le monde reçoit la même qualité (puissance) de signal. Et quand vous allez dans un autre bloc
toutes les antennes de ce bloc sont toutes orientées de la même manière mais différemment du bloc précédent.
4. Troncature de la série de Fourier : le phénomène Gibbs
La série de Fourier d'un signal 𝑥(𝑡) montre explicitement les composantes sinusoïdales de 𝑥(𝑡). On peut
synthétiser 𝑥(𝑡) en ajoutant consécutivement les sinusoïdes dans le spectre de 𝑥(𝑡). Pour un nombre fini de
termes, la somme est l'approximation tronquée de la série de Fourier 𝑥𝐾 (𝑡). Pour des signaux lisses et bien
réguliers, 𝑥𝐾 (𝑡) peut approcher étroitement 𝑥(𝑡) même en utilisant un nombre relativement petit de termes. Parfois,
comme dans le cas où des discontinuités sont présentes, 𝑥𝐾 (𝑡) peut présenter un comportement inhabituel quelle
que soit la taille de 𝐾.
Considérons un signal périodique à impulsions carrées 𝑥(𝑡) (figure 4.12) et ses approximations tronquées de la
série de Fourier 𝑥𝐾 (𝑡) (figure 4.14), obtenues pour divers 𝐾 en utilisant les équations. (4.11), (4.12) et (4.14)
comme
𝐾 𝐾 𝐾
𝑘
𝑥𝐾 (𝑡) = 𝑎0 + ෍ 𝑎𝑘 cos(𝑘𝜔0 𝑡) + ෍ 𝑏𝑘 𝑠𝑖𝑛(𝑘𝜔0 𝑡) = 0.5 + ෍ 𝑠𝑖𝑛𝑐 ( ) . cos(𝑘𝑡)
2
𝑘=1 𝑘=1 𝑘=1
Nous commençons la synthèse avec seulement le premier terme de la série, 𝑎0 = 0,5 (𝐾 = 0). Ce terme est
une constante (dc). Approximer 𝑥(𝑡) avec juste le terme dc est une approximation grossière de l'onde carrée,
comme le montre la figure 4.14a. Dans l'étape suivante, nous ajoutons la première harmonique (fondamentale) à
la composante continue, ce qui donne un signal illustré sur la figure 4.14b. Observez que ce signal synthétisé
𝑥1 (𝑡) ressemble quelque peu à 𝑥(𝑡). C'est une version lissée de 𝑥(𝑡). Les coins aigus de 𝑥(𝑡) ne sont pas
reproduits dans ce signal parce que les coins aigus indiquent des changements rapides, et leur reproduction
nécessite des composants variant rapidement (c'est-à-dire, une fréquence plus élevée), qui doivent encore être
inclus. La figure 4.14c montre la somme de dc et des première et troisième harmoniques (dans ce cas, même les
harmoniques ont des magnitudes nulles). Au fur et à mesure que nous augmentons le nombre d'harmoniques
progressivement, comme illustré sur la Fig. 4.14d (somme jusqu'à la cinquième harmonique, 𝐾 = 5) et Fig.4.14e
(somme jusqu'à la dix-neuvième harmonique, K = 19), les fronts des impulsions deviennent plus nets et 𝑥𝐾 (𝑡)
ressemble plus étroitement à 𝑥(𝑡).
Le tracé de la série tronquée se rapproche étroitement de la fonction 𝑥(𝑡) lorsque 𝐾 augmente, et nous nous
attendons à ce que la série converge exactement vers 𝑥(𝑡) comme le nombre de termes 𝐾 → ∞. Le fait curieux,
comme le montre la figure 4.14, est que même pour un 𝐾 grand, la série tronquée présente un comportement
oscillatoire et un dépassement avec une valeur de crête d'environ 9% au voisinage de la discontinuité. † Quelle
que soit la valeur de 𝐾, le dépassement reste à environ 9%. Ce comportement étrange semble contredire notre
attente que 𝑥𝐾 (𝑡) s'approche de 𝑥(𝑡) comme 𝐾 → ∞. En fait, cette apparente contradiction a intrigué de
nombreuses personnes au tournant du siècle. Josiah Willard Gibbs a donné une explication mathématique de ce
comportement, qui est maintenant appelé le phénomène Gibbs.
On peut réconcilier les deux notions conflictuelles comme suit. Si 𝑓0 est la fréquence fondamentale de la série,
la fréquence d'oscillation la plus élevée du signal synthétisé 𝑥𝐾 (𝑡) est 𝐾𝑓0 ; ainsi, les pointes (oscillations) avec un
1 1
dépassement de 9% ont une largeur d'environ et sont espacées d'environ de part et d'autre de chaque
𝐾𝑓0 2𝐾𝑓0
1
discontinuité. Pour le cas de la figure 4.14, la fréquence fondamentale est 𝑓0 = 2𝜋, la largeur des pics est d'environ
2𝜋 𝜋
𝐾
et les pics de 9% se produisent à ± 𝐾 de chaque discontinuité. Au fur et à mesure que nous augmentons le
1
nombre de termes 𝐾, la fréquence d'oscillation augmente, la largeur des pics 𝐾𝑓 diminue et les pics se
0
rapprochent de leurs discontinuités. Comme 𝐾 → ∞, l'énergie d'erreur → 0 car l'erreur se compose principalement
des pointes, dont les largeurs → 0. Comme 𝐾 → ∞, l'énergie d'erreur → 0 car l'erreur se compose principalement
des pointes, dont les largeurs → 0. Par conséquent, comme 𝐾 → ∞, la série de Fourier correspondante diffère de
𝑥(𝑡) d'environ 9% à la gauche et à la droite immédiates des points de discontinuité, et pourtant l'énergie d'erreur →
0. Ainsi, la série converge dans la moyenne. Où 𝑥(𝑡) est continue, la série converge également en un point. En
effet, à tout instant, quelle que soit la proximité de la discontinuité, nous pouvons augmenter 𝐾 pour pousser le pic
de 9% plus près de la discontinuité. Les ramifications et l’application du phénomène de Gibbs sont discutées dans
le chapitres sur les filtres.
Le phénomène de Gibbs est présent lorsqu'il y a une discontinuité de saut dans 𝑥(𝑡). Lorsqu'une fonction
continue 𝑥(𝑡) est synthétisée en utilisant les premiers 𝐾 termes de la série de Fourier, la fonction synthétisée
s'approche de 𝑥(𝑡) pour tout 𝑡 comme 𝐾 → ∞. Aucun phénomène Gibbs n'apparaît.

† En optique, ces oscillations sont appelées franges de difractions et apparaissent en tout point pour lequel l'objet présente de grandes
variations d'éclairement.
Figure 4.14: Synthèse 𝑥𝐾 (𝑡) d'un signal périodique à impulsions carrées par addition successive de ses harmoniques:
(a) K = 0, (b) K = 1, (c) K = 3, (d) K = 5, et (e) K = 19.

Exemple 4.5 : (Synthèse de signaux à l'aide d'une série de Fourier tronquée)


Utilisez Eq. (4.10) pour synthétiser 𝐾 = 5 𝑒𝑡 𝐾 = 20 approximations tronquées de la série de Fourier du signal
𝑥(𝑡) montré dans la figure 4.10. Tracez les résultats sur (1,5𝜋 ≤ 𝑡 ≤ 1,5𝜋).
Réponse : En utilisant les résultats de l'analyse de l'Ex. 4.2, MATLAB fournit un moyen direct pour calculer et
tracer 𝑥5 (𝑡).
01 𝑜𝑚𝑒𝑔𝑎0 = 2; 𝐾 = 5; 𝑡 = 𝑙𝑖𝑛𝑠𝑝𝑎𝑐𝑒(−2.5 ∗ 𝑝𝑖, 2.5 ∗ 𝑝𝑖, 10001);
02 𝑋𝑘 = @(𝑘) (2/𝑝𝑖) ∗ (1 − 𝑒𝑥𝑝(−𝑝𝑖/2))./(1 + 1𝑗 ∗ 4 ∗ 𝑘); 𝑥𝐾 = 𝑧𝑒𝑟𝑜𝑠(𝑠𝑖𝑧𝑒(𝑡));
03 𝑓𝑜𝑟 𝑘 = −𝐾: 𝐾,
04 𝑥𝐾 = 𝑥𝐾 + 𝑋𝑘(𝑘) ∗ 𝑒𝑥𝑝(11𝑗 ∗ 𝑘 ∗ 𝑜𝑚𝑒𝑔𝑎0 ∗ 𝑡);
05 𝑒𝑛𝑑
06 𝑝𝑙𝑜𝑡(𝑡, 𝑥𝐾); 𝑥𝑙𝑎𝑏𝑒𝑙(’𝑡’); 𝑦𝑙𝑎𝑏𝑒𝑙(’𝑥_{5}(𝑡)’);

Le cas 𝑥20 (𝑡) est facilement obtenu en changeant 𝐾 = 5 en 𝐾 = 20 sur la ligne 01. La figure 1.34 présente les
résultats avec le signal d'origine 𝑥(𝑡) pour comparaison (ombré). Que 𝐾 soit grand ou petit, notez la présence
persistante du phénomène de Gibbs à tous les points de discontinuité.

Figure 4.15: Synthèse de x(t) à l'aide de la série tronquée de Fourier : (a) 𝑥5 (𝑡) et (b) 𝑥20 (𝑡).

IV. LA TRANSFORMÉE DE FOURIER


Une série de Fourier représente un signal périodique comme une somme d'exponentielles éternelles (ou
sinusoïdes). En appliquant un processus de limitation, nous étendons maintenant cette représentation spectrale
pour exprimer un signal apériodique comme une somme continue (intégrale) d'exponentielles éternelles (ou
sinusoïdes). Cela peut être fait en considérant un signal apériodique 𝑥(𝑡) comme un signal périodique de période
𝑇0 → ∞. Puisque 𝑥(𝑡) se répète à intervalles infinis (𝑇0 → ∞), sa fréquence fondamentale 𝜔0 = 2𝜋𝑇0 → 0, et le
spectre devient continu. La somme infinie, la série de Fourier, se réduit à une intégrale, l'intégrale de Fourier.
Ainsi, nous pouvons montrer qu'un signal apériodique 𝑥(𝑡) peut être exprimé comme une intégrale de Fourier
(plutôt qu'une série de Fourier) comme
+∞
−1 {𝑋(𝑗𝜔)}
1
Ϝ = 𝑥 (𝑡) = ∫ 𝑋(𝑗𝜔)𝑒 𝑗𝜔𝑡 𝑑𝜔 (4.18)
2𝜋
−∞

+∞

Ϝ{𝑥(𝑡)} = 𝑋(𝑗𝜔) = ∫ 𝑥(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 (4.19)


−∞

L'égalité dans l'Eq. (4.18) n'est pas au sens ordinaire mais au sens carré moyen. Ainsi, le côté droit converge
vers 𝑥(𝑡) dans la moyenne. Équation (4.19), qui est juste l'équation. (1.55) avec 𝑠 = 𝑗𝜔, est l'équation de
synthèse de la transformée de Fourier, et Eq. (4.18) est l'équation d'analyse de la transformée de Fourier.
Notez que la transformée 𝑋(𝜔) est la spécification du domaine fréquentiel de 𝑥(𝑡). Nous appelons 𝑋(𝜔) la
transformée de Fourier directe de 𝑥(𝑡), ou la transformée de Fourier de 𝑥(𝑡) ou encore simplement image de 𝒙(𝒕),
tandis que 𝑥(𝑡)est la transformée de Fourier inverse de 𝑋(𝜔), appelé aussi l’original. Symboliquement, ces
déclarations sont exprimées comme

Ϝ{𝑥(𝑡)} = 𝑋(𝑗𝜔)

Ϝ−1 {𝑋(𝑗𝜔)} = 𝑥 (𝑡)

La relation de transformation entre 𝑥(𝑡) et 𝑋(𝜔) est représentée sous forme de paire comme :
𝑥(𝑡) ⇐⇒ 𝑋(𝜔)
Il est utile de garder à l'esprit que l'intégrale de Fourier dans Eq. (4.18) est essentiellement une série de Fourier
avec une fréquence fondamentale 𝛥𝜔 proche de zéro. Par conséquent, la plupart des discussions et des
propriétés de la série de Fourier s'appliquent à la transformée de Fourier et vice versa.
1. Spectres d'amplitude et de phase
Le spectre 𝑋(𝜔) est généralement complexe et est représenté sous forme polaire par

𝑿(𝝎) = |𝑿(𝝎)|𝒆𝒋∠𝑿(𝝎) (4.20)


Dans Eq. (4.20), les quantités |𝑋(𝜔)| et ∠𝑋(𝜔) sont toutes deux des fonctions réelles de ω et représentent
respectivement le spectre d'amplitude et le spectre de phase. L'équation (4.19) montre que pour 𝑥(𝑡) réelle, 𝑋(𝜔)
est symétrique conjugué, c'est-à-dire 𝑋(𝜔) = 𝑋 ∗ (𝜔). Ainsi, pour le réel 𝑥(𝑡),
|𝑿(𝝎)| = |𝑿(−𝝎)| et ∠𝑿(𝝎) = −∠𝑿(−𝝎) (4.21)
En d'autres termes, un signal réel 𝑥(𝑡) a un spectre d'amplitude pair |𝑋(𝜔)| et un spectre de phase impair
∠𝑋 (𝜔). Sans surprise, le résultat en Eq. (4.21) est identique à celle de la série de Fourier, comme on le voit dans
l'Eq. (4.8).
Exemple 4.6 : (Transformée de Fourier d'un exponentiel causal)
En supposant que 𝒂 est réel, trouvez la transformée de Fourier de l'exponentielle causale 𝑥(𝑡) = 𝑒 − at 𝑢(𝑡),
dont un exemple est montré sur la figure 4.16, et tracez les spectres d'amplitude et de phase correspondants.

Figure 4.16: Une exponentielle causale 𝑥(𝑡) = 𝑒 − 𝑎𝑡 𝑢(𝑡)

Réponse :

En utilisant l’Eq. 4.19


+∞ +∞
+∞
−𝑎𝑡 −𝑗𝜔𝑡
−1
𝑋(𝜔) = ∫ 𝑒 𝑢(𝑡). 𝑒 𝑑𝑡 = ∫ 𝑒 −𝑡(𝑎+𝑗𝜔) 𝑑𝑡 = 𝑒 −𝑡(𝑎+𝑗𝜔) |
𝑎 + 𝑗𝜔 0
−∞ 0

1
= , ∀𝑎 > 0
𝑎 + 𝑗𝜔
Si 𝑎 < 0 alors 𝑋(𝜔) ne converge pas.
𝜔
En exprimant 𝑎 + 𝑗𝜔 dans la forme polaire √𝑎2 + 𝜔 2 𝑒 𝑗.𝑎𝑟𝑐𝑡𝑎𝑛( 𝑎 ) on obtient
1 𝜔
𝑋(𝜔) = 𝑒 −𝑗.𝑎𝑟𝑐𝑡𝑎𝑛( 𝑎 )
√𝑎2 + 𝜔 2
Par conséquent
𝟏 𝝎
|𝑿(𝝎)| = 𝑒𝑡 ∠𝑿(𝝎) = −𝒂𝒓𝒄𝒕𝒂𝒏( )
√𝒂𝟐 + 𝝎𝟐 𝒂

Le spectre de magnitude | X (ω) | et le spectre de phase ∠X (ω) sont représentés sur la figure 1.36. Observez que
| X (ω) | est une fonction paire de ω, et ∠X (ω) est une fonction impaire de ω, comme prévu.
En réglant a = 1 pour des raisons pratiques, ces graphiques sont confirmés à l'aide de MATLAB.
01 𝑜𝑚𝑒𝑔𝑎 = 𝑙𝑖𝑛𝑠𝑝𝑎𝑐𝑒(−10,10,1001); 𝑎 = 1; 𝑋 = 1./(𝑎 + 1𝑗 ∗ 𝑜𝑚𝑒𝑔𝑎);
02 𝑠𝑢𝑏𝑝𝑙𝑜𝑡(121); 𝑝𝑙𝑜𝑡(𝑜𝑚𝑒𝑔𝑎, 𝑎𝑏𝑠(𝑋)); 𝑥𝑙𝑎𝑏𝑒𝑙(’\𝑜𝑚𝑒𝑔𝑎’); 𝑦𝑙𝑎𝑏𝑒𝑙(’|𝑋(\𝑜𝑚𝑒𝑔𝑎)|’);
03 𝑠𝑢𝑏𝑝𝑙𝑜𝑡(122); 𝑝𝑙𝑜𝑡(𝑜𝑚𝑒𝑔𝑎, 𝑎𝑛𝑔𝑙𝑒(𝑋)); 𝑥𝑙𝑎𝑏𝑒𝑙(’\𝑜𝑚𝑒𝑔𝑎’); 𝑦𝑙𝑎𝑏𝑒𝑙(’\𝑎𝑛𝑔𝑙𝑒 𝑋(\𝑜𝑚𝑒𝑔𝑎)’);
Figure 4.17: Spectres de Fourier pour 𝑥(𝑡) = 𝑒 − 𝑎𝑡 𝑢(𝑡) avec a> 0: (a) | 𝑋 (𝜔) | et (b) ∠𝑋 (𝜔).

2. Existence de la transformée de Fourier

Dans l’Exemple 4.6 nous avons observé que lorsque 𝑎 < 0, l'intégrale de Fourier pour 𝑒 − 𝑎𝑡 𝑢(𝑡) ne converge nulle
part. Par conséquent, la transformée de Fourier pour 𝑒 − 𝑎𝑡 𝑢(𝑡) n'existe pas si 𝑎 < 0 (exponentielle croissante). Il est
clair que tous les signaux ne sont pas transformables de Fourier. On peut montrer que si l'énergie de 𝑥(𝑡) est finie,
c'est-à-dire si
+∞

∫ |𝑥(𝑡)|2 𝑑𝑡 < ∞ (4.22)


−∞

alors l'existence de 𝑋(𝜔) est garantie.


Tout comme dans le cas des séries de Fourier, nous avons également un autre ensemble de conditions, les
conditions de Dirichlet, pour l'existence de la transformée de Fourier 𝑋(𝜔). La première de ces conditions est

1. 𝑥(𝑡) est absolument intégrable, c'est-à-dire


+∞

∫ |𝑥(𝑡)| 𝑑𝑡 < ∞ (4.23)


−∞

Prenant la valeur absolue de Eq. (4.18), il s'ensuit que l'existence de 𝑋(𝜔) est garantie (| 𝑋 (𝜔) | < ∞) si l'équation
(4.23) est satisfaite car |𝒆 − 𝒋𝝎𝒕 | = 𝟏.
Pour une transformée de Fourier convergente, en plus de l'Eq. (4.23), la fonction 𝑥(𝑡) doit également satisfaire aux
conditions suivantes :
2. Il ne peut avoir qu'un nombre fini de maxima et de minima sur n'importe quel intervalle fini.
3. Il ne peut avoir qu'un nombre fini de discontinuités sur tout intervalle fini, et chacune de ces discontinuités doit
être finie.
Nous avons vu dans Exemple 4.6 que la transformée de Fourier n'existe pas pour un signal à croissance
exponentielle, ce qui viole les deux Eq. (4.18) et (4.19). Par contre, le signal 𝑠𝑖𝑛𝑐(𝑡) viole l'Eq. (4.19) mais satisfait
la condition Eq. (4.18). Par conséquent, sa transformée de Fourier existe.
Les deux ensembles de conditions sont suffisants, mais non nécessaires, pour l'existence de la transformée
de Fourier. Il existe des signaux qui ne satisfont à aucun des ensembles, mais qui ont des transformées de
Fourier, du moins au sens généralisé. Le signal 𝑥(𝑡) = 𝑢(𝑡) n'est ni absolument intégrable ni d'énergie fini.
L'intégrale dans Eq. (4.19) est non convergente, et sa transformée de Fourier, qui contient un terme 𝜋𝛿(𝜔) de
hauteur infinie (et de largeur nulle), n'existe pas au sens ordinaire mais seulement au sens généralisé.
Tout signal qui peut être généré en pratique satisfait aux conditions de Dirichlet et a donc une transformée de
Fourier. Ainsi, l'existence physique d'un signal est une condition su sante pour l'existence de sa transformée. En
tant qu'ingénieurs qui s'intéressent principalement au monde physique, nous pourrions conclure qu'un critère
d'existence physique garantira que tout signal de notre intérêt possède une transformée de Fourier.
Malheureusement, cette conclusion est incorrecte. Les ingénieurs s'appuient fortement sur de nombreux
signaux physiquement irréalisables mais mathématiquement utiles, tels que la fonction 𝑠𝑖𝑛𝑐(𝑡) évoquée
précédemment, qui a une transformée de Fourier, et la fonction d'étape unitaire, qui a une transformée de Fourier
uniquement au sens généralisé. Le tableau 4.1 donne un bref aperçu de quelques paires de transformées de
Fourier sélectionnées. Les paires 1 à 11 impliquent des transformées de Fourier ordinaires, tandis que les paires
12 à 21 nécessitent l'utilisation de fonctions généralisées.

Tableau 4.1: Quelques paires de transformées de Fourier sélectionnées.

Exemple 4.7 (Transformée de Fourier de 𝛱(𝑡/𝜏)) Utilisez l'intégration directe pour déterminer la transformée de
Fourier de 𝑥(𝑡) = 𝛱(𝑡/𝜏), qui est illustrée sur la figure 4.18b. Tracez les spectres d'amplitude et de phase.
Réponse : Par définition
+∞

𝑋(𝜔) = ∫ 𝛱(𝑡/𝜏). 𝑒 −𝑗𝜔𝑡 𝑑𝑡


−∞

Puisque 𝛱(𝑡/𝜏) = 1 pour |𝑡| < 𝜏/2 et est nul pour |𝑡| > 𝜏/2,
+∞

𝑋(𝜔) = ∫ 𝛱(𝑡/𝜏). 𝑒 −𝑗𝜔𝑡 𝑑𝑡


−∞

Figure 4.18: (a) Porte unité Π (t) et (b) Π (t / τ).


𝜏
+
2 𝜔𝜏 𝜔𝜏
−1 −𝑗𝜔𝜏 𝑗𝜔𝜏 2𝑠𝑖𝑛 ( 2 ) 𝑠𝑖𝑛 (𝜋 2𝜋 ) 𝜔𝜏
−𝑗𝜔𝑡
𝑋(𝜔) = ∫ 𝑒 𝑑𝑡 = (𝑒 2 − 𝑒 2 ) = =𝜏 𝜔𝜏 = 𝜏𝑠𝑖𝑛𝑐 ( )
𝜏
𝑗𝜔 𝜔 (𝜋 ) 2𝜋

2
2𝜋

Donc,
𝝎𝝉
𝜫(𝒕/𝝉) ⇐⇒ 𝝉𝒔𝒊𝒏𝒄 ( )
𝟐𝝅
Ce résultat correspond à la paire 7 du tableau 4.1.
Bien que 𝑋(𝜔) soit réel dans ce cas et puisse être tracé à l'aide d'un seul graphe (une simple fonction sin), il
est bon de tracer les spectres d'amplitude et de phase séparément. Rappelons que 𝑠𝑖𝑛𝑐(𝑘) = 0 pour tout entier k
non nul,. Par conséquent, 𝑋(𝜔) = 𝜏𝑠𝑖𝑛𝑐(𝜔𝜏/2𝜋) = 0 lorsque 𝜔𝜏/2𝜋 = 𝑘 ou 𝜔 = 2𝜋𝑘/𝜏, comme le montre le
graphique de la figure 4.19a du spectre d'amplitude. Puisque X(ω) est réel, ces passages par zéro se reflètent
lorsque le signe d'amplitude change (de positif à négatif et vice versa); ainsi les passages par zéro indiquent le
moment où la phase passe entre 0 et ± 𝜋, ce qui est vérifié sur le graphique de la figure 4.19b du spectre de
phase.†

Figure 4.19: Spectres de Fourier pour x(t)=Π(t/τ): (a) |X(ω)| et (b) ∠X(ω).

† Le spectre de phase, qui doit dans ce cas être une fonction impaire de ω, peut être tracé de plusieurs autres manières car
un signe négatif peut être représenté en utilisant des phases de 𝜋 + 2𝜋𝑘 pour tout entier 𝑘. Toutes ces représentations sont
équivalentes.
Bande passante de 𝜫(𝒕/𝝉)
Le spectre 𝑋(𝜔) de la figure 4.19a culmine à 𝜔 = 0 et se désintègre à des fréquences plus élevées. Par
conséquent, 𝛱(𝑡/𝜏) est un signal Basse fréquences avec la plus grande partie de l'énergie du signal dans les
composantes de basse fréquence. Strictement parlant, comme le spectre s'étend de 0 à ∞, la bande passante est
∞. Cependant, une grande partie du spectre est concentrée dans le premier lobe de la fonction 𝑠𝑖𝑛𝑐, de 𝜔 = 0 à
2𝜋
𝜔 = . Par conséquent, une estimation approximative de la largeur de bande d'une impulsion rectangulaire de
𝜏
2𝜋 1
largeur 𝜏 secondes est de 𝜏
𝑟𝑎𝑑/𝑠, ou 𝜏 𝐻𝑧 .

Pour calculer la bande passante, nous devons considérer le spectre uniquement pour des valeurs de
fréquence positives [1]. Notez la relation réciproque de la largeur d'impulsion avec sa largeur de bande (largeur
spectrale). Nous observerons plus loin que ce résultat est vrai en général.

V. PROPRIÉTÉS DE LA TRANSFORMÉE DE FOURIER


Nous couvrons maintenant les propriétés importantes de la transformée de Fourier et leurs implications ainsi
que les applications. Les preuves peuvent être trouvées dans n'importe quel texte sur la transformée de Fourier
(par exemple, voir [1]). Les propriétés de la transformée de Fourier sont utiles non seulement pour dériver les
transformées directes et inverses de nombreuses fonctions, mais également pour obtenir plusieurs résultats
intéressants dans le traitement du signal. Avant de se lancer sur ce sujet, cependant, il est éclairant d'observer un
aspect très intéressant et omniprésent de la transformée de Fourier: la dualité temps-fréquence.
Les équations (4.18) et (4.19) montrent un fait intéressant: les opérations de transformation directe et inverse
sont remarquablement similaires. Ces opérations, nécessaires pour aller de 𝑥(𝑡) à 𝑋(𝜔) et ensuite de 𝑋(𝜔) à 𝑥(𝑡),
sont représentées graphiquement sur la figure 1.38. Il n'y a que deux différences mineures dans ces opérations: le
facteur 1/2𝜋 n'apparaît que dans l'opérateur inverse, et les indices exponentiels dans les deux opérations ont des
signes opposés. Sinon, les deux opérations sont symétriques.

Figure 4.20: Une symétrie proche entre les transformées de Fourier directe et inverse.

Cette observation a des conséquences importantes dans l'étude de la transformée de Fourier. C'est la base de
la soi-disant dualité du temps et de la fréquence. Le principe de dualité peut être comparé à une photographie et à
son négatif. Une photographie peut être obtenue à partir de son négatif, et en utilisant une procédure identique, le
négatif peut être obtenu à partir de la photographie. Pour tout résultat ou relation entre 𝑥(𝑡) et 𝑋(𝜔), il existe un
double résultat ou une relation qui est obtenue en interchangeant les rôles de 𝑥(𝑡) et 𝑋(𝜔). Considérez, par
exemple, la transformation 12 dans le tableau 4.1:
𝛿(𝑡) ⇐⇒ 1
Le dual de cette transformation déclare que
1 ⇐⇒ 2𝜋𝛿(𝜔),
qui est juste la paire 13 dans le tableau 4.1. Observez le rôle d'inversion du temps et de la fréquence dans ces
deux équations (ainsi que le facteur 2𝜋 qui résulte du choix de la fréquence radian 𝜔 plutôt que de la fréquence
hertzienne 𝑓). La valeur du principe de dualité réside dans le fait que chaque fois que nous tirons un résultat, nous
pouvons être sûrs qu'il a un double. Cette possibilité peut donner des informations précieuses sur de nombreuses
propriétés insoupçonnées et aboutit au traitement du signal.
Le lecteur ne doit pas manquer d'observer la dualité toujours présente dans les discussions à venir. Nous
observerons que pour chaque propriété de la transformée de Fourier, il y a une propriété duale.
1. Propriété de la dualité
La propriété de dualité indique que
si 𝒙(𝒕) ⇐⇒ 𝑿 (𝝎), alors 𝑿(𝒕) ⇐⇒ 𝟐𝝅𝒙(𝝎). (4.24)

Observez que ces deux relations sont duales l'une de l'autre. De cette équation, il s'ensuit que parce que

𝝉𝝎
𝜫(𝒕/𝝉)
⏟ ⟺ 𝝉 𝒔𝒊𝒏𝒄 ( ) (4.25)
⏟ 𝟐𝝅
𝒙(𝒕)
𝑿(𝝎)
Alors
𝝉𝒕 𝝎 𝝎
𝝉 𝒔𝒊𝒏𝒄 ( ) ⟺ 𝟐𝝅. 𝜫 (− ) = 𝟐𝝅. 𝜫( ) (4.26)
⏟ 𝟐𝝅 ⏟ 𝝉 𝝉
𝑿(𝒕) 𝒙(𝝎)

Les équations (4.25) et (4.26) se trouvent dans le tableau 4.1 sous forme de paires 7 et 8 (avec 𝜏 = 2𝐵).
Avec la propriété de dualité, connaître l'une des paires garantit que nous connaissons l'autre. La figure 4.20
montre graphiquement ces doubles paires.
La dernière étape de l'équation (4.24) suit puisque 𝛱(·) est une fonction paire. Cette régularité se traduit par
une symétrie quasi parfaite entre le temps et la fréquence, à l'exception du facteur mineur de 2𝜋. Lorsque tel n'est
1
pas le cas, la symétrie n'est pas aussi parfaite. Par exemple, 𝑒 𝜆𝑡 𝑢(𝑡) ⇐⇒ 𝑗𝜔−𝜆 (tableau 4.1, paire 1) donne le dual
1
⇐⇒ 2𝜋𝑒 −𝜆𝜔 𝑢(−𝜔) (pas dans le tableau 4.1). Dans ce cas, la réflexion de fréquence de la propriété de dualité
𝑗𝑡−𝜆
est apparente: le double d'un signal temporel droit implique un signal de fréquence gauche.

𝑡 𝜏𝜔 𝜏𝑡
Figure 4.20: Illustration de la dualité avec (a) 𝑥 (𝑡) = 𝛱 ( ) ⇐⇒ 𝑋(𝜔) = 𝜏𝑠𝑖𝑛𝑐 ( ) 𝑒t (b)son dual 𝑋(𝑡) = 𝜏𝑠𝑖𝑛𝑐 ( ) ⇐⇒
𝜏 2𝜋 2
2𝜋𝑥(𝜔) = 2𝜋𝛱(𝜔/𝜏)
2. Linéarité

La propriété de linéarité dit que si 𝑓1 (𝑡), 𝑓2 (𝑡), … , 𝑓𝑛 (𝑡) ont respectivement pour transformée de Fourier

𝐹1 (𝜔), 𝐹2 (𝜔), … , 𝐹𝑛 (𝜔) et si 𝑐1 , 𝑐2 , … , 𝑐𝑛 sont des constantes arbitraires, alors on a :

𝒄𝟏 . 𝒇𝟏 (𝒕) + 𝒄𝟐 . 𝒇𝟐 (𝒕) + ⋯ + 𝒄𝒏 . 𝒇𝒏 (𝒕) ⟺ 𝒄𝟏 . 𝑭𝟏 (𝝎) + 𝒄𝟐 . 𝑭𝟐 (𝝎) + ⋯ + 𝒄𝒏 . 𝑭𝒏 (𝝎) (𝟒. 𝟐𝟔)

Démonstration :

𝐹{𝑐1 . 𝑓1 (𝑡) + 𝑐2 . 𝑓2 (𝑡) + ⋯ + 𝑐𝑛 . 𝑓𝑛 (𝑡)}



= ∫𝑡 [𝑐1 . 𝐹1 (𝜔) + 𝑐2 . 𝐹2 (𝜔) + ⋯ + 𝑐𝑛 . 𝐹𝑛 (𝜔)]𝑒 −𝑗𝜔𝑡 𝑑𝑡
0
∞ ∞ ∞ ,
= 𝑐1 ∫𝑡 𝑓1 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 + 𝑐2 ∫𝑡 𝑓2 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 + ⋯ + 𝑐𝑛 ∫𝑡 𝑓𝑛 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡
0 0 0
= 𝑐1 . 𝐹1 (𝜔) + 𝑐2 . 𝐹2 (𝜔) + ⋯ + 𝑐𝑛 . 𝐹𝑛 (𝜔)

La preuve est triviale et découle directement de l'Eq. (1,75). Ce résultat peut être étendu à n'importe quel
nombre de termes. Il est intéressant de noter que l'application de la dualité à la propriété de linéarité est quelque
peu non catholique : la même propriété en résulte (qu'une somme de signaux comprimés se transforme en une
somme de signaux comprimés). Ce ne sera pas le cas pour la plupart des propriétés à venir.
Note 1 : il est préférable de multiplier f(t) par u(t) pour forcer sa causalité.

3. Facteur d’échelle ou dilatation-comprimation


Soit a une constante réelle ; la propriété de dilatation dit que :
𝟏 𝝎
𝑠𝑖 𝒙(𝒕) ⟺ 𝑿(𝝎) 𝑎𝑙𝑜𝑟𝑠 𝒙(𝒂𝒕) ⟺ 𝑿( ) (𝟒. 𝟐𝟕)
|𝒂| 𝒂
Démonstration :
Nous devons considérer les deux cas 𝑎 < 0 𝑒𝑡 𝑎 > 0
Pour 𝑎 > 0,

𝐹{𝑥(𝑎𝑡)} = ∫ 𝑥(𝑎𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


0
𝜃
En posant 𝑡 = 𝑎 on obtient :
∞ ∞
𝜃 𝜃 1 𝜔 1 𝜔
−𝑗𝜔( ) −( )𝜃
𝐹{𝑥(𝑎𝑡)} = ∫ 𝑥(𝜃)𝑒 𝑎 𝑑( ) = ∫ 𝑥(𝜃)𝑒 𝑎 𝑑𝜃 = 𝑋 ( )
𝑎 𝑎 𝑎 𝑎
0 0
Pour 𝑎 < 0,

𝐹{𝑥(−𝑎𝑡)} = ∫ 𝑥(−𝑎𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


0

𝜃
En posant 𝑡 = − 𝑎 on obtient :
∞ ∞
𝜃 𝜃 1 𝑗𝜔 1 𝜔
−𝑗𝜔(− )
𝐹{𝑥(−𝑎𝑡)} = ∫ 𝑥(𝜃)𝑒 𝑎 𝑑 (− ) = − ∫ 𝑥(𝜃)𝑒 −( 𝑎 )𝜃 𝑑𝜃 = − 𝑋 ( )
𝑎 𝑎 𝑎 −𝑎
0 0

La fonction 𝑥(𝑎𝑡) représente la fonction 𝑥(𝑡) compressée dans le temps par un facteur a. De même, la fonction
𝜔
𝑋( 𝑎 ) représente la fonction 𝑋(𝜔) augmentée en fréquence du même facteur a. La propriété de facteur
d'échelle indique que la comprimation temporelle d'un signal entraîne une expansion ou dilatation spectrale et
que l'expansion temporelle d'un signal entraîne une comprimation spectrale. Intuitivement, la compression
dans le temps d'un facteur 𝒂 signifie que le signal varie plus rapidement d'un facteur 𝒂. Pour synthétiser un tel
signal, les fréquences de ses composantes sinusoïdales doivent être augmentées du même facteur 𝒂, ce qui
implique que son spectre d’amplitude est élargi du facteur 𝒂. De même, un signal dilaté dans le temps varie
plus lentement ; par conséquent, les fréquences de ses composants sont abaissées, ce qui implique que son
spectre d’amplitude est comprimé. Par exemple, le signal 𝑐𝑜𝑠(2𝜔0 𝑡) est le même que le signal 𝑐𝑜𝑠(𝜔0 𝑡)
comprimé dans le temps d'un facteur 2. Clairement, le spectre du premier (impulsions à ± 2𝜔0 ) est une version
élargie du spectre du second (impulsions à ± 𝜔0 ). L'effet de la mise à l'échelle est démontré par un autre
exemple de la figure 4.21. Notez la dualité temps-fréquence implicite dans cette propriété. Plus de discussion
sur ce sujet intéressant peut-être trouvée dans la littérature [4].

𝑡 𝜏𝜔
Figure 4.21: Illustration de la propriété de Facteur d'échelle avec (𝑎)𝑥(𝑡) = 𝛱 (𝜏 ) ⇐⇒ 𝑋(𝜔) = 𝜏𝑠𝑖𝑛𝑐 ( 2𝜋 )
𝑎𝑛𝑑 (𝑏) 𝑖𝑡𝑠 𝑠𝑐𝑎𝑙𝑒 𝑥(𝑡/2) = 𝛱(𝑡/2𝜏) ⇐⇒ 2𝑋(2𝜔) = 2𝜏𝑠𝑖𝑛𝑐(𝜏𝜔/𝜋)

4. Décalage ou translation temporelle


La propriété de translation temporelle dit qu’un décalage temporel à droite dans le domaine temporel
correspond à un amortissement exponentiel par 𝑒 −𝑎𝑗𝜔 dans le domaine fréquentiel complexe :

𝑠𝑖 𝒙(𝒕) ⇐⇒ 𝑿(𝝎), alors 𝒙(𝒕 − 𝒂)𝒖(𝒕 − 𝒂) ⟺ 𝒆−𝒂𝑗𝜔 𝑿(𝜔) (4.28)


Démonstration :
𝑎 ∞

𝐹{𝑥(𝑡 − 𝑎 )𝑢(𝑡 − 𝑎)} = ∫ 0𝑒 −𝑠𝑡 𝑑𝑡 + ∫ 𝑥(𝑡 − 𝑎)𝑒 −𝑠𝑡 𝑑𝑡


0 𝑎
Posons 𝜃 = 𝑡 − 𝑎 ; alors 𝑡 = 𝜃 + 𝑎 𝑒𝑡 𝑑𝑡 = 𝑑𝜃. Avec cette substitution on a :
∞ ∞

∫ 𝑥(𝜃)𝑒 −𝑗𝜔(𝜃+𝑎) 𝑑𝜃 = 𝑒 −𝑎𝑠 ∫ 𝑥(𝜃)𝑒 −𝑗𝜔𝜃 𝑑𝜃 = 𝑒 −𝑎𝑗𝜔 𝑋(𝜔)


0 0

Ce résultat montre que retarder un signal de 𝒂 secondes ne change pas son spectre d'amplitude. Le spectre de
phase, cependant, est modifié par 𝝎𝒂.
Exemple 4.8 (Un décalage temporel produit un décalage de phase linéaire)

En utilisant real 𝑎 > 0, trouvez la transformée de Fourier de 𝑥(𝑡) = 𝑒 − 𝑎|𝑡−𝑡0 | , illustrée dans la figure.4.22. À l'aide
de 𝑎 = 2 et 𝑡0 = 1, dessinez les spectres d'amplitude et de phase correspondants.

Figure 4.22: exponentielle décalée dans le temps 𝑥(𝑡) = 𝑒− 𝑎|𝑡−𝑡0 | .

Cette fonction est une version décalée dans le temps de 𝑒 −𝑎|𝑡| . En utilisant la paire 3 du tableau 4.1 (avec λ = a) et
l'équation. (4.28), on obtient
2𝑎
𝑒 − 𝑎|𝑡−𝑡0 | ⟺ 𝑒 −𝑗𝜔𝑡0
𝜔2+ 𝑎2
Les représentations spectrales sont obtenues à l'aide de MATLAB.

01 𝑜𝑚𝑒𝑔𝑎 = 𝑙𝑖𝑛𝑠𝑝𝑎𝑐𝑒(−10,10,1001); 𝑋 = @(𝑜𝑚𝑒𝑔𝑎) 4./(𝑜𝑚𝑒𝑔𝑎. ^2 + 4).∗ 𝑒𝑥𝑝(−1𝑗 ∗ 𝑜𝑚𝑒𝑔𝑎);


02 𝑠𝑢𝑏𝑝𝑙𝑜𝑡(121); 𝑝𝑙𝑜𝑡(𝑜𝑚𝑒𝑔𝑎, 𝑎𝑏𝑠(𝑋(𝑜𝑚𝑒𝑔𝑎))); 𝑥𝑙𝑎𝑏𝑒𝑙(’\𝑜𝑚𝑒𝑔𝑎’); 𝑦𝑙𝑎𝑏𝑒𝑙(’|𝑋(\𝑜𝑚𝑒𝑔𝑎)|’);
03 𝑠𝑢𝑏𝑝𝑙𝑜𝑡(122); 𝑝𝑙𝑜𝑡(𝑜𝑚𝑒𝑔𝑎, 𝑎𝑛𝑔𝑙𝑒(𝑋(𝑜𝑚𝑒𝑔𝑎))); 𝑥𝑙𝑎𝑏𝑒𝑙(’\𝑜𝑚𝑒𝑔𝑎’); 𝑦𝑙𝑎𝑏𝑒𝑙(’\𝑎𝑛𝑔𝑙𝑒 𝑋(\𝑜𝑚𝑒𝑔𝑎)’);

Figure 4.23: Spectres pour 𝑥(𝑡) = 𝑒 − 𝑎|𝑡−𝑡0 | 𝑎𝑣𝑒𝑐 𝑎 = 2 𝑒𝑡 𝑡0 = 1: (𝑎)|𝑋(𝜔)| 𝑒𝑡 (𝑏) ∠𝑋(𝜔) .

Le spectre de 𝑒 − 𝑎|𝑡−𝑡0 | , montré dans la figure.4.23, est le même que celui de 𝑒 − 𝑎|𝑡 | sauf pour un déphasage
linéaire supplémentaire 𝜔𝑡0 qui résulte comme une conséquence directe du retard 𝑡0 . Comme pour la plupart des
phases calculées par ordinateur, le spectre de phase (trait plein) de la figure 4.23b prend la valeur principale de
l'angle plutôt que simplement 𝜔𝑡0 (ligne pointillée). La valeur principale diffère de la valeur réelle de ±2𝜋𝑘 radians
(𝑘 entier) de manière à garantir que la valeur principale reste dans la plage ±𝜋. Ainsi, la valeur principale présente
des discontinuités de saut de ±2𝜋 chaque fois que la phase d'origine dépasse la plage ±𝜋. Les deux
représentations, cependant, sont tout à fait équivalentes. Comme l’exemple 4.9 montrera cependant que les
graphiques des valeurs principales ne sont pas toujours les plus révélatrices.

Exemple 4.9 (Phase de déballage pour plus de clarté)


𝑡 3
Trouvez la transformée de Fourier de l'impulsion de porte décalée 𝑥 (𝑡) = 𝛱 ( − ) , montrée dans la figure 4.24.
𝜏 4
Tracez les spectres d'amplitude et de phase correspondants.
𝑡 3
Figure 4.24: Porte décalée dans le temps 𝑥(𝑡) = 𝛱 (𝜏 − 4)

Réponse :

L'impulsion 𝑥(𝑡) est l'impulsion porte 𝛱(𝑡/𝜏) sur la figure 1.9b retardée de 𝑡0 = 3𝜏/4 secondes, c'est-à-dire 𝑥(𝑡) =
𝑡−0.75𝜏
𝛱( ). Par conséquent, selon l'équation (4.28), sa transformée de Fourier est la transformée de Fourier de
𝜏
3𝜏
𝛱(𝑡/𝜏) multipliée par 𝑒 −𝑗𝜔( 4 ). Donc,
𝜔𝜏 −𝑗𝜔(3𝜏)
𝑋(𝜔) = 𝜏𝑠𝑖𝑛𝑐 ( )𝑒 4
2𝜋
𝜔𝜏
Le spectre d’amplitude |𝜏𝑠𝑖𝑛𝑐 (2𝜋)|, illustré sur la figure 4.25a, est identique au spectre d'amplitude de
l'impulsion rectangulaire non décalée, comme illustré sur la figure 4.19a. La figure 4.25b montre la phase
utilisant les valeurs principales. En réglant 𝜏 = 1 par commodité, MATLAB calcule et trace facilement ces
spectres.
01 𝑜𝑚𝑒𝑔𝑎 = 𝑙𝑖𝑛𝑠𝑝𝑎𝑐𝑒(−8.5 ∗ 𝑝𝑖, 8.5 ∗ 𝑝𝑖, 10001); 𝑋 = 𝑠𝑖𝑛𝑐(𝑜𝑚𝑒𝑔𝑎/(2 ∗ 𝑝𝑖)).∗ 𝑒𝑥𝑝(−1𝑗 ∗ 𝑜𝑚𝑒𝑔𝑎 ∗ 3/4);
02 𝑠𝑢𝑏𝑝𝑙𝑜𝑡(311); 𝑝𝑙𝑜𝑡(𝑜𝑚𝑒𝑔𝑎, 𝑎𝑏𝑠(𝑋)); 𝑥𝑙𝑎𝑏𝑒𝑙(’\𝑜𝑚𝑒𝑔𝑎’); 𝑦𝑙𝑎𝑏𝑒𝑙(’|𝑋(\𝑜𝑚𝑒𝑔𝑎)|’);
03 𝑠𝑢𝑏𝑝𝑙𝑜𝑡(312); 𝑝𝑙𝑜𝑡(𝑜𝑚𝑒𝑔𝑎, 𝑎𝑛𝑔𝑙𝑒(𝑋)); 𝑥𝑙𝑎𝑏𝑒𝑙(’\𝑜𝑚𝑒𝑔𝑎’); 𝑦𝑙𝑎𝑏𝑒𝑙(’\𝑎𝑛𝑔𝑙𝑒 𝑋(\𝑜𝑚𝑒𝑔𝑎)’);

𝑡 3
Figure 4.25: Spectres de 𝑥(𝑡) = 𝛱 ( − ) : (a) |𝑋(𝜔)|, (𝑏)∠𝑋(𝜔) 𝑒𝑡 (𝑐)∠𝑋(𝜔) 𝑑é𝑏𝑎𝑙𝑙é
𝜏 4
Bien que le spectre de phase de la figure 4.25b apparaisse comme le gambade sans but d'un enfant qui joue
sérieusement, sa folie a une méthode. Les sauts de ± 𝜋 à 𝜔 = 2𝜋𝑘/𝜏 (𝑘 entier) se produisent en raison des
alternances de signe de la fonction 𝑠𝑖𝑛𝑐 à ces fréquences. Les sauts restants de ±2𝜋 se produisent pour maintenir
la phase dans la plage de valeurs principale de ±𝜋.

La figure 4.25c montre une présentation plus informative du spectre de phase qui est obtenu en déroulant la
réponse de phase trouvée sur la figure 4.25b. Le processus de déballage supprime essentiellement les sauts de
±2𝜋 utilisés pour maintenir les valeurs d'angle dans la plage principale. Or, la composante linéaire de la phase due
au décalage temporel est clairement visible, pour être interrompue par des sauts occasionnels de ±𝜋 résultant
d'alternances en signe de la fonction 𝑠𝑖𝑛𝑐. Le retard lui-même est facilement déterminé en calculant la pente près
3𝜋 3𝜏
de l'origine comme 𝑡0 = − 4𝜋 =− . La commande de dépliage intégrée de MATLAB simplifie le processus de
4
𝜏
déballage.
04 𝑋𝑢𝑛𝑤𝑟𝑎𝑝𝑎𝑛𝑔 = 𝑢𝑛𝑤𝑟𝑎𝑝(𝑎𝑛𝑔𝑙𝑒(𝑋),1.5 ∗ 𝑝𝑖);
05 𝑋𝑢𝑛𝑤𝑟𝑎𝑝𝑎𝑛𝑔 = 𝑋𝑢𝑛𝑤𝑟𝑎𝑝𝑎𝑛𝑔 − (𝑋𝑢𝑛𝑤𝑟𝑎𝑝𝑎𝑛𝑔(1) + 𝑋𝑢𝑛𝑤𝑟𝑎𝑝𝑎𝑛𝑔(𝑒𝑛𝑑))/2;
06 𝑠𝑢𝑏𝑝𝑙𝑜𝑡(313); 𝑝𝑙𝑜𝑡(𝑜𝑚𝑒𝑔𝑎, 𝑋𝑢𝑛𝑤𝑟𝑎𝑝𝑎𝑛𝑔); 𝑥𝑙𝑎𝑏𝑒𝑙(’\𝑜𝑚𝑒𝑔𝑎’); 𝑦𝑙𝑎𝑏𝑒𝑙(’\𝑎𝑛𝑔𝑙𝑒 𝑋(\𝑜𝑚𝑒𝑔𝑎)’);

La ligne 05, bien qu'elle ne soit pas absolument nécessaire, compense le fait que MATLAB déroule les vecteurs
d'un côté à l'autre, plutôt que du milieu vers l'extérieur, et garantit que notre diagramme de phase a la symétrie
étrange souhaitée.

Une explication physique de la phase linéaire

La propriété de décalage temporel nous indique qu'un retard dans un signal provoque un déphasage linéaire
dans son spectre. Ce résultat peut également être obtenu par un raisonnement heuristique. Imaginez que 𝑥(𝑡) soit
synthétisé par ses composantes de Fourier, qui sont des sinusoïdes de certaines magnitudes et phases. Le signal
retardé 𝑥(𝑡 − 𝑡0 ) peut être synthétisé par les mêmes composantes sinusoïdales, chacune retardée de 𝑡0 secondes.
Les magnitudes des composants restent inchangées. Par conséquent, le spectre de magnitude de 𝑥 (𝑡 − 𝑡0 ) est
identique à celui de 𝑥(𝑡). Le retard temporel de 𝑡0 dans chaque sinusoïde, cependant, change la phase de chaque
composant. Or, un sinusoïde 𝑠𝑖𝑛(𝜔𝑡) retardé de 𝑡0 est donné par

𝒔𝒊𝒏 (𝝎[𝒕 − 𝒕𝟎 ]) = 𝒔𝒊𝒏(𝝎𝒕 −𝝎𝒕


⏟ 𝟎 )
𝑫é𝒄𝒂𝒍𝒂𝒈𝒆
𝒅𝒆 𝒑𝒉𝒂𝒔𝒆

Par conséquent, un retard 𝒕𝟎 dans une sinusoïde de fréquence 𝜔 se manifeste par un retard de phase de 𝝎𝒕𝟎
(ou déphasage de 𝝎𝒕𝟎 ). Il s'agit d'une fonction linéaire de 𝝎, ce qui signifie que les composants à haute fréquence
doivent subir des déphasages proportionnellement plus élevés pour obtenir le même retard. Cet effet est
représenté sur la figure 4.26 avec deux sinusoïdes, la fréquence de la seconde sinusoïde étant deux fois celle de
la première.

Figure 4.26: Illustration de phase linéaire: (a) le déphasage de 𝒔𝒊𝒏 (𝝎[𝒕 − 𝒕𝟎 ]) causé par le retard 𝒕𝟎 est deux fois moins
grand que (b) le déphasage de 𝒔𝒊𝒏(𝟐𝝎[𝒕 − 𝒕𝟎 ]) causé par le même retard 𝒕𝟎 .
Le même retard 𝒕𝟎 équivaut à un déphasage de 𝝅/𝟐 dans la première sinusoïde et à un déphasage de 𝝅 dans
la deuxième sinusoïde. Ceci vérifie le fait que pour obtenir le même retard temporel, les sinusoïdes de plus haute
fréquence doivent subir des déphasages proportionnellement plus élevés. Le concept de déphasage linéaire est
très important, et nous le retrouverons lors de l'examen des applications de transmission et de filtrage de signaux
sans distorsion.

Translation fréquentielle
La propriété de décalage fréquentielle dit qu’un amortissement exponentiel dans le domaine temporel
correspond à une translation dans le domaine fréquentiel.

𝒔𝒊 𝒙(𝒕) ⟺ 𝑿(𝝎) 𝒂𝒍𝒐𝒓𝒔 𝒆−𝒋𝝎𝟎 𝒕 𝒙(𝒕) ⟺ 𝑿(𝜔 + 𝝎𝟎 ) (𝟒. 𝟐𝟗)

Démonstration :
∞ ∞

𝐹{𝑒 −𝒋𝝎𝟎 𝑡 𝑥(𝑡)} = ∫ 𝑒 −𝒋𝝎𝟎 𝑡 𝑥(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 = ∫ 𝑥(𝑡)𝑒 −(𝑗𝜔+𝒋𝝎𝟎 )𝑡 𝑑𝑡 = 𝑋(𝜔 + 𝝎𝟎 )


0 0

De la propriété de translation temporelle et dilatation que :


1 𝜔 − 𝜔0
𝑒 𝑗𝜔0𝑡 𝑥(𝑎𝑡) ⇔ 𝑋( )
|𝑎 | 𝑎

Selon cette propriété, la multiplication d'un signal par un facteur 𝑒 𝑗𝜔0 𝑡 décale le spectre de ce signal de 𝜔0 .

Dans la plupart des systèmes de TC, le décalage de fréquence n'est pas obtenu en multipliant le signal 𝑥(𝑡) par le
signal complexe 𝑒 𝑗𝜔0𝑡 (ou 𝑒 −𝑗𝜔0 𝑡 ). Au contraire, 𝑥(𝑡) est généralement multiplié par une sinusoïde réelle comme
1 1
𝑥 (𝑡) cos(𝜔0 𝑡) = 2 (𝑥(𝑡). 𝑒 𝑗𝜔0 𝑡 + 𝑥 (𝑡). 𝑒 −𝑗𝜔0 𝑡 ) 𝑒𝑡 𝑥 (𝑡) sin(𝜔0 𝑡) = 2𝑗 (𝑥(𝑡). 𝑒 𝑗𝜔0 𝑡 + 𝑥(𝑡). 𝑒 −𝑗𝜔0 𝑡 ).

or

𝒆−𝒋𝝎𝟎 𝒕 𝒙(𝒕) ⟺ 𝑿(𝜔 + 𝝎𝟎 ) (4.30)

De Eqs. (4.29) et (4.30), il s'ensuit que


1
𝑥(𝑡) cos(𝜔0 𝑡) ⟺ (𝑿(𝜔 − 𝝎𝟎 ) + 𝑿(𝜔 + 𝝎𝟎 ))
2
1
𝑥 (𝑡) sin(𝜔0 𝑡) ⟺ (𝑿(𝜔 − 𝝎𝟎 ) − 𝑿(𝜔 + 𝝎𝟎 ))
2𝑗

Ce résultat, connu sous le nom de propriété de modulation, montre que la multiplication d'un signal 𝑥(𝑡) par
une sinusoïde de fréquence ω0 décale le spectre 𝑋(𝜔) de ± 𝜔0 , comme le montre la figure 4.27.

La multiplication d’une sinusoïde cos(𝜔0 𝑡) par 𝑥(𝑡) revient à moduler l’amplitude de la sinusoïde. Ce type de
modulation est appelé modulation d'amplitude. Tant que 𝜔0 est suffisamment grand, comme c'est normalement
le cas, notez que ±𝑥(𝑡) sert d'enveloppe de la sinusoïde cos(𝜔0 𝑡). La sinusoïde, dans ce cas cos(𝜔0 𝑡), est
appelée porteuse, le signal 𝑥(𝑡) est le signal de modulation ou signal modulant, et le signal 𝑥(𝑡) cos(𝜔0 𝑡) est le
signal modulé. La figure 4.27 montre que le signal 𝑥(𝑡) a une bande passante B, mais la bande passante du
signal modulé est 2B. Ainsi, la modulation double la bande passante.

Faire d'un déphasage constant dans un spectre modulé

De Eqs. (4.29) et (4.30), il s'ensuit que

𝒆𝒋(𝝎𝟎 𝒕+𝜽) 𝒙(𝒕) ⟺ 𝑿(𝝎 − 𝝎𝟎 )𝒆𝒋𝜽 𝑒𝑡 𝒆−𝒋(𝝎𝟎 𝒕+𝜽) 𝒙(𝒕) ⟺ 𝑿(𝝎 + 𝝎𝟎 )𝒆−𝒋𝜽

L’addition de ces deux équations donne


𝟏
𝒙(𝒕) 𝐜𝐨𝐬(𝝎𝟎 𝒕 + 𝜽) ⟺ (𝑿(𝝎 − 𝝎𝟎 )𝒆𝒋𝜽 + 𝑿(𝝎 + 𝝎𝟎 )𝒆−𝒋𝜽 ) (4.31)
𝟐

Figure 4.27: La multiplication par une sinusoïde provoque un décalage spectral:


1
(𝑎)𝑥(𝑡) ⇐⇒ 𝑋(𝜔) 𝑒𝑡 (𝑏) 𝑥(𝑡) cos(𝜔0 𝑡) ⟺ (𝑿(𝜔 − 𝝎𝟎 ) + 𝑿(𝜔 + 𝝎𝟎 ))
2

Une comparaison de l'Eq. (4.31) avec Eq. (4.30) montre qu'en déplaçant simplement la phase de la porteuse
d'une constante 𝜃, on peut décaler la phase de l'ensemble du spectre modulé de 𝜃. Le côté droit de Eq. (4.31)
montre que tout le spectre 𝑿(𝝎 − 𝝎𝟎 ) (centré en 𝝎𝟎) acquiert une phase 𝜃 constante. De même, tout le spectre
𝑿(𝝎 + 𝝎𝟎 ) (centré en −𝝎𝟎) acquiert une phase 𝜃 constante. Nous verrons plus loin comment ce principe permet
d'assouplir la condition des caractéristiques de phase linéaire dans les systèmes passe-bande.

5. Dérivation temporelle
La propriété de dérivation indique qu’une dérivation temporelle correspond à une multiplication par 𝑗𝜔
moins la valeur à l’origine de 𝑥(𝑡).

𝒅𝒏
𝑠𝑖 𝒙(𝒕) ⟺ 𝑿(𝝎) 𝑎𝑙𝑜𝑟𝑠 𝒙(𝒕) ⟺ (𝒋𝝎)𝒏 𝑿(𝝎) (4.31)
𝒅𝒕𝟐
Démonstration :
+∞ +∞
𝑑𝑛 𝑑𝑛 1 𝑗𝜔𝑡
1 𝑑𝑛 𝑗𝜔𝑡
𝑥 (𝑡 ) = ( ∫ 𝑋(𝜔)𝑒 𝑑𝜔 ) = ∫ 𝑋(𝜔) 𝑒 𝑑𝜔
𝑑𝑡 𝑛 𝑑𝑡 𝑛 2𝜋 2𝜋 𝑑𝑡 𝑛
−∞ −∞

+∞ +∞
1 1
= ∫ 𝑋(𝜔)(𝑗𝜔)𝑛 𝑒 𝑗𝜔𝑡 𝑑𝜔 = (𝑗𝜔)𝑛 ∫ 𝑋(𝜔)𝑒 𝑗𝜔𝑡 𝑑𝜔 = (𝒋𝝎)𝒏 𝑿(𝝎)
2𝜋 2𝜋
−∞ ⏟ −∞
( 𝑋(𝜔) )

Intégration temporelle
Cette propriété établit que l’intégration dans le domaine temporel correspond dans le domaine fréquentiel à
une division de la transformée 𝑋(𝑗𝜔) par la variable complexe 𝑗𝜔.
𝒕
𝑿(𝒋𝝎)
𝑠𝑖 𝒙(𝒕) ⟺ 𝑿(𝝎) 𝑎𝑙𝑜𝑟𝑠 ∫ 𝒙(𝜽)𝒅𝜽 ⟺ + 𝝅𝑿(𝟎)𝜹(𝝎) (4.32)
𝒋𝝎
−∞

Dérivation fréquentielle
Cette propriété dit que la dérivation dans le domaine fréquentiel complexe correspond à la multiplication par
la variable temporelle 𝑡 dans le domaine temporel.
𝒅𝒏
𝑠𝑖 𝒙(𝒕) ⟺ 𝑿(𝝎) 𝑎𝑙𝑜𝑟𝑠 (−𝒋𝒕)𝒏 𝒙(𝒕) ⟺ 𝑿(𝝎) (4.32)
𝒅𝝎𝒏
Démonstration :
En utilisant la transformée de Fourier, on obtient
+∞ +∞
𝑑𝑛 𝑑𝑛 −𝑗𝜔𝑡
𝑑𝑛 −𝑗𝜔𝑡
𝑋(𝜔) = ( ∫ 𝑥(𝑡)𝑒 𝑑𝑡 ) = ∫ 𝑥(𝑡) 𝑒 𝑑𝑡
𝑑𝑡 𝑛 𝑑𝑡 𝑛 𝑑𝑡 𝑛
−∞ −∞
+∞ +∞

= ∫ 𝑥(𝑡)(−𝑗𝑡)𝑛 𝑒−𝑗𝜔𝑡 𝑑𝑡 = (−𝑗𝑡)𝑛 ∫ 𝑥(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


−∞ −∞

6. Aire en dessous de x(t)


Ici on montre que la valeur initiale 𝑋(0)d’un signal fréquentiel 𝑋(𝜔) s’obtient en calculant l’aire du signal
temporel 𝑥(𝑡)
+∞

𝑠𝑖 𝒙(𝒕) ⟺ 𝑿(𝝎) 𝑎𝑙𝑜𝑟𝑠 𝑿(𝟎) = ∫ 𝒙(𝒕)𝒅𝒕 (4.33)


−∞
Démonstration :

A partir de la définition de la transformée de Fourier de 𝑥(𝑡),


+∞

𝑋(𝑗𝜔) = ∫ 𝑥(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


−∞

Si dans cette relation on prend 𝑒 −𝑗𝜔𝑡 |𝜔=0 = 1 on obtient l’aire de 𝑥(𝑡).

7. Aire en dessous de 𝑿(𝒋𝝎)


Ce théorème montre que la valeur à l’origine d’un signal temporel se détermine aussi à partir de l’aire de
sa transformée de Fourier.
+∞
𝟏
𝑠𝑖 𝒙(𝒕) ⟺ 𝑿(𝝎) 𝑎𝑙𝑜𝑟𝑠 𝒙(𝟎) = ∫ 𝑿(𝒋𝝎)𝒆𝒋𝝎𝒕 𝒅𝝎 (4.34)
𝟐𝝅
−∞

Démonstration :

A partir de la définition de l’original,


+∞
1
𝑥 (𝑡) = ∫ 𝑋(𝑗𝜔)𝑒 𝑗𝜔𝑡 𝑑𝜔
2𝜋
−∞

Si on prend 𝑒 𝑗𝜔𝑡 |𝑡=0 = 1 alors on obtient le résultat recherché.


8. Convolution temporelle
Ici on montre qu’une convolution dans le domaine temporel correspond à un produit simple dans le
domaine fréquentiel complexe.

𝒙𝟏 (𝒕) ∗ 𝒙𝟐 (𝒕) = ∫ 𝒙𝟏 (𝜽)𝒙𝟐 (𝒕 − 𝜽)𝒅𝜽 ⟺ 𝑿𝟏 (𝒋𝝎). 𝑿𝟐 (𝒋𝝎) (4.35)


−∞

Démonstration :
∞ ∞ ∞

𝐹{𝑥1 (𝑡) ∗ 𝑥2 (𝑡)} = 𝐹 { ∫ 𝑥1 (𝜃)𝑥2 (𝑡 − 𝜃)𝑑𝜃} = ∫ [∫ 𝑥1 (𝜃)𝑥2 (𝑡 − 𝜃)𝑑𝜃] 𝑒 −𝑗𝜔𝑡 𝑑𝑡


−∞ 0 0
∞ ∞

= ∫ 𝑥1 (𝜃) [∫ 𝑥2 (𝑡 − 𝜃)𝑒 −𝑗𝜔𝑡 𝑑𝑡] 𝑑𝜃


0 0

A l’aide de la propriété de translation temporelle on sait que


∫ 𝑥2 (𝑡 − 𝜃)𝑒 −𝑗𝜔𝑡 𝑑𝑡 = 𝑋2 (𝑗𝜔)𝑒 −𝑗𝜔𝜃


0

En introduisant cela dans notre calcul on obtient


∞ ∞

𝐹{𝑥1 (𝑡) ∗ 𝑥2 (𝑡)} = ∫ 𝑥1 (𝜃)𝑋2 (𝑗𝜔)𝑒 −𝑗𝜔𝜃 𝑑𝜃 = 𝑋2 (𝑠) ∫ 𝑥1 (𝜃)𝑒 −𝑗𝜔𝜃 𝑑𝜃 = 𝑋1 (𝑗𝜔)𝑋2 (𝑗𝜔)
0 0
La propriété de convolution nous permet de remplacer une opération de convolution fastidieuse dans le
domaine temporel par une simple multiplication dans le domaine fréquentiel. La preuve peut être trouvée dans
pratiquement tous les signaux d'introduction et le texte des systèmes, tels que [1]. L'utilité de ce résultat
apparemment trivial est profonde et constitue la base de l'analyse du domaine fréquentiel des systèmes LTIC.
Comme nous le verrons au Chapitre suivant, le domaine fréquentiel offre une perspective filtrante intuitive du
comportement du système et nous aide grandement à comprendre, analyser et concevoir des systèmes.

9. Convolution fréquentielle
Cette propriété montre qu’un produit de convolution dans le domaine fréquentiel complexe correspond à un
produit simple dans le domaine temporel.
𝟏
𝒙𝟏 (𝒕). 𝒙𝟐 (𝒕) ⟺ 𝑿 (𝒋𝝎) ∗ 𝑿𝟐 (𝒋𝝎) (4.36)
𝟐𝝅 𝟏
Démonstration :

𝐹{𝑥1 (𝑡) ∗ 𝑥2 (𝑡)} = ∫ 𝑥1 (𝑡)𝑥2 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡


0
Rappelons-nous l’intégrale de la transformée inverse
+∞
1
𝑥1 (𝑡) = ∫ 𝑋1 (𝑗𝜇)𝑒 −𝑗𝜇𝑡 𝑑𝜇
2𝜋
−∞

En substituant dans notre calcul on obtient,


∞ +∞ +∞ ∞
1 1
𝐹{𝑥1 (𝑡) ∗ 𝑥2 (𝑡)} = ∫ [ ∫ 𝑋1 (𝑗𝜇)𝑒 −𝑗𝜇𝑡 𝑑𝜇] 𝑥2 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 = ∫ 𝑋1 (𝑗𝜇) [∫ 𝑥2 (𝑡) 𝑒 −𝑗(𝜔−𝜇)𝑡 𝑑𝑡] 𝑑𝜇
2𝜋 2𝜋
0 −∞ −∞ ⏟0
=𝑋2 (𝑗𝜔−𝑗𝜇)
On observe que l’intégrale entre crochets est 𝑋2 (𝑗𝜔 − 𝑗𝜇) ; alors
+∞
1 1
𝐹{𝑥1 (𝑡) ∗ 𝑥2 (𝑡)} = ∫ 𝑋1 (𝑗𝜇)𝑋2 (𝑗𝜔 − 𝑗𝜇)𝑑𝜇 = 𝑋 (𝑗𝜔) ∗ 𝑋2 (𝑗𝜔)
2𝜋 2𝜋 1
−∞

10. Corrélation et propriété de corrélation

La corrélation entre les fonctions à temps continu 𝑥(𝑡) et 𝑦(𝑡) est définie comme

𝝆𝒙,𝒚 (𝝉) = ∫ 𝒙(𝒕 + 𝝉). 𝒚


̅(𝒕)𝒅𝒕 (4.3.7)
−∞

La corrélation fournit une mesure de la similitude entre deux signaux en fonction du décalage temporel 𝝉 entre
eux. Plus deux signaux sont similaires à un décalage particulier 𝝉, plus la valeur de corrélation correspondante
devient grande.† La corrélation trouve une utilisation courante dans les systèmes d'ingénierie. Par exemple, les
récepteurs du système de positionnement global (GPS) utilisent la corrélation. Le récepteur corrèle les codes de
satellite GPS connus stockés en mémoire avec le signal reçu par l’antenne du récepteur. Des valeurs de
corrélation élevées indiquent qu’un satellite particulier est dans le champ de vision du récepteur; les valeurs de
décalage correspondantes pour chaque satellite détecté sont utilisées pour trianguler la position du récepteur en
utilisant des données d'almanach satellite connues.

Lorsque les signaux 𝑥(𝑡) et 𝑦(𝑡) sont distincts l'un de l'autre, la fonction de corrélation 𝝆𝒙,𝒚 (𝝉) est souvent
appellée fonction corrélation croisée ou fonction d’intercorrélation entre 𝑥(𝑡) et 𝑦(𝑡). Si 𝑦(𝑡) = 𝑥(𝑡), alors la
fonction de corrélation 𝝆𝒙,𝒚 (𝝉) est la fonction d'autocorrélation. Si la fonction de corrélation dans l'Eq. (4.37)
semble familier, ça devrait. Elle est presque identique à l'opération de convolution donnée dans l'Eq. (4.35). Seul
un petit effort est nécessaire pour démontrer que

𝝆𝒙,𝒚 (𝝉) = 𝒙(𝝉). 𝒚∗ (−𝝉) (4.38)

L'équation (4.38) nous dit que la corrélation n'est ni plus difficile ni plus facile que la convolution. L'application
des propriétés de conjugaison complexe, d'inversion de temps et de convolution donne la propriété de corrélation

𝝆𝒙,𝒚 (𝝉) = 𝒙(𝝉). 𝒚∗ (−𝝉) ⟺ 𝑿(𝝎). 𝒀∗ (𝝎) (4.39)

Une représentation fréquentielle de l'énergie du signal

L'autocorrélation 𝝆𝒙,𝒚 (𝝉) d'un signal x (t) at 𝜏 = 0 doit être grande. Après tout, rien ne devrait ressembler plus à
un signal 𝑥(𝑡) qu'à une copie exacte de lui-même. Une question raisonnable, est de savoir comment interpréter la
valeur d'autocorrélation correspondante 𝝆𝒙,𝒚 (𝟎). Une substitution simple de 𝜏 = 0 dans l'équation. (4.37) fournit
+∞ +∞

𝝆𝒙,𝒚 (𝟎) = ∫ 𝒙(𝒕). 𝒙 𝒕)𝒅𝒕 = ∫ |𝒙(𝒕)|𝟐 𝒅𝒕 = 𝑬𝒙


∗(
(4.40)
−∞ −∞

En d'autres termes, la fonction d'autocorrélation indique la force de la similitude d'une manière cohérente avec
la façon dont nous mesurons la force du signal, à savoir l'énergie du signal. Tout comme un coefficient de
corrélation, la fonction de corrélation est souvent normalisée par l'énergie du signal. Un aperçu supplémentaire est
obtenu en notant que puisque 𝝆𝒙,𝒚 (𝝉) a une transformée de Fourier 𝑋(𝜔)𝑋 ∗ (𝜔), elle peut être synthétisée à l'aide
de l'Eq. (1.74) comme

† Pour une discussion plus approfondie sur la signification physique de la corrélation et l'intuition sur la raison pour laquelle elle sert de
mesure de similitude entre les signaux, se référer à [2].
+∞ +∞
𝟏 𝟏
𝝆𝒙,𝒚 (𝝉) = ∫ 𝑿(𝝎). 𝑿∗ (−𝝎). 𝒆𝒋𝝎𝝉 𝒅𝝎 = ∫ |𝑿(𝝎)|𝟐 . 𝒆𝒋𝝎𝝉 𝒅𝝎
𝟐𝝅 𝟐𝝅
−∞ −∞

En substituant 𝜏 = 0 et en combinant avec l'équation. (4.40), on obtient


+∞ +∞
𝟏
𝑬𝒙 = ∫ |𝒙(𝒕 )|𝟐 𝒅𝒕 = ∫ |𝑿(𝝎)|𝟐 𝒅𝝎 (4.41)
𝟐𝝅
−∞ −∞

Cette affirmation est le théorème de Parseval bien connu pour la transformée de Fourier. Ce résultat nous
permet de déterminer l'énergie du signal à partir de la spécification du domaine temporel 𝑥(𝑡) ou de la spécification
du domaine fréquentiel 𝑋(𝜔) du même signal. L'équation (4.41) peut être interprétée comme signifiant que
l'énergie d'un signal 𝑥(𝑡) résulte des énergies apportées par toutes les composantes spectrales du signal 𝑥(𝑡).
L'énergie totale du signal est la surface sous |𝑿(𝝎)|𝟐 (divisée par 2𝜋). Semblable à l'approche montrée dans la
figure 4.28, il est utile de considérer cette zone comme la somme infinie

1
𝐸𝑥 = lim ෍ |𝑋(𝑘∆𝜔)|2 ∆𝜔
∆𝜔→0 2𝜋
𝑘=−∞

Si l'on considère la petite bande de fréquences 𝛥𝜔 (𝛥𝜔 → 0) située à 𝜔 = 𝑘𝛥𝜔, comme illustré sur la figure
4.28, l'énergie 𝛥𝐸𝑥 de ces composantes spectrales est l'aire de |𝑋(𝑘∆𝜔)|2 sous cette bande (divisée par 2𝜋):
1
𝛥𝐸𝑥 = |𝑋(𝑘∆𝜔)|2 ∆𝜔 = |𝑋(𝑘∆𝜔)|2 ∆𝑓
2𝜋

Figure 4.28: Interprétation de la densité spectrale d'énergie.

En général, alors, |𝑋(𝑘∆𝜔)|2 ∆𝑓 représente l'énergie apportée par les composants dans une bande de 𝛥𝑓 𝐻𝑧. †
Par conséquent, |𝑋(𝑘∆𝜔)|2 est la densité spectrale d'énergie (par unité de largeur de bande en 𝐻𝑧). Pour
calculer l'énergie sur une plage de fréquences [𝜔1 , 𝜔2 ], la densité spectrale d'énergie est simplement intégrée sur
ces fréquences comme suit
𝝎𝟐
𝟏
𝛥𝐸𝑥 = ∫ |𝑿(𝝎)|𝟐 𝒅𝝎 (4.42)
𝟐𝝅
𝝎𝟏

† Pour les signaux réels, la bande de fréquences négatives apporte également une quantité d'énergie égale. Ainsi, pour les signaux
2
réels, l'énergie apportée par une bande 𝛥𝑓 𝐻𝑧 à ± 𝜔 est 2 |𝑋(𝑘∆𝜔)| ∆𝑓.
Pour les signaux réels, 𝑋(𝜔) et 𝑋 ∗ (𝜔) sont conjugués, et |𝑿(𝝎)|𝟐 = 𝑿(𝝎). 𝑿∗ (𝝎) = 𝑿(𝝎). 𝑿(−𝝎) est une
fonction paire de 𝜔. Par conséquent, Eq. (4.41) peut être exprimé comme suit †
𝝎𝟐
𝟏
𝐸𝑥 = ∫ |𝑿(𝝎)|𝟐𝒅𝝎 (4.43)
𝝅
𝝎𝟏

Pour les signaux réels, l'énergie du signal Ex, qui résulte des contributions de toutes les composantes de
1
fréquence de 𝜔 = −∞ à ∞, est donnée par (𝜋 fois) l'aire sous |𝑿(𝝎)|𝟐 de 𝜔 = 0 à ∞ . Pour les signaux réels, il est
courant de spécifier des bandes de fréquences en utilisant uniquement des fréquences positives; l'hypothèse
implicite est que les composantes de fréquence positive et négative sont toutes deux incluses.

Bande passante essentielle d'un signal

Les spectres de la plupart des signaux s'étendent jusqu'à l'infini. Cependant, comme l'énergie de tout signal
pratique est finie, le spectre du signal doit s'approcher de 0 lorsque ω → ∞. La plupart de l'énergie du signal est
contenue dans une certaine bande de 𝐵 rad / s (ou Hz), et l'énergie apportée par les composants au-delà de 𝐵 est
négligeable. On peut donc supprimer le spectre du signal au-delà de 𝐵 avec peu d'effet sur la forme et l'énergie du
signal. La bande passante 𝐵 est appelée la bande passante essentielle du signal. Le critère de sélection de 𝐵
dépend de la tolérance d'erreur dans une application particulière. Nous pouvons, par exemple, sélectionner 𝐵
comme étant la bande qui contient 95% de l'énergie du signal. † Ce chiffre peut être supérieur ou inférieur à 95%
selon la précision requise. Comme Ex. 4.10 montrera, Eq. (4.42) est souvent utile pour déterminer la largeur de
bande essentielle d'un signal.

La suppression de toutes les composantes spectrales de 𝑥(𝑡) au-delà de la largeur de bande essentielle
résulte en un signal 𝑥̂(𝑡) qui est une approximation proche de 𝑥(𝑡). Si nous utilisons un critère de 95% pour la
largeur de bande essentielle, l'énergie de l'erreur 𝑥(𝑡) − 𝑥̂(𝑡) est de 5% de Ex.

Exemple 4.10 : (Calcul de la bande passante essentielle)

En utilisant real 𝑎 > 0, trouvez l'énergie du signal 𝑥 (𝑡) = 𝑒 −𝑎𝑡 𝑢(𝑡). En utilisant un critère d'énergie de 95%,
déterminez la largeur de bande essentielle B du signal. Comment B change-t-il si un critère énergétique de 99%
est utilisé?

Réponse :

Nous avons
+∞
1
𝐸𝑥 = ∫ 𝑒 −2𝑎𝑡 𝑑𝑡 =
2𝑎
0

Nous pouvons vérifier ce résultat par le théorème de Parseval. En utilisant la paire 1 du tableau 4.1, le spectre du
signal est
1
𝑋(𝜔) =
𝑎 + 𝑗𝜔

Puisque 𝑥(𝑡) est réel, nous utilisons l'Eq. (4.43) une forme du théorème de Parseval pour déterminer l’énergie du
signal comme suit
†Cela suppose que 𝑋(𝜔) ne contient pas d'impulsion à 𝜔 = 0. Si une telle impulsion existe, elle doit être intégrée séparément avec un
1 1
facteur multiplicateur de au lieu de .
2𝜋 𝜋
‡Pour les signaux passe-bas, la largeur de bande essentielle peut également être définie comme une fréquence à laquelle la valeur du
spectre d'amplitude est une petite fraction (environ 1%) de sa valeur de crête.
+∞ +∞
1 1 1 1 𝜔 +∞ 1
𝐸𝑥 = ∫ |𝑋(𝜔)|2 𝑑𝜔 = ∫ 2 2
𝑑𝜔 = 𝑡𝑎𝑛 −1 ( )|
=
𝜋 𝜋 𝑎 +𝜔 𝜋𝑎 𝑎 0 2𝑎
0 0

La bande (𝐵 ≤ 𝜔 ≤ 𝐵) contient 95% de l'énergie du signal, soit 0,95 /2𝑎. En utilisant l'Eq. (4.42), nous obtenons
+𝐵 +𝐵
0.95 1 1 1 1 1 𝜔 𝐵
−1 ( )|
1 𝐵
= ∫ 2 2
𝑑𝜔 = ∫ 2 2
𝑑𝜔 = 𝑡𝑎𝑛 = 𝑡𝑎𝑛−1 ( )
2𝑎 2𝜋 𝑎 +𝜔 𝜋 𝑎 +𝜔 𝜋𝑎 𝑎 0 𝜋𝑎 𝑎
−𝐵 0
0.95𝜋
𝐵 = 𝑎. 𝑡𝑎𝑛 ( ) = 12.706 𝑟𝑑. 𝑠 −1
2

Ce résultat indique que les composantes spectrales de 𝑥(𝑡) dans la bande de 0 (𝑑𝑐) à 12,706𝑎 𝑟𝑎𝑑 / 𝑠
(2,02𝑎 𝐻𝑧) contribuent à 95% de l'énergie totale du signal; toutes les composantes spectrales restantes dans la
bande de 2,02𝑎 𝐻𝑧 à ∞ ne contribuent qu'à 5% de l'énergie du signal. En suivant la même procédure, la bande
passante d'énergie de 99% est calculée comme suit :

0.99𝜋
𝐵 = 𝑎. 𝑡𝑎𝑛 ( ) = 63.657. 𝑎 𝑟𝑑. 𝑠 −1
2
L'augmentation du critère d'énergie de 95% à 99% entraîne une augmentation de cinq fois la bande passante
essentielle.

Exemple 4.11 : (Estimation de la bande passante essentielle)


Trouvez l'énergie d'une porte de durée unitaire 𝑥(𝑡) = 𝛱(𝑡). En utilisant un critère d'énergie de 95%, déterminez la
largeur de bande essentielle 𝐵 du signal.

Réponse :
Il est plus commode de trouver l'énergie de 𝑥(𝑡) dans le domaine temporel comme
0.5

𝐸𝑥 = ∫ (1)2 𝑑𝑡 = 1
−0.5
Pour déterminer la bande passante essentielle, nous écrivons Eq. (4.42) en termes de 𝐵 comme suit
𝐵 𝐵
1 1 𝜔
∆𝐸𝑥 = 0.95𝐸𝑥 = 0.95 = ∫|𝑋(𝜔)|2 𝑑𝜔 = ∫ 𝑠𝑖𝑛𝑐 2 ( ) 𝑑𝜔 (4.44)
2𝜋 2𝜋 2𝜋
−𝐵 −𝐵

Cette équation est difficile à résoudre et nécessite des techniques d'intégration numérique. Pour mieux
comprendre comment une solution est obtenue, nous réécrivons Eq. (4.44) comme suit
𝐵
1 𝜔
|0.95 − ∫ 𝑠𝑖𝑛𝑐 2 ( ) 𝑑𝜔| = 0 (4.45)
2𝜋 2𝜋
−𝐵

Le côté gauche de l'Eq. (4.45) est minimisé (zéro) lorsque B est la bonne largeur de bande essentielle à 95%.
Ainsi, notre problème devient celui de minimiser le côté gauche de l'Eq. (4.45) par rapport à B. Dans le contexte
d'un tel problème de minimisation, le côté gauche de l'Eq. (4.45) est appelée la fonction objective pour la
minimisation.

Encore une fois, MATLAB possède des fonctions intégrées qui aident à résoudre le problème.
01 𝑋𝑠𝑞𝑢𝑎𝑟𝑒 = @(𝑜𝑚𝑒𝑔𝑎) (𝑠𝑖𝑛𝑐(𝑜𝑚𝑒𝑔𝑎/(2 ∗ 𝑝𝑖))). ^2;
02 𝐷𝑒𝑙𝑡𝑎𝐸𝑥 = @(𝐵) 𝑞𝑢𝑎𝑑(𝑋𝑠𝑞𝑢𝑎𝑟𝑒, −𝐵, 𝐵)/(2 ∗ 𝑝𝑖);
03 𝑂𝑏𝑗𝐹𝑢𝑛 = @(𝐵) 𝑎𝑏𝑠(.95 − 𝐷𝑒𝑙𝑡𝑎𝐸𝑥(𝐵)); 𝐵 = 𝑓𝑚𝑖𝑛𝑠𝑒𝑎𝑟𝑐ℎ(𝑂𝑏𝑗𝐹𝑢𝑛, 1)
𝐵 = 13.0245

Les lignes 01 et 02 définissent l'intégrale et l'intégrale de l'équation. (4.44), respectivement. Notez que la ligne
02 calcule l'intégrale numériquement en utilisant la fonction 𝒒𝒖𝒂𝒅 de MATLAB. La ligne 03 définit notre fonction
objectif et utilise la commande MATLAB 𝒇𝒎𝒊𝒏𝒔𝒆𝒂𝒓𝒄𝒉 pour minimiser cette fonction en commençant par une
estimation initiale de 1. Le résultat nous indique que la bande passante effective à 95% de 𝑥(𝑡) est 𝐵 =
13,0245 𝑟𝑎𝑑 / 𝑠. Pour vérifier ce résultat, nous évaluons numériquement le côté droit de l'Eq. (4.44) et vérifiez que
le résultat est 0,95.
04 𝐷𝑒𝑙𝑡𝑎𝐸𝑥(𝐵)
𝑎𝑛𝑠 = 0.9500

Une représentation dans le domaine fréquentiel de la puissance du signal

Nous pouvons facilement étendre l'idée de densité spectrale d'énergie aux signaux de puissance pour lesquels
la puissance du signal est donnée par
𝑇/2 ∞
1 1 𝐸𝑥𝑇
𝑃𝑥 = lim ∫ |𝑥(𝑡)|2 𝑑𝑡 = lim ∫ |𝑥 𝑇 (𝑡)|2 𝑑𝑡 = lim (4.46)
𝑇→+∞ 𝑇 𝑇→+∞ 𝑇 𝑇→+∞ 𝑇
−𝑇/2 −∞

𝑇 𝑡
Ici, 𝑥 𝑇 (𝑡) est le signal 𝑥(𝑡) tronqué à l'extérieur de |𝑡 | > 2 , c'est-à-dire 𝑥 𝑇 (𝑡) = 𝑥 (𝑡). 𝛱 (𝑇) et 𝐸𝑥𝑇 est l'énergie de
ce signal tronqué 𝑥 𝑇 (𝑡). Utilisation de l'Eq. (4.41) dans l'équation (4.46) donne
∞ ∞
1 |𝑥 𝑇 (𝜔)|2 1
𝑃𝑥 = lim ∫ 𝑑𝜔 = ∫ 𝑆𝑥 (𝜔) 𝑑𝜔 (4.47)
𝑇→+∞ 2𝜋 𝑇 2𝜋
−∞ −∞

Ici, 𝑆𝑥 (𝜔), la densité spectrale de puissance de 𝑥(𝑡), est définie comme

|𝑥 𝑇 (𝜔)|2
𝑆𝑥 (𝜔) = lim (4.48)
𝑇→∞ 𝑇
La densité spectrale de puissance a une interprétation physique similaire à la densité spectrale d'énergie.
Analogue à Eq. (4.42), la puissance 𝛥𝑃𝑥 contenue dans une certaine plage de fréquences 𝛥𝜔 non nulle est
obtenue en intégrant la densité spectrale de puissance sur ces fréquences comme

∆𝑃𝑥 = ∫ 𝑆𝑥 (𝜔)𝑑𝜔 (4.49)


∆𝜔

Utilisation des propriétés pour réduire les calculs fastidieux

Pour de nombreux signaux, il peut être assez fastidieux de calculer directement la transformée de Fourier à
l'aide de l'Eq. (4.19). Les propriétés offrent souvent une manière plus simple, en particulier pour les signaux
polynomiaux par morceaux. Comme le montre l'exemple suivant, nous pouvons facilement calculer la transformée
de Fourier d'un signal polynomial par morceaux sans aucune intégration en utilisant les propriétés de
différenciation temporelle et de décalage temporel.

Exemple 4.12 : (Utilisation des propriétés pour déterminer la transformée de Fourier d'un signal)

En utilisant uniquement les propriétés et le fait que 𝛿 (𝑡) ⇐⇒ 1, déterminez la transformée de Fourier de
𝒕−𝟐
𝒙(𝒕) = 𝜦( 𝟐
).
Réponse :

Pour commencer, notez que nous pouvons exprimer 𝑥(𝑡) comme

𝑥 (𝑡) = (𝑡 − 1)𝑢 (𝑡 − 1) − 2(𝑡 − 2)𝑢 (𝑡 − 2) + (𝑡 − 3)𝑢(𝑡 − 3).

Donc,
𝑑
𝑥(𝑡) = 𝑢 (𝑡 − 1) − 2𝑢(𝑡 − 2) + 𝑢(𝑡 − 3)
𝑑𝑡
Et

𝑑2
𝑥 (𝑡) = 𝛿 (𝑡 − 1) − 2𝛿 (𝑡 − 2) + 𝛿 (𝑡 − 3) (4.50)
𝑑𝑡 2
Le signal 𝑥(𝑡) et ses deux premières dérivées sont représentés sur la figure 4.29. En utilisant les propriétés de
différenciation temporelle et de décalage temporel, la transformée de Fourier de Eq. (4.50) est donnée comme suit

−𝜔2 𝑋(𝜔) = 𝑒 −𝑗𝜔 − 2𝑒 −2𝑗𝜔 + 𝑒 −3𝑗𝜔 = 2𝑒 −2𝑗𝜔 [(𝑒 𝑗𝜔 + 𝑒 −𝑗𝜔 ) − 1] = 2𝑒 −2𝑗𝜔 (2 cos(𝜔) − 1)

ce qui se résout facilement pour 𝑋(𝜔) tant que 𝜔 ≠ 0. Pour 𝜔 = 0, on détermine, par examen, que 𝑋(0) = 1.
Ainsi,

2𝑒 −2𝑗𝜔
𝑋(𝜔) = { 𝜔 [1 − 2𝑐𝑜𝑠(𝜔)] 𝜔≠0
1 𝜔=0

Figure 4.29: Signal x (t) et ses deux premières dérivées.

Figure 4.30: Spectre de magnitude | X (ω) |.

Dans ce cas comme dans beaucoup d'autres, 𝑋(𝜔) est obtenu par des propriétés avec beaucoup moins d'effet
que le calcul direct avec Eq. 4.19), ce qui nécessiterait une intégration répétée par pièces. La figure 4.30 montre le
spectre de magnitude |𝑋(𝜔)|.
11. Extension des propriétés de la transformée de Fourier à la série de Fourier

L'analyse de Fourier se décline en plusieurs saveurs, y compris la transformée de Fourier et la série de


Fourier. Les similitudes entre ces variétés dépassent largement leurs différences. Il n'est donc pas surprenant que
la plupart des propriétés de la transformée de Fourier s'étendent, exactement sinon du moins dans l'esprit, à la
série de Fourier. Dans un sens général, par exemple, les deux transformées partagent des relations de symétrie
de base, comme indiqué dans le tableau 4.2. Notez que chaque relation de symétrie possède un double
équivalent. Par exemple, cette dualité garantit qu'un signal dans le domaine temps réel ou dans le domaine
fréquentiel réel a une transformée symétrique conjuguée et vice versa.
Tableau 1.2: Symétries partagées par la transformée de Fourier et la série de Fourier.

Heure (ou fréquence) ⇐⇒ Fréquence (ou heure)


Réel ⇐⇒ Conjugué symétrique
Imaginaire ⇐⇒ Conjugué antisymétrique
Même ⇐⇒ Même
Impair ⇐⇒ Impair

Le tableau 4.3 résume les propriétés de la transformée de Fourier déjà discutées et fournit une comparaison
côte à côte avec les propriétés correspondantes, lorsqu'elles existent, de la série de Fourier. Lorsqu'on parle de la
série de Fourier et de ses propriétés, il est implicite que les signaux sous-jacents sont périodiques avec une
fréquence fondamentale commune 𝜔0 .
Tableau 4.3: Propriétés de la transformée de Fourier et propriétés de la série de Fourier.
Comme le montre le tableau 4.3, la transformée de Fourier et la série de Fourier ont des propriétés de
conjugaison complexe et d'inversion de temps essentiellement identiques, ce qui fournit une justification
mathématique des symétries partagées présentées dans le tableau 4.2.
Malgré les similitudes générales du tableau 1.3, il existe des différences notables entre les deux ensembles de
propriétés. Pour commencer, nous remarquons que la série de Fourier ne possède pas la propriété de dualité de
la transformée de Fourier. Cela ne veut pas dire que la série de Fourier manque de relations duales, car c'est
certainement le cas. Au contraire, la série de Fourier, qui utilise l’intégration pour l’analyse et la sommation pour la
synthèse, n’a pas la symétrie quasi-parfaite de la transformée de Fourier (figure 4.20) que requiert la propriété de
dualité. Ensuite, la série de Fourier n'a pas besoin d'une propriété de mise à l'échelle générale; la mise à l'échelle
temporelle d'un signal périodique 𝑥(𝑡) modifie simplement la fréquence fondamentale 𝜔0 et n'affecte pas les
coefficients de la série de Fourier 𝑋𝑘 . Puisque les coefficients de la série de Fourier 𝑋𝑘 sont fonction d'une variable
de fréquence discrète 𝑘 (plutôt que d'une variable de fréquence continue), il n'y a pas de propriété de
différentiation de fréquence pour la série de Fourier. De plus, comme l'intégration d'un signal périodique est
illimitée, il n'y a pas de propriété d'intégration temporelle de la série de Fourier.
Les différences dans les propriétés de convolution et de corrélation sont moins superficielles. Dans la série de
Fourier, où les signaux sont périodiques, la convolution traditionnelle a peu de sens. Au contraire, la convolution
circulaire, également appelée convolution cyclique ou périodique, est l'outil approprié. La convolution circulaire de
deux signaux périodiques 𝑥(𝑡) et 𝑦(𝑡) est définie comme

𝒙(𝒕) ⊛ 𝒚(𝒕) = ∫ 𝒙(𝝉). 𝒚(𝒕 − 𝝉)𝒅𝝉 (4.51)


𝑻𝟎

Par rapport à la convolution ordinaire, la convolution circulaire ne s'intègre que sur une seule période 𝑇0 (plutôt
1
que de −∞ à ∞). Cette différence devrait vous paraître familière. A l'intérieur du facteur d'échelle 𝑇 , c'est
0
précisément la même différence que l'on trouve entre les expression de l'énergie du signal et de l'expression de la
puissance pour les signaux périodiques. Le théorème de Parseval, qui découle de la corrélation, partage ces
mêmes changements en passant de la transformée de Fourier à la série de Fourier. Dans la série de Fourier, la
quantité |𝑋𝑘 |2 joue à peu près le même rôle que la fonction de densité spectrale de puissance 𝑆𝑥 (𝜔) de l'Eq. (4.48)
discuté précédemment. Notons enfin que la règle du produit (convolution en fréquence) de la série de Fourier
implique une convolution traditionnelle de deux séquences discrètes, ce qui est un sujet abordé en profondeur
dans un chapitre ultérieur.
Au-delà de la transformée de Fourier et des séries de Fourier
Le tableau 1.4 fournit des informations supplémentaires sur l'analyse de Fourier. Nous savons qu'un signal
périodique en temps continu est analysé avec la série de Fourier, qui est discrète en fréquence. Ainsi, être
périodique dans le temps conduit à être discret en fréquence. En outre, un signal CT apériodique est analysé avec
la transformée de Fourier, qui est continue en fréquence. Ainsi, être apériodique dans le temps conduit à être
continu en fréquence. Bien que nous retardions les preuves rigoureuses pour plus tard, la dualité s'applique
également ici. Ainsi, être continu dans le temps conduit à être apériodique en fréquence, et être discret dans le
temps conduit à être périodique en fréquence. Ainsi, on voit que les spectres produits par la série de Fourier ou la
transformée de Fourier, qui fonctionnent tous deux sur des signaux en temps continu, doivent aboutir à des
spectres apériodiques. En outre, nous apprenons les caractéristiques fondamentales qui existent dans l'analyse de
Fourier des signaux à temps discret. Une séquence DT apériodique est analysée avec la transformée de Fourier
en temps discret (DTFT), qui est nécessairement périodique et continue en fréquence. Une séquence DT
périodique est analysée avec la série de Fourier à temps discret (DTFS), qui est nécessairement périodique et
discrète en fréquence. Les séquences DT périodiques sont souvent analysées avec une variante du DTFS
appelée transformée de Fourier discrète (DFT), dont la transformée de Fourier rapide (FFT) est une version
efficace du point de vue du calcul. Les chapitres suivants traitent entièrement le DTFT, le DTFS, le DFT et la FFT.
Tableau 4.4: Relations fondamentales de Fourier.

Temps (ou fréquence) ⇐⇒ Fréquence (ou Temps)


Périodique ⇐⇒ Discret
Apériodique ⇐⇒ Continu

VI. EXERCICES
Exercice 1 : (Utilisation de la propriété décalage temporel ou Time-shifting)
En utilisant la propriété de décalage temporel et la paire 8 dans le tableau 1.1, montrer que :
1 𝜔
𝑠𝑖𝑛𝑐 (𝜔0 [𝑡 − 𝑡0 ]) ⟺ 𝛱( ) 𝑒 −𝑗𝜔𝑡0
𝜔0 2𝜋𝜔0
Esquissez les spectres d’amplitude et de phase correspondants.
Exercice 2 : (Utilisation de la propriété de modulation)
𝑡
Esquissez le signal 𝑥(𝑡) = 𝛱 (4𝜋). et le signal modulé correspondant 𝑥(𝑡)𝑐𝑜𝑠(5𝑡). Montrer que

𝑡
𝛱( ) 𝑐𝑜𝑠(5𝑡) ⟺ 2𝜋. 𝑠𝑖𝑛𝑐(2[𝜔 − 5]) + 2𝜋. 𝑠𝑖𝑛𝑐(2[𝜔 + 5])
4𝜋

Exercice 3 : (Utilisation de la propriété de convolution dans le domaine temporel)

En utilisant la propriété de convolution temporelle, montrez que pour 𝑅𝑒{𝜆1 } < 0 𝑎𝑛𝑑 𝑅𝑒{𝜆2 } < 0,
𝜆 𝑡
𝜆1 𝑡 𝜆2 𝑡
𝑒 𝑒 1 𝑡 − 𝑒 𝜆2 𝑡
𝑒 ∗𝑒 = 𝑢 (𝑡).
𝑒 𝜆1 − 𝑒 𝜆2
Astuce: utilisez la propriété de convolution de Eq. (4.35) pour trouver la transformée de Fourier de 𝑒 𝜆1 𝑡 ∗ 𝑒 𝜆2 𝑡 ,
puis utiliser une décomposition en éléments simples pour trouver sa transformée de Fourier inverse.
Exercice 4 : (Utilisation du théorème de Parseval)
2𝑎 2𝜋
Utilisez le théorème de Parseval pour montrer que l’énergie du signal 𝑦(𝑡) = 𝑡 2+𝑎2 est pour 𝑎 > 0 , 𝐸𝑦 = 𝑎
.

Astuce: Trouvez 𝑌(𝜔) en utilisant la paire 3 du tableau 4.1 et la propriété de dualité.