Cours de Traitement du
Signal
Génie Electrique
Et
Informatique Industrielle
1
Le traitement du signal est une discipline qui a pour objectif d'interpréter les signaux.
On entend par signal toute représentation physique d'une information transportée d'une
source vers un destinataire et dépendante des quantités : Temps, Espace, Température, Champ
électromagnétique, etc. …….
Dans ce qui suit, on admet que le signal désigne toute fonction du temps qui peut avoir une
expression mathématique (signaux déterministes) ou non (signaux aléatoires) .
1. Quelques généralités
1.1. Modélisation des signaux
Un signal est une grandeur physique qui peut être par exemple :
- Tension aux bornes d’un condensateur en charge.
- Onde acoustique : courant électrique de délivré par un microphone : parole, musique ;
- Onde lumineuse : Courant électrique spectromètre : (étoile, gaz excité ou désexcité)
- Cosmiques : Radiotélescopes
- Signaux géophysiques : Température, Pression, vitesse du vent, marées, sons, images,
vibrations sismiques, ………………
- des ondes sismiques,
- des images satellites (le traitement d'images est une extension du traitement du signal à 2
dimensions)...
- des sons musicaux,
- la parole,
- ,
- Signaux biologiques : EEG, un électrocardiogramme ECG, EMG, EOG, Scan,
RMN…………….
Pour chaque type de signal, Il existe un traitement spécifique.
Un signal est émis par un système physique en évolution et obtenu à l'aide d'un capteur.
Les grandeurs physiques sont représentées par des fonctions s(t) à valeurs réelles d'une
variable t (figure 1.1). Dans la pratique, ces signaux ont la particularité d'être :
- à énergie, à amplitude et à spectre bornés,
- causal ( s(t ) 0 t 0 ).
2
- Par contre, sur le plan théorique, les signaux seront représentés par des fonctions
parfois ;
- à énergie et à spectre infinis,
- avec des discontinuités,
- définies sur l’ensemble de réel R,
- à valeurs complexes.
1.2. Qu'est-ce que le traitement du signal ?
Le Traitement du signal est l’ensemble des théories ; méthodes procédures et techniques
permettant de :
Créer des signaux,
De les modifiés,
Les transmettre,
De les recevoir,
De les analyser,
De les reconnaitre et de les prévoir.
Le traitement du signal a pour but d'étudier l'information portée par les signaux. Il s'appuie sur
une science fondamentale: la théorie du signal. Cette science a pour objectif la description
mathématique des signaux et de mettre en évidence les principales caractéristiques du signal
et d'analyser les modifications subies par celui-ci lors de la transmission et le traitement.
On trouve des applications du traitement du signal dans de nombreux domaines tels que :
- les télécommunications,
- le traitement audio,
- le radar, le sonar,
- l'automobile...
Fig. 1.1 Signal physique.
1.3. Notions sur le bruit :
On appelle Bruit tout phénomène perturbateur pouvant gêner la perception ou
l’interprétation du signal.
Exemple : Mesure de la masse d’un corps.
3
Remarque :
Lors de la réalisation et une ou plusieurs taches de traitement de signal, il y a toujours
introduction d’une grandeur parasite (bruit) d’origine multiple, qui se superpose au signal utile.
Exemple : Astronomie
Rapport Signal sur Bruit (RSB) :
Ce rapport détermine la qualité du signal déterministe à celui de l’aléatoire. Il est donné par le rapport de
la puissance du signal utile à la puissance du bruit :
=
Ce rapport est généralement exprimé en Décibel par :
=
Ce par rapport quantifie l’effet du bruit
De ce fait, le traitement du signal permet de résoudre les problèmes suivants :
- Comment extraire l'information d'un signal ?
4
- Comment transmettre l'information d'un signal sans la dégrader ?
- Comment détecter le signal utile noyé dans le bruit ?
- Comment filtrer le signal pour l'extraire du bruit ?
Pour cela, le traitement de signal utilise les outils suivants :
- L'analyse spectrale (série de Fourier, Transformée de Fourier ...),
- les filtrages,
- la modulation et la démodulation,
- l'analyse statistique...
Exemples de bruits :
La notion de bruit est relative. Elle dépend du contexte.
Exemple du Technicien en Télécom et de l’Astronome travaillant l’un à côté de l’autre:
- Pour le technicien Télécom : Il s’intéresse au signal utile sous forme d’ondes
électromagnétiques d’un satellite alors que le bruit pour lui est composé de signaux d’une source
astrophysique.
- Pour l’astronome : Il s’intéresse aux signaux d’une source astrophysique alors que le bruit
pour lui est composé des ondes d’un satellite.
1.4. Applications de traitement de signal :
Les domaines d’applications de T.S sont très variées, on peut les rencontrer dans :
- Télécommunications : modulation, démodulation
- Traitement du son, parole, musique.
- Traitement de la parole (MPS, MPEG, Layer3)
- Analyse de la parole et numération vocale GSM.
- Dictée vocale
- Reconnaissance de caractère, OCR
- Images IPEG.
- Sonar radar
- Etudes des vibrations sismiques
- Contrôle non destructif (CND) .
- Ingénierie biomédicale.
- Ingénierie médicale.
- Economie (finances : cours de la bourse) . Etc
1.5. Fonctions du traitement de signal.
Parmi les fonctions du traitement de signal il y a :
Les principales fonctions du traitement de signal sont :
5
L’analyse : On cherche à isoler les composantes essentielles d'un signal de forme complexe, afin
d'en mieux comprendre la nature et origines.
La mesure : mesurer un signal, en particulier aléatoire, c'est essayer d'estimer la valeur d'une
grandeur caractéristique qui lui est associée avec un certain degré de confiance.
Le filtrage : c'est une fonction qui consiste à éliminer, d'un signal, certaines composantes
indésirables.
La régénération : c'est une opération par laquelle on tente de redonner sa forme initiale à un signal
ayant subis diverses distorsions.
La détection : par cette opération on tente d'extraire un signal utile du bruit de fond qui lui est
superposé.
L’identification : c'est un procédé souvent complémentaire qui permet d'effectuer un classement du
signal observé.
Création des signaux : Elaboration des signaux (music, parole, image, ..),
Le codage : outre sa fonction de traduction en langage numérique, est utilisé soit pour lutter contre le
bruit de fond, soit pour tenter de réaliser des économies de largeur de bande ou de mémoire
d'ordinateur.
La modulation et le changement de fréquence : sont essentiellement des moyens permettant d'adapter
un signal aux caractéristiques fréquentielles d'une voie de transmission, d'un filtre d'analyse ou d'un
rapport d'enregistrement.
La synthèse : opération inverse de l'analyse, consiste à créer un signal de forme appropriée en
procédant, par exemple, à la composition où à la combinaison de signaux élémentaires. (obtention
de nouveaux signaux par combinaison des signaux élémentaires) ;
- Modification des signaux : Transformer les signaux en vue de leur exploitation ; mettre en
forme le signal sous une forme adaptée à la transmission ou au stockage ( modulation ,
échantillonnage, filtrage : élimination de certains composante, cryptographie… ) ;
6
- Transmission : (Radio , TV , Telecoms numériques ) ;
- Analyse des signaux : interprétation (analyse spectrale : voix, visage, gestes …);
- Détection : isoler les composants utiles d’un signal complexe, extraction d’un signal utile
d’un mélange signal- bruit de fond (détection de craquements sur un enregistrement,
détection de bruit sur une image, annulation d’écho, etc…),
- Identification: classification du signal (identification d’une pathologie sur un signal ECG,
Reconnaissance vocale de la parole, d’écriture.
1.6. Chaine de Traitement de Signal :
Une chaine de traitement de signal comprend :
- Un système physique en évolution capable de délivrer une information pas forcément de
nature électrique.
- Un capteur permettant de transformer cette information en un signal électrique (courant ou
tension).
- Un transmetteur : le signal électrique pouvant subir un traitement et transmis à travers un
support (canal) de transmission où il sera contaminé par le bruit.
- Un récepteur qui reçoit le signal sous sa forme électrique. Ce signal subi des traitements
pour qui il soit analysé, filtré et restitué sous sa forme d’origine.
-
Reconnaissance Extraction d’infos
Système
Physique
Analyse
Canal de
Capteur Transmetteur Transmission Récepteur Traitement
7
Remarque :
Dans une chaîne de traitement numérique de signal, plusieurs fonctions de traitement sont
introduites. Les principales sont la conversion analogique-digitale, l’échantillonnage, la
quantification et le codage.
En plus, il doit exister un calculateur de traitement numérique qui assure également l’opération de
conversion numérique analogique.
Signal analogique
Convertisseur
Antenne analogique-
numérique CAN
Traitement
Haut parleur
Convertisseur
numérique-
analogique
CNA
Signal analogique
Ce cours de traitement analogique du signal (signal à amplitude et à temps continus), de Génie
Electrique et Informatique Industrielle, a pour objectifs d e :
- Classer les différents types de signaux,
- Présenter les bases mathématiques pour la représentation temporelle et fréquentielle,
- Comprendre les principes du filtrage,
- Analyser des signaux aléatoires,
- Comprendre les principes de la modulation.
2. Classification des signaux
Avant d'étudier un signal, il faut s'intéresser à ses propriétés de base a n d'utiliser les outils
adéquats. Pour ce faire, on classe les signaux en différentes catégories. Il existe 4 grandes
classifications :
- la classification temporelle,
- la classification énergétique,
- la classification spectrale,
- la classification morphologique.
2.1. Classification phénoménologique des signaux
8
Cette classification (Figure 1.2) est basée sur l'évolution du signal en fonction du
temps. On distingue 2 classes de signaux suivant leur évolution temporelle.
2.1.1. Signaux déterministes
Les signaux déterministes dont l'évolution temporelle est parfaitement décrite par un
modèle mathématique ou graphique.
Parmi les signaux déterministes on distingue :
1. les signaux périodiques qui obéissent à la forme : T / t : s (t ) s(t T ) .
2. Exemple: les signaux sinusoïdaux : s(t ) Asin(wt ) .
3. les signaux non périodiques : les signaux pseudopériodiques (somme de sinusoïdes de
périodes différentes) . exemple : s(t ) A1cos(w1t 1 ) A2cos(w2t 2 ) :.
4. les signaux transitoires dont l'existence est limitée dans le temps.
t1 , t2 tels que s(t ) 0 si t < t1ou t t2
2.1.2. Signaux aléatoires
Par opposition à ces signaux, il existe les signaux aléatoires (probabilistes, stochastiques)
dont l'évolution est imprévisible à un temps t. Leur description est fondée sur les propriétés
statistiques des signaux (moyenne, variance, etc.) ; Parmi les signaux aléatoires on distingue :
les signaux stationnaires : (les résultats de leur analyse statistiques sont indépendants du
temps) :
- ergodiques si il est identique de faire la moyenne statistique à un instant donné sur différents
essais que de faire la moyenne temporelle sur une seule réalisation.,
- non ergodiques.
les signaux non stationnaires.
9
Exemples de signaux aléatoires
Le bruit est un signal aléatoire ;
Un signal déterministe bruité est donc un signal aléatoire.
Les échantillons reçus à l’entrée d’un Processeur de traitement du signal (DSP) constituent un signal
discret aléatoire.
Classification temporelle des signaux.
2.2. Classification énergétique
Soit x(t) un signal continu dans le temps, et dissipant une puissance P dans une résistance
unité ( = 1W ) ,
Définition 1:
On appelle puissance instantanée normalisée dissipée dans la résistance unité :
10
( )
( )= ( ) ( )= = ( )
1 2
< ( )>= ()
−
Définition 2:
On appelle énergie dissipée dans un intervalle de temps ∆ = − d’un signal
( ) la quantité :
2
= ()
En effet, la puissance est définie comme la variation de l’énergie par rapport au temps :
( )=
Ce qui veut dire que :
2
= () = ()
Remarque :
L’énergie totale d’un signal ( ) est :
2
= ()
Pour un signal sT0 périodique de période T0, la puissance moyenne est calculée sur une période,
Si cette intégrale satisfait : 0 < Px < +∞, on dit que le signal est à puissance moyenne finie.
11
Propriétés
- Un signal à puissance moyenne finie non nulle a une énergie totale infinie.
- Un signal à énergie finie a une puissance moyenne nulle.
Ces deux grandeurs permettent donc de classer les signaux :
Les signaux à énergie finie correspondent aux signaux transitoires, déterministes ou
aléatoires (cas de tous les signaux physiques)
Les signaux à puissance moyenne infinie correspondent à tous les signaux permanents,
déterministes (périodiques ou quasi-périodiques) ou aléatoires.
Certains signaux théoriques n’appartiennent `a aucune de ces catégories ; comme exemple
x(t) = e( )
pour − ∞ < t < ∞,
Impulsion de Dirac, (voir plus loin)
Peigne de Dirac, etc.
2.3. Classification spectrale
Un signal peut être classé suivant la distribution de son énergie ou de sa puissance en
fonction de la fréquence (spectre du signal). On appelle largeur de bande notée ∆F le
domaine des fréquences occupé par le spectre .
Classification spectrale des signaux.
∆F = Fmax − Fmin
( max min )
Notons : Fmoy = .
On distingue 2 types de signaux,
∆
- les signaux à bande étroite avec : est très petit ( max ≈ min),
∆
- les signaux à large bande avec est très grand ( max ≫ min )
Les signaux à bande étroite peuvent être classés en fonction du domaine de variation de Fmoy :
Fmoy < 250kHz : basses fréquences (BF),
250kHz<Fmoy < 30MHz : hautes fréquences (HF),
30MHz<Fmoy < 300MHz : très hautes fréquences (VHF),
300MHz<Fmoy < 3GHz : ultra hautes fréquences (UHF),
Fmoy > 3GHz : super hautes fréquences (SHF).
12
2.4. Classification morphologique
On distingue les signaux à variable continue des signaux à variable discrète ainsi que ceux
dont l'amplitude est discrète ou continue (fig 1.4). On obtient ainsi 4 classes de signaux :
- les signaux analogiques dont l'amplitude et le temps sont continus,
- les signaux quanti és dont l'amplitude est discrète et le temps continu,
- les signaux échantillonnés dont l'amplitude est continue et le temps discret,
- les signaux numériques dont l'amplitude et le temps sont discrets.
Classification morphologique des signaux.
3. Quelques signaux élémentaires
Afin de simplifier les opérations ainsi que les formules obtenues, certains signaux
fréquemment rencontrés en traitement du signal disposent d'une modélisation propre.
3.1. Fonction signe
On définit la fonction signe de la façon suivante :
−1 <0
( )= 0 =0
+1 >0
Par convention, on pose : (0) = 0.
Fonction signe
13
Echelon unité
Par convention, on prend : (0) = .
Remarque : il serait préférable dans certains cas de poser :
(0) = 1
L'échelon unité permet l'étude des régimes transitoires des filtres et permet de rendre causal un
signal.
3.3. Fonction rampe
On définit la fonction rampe par :
r(t) = t ∗ u(t) = ∫ u(x)dx
où : u(t) est la fonction échelon
Fonction rampe
3.4. Signal "porte ou fenêtre" ou rectangle
Soit T un réel positif, on dé nit le signal porte (ou rectangle) comme suit :
( )= 1 − < <+
0
La fonction porte ( ) est un signal transitoire de durée T.
Fonction porte ou fenêtre.
14
− < <+
d( ) = lim ( ) = lim
→ →
0
+∞ =0
=
0
Remarque :
l’aire de ( ) est toujours égale à 1 quelque soit T. En effet l’illustration suivante le montre :
r(t)
r(t)
r(t)
t
t
−
= − = 1
2 2
−
= − = 1
2 2
−
= − = 1 t
2 2
Plus que T devient très petit, plus devient très grand et le rectangle s’allonge vers le haut
mais l’aire du rectangle reste toujourségal à1. A la limite → 0, on obtient un pic qui tend vers
l’infini avec une surface toujours égale à 1. On construit alors l’impulsion de Dirac d( )
comme la limite lorsque → 0 de la fonction r(t).
1
( )= +∞ =0
d( ) = lim
→ 0
Cet être mathématique d( ) se présente comme un pic au point 0 et nul presque partout.
On ne connait pas de fonction mathématique qui présente cette description. Autrement dit il
n’existe pas de fonction mathématique qui est nulle presque partout et qui présente une valeur
infinie au point 0. C’est pourquoi on attribue à cet être mathématique le nom de la distribution
de Dirac ou tout simplement l’impulsion de Dirac.
De plus, cette distribution de Dirac δ(t), malgré qu’elle est presque partout nulle et discontinue au
point 0, elle est intégrable et son intégrale vaut 1 !!!!!.
En effet :
15
1 1 1
d( ) = lim ( ) = lim ( ) = lim 1
→ → →
= lim =1
→
Au sens de Riemann, cette intégrale n’a pas de sens puisque δ(t) est discontinue au point 0 et nulle
presque partout.. Selon Riemann δ(t) n’est pas une fonction.
Jean Paul Dirac et Laurent Schwartz introduisent ces êtres mathématiques pour la première fois
pour modéliser un certains nombres de questions, en physique, qui sont restées suspendues pour
aussi longtemps. Paul Dirac et Laurent Schwartz appellent ces êtres mathématiques des
Distributions ou fonctions généralisées.
Les distributions permettent de modéliser des phénomènes qui se passent de manière très brève
dans le temps.
Remarque :
nous avons construit la distribution de Dirac δ(t) à partir de la fonction rectangle.
δ(t) peut aussi être considéré comme la dérivée de la fonction échelon, En effet :
( )
( ) =
3.5.2. Impulsion de Dirac translatée de t0.
On appelle impulsion de Dirac translatée de t0 une version décalée de ( ) vers la
gauche ou vers la droite. On la note : ( − ) , avec supérieure ou inférieure à 0.
16
+∞
Nous avons montré que : ∫−∞ d( ) =1
Soit ( ) é é ⟦ , ⟧ alors :
( ) ( )= (0) ( )
Car ( ) est multiplié par ( ) qui est nul presque partout sauf en 0 où il vaut +∞.
∫ ( ) ( ) = (0)
En effet, le produit ( ) ( ) est nul presque partout sauf en 0 où il vaudra (0) ( ).
Donc, on peut écrire :
( ) ( ) = (0)
∫ ( ) ( − ) = ∫ ( ) ( − )
= ( )∫ ( − )
Ш( ) = ( − )
17
( ). Ш( ) = ( ). ( − )
= ( ). ( − )
= ( ). ( − )
Les ( )) s’appellent les échantillons de f(t) aux instants T, 2T…..
Le produit f(t). Ш(t) est appelé opération d’échantillonnage qui est un moyen pour discrétiser les
signaux avant leur numération (voir numérisation des signaux).
Ш( )
…. -4T -3T -2T -T 0 T 2T 3T 4T …
x ( )
= ( )Ш( )
…. -4T -3T -2T -T 0 T 2T 3T 4T …
3.6.3 Autres propriétés de la distribution de Dirac
()
Changement de variable : δ(at) = | |
()
En particulier : δ(ω) =
Dérivation :
(δ f) = δ f + f δ ,
Produit scalaire : < δ , f > = − < δ, f > = − (0),
< δ( ) , f > = (−1)( )
< δ, f ( )
> = (−1)( ) ( )
(0) ,
Produit de convolution : (δ ∗ f ) = δ ∗ f = δ ∗ f
18
3.7. Fonction sinus cardinal
3.7.1. Définition
La fonction sinus cardinal est définie par :
sin( )
( )=
( )
Il existe une autre définition couramment utilisée : ( )= (définition 2).
Quand une confusion pourra être crainte, on notera par la suite :
( ) ( )
( )= et ( )=
La seconde version de la fonction est parfois nommée sinus cardinal normalisé.
Cette fonction joue un rôle très important en traitement du signal.
Fonction sinus cardinal normal et normalisée.
3.7.2. Propriétés :
1. lim ( ) =1
→
En effet ;
p p
lim ( ) = lim = lim = lim ( )| = cos( ) | = 1
→ → p → p →
sin p
2. Nous admettons que : ∫ ( ) = 1 c’est-à-dire ∫ =1
p
sin
Donc : ∫ = p
3. 2
∫ ( ) = 1 , avec toujours la fonction sinus cardinal normalisée.
19
( ) = + ( ( )+ ( ))
Avec :
ω = = 2πf
a ,b ∈ R
s (t) est appelée aussi série de fourrier.
La question la plus intéressante est : est- ce que la série s (t) est toujours convergente sur R ?
La réponse est contenue dans le Théorème suivant :
Théorème :
trigonométrique est normalement convergente sur R; donc absolument et uniformément
convergente sur R. La série s (t) converge alors forcément vers une fonction périodique s(t)
càd :
lim ( )= ( ) s(t) = s(t + T ).
→
Démonstration :
20
Nous avons :
| ( )| ≤ | |+ | |+ | |
D’où le résultat suivant :
et alors :
lim ( )= ( )
→
Il reste à montrer que s(t) est périodique, en effet ;
( + ) = lim ( )= lim + ( ( + )+ ( + ))
→ →
= lim + ( ( )+ ( ))
→
= lim ( )
→
= ( )
1.1.2. Théorème réciproque ou Théorème de Fourier :
On pourrait s’interroger de façon réciproque sur une fonction périodique, si elle pourrait se
mettre sous une forme de série trigonométrique.
Autrement dit : une fonction périodique s(t) admet-elle une décomposition en série de Fourier ?
La réponse est affirmative si la fonction vérifie les conditions de Dirichlet
1.1.3. Conditions de Dirichlet :
Toute fonction s(t) réelle, périodique de , continue par morceau sur les intervalles [ a ; a+ ]
et qui satisfait aux conditions suivantes , appelés condition de Dirichlet :
i) Les discontinuités de s(t) se elles existent sont de 1ér espèce (les limite à droite et à
gauche existent et sont finies) et sont en nombre fini dans tout intervalle fini [a ;a+ ].
ii) s(t) admet en tout point une dérivée à gauche et une dérivée à droite ;
est alors développable en série de fonctions sinusoïdales (séries de Fourier).
Donc :
( )= a + ( ( )+ ( ))
Si s(t) est continu sauf peut- être en un point alors :
21
et
( )+ ( )
= a + ( ( )+ ( )) là où s(t) est discontinue en t
2
Ce développement des fonctions périodiques (vérifiant les conditions de Dirichlet) sous forme
de séries trigonométriques est connu sous le théorème de Fourier.
d'une somme infinie de sinusoïdes de fréquence multiple de = :
Où :
obtenira , Il suffit d’intégrer membre à membre l’équation (2.1) entre .
Multiplier l’équation (2.1) membre à membre par cos(2 ) puis intégrer les deux membres
entre .
Multiplier l’équation (2.1) membre à membre par sin(2 )puis intégrer les deux membres
entre
1.2.1.2. Vocabulaire :
= ∫ ( ) est appelée valeur moyenne ou composante continue de x(t),
22
f0 est la fréquence fondamentale,
les n f0 sont les harmoniques d'ordre n .
Remarque:
En théorie, ce théorème n'est pas tout à fait vrai. En effet, pour qu'une fonction périodique
x(t) soit décomposable en série de Fourier au point t0, il faut que celle-ci vérifie les
conditions de Dirichlet :
- s(t) admet une limite à droite et à gauche en t0 ,
lim
→
( )= ( ) lim ( ) = ( ) existent
→
- s(t) admet une dérivée à droite et à gauche en t0 ,
( )− ( ) ( )− ( )
lim = ( ) lim = ( )
→ →
En électronique, ces conditions sont vérifiées pour la majorité des signaux périodiques
rencontrés.
1.2.1.3. Fonction paires et impaires :
Fonctions paires :
Si s(t ) est une fonction paire s(t ) s(t ) , alors tous les termes bn sont nuls.
T T
En effet ; on choisit un intervalle d’étude symétrique par rapport à 0, soit , .
2 2
Calculons pour ≥ 1
= ∫ ( ) sin(2 ) . On pose : w = (2 )
2
= ( ) sin( w )
2 2
= ( ) sin( w ) + ( ) sin( w )
En effectuant un changement de variable = − dans la première intégrale, il vient alors :
2 2
= (− ) sin( w (− )) + ( ) sin( w )
2 2
=− ( ) sin( w ) + ( ) sin( w ) = 0
23
La décomposition se réduit alors à :
( )= a + ( ))
En effet = ∫ ( ) ( ) + ∫ ( ) ( )
Posons u t
= − ∫ ( ) ( ) + ∫ ( ) ( ) = 0
La série s’écrit alors simplement : ( ) = ∑ ( ).
Remarque : si ( ) est réelle, les coefficients et sont réels.
1.2.1.5. Exemple de décomposition en série de Fourier d’un signal.
− < <
Soit le signal s(t) périodique de défini par : ( ) =
0
<
1) Représenter s(t ) sur 2 périodes.
2) Vérifier que s(t) est paire.
3) Calculer les coefficients de Fourier.
1) Représentation de ( )
On construit le signal ( ) défini par son expression sur une période T puis sur 3 périodes, on
obtient : ( )
− −
2 2 2 2
On définit le rapport cyclique de ce signal périodique par ∝ = .
Le signal ( ) est périodique par construction. La fréquence du fondamental est =
24
2
= ( ) ( )
( )
= ∫ cos( ) = [sin( )] = avec = 2
Le développement en série de Fourier de ( ) est donc :
2 sin( )
( )= + (2 )
1.2.2. Forme polaire des séries de Fourier
1.2.2.1. Théorème
Toute fonction périodique de qui satisfait les conditions de Direchlet peut être développée en
série de Fourier sous la forme dite polaire :
( )= + (2 + )= + ( + )
Avec : = 2 =
Démonstration
Partons de la forme trigonométrique de ( ) périodique :
( )= a + ( ( )+ ( ))
( )= a + + ( )+ ( )
+ +
On pose d’abord : = , = +
cos(Y ) =
⎧
⎪
Puisque : −1 ≤ ≤ 1 il existe alors forcément Y tel que :
⎨ sin(Y ) =
⎪
⎩
Soit alors :
25
Qu’on peut écrire sous la forme :
( )= A + ( − Y )
( )= A + ( + )
1.2.2.2. Vocabulaire
1- La représentation en bâton des en fonction de (ou ) est appelée spectre en
amplitude de ( ) .
2- La représentation en bâton des en fonction de (ou ) est appelée spectre en phase de
( ) .
3- La représentation des deux ( et ) en fonction de est spectre fréquentiel .
Remarque :
- Le spectre en amplitude et en phase d’un signal ( ) ne peut se faire qu’avec la forme polaire.
- Des fois, il est nécessaire de passer de la forme trigonométrique à la forme polaire pour dessiner le
spectre d’un signal.
- Le spectre d’un signal est une autre forme de représenter le signal dans l’espace fréquentiel.
- La représentation fréquentielle et la représentation temporelle sont complémentaires.
1.2.2.3. Exemple (précédant) :
≤ ≤
( ) = <
0
Représenter le spectre en amplitude et en phase de ce signal pour : = (rapport cyclique =
)
Spectre d’amplitude : représentation des en fonction de de n :
Rappelons que :
=
2 sin( )
= = 0
26
Donc pour : =
= =
2
Et
2 |sin( )| 2 sin( 2)
= + = | |= =
2
= = 1,3,5, … … … … … . .
0 = 2,4,6, … …
Spectre de phase : représentation des en fonction de de n :
Nous avons :
⎧ +1 =4 +1; = 0, ,1,2 … …
⎪Cos( )= = = =
−1 =4 +3; = 0, ,1,2 … …
⎨
⎪ sin( )= = 0; ∀ ∈
⎩
+1 =4 +1; = 0, ,1,2 … … (1)
⎧Cos( ) =
⎪
−1 =4 +3; = 0, ,1,2 … … (2)
⎨
⎪sin( )=− =0; ∀ ∈ (3)
⎩
On applique le distributivité de la conjonction par rapport à , on obtient :
=0 2 = 4 +1; = 0, ,1,2 … …
⎧
⎪
=0 ∀ ∈
⎨
⎪ = 2 =4 +3; = 0, ,1,2 …
⎩ =0 ∀ ∈
=0 2 =4 +1; = 0, ,1,2 …
⎧
⎪
⎪ =0 ∀ ∈
⎨ = 2 =4 +3; = 0, ,1,2 …
⎪
⎪
⎩ =0 ∀ ∈
Ce qui donne seulement deux conditions :
=0 2 =4 +1; = 0, ,1,2 …
= 2 =4 +3; = 0, ,1,2 …
27
En résumé :
= 3,7,11, 15 … .
Les deux dernières conditions se réduisent à : =
0
Et on peut écrire alors :
2 sin( 2)
( )= + (2 + )
2
= 3,7,11, 15 … .
Avec : =
0
Le spectre d’amplitude et de phase sont représentés ci-dessous.
An
2
2
2
3
2
5
2
7
2 n
9
1 3 5 7
9
Ꝕn
π
n
0 3 7 11
15
28
Remarques:
-L’amplitude décroit lorsque augmente
-La phase reste constante (= ) pour tout = 4 + 3 ; ∈ ℕ
2.2.4. Phénomène de Gibbs :
Dans l’exemple précédent nous avons :
2 sin( )
( )= + (2 )
= , nous avons en forme polaire :
2 sin( 2)
( )= + (2 + )
2
Prenons un exemple plus précis = 1 , = 20 , nous avons un signal carré d’amplitude 1 et
de rapport cyclique = =
Inversement, essayons de construire le signal ( ) a partir de la serie de Fourier en se limant a un
nombre fini.
Sur la figure suivante, nous avons :
= 0, ( )= ,
= 1, = 1, ( )= + cos(40 )
= 3, = 1, 2, 3, ( )= + cos(40 ) + (2 + )
= 5, = 1, … 5, ( )= + cos(40 )+ (2 + )+ (2 )
= 41, = 1, … … . .41,
1 2 2 2 2
( )= + cos(40 )+ (40 + )+ (40 )… + (40 + )
2 3 5 39
2
+ (40 ).
41
29
- Le Phénomène de Gibbs est traduit comme un effet de bord aux points de discontinuités.
Cet effet apparait sous forme des oscillations inévitables aux points de discontinuité.
- Plus que l’on somme sur N grand, on s’approche d’avantage du signal réel s(t) périodique et
le phénomène de Gibbs disparait.
Exercice d’application
Exploiter la décomposition en série de Fourier dans l’exemple précédent pour montrer que la série
entière :
(−1)
(2 + 1)
( )
Converge vers . ( ∑ ( )
= )
Dans l’exemple précédent, nous avons pour = ,:
30
2 ( )
( )= + 2 (2 )
2
Qu’on peut écrire, = 2 + 1 sous la forme :
2 (−1)
( )= + (2 (2 + 1) )
2 (2 + 1)
Pour = 0, le signal est continu et vaut A; donc :
2 (−1)
(0) = + =
2 (2 + 1)
Ce qui veut bien dire que :
(−1)
=
(2 + 1) 4
( )
donc la série ∑ converge vers
segment [0,T] est développable sous forme d’une série d’exponentielles complexes :
( )= Cn
Avec : = ∫ ( )
Démonstration :
Sous la forme trigonométrique, s(t) s’écrit :
( )= + ( + )
_ _ _
Soit la formule d’Euler : = , =
31
Donc ( )= + +
− + _
( ) = + +
2 2
_
( ) = + +
Montrons que : =
En effet :
= ( + )= ∫ ( ) cos + ∫ ( ) sin
= ∫ ( ) cos(− ) − ∫ ( ) sin(− )
= ( − =
D’où : ( ) = + +
Lorsque n varie de 1 a +∞ , − varie de −1 a −∞ donc on peut ecrire :
( )=
avec =
2.3. 2. Théorème de Parseval (1ère forme) : Aspect Energétique d’un signal périodique
Soit s(t) un signal périodique de =
Or, la puissance d’un signal est définie aussi par la variation de l’énergie par rapport au
temps :
( ) =
L’énergie d’un signal périodique peut être calculée sur une période est par :
32
= ( ) = ( )
+
⪡ ( )⪢= + = = | | =2 | |
2 2 2
Démonstration :
( ) est périodique de T : ( ) = +∑ ( + )
( )=
La puissance moyenne est donnée par :
1 1 ∗
⪡ ( ) ⪢= | ( )| = ( )× ( )
1
⪡ ( ) ⪢= ( )×
1
= ( )
1
= . = | |
Or :
− +
= , | | = =
2 4 2
En conséquence :
+
⪡ ( ) ⪢= 2 | | = = +
2 2 2
Chaque terme | | | représente la puissance moyenne apportée par chacun des
harmoniques.
2.4. Propriétés du développement en série de Fourier
2.4.1. Propriétés de base
Le développement en série de Fourier d'un signal périodique de période T0 possède les
33
propriétés suivantes :
Si s(t) est réel, les coefficients sont à symétrie hermitienne |C−n | = |Cn | ∀n ∈ N.
Si s(t) est réel et pair alors bn = 0, ∀n ≥ 1 et les sont réels et = =
Si s(t) est réel et impair alors an = 0, ∀n ≥ 0 et les sont des imaginaires purs et
=− = −
Linéarité : Soient x(t) et y(t) deux signaux de coefficients de Fourier respectif et
alors le signal somme ( ) + ( ) (où sont des constantes) a pour
coefficient de Fourier et .
Remarques :
La représentation complexe introduit des fréquences négatives − . Ces fréquences sont
représentées par commodité.
Calcul des coefficients :
1
= ( − )
2
= ∫ ( ) − ∫ ( )
Donc :
1 2
= ( ( )( − ) )
2
1
= ( )
>0 = + ( ) =
= ( – ) = ( + )( – ) =
1
= = −
2
= ( + ) =
De ce qui précède on peut écrire :
= − =2 ( )
= −( − ) = −2 ( )
34
Remarques:
Les 3 formes des séries de Fourier sont équivalentes. Mais laquelle est meilleure? La réponse est
que cela dépend du problème à résoudre; en effet:
Si le problème est. à résoudre analytiquement, les coefficients complexes sont souvent plus
faciles à évaluer.
Si le signal est à analyser au laboratoire au moyen d’instruments de mesure, la forme polaire
est souvent la plus commode, car les instruments tels que les voltmètres, les oscilloscopes, les
analyseurs de spectre, les analyseurs vectoriels permettent d’accéder directement à la phase et à
l’amplitude.
2.4.3. Propriétés de décalage temporel
Quant à la forme trigonométrique, elle présente peu d’intérêt physique. En effet si le signal s(t)
subit une simple translation temporelle, alors les coefficients et seront modifiés.
( − ) = 0 + ( − )+ ( − )
= 0 + ( )+ ( )
On dit qu’il n’y a pas d’invariance temporelle.
Alors que pour la forme polaire :
( − ) = 0 + ( ( − )+ )
= 0+ ( + )
Avec :
= −
Une translation temporelle se traduit donc simplement par une modification de la phase du
fondamental et des harmoniques. Les amplitudes restent inchangées.
Un décalage temporel d'un signal périodique se traduit par une multiplication complexe
des coefficients de Fourier Cn par ; en effet :
( )
( )= ( )= ( − )=
( )=
35
( )= =
Représentation spectrale unilatérale.
2.5.2. Exemples
( ) = cos(2 )
36
= = = Car ( ) est réel et paire .
=0 ∀ >1 =0 ∀ > 1
( ) = sin(2 )
La décomposition en série de Fourier est définie par : an = 0 pour n ≥ 0, b1 = 1 et bn = 0 pour
n>1.
37
( )
t
− −
2 2 2 2
Analysons le spectre de s(t) pour quelques valeurs de t.
Nous avons en général /
2 |sin( )|
=
2 sin
=
Soit alors :
=2 sinc
τ= (nous avons deja tracé le spectre en amplitude)
2
An
2
3
2
2
5
2
7
2
n
9 38
1 3 5 7 9
τ = = = = et = = ∫ =
L’amplitude s’annule lorsque :
= (k + 1)π c’est-à-dire : = 4(k + 1) Avec k=0, 1,2…
La 1 ère annulation a eu lieu lorsque = 0 est n=4
La 2ème annulation a eu lieu lorsque k=1 càd n=8 ; ….. ect
Les amplitudes ont pour valeurs : = sinc ( )
Le spectre bilatéral de signal s’t) pour τ =
Tous les bâtons (toutes les raies) appartiennent à l’enveloppe du sinus-cardinal nous avons plus
d’harmoniques dans un lobe (4 harmoniques par lobe.
Plus que τ diminue et T augmente plus le signal s(t) devient niche en fréquences.
τ = = = et = = ∫ = =
L’amplitude s’annule pour chaque n tel que sin =0
ie nπ=(k+1) 8π n=8(k+1)
La 1ere annulation correspond à k=0 donc à n=8
La 2ème annulation correspond à k=1 donc à n =16, …… ect
39
Le spectre de s(t) devient de plus en plus riche en fréquence, ce qui fait apparaitre plus de raie dans
le spectre.
De façon générale, plus τ devient petit et tend vers +∞ , = ⇾ 0 ; donc les fréquences
− −
2 2 2 2
2
Les coefficients de Fourier
1 ̥
1
= ( ) dt = ( ) dt
lim ( . ) = lim ( )
→ →
D’où :
lim ( . )= ( )
→
Cette dernière limite généralisée aux séries de Fourier (quand → ∞) s’appelle la transformée de
Fourier.
1.2. Définition de la transformée de Fourier
Soit un signal s(t) non périodique, on appelle transformée de Fourier TF si elle existe la fonction :
( )= ( )
40
( ) indique les quantités des fréquences presentes dans le signal s(t) sur l’intervalle de
temps :]−∞, +∞[ .
S ( ) est en général une fonction complexe de la variable réelle .
S ( ) a donc:
Module appelé spectre d’amplitude |S( )|
( )
Une phase appelé spectre de phase ( ) = ( ) = − ( )
1.3. Critère d’existence
La TF existe si l’intégrale ∫ ( ) existe, c’est-à-dire si s(t) est une fonction bornée et
absolument intégrale donc si ∫ | ( )| existe. Il en resulte que :
Pour tout signal s(t) intégrable ou sommable (∫ ( ) < +∞), la TF existe,
Pour tout signal s(t) de carré sommable ou à énergie finie (∫ | ( )| < +∞), la TF
existe.
Ces deux conditions sont suffisantes mais pas nécessaires.
Pour tout signal à puissance moyenne finie :
lim 1
| ( )| dt < +∞
→∞
la TF existe au sens de distribution et non au sens de fonction. (Voir plus loin)
Remarque :
En pratique, les signaux existant physiquement, vérifient ces conditions car nous les observons sur
un temps fini..
1.4. Transformée de Fourier inverse.
Soit S(f) une représentation du signal dans l’espace fréquentiel. On appelle Transformée de Fourier
inverse (et on note ) de S(f) la fonction s(t), si elle existe :
( ) = ∫ ( )
On note ( ) = ( ( )) Et ( ) = ( ( ))
S(f) et s(t) sont deux descriptions duales l’une de l’autre du même signal.
Exemple :
41
Donner le spectre en amplitude et en phase du signal s(t) défini par :
0< <
( ) = T : intervalle de temps qui ne désigne pas la période
0
Le signal est représenté par : s(t)
B
t
T
Le signal est fini dans le temps en plus s(t) est intégrable (sommable) car :
( ) = = < ∞
Donc sa TF existe.
S(f) = ( ) =
= B = (1 − )
−2 2
( − )
= BT
2
= sinc( )
Spectre d’amplitude :
| ( )| = sinc( )
= |sinc( )| | | = 1)
C’est un spectre continu en
Les pointes d’annulations :
42
Le spectre d’amplitude est continu et pair. Par commodité de représentions, nous avons représenté
même les fréquences négatives (représentation bilatérale).
Spectre en phase :
φ(f) = ( ( ) )
= ( sin c(πfT))
− sin(πfT) > 0
=
− + sin(πfT) < 0
− 2 2kπ < πfT < (2k + 1)π
=
− + 2 (2k + 1 < πfT < (2k + 2)π
2k (2k + 1)
− 2 <f<
=
(2k + 1) (2k + 2)
− + 2 <f<
On distingue deux types d’intervalles :
ƙ ƙ
[ , ] ƙ = 0,1,2.. ( )= − [2 ]
ƙ ƙ
Et [ , ] ƙ = 0,1,2.. …… ; ( ) = − ƒ [2 ]
Il en résulte alors le spectre de phase suivant :
Remarque : le spectre de phase est impair.
43
de capacité C dans une résistance R (telle que = ), mais aussi la réponse d’un filtre passe-bas
du premier ordre (filtre − ) à une impulsion de Dirac. Les spectres associés aux deux systèmes
sont donc identiques.
Calcul de ( )
Par définition, on écrit :
D’où finalement :
1
( )=
1+ 2
Représentation de X(f)
X(f) est une fonction complexe que l’on peut représenter par son module et sa phase.
Spectre d’amplitude | ( )|
Le module est calculé selon sa définition :
C’est une fonction paire de la variable .
Spectre de phase ( ):
Le spectre de phase est donné par l’argument de ( ), par définition, est égal à :
1
( )= ( ) =
1+ 2
=− (2 )
C’est une fonction impaire de la variable . Au voisinage de 0 (c’est-à-dire pour é ),
elle est équivalente à ( ) = −2 . et les limites à l’infinie sont :
44
−
lim ( )=
→ 2
lim ( )=
→ 2
On retiendra que, pour un signal réel, x(t), la transformée de Fourier, X(f), est telle que :
Le spectre d’amplitude ( ) est paire,
Le spectre de phase ( ) est impaire.
2. Propriétés de la TF : s(t) ↔ S(ƒ)
Integration: ∫ ( ) ↔ ƒ
S(ƒ)
Inversion temporelle : (− ) ↔ (− )
Conjugaison complexe : ∗ ( ) ↔ ∗ (− )
2.2. Propriétés de symétrie :
signaux réels :
Si ( ) est réel alors ( ) = (− ) : le spectre en amplitude est pair et le spectre de phase est
impair
45
Parité :
La nature de la TF S(f) dépend du signal s(f) selon la tableau suivant :
signal s(t) spectre fréquentiel S(f)
réel quelconque Complexe
réel pair réel pair
réel impair imaginaire impair
imaginaire quelconque Complexe
imaginaire pair imaginaire pair
imaginaire impair réel impair
complexe pair complexe pair
complexe impair complexe impair
En appliquant cette propriété, déterminer la TF du signal :
( )= cos 2
Où :
1
= 1 −
2
< <
2
=
0
Construisons d’abord le signal à partir des signaux de base et cos 2
Illustrations :
( )= ( ) ∗ cos 2 0
( ) cos 2
0
1 1
t t t
− * =
2 2
− − − −
2 2 2 2
Calculons ensuite la TF de la fenêtre
46
( )= ( )= ( ) °
TF
°
= 1
1
= −
2
= sin (πTf)
( )
1
t
−
2 ( )=
Pour calculer le spectre de
2 ∗ cos(2 ), nous utilisons la formule d’Euler. Nous
pouvons écrire alors :
( )= ∗ cos 2
+
( )=
2
Donc :
1
( )= ( )+ ( )
2
En appliquant la linéarité et le décalage fréquentiel en obtient la TF de s(t) :
1 1
( )= ( + )+ ( − )
2 2
La représentation de spectrale de s(t) :
47
3.2. Remarques :
Ce résultat est fondamental en modulation des signaux.
Les radios langues onde utilisent ce principe pour transmettre un message informatif dont le
contenu fréquentiel est compris entre 0 et 20 kHz.
Soit un message m(t) vocal dont le spectre est M(f) compris entre 0 et 20 kHz. On désire
transmettre ce massage par le principe de modulation d’amplitude. Le signal modulé en amplitude
peut s’écrire : ( )= ( )cos(2 ) et qui admet le spectre ( ) composé de deux
spectre ; l’un est centré sur − et l’autre sur .
1
( ) = ( ) ( 2 π 0 t + −2 π 0 t ) ( )
( )
2
f f
22 kHz
− − 22 − − + 22 0 − 22 + 22
4. Dualité de la T.F :
4.1. Dualité d’un signal (temporel – fréquentiel)
Les définitions symétriques de la TF et la permettent de mettre en avant une propriété de la
TF appelée : Dualité de la TF.
Soit s(t) un signal dont la TF est bien définie S(f) :
( )= ( )
Alors que la TF inverse est :
( )= ( )
Alors il existe deux signaux duals s(t) et s(f) obtenus en remplaçant f par t et t par f : autrement dit,
à partir d’un spectre S(f), on peut construire un signal temporel S(t) et vice-versa.
On pourrait s’interroger donc sur la T.F de S(t).
En effet :
Nous avons : (− ) = ∫ ( ) .
En intervertissant les variables temporelle et fréquentielle on obtient :
(− ) = ( ) = ( ( ))
Nous utilisons assez souvent le schéma suivant qui illustre cette procédure de TF par la propriété de
dualité :
Soit un signal ( ) qui admet une TF ( ), on construit le signal dual temporel ( ). Sa TF est
(− ) le dual de ( ).
TF
s(t) S(f)
TF
S(t) s(-f)
4.3. Exemple d’application :
Déterminer le transformé de fourrier du signal s(t) tel que :
sin( )
( )= = ( )
Le calcul du spectre du Sinc(t) par la définition de la TF n’est pas possible. Cependant en utilisant
la propriété de la dualité, il est très facile de déduire la TF de Sinc(t).
En effet :
( )
1
t
−
2 2
−
( )
1
t
−
2 2
Le spectre fréquentiel ( ) == sin (πTf) lui correspond par dualité un signal temporel
49
En tenant compte de la propriètè de la linearité, de dualité et de la parité de la fonction rectangle,
on peut écrire :
−
( ( )) = ( ( ( )) = =
En prenant = ; on aura :
1
( ) = ( )
D’où
−1 1
( ) = ∗ ( )= < <
2 2
0
Remarque :
La condition d’existence de la TF des signaux à énergie finie est suffisante mais pas necessaire.
Beaucoup de signaux à énergie infinie (mais à puissance moyenne finie) admettent des transformées
de Fourier mais au seus de distribution et pas au seus de fonction.
5. Transformée de Fourier et impulsion de Dirac
Dans le cas d’un signal fenêtre (fonction rectangle) , on remarque que si T est faible, le signal est
mal défini dans le temps (très localisé) mais est grand et le spectre est alors très étendu en
fréquence (mal localisé) . Réciproquement, si T est grand, le spectre est bien localisé en fréquence
mais mal localisé en temps. Intéressons-nous au cas extrême : l'impulsion de Dirac.
5.1. Transformée de Fourier au sens des distributions
Rappelons que la distribution de Dirac ( ) n’est pas une fonction mathématique. Sa représentation
est donnée sur la figure suivante :
Par conséquence, la distribution n’est pas intégrable au sens de Riemann. Pourtant cette impulsion
vérifie la condition ∫ ( ) = 1 < ∞ au sens de distribution : c’est une Distribution intégrable
(sommable) au sens des Distributions. Sa Transformée de Fourier n’existe aussi qu’au sens des
Distributions. Calculons alors sa TF.
( ) ( ) = ∆( ) = ( )
50
∆( ) = ( )
∆( ) = ( ∫ ( ) ( ) = (0))
∆( ) = 1
∆( )
1
0
Remarques :
∆( ) = ( ) = 1
L’impulsion de Dirac admet donc un spectre ∆( ) uniforme qui occupe une bande de
fréquence infinie.
Il est évident alors qu’un signal très borné dans le temps occupe un large spectre.
5.2. Propriété de la dualité appliquée à l’impulsion de Dirac
la TF de l’impulsion de Dirac est un spectre uniforme qui contient toutes les fréquences : c’est un
bruit blanc.
Nous avons :
( ( )) = 1 = ∆( )
Inversement on peut écrire :
( )= ∆( )
( )=
Considérons maintenant le signal dual de ∆( ) = 1 et cherchons sa TF.
Autrement dit, on cherche à donner la TF d’un signal temporel constant (=1)
TF
( ) ∆( ) = 1
+∞ =0
∆( ) = 1 TF (− ) = ( ) =
0
51
(− ) = ( ) = +∞ =0
( est paire )
0
On peut ecrire alors :
( )=
0 0
Ce qui est en concondance totale avec le fait qu’ un signal constant ne contient aucune fréquence .
Retenons les resultats importants des propriètés de l’impulsion de Dirac:
( ) = ∆( ) = 1
(∆( ) = 1) = ( )
( ) = 1
( )= (1) =
Soit à chercher la TF de l’impulsion de Dirac Translatée ( − ) en appliquant la proprièté de
decalage temporel de la TF.
( − ) ( )= ∗ ( ) ( )
52
= ∗1 ( ( ) ( ) = 1)
=
5.3.2. Decalage fréquentiel
D’après les propriètés de l’impulsion de Dirac, nous avons : (1) = ( )
∗1 = ( − )
= ( − )
On obtient un decalage fréquentiel de l’impulsion de Dirac fréquentielle.
De même :
= ( + )
5.3.3. Exemples
Signal sinusoïdal ( ) = cos(2 )
Il est clair que a0 = 0, a1 = 1, an = 0 pour n > 1 et bn = 0 pour n ¸ 1: D'où:
= 0
= = = Car ( ) est réel et paire
=0 ∀ > 1
=0 ∀ >1
La transformé de Fourier de x(t) est (en utilisant la formule d’Euler et les propriétés de ( )) :
( )= ( ) ( ) = TF (cos(2 ))( )
+
= ( )
2
1 1
= ( + )+ ( − )
2 2
On a donc le spectre suivant :
Représentation spectrale bilatérale.
( ) = sin(2 )
La décomposition en série de Fourier est définie par : an = 0 pour n ≥ 0, b1 = 1 et bn = 0 pour
n>1. D'où:
= 0
53
= = = ⃑ Car ( ) est réel et impaire
=0 ∀ > 1
=0 ∀ >1
La transformé de Fourier de x(t) est (en utilisant la formule d’Euler et les propriétés de ( )) :
( )= ( ) ( ) = TF (sin(2 ))( )
−
= ( )
2
1 1
= ( + )− ( − )
2 2
On a donc le spectre suivant :
Généralisation aux signaux périodiques : Représentation bilatérale
Soit ( ) un signal périodique de période = = .
En utilisant la décomposition en série de Fourier, on obtient :
( )= A + ( + )
La transformée de Fourier appliquée au signal ( ) permet d’écrire:
( )= ( ( ))( ) = A + ( + )
En introduisant les propriétés de l'impulsion de Dirac, le spectre d'un signal périodique peut
s’écrire de la façon suivante :
1 1
( )= ( ( ))( ) = A (0) + ( + + )+ ( − − )
2 2
La représentation bilatérale du spectre de fréquence d'un signal périodique est construite à
partir de la décomposition en série de Fourier complexe.
Cette représentation est formée par des pics de Dirac de poids = , n ∈ N sur l'axe des
54
fréquences positives et négatives.
Il est à nouveau important de noter que seule la représentation unilatérale a un sens physique.
En effet, la représentation bilatérale est constituée de fréquences négatives qui n'ont pas de sens
réel.
TF de l‘ Echelon unité
Rappelons que l'échelon unité u(t) est défini par :
0 <0
1
( )= =0
2
+1 >0
Remarquons aussi que nous pouvons écrire :
1 1
( )= + ( )
2 2
−1 <0
Où : ( )= 0 =0
+1 >0
On peut écrire alors : ( ) = 2 ( ) − 1
( ) ( )
= 2 = 2 ( )
D’où d'après les propriétés de la transformée de Fourier :
( ) ( )
= 2 =2 ( ) = 2
( )
Or : =2 ( ) proprièté de la dérivation de la TF.
55
et
1 1 1
( ) = TF + ( ) = TF 1 + ( )
2 2 2
Donc :
1 1
( ) = ( )+ ( )
2 2
1 1
( ) = ( )+
2 2
56
Dans le traitement de l’information, il est nécessaire de
– mesurer le signal, souvent à l’aide de capteurs (métrologie) ;
– caractériser et extraire le signal utile d’une information (traitement du signal) ;
– le transmettre par un codage adéquat (traitement du signal).
L’objectif de ce cours est de donner des bases mathématiques minimales préalables à l’acquisition et à la
maîtrise du signal. Pour cela, ces bases développent des méthodes basées sur la modélisation mathématique.
Ces méthodes peuvent être ensuite mises en œuvre en électronique du signal (réalisation technologique).
1. Espace de signaux
1.1 Représentation discrète
On peut représenter un signal x( ) sur une base de signaux (fonctions) déterminés, ψ ( ) ; k =
1, … … . , n par :
( )= ψ ( )
..
Soit le vecteur = . , la transposée du vecteur a noté = =( , ,... ) est une
multiplication . , On dit qu’un ensemble E muni d’une opération interne (notée Å) et d’une
opération externe (notée ∗ ) dont le domaine d’opérateurs est C, a une structure d’espace vectoriel
sur C si :
1. ( , Å) est un groupe commutatif pour son opération interne,
2. l’opération externe est telle que, pour tout ∈ et tout a, b ∈ , on ait :
57
(a . b ) ∗ = a.( b∗ ) ∗ =
3. L’opération externe est distributive par rapport à l’addition sur le corps C et par rapport à
l’opération interne dans E :
(a + b). = a . Å b. et a . ( Å ) = a . Å b.
Le cardinal (nombre maximum de vecteurs) de la base est appelé dimension de l’espace.
2. Espace vectoriel normé et métrique
2.1. Norme définie un espace vectoriel
Un espace vectoriel E est normé si on peut définir une norme ‖ ‖, c’est-à-dire une application de
E dans IR+, qui à tout vecteur ⃗ de E associe‖ ⃗ ‖.
‖ ‖ :
⃗ ‖ ⃗ ‖
2.2. Propriétés d’une norme
La norme possède les propriétés suivantes :
2.3. Espace vectoriel métrique
2.3.1. Distance sur un espace vectoriel
Un espace vectoriel est dit métrique si à tout couple de vecteurs ( ⃗, ⃗) est associé un réel :
( ⃗, ⃗) tel que :
La mesure ( ⃗, ⃗) est appelée distance.
Une distance usuelle est obtenue à partir de la norme par :
( ⃗, ⃗) = ‖ ⃗ − ⃗‖
2.3.2. Espace vectoriel de Banach
Une suite infinie { ⃗ . } d’éléments d’un espace vectoriel métrique converge vers un vecteur de cet
espace si :
lim ( ⃗ , ⃗) = 0
→
Un espace vectoriel normé dans lequel toute suite est convergente est dit complet. On l’appelle
aussi espace de Banach.
2.3.3. Espace vectoriel de Hilbert
58
Un Espace vectoriel est dit de Hilbert est un espace vectoriel normé complet (espace de Banach)
dont la norme ‖ ‖ découle d’un produit scalaire ou hermitien <, >, par la formule < ⃗, ⃗ > =
‖ ⃗‖
Un espace de Hilbert est la généralisation en dimension quelconque d’un espace vectoriel euclidien
ou hermitien.
Les différentes métriques possibles (distances) définissent divers types de convergence.
3. Espace vectoriel de signaux
3.1. Représentation d’un signal
Soit un espace de dimension K et = {ψ , … . ., ψ ( )}, une base de cet espace.
Tout signal x(t) a une représentation unique dans la base B :
( )= ψ ( )
Où : les sont éléments de IR ou de IC.
Les coefficients( , … . .; ) définissent un point de coordonnée ( , … . .; ) par rapport à la base
= {ψ , … . ., ψ ( )}, est donc une représentation du signal x(t) par rapport à la base B.
3. 2. Distance entre deux signaux
La représentation vectorielle de signaux dans un espace vectoriel métrique permet de comparer des
signaux en mesurant leur distance.
Soient deux signaux x(t) et y(t) dont les représentations (dans la même base B) sont :
( )= ψ ( )
( )= ψ ( )
On peut alors définir la distance entre les signaux ( ( ), ( )).
3.3. Exemples de distance
3.3.1. Distance euclidienne sur une base discréte
si d est la distance euclidienne, un signal est représenté dans une base discrète et
= {ψ ( )} ,……. , on a simplement :
( ), ( ) = ‖ ( ) − ( )‖
= ( ψ ( )− ψ ( ))
= ( − )ψ ( )
59
= | − |
= | − |
( ), ( ) = | ( ) − ( )|
Où : K est une constante de normalisation. Typiquement K = 1 ou = . Cette distance est appelée
distance en moyenne quadratique.
On peut bien sûr définir d’autres distances, par exemple :
3.3.3. Distance de Hamming
Pour des signaux binaires, on utilise la distance de Hamming :
( ), ( ) = Å
Où : et sont des éléments de {0, 1} et Å représente l’opérateur OU exclusif. Cette distance
mesure le nombre de bits différents entre x et y.
3.4. Espace des signaux à énergie finie
L’ensemble des signaux à énergie finie (ou de carré sommable) sur un intervalle [t1; t2] forme un
espace noté ( , ) dont la norme est définie par :
‖ ( )‖ = | ( )|
Le carré de la norme (‖ ( )‖ ), est donc égal à l’énergie du signal.
‖ ( )‖ = | ( )|
La distance entre deux signaux x et y est alors définie par la distance euclidienne :
( ), ( ) = | ( ) − ( )|
60
Dans ( , ) on dit qu’un signal x(t) converge en moyenne quadratique vers y(t) si :
( ( ), ( ) = 0
L’exposant 2 dans ( , ) indique la métrique utilisée et non pas la dimensions de l’espace de
signaux à energie finie.
< ⃗ , ⃗∗ > = ⃗ . ⃗∗ = ∗
Où : * indique la conjugaison complexe.
4.2. Produit scalaire de deux signaux
Définition :
Soient deux signaux quelconques ( ) ( ) (en général complexes). Par analogie avec le
produit scalaire de deux vecteurs, on définit le produit scalaire de ( ) ( ) et on note :
∗(
< ( ), ) > la quantité :
∗( ∗(
< ( ), )>= ( ). )
∗( ) représente la conjugaison complexe de ( )
où :
Cas de signaux réels :
< ( ), ( )>= ( ). ( )
Remarques:
Dans le cas complexe, on remarque que :
∗( ∗(
< ( ), )> ≠< ( ), ) >
En revanche, le produit scalaire possède la symétrie hermitienne :
∗( ∗( ) >∗
< ( ), )> =< ( ),
∗( ∗(
En effet, < ( ) , )> = ∫ ( ). )
∗ ∗
∗( ). ( ) ( ). ∗( )
= =
∗( ) >∗
= < ( ),
Par ailleurs, en raison de la définition ci-dessus et de la linéarité de l’intégrale, le produit
scalaire de sommes de signaux se développe facilement selon la règle de calcul :
61
∗ ∗ ∗
< + ,( + )∗ > = < , > + < , >+ < ,
∗
> + < , >
Où : , , sont des scalaires.
4.3. Signaux orthogonaux
Soient deux signaux quelconques ( ) ( ) , on dit que ( ) ( ) sont orthogonaux si leur
produit scalaire est nul sur un intervalle = , ∁ c’est-à-dire :
∗( ∗(
< ( ), )> = ( ). ) = 0
Remarque :
Si ( ) ( ) sont orthogonaux sur un intervalle = , ∁ , ils ne le sont pas
forcément sur un autre intervalle.
Exemple : Fonctions rectangulaires décalées
Soient une série de fonctions rectangulaires décalées entre elles de , avec = 0, 1, 2, ….
−
ψ ( )=
Plus clair :
− −
ψ ( )= = 1 2
+ < <
2
+
0
Remarquons que les fonctions ψ ( ), ψ ( ) ψ ( ) ont les formes suivantes :
ψ ( ) ψ ( )
ψ ( )
1 1
1
k=2
k =0 k=1 t t
t
− + +2
+
2 2 2 2
Le produit scalaire des deux fonctions ψ ( ) ψ ( ) ∀ ≠ est :
62
< ψ ( ) ,ψ ( ) > = ψ ( ). ψ ( )
= (ψ ( ) = 1). (ψ ( ) = 0) + (ψ ( ) = 0). (ψ ( ) = 1) = 0
ψ( ) ψ ( ) sont orthogonaux ∀ ≠ sur l’intervalle de longueur ( − ) )
= (0). (0)
4.4. Produit scalaire et distance euclidienne
Le lien entre distance euclidienne et produit scalaire est évident dans l’espace ( , ). En effet :
Remarque :
Dans le cas particulier ou les signaux sont orthogonaux, < x; y >= 0, la relation précédente se
simplifie au théorème de Pythagore :
4.5. Inégalité de Schwartz
Théorème :
Deux signaux, x( ), y( ) de ( , ) vérifient l’inégalité suivante, dite inégalité de Schwartz :
‖< ( ) , y ∗ ( ) >‖ ≤ < ( ) , ∗ ( ) >∗< ( ) , ∗ ( ) >
63
‖< ( ) , y( ) >‖ ≤ ‖ ( ) ‖ ∗ ‖y( )‖
Ou sous forme intégrale :
|< ( ) , ∗( ) >| = ( ). ∗( ) | ( )| | ( )|
≤ ∗
Demonstration :
Soient deux signaux, x( ) y( ) de ( , ). , et k un scalaire de IR ou de IC. Le carré de la
distance entre x( ) y( ) est la quantité positive, ∀ .
( , )=‖ − ‖ =< − ,( − )∗ >
∗
= < , > +| | < , >− < , > − < , > ∗ ≥ 0
Ceci est en particulier vrai, pour :
< , >
=
< , >
En reportant k dans l’équation précedente, alors :
< , > < , >∗ < , >
( , )=< , > + < , >− < , > − < , > ∗ ≥ 0
< , > < , >∗ < , >
< , > < , >∗
=< , > + < , > −2 < , > ≥ 0
< , > < , >∗
< , > < , >
=< , > + < , > −2 ≥ 0
< , > < , >
< , > < , >
=< , > + < , > −2 < , > ≥ 0
< , > < , >
< , >
=< , > − < , > ≥ 0
< , >
|< , >|
=< , > − ≥ 0
< , >
Donc :
|< , >|
< , > − ≥0
< , >
D’où l’on en tire l’inégalité de Schwartz :
|< , >| ≤ < , >< , >
ou, sous forme intégrale :
64
( ). ∗( ) | ( )| | ( )|
≤ ∗
Remarque : il y a égalité si ( ) = ( )
C’est-à-dire l’égalité est atteinte si et seulement si ( , ), c’est-à-dire si = .
5. Produit de convolution
L’opérateur de convolution est aussi très courant. Il est associé à l’opération de filtrage d’un signal
x(t) par un filtre de réponse impulsionnelle h(t) . La sortie du filtre, y( ), vaut alors :
y( ) = x( ) ∗ h( ).
5.1 Définition
Le produit de convolution entre deux fonctions x(t) et h(t), noté par le symbole ∗ est défini par les
intégrales :
+∞
( ∗ ℎ)( ) = ( ) ℎ( − )
−∞
= ℎ( ) ( − )
= (ℎ ∗ )( )
On retiendra que le produit de convolution est commutatif. Souvent, en traitement du signal, on
note de façon pratique la convolution de deux fonctions x(t) et h(t) sous la forme :
( ∗ ℎ)( ) = ( ) ∗ ℎ( )
On utilisera cette notation par la suite, malgré qu’elle soit parfois ambiguë comme on le verra.
Si x(t) est la distribution de Dirac ( ), on a simplement :
( ) = ( ) ∗ ℎ( ) = ℎ( )
On remarque que ℎ( ) est la réponse du filtre excité par une impulsion de Dirac, d’où le nom de
réponse impulsionnelle du filtre donné à ℎ( ) .
5.2 Représentation de la Convolution
A partir de la définition, on peut représenter l’opération de convolution de deux signaux de
façon graphique simple, comme l’illustre la figure :
En effet, l’équation :
+∞
( ) = ( ) ∗ ℎ( ) = ( )ℎ( − )
−∞
Ainsi, ℎ( ) est la mémoire du système : le signal ( ) est pondéré aux différents instants par
ℎ( − ).
Le produit de convolution est parfois appelé RTMI. Cet acronyme est basé sur les différentes opérations
élémentaires effectuées pour obtenir le produit de convolution :
Retournement ℎ( ) → ℎ(− )
Translation ℎ(− ) → ℎ( − )
Multiplication ∫ ( )ℎ( − )
Intégration ∫ ( )ℎ( − )
Exemple
≥ 0 et ( ) = 1 | |≤1
Soit ℎ( ) =
0 0
Principe de la méthode :
- On garde le premier signal ℎ( )
- On retourne le second signal ( ) pour obtenir (− ), on obtient le même signal car il est pair.
- on effectue alors des translations de ( − ) : ceci revient à glisser ( − ) de sur ℎ( ) ;
| − |≤1
( − )= 1
0
1 −1≤ ≤ 1+
=
0
nous sommes alors en présence de trois cas possibles.
0.8
0.6
0.4
0.2
0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Alors :
( )=∫ 1
( − ). ℎ( )
66
1+
= ∫ − ( ). 0 = 0 (voir figure ci-dessous)
0.8
0.6
0.4
0.2
0
-5 -4 -3 -2 -1 0 1 2 3 4 5
( )= ∫ ( − )ℎ( )
1+
= ∫0 1.
− 1 > 0, ie ≥ 1
1
0.8
0.6
0.4
0.2
0
-5 -4 -3 -2 -1 0 1 2 3 4 5
( )= ∫ ( − )ℎ( )
= ∫ 1. −
= − −( )
(voir figure ci-dessous)
0.9
y(t)=(x*h)(t)
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1 t
0
-5 -4 -3 -2 -1 0 1 2 3 4 5
5.3 Propriétés
A partir de la définition du produit de convolution, on montre facilement que le produit de
convolution est :
commutatif : ( ) ∗ ( ) = ( ) ∗ ( )
associatif : ( ( ) ∗ ( )) ∗ ( ) = ( )∗( ( )∗ ( ))
distributif par rapport à l’addition : ( ) ∗ ( )+ ( ) = ( )∗ ( )+ ( )∗ ( ).
67
Nous admettons la proprièté suivante sans démonstration :
+∞
(− ) ∗ ℎ( ) = ( − ) ℎ( − )
−∞
Mathématiquement, cela s’interprète comme le produit scalaire entre le premier signal décalé de τ et le
second signal. Comme précédemment discuté, un produit scalaire entre deux vecteurs mesurant un degré de
similitude entre ces deux vecteurs, l’intercorrélation est une mesure de similitude entre deux signaux. Deux
signaux x et y seront indépendants s’il n’y a pas de lien entre eux. S’il existe un lien alors celui-ci doit
dépendre du décalage temporel entre ces deux signaux. Ils seront donc indépendants si :
∀τ ∈ IR, j (τ) = constante
Remarque :
+∞ ∗( +∞
- j (0) = ∫−∞ ( ) ) = ∫−∞ | ( )| qui représente l’énergie du signal.
L’autocorrélation d’un signal, au point 0 , est identifiée à son énergie.
- L’autocorrélation est une manière de calculer l’énergie d’un signal.
6.2. Cas des signaux périodiques
6.2.1. Définition :
Dans le cas d'un signal périodique x(t) de période T0, on définit l'autocorrélation par :
68
+ 0
1 2
∗(
j (t) = lim ( ) − )
0 →+∞ 0 − 0
2
Pour deux signaux périodiques x(t) et y(t) de période T0, la fonction d'intercorrélation
s'écrit :
1 ∗(
1 ∗
j (t) = ( ) − ) = ( ) ( − )
→ →
déphasage φ.
6.2.2. Signification
La fonction d'autocorrélation traduit la similitude d'un signal au niveau de la forme en
fonction du décalage temporel t. C'est une mesure de la ressemblance du signal avec lui-même
au cours du temps. Par exemple, si le signal est périodique mais noyé dans du bruit, sa fonction
d'autocorrélation le sera aussi mais permettra de détecter sa périodicité. Intuitivement, la
corrélation est maximale si on ne décale pas temporellement le signal.
6.2.3. Propriétés
Si x(t) est réel, alors j (t) est paire : (j (−t) = j (t).
j (t ) ≤ j (0) = qui est l’énergie du signal
Application :
Considérons une impulsion x(t) émise d’une source visualisé sur un écran et réfléchie sur une
cible avant de revenir à son point de départ. On observe le signal de retour y(t) sur le même
écran pour détecter le retour de l'impulsion. Les deux signaux x(t) émis et y(t) réfléchi sont
séparés sur le même écran d’un temps t0. Sachant que le signal parcourt une distance de 2d pour
69
faire un aller – retour (la distance de la source à la cible est d). On déduit la distance d de la
∗
cible par : = ( avec la célérité de l'impulsion).
∗(
F ( )= j ( ) ( )= (t ) t− ) t
= ( t) −2 t t ∗ (− )
70
= ∗ (− ) (t) −2 t t
= ∗( ) (t) −2 t t
= ∗( ). ( ) = | ( )|2
De même la densité inter spectrale est :
+∞
F ( )= ( ) −2 = ( ) ( )
−∞
Remarque :
Il est souvent plus facile de calculer les fonctions de corrélation (auto et inter) par la
transformée inverse TF − 1 de la densité spectrale.
7.2.2. Théorème de Parseval (2ème forme) : Energie des signaux non périodiques
Théorème 1: Si x(t) est à énergie finie, l'énergie totale E dans le domaine temporel est égale à
l'énergie totale dans le domaine fréquentiel.
Démonstration :
Nous avons démontré par ailleurs l’énergie d’un signal comme étant l’intégration du module au
carré de ( ) dans le domaine temporel.
Montrons aussi que l’énergie d’un signal est aussi l’intégration du module au carré du spectre
( ) dans le domaine fréquentiel.
inverse : ( ) = ∫ ( ) 2
L’expression de l’énergie est :
+∞ +∞
| ( )| ( ) ∗( )
E = =
−∞ −∞
∗
= ( ) ( ) 2
= ( ) ∗( ) −2
= ∗( ) ( ) −2
= | ( )|
Théorème 2: Si x(t) est à énergie finie, l'énergie totale E est calculée aussi par l’intégration de la
71
+∞
densité spectrale : = ∫−∞ F ( ) .
Effet :
= | ( )| é ℎé è 1
∶ = F ( ) F ( ) = | ( )|2
En résumé, l’énergie peut être calculée par 3 moyens différents :
+∞
∗ Integration du module au carré de x(t): E = | ( )|
−∞
+∞
′ ∗(
∗ L autocorrélation au point 0 E = j (0 ) = ( ) )
−∞
+∞
72