Vous êtes sur la page 1sur 143

INFORMATION

ET CODAGE
Hicham Jakjoud

hicham.jakjoud@gmail.com
Chapitre 0:
Introduction pédagogique
Chapitre 0 : Introduction pédagogique

Plan du cours

Chapitre 1: Généralité sur la théorie de l’information


codage de source,
codage du canal,
Terminologie,
Notions sur la correction des erreurs

Chapitre II: Modulations analogiques

Chapitre III: Modulations numériques


Chapitre 0 : Introduction pédagogique

Plan du cours

Chapitre 1: Généralité sur la théorie de l’information

Chapitre II: Modulations analogiques


Modulation d’amplitude,
Modulation de fréquence,
Modulation de phase,
Technique de la boucle à verrouillage,

Chapitre III: Modulations numériques


Chapitre 0 : Introduction pédagogique

Plan du cours

Chapitre 1: Généralité sur la théorie de l’information

Chapitre II: Modulations analogiques

Chapitre III: Modulations numériques


Interférences inter symbole,
Diagramme de l’œil,
Supports de transmission,
Modulations à porteuse unique (ASK, FSK, PSK)
Modulations en quadrature xQAM
Modulation à grand nombre de porteuses
Multiplexage
Chapitre 0 : Introduction pédagogique

Distribution du volume horaire

52.6 %  cours

47.4 %  TP
Chapitre 0 : Introduction pédagogique

Méthode d’évaluation

Comptes rendus des TP

Examen de TP

Evaluations écrites

Note d’assiduité
Chapitre 0 : Introduction pédagogique

Pacte

Professeur:
Disponibilité totale,
Effort de recherche et de préparation adéquat,

Etudiant:
Le travail,
Honnêteté.

« Moi, je ne vous recommande pas le travail mais la lute »


Nietzsche, ainsi parla Zarathoustra
Chapitre 1:
Généralités sur la théorie de
l’information
Généralités sur la théorie de l’information

1. Introduction

• La science qui s’intéresse à l’analyse des systèmes de communication.


• Sous la forme de diagramme en blocs
Source des
messages Codeur Canal Décodeur Destination

Bruit

La source des messages

une machine ou une personne produisant l’information à


communiquer
Généralités sur la théorie de l’information

1. Introduction

• La science qui s’intéresse à l’analyse des systèmes de communication.


• Sous la forme de diagramme en blocs
Source des
messages Codeur Canal Décodeur Destination

Bruit

Le codeur

dispositif qui permet d’associer à chaque message


un « objet » adapté à la transmission sur le canal
Généralités sur la théorie de l’information

1. Introduction

• La science qui s’intéresse à l’analyse des systèmes de communication.


• Sous la forme de diagramme en blocs
Source des
messages Codeur Canal Décodeur Destination

Bruit

Le codeur

dispositif qui permet d’associer à chaque message


un « objet » adapté à la transmission sur le canal
Généralités sur la théorie de l’information

1. Introduction

• La science qui s’intéresse à l’analyse des systèmes de communication.


• Sous la forme de diagramme en blocs
Source des
messages Codeur Canal Décodeur Destination

Bruit

Le canal

le milieu à travers quoi le message


est transmis
Généralités sur la théorie de l’information

1. Introduction

• La science qui s’intéresse à l’analyse des systèmes de communication.


• Sous la forme de diagramme en blocs
Source des
messages Codeur Canal Décodeur Destination

Bruit

Le décodeur

d’extraire le message original pour le destinataire


Généralités sur la théorie de l’information

1. Introduction

• La science qui tente de produire des modèles mathématiques pour chaque


bloc.
•  la théorie de l’information tend à garantir une transmission de
l’information d’une manière sûre et fiable.

• Dans ce cours, nous nous limitons à cette vision.

• La théorie de l’information en se résume pas à ça.


• touche à plusieurs discipline telles que la physique, les mathématique,
les sciences d’ingénieurs etc.

•Théorème fondamental de la théorie d’information : « Il est possible de


transmettre une information à travers un canal bruité avec un taux de bruit
inférieur à la capacité du canal avec une probabilité minimale d’erreur ».
Généralités sur la théorie de l’information

1. Introduction

• La théorie de l’information tend à répondre à deux grande question :

Quelle est la compression optimale des données ?

Et quel est le débit optimal de la transmission ?


Généralités sur la théorie de l’information

1. Introduction

• Les deux questions se rapportent à la compression et à la transmission des


données.

• Les réponses des deux questions sont des quantités physiques telles que:

• l’entropie

• et l’information mutuelle,

• fonctions probabilistes qui sont à la base du processus de la communication.


Généralités sur la théorie de l’information

2. Entropie, entropie relative et information mutuelle

Soit une variable X de probabilité p(X),

l’entropie de cette variable est définie comme:

𝐻 𝑋 =− 𝑝 𝑥 𝑙𝑜𝑔2 𝑝 𝑥
𝑥

L’utilisation du logarithme à base de 2 fait que l’entropie soit une mesure


binaire.

L’entropie représente l’incertitude moyenne d’une variable aléatoire.

C’est, donc, le nombre moyen des bits nécessaires pour la description de la


variable aléatoire.
Généralités sur la théorie de l’information

2. Entropie, entropie relative et information mutuelle

Exercices:

Calculer l’entropie d’une variable aléatoire qui suit une loi uniforme sur
32 résultats.

Considérons qu’une course de chevaux est organisée avec 8 chevaux


dont les probabilités de gagner sont : ½, ¼, 1/8, 1/16, 1/64, 1/64, 1/64,
1/64 calculer l’entropie de la course
Généralités sur la théorie de l’information

2. Entropie, entropie relative et information mutuelle

• Nous espérons transmettre un message indiquant le cheval gagnant.

• On peut donc envoyer le numéro du cheval ce qui nécessite 3 bits.

• Cependant la loi de probabilité suivie dans ce cas n’est pas uniforme.

• Utiliser des descriptions

•Courtes plus de probabilité de gagner

•Longues probabilité moins importante.

• 0, 10, 110, 1110, 111100, 111101, 111110, 111111


• Longueur minimale de 1 bit
Généralités sur la théorie de l’information

2. Entropie, entropie relative et information mutuelle

• L’entropie H(X) est l’incertitude d’une seule variable aléatoire.

• On peut également définir l’entropie conditionnelle H(X|Y) qui décrit


l’entropie d’une variable X sur la base de la connaissance d’une autre
variable Y.

• L’entropie H(X), ainsi définie, concerne une seule variable.

• On définit l’entropie de deux variables aléatoires (en considérant que (X, Y)


constituent un seul vecteur de données):

𝐻 𝑋, 𝑌 = − 𝑝 𝑥, 𝑦 𝑙𝑜𝑔𝑝(𝑥, 𝑦)
𝑥,𝑦
Généralités sur la théorie de l’information

2. Entropie, entropie relative et information mutuelle

• Théorème de la règle de la chaine:


𝐻 𝑋, 𝑌 = 𝐻 𝑋 + 𝐻 𝑌|𝑋
•La réduction de l’incertitude due à une autre variable est dite l’information
mutuelle.

• Pour deux variable X et Y l’information mutuelle est donnée par


𝑝(𝑥, 𝑦)
𝐼 𝑋; 𝑌 = 𝐻 𝑋 − 𝐻 𝑋 𝑌 = 𝑝 𝑥, 𝑦 𝑙𝑜𝑔
𝑝 𝑥 𝑝(𝑦)
𝑥,𝑦
• L’information mutuelle I(X ;Y) est une mesure de la dépendance entre les
deux variables aléatoires.

•I est toujours positive, symétrique et peut être nulle si les deux variables
sont indépendantes
Généralités sur la théorie de l’information

2. Entropie, entropie relative et information mutuelle

•Le canal de communication est un système dont la sortie dépend d’une


manière probabiliste de sont entrée.

• Caractérisé par une matrice de probabilité de transition p(y|x).

• Représentation intuitive
Généralités sur la théorie de l’information

2. Entropie, entropie relative et information mutuelle

• Pour un canal de communication d’entrée X et de sortie Y, on définit la


capacité C par

𝐶 = 𝑚𝑎𝑥𝑝(𝑥) 𝐼(𝑋; 𝑌)

• Plus loin nous allons définir la capacité comme étant le maximum de la


vitesse à laquelle nous pouvons envoyer des données sur un canal et
reconstruire l’information à la réception avec une faible probabilité d’erreur
Généralités sur la théorie de l’information

2. Entropie, entropie relative et information mutuelle

• Exercices :

Canal binaire sans bruit :

Soit un canal binaire sans bruit dont la sortie est identique à l’entrée
Calculer la capacité du canal.
0 0

1 1
Généralités sur la théorie de l’information

2. Entropie, entropie relative et information mutuelle

• Dans le cas où le canal de l’exemple précédent est bruité,

• On considère qu’en envoyant un symbole on a une probabilité p pour


recevoir une sortie identique.

• Ainsi, le calcul de la capacité est donnée par :

𝐶 = 1 + 𝑝𝑙𝑜𝑔(𝑝) + 1 − 𝑝 𝑙𝑜𝑔⁡(1 − 𝑝)

• Un tel canal est dit symétrique,

• Sa matrice de transition est également symétrique


Généralités sur la théorie de l’information

2. Entropie, entropie relative et information mutuelle

• La capacité d’un canal quantifie la vitesse maximale sur un canal.

• Le théorème du codage du canal montrera que cette limite peut être atteinte
en utilisant de longs blocs de code.

• En pratique, il y a des limitations pour la complexité des codes à utiliser et


donc on peut passer sans atteindre cette limite.

• L’information mutuelle est, donc, un cas particulier d’une notion plus


générale dite l’entropie relative

• Elle mesure la ‘distance’ entre les probabilités p et q. Elle est donnée par

𝑝 𝑥
𝐷 𝑝||𝑞 = 𝑝 𝑥 𝑙𝑜𝑔
𝑞 𝑥
𝑥
Généralités sur la théorie de l’information

2. Entropie, entropie relative et information mutuelle

• Propriétés:
1) 𝐻 𝑋, 𝑌 ≥ 0

2) 𝐻 𝑋|𝑌 ≥ 0

3) 𝐻 𝑔 𝑋 |𝑋 = 0 𝐻(𝑔 𝑋 ) ≤ 𝐻(𝑋)

4) 𝐻 𝑋, 𝑌 = 𝐻(𝑌, 𝑋)

5) 𝐻 𝑋, 𝑌 = 𝐻 𝑋 + 𝐻 𝑌 − 𝐼(𝑋|𝑌)

6) 𝐻 𝑋, 𝑌 = 𝐻 𝑋 + 𝐻 𝑌 X et Y sont indépendantes

7) 𝐻(𝑋|𝑌) = 𝐻(𝑋) X et Y sont indépendantes

8) 𝐻(𝑋, 𝑌|𝑍) = 𝐻(𝑋|𝑍) + 𝐻(𝑌 |𝑋, 𝑍) = 𝐻(𝑌 |𝑍) + 𝐻(𝑋|𝑌, 𝑍)


Généralités sur la théorie de l’information

3. Codage de source

• Le codage entropique ou compression réversible d'une source


 un codage sans perte des symboles de la source

• Objectif : maximiser l’information mutuelle sur le canal.

• Le but du codage de la source :


remplacer les messages d’une source S utilisant un alphabet donné
par des messages codés de longueur variables.

• La longueur des variables est choisie de telle manière à ce que les


messages les plus redondants soient codés en utilisant une longueur
minimale du code et vice-vers-ça.
Généralités sur la théorie de l’information

3. Codage de source

3.1. Source de Markov

• Chaque source émet des messages suivant une loi qui peut dépendre des
symboles qui l’ont précédé.

• En particulier une source est markovienne si elle établit la chaine de


Markov

𝑃 𝑆𝑛+1 = 𝑠𝑛+1 |𝑆𝑛 = 𝑠𝑛 , . . . , 𝑆1 = 𝑠1 = 𝑃 𝑆𝑛+1 = 𝑠𝑛+1 |𝑆𝑛 = 𝑠𝑛


• Il en résulte directement

𝑃 𝑆1 , … 𝑆𝑛 = 𝑃 𝑆1 𝑃 𝑆2 |𝑆1 … 𝑃 𝑆𝑛 |𝑆𝑛−1
Généralités sur la théorie de l’information

3. Codage de source

3.1. Source de Markov

Exemple:

Ecrire la matrice de transition


Généralités sur la théorie de l’information

3. Codage de source

3.2. Classe de codes

• Un code de la source C d’une variable aléatoire X est une application de


l’ensemble des valeurs de X vers l’ensemble des codes dans un alphabet
D-air.

• C(x) est le code de la variable X et l(x) est la longueur.

Exemple:
C(rouge)=00; C(bleu)=10
c’est une source X={rouge, bleu} et D={0,1}

• La longueur moyenne L d’un code de source C d’une variable aléatoire


X de probabilité p est donnée par :
𝐿(𝐶) = 𝑝 𝑥 𝑙 (𝑥)
𝑥∈𝜒
Généralités sur la théorie de l’information

3. Codage de source

3.2. Classe de codes

Exercice:
Soit X une variable aléatoire avec la distribution et le code suivants :

Distribution Code
P(X=1) = 1/2 C(1)=0
P(X=2) = 1/4 C(2)=10
P(X=3) = 1/8 C(3)=110
P(X=4) = 1/8 C(4)=111
1. Calculer l’entropie H(X), La longueur moyenne L(C)
2. Codifier le message : 134231
3. Calculer H(X) et L(C) pour une variable aléatoire opérant sur X={1, 2, 3}
et dont les probabilités pour chacun des symboles est de 1/3 et pour
lequel D={0, 10, 11}
Généralités sur la théorie de l’information

3. Codage de source

3.2. Classe de codes

• On appel un code non-singulier si et seulement si les codes de deux


messages différents sont forcément différents.
𝑥 ≠ 𝑥′ 𝐶(𝑥) ≠ 𝐶(𝑥 ′ )
• Code non-singulier est une garantie pour un décodage sans ambigüité

• Dans le cas réel où l’on envoie une série, on peut assurer le décodage en
ajoutant un symbole spécial entre chaque deux mots.

• Cela aurait pour effet d’altérer l’efficacité de la transmission.

• Il est encore plus efficient d’utiliser des codes auto-ponctuels ou


instantanés.
Généralités sur la théorie de l’information

3. Codage de source

3.2. Classe de codes

• Un code est dit instantané si et seulement si aucun mot de code n’est


préfixe d’un autre.

• On définit l’extension d’un code comme suit :

𝐶 𝑥1 𝑥2 𝑥3 … 𝑥𝑛 = 𝐶 𝑥1 𝐶 𝑥2 𝐶 𝑥3 … 𝐶 𝑥𝑛

• Un code est décodable d’une manière unique si et seulement si son


extension est non-singulière
Généralités sur la théorie de l’information

3. Codage de source
3.2. Classe de codes
Les classes de codes
x singulier Non-singulier Décodable unique instantané
1 0 0 10 0
2 0 010 00 10
3 0 10 11 110
4 0 01 110 111
Tous les codes

Décodable
uniquement

Instantanés

Non-singuliers
Généralités sur la théorie de l’information

3. Codage de source

3.3. Inégalité de Kraft

• On désire construire des codes instantanés avec une longueur minimale.

• Il est clair que l’on ne peut assigner des courts mots de code à tous les
symboles et qu’ils restent sans aucun préfixe.

• La longueur des mots de code est régie par l’inégalité de Kraft

• Théorème (Inégalité de Kraft) :Pour tout code instantané sur un alphabet


D-aire, les longueursl1,..ln des mots de code doivent satisfaire l’inégalité.

𝐷 −𝑙𝑖 ≤ 1
𝑖
• Un code est dit complet si et seulement s’il garantit l’inégalité dans
l’expression de Kraft ci-dessus.
Généralités sur la théorie de l’information

3. Codage de source

3.4. Construction de code

a. La méthode directe

• Soit une variable aléatoire X de distribution p(x)

• Calculer le logarithme des probabilités

• La longueur du code de chaque x est donnée par le logarithme des


probabilités

Exercice:
Présenter un code pour la variable X définie par :p(1)=0.35, p(2)=0.22,
p(3)=0.18, p(4)=0.15, p(5)=0.10

Calculer la longueur moyenne et l’entropie du code


Généralités sur la théorie de l’information

3. Codage de source

3.4. Construction de code

a. La méthode directe

Premier théorème de Shannon : Pour toute source stationnaire, il existe un


procédé de codage déchiffrable où la longueur moyenne des mots est
voisine de l’entropie.
Généralités sur la théorie de l’information

3. Codage de source

3.4. Construction de code

b. Code de Shannon Fano

• Rangement des états du système suivant les probabilités décroissantes


• Subdivision des états en 2 groupes dont les probabilités sont voisines G1
et G2 (sans pour autant de changer l’ordre)
• Chaque groupe est subdivisé en deux sous-groupes Gx1 et Gx2 de la
même manière
• La procédure continue tant que les groupes ont plus qu’un seul état.
L’indice de chaque groupe donne le mot de code.

Exercice:
Présenter un code pour la variable X définie par :p(1)=0.35, p(2)=0.22,
p(3)=0.18, p(4)=0.15, p(5)=0.10

Calculer la longueur moyenne et l’entropie du code


Généralités sur la théorie de l’information

3. Codage de source

3.4. Construction de code

c. Code de Huffman

• Le code de Huffman permet d’avoir une longueur moyenne minimale.

• Regrouper les deux états les moins probables


• Les traiter comme un seul en sommant leur probabilité.

• Cette technique est réitérée sur les états restants jusqu’à ce qu’il n’en reste
que deux.

Exercice:
Présenter un code pour la variable X définie par :p(1)=0.35, p(2)=0.22,
p(3)=0.18, p(4)=0.15, p(5)=0.10

Calculer la longueur moyenne et l’entropie du code


Généralités sur la théorie de l’information

4. Codage du Canal

4.1. Introduction

• Dans un système de communication, l’information reçu peut différer de


celle transmise.

• Solution: Le codage du canal

• Le codage du canal : introduire des redondances dans le message


 augmenter la sécurité de l’information dans un canal bruité.

• Canal discret  système stochastique ayant en entrée une suite de


symboles définie sur un alphabet X, et en sortie une suite de symboles
définie sur un alphabet Y.

• La relation entre l’entrée et la sortie est un modèle probabiliste.


Généralités sur la théorie de l’information

4. Codage du Canal

4.2. Définitions

• Canal causal: m<=n


𝑃 𝑌1 = 𝑦1 , … , 𝑌𝑚 = 𝑦𝑚 |𝑋1 = 𝑥1 , … , 𝑋𝑛 = 𝑥𝑛
= 𝑃 𝑌1 = 𝑦1 , … , 𝑌𝑚 = 𝑦𝑚 |𝑋1 = 𝑥1 , … , 𝑋𝑚 = 𝑥𝑚

• Si l’on somme sur Y1, …, Ym-1:


𝑃 𝑌𝑚 = 𝑦𝑚 |𝑋1 = 𝑥1 , … , 𝑋𝑛 = 𝑥𝑛
= 𝑃 𝑌𝑚 = 𝑦𝑚 |𝑋1 = 𝑥1 , … , 𝑋𝑚 = 𝑥𝑚

• Donc toute sortie est indépendante des entrées futures.


Généralités sur la théorie de l’information

4. Codage du Canal

4.1. Définitions

• Canal causal est sans mémoire: k>1

𝑃 𝑌𝑘 = 𝑦𝑘 |𝑋1 = 𝑥1 , … , 𝑋𝑘 = 𝑥𝑘 , 𝑌1 = 𝑦1 , … , 𝑌𝑘−1 = 𝑦𝑘−1 = 𝑃 𝑌𝑘 = 𝑦𝑘 |𝑋𝑘 = 𝑥𝑘

• 𝑃 𝑌𝑘 = 𝑦𝑘 |𝑋𝑘 = 𝑥𝑘 est indépendant du temps.

• Canal stationnaire :
𝑃 𝑌 = 𝑦𝑘 |𝑋 = 𝑥𝑘 = 𝑃 𝑌𝑘 = 𝑦𝑘 |𝑋𝑘 = 𝑥𝑘

• Le canal est dénoté par (X,Y,Π) où Π est la matrice de transition

• Le canal est symétrique  Π est symétrique


Généralités sur la théorie de l’information

4. Codage du Canal

4.2. Stratégies de codage du canal

• Détecter et/ou corriger les éventuelles erreurs de transmission  ajout des


symboles de contrôle à la suite transmise.

• Ces symboles suivent une règle C dite codage.

• Le décodeur vérifie que la suite respecte bien le codage C.

• Le but est de pouvoir transmettre l’information à un débit proche de la


capacité du canal de transmission et avec une faible probabilité d’erreur.

• Le théorème fondamental du codage du canal n’explicite pas le procédé de


codage permettant d’atteindre cette limite.

• La seule information est l’association d’une redondance aux symboles émis.

• Le destinataire peut détecter la présence d’erreur et la corriger si possible


Généralités sur la théorie de l’information

4. Codage du Canal

4.2. Stratégies de codage du canal

• Un symbole codé est transmis chaque τ secondes, la vitesse de transmission est


1/τ bauds.

• Si le rendement du système de codage est R=k/n alors le débit de l’information est


D=R/τ.

• De plus on sait que le canal est limité en fréquence et est défini par sa bande
passante B.

• Dans un système non codé (R=1), le débit est D =1/τ et est limité par la bande
passante du canal.

• Tandis que dans un système codé de rendement R<1, le débit est réduit d’un
facteur de R par rapport au système non codé.

• Le maintien du débit d’un système après codage nécessite l’utilisation d’une bande
passante plus large.
Généralités sur la théorie de l’information

4. Codage du Canal

4.2. Stratégies de codage du canal

4.2.1. Stratégie ARQ

• Les stratégies de détection d’erreur avec retransmission (ARQ) se basent sur


des codes permettant la détection de l’erreur.

• Une fois détectée, le récepteur demande la retransmission du message.

• La retransmission nécessite l’utilisation de canaux bidirectionnels et implique


le dialogue entre les deux interlocuteurs.

• Ce type de système est simple à mettre en œuvre.

• Par contre, il ne permet pas de transmission à hauts débits surtout lorsque le


nombre d’erreurs augmente.

• Deux principales variantes de la stratégie ARQ existent.


Généralités sur la théorie de l’information

4. Codage du Canal

4.2. Stratégies de codage du canal

a. Systèmes « ARQ avec arrêt et attente »

• L’émetteur doit attendre un acquittement après tout bloc envoyé.

• Si l’acquittement est positif (ACK), l’émetteur peut procéder à la


transmission du nouvel bloc.

• Sinon (NACK), le bloc courant doit être retransmis.

• La retransmission se répète autant que le bloc n’est pas arrivé.

• Ce type de système est adapté aux transmissions half-duplex.


Généralités sur la théorie de l’information

4. Codage du Canal

4.2. Stratégies de codage du canal

a. Systèmes « ARQ avec arrêt et attente »


Généralités sur la théorie de l’information
4. Codage du Canal

4.2. Stratégies de codage du canal

a. Systèmes ARQ continu


• Approche adaptée aux transmissions de type full-duplex.

• L’émetteur envoie les blocs en permanence et reçoit les accusés de réception au


fur et à mesure.

• Dans le cas de la réception d’un « NACK » la retransmission s’effectue de deux


façons

• Le bloc détecté comme erroné ainsi que tous les blocs qui le suivent sont
retransmis ; dans ce cas, la technique est appelée « Go-back-N ARQ ».

• Seul le bloc erroné est retransmis ; dans ce cas la technique est appelée
« Selective-repeat ARQ ».

• Elle est plus efficace que « Go-back-N ARQ » mais elle est plus complexe à
mettre en œuvre ordonnancement des blocs
Généralités sur la théorie de l’information
4. Codage du Canal
4.2. Stratégies de codage du canal

a. Systèmes ARQ continu

↑ Go-back-N ARQ Selective-repeat ARQ ↓


Généralités sur la théorie de l’information

4. Codage du Canal

4.2. Stratégies de codage du canal

4.2.2. Stratégie FEC

• Les stratégies FEC utilise des codes permettant la détection, la localisation et la


correction des erreurs sans retransmission.

• Largement utilisée dans les canaux unidirectionnels.

• Grâce à sa capacité de correction en ligne elle est réputée pour être la plus adaptée
aux transmissions hauts débits.

• Le point critique des systèmes FEC est la complexité des circuits de décodage qui
se basent sur le principe du maximum de vraisemblance et visent à minimiser la
probabilité d’erreur de décodage par mot.

• Plusieurs types de codes, structures de codeur et stratégies de décodage ont étés


adoptés selon le type d’application envisagée.
Généralités sur la théorie de l’information

4. Codage du Canal

4.2. Stratégies de codage du canal

4.2.2. Stratégie hybride FEC/ARQ

• Systèmes intermédiaires.

• Leur capacité de correction est supérieure aux stratégies FEC et leur débit de
traitement est supérieur aux stratégies ARQ.

• Dans le cas ARQ en présence d’un canal très bruité, la retransmission des blocs
erronés dégrade considérablement le débit.

• Une solution consiste à intégrer un code correcteur d’erreur dans le système


permettant d’améliorer le débit tout en gardant la même capacité de correction.

• Si le débit n’est pas un paramètre critique, l’association de la retransmission à un


système FEC permet d’améliorer les performances de décodage et même de
réduire la complexité du décodeur.
Généralités sur la théorie de l’information
4. Codage du Canal

4.3. Techniques de codage FEC

4.3.1. Code Bloc

• Le codage en bloc consiste à :

• Fractionner la trame d’information en plusieurs blocs de taille fixe k


• Et transformer chacun des messages en un mot de code de taille n en
appliquant une loi linéaire.

• La redondance associée à chaque bloc est de taille k0, où n=k+k0.

• Le rendement d’un code bloc est donné par R=k/n

• k et n représentent respectivement les nombres de bits en entrée et en sortie du


codeur.

• Les codes sont définis par les paramètres (q, k, n, t) où t le nombre d’erreurs
corrigées par symbole q-aire.
Généralités sur la théorie de l’information
4. Codage du Canal

4.3. Techniques de codage FEC

4.3.1. Code Bloc


Généralités sur la théorie de l’information
4. Codage du Canal

4.3. Techniques de codage FEC

4.3.2. Code de Hamming


• La distance de Hamming  nombre de positions identiques dans deux mots de
code contenant des bits de valeurs différentes.

• Calcul de cette distance : effectuant l’addition modulo 2 entre les deux mots de
code, puis en comptant le nombre de 1 dans le résultat.

• La distance de Hamming entre le mot de code et le mot de code 0  « poids de


Hamming ».

• En d’autres termes, le poids de Hamming est le nombre de 1 dans un mot de


code.

• La distance minimale d’un code est la distance de Hamming la plus petite entre
deux mots de code ci et cj appartenant au même ensemble.
Généralités sur la théorie de l’information
4. Codage du Canal

4.3. Techniques de codage FEC

4.3.2. Code de Hamming

• Pour détecter te erreurs, il est nécessaire d’utiliser un code dont la distance


minimale est au moins égale à te+1.

• Pour corriger te erreurs, il est nécessaire d’utiliser un code dont la distance


minimale est au moins égale à 2te+1.

Exemple: bit de parité

La transmission d’un message de n-1 bits se fait en ajoutant un nème bit.

Ce dernier a pour objectif de garantir que le nombre des 1 dans le message soit
pair.

Ce code permet la détection d’une seule erreur sans pouvoir détecter lequel des
bits est erroné
Généralités sur la théorie de l’information
4. Codage du Canal

4.3. Techniques de codage FEC

4.3.3. Codes Cycliques

• Un code cyclique  tout décalage d’un mot de code C1=(c0,c1,…,cn-1) est un


mot de code valide (exp. C2=(cn-1,c0,…,cn-2) ).

• Les polynômes associés aux deux mots de codes sont:

𝐶1 𝑥 = 𝑐0 + 𝑐1 𝑥 + ⋯ + 𝑐𝑛−1 𝑥 𝑛−1 et 𝐶2 𝑥 = 𝑐𝑛−1 + 𝑐0 𝑥 + ⋯ + 𝑐𝑛−2 𝑥 𝑛−1

• On peut montrer que si xn=1, alors

𝐶𝑖+1 = 𝑥 𝑖 𝐶1 𝑚𝑜𝑑[𝑥 𝑛+1 ]


Généralités sur la théorie de l’information
4. Codage du Canal

4.3. Techniques de codage FEC

4.3.3. Codes Cycliques


𝑔0 𝑔1 … 𝑔𝑚 … 0 0
• Matrice génératrice
0 𝑔0 … … … 0 0
0 0 … … … 0 0
𝐺= …
⋮ ⋮ … ⋮
0 0 … … … 𝑔𝑚 0
0 0 … 𝑔0 … 𝑔𝑚 −1 𝑔𝑚

• m étant la taille de la mémoire du codeur (bascules D).

• La représentation matricielle devient fastidieuse lorsque le nombre des


coefficients dans G augmente.

• La représentation polynomiale serait plus adaptée.


Généralités sur la théorie de l’information
4. Codage du Canal

4.3. Techniques de codage FEC

4.3.3. Codes Cycliques

• Le polynôme générateur du code cyclique est donné par :

𝐺 𝑥 = 𝑔0 + 𝑔1 𝑥 + 𝑔2 𝑥 2 + ⋯ + 𝑔𝑚 𝑥 𝑚

• Le polynôme du mot du code est donné par C(x)

• et le message par le polynôme D(x)

• Les codes cycliques sont implantés grâce aux registres à décalage linéaire
Généralités sur la théorie de l’information
4. Codage du Canal

4.3. Techniques de codage FEC

4.3.3. Codes Cycliques

Exemples
 Codes de Hamming (1946) utilisés dans la norme bluetooth (n=15,k=10) G(x) = (1 + x)(1 + x + x4).

 Code de Golay binaire utilisé par la NASA dans la sonde spatiale Voyager I.

 Codes Reed-Muller (1954) utilisés (années 70) par la sonde Mariner (sur Mars).

 Codes CRC (Cyclic Redundancy Check) (1957) détection d’erreurs (X25, Ethernet, FDDI (Fiber
Distributed Data Interface), ATM-AAL5 3), correction par retransmission.

 Codes BCH (1959-1960) généralisation des codes de Hamming (correction d’erreurs multiples).

 Codes RS largement utilisés dans les lecteurs CD, DVD préconisés par le standard CDPD (Cellular
Digital Packet Data) et la norme DVB-C (Digital Video Broadcasting-cable) concernant les systèmes de
diffusion par câble qui utilisent un code RS (k = 188, n = 204, t = 8)
Chapitre 2:
Modulations analogiques
Modulations Analogiques
1. Introduction

• Modulation  procédé de transformation d’un signal HF dit porteuse par un


signal BF dit modulant.

• Elle permet l’obtention d’un signal modulé mieux adapté.

• Modulation  moyen de représentation de l’information  manière de coder


l’information.
Modulations Analogiques
1. Introduction

• Raisons de la modulations :

• Transposer sans perte d’information le spectre d’un signal dans un autre


domaine de fréquence afin de
• S’adapter aux contraintes d’émission- réception (efficacité et dimensions des
antennes),
• Satisfaire des conditions imposées par une voie de transmission (propagation, largeur
de bande…)
• Ou de faciliter certaines opérations de traitement du signal (changement de
fréquence pour la synchronisation en réception radio ou dans les analyseurs de
spectres à balayage…)

• Le partage d’un canal de communication entre plusieurs signaux transmis


simultanément (multiplexage).

• L’amplification et le filtrage de faibles signaux de basse fréquence en


s’affrichant à un bruit, en particulier, de fond en 1/f.

• Enregistrer des signaux dans le spectre s’étant à la fréquence 0 sur des supports
magnétiques.
Modulations Analogiques
1. Introduction

• La démodulation  l’opération inverse consistant à extraire le signal


information (modulant) du signal modulé.

• Les procédés de modulation sont classés en deux familles : analogiques et


numériques.

• Le signal analogique est totalement décrit par ses trois composantes :


• L’amplitude,
• La fréquence
• Et la phase.

• La modification du signal porteur  une modification d’une ou de plusieurs


paramètres de ce signal.

• Ainsi, on définit les trois procédés de modulations principales :


• La modulation d’amplitude
• La modulation de la fréquence
• La modulation de la phase.
Modulations Analogiques
1. Introduction

• Deux types de modulations analogiques existent suivant le type du signal


porteur:

• Les modulations continues: se basent sur l’utilisation d’une porteuse sinusoïdale

• Les modulations échantillonnées : utilisent des porteuses sous forme


d’impulsions périodiques.

• Les modulations continues comportent la modulation linéaire (ou d’amplitude)


et la modulation angulaire (de fréquence ou de phase).

• Les modulations impulsées, quant à elles, regroupent les modulations


d’impulsion en amplitude, en durée, en position ou en phase.
Modulations Analogiques
2. Modèles généraux
2.1. Modulation à porteuse sinusoïdale

Soient: 𝑢𝑝 𝑡 = 𝑈𝑝 𝑐𝑜𝑠⁡2𝜋𝑓𝑝 𝑡 + 𝜑𝑝 le signal porteur et m(t) le signal modulant.

Le signal modulé aura la forme:


𝑠 𝑡 = 𝑅𝑒 𝑠(𝑡) = 𝑟 𝑡 𝑒𝑥𝑝 𝑗 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝
= 𝑎 𝑡 𝑐𝑜𝑠 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝 − 𝑏 𝑡 𝑠𝑖𝑛 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝
Avec
𝑟 𝑡 = 𝑎 𝑡 + 𝑗𝑏 𝑡 = 𝑟 𝑡 𝑒𝑥𝑝 𝑗∆𝜙 𝑡
Est l’enveloppe complexe associée au signal analytique 𝑠(𝑡)

• Ce dernier contient toute l’information apportée par le signal modulant.

• Selon les procédés de modulation, cette information est portée par l’enveloppe
réelle ou par l’écart de la phase instantanée ou par une combinaison des deux.

• La modulation et la démodulation sont données par les lois:


𝑟 𝑡 = 𝑆𝑚 𝑚 𝑡 , 𝑚 𝑡 = 𝑆𝑑 𝑟 𝑡
Modulations Analogiques
2. Modèles généraux
2.1. Modulation à porteuse impulsionnelle

• Dans le cas où la porteuse est une suite périodique d’impulsions de période T et


de forme g(t/∆), le signal modulé peut se mettre sous la forme générale :
∞ ∞
𝑡 − 𝑘𝑇 − 𝜏𝑘
𝑠 𝑡 = 𝑎𝑘 𝑔 = 𝑎𝑘 𝑔 𝑡 ∆𝑘 ∗ 𝛿 𝑡 − 𝑘𝑇 − 𝜏𝑘
∆𝑘
𝑘=−∞ −∞

Avec ak est un paramètre d’amplitude,


∆k un paramètre de durée
et τk un paramètre de position,

susceptibles de varier en fonction des valeurs échantillonnées du signal modulant.


Modulations Analogiques
3. Modulations linéaires
3.1. Introduction

• Les modulations linéaires sont dites modulation d’amplitude.

• Des techniques de modulation permettant de faire varier l’amplitude de la


porteuse en fonction du signal modulant.

• Les membres de cette famille sont désignés par les appellations conventionnelles
suivantes :
• Modulation d’amplitude avec porteuse AM
• Modulation d’amplitude à porteuse supprimée AM-P
• Modulation à bande latérale unique SSB
• Modulation à bande latérale résiduelle VSB

• Ces modulations obtenues par une opération linéaire qui préserve la


morphologie du spectre unilatéral du signal modulant + translation fréquentielle
vers les hautes fréquences.
Modulations Analogiques
3. Modulations linéaires
3.2. Modulation d’amplitude avec porteuse

• Le signal modulé en amplitude avec porteuse s’écrit :


𝑠 𝑡 = 𝐴𝑈𝑝 𝑐𝑜𝑠⁡2𝜋𝑓𝑝 𝑡

• Où A est un coefficient de modulation ; on distingue deux cas à savoir :

• Si A est constant, l’amplitude du signal modulé reste constant et aucune


modulation n’est signalée.

• La modulation d’amplitude est garantie par la variation de A en fonction du


signal modulant
𝑚 𝑡 = 𝑈𝑚 𝑐𝑜𝑠 2𝜋𝑓𝑚 𝑡 .
• Dans ce dernier cas, A s’écrit
𝐴 = 1 + 𝑈𝑚 𝑈𝑝 𝑐𝑜𝑠 2𝜋𝑓𝑚 𝑡

Où: 𝑀 = 𝑈𝑚 𝑈𝑝 est le coefficient de la modulation de l’amplitude.

Le signal modulé s’écrit:


𝑠 𝑡 = 𝑈𝑝 𝑐𝑜𝑠 2𝜋𝑓𝑝 𝑡 + 𝑀 2 𝑈𝑝 𝑐𝑜𝑠 2𝜋 𝑓𝑝 + 𝑓𝑚 𝑡 + 𝑐𝑜𝑠 2𝜋 𝑓𝑝 − 𝑓𝑚 𝑡
Modulations Analogiques
3. Modulations linéaires
3.2. Modulation d’amplitude avec porteuse

• La modulation en amplitude est un procédé de multiplication entre les fonctions


temporelles relatives au signal modulé et à la porteuse.

• Le résultat est un signal modulé comportant toute l’information dans son


enveloppe.
Modulations Analogiques
3. Modulations linéaires
3.2. Modulation d’amplitude avec porteuse

En comparant avec le modèle général, on peut écrire : 𝑟 𝑡 = 1 + 𝑚0 𝑡 .

• Trois cas de figure se présentent suivant la valeur de M à avoir :


Modulations Analogiques
3. Modulations linéaires
3.2. Modulation d’amplitude avec porteuse

• Sur le plan spectral :


Modulations Analogiques
3. Modulations linéaires
3.2. Modulation d’amplitude avec porteuse

• Avantage:
Si 1 + 𝑚0 𝑡 𝑈𝑝 ≥ 0,
 Une simple démodulation par détection d’enveloppe est possible.

• Cette modulation est encore largement utilisée en radiodiffusion (ondes longues,


moyennes et courtes).

• Inconvénient:
Une large part de la puissance est concentrée à qui ne contiennent aucune
information.

Pour un signal sinusoïdal d’amplitude l’unité:


La puissance des bandes latérales est:
𝑃𝑚 0 = Φ𝑚 0 𝑓 𝑑𝑓 = 0,5

Le rapport de la puissance des bandes latéral à celle totale est


𝑃𝑚 0
𝜂𝑚 = = 33,3%
1 + 𝑃𝑚 0
Modulations Analogiques
3. Modulations linéaires
3.3. Modulation d’amplitude sans porteuse
Modulations Analogiques

3. Modulations linéaires
3.3. Modulation d’amplitude sans porteuse

• La largeur de bande Bs est la même qu’en modulation avec porteuse, mais les
raies aux fréquences ±fp ont disparue.

• La totalité de la puissance émise est concentrée sur les bandes latérales


contenant toute l’information : le rendement est ainsi amélioré (100%).

• La démodulation se base sur une détection isochrone qui exige une


reconstitution de la porteuse.

• Le désavantage majeur de la modulation sans porteuse: la puissance est divisée


sur les deux bandes latérales qui portent toutes les deux la même information.
Modulations Analogiques
3. Modulations linéaires
3.4. Modulation à bande latérale unique

• La puissance d’émission est divisée sur les deux bandes latérales

• Chaque bande porte exactement la même information que l’autre

• L’idéal est de transmettre une seule bande latérale.

• Utilisée en téléphonie dans les installations de multiplexage fréquentiel appelées


systèmes à courants porteurs et nécessite une détection isochrone.

• Deux manières:
Modulations Analogiques
3. Modulations linéaires
3.5. Modulation à bande latérale unique

• Le signal de sortie est:


𝑈𝑝
𝑠 𝑡 = 𝑚0 𝑡 𝑐𝑜𝑠 2𝜋𝑓𝑝 𝑡 + 𝛼𝑝 − 𝑚0 𝑡 𝑠𝑖𝑛 2𝜋𝑓𝑝 𝑡 + 𝛼𝑝
2
• Le choix de la bande latérale se fait en choisissant la sommation ou la
soustraction.
Modulations Analogiques
3. Modulations linéaires
3.5. Modulation à bande latérale résiduelle

• La modulation à bande résiduelle (BLR) : un compromis entre la modulation à


bande latérale unique et la modulation d’amplitude.

• Conserver un vestige de la bande latérale non-désirée afin de :


• diminuer les exigences imposées par le filtre de bande latérale
• et de faciliter la transmission d’un signal dont les composantes BF sont
importantes.

• Par exemple la bande passante du signal modulé dans le cas d’une transmission
vidéo est: Bs= 5/4 Bm
Modulations Analogiques
3. Modulations linéaires
3.5. Modulation à bande
unilatérale résiduelle

• La fonction de transfert du filtre G(f)


est à symétrie impaire au voisinage de
la fréquence porteuse

• Si la modulation utilisée se base sur


AM, la démodulation est forcément
synchrone.

• Le maintien de la porteuse permet


d’utiliser une détection d’enveloppe en
introduisant une distorsion tolérable si
m0(t)<<1 comme le cas de la
télévision.
Modulations Analogiques
3. Modulations linéaires
3.6. Démodulation par détection synchrone

• Analogue à la modulation d’amplitude.

• On multiplie le signal modulé par un signal auxiliaire périodique de même


fréquence que la porteuse

• Et on filtre le signal pour n’en garder que l’information basse-fréquence.


Modulations Analogiques
3. Modulations linéaires
3.6. Démodulation par détection synchrone

 Cas où le signal auxiliaire est une réplique de la porteuse de phase 𝜑𝑑 et


d’amplitude unité :
𝑢𝑑 𝑡 = 𝑐𝑜𝑠 2𝜋𝑓𝑝 𝑡 + 𝜑𝑑

 Etant donné le signal modulé donné par l’équation :

𝑠 𝑡 = 𝑎 𝑡 𝑐𝑜𝑠 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝 − 𝑏 𝑡 𝑠𝑖𝑛 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝

 Le signal de sortie du multiplicateur est donné par :


1
𝑦 𝑡 = 𝑎 𝑡 𝑐𝑜𝑠 𝜑𝑝 − 𝜑𝑑 − 𝑏 𝑡 𝑠𝑖𝑛 𝜑𝑝 − 𝜑𝑑
2
1
+ 𝑎 𝑡 𝑐𝑜𝑠 4𝜋𝑓𝑝 𝑡 + 𝜑𝑝 + 𝜑𝑑 − 𝑏 𝑡 𝑠𝑖𝑛 4𝜋𝑓𝑝 𝑡 + 𝜑𝑝 + 𝜑𝑑
2
Modulations Analogiques
3. Modulations linéaires
3.6. Démodulation par détection synchrone

 Soit un filtre passe bas avec 𝑓𝑐 < 2𝑓𝑝 − 𝐵𝑚

 le résultat du filtrage serait :


1
𝑑 𝑡 = 𝑎 𝑡 𝑐𝑜𝑠 𝜑𝑝 − 𝜑𝑑 − 𝑏 𝑡 𝑠𝑖𝑛 𝜑𝑝 − 𝜑𝑑
2

 L’operateur de la démodulation:
1
𝑑 𝑡 = 𝑆𝑑 𝑟 𝑡 = 𝑅𝑒 𝑟 𝑡 𝑒 𝑗 𝜑 𝑝 −𝜑 𝑑
2

 La détection est isochrone ou cohérente si 𝜑𝑝 = 𝜑𝑑 .

1
 Dans ce cas nous obtenons 𝑑 𝑡 = 𝑆𝑑 𝑟 𝑡 = 𝑎(𝑡).
2
Modulations Analogiques
3. Modulations linéaires
3.6. Démodulation par détection synchrone

𝑑 𝑡
𝑟 𝑡
synchrone isochrone
AM 𝑈𝑝 1 + 𝑚0 𝑡 𝑈𝑝 𝑈𝑝
1 + 𝑚0 𝑡 𝑐𝑜𝑠∆𝜑 1 + 𝑚0 𝑡
2 2
AM-P 𝑈𝑝 𝑚0 𝑡 𝑈𝑝 𝑈𝑝
𝑚 𝑡 𝑐𝑜𝑠∆𝜑 𝑚 𝑡
2 0 2 0
SSB 𝑈𝑝 𝑈𝑝 𝑈𝑝
𝑚0 𝑡 + 𝑗𝑚0 𝑡 𝑚0 𝑡 𝑐𝑜𝑠∆𝜑 𝑚 𝑡
2 4 4 0
− 𝑚0 𝑡 𝑠𝑖𝑛∆𝜑
VSB 𝑈𝑝 𝑈𝑝 𝑈𝑝
1 + 𝑚0 𝑡 + 𝑗𝑚0 𝑡 1 + 𝑚0 𝑡 cos ∆𝜑 1 + 𝑚0 𝑡
2 4 4
+ℎ 𝑡 − 𝑚0 𝑡
∗ ℎ 𝑡 𝑠𝑖𝑛∆𝜑
Modulations Analogiques
3. Modulations linéaires
3.6. Démodulation par détection synchrone

• S’il s’agit des démodulations AM et VSB avec porteuse:

 le signal modulant est déduit du signal d(t) par élimination d’une composante
continue (filtrage passe-haut).

• Une détection synchrone permet d’avoir le signal démodulé en SSB ou VSB avec
une distorsion qui dépend de la transformé d’Hilbert du signal modulant.

 Cette distorsion peut être très sévère si le signal modulant est impulsionnel.

• La détection synchrone nécessite une reconstruction d’une fonction périodique


synchrone avec le signal porteur.

 Transmission additionnelle d’un signal de synchronisation adéquat.

Ou l’extraction directe de cette information du signal modulé.


Modulations Analogiques
3. Modulations linéaires
3.7. Démodulation par détection d’enveloppe

• Sous certaines conditions, on utilise une simple détection d’enveloppe.

• Technique largement utilisée dans les récepteurs AM de radiodiffusion.

• Utilisée dans le cas d’une modulation d’amplitude avec porteuse et, moyennant
une certaine distorsion, aux modulations SSB et VSB avec maintien –ou
réinsertion- d’une porteuse.

• L’enveloppe complexe d’un signal modulé linéairement est donnée par:

𝑟 𝑡 = 𝑎 𝑡 + 𝑗𝑏 𝑡 = 𝑘𝑈𝑝 1 + 𝑚0 𝑡 + 𝑗𝑚0 𝑡 ∗ ℎ 𝑡
Où :

 𝑘 = 1 et 𝑏 𝑡 = 𝑈𝑝 𝑚0 𝑡 ∗ ℎ 𝑡 = 0 en AM
 𝑘 = 1 2 et 𝑏 𝑡 = 1 2 𝑈𝑝 𝑚0 𝑡 en SSB (ℎ 𝑡 = 𝛿 𝑡 )
Modulations Analogiques
3. Modulations linéaires
3.7. Démodulation par détection d’enveloppe

Dans le cas d’une modulation AM, 𝑏(𝑡) = 0 et donc :

𝑟 𝑡 = 𝑟 𝑡 = 𝑎 𝑡 = 𝑘𝑈𝑝 1 + 𝑚0 𝑡

Si 𝑚0 𝑡 ≥ −1

la démodulation par détection d’enveloppe permet de retrouver un signal


proportionnel au signal modulant.

Dans une modulation SSB ou VSB avec porteuse, le terme 𝑏(𝑡) ≠ 0.


Toutefois, si 𝑏 𝑡 ≪ 𝑎 𝑡 , on obtient le même résultat.

La distorsion résiduelle due à la composante en quadrature est négligeable si


𝑚 𝑡 ≪ 1.
Modulations Analogiques
3. Modulations linéaires
3.7. Démodulation par détection d’enveloppe

• Un détecteur d’enveloppe est un dispositif non linéaire

• Composé d’un opérateur de valeur absolue (redresseur bipolaire) et un


filtre passe-bas éliminant les composantes redressées indésirables
Modulations Analogiques
3. Modulations linéaires
3.7. Démodulation par détection d’enveloppe
Si le signal d’entrée est modulé en amplitude avec porteuse :

𝑟 𝑡 = 𝑎 𝑡 = 1 + 𝑚0 𝑡 𝑈𝑝 et 𝑥 𝑡 = 𝑠 𝑡 = 𝑎 𝑡 𝑐𝑜𝑠 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝

d’où :
𝑦 𝑡 = 𝑠 𝑡 = 𝑎 𝑡 𝑐𝑜𝑠 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝
En utilisant le développement en séries de Fourier


2 −1 𝑛
𝑦 𝑡 = 𝑎 𝑡 1+2 𝑐𝑜𝑠 2𝑛 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝
𝜋 4𝑛2 − 1
𝑛=1

Si 𝑓𝑐 < 2𝑓𝑝 − 𝐵𝑚 le signal démodulé devient :

2 2
𝑑 𝑡 = 𝑎 𝑡 = 𝑈𝑝 1 + 𝑚0 𝑡
𝜋 𝜋

Le même résultat est encore obtenu.


Modulations Analogiques
3. Modulations linéaires
3.7. Démodulation par détection d’enveloppe
• Un autre type de détecteur d’enveloppe:

Le signal d’entrée :
𝑥 𝑡 = 𝑠 𝑡 = 𝑎 𝑡 𝑐𝑜𝑠 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝
Le signal de sortie de l’operateur du quadrateur :
1 1
𝑦 𝑡 = 𝑥 2 𝑡 = 𝑎2 𝑡 + 𝑎2 𝑡 𝑐𝑜𝑠 4𝜋𝑓𝑝 𝑡 + 2𝜑𝑝
2 2

Le signal 𝑎 𝑡 = 𝑈𝑝 1 + 𝑚0 𝑡 possède un spectre dans le domaine fréquentiel 𝑓 ≤ 𝐵𝑚 .

Le terme 𝑎2 𝑡 a un spectre dans le domaine 𝑓 ≤ 2𝐵𝑚 .

La multiplication par 𝑐𝑜𝑠 4𝜋𝑓𝑝 𝑡 + 2𝜑𝑝 translate ce spectre de ±2𝑓𝑝 .

Si 𝑓𝑝 > 2𝐵𝑚 un filtrage passe-bas de 𝑓𝑐 < 2 𝑓𝑝 − 𝐵𝑚  premier terme de y(t)


Modulations Analogiques
3. Modulations linéaires
3.7. Démodulation par détection d’enveloppe
• Un autre type de détecteur d’enveloppe:

1 2 𝑈𝑝2
𝑧 𝑡 = 𝑎 𝑡 = 1 + 𝑚0 𝑡 2
2 2
A la sortie de l’opérateur racine carrée, on obtient :
1 𝑈𝑝
𝑑 𝑡 = 𝑎 𝑡 = 1 + 𝑚0 𝑡
2 2
Encore une fois un résultat analogue.

Si 𝑚 𝑡 ≪ 1,

le signal de sortie du filtre(𝑧 𝑡 ≈ 𝑈𝑝2 2 + 𝑈𝑝2 𝑚0 𝑡 ) peut être utilisé directement pour
obtenir une bonne approximation du signal modulant.
Modulations Analogiques
3. Modulations linéaires
3.7. Démodulation par détection d’enveloppe

• En pratique, le détecteur d’enveloppe est souvent réalisé comme:


Modulations Analogiques
3. Modulations linéaires
3.8. Analogie entre détection d’enveloppe et détection synchrone

L’expression du signal après redressement :


𝑦 𝑡 = 𝑠 𝑡 = 𝑎 𝑡 𝑐𝑜𝑠 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝

est équivalente, si 𝑟 𝑡 = 𝑎 𝑡 ≥ 0, à
𝑦 𝑡 = 𝑥 𝑡 𝑢𝑑 𝑡 = 𝑎 𝑡 cos 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝 . 𝑠𝑔𝑛 cos 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝

𝑢𝑑 𝑡 = 𝑠𝑔𝑛 cos 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝 : onde synchrone et cohérente (isochrone si 𝜑𝑝 = 𝜑𝑑 )


avec la porteuse.

Ce qui établit une relation avec la détection synchrone.


Modulations Analogiques
3. Modulations linéaires
3.9. Présence du bruit

Considérons un signal du bruit 𝑛 𝑡 ,

Le signal à l’entrée du démodulateur est :


𝑥 𝑡 =𝑠 𝑡 +𝑛 𝑡

Le bruit à spectre passe-bande limité à la même bande de fréquence que celle du signal
𝑠 𝑡 .

Il peut être exprimé comme :

𝑛 𝑡 = 𝑎𝑛 𝑡 𝑐𝑜𝑠 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝 − 𝑏𝑛 𝑡 𝑠𝑖𝑛 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝

𝑎𝑛 𝑡 et 𝑏𝑛 𝑡 : composantes en phase et en quadrature ayant la même puissance que 𝑛 𝑡 .

Si 𝑛 𝑡 est gaussien alors elles le sont aussi.


Modulations Analogiques
3. Modulations linéaires
3.9. Présence du bruit
Le rapport signal sur bruit à l’entrée du démodulateur est
𝜉𝑥 = 𝑃𝑠 𝑃𝑛

𝑃𝑠 peut être évaluée dans les différentes cas de modulation (intégration des densités
spectrales correspondantes.)

Le bruit possède une densité spectrale constante 𝜂 2,

Sa puissance 𝑃𝑛 = 2𝜂𝐵𝑚 en AM et AM-P et 𝑃𝑛 = 𝜂𝐵𝑚 en SSB.

En cas de démodulation par détection synchrone, Le signal démodulé devient :


1
𝑑 𝑡 = 𝑘𝑈𝑝 𝑚0 𝑡 + 𝑎𝑛 𝑡
2

Où 𝑘 = 1 en AM et AM-P et 𝑘 = 1/2 en SSB.


Modulations Analogiques
3. Modulations linéaires
3.9. Présence du bruit
Le rapport signal sur bruit après détection :

𝜉𝑑 = 𝑘 2 𝑈𝑝2 𝑃𝑚 0 𝑃𝑛

2
Où 𝑃𝑚 0 = 𝑃𝑚 𝑈𝑚 est le coefficient de puissance du signal modulant.

L’efficacité (immunité au bruit) de la démodulation  le rapport 𝜉𝑑 𝜉𝑥 .

Pour une comparaison globale des systèmes de modulation-démodulation,


On définit un facteur de mérite 𝜉𝑑 𝜉0

𝜉𝑑 rapport signal sur bruit après démodulation

𝜉0 = 𝑃𝑠 𝜂𝐵𝑚 et d’un rapport signal sur bruit fictif.


Modulations Analogiques
3. Modulations linéaires
3.9. Présence du bruit

𝜉0  rapport S/N d'une transmission directe d'un signal de puissance équivalente à 𝑃𝑠 ,


affectée par le même bruit de densité spectrale Φn 𝑓 = 𝜂 2
2
filtré par un filtre passe-bas de caractéristique 𝐺 𝑓 = 𝑟𝑒𝑐𝑡 𝑓 2𝐵𝑚 .
Ce facteur de mérite montre que les systèmes AM-P et SSB sont équivalents et dans tous les
cas supérieurs au système AM.

𝐵𝑠 𝑃𝑠 𝑃𝑚 𝜉𝑑 𝜉𝑥 𝜉𝑑 𝜉0

AM 2𝐵𝑚 1 2 2𝜂𝐵𝑚 2𝑃𝑚 0 𝑃𝑚 0


𝑈 1 + 𝑃𝑚 0 2𝑃𝑚 0 < <2 𝑃𝑚 0 < <1
2 𝑝 1 + 𝑃𝑚 0 1 + 𝑃𝑚 0
AM- 2𝐵𝑚 1 2 2𝜂𝐵𝑚 2 1
𝑈𝑝 𝑃𝑚 0
P 2
SSB 𝐵𝑚 1 2 𝜂𝐵𝑚 1 1
𝑈𝑝 𝑃𝑚 0
2
Modulations Analogiques
4. Modulations angulaires
 Lutter contre le bruit en modulation linéaire  d’augmenter la puissance d’émission.

 Les modulations angulaires : meilleure immunité contre le bruit au prix d’un


élargissement de la bande spectrale du signal modulé.

 Les modulations angulaires  chagement de la fréquence ou de la phase de la


porteuse en fonction du signal modulé.

 Ll’enveloppe complexe s’écrit :


𝑟 𝑡 = 𝑈𝑝 𝑒 𝑗 ∆Φ(𝑡)

 L’argument ∆Φ(𝑡) est une fonctiondu signal modulant. Le signal modulé s’écrit :
𝑠 𝑡 = 𝑅𝑒 𝑟 𝑡 𝑒𝑥𝑝 𝑗 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝
= 𝑈𝑝 𝑅𝑒 𝑒𝑥𝑝 𝑗 2𝜋𝑓𝑝 𝑡 + ∆Φ 𝑡 + 𝜑𝑝
= 𝑈𝑝 𝑐𝑜𝑠 2𝜋𝑓𝑝 𝑡 + ∆Φ 𝑡 + 𝜑𝑝
Modulations Analogiques
4. Modulations angulaires
 Si l’argument ∆Φ(𝑡) est proportionnel au signal modulant
 modulation de phase (PM).
∆Φ(𝑡) = 𝛽𝑚 𝑡

 Si la dérivée temporelle de ∆Φ 𝑡 est directement proportionnelle au signal modulant


 modulation de fréquence (FM).
1 𝑑∆Φ 𝑡
∆𝑓 𝑡 = = 𝜎𝑚 𝑡
2𝜋 𝑑𝑡
 Les constantes de proportionnalité 𝛽 et 𝜎 sont des facteurs arbitraires mesurées en rad/V et en
Hz/V, respectivement, si m(t) est une tension.

 ∆Φ 𝑡 et ∆𝑓 𝑡 sont les déviations de phase et de fréquence, respectivement.

 Le signal modulé peut être directement produit par un oscillateur électronique dont la
fréquence est asservie au signal modulant (VCO : Voltage-controled oscillator).

 Il est à noter qu’une modulation de phase peut être utilisée au lieu d’une modulation de
fréquence en dérivant au préalable le signal modulant et vice-vers-ça.
Modulations Analogiques
4. Modulations angulaires
Modulations Analogiques
4. Modulations angulaires
4.1.Le spectre des modulation angulaires
 Le signal modulé :
𝑠 𝑡 = 𝑈𝑝 𝑡 𝑅𝑒 𝑒𝑥𝑝 𝑗 2𝜋𝑓𝑝 + 𝜑𝑝 𝑒𝑥𝑝 𝑗∆Φ 𝑡

 En utilisant le développement en série de Taylor :


∆Φ2 𝑡 ∆Φ3 𝑡
𝑠 𝑡 = 𝑈𝑝 𝑡 𝑅𝑒 𝑒𝑥𝑝 𝑗 2𝜋𝑓𝑝 + 𝜑𝑝 . 1 + 𝑗∆Φ 𝑡 − −𝑗 +⋯
2! 3!

 Il est à noter qu’une expression générale du spectre 𝑆 𝑓 du signal modulé est pratiquement
impossible à cause de la présence des contributions non-linéaire de ∆Φ 𝑡 .

 En plus, ces contributions font que le spectre ait une largeur infinie.

 Ces contributions deviennent négligeables lorsque la fréquence augmente.

 Plusieurs approximations peuvent être faites pour l’obtention d’une expression analytique.
Modulations Analogiques
4. Modulations angulaires
4.2. Cas d’une modulation à faible niveau
 Si l’écart type de la phase ∆Φ 𝑡 est faible 𝜎 ≪ 1 ,
 Le signal modulé peut s’écrire :
𝑠 𝑡 = 𝑈𝑝 𝑐𝑜𝑠 2𝜋𝑓𝑝 𝑡 + ∆Φ(𝑡) + 𝜑𝑝
= 𝑈𝑝 𝑐𝑜𝑠 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝 − ∆Φ(𝑡) sin 2𝜋𝑓𝑝 𝑡 + 𝜑𝑝
 Le spectre:
𝑈𝑝 𝑈𝑝
𝑆 𝑓 = 𝛿 𝑓 + 𝑓𝑝 + 𝛿 𝑓 − 𝑓𝑝 + Φ 𝑓 + 𝑓𝑝 + Φ 𝑓 − 𝑓𝑝
2 2
Φ 𝑓 est la spectre de ΔΦ.
 Remarque :
Analogie avec l’AM
Cette modulation souvent qualifiée de bande étroite.
Modulations Analogiques
4. Modulations angulaires
4.2. Cas d’une modulation à faible niveau
Algorithme d’Armstrong

 Si l’on considère que l’écart type de la phase ∆Φ t est important σ ≫ 1 ,


l’approximation précedente n’est plus valable.
 Le spectre du siganl modulé est alors dit à large bande.
 D’autres approximations peuvent être considérées
Modulations Analogiques
4. Modulations angulaires
4.3. Cas du signal modulant sinusoïdal

 Le spectre du signal modulé peut être exactement déterminé.


 Les déviation en phase et en fréquence s’écrivent :
∆Φ t = 𝛽𝑈𝑚 𝑠𝑖𝑛 2𝜋𝑓𝑚 𝑡 = ∆Φmax 𝑠𝑖𝑛 2𝜋𝑓𝑚 𝑡
∆𝑓 𝑡 = 𝛽𝑈𝑚 𝑓𝑚 𝑐𝑜𝑠 2𝜋𝑓𝑚 𝑡 = ∆𝑓𝑚𝑎𝑥 𝑐𝑜𝑠 2𝜋𝑓𝑚 𝑡

 La déviation maximale 𝛿 = ∆Φmax est dite indice de modulation.


 Dans le cas d’une modulation en fréquence cet indice est 𝛿 = ∆𝑓𝑚𝑎𝑥 𝑓𝑚 .

 L’enveloppe complexe du signal modulé devient :


𝑟 𝑡 = 𝑈𝑝 𝑒𝑥𝑝 𝑗𝛿𝑠𝑖𝑛 2𝜋𝑓𝑚 𝑡
Modulations Analogiques
4. Modulations angulaires
4.3. Cas du signal modulant sinusoïdal
𝑟 𝑡 = 𝑈𝑝 𝑒𝑥𝑝 𝑗𝛿𝑠𝑖𝑛 2𝜋𝑓𝑚 𝑡
 Fonction périodique, de période 𝑇 = 1 𝑓𝑚 ,
 Elle peut être développée en série de Fourier (identité de Bessel-Jacobi) :

𝑒𝑥𝑝 𝑗𝛿𝑠𝑖𝑛 2𝜋𝑓𝑚 𝑡 = 𝐽𝑛 𝛿 𝑒𝑥𝑝 𝑗2𝜋𝑛𝑓𝑚 𝑡


𝑛=−∞
 L’envoloppe complexe:

𝑟 𝑡 = 𝑈𝑝 𝐽𝑛 𝛿 𝑒𝑥𝑝 𝑗2𝜋𝑛𝑓𝑚 𝑡
𝑛=−∞
 Le signal modulé:

𝑠 𝑡 = 𝑈𝑝 𝐽𝑛 𝛿 𝑐𝑜𝑠 2𝜋 𝑛𝑓𝑚 + 𝑓𝑝 𝑡 + 𝜑𝑝
𝑛=−∞
Modulations Analogiques
4. Modulations angulaires
4.3. Cas du signal modulant sinusoïdal
 La série étant infinie mais les coefficients 𝐽𝑛 𝛿 tendent rapidement vers 0 en
tendant n vers l’infini.
 La largeur de la bande utile reste donc bornée
 Elle peut être estimée par la règle empirique de Carson :
𝐵𝑠 = 2 ∆𝑓 + 𝑓𝑚 = 2 𝛿 + 1 𝑓𝑚
 A faible niveau 𝛿 ≪ 1 , la bande utile vérifie 𝐵𝑠 ≈ 2𝑓𝑚 , et seules les raies aux
fréquences 𝑓𝑝 et 𝑓𝑝 ± 𝑓𝑚 ayant des amplitudes non négligeable.
Modulations Analogiques
4. Modulations angulaires
4.4. Démodulation FM
 La démodulation angulaire se base sur un simple processus.

 En effet, il suffit de deriver l’argument du signal modulé


1 𝑑 1 𝑑
𝑑 𝑡 = 𝑆𝑑 𝑟 𝑡 = 𝑎𝑟𝑔 𝑟 𝑡 = 𝑘 ∆Φmax
2𝜋 𝑑𝑡 2𝜋 𝑑𝑡

 Une démodulation indirecte de la phase  la mise en cascade d’un démodulateur de


fréquence et un circuit intégrateur.

 Plusieurs méthodes de démodulations sont utilisées :


 La conversion FM/AM suivit d’une détéction d’enveloppe
 La conversion FM/PFM (impulsions modulées en fréquence) suivit d’un moyennage
temporel
 Détection par asservissement de phase.
Modulations Analogiques
4. Modulations angulaires
4.4. Démodulation FM
a. Convertisseur FM/AM

 Un operateur dérivateur  convertessieur FM/AM idéal.


 En effet, le module de sa fonction de transfert est proportionnelle à la fréquence.
𝐺 𝑓 = 2𝜋𝑓
 Signal d’entrée 𝑠 𝑡 = 𝑈𝑝 𝑐𝑜𝑠 𝜔𝑝 𝑡 + ∆𝜙 𝑡 ,
 La sortie du dérivateur est donnée par :
𝑑𝑠 𝑑Δ𝜙(𝑡)
𝑦 𝑡 = = −𝑈𝑝 𝜔𝑝 + 𝑠𝑖𝑛 𝜔𝑝 𝑡 + ∆𝜙 𝑡
𝑑𝑡 𝑑𝑡
𝑑Δ𝜙 𝑡
 En modulation de fréquence : 𝑑𝑡 = 2𝜋𝜎𝑚(𝑡).
Tant que Δ𝑓 = 𝜎𝑚 𝑡 < 𝑓𝑝 , la sortie du detecteur d’enveloppe est donnée par :
𝑑 𝑡 = 𝑈𝑝 2𝜋𝜎𝑚 𝑡 = 𝑘1 𝑚(𝑡)
 Les éventuelles fluctuations d’amplitude du signal démodulé sont évitées par la
mise d’un montage écrêteur en amont du convertisseurs FM/AM.
Modulations Analogiques
4. Modulations angulaires
4.4. Démodulation FM

b. Convertisseur FM/FPM
 Cette conversion se fait par le comptage des passages par zero du signal
 Une impulsion est générée à chaque instant tn du passage.
 Ainsi la sortie du convertisseur est une suite d’impulsions dont la densité est fonction
de la fréquence instantanée de s(t).
𝑧 𝑡 = 𝐺𝛿(𝑡 − 𝑡𝑛 )
𝑛
 Le moyenneur temporel, est un dispositif permettant de calculer la moyenne glissante
de z(t) sur l’intervalle 𝑓𝑝 −1 ≪ 𝑇 ≪ 𝐵𝑚 −1 .
𝑡
1
𝑑 𝑡 = 𝑧 𝑡 ′ 𝑑𝑡 ′ = 𝑑0 + 𝑘2 𝑚(𝑡)
𝑇
𝑡−𝑇
 Cette méthode permet une démodulation très linéaire pour des déviations de fréquences
assez larges (instrumentation, télémétrie, enregistreurs de mesure…)
Modulations Analogiques
4. Modulations angulaires
4.4. Démodulation FM
c. La démodulation par PLL
 Le principe de la boucle à phase asservie (PLL) remonte à 1932,
 Henri Bellescize a inventé le principe de la régulation de phase 
amélioration de la réception des signaux radiofréquences.
 Il a fallut attendre une vingtaine d’année pour que les circuit à base de
semiconducteurs permettent la mise en pratique de ce principe.
 La PLL est, de nos jours, un des composants les plus utilisés en traitement du
signal.
 Principe :
 un oscillateur controlé en tension (VCO) produit un signal périodique
𝑢𝑑 𝑡 .
 La boucle essaie de rendre ud synchrone avec s(t).
 ainsi, pour un signal, de référence, modulé en fréquence, la tension de
commande du VCO varie proportionnellement à la déviation de la
fréquence.
Modulations Analogiques
4. Modulations angulaires
4.4. Démodulation FM

3 composant d’une PLL :


1) Le comparateur de phase :
 Il a pour sortie une tension alternative w dont la valeur moyenne est
proportionnelle au déphasage entre ud et s.
 Le comparateur de phase est caractérisé par le coefficient Kd suivant :
𝑤
𝐾𝑑 = [V/rad]
𝜑
Modulations Analogiques
4. Modulations angulaires
4.4. Démodulation FM

3 composant d’une PLL :


2) Le VCO :
 Oscillateur permettant de donner un signal dont la fréquence dépend de la tension
de commande d.
 L’oscillateur est linéarisé autour de la fréquence centrale f0 et caractérisé par sa
pente :
∆𝜔𝑢 𝑑
𝐾0 = 𝑟𝑎𝑑/𝑠𝑉
∆𝑢𝑑
Modulations Analogiques
4. Modulations angulaires
4.4. Démodulation FM

3 composant d’une PLL :


2) Le VCO :
 Oscillateur permettant de donner un signal dont la fréquence dépend de la tension
de commande d.
 L’oscillateur est linéarisé autour de la fréquence centrale f0 et caractérisé par sa
pente :
∆𝜔𝑢 𝑑
𝐾0 = 𝑟𝑎𝑑/𝑠𝑉
∆𝑢𝑑
Modulations Analogiques
4. Modulations angulaires
4.4. Démodulation FM

3) Le passe-bas:
permet de détecter la valeur moyenne en rejettant les harmoniques.
Définitions :
On appelle plage de capture ou plage d’accrochage, l’écart de la fréquence à partir
duquel la PLL se verouille.
On appelle plage de verouillage ou plage de maintien, l’écart de fréquence à partir
duquel la PLL est dévérouillée
Remarques :
 Ces écarts sont obtenus par rapport à la fréquece centrale f0.
 La plage de capture dépend de la bande passante du filtre.
Modulations Analogiques
4. Modulations angulaires
4.4. Démodulation FM
Modulations Analogiques
4. Modulations angulaires
4.4. Démodulation FM
Le fonctionnement de la PLL est simple.
 Dans le cas où la PLL n’a pas un signal d’entrée ou si la fréquence du signal
est en dehors de la plae de fonctionnement du VCO ([fmin, fmax]), la boucle est
non-verouillée et fs=f0.
 Si le signal d’entrée est de fréquence fe voisine de f0, la PLL se verrouille et on
aboutit au bout de moins de 100ms à un état de stabilité où fs=fe.
 Une fois que la boucle est verouillée ou accrochée, la fréquence d’entrée peut
varier dans la plage de verouillage sans que la PLL ne décroche et on a
toujours fs=fe.
 Si la fréquence d’entrée sort de la plage de verouillage, la PLL décroche et on
revient à la situation de la boucle non-verrouillée. (une situation indésirable en
pratique).
Chapitre 3:
Modulations Numériques
Modulations Numériques
Introduction

 Lors d’une transmission numérique, le message est discrèt.


 Une suite de n bits ne peut avoir que M=2n valeurs différentes.
 La modulation s’avère une nécessité.
 Objectif du destinataire trouver la suite de symboles transmise et non pas
le signal de transmission.
 Les types de modulation les plus fréquents sont :
 Modulation par déplacement d’amplitude ASK (Amplitude Shift Keying)
 Mosulation par déplacement de fréquence FSK ( Frequency Shift Keying)
 Modulation par déplacement de la phase PSK (Phase Shift Keying)
 Modulation d’amplitude par deux porteuse en quadrature QAM
(Quadrature Amplitude Modulation)
Modulations Numériques
Définitions

On appel Rapidité de modulation R (en bauds) le nombre de changements


d’états par unité du temps d’un ou plusieurs paramètres modifiés
simultanément.

Le taux d’erreur par bit TEB est une caractéristique de la qualité du canal.
C’est le rapport du nombre des bits erronés au nombre des bits transmis.

On definit l’efficacité spectrale η (bit/s²) par


𝜂 = 𝐷/𝐵.
Dans le cas d’un signal M-aire, l’efficacité est donnée par
𝐷
𝜂= . log 2 𝑀 ( bits/s²).
𝑅.𝐵
En augmentant le nombre des bits par symble, l’efficacité s’améliore.
Modulations Numériques
Modulations ASK et M-ASK

 Principe simple,
o ‘1’ logique la porteuse est présente
o ‘0’ logique elle est absente.

 Le signal modulé s’écrit :


𝑠 𝑡 = 𝐴 𝑚 𝑡 cos 2𝜋𝑓𝑐 𝑡
 Avec 0 ≤ 𝑡 ≤ 𝑇, où T est la durée d’un bit.
𝐴2
 La puissance de ce signal est 𝑃 = .
2
Et donc

𝑠 𝑡 = 𝐸 2/𝑇 cos 2𝜋𝑓𝑐 𝑡


E étant l’énergie contenue dans la durée du bit.
Modulations Numériques
Modulations ASK et M-ASK

Considèrons la base orthonormale suivante :


∅1 𝑡 = 2/𝑇 cos 2𝜋𝑓𝑐 𝑡 ,
L’espace signal ou encore le diagramme de constellation est

Remarque:

Nous avons E=PT ce qui fait que toutes les expressions de s(t) contiennent, au lieu de
E, une racine carrée de E
Modulations Numériques
Modulations ASK et M-ASK
Le spectre du signal est donné par :
𝐴 𝐴
𝑆 𝑡 = 𝑀 𝑓 − 𝑓𝑐 + 𝑀 𝑓 + 𝑓𝑐
2 2
Modulations Numériques
Modulations ASK et M-ASK
 En général, le signal utilisé dans la transmission numérique n’est pas binaire
 Mais M-binaire.
 Ainsi le signal modulé s(t) est définit par :
𝐴 cos 2𝜋𝑓𝑐 𝑡 𝑠𝑖 0 ≤ 𝑡 ≤ 𝑇
𝑠 𝑡 = 𝑖
0 𝑠𝑖𝑛𝑜𝑛
Avec
𝐴𝑖 = 𝐴 2𝑖 − 𝑀 − 1
Pour 𝑖 = 0, 1, … , 𝑀 − 1 et 𝑀 ≥ 4. Et A est une constante.
𝐴𝑖 2
Le signal, le cas échéant, a la puissance 𝑃𝑖 = .
2

Ainsi,
𝑠 𝑡 = 𝐸𝑖 2/𝑇 cos 2𝜋𝑓𝑐 𝑡
Modulations Numériques
Modulations ASK et M-ASK
 En général, le signal utilisé dans la transmission numérique n’est pas binaire
 Mais M-binaire.
 Ainsi le signal modulé s(t) est définit par :
𝐴 cos 2𝜋𝑓𝑐 𝑡 𝑠𝑖 0 ≤ 𝑡 ≤ 𝑇
𝑠 𝑡 = 𝑖
0 𝑠𝑖𝑛𝑜𝑛
Avec
𝐴𝑖 = 𝐴 2𝑖 − 𝑀 − 1
Pour 𝑖 = 0, 1, … , 𝑀 − 1 et 𝑀 ≥ 4. Et A est une constante.
𝐴𝑖 2
Le signal, le cas échéant, a la puissance 𝑃𝑖 = .
2

Ainsi,
𝑠 𝑡 = 𝐸𝑖 2/𝑇 cos 2𝜋𝑓𝑐 𝑡
Ei est l’énergie contenue dans la durée d’un symbole pour i allant de 0 jusqu’à
M-1.
Modulations Numériques
Modulations ASK et M-ASK
Modulations Numériques
Modulations ASK et M-ASK
Modulations Numériques
Modulations ASK et M-ASK
Avantages:
 Simplicité
 Faible coût
 Modulation grand public :
o Emetteur-Récepteur à 224 MHz et 433,92 MHz
 Modulation optique

Inconvénient :
 présente une faible efficacité spectrale (0.5).
Modulations Numériques
Modulations PSK et M-PSK
Le signal modulé PSK s’écrit :
𝑠 𝑡 = 𝐴𝑒 𝑗𝑚 𝑡 𝜋/2
cos 2𝜋𝑓𝑐 𝑡
Pour 0 ≤ 𝑡 ≤ 𝑇.
De la même manière on peut montrer que

𝑠 𝑡 = 𝐸𝑖 2/𝑇 cos 2𝜋𝑓𝑐 𝑡


Ainsi, les constellations sont données par la figure suivante :
Modulations Numériques
Modulations PSK et M-PSK
Considérons le cas du signal modulant suivant : 0 1 0 1 0 0 1,
le signal modulé PSK est donné par la figure suivante :
Modulations Numériques
Modulations PSK et M-PSK

Le spectre ressemble à une modulation sans porteuse.


En effet, le signal modulé a une bande spectrale égale à 2B.
Modulations Numériques
Modulations PSK et M-PSK
Dans le cas d’un signal M-aire, le signal modulé est donné par :
𝐴𝑖 cos 2𝜋𝑓𝑐 𝑡 + 𝜃𝑖 + 𝜃 ′ 𝑠𝑖 0 ≤ 𝑡 ≤ 𝑇
𝑠 𝑡 =
0 𝑠𝑖𝑛𝑜𝑛
2𝑖𝜋
Où 𝜃𝑖 = .
𝑀

s(t) est donné par :


𝑠 𝑡 = 𝐴𝑐𝑜𝑠 𝜃𝑖 cos 2𝜋𝑓𝑐 𝑡 + 𝜃 ′ − 𝐴 𝑠𝑖𝑛 𝜃𝑖 𝑠𝑖𝑛 2𝜋𝑓𝑐 𝑡 + 𝜃 ′
D’où :
2 2
𝑠 𝑡 = 𝐸𝑐𝑜𝑠 𝜃𝑖 cos 2𝜋𝑓𝑐 𝑡 + 𝜃 ′ − 𝐸 𝜃𝑖 𝑠𝑖𝑛 2𝜋𝑓𝑐 𝑡 + 𝜃 ′
𝑇 𝑇
Modulations Numériques
Modulations PSK et M-PSK
2 2
Ainsi, si l’on prend ∅1 𝑡 = cos 2𝜋𝑓𝑐 𝑡 et ∅1 𝑡 = sin 2𝜋𝑓𝑐 𝑡
𝑇 𝑇
comme une base orthonormée

On remarque que tout les points forment un cercle de rayon 𝐸


Modulations Numériques
Modulations PSK et M-PSK
Le modulateur PSK peut être réalisé par
 un multiplieur analogique par ±1,
 ou un modulateur en anneaux.
Le démodulateur synchrone peut être réalisé par extraction de la porteuse à l’aide
d’une PLL et ainsi, le signal démodulé est in versé par rapport au signal utile.
Modulations Numériques
Modulations FSK et M-FSK
Un signal modulé FSK est définit par :
𝐴𝑐𝑜𝑠 2𝜋𝑓0 𝑡 𝑠𝑖 0 ≤ 𝑡 ≤ 𝑇
𝐴𝑐𝑜𝑠 2𝜋𝑓1 𝑡 𝑠𝑖𝑛𝑜𝑛
Où A est constante, f0 et f1 sont les fréquences transmises.

2
𝐸 cos 2𝜋𝑓0 𝑡 𝑠𝑖 0 ≤ 𝑡 ≤ 𝑇
T
𝑠 𝑡 =
2
𝐸 cos 2𝜋𝑓1 𝑡 𝑠𝑖𝑛𝑜𝑛
T
𝑚 𝑛
Pour l’orthogonalité on prend 𝑓0 = et 𝑓0 = avec 𝑛 > 𝑚, 𝑓1 − 𝑓0 = 𝑘/2𝑇 et k un entier
𝑇 𝑇
naturel.
2 2
Ainsi, si l’on prend ∅1 𝑡 = cos 2𝜋𝑓0 𝑡 et ∅1 𝑡 = sin 2𝜋𝑓1 𝑡 comme une base
𝑇 𝑇
orthonormée des fonctions. Donc on obtient le diagramme des constellations du signal FSK.
Modulations Numériques
Modulations FSK et M-FSK
Modulations Numériques
Modulations FSK et M-FSK
Un signal modulé M-FSK est définit par :
𝐴 cos 2𝜋𝑓𝑖 𝑡 + 𝜃 ′ 0≤𝑡≤𝑇
𝑠 𝑡 =
0, 𝑠𝑖𝑛𝑜𝑛
Pour i=0,…M-1.

2
𝑠 𝑡 = 𝐸 cos 2𝜋𝑓𝑖 𝑡 + 𝜃 ′ 𝑠𝑖 0 ≤ 𝑡 ≤ 𝑇
T
0 𝑠𝑖𝑛𝑜𝑛
Si l’on considère que 𝑓𝑖 = 𝑖 + 1 /𝑇 (i=0, 1, 2, 3.)
Modulations Numériques
Modulations M-QAM
La modulation d’amplitude en quadrature M-aire génére un signal définit par
𝐴 cos 2𝜋𝑓𝑐 𝑡 + 𝜃𝑖 0≤𝑡≤𝑇
𝑠 𝑡 =
0, 𝑠𝑖𝑛𝑜𝑛
Donc,
2 2
𝑠 𝑡 = 𝐸𝑖 𝑐𝑜𝑠𝜃𝑖 cos 2𝜋𝑓𝑐 𝑡 − 𝐸𝑖 𝑠𝑖𝑛𝜃𝑖 sin 2𝜋𝑓𝑐 𝑡
𝑇 𝑇
Modulations Numériques
Modulations M-QAM
La modulation d’amplitude en quadrature M-aire génére un signal définit par
𝐴 cos 2𝜋𝑓𝑐 𝑡 + 𝜃𝑖 0≤𝑡≤𝑇
𝑠 𝑡 =
0, 𝑠𝑖𝑛𝑜𝑛
Donc,
2 2
𝑠 𝑡 = 𝐸𝑖 𝑐𝑜𝑠𝜃𝑖 cos 2𝜋𝑓𝑐 𝑡 − 𝐸𝑖 𝑠𝑖𝑛𝜃𝑖 sin 2𝜋𝑓𝑐 𝑡
𝑇 𝑇
Modulations Numériques
Modulations M-QAM
La modulation d’amplitude en quadrature M-aire génére un signal définit par
𝐴 cos 2𝜋𝑓𝑐 𝑡 + 𝜃𝑖 0≤𝑡≤𝑇
𝑠 𝑡 =
0, 𝑠𝑖𝑛𝑜𝑛
Donc,
2 2
𝑠 𝑡 = 𝐸𝑖 𝑐𝑜𝑠𝜃𝑖 cos 2𝜋𝑓𝑐 𝑡 − 𝐸𝑖 𝑠𝑖𝑛𝜃𝑖 sin 2𝜋𝑓𝑐 𝑡
𝑇 𝑇
Modulations Numériques
Diagramme de l’Œil
 Lors d’une transmission numériques, les symboles perdent leur profil temporel
par l’effet du bruit et des caractéristiques du canal.
 Chauvechement entre eux
 Cette interference augmente la probabilité d’erreurs des symboles.
Modulations Numériques
Diagramme de l’Œil
 Lors d’une transmission numériques, les symboles perdent leur profil temporel
par l’effet du bruit et des caractéristiques du canal.
 Chauvechement entre eux
 Cette interference augmente la probabilité d’erreurs des symboles.
Modulations Numériques
Diagramme de l’Œil
L’objectif du diagramme de l’œil est de pouvoir évaluer globalement la
qualité d’une liaison numérique.
C’est un moyen pratique pour le test de l’existence des interference inter-
symbole.
Modulations Numériques
Diagramme de l’Œil
On observant ce diagramme on peut remonter aux caractéristiques suivantes :
 L’ouverture verticale de l’œil est une mesure des performance contre le bruit.
Plus il est ouvert plus il est facil de discriminer les symboles en présence de
bruit, et donc l’erreur est moins probable. Dans le cas où une interference inter-
symbole se manifeste et que l’on souhaite utiliser une détection à seuil (solution
sous optimale), il faudra échantillonner le signal aux instant où l’œil est le plus
ouvert possible.
 L’ouverture horizontale permet la reconnaissance à un décalage des instants
d’éhantillonnage. Ainsi, plus l’œil est ouvert en largeur, plus les lobes
secondaires de la réponse en temps seront faibles et plus l’accumulation des
interferences dues à ce décalage aura une influence moindre en terme de
probabilité d’erruer.

Vous aimerez peut-être aussi