Vous êtes sur la page 1sur 30

Institut Supérieur de Formation Mangement Ingénierie et Technologie

Informatique Et Télécoms

Master Ingénierie en systèmes de Télécommunications et Réseaux Informatiques

Cours :Communication et Supports de transmission

Prof : Justin AKORO

1
Plan du cours

Chapitre 1: Théorie de l’information

Chapitre 2: Éléments de base de la transmission de données

Lecon3 : Caractéristiques globales des supports de transmission

Chapitre 3: Les supports de transmission


Théorie de l’information
1-systèmes de communication
❑ La théorie des communications s’intéresse aux moyens de transmettre une information
depuis la source jusqu’à un utilisateur à travers un canal. La nature de la source peut être
très variée: Voix, sons, Vidéos, Données etc .
➢ L'information désigne à la fois le message à communiquer et les symboles utilisés pour
l'écrire ; elle utilise un code de signes porteurs de sens tels qu'un alphabet de lettres

La théorie de l’information a été créée par C. E. Shannon dans les années 40. Il
s’agit d’une théorie mathématique qui décrit les aspects les plus fondamentaux des
systèmes de communication. Elle consiste en l’élaboration et l’étude de modèles pour
la source et le canal qui utilisent différents outils comme les probabilités et les
automates finis.
➢ Un code est une règle pour convertir un morceau d'information sous une autre forme ou
représentation
Théorie de l’information

➢ Canal = dispositif permettant d'acheminer un message entre deux points distants

▪ Sur de courtes distances :

➢ Le canal peut être une ligne téléphonique, une liaison radio, un support magnétique ou
optique (Chapitre 3),
Théorie de l’information
➢ Canal
Sur de plus longues distances

Ex : canal de transmission = Ligne téléphonique


• Modem : Modulateur / démodulateur
• ETCD: Équipement Terminal de Circuit de Données
• Les informations sont transmises sur des supports de transmission en faisant varier un ou
plusieurs paramètres physiques des signaux.
Théorie de l’information
➢ Numérisation / discrétisation
Théorie de l’information

❑ Un système de communication est matérialisé par le schéma Suivant:

Source : voix, musique, image (fixe ou animée), texte, . . .

Canal : radio, fil, fibre optique, support magnéique/optique,

Bruit : perturbations electromagnétiques,


Théorie de l’information
Deux notions essentielles :Codage source/canal

Codage source : compresser efficacement une source donnée `a


un taux de compression maximal
Problématiques:
Codage canal :transmettre efficacement le maximum
d’information à travers un canal bruité

2-Sources et codage de source


❑ Parmi les classes possibles de modèles de source, nous nous intéresserons plus
particulièrement aux sources discrètes.
❑ La sortie d’une telle source est une séquence de lettres tirées dans un alphabet fini
A = {a1,...,an}. Chaque lettre de la séquence est choisie aléatoirement d’après une loi de
probabilité p indépendante du temps. Pour toute lettre a, p(a) est la probabilité pour que
cette lettre soit choisie. Il s’agit d’un réel compris entre 0 et 1.

❑ La donnée de p(a1),...,p(an) définit la probabilité discrète p sur A. Il peut sembler


étonnant de modéliser une source d’information à l’aide d’une variable aléatoire.
La longueur moyenne du code est defini par:𝑛ത =σ 𝑃(𝑎) 𝑛𝑎
Théorie de l’information
❑ Exemple : Soit une source d’information qui fournit comme information l’une des quatre
lettres a1,a2,a3,a4. Supposons que le codage de source transforme cette information
discrète en symboles binaires. Nous donnons deux exemples de codage différents.

❑ Si les quatre lettres sont équiprobables, la première méthode de codage est meilleure. Elle
nécessite en effet deux symboles par lettre en moyenne

❑ La deuxième méthode nécessite 1 /4+2×1 /4+3×1 /4+3×1 /4 = 2,25 symboles par


lettres.
❑ En revanche, si l’on a une source dont la distribution de probabilités est
Théorie de l’information

❑ la longueur moyenne d’un symbole codé par la première méthode est toujours 2 tandis
que celle d’un symbole codé par la deuxième méthode est 1 /2 + 2 × 1/ 4 + 3 × 1/ 4 + 3
× 1 /8 = 1,75.

❑ Le deuxième codage réussit donc à coder quatre symboles avec moins de deux bits. Il a
réalisé une compression.

❑ Pour coder correctement une source, il est donc important de connaître son
comportement statistique.
Théorie de l’information

➢ Enjeu du codage de source


◼ Le but du codage de source est de trouver une traduction binaire des messages
émis par la source économisant les bits et tenant compte de leur contenu
informatif.

◼ Par exemple, si la source émet


◼ la lettre A avec la probabilité 0,8,
◼ et les lettres B, C, D et E avec la probabilité 0,05,
on sent intuitivement qu’il vaut mieux coder A avec peu de bits, car cette lettre
revient souvent, tandis que B, C, D et E peuvent être codées sur un plus grand
nombre de bits.

3-Entropie d’une source discrète

Nous allons établir un lien entre l’information fournie par une source et la distribution de
probabilité de la sortie de cette source
Théorie de l’information

❑ Si une lettre a a une probabilité p(a) d’être tirée, son information propre est définie par :

❑ En particulier I(a) vaut zéro si p(a) = 1.

❑ La valeur moyenne de l’information propre calculée sur l’ensemble de l’alphabet revêt


une grande importance. Il s’agit donc de l’espérance de la variable aléatoire I. Elle est
appelée entropie de la source et est notée H(A) :

❑ Si une source émet n lettres équiprobables (ou encore avec une loi de probabilité
uniforme), son entropie est donc log2n.
Théorie de l’information

𝐻(𝐴)
▪ L’efficacité d’une source est donnée par : E=
𝑛ത

❑ Exemple de codage de source : La méthode de Huffman

Le codage de Huffman est un code qui utilise les statistiques de la source,


l’idée de base étant d’obtenir des ensembles de même rang {M1 M2}, {M11 M12}, de
probabilités les plus proches possibles.

➢ Principe

-Ordonner les symboles de la source dans l’ordre des probabilités


-Isoler les deux symboles les moins probables et les distinguer avec 0 et 1
-Regrouper ces deux symboles en un seul nouveau en additionnant leurs probabilités,
-Recommencer jusqu’à ce que tous les symboles soient regroupés
Théorie de l’information

Exemple:
Théorie de l’information
❑ Exemple de codage de source : La méthode de Fano

➢ Principe

1. Classer les messages de la source dans l’ordre des probabilités décroissantes.

2. Diviser l’ensemble des messages en deux groupes de probabilités aussi


proches que possibles et
– Attribuer 0 par exemple au premier
– Attribuer 1 au second.

3. Recommencer les subdivisions successivement.


Théorie de l’information

Exemple
Théorie de l’information
❑ Le codage arithmétique (au même titre que le Codage de Huffman) est un code à
longueur variable, c'est-à-dire qu'un symbole de taille fixe (en bits) sera codé par un
nombre variable de bits, de préférence inférieur ou égal à sa taille originale. On ne modifie
donc pas la densité de symboles mais leur codage afin de réduire l'espace qu'ils occupent.

❑ Ce qui différencie le codage arithmétique des autres codages sources est qu'il code le
message par morceaux (théoriquement il peut coder un message entier de taille
quelconque mais dans la pratique on ne peut coder que des morceaux d'une quinzaine de
symboles en moyenne) et représente chacun de ces morceaux par un nombre(flottant) là
où Huffman code chaque symbole par un code précis.

❑ Le problème qui en résulte pour le codage Huffman est qu'un caractère ayant une
probabilité très forte d'apparition sera codé sur au moins un bit. Par exemple, si on
cherche à coder un caractère représenté à 90 %, la taille optimale du code du caractère
pourrait être moins de 1 bit alors que Huffman codera ce symbole sur au moins 1 bit.
C'est cette lacune que le codage arithmétique comble grâce à un algorithme proche
du codage par intervalle.
Théorie de l’information
La compression demande un tableau statistique qui comprend :

•La totalité des symboles que l'on rencontre dans le message à compresser.

• Les probabilités p de rencontrer le symbole S dans le message.

• L'intervalle [0;1[ découpé en intervalles proportionnel à la probabilité P que le


symbole S apparaisse dans le message (ex: si S a 50 % de chance d'apparaître, son
intervalle fera 0,5).

Voici les opérations à effectuer lors de l'ajout d'un symbole :

•On enregistre la différence entre la borne supérieure (BS) et la borne inférieure (BI). On notera cette
valeur BB.
•La BS prend la valeur suivante : BI + BB * (BS_du_symbole_s)
•La BI prend la valeur suivante : BI + BB * (BI_du_symbole_s)
Théorie de l’information

Après l'ajout du premier symbole, l'intervalle aura les mêmes limites que l'intervalle du
symbole ajouté, puis chaque ajout fera converger ses limites. Lorsqu'un nombre suffisant de
symboles auront été stockés, l’algorithme renverra un nombre flottant se trouvant dans cet
intervalle. Ce nombre représente la totalité du fichier d'entrée.

Il faut aussi penser à ajouter un symbole qui servira uniquement à indiquer la fin du fichier,
sans quoi l’algorithme de décompression risque de tourner indéfiniment
Théorie de l’information
Décompression:

❑ Pour décompresser un fichier (représenté par un nombre n) il faut utiliser la même table qui a
été utilisée pour la compression puis effectuer les étapes suivantes jusqu'à la fin du fichier :

•Observer dans l'intervalle de quel symbole s se trouve le nombre, ajouter au fichier


décompressé et garder en mémoire la probabilité de p de s ainsi que sa BI.

• n prend la valeur .

❑ Une fois le marqueur de fin atteint, l'algorithme s'arrête et le fichier est considéré comme
décompressé.

Exemple
On appliquera ici l’algorithme de compression arithmétique sur le texte « WIKI ». On
obtient dès lors le tableau suivant :
Théorie de l’information
Compression:

Par convention on initialise l'algorithme avec une borne inférieure valant 0 et une borne
supérieure valant 1. Il ne reste plus qu'à appliquer la suite d'opérations vue précédemment à
chaque ajout d'un caractère.

Donc, tout nombre compris dans intervalle ( [0,1640625;0,1796875[ ) sera une version compressée de
la chaîne de caractère « WIKI ». Le nombre 0,17 étant compris dans cet intervalle, il peut convenir
pour représenter « WIKI » compressé. À l'inverse, 0,16 ou 0,1796875 n'étant pas dans l'intervalle, ils
ne conviendront pas et entraineront des erreurs lors du décodage.
Théorie de l’information
Décompression

Supposons que l'on reçoive le message compressé 0,17, voici comment il serait décodé :
(On utilise évidemment le même tableau que précédemment pour connaitre les intervalles de
chaque lettre et leurs probabilités d'apparition).

On retrouve donc la bonne chaine de caractères auparavant compressée.


Théorie de l’information

3.Capacité d’un canal


◼ En pratique, le débit binaire autorisé sur un canal est limité (influence
du bruit, nature du support, etc. …).

◼ Le débit le plus élevé auquel on peut transmettre sur un canal, quel que
soit le message produit par la source, est appelé la capacité C du canal.
Théorie de l’information
❑ Premier Théorème de codage d’une variable aléatoire
◼ Le théorème de Shannon montre qu’on peut toujours trouver un
codage de source permettant de transmettre à la capacité du canal si le
débit Ds des symboles émis par la source et l’entropie de la source
vérifient
H(S)Ds  C
◼ Exemple : On considère une source émettant les lettres A, B, C, D et E
avec les probabilités pA = 0,8 et pB = pC = pD = pE = 0,05. Les lettres
sont émises au débit Ds = 106 lettres/s. Le canal a une capacité C = 2
Mbit/s.
◼ Entropie de la source : H(S) = 1,12 sh
◼ H(S)Ds = 1,12.106 < 2.106
◼ Donc il existe un code permettant de transmettre ces lettres sur le canal.

Premier théorème de Shannon (Codage de canal)


1. On peut transmettre de l’information de façon fiable en utilisant un code correcteur
d’erreur de taux de transmission inférieur a la capacité du canal utilisée.
2. On ne peut pas faire mieux.
Théorie de l’information
❑ Second théorème de codage d’une variable aléatoire
• Pour tout codage d'une variable aléatoire X par un code uniquement déchiffrable (sur un
alphabet de référence à b lettres), la longueur moyenne des mots code vérifie:

où la base du logarithme coïncide avec celle utilisée pour la mesure de H(X) (entropie de X).

• Pour toute variable aléatoire X, il existe un code préfixe tel que :

• Finalement, on déduit que pour tout codage d'une variable aléatoire X, il existe un code
uniquement déchiffrable qui vérifie :
Théorie de l’information
4-Introduction au codage de canal
❑ Enjeu du codage de canal
• Le codage de canal rajoute de l’information pour permettre au récepteur de
détecter ou corriger les erreurs éventuellement apparues.
• Comment le récepteur lit-il les données reçues ?
– Il échantillonne le signal physique reçu à intervalle de temps fixe, au
milieu du bit. Suivant le niveau de tension lu, il déduit la valeur du bit : 0
ou 1.

Horloge

Signal électrique 5V
reçu 0V

Message 0 1 1 0 1 0 0 1 1 1
reconstitué
Théorie de l’information

• D’où viennent les erreurs ?

Le signal est déformé sur le canal :


l’échantillonnage peut se faire sur une
perturbation.

A l’échantillonnage, le récepteur
interprète le niveau de tension
comme un 0.

◼ Conclusion : Puisque le récepteur ne peut se fier au signal électrique reçu, on


va rajouter des bits dans les messages qui permettront de repérer les erreurs.
Théorie de l’information

➢ Détection/correction d’erreur

• Certains codes permettent de détecter des erreurs, d’autres de détecter


et corriger les erreurs.
• La correction d’erreur contraint à ajouter plus de bits que la détection
d’erreur.
• Par conséquent, on adopte un code correcteur d’erreur quand on ne
peut pas retransmettre les messages :
– Transmission dans un seul sens (émission TV)
– Transmission satellite (la retransmission prend trop de temps)
– Transmission en temps réel.

28
Théorie de l’information
Conclusion

• Ce qu’il faut retenir


– Le codage de source a pour but de transmettre le contenu
informatif du message en économisant les bits.
– Le codage de canal rajoute au message des bits qui seront utilisés
par un algorithme de réception pour déterminer s’il y a des
erreurs et les corriger éventuellement.
– Paradoxalement, le codage de canal ajoute de la redondance,
alors que le codage de source a pour tâche de l’éliminer !
– C’est le prix à payer pour garantir la qualité de la
communication.
– La solution est de bien connaître le canal, afin de déterminer la
probabilité d’erreur et de ne rajouter que les bits strictement
nécessaires.
Théorie de l’information
Conclusion

• Ce qu’il faut retenir


– Le codage de source a pour but de transmettre le contenu
informatif du message en économisant les bits.
– Le codage de canal rajoute au message des bits qui seront utilisés
par un algorithme de réception pour déterminer s’il y a des
erreurs et les corriger éventuellement.
– Paradoxalement, le codage de canal ajoute de la redondance,
alors que le codage de source a pour tâche de l’éliminer !
– C’est le prix à payer pour garantir la qualité de la
communication.
– La solution est de bien connaître le canal, afin de déterminer la
probabilité d’erreur et de ne rajouter que les bits strictement
nécessaires.

Vous aimerez peut-être aussi