Vous êtes sur la page 1sur 53

Les Systèmes de

Communication Numériques
KABIL Sanaa

Année Universitaire 2020/2021


Introduction aux systèmes des
télécommunications
Histoire des télécommunications

• Le terme « télécommunications » fut inventé en 1904 signifie ″communiquer à


distance″
• Le but des télécommunications est donc de transmettre un signal, porteur d’une
information (voie, musique, images, données…), d’un lieu à un autre lieu situé à
distance.
• la télécommunication est caractérisée comme suit :
1.Emission,
2.Transmission à distance
3.Réception d’informations de toute nature par fil, système optique ou
électromagnétique
• Echange d’information dans n’importe quel espace donné
• La spécificité de la télécommunication, contrairement à une communication
ordinaire, est que l’information est véhiculée à l’aide d’un support (matériel ou non),
lui permettant d’être transmise sur de longues distances.

3
Histoire des télécommunications

• 1837 : Samuel Morse : système de transmission de lettres de l’alphabet (Télégraphe)


• Télégraphe : Codage des lettres par points et traits de longueurs différentes
(correspondant à des durées différentes) en optimisant le temps de transmission
• 1865 : 1ère conférence de l’Union Télégraphique Internationale

développement des télécommunications sur le plan international

• 1870 : transmissions télégraphiques à longue distance (plusieurs milliers de km)


• 1874 : Invention du multiplexage temporel par Baudot

4
Histoire des télécommunications

• 1876 : Graham Bell : brevet de système électrique de transmission du son


:Téléphone
• 1887 : Hertz : démonstration de l’existence des ondes radios
• 1891 : Premier commutateur téléphonique
• 1894 : Lodge mmunications sans fils (sur 150m)
• 1901 : Marconi/Popov : Radio, transmission d’ondes radio longues distances
• 1902 : première liaison radio point-à-point: télégraphie sans fil
• 1906 : Fessenden : première transmission radio AM
• 1907 : Invention de la Triode : amplification analogique, Téléphonie longue
distance

5
Histoire des télécommunications

• 1928 : Nyquist : Théorie de l’échantillonnage


• 1936 : Reeves : Pulse Code Modulation (PCM) Transmission numériques
• 1940 : techniques d’étalement de spectres (pour cryptage)
• 1947 : Union Internationale des Télécommunications (UIT)
réglementation des télécommunications internationales
• 1948 : Invention du transistor développement de l’électronique des télécoms
• 1948 : Shannon : Théorie de la capacité du canal
• 1958 : 1er satellite de communications (SCORE, orbite basse),
• 1962 : 1er cable 1.544 Mbits/s (USA)
• 1965 : 1er satellite géostationnaire de télécommunications (INTELSAT)
• 1966 : 1ères fibres optiques à faibles pertes début des hauts débits numériques

6
Histoire des télécommunications

• 1970 : Autocommutateurs numériques (CNET)


• 1981 : Téléphones mobiles de 1ère génération (analogiques)
• 1988 : RNIS : Réseau Numérique à Intégration de Services
(Numéris de France Télécom)
• 1991 : GSM/IS-54 : téléphones mobiles de 2ème génération (numériques)
• 1991 : Internet, World Wide Web
• 1999 :GSM : Global System for Mobile Communications (2G)
• 1995 :Démocratisation du réseau Internet
• 2004 :UMTS Universal Mobile Telecommunication System (3G)
• 2010 :Internet mobile, WiFi, vers la 4G….
• 2013 : 4G….
• 2015 : 4G au Maroc

7
Organismes de Normalisation

1. UIT/ITU : Union Internationale des Télécommunications


(http://www.itu.ch)

2. ETSI : European Telecommunication Standard Institute


(http://www.etsi.fr)

3. ANSI Committée T1 : American National Standard Institute,


Committée T1 on Télécommunications

4. TTC : Japanese Telecommunications Technology Committee


Domaines d’applications
• Nombreux standards de communication (GSM, UMTS, WIFI, ADSL…),
diffusion (TNT…), de diffusion (GPS, Galiléo), transmission par fibre
optique ou câble…
Systèmes de télécommunications

1. But: échange d’information à travers un réseau entre différents


utilisateurs.
2. Processus des communications (suivant le modèle de Shannon)
3. Lois de la physique (propagation…)/traitement du signal(codage,
modulation, détection, estimation,…)/Electronique et
optoélectronique(réalisation des dispositifs)
Systèmes de télécommunications

• Un système de communication a pour fonction d'assurer le transport


de l'information entre un émetteur et un (ou plusieurs) récepteur(s)
reliés par un canal de communication

• L’information est transportée sur le canal sous forme d'un signal.


Systèmes de télécommunications

On peut caractériser les systèmes de communication par:

• Le type de l'information transmise (son, image vidéo, donnée


informatiques, ...)

• Les transformations nécessaires pour transmettre cette information


(par exemple pour un son, transformation d'un signal acoustique en
un signal électrique).
Systèmes de télécommunications

• Tout le problème de la transmission est de trouver une "bonne"


transformation de l'information en signal tel que le canal soit capable
de le propager "correctement",

• c'est-à-dire que le récepteur puisse trouver suffisamment


d'informations dans le signal reçu pour reconstituer l'information
initiale.
Architecture générale d’un système de
communication
Préparation à la transmission Reconstitution de la source
Source Source Destinataire Destinataire
analogique numérique numérique analogique

Numérisation source Conversion N/A

Codage source Décompression source

Cryptage Décryptage
Transmission Réception
Codage de canal Décodage de canal
BRUIT Réception =
Modulation Reconstruction Démodulation
du signal

Accès multiple. Mise Filtrage. Mise en bande


sur porteuse. canal de base. Amplification
Amplification faible bruit
Positionnement du cours dans le modèle OSI
Objectif du cours
• Communication entre deux machine

• Envoi de données sur un canal

• Réception des données circulant sur le canal

• Problèmes à résoudre

• Comment envoyer physiquement des données ?

• Comment réduire les parasites ?

• Le bruit et son effet sur les communications numériques

• Effet du canal sur le débit d’une transmission numérique

• Comment utiliser le canal au mieux ?

• Régénération d’un signal par le récepteur


Objectif du cours
• Les bases théoriques de la transmission numérique
permettant d’acheminer une source d’information
‘’numérique’’ ou (numérisée) au travers d’un support
physique analogique dans le cas élémentaire (canal à
Bruit Additif Gaussien),
• Principe des modulations numériques, principaux
paramètres, transmission sur/ sans fréquence porteuse,
• Formats usuels de modulation numérique et
performances: choix d’une modulation (vs Bande, TEB,
Puissance,…),
• Introduction aux techniques de multiplexage entre
plusieurs utilisateurs.
Théorie et traitement de l'information
« Théorie de l’information » ???

• Claude E. SHANNON
• 1948:« A Mathematical Theory of Communication »
-théorie de l’information
-l’entropie mesure la
perte d’information par un système
« Théorie de l’information » ???
• Il s’agit d’une théorie mathématique qui décrit les aspects les plus
fondamentaux des systèmes de communication.

• Elle consiste en l’élaboration et l’étude de modèles pour la source et


le canal qui utilisent différents outils comme les probabilités.

• Elle affirme la possibilité paradoxale d'une communication sans


erreur malgré des bruits perturbateurs affectant la transmission.

• Pourvu qu'un codage approprie soit employé.


« Théorie de l’information » ???
La théorie de l’information donne des réponses à deux questions :

1.Quelle est la complexité limite d’un signal ?

➢notion d’entropie

2.Quelle est le débit limite pour une communication fiable sur un canal
bruité ?

➢notion de capacité de canal : débit maximum qui peut être adopté


pour un canal.
« Théorie de l’information » ???
Parmi les branches importantes de la théorie de l'information de
Shannon, on peut citer :

• Le codage de l’information,
• La mesure quantitative de redondance d’un texte,
• La compression de données,
• La cryptographie
Théorie de l’information
l’entropie d’une source sans mémoire, d’alphabet A, est l’espérance
mathématique de la quantité d’information prise comme variable
aléatoire.


H (A) = E I (sk )
K −1
=  pk I (sk )
k= 0
K −1
H (A) = −  pk log 2 pk
k= 0
Remarques :
• L’entropie est une mesure de l’information moyenne par symbole
issu de la source.
• l’unité de l’entropie est le bit/symbole.
Théorie de l’information

Propriétés :
Pour une source discrète sans mémoire, l’entropie est bornée :

0  H (A) log2 K

1. H(A) = 0 ssi pk = 1 pour un k donné, les autres probabilités étant


nulles.
=> aucune incertitude
2. H(A) = log2 K ssi pk = 1/K pour tout k .
=> incertitude maximale
Les grands théorèmes de Shannon

• Comment s'assurer de l'efficacité de la représentation des


données émises par une source ?
• Longueur moyenne d’un code :
M
L =  pj l j
j =1

• Le premier théorème de Shannon :


La longueur moyenne d'un code quelque soit le procédé
d'encodage de source possède la limite suivante :
L  H(X )
Les grands théorèmes de Shannon

• On peut alors définir le critère d'efficacité suivant :


H (X )
=
L
• Il existe plusieurs procédés permettant de s’approcher de la limite
théorique : Huffmann, Lempel-Ziv…
• Le 2ème théorème de Shannon : codage de canal :
• Soit une source X d’entropie H(X) qui émet des symboles chaque Ts
secondes sur un canal de transmission de capacité C utilisé chaque Tc
secondes.
H (X ) C
• Si : 
Ts Tc
Les grands théorèmes de Shannon

• Il existe une possibilité de codage pour laquelle les données de la source


peuvent être transmises sur le canal et reconstituées avec une très faible
probabilité d'erreur. Le paramètre C/Tc est appelé le débit critique.
• Rem : Ce théorème ne donne pas d'indication pour construire le code idéal ni
de résultat précis quant à la probabilité d'erreur.

• 3ème théorème de Shannon : capacité d’un canal BBAG de bande


passante limitée B :
 S
C = B  log 2 1 + 
 N
Caractéristiques fonctionnelles

➢ Un canal de transmission assure le support d’une transmission d’information.


➢ Rôle d’un canal = transmettre l’information entre un émetteur et un récepteur de
manière fiable et à faible coût
➢ Problème : le signal transmis est soumis à des perturbations lors de la traversée du canal

Canal de transmission
émetteur Support de récepteur Décision
transmission
0 ou 1 ?
10011… E(t) R(t)
source
échantillonneur

BRUIT
Caractéristiques fonctionnelles
Affaiblissement

• Un canal de transmission atténue (affaiblit) l’amplitude du signal qui le traverse.

• Le phénomène d’atténuation correspond à une perte d’énergie du signal pendant


sa propagation sur le canal, est s’accentue avec la longueur de celui-ci.

• On mesure l’atténuation par le rapport Ps/Pe où Ps est la puissance du signal à la


sortie du canal et Pe la puissance du signal à l’entée du canal.

• Il est courant d’exprimer l’atténuation en décibels (dB).

• Dans la plupart des cas, le taux d’atténuation d’un canal est connu.

• En associant des amplificateurs correcteurs pour compenser l’atténuation des que


celui ci atteint une valeur trop grande.
Caractéristiques fonctionnelles

Déphasage

• Le déphasage, encore appelé distorsion de phase, implique un retard du signal


reçu par rapport au signal émis dû au temps de propagation de ce signal de
l’émetteur vers le récepteur.

Illustration des phénomènes d'atténuation et de retardement subis pour un


signal sinusoïdal traversant un canal
Caractéristiques fonctionnelles

Bande passante

• La largeur de la bande passante est la caractéristique essentielle d’un support de


transmission, qui se comporte généralement comme un filtre qui ne laisse donc
passer qu'une bande limitée de fréquence appelée bande passante.

• Toute fréquence en dehors de cette bande sont fortement affaiblie.

• Exemple : une ligne téléphonique ordinaire ne laisse passer que les signaux de
fréquence comprise entre 300Hz et 3400Hz. Au dehors de cette bande les signaux
sont fortement atténuée et ne sont plus compréhensible, on dit alors que la
bande passante d’une telle ligne est de 3400–300 Hz soit 3100Hz
Caractéristiques fonctionnelles
Bruit
• Tout signal est parasité par du bruit.
• Le bruit est un signal aléatoire, souvent d’origine thermique, qui définit le seuil de
détection de tout récepteur
• Processus aléatoire → le comportement temporelle est imprévisible.
• On peut définir le bruit en terme de densité spectrale …
• On distingue généralement deux types de bruit : le bruit blanc et le bruit impulsif.
Densité spectrale de puissance
(W/Hz ou dBW/Hz)
Signal non Signal
détectable détectable 
Puissance du bruit : N 0 = n0 df
f
df

Seuil de bruit
n0

Fréquence
Caractéristiques fonctionnelles
1.Bruit blanc
• Le bruit blanc est un bruit dont la puissance est uniformément repartie dans
toute la bande passante du canal,
• Il s’agit essentiellement d’un bruit provoqué par l’agitation thermique des
électrons dans le conducteur électrique.
2.Bruit impulsif
• Comme son nom l’indique ce type de bruit est a caractère impulsif,
• Il se présente sous forme de tensions perturbatrices de valeur élevée mais de
durée brève.
• Ces bruits sont très gênants pour la transmission de données, car le signal
perturbateur modifie la forme du signal reçu à des instants quelconques
(aléatoires) telles qu’il se produit des erreurs à la réception.
• Les sources de bruit impulsif sont nombreuses.
Caractéristiques fonctionnelles

Bruit impulsif

On peut citer notamment :

• la diaphonie (crosstalk) est d’une manière générale, une influence mutuelle


indésirable entre signaux utiles transmis sur des conducteurs voisins l’un de l’autre
dans l’espace, par exemple dans un même câble. Cela résulte principalement d’un
couplage inductif dû au champ magnétique de l’une des lignes sur l’autre et
réciproquement

• Les brusques variations de courant sur les lignes d’alimentations électriques.

• Phénomènes atmosphériques, solaires, ou autres.


Transmission numérique des
signaux analogiques
Introduction

• Objectif d'une communication numérique :


transmettre le maximum de donnée (débit ) avec
une fiabilité maximale (probabilité d’erreur
minimale) avec :
1. des limites théoriques (Shannon),
2. des contraintes physiques (propagation),
3. des contraintes économiques (complexité)
Numérisation du signal
• Un signal analogique est un ensemble continu
d’informations.

• Un signal numérique est un ensemble discret d’informations.

• Pour transformer un signal analogique en signal numérique, il


faut discrétiser les informations : on parle de numérisation.

• Les informations sont ensuite traduites en binaire, c'est-à-


dire en ensemble de 0 ou de 1.
Numérisation du signal

• Signal analogique
➢Analogue à une grandeur physique
(pression, sonore, tension, intensité lumineuse, …)
➢Continu dans le temps
➢Infinité de valeurs

• Signal numérique
➢Représenté par une suite de chiffres
➢Système binaire: 0 et 1
➢Discret dans le temps (échantillonnage)
➢Valeurs discrètes (quantification)
Numérisation du signal

• Avantages techniques
• Immunité au bruit
• Optimalisation de la bande passante
• Facilité de traitement de l’information
• Optimisation des coûts
Echantillonnage

• L'échantillonnage est une opération effectuée sur le signal à


transmettre en vue de réaliser la conversion "analogique /
numérique".

• Il consiste à substituer, au signal d'origine, une suite de valeurs


instantanées prélevées sur le signal et régulièrement espacées dans le
temps.

• A des instants précis, régulièrement espacés, on prélève un


échantillon du signal, qui sera représentatif de l'amplitude de celui-ci.
Echantillonnage
Echantillonnage

N −1

g ( t ) =  f ( t )  ( t − nTE )
n =0

 f ( t ) en t = nTE
g (t ) = 
0 entre 2 échantillons

T
E

s
(
t) g
(
t)
Echantillonnage
Spectre du signal échantillonné
• Principe
• TF du produit de 2 fonctions =
Produit de convolution des TF des 2 fonctions

• Transformées de Fourier
• Du train d’impulsions d’intervalle TE
→ Train d’impulsions d’intervalle fE = 1/TE

• Du signal f(t)
→ Spectre du signal s(f)
Spectre du signal échantillonné

fM
AXf
E-f
MAX fE f+
fM
E A
X2fE
-f
MAX 2
fE 2
f
E+fM
AX
Théorème de Shannon

• Fréquence minimale d’échantillonnage


f E  2 f MAX
(fréquence de Nyquist)

• Repliement spectral (Aliasing)

fMAX fE 2fE 3fE


Quantification

• Convertisseur Analogique/Numérique
• Nombre de bits: n
• Niveaux de sortie: 2n

• Différence entre
• Signal analogique
• Signal numérique

• Bruit de quantification
• Rapport S/N
• dB
Quantification
Quantification
Numérisation du signal

Echantillonage

Signal Analogique 333 22 00 1


1111111010000001
Signal Numérique

Quantification
Quantification
Echantillons

time
Echantillonnage

Quantification =>
 bruit de quantification

Echantillons

01001100 01001100 01001100


...

time
Codage
Bruit de quantification
Rapport signal sur bruit de quantification
Rapport signal sur bruit de quantification

Vous aimerez peut-être aussi