Académique Documents
Professionnel Documents
Culture Documents
NP 2019 Partie22
NP 2019 Partie22
a. Définitions
Tous les circuits téléphoniques fonctionnent avec des signaux AF dans une plage
restreinte d'environ 300 Hz à 3400 Hz car toutes les composantes vocales
requises pour une détection appropriée de l'audio sont présentes dans la bande
0.3 à 3,4 KHz.
1
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
De nos jours, c'est le numérique qui domine l'univers du son, notamment grâce à
l’essor de l'informatique et de la musique électronique. Dans un système audio
numérique (digital audio system), le son d'un signal électrique analogique est
converti, garce à un convertisseur analogique-numérique (ADC), en un signal
numérique en utilisant, généralement, une modulation par impulsions codées PCM
(pulse coded modulation).
𝑝𝑙𝑎𝑔𝑒 𝑑𝑒 𝑚𝑒𝑠𝑢𝑟𝑒
𝑝=
2𝑛
où la plage d’échantillonnage est l’étendue des tensions que l’on souhaite utiliser et 𝑛 le
nombre de bit avec lequel la tension est numériser.
24
Exemple : plage de mesure = 24 V ; n = 8 bits : p = = 93.75mV. La valeur numérique est ensuite
28
attribuée comme suit si n = 8 bits et U est la tension mesurée alors :
• 0 < U < p : si 𝑈 plus proche de 0 alors 𝑈 prend la valeur 00000000, si 𝑈 plus proche de
p alors U prend la valeur 00000001
• p < U < 2p : si 𝑈 plus proche de 𝑝 alors U prend la valeur 00000001, si 𝑈 plus proche de
2𝑝 alors 𝑈 prend la valeur 00000010
• … etc. (00000011, 00000100, 00000101,…).
(𝑛 = 2)
Les CD audio, par exemple, ont une fréquence d'échantillonnage de 44,1 kHz
(44 100 échantillons par seconde) et une résolution de 16 bits pour chaque
canal stéréo. La numérisation est un moyen d’améliorer la qualité du son. Elle
ne sert cependant pas simplement dans le domaine de la musique mais dans tout
ce qui a trait au numérique, c'est-à-dire les photos prises par des appareils
photo numériques, la télévision, la radio, les traitements de texte ou
d'informations sur ordinateurs …etc.
3
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
L’avantage fondamental du numérique réside dans le fait qu’il autorise un nombre de traitements
complexes très élevé sans que soit affectée l’intégrité de l’information. Les dégradations
causées par les perturbations du support de transmission ou d’enregistrement, telles que
l’adjonction de bruit, la distorsion, …etc. ne touchent que les paramètres analogiques du signal
numérique et n’altèrent pas l’information, si elles restent dans certaines limites. En effet,
tant que les niveaux électriques hauts et bas correspondant aux deux valeurs binaires se
distinguent l’un de l’autre, le message transporté demeure intact. La numérisation du signal
confère une plus grande robustesse à l’information et supprime les différents aléas et problèmes
de non-linéarité inhérents aux circuits analogiques. En assurant une totale reproductibilité du
signal après de multiples traitements et manipulations complexes, le numérique ouvre la voie à
un vaste champ d’applications.
L’innovation importante qui suivit le magnétophone concernait les petits systèmes de bande à
cartouche, dont la cassette compacte, commercialisée par la société d’électronique Philips en
1964, qui est devenue par la suite un format audio grand public et les progrès de la
miniaturisation électronique et mécanique ont conduit au développement du Sony Walkman, un
lecteur de cassettes de poche introduit en 1979.
La casette contient deux bobines où est enroulée une bande magnétique. Elle permet
d'enregistrer et d'écouter de la musique ou tout autre type de son. Elle s'utilise avec un
magnétophone spécialement conçu appelé magnétocassette, magnétophone à cassette ou, par
métonymie, simplement cassette. Cet élément peut être intégré.
5
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
Dans les années 2000, le son stéréo était courant dans les systèmes de
divertissement tels que la radio, la télévision, la musique enregistrée et
le cinéma.
Comme les sons de fort volume sont peu affectés par le bruit, on utilise
alors :
Ray Dolby (1933-2013) est l’inventeur du système de réduction des bruits de fond est a été le président-
fondateur des laboratoires Dolby.
7
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
Ce système permet une réduction de bruit en moyenne de 10 dB sur tout le spectre du signal
audio.
Au début des années 1970, le Dolby NR a été appliqué dans les émissions de
radio FM.
En 1971, WFMT, une station de radio de la ville de Chicago, commença à émettre des programmes
avec Dolby NR.
Les normes de transmission pour la radiodiffusion publique et commerciale présentent des cycles
de vie très longs: une introduction réussie d'innovations dans le marché de la radiodiffusion
publique nécessite des investissements importants, y compris le remplacement éventuel des
récepteurs dans tous les foyers ! En conséquence, les gouvernements et les radiodiffuseurs
hésitent à introduire de tels nouveaux systèmes. Il en résulte un retard technologique important
pour les services de radiodiffusion, qui occupent actuellement environ la moitié de tout le
spectre radioélectrique au-dessous de 1 GHz, conformément à des normes obsolètes. Exemples:
radio analogique AM et FM.
9
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
10
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
La radio diffusion AM stéréo n’a pas réellement existé à cause d’une série de
techniques incompatibles entre elles pour une diffusion stéréo dans la bande AM
et, incompatible avec les récepteurs AM standard. La technique la plus connue
est ISB (independent sideband) qui a été interdit aux États-Unis par la FCC
(federal communications commission).
La radio diffusion FM se produit sur les ondes VHF (very high frequency) dans
la gamme 88-108 MHz sauf au Japon (76 à 90 MHz) et en Russie (65,9 à 74 MHz).
Une largeur de bande de 200 kHz laisse suffisamment de place pour un écart de
signal de ± 75 kHz par rapport à la fréquence attribuée, plus des bandes de
garde pour réduire ou éliminer les interférences de canaux adjacents. Cette
bande passante permet de diffuser un signal audio de bande passante de 15 kHz
plus une sous-porteuse stéréo de 38 kHz.
11
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
Pour augmenter le SNR dans les hautes fréquences, les techniques de la préaccentuation en
émission et la désaccentuation en réception sont utilisées.
o La préaccentuation n'est rien d'autre qu'une amplification sélective aux fréquences les
plus élevées de notre signal audio.*
o La désaccentuation est utilisée pour atténuer les fréquences les plus élevées du signal
audio reçu. Dans ce cas, la puissance de bruit et la puissance du signal audio aux
fréquences élevées sont atténuées. Ainsi, la puissance du signal audio revient à son état
d'origine, cependant, la puissance de bruit est réduite. En conséquence, le SNR, en
sortie à ces fréquences plus élevées, est augmenté par rapport à un récepteur sans
préaccentuation et désaccentuation.
Pour que les émissions stéréo soient compatibles avec les récepteurs mono, les canaux (L) et
(R) sont codés algébriquement en signaux de somme(L + R) et de différence (L-R).
Le signal du canal principal (L + R) est transmis en tant qu'audio en bande de base (sans
transposition de fréquence) limité à la plage de 30 Hz à 15 kHz.
Le signal (L-R) est modulé en AM en signal double bande à porteuse supprimée DSB-SC (Double-
sideband suppressed-carrier), à la fréquence de 38 kHz occupant la plage de bande de base de 23
à 53 kHz.
Une fréquence pilote 𝑓𝑝 = 19 kHz (à exactement 38/2 kHz) est également générée avec une relation
de phase précise, telle que définie par la formule ci-dessous où A et B sont les signaux audio
gauche et droit préaccentués.
𝐴+𝐵 𝐴−𝐵
[0.9 [ − 𝑠𝑖𝑛 (2𝜋𝑓𝑝 𝑡)] + 0.1 𝑠𝑖𝑛 (2𝜋𝑓𝑝 𝑡)] × 75 𝑘𝐻𝑧
2 2
12
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
Un récepteur mono utilisera donc uniquement le signal (L + R) pour que l'auditeur puisse
entendre les deux canaux via le haut-parleur unique.
Un récepteur stéréo ajoute le signal de différence au signal de somme pour récupérer le canal
gauche (L+R +L-R=2L) et soustrait le signal de différence de la somme (L+R-L+R) pour récupérer
le canal droit.
o Introduction :
Les premiers enregistrements numériques commerciaux ont été publiés en 1971 alors que la
modulation PCM ait été inventée par le scientifique britannique Alec Reeves en 1937. Le premier
enregistrement PCM 16 bits aux États-Unis a été réalisé par Thomas Stockham.
- l’enregistrement
- la manipulation
- la production en série
- la distribution du son : l’enregistrement de chansons, de pièces
instrumentales, de podcasts (série épisodique de fichiers audio ou vidéo numériques
qu'un utilisateur peut télécharger), d’effets sonores et d’autres sons.
- stocké : sur un CD, un lecteur audio numérique, un disque dur, une clé USB
ou tout autre périphérique de stockage de données numériques.
- transmis : sur support de transmission filaire (câbles, fibre optique…etc.)
ou non (air).
- compression et décompression,
- stockage,
13
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
- traitement
- transmission.
De nos jours, la puissance des processeurs augmente plus vite que les capacités
de stockage, et plus vite que la bande passante des réseaux. Ainsi, pour
pallier à ce manque, il est courant de réduire la taille des données et ce en
exploitant la puissance des processeurs plutôt qu'en augmentant les capacités
de stockage et de transmission des données. Pour bien restituer un signal
analogique de bonne qualité (pour l'oreille humaine) à partir d'un signal
échantillonné (théorème de Shannon), il a été imposé aux CD audio un format de
stockage du son ayant les données suivantes :
Exemple : Avec ce standard, la place occupée par une minute de musique est :
14
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
• Quelques définitions :
Dans le cas de l'audio, les codecs affectent notre expérience d'écoute, que ça
soit avec un casque, des oreillettes ou des haut-parleurs Bluetooth.
15
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
peut être donc décidé que toutes les fréquences au-dessus de 15kHz seront
supprimées.
Exemple : si le son contient le pépiement des oiseaux et celui d’un avion qui décolle ou
atterrit (ou même à très haute altitude). Le son des oiseaux n’est plus entendu, comme si ces
derniers n'existaient plus ou avaient arrêté de chanter. Il n'est pas nécessaire de coder
toutes les fréquences présentes dans un morceau pour que l'oreille humaine le perçoive
correctement.
Il n’est donc pas nécessaire de coder toutes les fréquences présentes dans un
morceau pour que l'oreille humaine le perçoive correctement quand même. Enfin,
si les deux voies d'un son stéréo présentent des séquences semblables, au lieu
de dupliquer ces séquences, une seule information.
- Principales normes :
Il existe deux types de débits utilisés avec les MP3: le débit constant CBR(
constante bitrate) et le débit variable VBR(variable bitrate) ). De nombreux
MP3 modernes utilisent le format VBR, qui réduit la taille des fichiers en
codant certaines parties d’une chanson à un débit binaire faible, tandis que
d’autres sont codées à des débits plus élevés. Par exemple, une section d'une
chanson avec un seul instrument est plus simple et peut être encodée avec un
débit binaire pluscompressé, tandis que les parties d'une chanson avec une
instrumentation plus complexe doivent être moins compressées pour capturer
toute la gamme des sons. En faisant varier le débit binaire, la qualité sonore 16
globale d'un MP3 peut rester élevée, tandis que la mémoire nécessaire au
fichier est relativement réduite.
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
Cette technique peut être utilisée, mais de manière destructive cette fois ci, pour des
fréquences très proches les unes des autres (si proches que l'oreille humaine moyenne ne puisse
les distinguer) en effet une fréquence est remplacée par une autrel'algorithme de Huffman
(1952) est utilisée dans tous les algorithmes de compression (compression de fichiers texte,
compression d'images, compression de sons). il repose sur l'utilisation d'un code de longueur
variable et la probabilité d'apparition d'un événement (en l'occurrence ici d'une fréquence).
Plus une fréquence apparaît souvent, plus son code sera court (nombre de bits faible pour la
représenter). Le fichier est lu une 1ère fois et on dresse un tableau des fréquences
apparaissant et le nombre de fois où elles apparaissent. Un code approprié en est déduit. Ce
type de codage est non destructeur.
- Principales normes :
17
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
WMA-CBR 320 kbit/s a qualité irréprochable tout comme le WMA-CBR 256 kbit/s, le WMA-CBR 192
kbit/s a une qualité excellente, le WMA-CBR 160 kbit/s a une très bonne qualité et le WMA-CBR
128 kbit/s a une qualité bonne.
- acheminé via des interfaces audio numériques spécifiques (qui ne seront pas détaillées ce
cours)
- stocké grâce aux technologies : Blu-ray, CD (compact disc), DAT (digital audio tape )DCC
(digital compact cassette), DVD-Audio (digital versatile disc-audio), Hard disk recorder,
MiniDisc, MP3 player, Super Audio CD…etc.
- acheminé sur un réseau en utilisant l'audio via Ethernet, l'audio sur IP (internet protocol)
ou d'autres normes et systèmes de diffusion en continu (streaming).
- diffusé (radiodiffusion)
18
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
- la qualité du son est améliorée : rapport signal/bruit SNR (signal to noise ratio), bande
passante, et diaphonie bien sont meilleures et , absence d'interférences entre stations
- plus de radios : il est possible de diffuser plusieurs radios sur la même fréquence en
compressant le signal
- possibilité de véhiculer de l'information associée (musique : titre et auteur du morceau,
données complémentaires d'information par exemple les coordonnées GPS d'un accident dans
un flash routière …etc.
- avec le numérique soit le signal passe, soit il ne passe pas : Risque d'absence de signal
(décrochage) dans les zones à réception difficile
- l’acquisition d’un nouveau module (multiplexeur) pour transformer un récepteur analogique
en récepteur numérique.
Rappels sur l’OFDM : Le multiplexage par répartition orthogonale de la fréquence OFDM est une
méthode de codage de données numériques sur plusieurs fréquences porteuses notés SP (sous
porteuses). Ce type de transmission est un passage obligé utilisé pour des transmissions
numériques à haut débit par voie Hertzienne. On le trouve notamment dans les applications
suivantes : DAB (digital audio broadcast) alias radio numérique ; DVB (digital video
broadcast) alias télévision numérique en modes T, C et S ; WLAN (wireless local area network)
alias WiFi (wireless fidelity) en modes a, g, n et ac ; WIMAX (worldwide interoperability
for microwave access) ; LTE 4G (long term evolution 4th generation).
Si une transmission a lieux entre 2 antennes directives en visibilité directe LOS (line of
sight) alors les erreurs dues à la transmission seront très faibles à condition que la
distance entre les antennes (pas) soit respectée. Exemples : faisceaux hertziens et liaison
satellite.
Si les antennes ne sont pas en visibilité directe alors l’antenne de réception recevra
plusieurs réflexions via des trajets multiples ou multi trajets (multipath) ; il va se
produire de l’évanouissement (fading) de l’amplitude ou de la puissance de la réponse
impulsionnelle du canal avec des creux plus ou moins profonds. Dans ce cas la transmission
devient rapidement inexploitable. Par ailleurs, il a été constaté qu’avec l’augmentation du
débit les interférences inter symboles ISI (inter symbole interférence)augmentaient.
19
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
Les opérations principales pour obtenir une transmission OFDM : ce processus très complexe
n’est viable que grâce à des composants a haute intégration. Le dessin ci-dessous est un
schéma de principe ne montre que les opérations principales du processus.
Le principe de l’orthogonalité : On voit sur le dessin ci-dessus que par rapport à une série
de porteuses conventionnelles, la répartition Orthogonale permet de mettre un beaucoup grand
nombre de sous porteuses dans la largeur du spectre allouée. On remarque que l’amplitude
maximum d’une sous porteuse correspond à l’amplitude minimum des 2 sous porteuses qui
l’entourent ; c’est le principe de base de l’Orthogonalité.
À l’émission :
20
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
A la réception :
Les mêmes opérations sont réalisées en sens inverse avec une FFT (fast fourier transform )
utilisée au lieu d’une IFFT.
L’OFDMA (orthogonal frequency division
multiple access) est de l’OFDM qui
inclut un système d’allocation des
ressources, c’est-à-dire que pour
chaque utilisateur un certain nombre
de SP.
21
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
22
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
Par rapport à la radio FM, le DAB offre un certain nombre d'avantages à ses
auditeurs :
DAB+ est une version mise à niveau du système publiée en février 2007, qui
utilise le codec audio HE-AAC v2 (high-efficiency advanced audio coding version
2) communément appelé AAC + ou aacPlus. C’est un format de codage audio
destiné à la compression de données audio avec perte, défini comme un profil
audio MPEG-4 dans ISO / IEC 14496-3. HE-AAC v2 est environ trois fois plus
efficace que MP2.
Comme toute transmission numérique, et pour rendre la transmission plus robuste contre les
erreurs, les techniques du codage convolutif avec perforation (puncturing) et de Reed-Soloman
ont été utilisés tout au long de l’évolution du system DAB et DAB+. L'immunité contre les
évanouissements et les interférences entre symboles ISI (inter symbol interference) dus à
la propagation par trajets multiples est obtenue au moyen des techniques de modulation OFDM
et DQPSK (differential phase shift keying).
23
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
o Fréquences utilisées
Selon les pays, la bande III en VHF (174–240 MHz) et la bande L en UHF
(1452–1492 MHz) peuvent être allouées au DAB. Le DAB est adapté aux réseaux
à fréquence unique : tous les émetteurs d'une même région peuvent
fonctionner sur la même fréquence. Ceci facilite la planification des
fréquences. L’OFDM permet l’utilisation de réseaux mono fréquences SFN
(single frequency network), ce qui signifie qu’un réseau d’émetteurs peut
couvrir une vaste zone - jusqu’à la taille d’un pays - où tous les émetteurs
utilisent la même fréquence de transmission.
Les émetteurs faisant partie d'un réseau SFN doivent être parfaitement synchronisés avec les
autres émetteurs du réseau, ce qui oblige les émetteurs à utiliser des horloges très
précises. Lorsqu'un récepteur reçoit un signal qui a été transmis par les différents
émetteurs faisant partie d'un SFN, les signaux des différents émetteurs auront typiquement
des retards différents, mais pour l’OFDM, ils apparaîtront simplement comme des multi trajets
différents du même signal.
24
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
▪ 9 kHz ou 10 kHz qui sont les largeurs de bande standards des canaux de
radiodiffusions pour les ondes courtes, ondes moyennes et ondes longues
(< 30 MHz). En choisissant ces largeurs de bande on reste ainsi en accord
avec la planification des fréquences effectuées dans ces bandes de
fréquence.
▪ 4,5 kHz ou 5 kHz qui sont des demi-canaux et qui sont prévus dans le cas
où le diffuseur souhaite faire de la diffusion en simulcast sur le même
émetteur, c’est-à-dire émettre simultanément en analogique AM et en
numérique DRM.
25
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
▪ 18 kHz ou 20 kHz qui correspond à coupler deux canaux standards si la planification des
fréquences le permet. Cela permet d'offrir un service de meilleure qualité.
o Codec :
- MPEG-4 CELP (code excited linear prediction) qui est un codage prévu pour la
voix uniquement (vocodeur) mais possède une grande résistance aux erreurs et
nécessite un faible débit de données.
- MPEG-4 HVXC (harmonic vector excitation coding) qui est également un codage
pour la voix mais qui nécessite un débit de donnée encore plus faible.
- SBR (spectral bandwidth replication) qui est en fait une extension aux
codeurs précédents et qui permet d'augmenter la largeur de bande et
reproduire ainsi les fréquences aigües lorsque les débits de données sont
faibles.
o Principaux canaux :
- MSC (main service channel): canal principal de service. C'est celui qui
transporte le service à proprement parler, soit les données audio et les
données associées (textes, et images). Son débit est donc élevé.
26
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
- FAC (fast access channel): canal d'accès « rapide ». Celui-ci transporte les
informations minimum concernant la modulation utilisée ainsi que les types
des différents services (radio). Il permet au récepteur de se paramétrer correctement
pour démoduler le signal et décoder le service identifié grâce à un code unique attribué au
diffuseur. C'est donc le premier canal qui est décodé par le récepteur, son débit de données
est faible. Il doit être robuste par rapport aux deux autres.
- Générateur de porteuse. Ce n'est pas un canal à proprement parler mais un mécanisme qui
consiste à fixer certaines porteuses OFDM, c’est-à-dire ne pas les moduler et les laisser
constantes. Certaines sont définitivement fixes et d'autres sont fixées à intervalles
régulier suivant un motif prédéfini. Ce mécanisme permet au récepteur, lorsqu'il trouve un
signal DRM, de rapidement régler précisément sa fréquence et de se synchroniser au signal de
l'émetteur.
DRM+ : la norme DRM est conçue pour les bandes de radiodiffusion inférieures à
30 MHz. Le consortium DRM a voté en mars 2005 un projet d'extension du système
aux bandes VHF jusqu'à 120 MHz. DRM+ est le nom de cette nouvelle technologie.
Les procédures de développement, de tests, d'homologation et de configuration
sont prévues pour le créneau 2007 à 2009. Une bande passante de 50 kHz en DRM+
autorisera un programme audionumérique presque comparable à la qualité d'un CD
audio (pour rappel les CD audio sont échantillonnés à 44,1 kHz avec une
quantification sur 16 bits).
Le 31 août 2009, DRM+ est devenue une norme officielle de diffusion lors de la publication par
l'ETSI des spécifications techniques. Le document porte la référence ETSI ES 201 980 v3.1.1. Il
s'agit effectivement d'une nouvelle version de toute la spécification DRM, comprenant un mode
additionnel qui permet le fonctionnement en fréquence dans la tranche de 30 MHz à 174 MHz.
o DVB (digital video broadcasting). Standard destiné à l'origine pour la télévision mais qui
inclut la diffusion radio (voir paragraphe sur la diffusion vidéo)
o Astra Digital Radio, système de diffusion par satellite
o DSR (digital super radio), système de diffusion par câble et satellite
o …etc.
27
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
a) Définitions :
Une caméra de télévision fonctionne différemment: elle doit capturer un évènement instantané plus de 24 fois
par seconde (pour le cinéma) pour créer l’illusion d’une image en mouvement. En effet, quand on fait
succéder devant notre œil des images qui représentent un mouvement, à partir d'une certaine cadence, notre
œil à l'impression qu’il y a continuité du mouvement. Par contre, quand la cadence n'est pas assez rapide, on
a l'impression de voir un mouvement discontinu (principe de la persistance rétinienne*).
*la persistance rétinienne : lorsque la lumière entrant dans l'œil est coupée, l'impression de la lumière
persiste pendant environ un dixième de seconde. Donc, si tous les éléments d'image (de haut en bas et de
gauche en droite) sont présentés successivement à l'œil durant un dixième de seconde ou moins, toute la zone
de l'écran apparaît éclairée, bien qu'en fait, un seul point de lumière soit présent à tout instant.
Remarque : sous Android, iOS ou Windows Phone, appli caméra d’un smartphone
filme par défaut en 30 (29,97) images par seconde.
Les détecteurs de lumière à l'intérieur de la caméra balayent ligne par ligne l'image filmée. Cette dernière
est "scannée" séquentiellement, de haut en bas, de gauche à droite, tout comme nos yeux le feront (ou
presque) pour voir, par exemple, un tableau dans une galerie d'art par exemple. À l'origine de toute cette
activité télévisuelle, on retrouve les électrons qui ont été découvert en 1895 par Joseph J. Thomson, sous
la forme de rayons cathodiques (un flux de particules d'électrons). Ce qui est vraiment intéressant pour les
rayons cathodiques, c'est qu'ils peuvent être déviés par des champs magnétiques et électriques.
- un système complexe de lentilles projette l’image sur l’écran d’un tube cathodique CRT
- un faisceau d’électrons issu d'une cathode frappe la cible par l’arrière
- le spot est finement concentré et dimensionne ainsi un point d'analyse de luminance
- ce spot se déplace horizontalement et verticalement (ligne par ligne) pour balayer toute l’image
29
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
- la face arrière du tube est recouverte d’un matériau photosensible, au départ du ZnS ou Zn3Sb, a été
remplacé par un réseau de photodiodes
- le courant qui sort de la cathode est proportionnel à cette luminance
- on recueille aux bornes d’une résistance l'amplitude instantanée du signal vidéo
L’analyse séquentielle de l’image de télévision par une succession de lignes se traduit, pour la luminance ,
par un spectre sous forme de raies ; l’énergie n’est transportée qu’à des fréquences multiples de la
fréquence ligne. Dans les systèmes à 625 lignes, la bande passante de la luminance a été fixée à 5,5 MHz pour
la diffusion et celle de la chrominance à 1,5 MHz (ces valeurs sont respectivement de 4,2 et 1,4 MHz dans les
systèmes à 525 lignes).
30
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
Dans les systèmes à 625 lignes, la bande passante de la luminance a été fixée à 5,5 MHz pour la diffusion
L’analyse séquentielle de l’image de télévision par une succession de lignes se traduit, pour la luminance comme pour
par un spectre sous forme de raies ; l’énergie n’est transportée qu’à des fréquences multiples de la fréquence ligne.
Du côté du récepteur, si on déplace des flux d'électrons dans un une zone à travers un tube cathodique CRT on
obtient un balayage (scanning). Ce processus consiste à décomposer la scène en éléments d'image et à les
réassembler sur l’écran. C'est comme le mouvement de votre œil lorsque vous lisez cette page. Dans la
numérisation, la scène est divisée en une série de lignes horizontales.
Au niveau de l’écran de télévision, ce signal est récupéré et contrôle le CRT dont les parois
intérieures sont revêtues d’une matière phosphorescente qui émet de la lumière lorsque la matière est
frappée par les rayons cathodiques. Le CRT crée une image composée de lignes horizontales tout comme celles
produites dans la caméra. Lorsque la caméra examine la ligne supérieure, une lumière produite par le tube
cathodique se déplace sur l'écran et produit la ligne de lumière la plus haute sur l'écran. Le signal vidéo
fait de sorte que le spot de lumière devienne sombre ou éclairé pendant son déplacement, ainsi les éléments
photo scannés par la caméra sont reproduits ligne par ligne (horizontalement et verticalement) sur le
moniteur, jusqu'à ce que toute la zone de l'écran soit recouverte, complétant l'image. Ensuite, le processus
31
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
Le signal vidéo est nettement plus complexe qu'un son. Il comporte des informations visuelles,
exprimées pour une image généralement sous la forme d’une combinaison trois couleurs
fondamentales RGB (red green blue) à laquelle il faut ajouter le blanc et le noir et ce pour
tout point de l'espace, et une information temporelle née du mouvement des objets. Une image
vidéo analogique en couleurs peut être reconstituée par le mélange, à quantité variable, des
trois couleurs primaires rouge, vert, bleu. Les signaux dits « en composantes » sont fabriqués
à partir d’une recomposition linéaire des signaux primaires RVB, conduisant à un signal de
luminance Y (représentant à lui seul l’image en noir et blanc), et deux signaux dits de
différence de couleurs R-Y et B-Y, notés Dr et Db. Ces trois signaux composantes Y, Dr, Db sont
combinés en un unique signal vidéo appelé signal composite. Le mode de combinaison des deux
signaux de différence de couleurs Dr et Db entre eux, ainsi que la manière dont ils sont ajoutés
au signal de luminance, diffèrent selon les standards de codage NTSC, PAL et SECAM. Ce signal
composite présente l’avantage indéniable d’être transmissible sur une seule voie. Il est utilisé
en diffusion hertzienne et a été repris seulement par deux formats numériques, le D2 et le D3.
Fe(Y) = 13,5 MHz (cette fréquence est égale à 864 fois la fréquence ligne des systèmes
à 625 lignes et à 858 fois celle des systèmes à 525 lignes)
33
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
34
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
L’inconvénient du balayage progressif est que à l’époque où les écrans de téléviseurs à CRT,
c’est-à-dire composés d’un canon à électrons parcourant l’écran de haut en bas et de gauche à
droite, les luminophores bombardés d’électrons avaient tendance à perdre de leur intensité au
cours du temps. Ceux qui étaient touchés par le faisceau lumineux au début de l’affichage de
35
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
l’image (en haut de l’écran) étaient donc moins lumineux que ceux touchés à la fin de
l’affichage de l’image en bas de l’écran.
L’apparition d’une nouvelle image provoquait un effet de scintillement, puisque les luminophores
supérieurs étaient de nouveau bombardés à pleine puissance, et reprenaient leur intensité
maximale.
Entrelacer une image revient à la découper deux demi-images appelées trames. Ce découpage
s’effectue par ligne ; toutes les lignes paires forment une demi-image, tandis que toutes les
lignes impaires forment la seconde moitié de cette image. Ainsi, le téléviseur affiche une trame
par balayage. Lorsqu’il affiche la seconde trame, la différence de contraste se fait avec les
photophores des lignes précédentes et suivantes, et non avec le haut et le bas du téléviseur.
Or, comme ces lignes sont très petites, l’œil fait automatiquement « la moyenne » des deux
luminosités et l’on ne perçoit pas la différence ; le scintillement est annulé.
• Standards :
Il existe 3 standards de codages analogiques de la vidéo en couleurs
(différents de ceux du cinéma): le NTSC, le PAL (phase alternation line) et le
SECAM (sequential color & memory). Ces trois techniques utilisent un balayage
avec entrelacement. Ces trois standards sont distribués à travers le monde de
la manière suivante :
- La standard NTSC :
36
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
fréquence verticale 60 Hz
- le standard PAL :
fréquence horizontale 15.625 kHz 15.625 kHz 15.625 kHz 15.625 kHz 15.734 kHz
fréquence verticale 50 Hz 50 Hz 50 Hz 50 Hz 60 Hz
largeur de bande vidéo 5.0 MHz 5.5 MHz 6.0 MHz 4.2 MHz 4.2 MHz.
porteuse audio 5.5 MHz (FM) 6.0 MHz 6.5 MHz 4.5 MHz 4.5 MHz
37
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
- le standard SECAM :
fréquence horizontale 15.625 kHz. 15.625 kHz. 15.625 kHz. 15.625 kHz.
fréquence verticale 50 Hz 50 Hz 50 Hz 50 Hz
largeur de bande vidéo 5.0 MHz 6.0 MHz 6.0 MHz 6.0 MHz
porteuse audio 5.5 MHz (FM) 6.5 MHz (FM) 6.5 MHz (FM) 6.5 MHz (AM)
• La vidéo numérique
La vidéo numérique comprend une série d’images numériques (de données numériques codées)
affichées en succession rapide. Elle a été introduite commercialement pour la première fois en
1986 et existe sous les formats compressés et non compressés. Contrairement aux sources
analogiques, la vidéo numérique peut être copiée sans dégradation de la qualité et peut être
stockée sur un support numérique ou diffusée sur internet.
Pour le PAL, les calculs donneront environ 25,03 Mo/sec en se basant sur la
résolution 720 x 576 pixels à 25 images/sec.
38
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles
https://fr.wikipedia.org/wiki/Radio_AM
https://www.cima.ned.org/publication/power-airwaves-role-spectrum-management-
media-development/
https://fr.wikipedia.org/wiki/Radio_num%C3%A9rique
http://www.aps.dz/sante-science-technologie/69727-tda-premiere-station-
experimentale-de-la-radio-numerique-terrestre-en-mode-t-dab
https://videonline.info/wp-content/uploads/2016/11/the_horse_in_motion.jpg
https://www.quora.com/How-does-TV-work
https://www.youtube.com/watch?v=z1lG8BjXZsM
https://www.robertponge.com/telechargements/ebooks/video-1.pdf
https://www.schema-electronique.net/2010/02/un-regenerateur-de-tube-
cathodique.html
http://www.proftnj.com/RGB3.htm
http://www.sen-av.net/IMG/pdf/video_signal.pdf
https://www.ubaldi.com/guides/televiseur/rafraichissement-tv--gup181.php
http://apprendre-le-cinema.fr/standards-de-codage-couleur-et-modes-de-balayage/
http://www.sharetechnote.com/html/Communication_OFDM.html
39