Vous êtes sur la page 1sur 39

Université de Blida 1 Master Réseaux & Télécom

Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020


Département d’Electronique et Protocoles

Chapitre 2. Normes associées à la diffusion


analogique et numérique

2.1 Signal audio et vidéo analogique et numérique

2.1.1 Signaux audio fréquence analogique et numérique :

a. Définitions

Un système audio analogique convertit les formes d'onde du son physique en


représentations électriques à l'aide d'un transducteur, tel qu'un microphone.
Les sons sont ensuite stockés sur un support analogique tel qu'une bande
magnétique, un CD (compact disk), une clef USB (universal serial bus)…etc. ou
transmis via un support analogique tel qu'une ligne téléphonique, une liaison
radio…etc.

Le processus est inversé pour la reproduction: le signal audio électrique est


amplifié puis reconverti en formes d'onde physiques via un haut-parleur. Le
signal audio analogique conserve ses caractéristiques (bande de fréquences,
amplitude moyenne…etc.) tout au long de son stockage, sa transformation, sa
duplication et, son amplification.

La gamme AF (audio frequency) est généralement considérée comme étant de 20


Hz à 20 000 Hz (fréquences audibles).

- Les fréquences inférieures à 20 Hz sont généralement ressenties plutôt qu'entendues, en


supposant que l'amplitude de la vibration est assez grande.
- Les fréquences supérieures à 20 000 Hz peuvent parfois être perçues par les jeunes. Les
fréquences élevées sont les premières à être affectées par la perte d'audition en raison
de l'âge et / ou de l'exposition prolongée à des bruits très bruyant.

Tous les circuits téléphoniques fonctionnent avec des signaux AF dans une plage
restreinte d'environ 300 Hz à 3400 Hz car toutes les composantes vocales
requises pour une détection appropriée de l'audio sont présentes dans la bande
0.3 à 3,4 KHz.

1
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

Remarque : la musique de haute qualité doit contenir les toutes fréquences


jusqu’à 20 kHz.

Les signaux audio analogiques sont sensibles au bruit et à la distorsion en


raison des caractéristiques innées des circuits électroniques et des
dispositifs qui leurs sont associés.

De nos jours, c'est le numérique qui domine l'univers du son, notamment grâce à
l’essor de l'informatique et de la musique électronique. Dans un système audio
numérique (digital audio system), le son d'un signal électrique analogique est
converti, garce à un convertisseur analogique-numérique (ADC), en un signal
numérique en utilisant, généralement, une modulation par impulsions codées PCM
(pulse coded modulation).

Souvent, un filtre anti-repliement (anti-aliasing filter) doit être placé avant la


conversion afin d'éviter la distorsion de repliement provoquée par les signaux audio dont les
fréquences sont supérieures à la fréquence de Nyquist (moitié du taux d'échantillonnage).

Ce signal numérique peut ensuite être enregistré, édité, modifié et copié à


l'aide d'ordinateurs ou de lecteur de CD (compact disk)…etc.

Lorsque un ingénieur de son ou un consommateur souhaite écouter l'enregistrement à l’aide d’un


casque ou d’un haut-parleur un convertisseur numérique-analogique (DAC) effectue le processus
inverse en convertissant le fichier numérique en un signal analogique via un amplificateur de
puissance audio avant de l'envoyer à un haut-parleur.

Le processus de numérisation se divise en trois étapes : l’échantillonnage, la quantification et


la numérisation.

- L’échantillonnage : pendant une durée totale d’acquisition un nombre fini N de valeurs de


tensions 𝑈𝑒 est prélevé, avec une fréquence d’échantillonnage 𝑓𝑒 égale à la valeur de
l’inverse de la durée d’échantillonnage 𝑓𝑒 = 1/𝑇𝑒 . La fréquence d'échantillonnage doit être
suffisamment grande pour pouvoir reconstituer convenablement les variations du signal
analogique d'origine. 𝑓𝑒 ≥ 2 𝑓𝑚𝑎𝑥 . 𝑓𝑚𝑎𝑥 = 3400 𝐻𝑧 ≈ 4 𝑘𝐻𝑧 .

- La quantification : elle consiste à comparer les valeurs analogiques de chaque échantillon à


sa valeur numérique la plus proche à l’aide du pas de quantification ou de numérisation,
noté 𝑝.
2
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

𝑝𝑙𝑎𝑔𝑒 𝑑𝑒 𝑚𝑒𝑠𝑢𝑟𝑒
𝑝=
2𝑛

où la plage d’échantillonnage est l’étendue des tensions que l’on souhaite utiliser et 𝑛 le
nombre de bit avec lequel la tension est numériser.

24
Exemple : plage de mesure = 24 V ; n = 8 bits : p = = 93.75mV. La valeur numérique est ensuite
28
attribuée comme suit si n = 8 bits et U est la tension mesurée alors :

• 0 < U < p : si 𝑈 plus proche de 0 alors 𝑈 prend la valeur 00000000, si 𝑈 plus proche de
p alors U prend la valeur 00000001
• p < U < 2p : si 𝑈 plus proche de 𝑝 alors U prend la valeur 00000001, si 𝑈 plus proche de
2𝑝 alors 𝑈 prend la valeur 00000010
• … etc. (00000011, 00000100, 00000101,…).

- La numérisation est l’étape finale du processus ; il s’agit de la conversion de chaque


échantillon prélevé précédemment en une grandeur numérique. Ceci est réalisable à l’aide
d’un dispositif électronique appelé Convertisseur Analogique Numérique (CAN).

(𝑛 = 2)

La qualité de la conversion analogique numérique augmente avec la fréquence d’échantillonnage et


le nombre de bits de numérisation. Plus le pas de quantification est faible, meilleur est la
qualité du son.

Les CD audio, par exemple, ont une fréquence d'échantillonnage de 44,1 kHz
(44 100 échantillons par seconde) et une résolution de 16 bits pour chaque
canal stéréo. La numérisation est un moyen d’améliorer la qualité du son. Elle
ne sert cependant pas simplement dans le domaine de la musique mais dans tout
ce qui a trait au numérique, c'est-à-dire les photos prises par des appareils
photo numériques, la télévision, la radio, les traitements de texte ou
d'informations sur ordinateurs …etc.

3
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

L’avantage fondamental du numérique réside dans le fait qu’il autorise un nombre de traitements
complexes très élevé sans que soit affectée l’intégrité de l’information. Les dégradations
causées par les perturbations du support de transmission ou d’enregistrement, telles que
l’adjonction de bruit, la distorsion, …etc. ne touchent que les paramètres analogiques du signal
numérique et n’altèrent pas l’information, si elles restent dans certaines limites. En effet,
tant que les niveaux électriques hauts et bas correspondant aux deux valeurs binaires se
distinguent l’un de l’autre, le message transporté demeure intact. La numérisation du signal
confère une plus grande robustesse à l’information et supprime les différents aléas et problèmes
de non-linéarité inhérents aux circuits analogiques. En assurant une totale reproductibilité du
signal après de multiples traitements et manipulations complexes, le numérique ouvre la voie à
un vaste champ d’applications.

b. Bref historique (magnétophone et cassette) :

Entre l'invention du phonographe en 1877 et les premiers enregistrements numériques commerciaux


du début des années 1970, le jalon le plus important de l'histoire de l'enregistrement sonore
fut sans doute l'introduction de ce qu'on appelait alors l'enregistrement électrique, dans
lequel un microphone était utilisé pour convertir le son en un électrique qui a été amplifié et
utilisé pour actionner le stylet d'enregistrement.
4
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

Durant cette période, Le magnétophone fut un important domaine d’invention important.


L'enregistrement sur bande magnétique utilise un signal audio électrique amplifié pour générer
des variations analogues du champ magnétique produit par une tête de bande, ce qui imprime les
variations correspondantes de la magnétisation sur la bande en mouvement. En mode de lecture, le
chemin du signal est inversé, la tête de la bande servant de générateur électrique miniature au
passage de la bande magnétisée de façon variable.

L’innovation importante qui suivit le magnétophone concernait les petits systèmes de bande à
cartouche, dont la cassette compacte, commercialisée par la société d’électronique Philips en
1964, qui est devenue par la suite un format audio grand public et les progrès de la
miniaturisation électronique et mécanique ont conduit au développement du Sony Walkman, un
lecteur de cassettes de poche introduit en 1979.

La casette contient deux bobines où est enroulée une bande magnétique. Elle permet
d'enregistrer et d'écouter de la musique ou tout autre type de son. Elle s'utilise avec un
magnétophone spécialement conçu appelé magnétocassette, magnétophone à cassette ou, par
métonymie, simplement cassette. Cet élément peut être intégré.

c. Le son monophonique et le son stéréophonique :

- le son monophonique (ou "mono") : le est entendu comme venant d'une


position, souvent en avant dans le champ sonore (analogue à un champ
visuel).

5
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

- Le son stéréophonique ou, plus communément, la stéréo, est une méthode de


reproduction du son qui crée une illusion de perspective audible
multidirectionnelle. Ceci est généralement réalisé en utilisant deux
canaux audio indépendants L (left) et R (right) ou plus via une
configuration de deux haut-parleurs (ou écouteurs stéréo) ou plus, de
manière à créer une impression de son provenant de différentes directions,
comme dans une audition naturelle.

Dans les années 2000, le son stéréo était courant dans les systèmes de
divertissement tels que la radio, la télévision, la musique enregistrée et
le cinéma.

d. Normes audio analogiques : normes de réduction de bruit (Dolby (*))

- Norme Dolby NR (Noise Reduction) : Le Dolby NR sert à atténuer le


bruit de fond (appelé souffle), généré par de petites variations
6
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

d'intensité lumineuse (pellicule) ou magnétique (bande), inhérent aux


supports analogiques, bandes magnétiques vidéo puis pistes optiques sur
pellicule.

Le procédé de filtrage de bruit du Dolby NR est assuré par un compander


(compressor / expander), en français : compresseur / expanseur, qui opère
en deux temps :

Comme les sons de fort volume sont peu affectés par le bruit, on utilise
alors :

o lors de l'enregistrement d'un signal sur bande magnétique (exemple K7),


compresseur du son augmente le niveau sonore des sons faibles par rapport
aux sons forts (pour dominer le bruit) :

Ray Dolby (1933-2013) est l’inventeur du système de réduction des bruits de fond est a été le président-
fondateur des laboratoires Dolby.

o Lors de la lecture de la K7, c'est la partie expanseur qui est


utilisée pour réduire le bruit de fond de la cassette. En effet, en
réduisant le niveau sonore des sons faibles afin de le remettre à celui
d'origine (i.e. avant le traitement par le compresseur), il réduit aussi le
niveau sonore du bruit présent sur la cassette

On retrouve ainsi la dynamique originale du signal, et le bruit de fond


se trouve, de ce fait, très affaibli.

7
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

Les principales versions Dolby NR pour le son analogique sont : Dolby A, B,


C, HX-Pro.

- Dolby A : le son est d'abord séparé en quatre gammes de fréquences et le


traitement de compression/expansion est appliqué de manière différente à
chacune des gammes (puisque l'oreille humaine et le cerveau ne sont pas sensibles de la
même manière à toutes les gammes de fréquence, et les parasites n'affectent pas toutes les
gammes de fréquence de la même manière).

Ce système permet une réduction de bruit en moyenne de 10 dB sur tout le spectre du signal
audio.

- Dolby Stereo : outre la réduction de bruit, il permet la restitution d'un


effet sonore enveloppant, dit surround, à partir des deux pistes audio
seulement. Le Dolby Stereo dès 1980 est largement utilisé au cinéma sous le
nom de Dolby Surround.

- Dolby B : le Dolby A qui un réducteur de bruit professionnel à large bande


destiné aux studios d’enregistrement en 1965 at été amélioré vers pour
donner le Dolby B (introduit en 1968) qui un système à bande coulissante (
au lieu de plusieurs bandes) offrant une réduction du bruit d’environ 9 dB
principalement pour les cassettes . Il est destiné au marché de la
consommation, qui a contribué à rendre pratique la haute-fidélité
HiFi (high fidelity) sur des cassettes utilisant une taille et une vitesse
8
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

de bande relativement bruyantes. Il est courant sur les lecteurs de


cassettes et les enregistreurs stéréo HiFi de nos jours. Beaucoup plus
simple que le Dolby A et donc beaucoup moins coûteux à implémenter dans les
produits grand public.

Au début des années 1970, le Dolby NR a été appliqué dans les émissions de
radio FM.

En 1971, WFMT, une station de radio de la ville de Chicago, commença à émettre des programmes
avec Dolby NR.

• Dolby SR (Spectral Recording), introduit en 1986, était le deuxième système


professionnel de réduction du bruit de la société. Capable de fournir une
réduction de bruit jusqu’à 25 dB dans les hautes fréquences, cette technique
tente de maximiser le signal enregistré à tout moment en utilisant une série
complexe de filtres qui changent en fonction du signal d'entrée. Dolby SR
est destiné pour les appareils d'enregistrement professionnels.

• Le Dolby SR : il a été introduit en 1980. Il offre une réduction de bruit


d’environ 15 dB (pondérée A). Il est construit en combinant l’effet de deux
systèmes Dolby B avec une extension à des fréquences plus basses.

• Le Dolby HX-Pro(Headroom eXtension-Pro) : il a été inventé en 1980 et


breveté en 1981 par Jørgen Selmer Jensen de Bang & Olufsen. B & O a immédiatement licencié
HX-Pro à Dolby Laboratories. Si un signal audio contient un fort contenu haute
fréquence, en particulier provenant d'instruments à percussion, cela
provoque une saturation magnétique de la bande. Dolby HX-Pro rmedie à cela
en réduisant automatiquement le signal de polarisation en présence de
puissants signaux haute fréquence, ce qui permet d'enregistrer à un niveau
de signal supérieur.

e. Normes audio de radio diffusion analogiques : radio diffusion AM


(amplitude modulation) et FM (frequency modulation).

Les normes de transmission pour la radiodiffusion publique et commerciale présentent des cycles
de vie très longs: une introduction réussie d'innovations dans le marché de la radiodiffusion
publique nécessite des investissements importants, y compris le remplacement éventuel des
récepteurs dans tous les foyers ! En conséquence, les gouvernements et les radiodiffuseurs
hésitent à introduire de tels nouveaux systèmes. Il en résulte un retard technologique important
pour les services de radiodiffusion, qui occupent actuellement environ la moitié de tout le
spectre radioélectrique au-dessous de 1 GHz, conformément à des normes obsolètes. Exemples:
radio analogique AM et FM.

9
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

o La radio diffusion AM et AM stéréo :

Le signal AM est sujet aux interférences


dues aux orages électriques (éclairs) et
autres interférences électromagnétiques EMI
(electromagnetic interference). L'un des
avantages du signal radio AM est qu'il peut
être détecté (transformé en son) avec un
équipement simple.

La plage attribuée à la bande AM a


généralement une largeur d'environ 5
kHz de part et d'autre de la porteuse.

La plupart des services de


radiodiffusion utilisent les
transmissions AM double bande avec
porteuse, bien que certains utilisent une
version modifiée d'AM, telle que la
modulation à bande latérale unique SSB
(single side bande).

• Radiodiffusion en ondes longues (OL ou GO ou LW de 150 kHz - 281 kHz) :


Les stations d'émission dans cette bande se voient attribuer des
fréquences d'émission comprises entre 153 et 279 kHz et ont généralement
un espacement de 9 kHz (Région 1 de l'UIT : Europe, Afrique et Asie du
Nord et centrale. la couverture mesurée sur des centaines de kilomètres

10
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

• Radiodiffusion à ondes moyennes (OM ou PO ou MW de 520 kHz - 1 620 kHz) :


elle est de loin la bande de radiodiffusion AM la plus utilisée dans les
régions 1 et 3 de l’UIT, les fréquences d’émission sont comprises entre
531 et 1 602 kHz, avec un espacement de 9 kHz (526,5-1606,5 kHz), et dans
la Région 2 de l’UIT (Amériques), entre 530 et 1 700 kHz, avec un
espacement de 10 kHz (525–1705 kHz)

• Radiodiffusion en courtes également appelées HF) (OC ou SW sur 12 bandes


de 2,3 MHz à 2 ,61 MHz). Les émissions sont réparties dans 14 bandes de
radiodiffusion et utilisent généralement un espacement étroit des canaux
de 5 kHz.

La radio diffusion AM stéréo n’a pas réellement existé à cause d’une série de
techniques incompatibles entre elles pour une diffusion stéréo dans la bande AM
et, incompatible avec les récepteurs AM standard. La technique la plus connue
est ISB (independent sideband) qui a été interdit aux États-Unis par la FCC
(federal communications commission).

o La radio diffusion FM et FM stéréo :

La radio diffusion FM se produit sur les ondes VHF (very high frequency) dans
la gamme 88-108 MHz sauf au Japon (76 à 90 MHz) et en Russie (65,9 à 74 MHz).
Une largeur de bande de 200 kHz laisse suffisamment de place pour un écart de
signal de ± 75 kHz par rapport à la fréquence attribuée, plus des bandes de
garde pour réduire ou éliminer les interférences de canaux adjacents. Cette
bande passante permet de diffuser un signal audio de bande passante de 15 kHz
plus une sous-porteuse stéréo de 38 kHz.

Pour transmettre de la musique en stéréo, la modulation de fréquence a été


améliorée par le multiplexage stéréo en transportant à la fois les canaux L et
R.

Inversement au message à transmettre, la densité spectrale de puissance, exprimée en W/Hz, du


bruit est plus grande aux hautes fréquences. Le rapport signal sur bruit SNR ( signal to noise
ratio), aux hautes fréquences est inférieur à celui des basses fréquences.

11
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

Pour augmenter le SNR dans les hautes fréquences, les techniques de la préaccentuation en
émission et la désaccentuation en réception sont utilisées.

o La préaccentuation n'est rien d'autre qu'une amplification sélective aux fréquences les
plus élevées de notre signal audio.*

o La désaccentuation est utilisée pour atténuer les fréquences les plus élevées du signal
audio reçu. Dans ce cas, la puissance de bruit et la puissance du signal audio aux
fréquences élevées sont atténuées. Ainsi, la puissance du signal audio revient à son état
d'origine, cependant, la puissance de bruit est réduite. En conséquence, le SNR, en
sortie à ces fréquences plus élevées, est augmenté par rapport à un récepteur sans
préaccentuation et désaccentuation.

Pour que les émissions stéréo soient compatibles avec les récepteurs mono, les canaux (L) et
(R) sont codés algébriquement en signaux de somme(L + R) et de différence (L-R).

Le signal du canal principal (L + R) est transmis en tant qu'audio en bande de base (sans
transposition de fréquence) limité à la plage de 30 Hz à 15 kHz.

Le signal (L-R) est modulé en AM en signal double bande à porteuse supprimée DSB-SC (Double-
sideband suppressed-carrier), à la fréquence de 38 kHz occupant la plage de bande de base de 23
à 53 kHz.

Une fréquence pilote 𝑓𝑝 = 19 kHz (à exactement 38/2 kHz) est également générée avec une relation
de phase précise, telle que définie par la formule ci-dessous où A et B sont les signaux audio
gauche et droit préaccentués.

𝐴+𝐵 𝐴−𝐵
[0.9 [ − 𝑠𝑖𝑛 (2𝜋𝑓𝑝 𝑡)] + 0.1 𝑠𝑖𝑛 (2𝜋𝑓𝑝 𝑡)] × 75 𝑘𝐻𝑧
2 2

Le spectre résultant aura l’allure suivante :

12
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

Un récepteur mono utilisera donc uniquement le signal (L + R) pour que l'auditeur puisse
entendre les deux canaux via le haut-parleur unique.

Un récepteur stéréo ajoute le signal de différence au signal de somme pour récupérer le canal
gauche (L+R +L-R=2L) et soustrait le signal de différence de la somme (L+R-L+R) pour récupérer
le canal droit.

f. Normes audio numériques :

o Introduction :

Les premiers enregistrements numériques commerciaux ont été publiés en 1971 alors que la
modulation PCM ait été inventée par le scientifique britannique Alec Reeves en 1937. Le premier
enregistrement PCM 16 bits aux États-Unis a été réalisé par Thomas Stockham.

Les technologies audio numériques sont utilisées pour:

- l’enregistrement
- la manipulation
- la production en série
- la distribution du son : l’enregistrement de chansons, de pièces
instrumentales, de podcasts (série épisodique de fichiers audio ou vidéo numériques
qu'un utilisateur peut télécharger), d’effets sonores et d’autres sons.

Un signal audio numérique peut être :

- stocké : sur un CD, un lecteur audio numérique, un disque dur, une clé USB
ou tout autre périphérique de stockage de données numériques.
- transmis : sur support de transmission filaire (câbles, fibre optique…etc.)
ou non (air).

Le signal audio numérique peut être altéré suite au traitement du signal


numérique, où être filtré ou sujet à d’autres effets qui lui sont appliqués.

Remarque : avant le traitement, un sur-échantillonnage et un sous-échantillonnage, peuvent être


utilisés pour adapter les signaux aux différents taux de codage canal (si plusieurs sont
utilsés).

Les systèmes audio numériques peuvent inclure des composants de :

- compression et décompression,
- stockage,
13
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

- traitement
- transmission.

o Notions de compression et décompression audio (codage source)

De nos jours, la puissance des processeurs augmente plus vite que les capacités
de stockage, et plus vite que la bande passante des réseaux. Ainsi, pour
pallier à ce manque, il est courant de réduire la taille des données et ce en
exploitant la puissance des processeurs plutôt qu'en augmentant les capacités
de stockage et de transmission des données. Pour bien restituer un signal
analogique de bonne qualité (pour l'oreille humaine) à partir d'un signal
échantillonné (théorème de Shannon), il a été imposé aux CD audio un format de
stockage du son ayant les données suivantes :

o Fréquence d'échantillonnage = 44,1 kHz (44100 enchantions/s)


o Echantillons sont codées sur 16 bits (2 octets)
o Son stéréo (2 voix)

Exemple : Avec ce standard, la place occupée par une minute de musique est :

(44100*2 octets)*2 voix*60=10.584 Mo(Moctet) soit ⩳ 10 Mo pour stocker 1 minute


de musique stéréo et 30 à 40 Mo et donc stocker 3 à 4 minutes de musique!

o Principales normes de fichiers audio non compressés :

WAV ou WAVE (waveform audio file format): extension *.wave ou *.wav

Le format WAVE est construit conformément au RIFF (resource


interchange file format), c'est pourquoi on parle parfois de
RIFF/WAVE, mis au point par Microsoft et IBM (international
business machines) en 1991. Le format audio WAV le plus courant
est l'audio non compressé au format LPCM (linear-PCM). Il est
également le format de codage audio standard pour les CD audio,
qui stocke un son LPCM à deux canaux échantillonné à 44 100 Hz
avec 16 bits par échantillon.

AIFF (audio interchange file format) : extension *.aiff

AIFF est un format de fichier audionumérique développé par


Apple pour stocker les sons sur les ordinateurs de la marque.
Les données sont codées en PCM big-endian sans compression.
Ainsi, une piste CD Audio, codée en 16 bits, stéréo 44,1 kHz
aura un bitrate de 1 411,2 kbit/s.

14
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

o Principe de la compression audio :

• Quelques définitions :

- Codec : un codec (comression/decompression) est un appareil ou un


programme qui compresse les données pour la transmission et les décompresse
lors de la reception.
- Taux de compression : un taux de compression de 10, signifie qu'un
fichier de 40 Mo non compressé donne un fichier compressé qui fait 4 Mo à
la suite du codage (10 fois moins). Un taux de compression de 10, signifie
qu'un fichier d'un débit de 706 kbit/s donne un fichier compressé ayant un
débit de 70,6 kbit/s.
- bitrate : c’est le débit binaire, ou la quantité moyenne de données requise
par seconde de musique Il détermine la résolution audio. Le bitrate mesure
la qualité audio ! Plus le nombre de kilo-octets par seconde (kops) est
élevé, plus la qualité sonore du MP3 est proche de celle de la source
d'origine - et plus la taille du fichier est grande. est le nombre de bits
autorisés en 1 seconde.

Dans le cas de l'audio, les codecs affectent notre expérience d'écoute, que ça
soit avec un casque, des oreillettes ou des haut-parleurs Bluetooth.

IL existe un ensemble de techniques utilisées pour arriver une compression sur


un fichier audio. Parmi ces techniques, certaines sont dites destructrices
d'autres non-destructrices.

• Techniques de compression destructrices :

Parmi ces techniques, il existe celles qui exploitent les propriétés de


l'oreille humaine. Cette dernière filtre les fréquences situées dans la gamme
[20 Hz - 20 kHz] don si un morceau contient des fréquences hors de cette gamme,
ces dernières peuvent être supprimées sans perte de qualité audio (puisque
l'oreille ne les entend pas).

L’oreille humaine entend correctement les fréquences situées dans la gamme [2


kHz - 5 kHz] puisque à peine 5dB de niveau sonore suffisent pour entendre les
fréquences de la bande [2 kHz - 5 kHz] alors qu'il faut plus de 20dB pour
entendre les fréquences situées en dessous de 100Hz ou au-dessus de 10kHZ. Il

15
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

peut être donc décidé que toutes les fréquences au-dessus de 15kHz seront
supprimées.

Le principe des fréquences masquées peut également être utilisé ; en effet : si


dans un groupe de fréquences, certaines ont un niveau sonore beaucoup plus
élevé que d'autres, il n'est pas nécessaire de conserver les fréquences de
niveau sonore faible : elles ne seront pas entendues. Pour utiliser une
comparaison plus marquante, imaginez que vous êtes dans votre jardin et que
vous entendez des oiseaux. Un avion passe au-dessus de chez vous... Vous
n'entendez plus les oiseaux car le son qu'ils produisent est beaucoup plus
faible que celui généré par l'avion.

Exemple : si le son contient le pépiement des oiseaux et celui d’un avion qui décolle ou
atterrit (ou même à très haute altitude). Le son des oiseaux n’est plus entendu, comme si ces
derniers n'existaient plus ou avaient arrêté de chanter. Il n'est pas nécessaire de coder
toutes les fréquences présentes dans un morceau pour que l'oreille humaine le perçoive
correctement.

Il n’est donc pas nécessaire de coder toutes les fréquences présentes dans un
morceau pour que l'oreille humaine le perçoive correctement quand même. Enfin,
si les deux voies d'un son stéréo présentent des séquences semblables, au lieu
de dupliquer ces séquences, une seule information.

- Principales normes :

MPEG (moving picture experts group), est le groupe de travail SC 29/WG 11 du


comité technique mixte JTC1 (joint technical committee 1) de l’ISO et de la
CEI pour les technologies de l’information. Ce groupe d’experts qui a démarré
en 1988 est chargé du développement de normes internationales pour la
compression, la décompression, le traitement et le codage de la vidéo, de
l’audio et de leur combinaison, de façon à satisfaire une large gamme
d’applications.

MP3(MPEG-1 audio layer 3) : extension *.mp3

MP3 est variante, spécifiquement audio, de La 3ème version d’une


norme de compression vidéo du groupe MPEG pour un fichier audio
numérique standardisé par l'ISO fin 1992. Le MP3 utilise aussi le
principe des fréquences masquées. Les MP3 de 128 kbps sont
généralement considérés comme présentant le niveau de qualité
sonore le plus bas acceptable. Les fichiers MP3 de 192 kbps, 256
kbps ou plus conservent la plupart des informations sonores du
fichier WAV d'origine.

Il existe deux types de débits utilisés avec les MP3: le débit constant CBR(
constante bitrate) et le débit variable VBR(variable bitrate) ). De nombreux
MP3 modernes utilisent le format VBR, qui réduit la taille des fichiers en
codant certaines parties d’une chanson à un débit binaire faible, tandis que
d’autres sont codées à des débits plus élevés. Par exemple, une section d'une
chanson avec un seul instrument est plus simple et peut être encodée avec un
débit binaire pluscompressé, tandis que les parties d'une chanson avec une
instrumentation plus complexe doivent être moins compressées pour capturer
toute la gamme des sons. En faisant varier le débit binaire, la qualité sonore 16
globale d'un MP3 peut rester élevée, tandis que la mémoire nécessaire au
fichier est relativement réduite.
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

AAC (advanced audio coding) : extension *.aac


AAC est une norme de fichier audio numérique développé par un
groupe de sociétés comprenant AT & T, Bell Labs, Dolby, Nokia
et Sony. Apple a adopté AAC pour sa musique. AAC a été promu
comme successeur du MP3 (les raisons pour lesquelles AAC produit
un son de meilleure qualité que les MP3 sont complexes). Comme
le MP3, les débits courants du AAC incluent 128 Kbps, 192 Kbps
et 256 Kbps.

• Techniques de compression non destructrices :


si dans la suite
d'échantillons composant une seconde de musique (rappelons qu'il y en a
44100), par exemple, il y ait n fois de suite la même fréquence notée f1
alors au lieu de stocker n fois format audio relatifs à cette f1, on en
stocke 1 seul et le nombre n de fois où il se répète. Donc deux nombres sont
codés et non n.

Cette technique peut être utilisée, mais de manière destructive cette fois ci, pour des
fréquences très proches les unes des autres (si proches que l'oreille humaine moyenne ne puisse
les distinguer) en effet une fréquence est remplacée par une autrel'algorithme de Huffman
(1952) est utilisée dans tous les algorithmes de compression (compression de fichiers texte,
compression d'images, compression de sons). il repose sur l'utilisation d'un code de longueur
variable et la probabilité d'apparition d'un événement (en l'occurrence ici d'une fréquence).
Plus une fréquence apparaît souvent, plus son code sera court (nombre de bits faible pour la
représenter). Le fichier est lu une 1ère fois et on dresse un tableau des fréquences
apparaissant et le nombre de fois où elles apparaissent. Un code approprié en est déduit. Ce
type de codage est non destructeur.

- Principales normes :

FLAC (free lossless audio codec): extension *. flac.

FLAC permet une compression des fichiers sans perte de données


avec un taux d'échantillonnage qui peut atteindre 24 bits/192
kHz. Il est particulièrement adapté à l'archivage sonore en
qualité studio ou en qualité CD. Par ailleurs, il prend en
charge les métadonnées et les images de couverture, ce qui
facilite l'indexation. Une source audio encodée en Flac peut
diminuer de 30 à 70 % la taille initiale du fichier.

17
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

WMA (Windows Media Audio): extension *.wma

WMA a été développé par Microsoft. Le format WMA offre la


possibilité de protéger dès l’encodage les fichiers de sortie
contre la copie illégale par une technique nommée gestion des
droits numériques. Le format existe sous quatre formes : le WMA
Standard (le premier à être sorti), le WMA Pro( théoriquement
de meilleure qualité mais bien moins répandu), le WMA Lossless
qui offre une qualité sonore identique à l’original et le WMA
Voice (spécialement destiné à l’encodage de la voix et ce, à
faible débit (inférieurs ou égaux à 20 kbit/s). WMA Standard et
le WMA Pro sont capables de coder en CBR et en VBR.

WMA-CBR 320 kbit/s a qualité irréprochable tout comme le WMA-CBR 256 kbit/s, le WMA-CBR 192
kbit/s a une qualité excellente, le WMA-CBR 160 kbit/s a une très bonne qualité et le WMA-CBR
128 kbit/s a une qualité bonne.

ALAC (apple lossless audio codec) : extension *.m4a

ALAC est un format de compression sans perte (lossless) créé en


2004. ALAC permet de compresser sans aucune forme de dégradation
des fichiers musicaux au format PCM à un taux de compression
voisin de 40 à 50 %. ALAC prend en charge jusqu'à 8 canaux audio
à une profondeur de 16, 20, 24 et 32 bits avec une fréquence
d'échantillonnage maximale de 384 kHz.

g. Normes de diffusion numériques :

Le signal audio numérique peut être :

- acheminé via des interfaces audio numériques spécifiques (qui ne seront pas détaillées ce
cours)
- stocké grâce aux technologies : Blu-ray, CD (compact disc), DAT (digital audio tape )DCC
(digital compact cassette), DVD-Audio (digital versatile disc-audio), Hard disk recorder,
MiniDisc, MP3 player, Super Audio CD…etc.
- acheminé sur un réseau en utilisant l'audio via Ethernet, l'audio sur IP (internet protocol)
ou d'autres normes et systèmes de diffusion en continu (streaming).

- diffusé (radiodiffusion)

Les avantages de la radio numérique par rapport à la radio diffusion analogique :

18
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

- la qualité du son est améliorée : rapport signal/bruit SNR (signal to noise ratio), bande
passante, et diaphonie bien sont meilleures et , absence d'interférences entre stations
- plus de radios : il est possible de diffuser plusieurs radios sur la même fréquence en
compressant le signal
- possibilité de véhiculer de l'information associée (musique : titre et auteur du morceau,
données complémentaires d'information par exemple les coordonnées GPS d'un accident dans
un flash routière …etc.

Les inconvénients de la radio numérique:

- avec le numérique soit le signal passe, soit il ne passe pas : Risque d'absence de signal
(décrochage) dans les zones à réception difficile
- l’acquisition d’un nouveau module (multiplexeur) pour transformer un récepteur analogique
en récepteur numérique.

Rappels sur l’OFDM : Le multiplexage par répartition orthogonale de la fréquence OFDM est une
méthode de codage de données numériques sur plusieurs fréquences porteuses notés SP (sous
porteuses). Ce type de transmission est un passage obligé utilisé pour des transmissions
numériques à haut débit par voie Hertzienne. On le trouve notamment dans les applications
suivantes : DAB (digital audio broadcast) alias radio numérique ; DVB (digital video
broadcast) alias télévision numérique en modes T, C et S ; WLAN (wireless local area network)
alias WiFi (wireless fidelity) en modes a, g, n et ac ; WIMAX (worldwide interoperability
for microwave access) ; LTE 4G (long term evolution 4th generation).

Si une transmission a lieux entre 2 antennes directives en visibilité directe LOS (line of
sight) alors les erreurs dues à la transmission seront très faibles à condition que la
distance entre les antennes (pas) soit respectée. Exemples : faisceaux hertziens et liaison
satellite.

Si les antennes ne sont pas en visibilité directe alors l’antenne de réception recevra
plusieurs réflexions via des trajets multiples ou multi trajets (multipath) ; il va se
produire de l’évanouissement (fading) de l’amplitude ou de la puissance de la réponse
impulsionnelle du canal avec des creux plus ou moins profonds. Dans ce cas la transmission
devient rapidement inexploitable. Par ailleurs, il a été constaté qu’avec l’augmentation du
débit les interférences inter symboles ISI (inter symbole interférence)augmentaient.

19
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

Les opérations principales pour obtenir une transmission OFDM : ce processus très complexe
n’est viable que grâce à des composants a haute intégration. Le dessin ci-dessous est un
schéma de principe ne montre que les opérations principales du processus.

Le principe de l’orthogonalité : On voit sur le dessin ci-dessus que par rapport à une série
de porteuses conventionnelles, la répartition Orthogonale permet de mettre un beaucoup grand
nombre de sous porteuses dans la largeur du spectre allouée. On remarque que l’amplitude
maximum d’une sous porteuse correspond à l’amplitude minimum des 2 sous porteuses qui
l’entourent ; c’est le principe de base de l’Orthogonalité.

À l’émission :

- le bloc Encode transforme le flux binaire (bit stream) en un type de modulation en


fonction du débit binaire à atteindre soit du QPSK (quadrature phase shif keeying), 8PSK
(8 phase shift keying), 16 QAM ... etc. qui seront implémentés sur les sous-porteuses.
- Le bloc S/P : réalise la conversion série-parallèle repartit le flux binaire en multi
porteuses
- Le bloc : IFFT (inverse fast fourier transform) crée les sous porteuses orthogonales.
- Le bloc P/S : réalise la conversion parallèle-série crée un signal modulant qui comprend
une porteuse principale et toutes les sous porteuses.
- le bloc TX contient :

▪ un étage d’insertion d’un préfixe cyclique CP (cyclique prefix)qui permet principalement


d’éliminer les interférences qui pourraient provoquer des erreurs à la réception. Sur la
figure, le CP est représenté par le caractère Δ.

20
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

▪ un étage de conversion numérique analogique DAC (digital to analog converter) pour


adapter le signal au canal de transmission (interface air notamment). Le synmbole OFDM
est séparé en partie réelle et partie imaginaire. Chacune d’entre elles modulera une
porteuse.

A la réception :

Les mêmes opérations sont réalisées en sens inverse avec une FFT (fast fourier transform )
utilisée au lieu d’une IFFT.
L’OFDMA (orthogonal frequency division
multiple access) est de l’OFDM qui
inclut un système d’allocation des
ressources, c’est-à-dire que pour
chaque utilisateur un certain nombre
de SP.

SC (sigle carrier) signifie


monoporteuse ou porteuse unique.

21
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

La transmission à porteuse unique SC signifie qu'une seule porteuse RF est


utilisée pour acheminer les informations sous forme de bits ou de symboles
MPSK, MQAM …etc alors que l’OFDM, (également connu sous le nom de transmission
ou modulation multi-porteuses) utilise plusieurs porteuses à différentes
fréquences, en envoyant une partie des bits, convertis en sympboles MPSK, MQAM
…etc. sur chaque sous porteuse. Ceci est similaire au multiplexage par
répartition en fréquence FDM (frequency division multiplexing), cependant dans
le cas de l’OFDM, tous les sous-canaux sont dédiés à une source de données
unique.

o Principaux standards de la radio diffusion numérique :

DAB (digital audio broadcasting) : est un projet de recherche européen


initié en 1980. Les premières diffusions furent lancées en 1995 par des
stations norvégiennes, suédoises et britanniques. La version originale du DAB
utilise le codec MP2 (MPEG-2 audio layer II) qui est un schéma de compression
avec pertes (ISO/IEC 11172-3).

22
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

DAB permet la diffusion numérique de programmes


radiophoniques, via les ondes hertziennes par voie
terrestre ou par satellite. Dans de bonnes
conditions de réception, la qualité est analogue à
celle des baladeurs numériques ou des lecteurs de
CD audio. Chaque programme est accompagné
d'informations telles que son nom, le titre des
émissions ou des morceaux diffusés à l'antenne, et
même éventuellement des images et données
supplémentaires. Un récepteur adapté doit être
utilisé. Les traditionnels récepteurs de radio analogique
AM et/ou FM ne peuvent décoder les données numériques du DAB.

Par rapport à la radio FM, le DAB offre un certain nombre d'avantages à ses
auditeurs :

- absence de bruit de fond (souffle) dû à une réception moyenne ou aux


perturbations
- possibilité de diffuser plus de stations
- établissement totalement automatique de la liste des stations par le
récepteur
- données associées aux programmes potentiellement plus riches que celles
offertes par le RDS : textes, images, informations diverses, sites web
- robustesse face aux perturbations lors d'utilisation en réception mobile
(voiture, train) y compris à grande vitesse.

DAB+ est une version mise à niveau du système publiée en février 2007, qui
utilise le codec audio HE-AAC v2 (high-efficiency advanced audio coding version
2) communément appelé AAC + ou aacPlus. C’est un format de codage audio
destiné à la compression de données audio avec perte, défini comme un profil
audio MPEG-4 dans ISO / IEC 14496-3. HE-AAC v2 est environ trois fois plus
efficace que MP2.

Comme toute transmission numérique, et pour rendre la transmission plus robuste contre les
erreurs, les techniques du codage convolutif avec perforation (puncturing) et de Reed-Soloman
ont été utilisés tout au long de l’évolution du system DAB et DAB+. L'immunité contre les
évanouissements et les interférences entre symboles ISI (inter symbol interference) dus à
la propagation par trajets multiples est obtenue au moyen des techniques de modulation OFDM
et DQPSK (differential phase shift keying).

23
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

Les stations de radio sont regroupées en bouquets appelés ensembles ou multiplex. Un


multiplex correspond globalement à un flux de données numériques, transmis par un émetteur
DAB sur une fréquence donnée.

o Fréquences utilisées
Selon les pays, la bande III en VHF (174–240 MHz) et la bande L en UHF
(1452–1492 MHz) peuvent être allouées au DAB. Le DAB est adapté aux réseaux
à fréquence unique : tous les émetteurs d'une même région peuvent
fonctionner sur la même fréquence. Ceci facilite la planification des
fréquences. L’OFDM permet l’utilisation de réseaux mono fréquences SFN
(single frequency network), ce qui signifie qu’un réseau d’émetteurs peut
couvrir une vaste zone - jusqu’à la taille d’un pays - où tous les émetteurs
utilisent la même fréquence de transmission.
Les émetteurs faisant partie d'un réseau SFN doivent être parfaitement synchronisés avec les
autres émetteurs du réseau, ce qui oblige les émetteurs à utiliser des horloges très
précises. Lorsqu'un récepteur reçoit un signal qui a été transmis par les différents
émetteurs faisant partie d'un SFN, les signaux des différents émetteurs auront typiquement
des retards différents, mais pour l’OFDM, ils apparaîtront simplement comme des multi trajets
différents du même signal.

En mode I, la modulation OFDM est constituée de 1 536 porteuses. La période


utile d'un symbole OFDM est 1 milliseconde, donc chaque porteuse OFDM occupe
une bande de 1 kHz de large. Un multiplex occupe en tout une largeur de
bande de 1,536 MHz. L'intervalle de garde est de 246 microsecondes, donc la
durée totale d'un symbole est de 1,246 ms. La durée de l'intervalle de garde
détermine la distance maximum entre des émetteurs qui font partie du même
réseau à fréquence unique, soit ici environ 74 km.

o Codrate : pour un taux de codage d’environ 1/2, le DAB fournit un débit


total par multiplex d'environ 1 184 kbit/s.

24
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

Services associés : Le débit


disponible dans un multiplex est
réparti en « services » de plusieurs
types : services primaires pour les
stations de radio principales ;
services secondaires pour les
commentaires sportifs supplémentaires
et, services de données tels le
guide de programmes, des diaporamas
synchronisées avec les émissions,
pages web et images, …etc. Au 1er
janvier 2017, selon le WorldDAB, le
taux d'équipement de récepteurs DAB
dans le monde est de plus de 53
millions en postes vendus.

DRM (digital radio mondiale) est une norme de


radiodiffusion numérique pour les ondes courtes,
moyennes et longues (fréquences en dessous de 30
MHz). Il a été conçu par un consortium* de
diffuseurs, de constructeurs d'émetteurs/récepteurs
et de centres de recherche. Le lancement officiel du
système DRM a eu lieu en juin 2003 à Genève. DRM a
été normalisée l'ETSI (référence : ES 201 980) et
reconnue par L’ITU comme moyen de radiodiffusion
numérique pour ces gammes d'ondes.

* Consortium : groupement d'acteurs, notamment d'entreprises, résultant d'une collaboration à un projet


ou programme dans le but d'obtenir un résultat.

La diffusion peut être effectuée sur différentes largeurs de bande :


9 kHz ou 10 kHz qui sont les largeurs de bande standards des canaux de
radiodiffusions pour les SW, MW et LW (< 30 MHz). En choisissant ces
largeurs de bande on reste ainsi en accord avec la planification des
fréquences effectuées dans ces bandes de fréquence.

La diffusion peut être effectuée sur différentes largeurs de bande :

▪ 9 kHz ou 10 kHz qui sont les largeurs de bande standards des canaux de
radiodiffusions pour les ondes courtes, ondes moyennes et ondes longues
(< 30 MHz). En choisissant ces largeurs de bande on reste ainsi en accord
avec la planification des fréquences effectuées dans ces bandes de
fréquence.

▪ 4,5 kHz ou 5 kHz qui sont des demi-canaux et qui sont prévus dans le cas
où le diffuseur souhaite faire de la diffusion en simulcast sur le même
émetteur, c’est-à-dire émettre simultanément en analogique AM et en
numérique DRM.
25
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

▪ 18 kHz ou 20 kHz qui correspond à coupler deux canaux standards si la planification des
fréquences le permet. Cela permet d'offrir un service de meilleure qualité.

Pour la transmission, la modulation utilisée par la DRM est une


constellation QAM (quadrature amplitude modulation) : 64-QAM, 16-QAM et
4-QAM avec un codage d'erreur qui peut être variable. L'ensemble du canal
radio est codé selon le procédé OFDM qui permet d'obtenir une excellente
robustesse du signal par rapport aux échos destructifs de propagation.
Le principe consiste à obtenir une importante densité spectrale en répartissant le flux total
du signal numérique sur de nombreuses sous-porteuses modulées individuellement en QAM.
D'autre part les phases de ces sous-porteuses sont orthogonales entre elles dans le but de
renforcer la diversité du signal par rapport aux échos de propagation.

o Coderate : Les débits de donnée utiles atteints par DRM vont de 8


kbit/seconde à 20 kbit/seconde pour un canal de radiodiffusion standard
(10 kHz de largeur de bande).

o Codec :

- MPEG-4 AAC qui est un codage perceptuel adapté à la voix et la musique


comme le mp3.

- MPEG-4 CELP (code excited linear prediction) qui est un codage prévu pour la
voix uniquement (vocodeur) mais possède une grande résistance aux erreurs et
nécessite un faible débit de données.

- MPEG-4 HVXC (harmonic vector excitation coding) qui est également un codage
pour la voix mais qui nécessite un débit de donnée encore plus faible.

- SBR (spectral bandwidth replication) qui est en fait une extension aux
codeurs précédents et qui permet d'augmenter la largeur de bande et
reproduire ainsi les fréquences aigües lorsque les débits de données sont
faibles.

- PS (parametric stereo) qui est une extension de SBR pour reproduire un


signal stéréo.

Le mode le plus couramment utilisé actuellement est le AAC+SBR qui permet


une reproduction avec une qualité proche de la diffusion FM. Celui-ci
nécessite cependant un débit de donnée suffisant (au moins 17 kbit/s).

o Principaux canaux :

- MSC (main service channel): canal principal de service. C'est celui qui
transporte le service à proprement parler, soit les données audio et les
données associées (textes, et images). Son débit est donc élevé.

- SDC (service description channel): canal de description du service. Ce canal


contient des informations complémentaires concernant les services (comme la
langue, les changements, l'heure, …etc.) et permet ainsi le décodage des
différents flux MPEG ou Data.

26
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

- FAC (fast access channel): canal d'accès « rapide ». Celui-ci transporte les
informations minimum concernant la modulation utilisée ainsi que les types
des différents services (radio). Il permet au récepteur de se paramétrer correctement
pour démoduler le signal et décoder le service identifié grâce à un code unique attribué au
diffuseur. C'est donc le premier canal qui est décodé par le récepteur, son débit de données
est faible. Il doit être robuste par rapport aux deux autres.

- Générateur de porteuse. Ce n'est pas un canal à proprement parler mais un mécanisme qui
consiste à fixer certaines porteuses OFDM, c’est-à-dire ne pas les moduler et les laisser
constantes. Certaines sont définitivement fixes et d'autres sont fixées à intervalles
régulier suivant un motif prédéfini. Ce mécanisme permet au récepteur, lorsqu'il trouve un
signal DRM, de rapidement régler précisément sa fréquence et de se synchroniser au signal de
l'émetteur.

DRM+ : la norme DRM est conçue pour les bandes de radiodiffusion inférieures à
30 MHz. Le consortium DRM a voté en mars 2005 un projet d'extension du système
aux bandes VHF jusqu'à 120 MHz. DRM+ est le nom de cette nouvelle technologie.
Les procédures de développement, de tests, d'homologation et de configuration
sont prévues pour le créneau 2007 à 2009. Une bande passante de 50 kHz en DRM+
autorisera un programme audionumérique presque comparable à la qualité d'un CD
audio (pour rappel les CD audio sont échantillonnés à 44,1 kHz avec une
quantification sur 16 bits).

Le 31 août 2009, DRM+ est devenue une norme officielle de diffusion lors de la publication par
l'ETSI des spécifications techniques. Le document porte la référence ETSI ES 201 980 v3.1.1. Il
s'agit effectivement d'une nouvelle version de toute la spécification DRM, comprenant un mode
additionnel qui permet le fonctionnement en fréquence dans la tranche de 30 MHz à 174 MHz.

o DVB (digital video broadcasting). Standard destiné à l'origine pour la télévision mais qui
inclut la diffusion radio (voir paragraphe sur la diffusion vidéo)
o Astra Digital Radio, système de diffusion par satellite
o DSR (digital super radio), système de diffusion par câble et satellite
o …etc.

Exemple : Première en Algérie. A l'occasion de la Journée Mondiale de la Radio,


la station pilote de TDA (télédiffusion d'Algérie) à Tamenfoust, dédiée à la
radio numérique terrestre en mode T-DAB+, est entré en service le mardi 13
février 2018. Cette station diffusera, avec une puissance de 600 Watts un
bouquet de quatre chaînes au centre et à l'est de la capitale : chaîne I, II,
III et Jil FM, soit 68% de la population de la wilaya d'Alger.

o Systèmes propriétaire de diffusion radio par satellite : parmi ces


systèmes, on peut citer ADR (astra digital radio) qui appartient à la
société SES (société européenne des satellites) ; Sirius XM Radio qui
est un opérateur américain de radio numérique par satellite ; Worldspace
basé à Washington qui est un groupe de médias et de divertissement
possédant la capacité de diffuser de la radio numérique par satellite
dans plus de 130 pays.

27
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

2.1.2 Normes de vidéo diffusion

a) Définitions :

• Le signal vidéo est le signal optique (converti en électrique) qui permet


de transmettre une succession d'images d'une source tels une caméra, un
magnétoscope, un lecteur DVD, un décodeur TNT (télévision numérique
terrestre)…etc. vers un récepteur tels un moniteur, un téléviseur, un
magnétoscope ou un enregistreur pour divers supports …etc.
La télévision n'existerait pas si l'on n’avait pas trouvé le moyen de transformer une image en courant
électrique (rôle de la caméra). Il en est de même pour le son (rôle du microphone). Nous pouvons voir les
choses parce qu'elles reflètent la lumière dans nos yeux. Un appareil photo (immobile) ordinaire photographie
les objets en capturant cette lumière sur un film photosensible ou en utilisant un détecteur de lumière
électronique (dans le cas d'un appareil photo numérique) pour créer une image instantanée (snapshot) relative
à l'apparition d'un élément à un moment donné.

Une caméra de télévision fonctionne différemment: elle doit capturer un évènement instantané plus de 24 fois
par seconde (pour le cinéma) pour créer l’illusion d’une image en mouvement. En effet, quand on fait
succéder devant notre œil des images qui représentent un mouvement, à partir d'une certaine cadence, notre
œil à l'impression qu’il y a continuité du mouvement. Par contre, quand la cadence n'est pas assez rapide, on
a l'impression de voir un mouvement discontinu (principe de la persistance rétinienne*).

*la persistance rétinienne : lorsque la lumière entrant dans l'œil est coupée, l'impression de la lumière
persiste pendant environ un dixième de seconde. Donc, si tous les éléments d'image (de haut en bas et de
gauche en droite) sont présentés successivement à l'œil durant un dixième de seconde ou moins, toute la zone
de l'écran apparaît éclairée, bien qu'en fait, un seul point de lumière soit présent à tout instant.

À la base, la cadence de ces images était de 16


images/s pour le cinéma muet (noir et blanc).
Aujourd'hui ce taux est fixé à 24 images/s
notamment pour avoir un couplage de bonne
qualité concernant le son et l'image. Ce
processus transforme l'image, selon la norme,
en 625 en PAL (phase alternation line) et SECAM
(sequential color & memory) ou 525 en NTSC
(national television system committee) lignes de
lumière colorées (comprenant le noir et blanc).
Dans le même temps, les microphones du studio de
télévision capturent le son associé à l’image.
Celui-ci est transmis avec les informations
d'image sous forme de signal audio séparé.
28
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

Remarque : sous Android, iOS ou Windows Phone, appli caméra d’un smartphone
filme par défaut en 30 (29,97) images par seconde.

- Fréquence de rafraîchissement : elle définit le nombre d’images qui s’affichent par


seconde à l’écran. Il est mesuré en hertz (Hz). Les deux fréquences standard sont 50 Hz et
100 Hz. Ces vitesses de rafraîchissement sont très insuffisantes pour l'œil humain qui
perçoit un papillotement (flicker) sur moniteur de visualisation classique

• Balayage : il définit l'ordre de


scrutation (scanning) de l'ensemble des
éléments constituant l'image. Il se fait
en lignes de gauche à droite, la suite
des lignes étant formée de haut en bas;
l'origine est le coin supérieur gauche.
Le nombre total de lignes est :

▪ 625 en norme PAL et SECAM avec un temps


consacré à une ligne de 64 µs soit une
fréquence ligne de 15.625 KHz. Le
balayage complet d'une image demande
donc 40 ms soit 25 ips (images par
seconde).

▪ 525 en norme NTSC avec un temps


consacré à une ligne de 63.556 µs soit
une fréquence ligne de 15.734 KHz. Le
balayage complet d'une image demande
soit 30 ips.

La fréquence 200 Hz est très peu répandue

Les détecteurs de lumière à l'intérieur de la caméra balayent ligne par ligne l'image filmée. Cette dernière
est "scannée" séquentiellement, de haut en bas, de gauche à droite, tout comme nos yeux le feront (ou
presque) pour voir, par exemple, un tableau dans une galerie d'art par exemple. À l'origine de toute cette
activité télévisuelle, on retrouve les électrons qui ont été découvert en 1895 par Joseph J. Thomson, sous
la forme de rayons cathodiques (un flux de particules d'électrons). Ce qui est vraiment intéressant pour les
rayons cathodiques, c'est qu'ils peuvent être déviés par des champs magnétiques et électriques.

L’image noir et blanc est analysée en appréciant la luminance (caractère clair


ou sombre) des différentes parties qui la composent.
Pour arriver à ce résultat, le traitement effectué par la caméra est le suivant :

- un système complexe de lentilles projette l’image sur l’écran d’un tube cathodique CRT
- un faisceau d’électrons issu d'une cathode frappe la cible par l’arrière
- le spot est finement concentré et dimensionne ainsi un point d'analyse de luminance
- ce spot se déplace horizontalement et verticalement (ligne par ligne) pour balayer toute l’image

29
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

- la face arrière du tube est recouverte d’un matériau photosensible, au départ du ZnS ou Zn3Sb, a été
remplacé par un réseau de photodiodes
- le courant qui sort de la cathode est proportionnel à cette luminance
- on recueille aux bornes d’une résistance l'amplitude instantanée du signal vidéo

• Luminance : Le signal vidéo


est un signal électrique
traduisant ligne par ligne les
variations de luminosité d’une
image en variations de tension
proportionnelles. Un noir
parfait donne une tension
nulle de 0 Volt, tandis que le
blanc est représenté par la
valeur 0,7 Volt. Ce signal est
encadré de tops de
synchronisation qui précisent
la position des bords gauche
et droite de l’écran.

L’analyse séquentielle de l’image de télévision par une succession de lignes se traduit, pour la luminance ,
par un spectre sous forme de raies ; l’énergie n’est transportée qu’à des fréquences multiples de la
fréquence ligne. Dans les systèmes à 625 lignes, la bande passante de la luminance a été fixée à 5,5 MHz pour
la diffusion et celle de la chrominance à 1,5 MHz (ces valeurs sont respectivement de 4,2 et 1,4 MHz dans les
systèmes à 525 lignes).

▪ balayage à entrelacement : Il consiste à balayer verticalement à vitesse double, ce qui donne


naissance à deux demi-images comportant chacune la moitié des lignes soit 312.5 en Europe ou
262.5 en standard US. Les demi-images sont appelées trame (frame) paire et trame impaire,
décalées de la hauteur d'une ligne.

30
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

Dans les systèmes à 625 lignes, la bande passante de la luminance a été fixée à 5,5 MHz pour la diffusion

L’analyse séquentielle de l’image de télévision par une succession de lignes se traduit, pour la luminance comme pour
par un spectre sous forme de raies ; l’énergie n’est transportée qu’à des fréquences multiples de la fréquence ligne.

Du côté du récepteur, si on déplace des flux d'électrons dans un une zone à travers un tube cathodique CRT on
obtient un balayage (scanning). Ce processus consiste à décomposer la scène en éléments d'image et à les
réassembler sur l’écran. C'est comme le mouvement de votre œil lorsque vous lisez cette page. Dans la
numérisation, la scène est divisée en une série de lignes horizontales.

Au niveau de l’écran de télévision, ce signal est récupéré et contrôle le CRT dont les parois
intérieures sont revêtues d’une matière phosphorescente qui émet de la lumière lorsque la matière est
frappée par les rayons cathodiques. Le CRT crée une image composée de lignes horizontales tout comme celles
produites dans la caméra. Lorsque la caméra examine la ligne supérieure, une lumière produite par le tube
cathodique se déplace sur l'écran et produit la ligne de lumière la plus haute sur l'écran. Le signal vidéo
fait de sorte que le spot de lumière devienne sombre ou éclairé pendant son déplacement, ainsi les éléments
photo scannés par la caméra sont reproduits ligne par ligne (horizontalement et verticalement) sur le
moniteur, jusqu'à ce que toute la zone de l'écran soit recouverte, complétant l'image. Ensuite, le processus

• Chrominance : la chrominance est un ensemble


de trois nombres, chacun représentant la
quantité de couleur primaire qu'il faut pour
obtenir la bonne couleur à l'écran. Ces
nombres sont compris généralement entre 0 et
255. Par exemple, un signal (0;0;0) donnera
du noir et un signal (255;255;255) donnera
du blanc. Quand les trois indicateurs sont
égaux (ex: (5;5;5)), on a du gris plus ou
moins foncé en fonction de la valeur.

31
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

Le signal vidéo est nettement plus complexe qu'un son. Il comporte des informations visuelles,
exprimées pour une image généralement sous la forme d’une combinaison trois couleurs
fondamentales RGB (red green blue) à laquelle il faut ajouter le blanc et le noir et ce pour
tout point de l'espace, et une information temporelle née du mouvement des objets. Une image
vidéo analogique en couleurs peut être reconstituée par le mélange, à quantité variable, des
trois couleurs primaires rouge, vert, bleu. Les signaux dits « en composantes » sont fabriqués
à partir d’une recomposition linéaire des signaux primaires RVB, conduisant à un signal de
luminance Y (représentant à lui seul l’image en noir et blanc), et deux signaux dits de
différence de couleurs R-Y et B-Y, notés Dr et Db. Ces trois signaux composantes Y, Dr, Db sont
combinés en un unique signal vidéo appelé signal composite. Le mode de combinaison des deux
signaux de différence de couleurs Dr et Db entre eux, ainsi que la manière dont ils sont ajoutés
au signal de luminance, diffèrent selon les standards de codage NTSC, PAL et SECAM. Ce signal
composite présente l’avantage indéniable d’être transmissible sur une seule voie. Il est utilisé
en diffusion hertzienne et a été repris seulement par deux formats numériques, le D2 et le D3.

Les raies du spectre de la chrominance sont imbriquées


entre celles du spectre de la luminance, ainsi les sont
inclues les informations de couleur dans la largeur de
canal occupée par la luminance. Dans un signal composite,
les signaux de chrominance modulent une sous-porteuse
intermédiaire dont la fréquence est choisie dans le haut du
spectre de la luminance, partie la moins encombrée car
correspondant aux détails fins de l’image.

- L’information de luminance dispose d’une bande


passante de 6 MHz. Celle-ci est nominalement plate
jusqu’à 5,5 MHz, avec un affaiblissement d’au moins 12
dB à 6,75 MHz.
- Les signaux de différence de couleurs Dr et Db ont
une bande passante nominalement plate jusqu’à 2,75
MHz, avec un affaiblissement d’au moins 12 dB à 3,375
MHz.
- À la réception, les signaux de luminance et de
chrominance sont séparés

Le signal analogique souffre d’un inconvénient majeur :


il est très fragile. Son enregistrement, son traitement
ou sa transmission lui font subir différents types de
dégradations, qui altèrent rapidement sa qualité. Ainsi,
la composante de bruit, qui vient inévitablement se
superposer au signal utile, est directement liée au
nombre et à la qualité des traitements appliqués. Elle
est communément quantifiée par le rapport entre
l’amplitude maximale du signal d’origine et celle du
bruit qui lui est ajouté, appelé rapport signal sur
bruit ou S/B (en vidéo, il varie de 40 dB en VHS à plus
de 60 dB pour les caméras broadcast) par ailleurs, la
réponse amplitude/fréquence des circuits de traitement
n’est jamais parfaitement linéaire ; il s’ensuit une
distorsion du signal, donc une modification de
l’information véhiculée. Tous ces phénomènes ne font que
se multiplier lorsque sont cumulées des copies de bandes
successives, copies dont la qualité s’affaiblit très
vite avec le nombre de générations. 32
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

Pour favoriser l’échange


international des programmes, il
a été décidé de numériser des
données communes à tous les
pays. C’est donc logiquement la
numérisation des composantes Y,
Dr, Db qui a été retenue. Selon
la convention adoptée, les
composantes de couleur Dr, Db
numérisées deviennent Cr, Cb

La fréquence la plus élevée à laquelle un signal vidéo est susceptible de


varier est de 6 MHz pour la vidéo et 20 kHz pour l’audio. La norme mondiale
adoptée, impose une fréquence d’échantillonnage du signal de luminance :

Fe(Y) = 13,5 MHz (cette fréquence est égale à 864 fois la fréquence ligne des systèmes
à 625 lignes et à 858 fois celle des systèmes à 525 lignes)

33
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

• Numérisation d‘un signal vidéo


le :
principe de la numérisation d'une image
vidéo est assez simple. La première étape
consiste à sous diviser chaque image vidéo
selon une résolution donnée (normalement
720 x 486 pixels pour une image vidéo
normale) et à associer une valeur numérique
à chacun des éléments qui forment la
couleur de ce pixel RGB (rouge vert bleu)
en utilisant une table de conversion de
couleurs (normalement 24 bits par pixels
pour 16 millions de couleurs possibles en
chaque point :𝟐𝟐𝟒 = 𝟏𝟔𝟕𝟕𝟕𝟐𝟏𝟔). Ce procédé de
conversion doit se faire très rapidement
étant donné qu'une image vidéo
- traditionnelle
Balayage : ilcontient plusieurs
définit milliers
l'ordre de
de pixels ;
scrutation (scanning) de l'ensemble des
éléments constituant l'image. Il se fait
b)
en La norme
lignes de vidéo
gaucheanalogique : suite des
à droite, la
lignes étant formée de haut en bas;
La norme vidéo est internationale; elle possède néanmoins deux variantes non
l'origine est le coin supérieur gauche. Le
compatibles selon les pays d'origine: la norme américaine dite NTSC et la
nombre total de lignes est :
norme européenne CCIR (comité consultatif international des
radiocommunications).
▪ 625 en norme CCIR avec un temps consacré à
une ligne de 64 µs soit une fréquence ligne
de 15.625 KHz. Le balayage complet d'une
image demande donc 40 ms soit 25 ips
(images par seconde).
• Définitions :

▪ 525 en norme NTSC avec un temps consacré à


une ligne de 63.556 µs soit une fréquence
ligne de 15.734 KHz. Le balayage complet
d'une image demande soit 30 ips.

- Fréquence de rafraîchissement : elle définit le


nombre d’images qui s’affichent par seconde à
l’écran. Il est mesuré en hertz (Hz). Les deux
fréquences standard sont 50 Hz et 100 Hz. Ces
vitesses de rafraîchissement sont très insuffisantes
pour l'œil humain qui perçoit un papillotement
(flicker) sur moniteur de visualisation classique

La fréquence 200 Hz est très peu répandue.

34
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

- Balayage sans et avec entrelacement :

▪ balayage sans entrelacement : c’est le


balayage par définition (voir plus
haut)

▪ balayage à entrelacement : Il consiste


à balayer verticalement à vitesse
double, ce qui donne naissance à deux
demi-images comportant chacune la
moitié des lignes soit 312.5 en Europe
ou 262.5 en standard US. Les demi-
images sont appelées trame (frame)
paire et trame impaire, décalées de la
hauteur d'une ligne.

Lorsqu’on affiche 50 demi-images par


seconde sont affichées, ce sont 50 images
entrelacées par secondes. D’où la
dénomination 50i ou i signifie interlaced
(entrelacé en anglais).

L’inconvénient du balayage progressif est que à l’époque où les écrans de téléviseurs à CRT,
c’est-à-dire composés d’un canon à électrons parcourant l’écran de haut en bas et de gauche à
droite, les luminophores bombardés d’électrons avaient tendance à perdre de leur intensité au
cours du temps. Ceux qui étaient touchés par le faisceau lumineux au début de l’affichage de

35
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

l’image (en haut de l’écran) étaient donc moins lumineux que ceux touchés à la fin de
l’affichage de l’image en bas de l’écran.

L’apparition d’une nouvelle image provoquait un effet de scintillement, puisque les luminophores
supérieurs étaient de nouveau bombardés à pleine puissance, et reprenaient leur intensité
maximale.

Entrelacer une image revient à la découper deux demi-images appelées trames. Ce découpage
s’effectue par ligne ; toutes les lignes paires forment une demi-image, tandis que toutes les
lignes impaires forment la seconde moitié de cette image. Ainsi, le téléviseur affiche une trame
par balayage. Lorsqu’il affiche la seconde trame, la différence de contraste se fait avec les
photophores des lignes précédentes et suivantes, et non avec le haut et le bas du téléviseur.
Or, comme ces lignes sont très petites, l’œil fait automatiquement « la moyenne » des deux
luminosités et l’on ne perçoit pas la différence ; le scintillement est annulé.

• Standards :
Il existe 3 standards de codages analogiques de la vidéo en couleurs
(différents de ceux du cinéma): le NTSC, le PAL (phase alternation line) et le
SECAM (sequential color & memory). Ces trois techniques utilisent un balayage
avec entrelacement. Ces trois standards sont distribués à travers le monde de
la manière suivante :

- La standard NTSC :

Développé aux États-Unis, il est le premier standard de télévision national en


couleurs commercialisé. Les retransmissions publiques débutent officiellement
en 1954 (téléviseur couleurs mécaniques de type RCA : Radio Corporation of
America)

36
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

lignes/nombre de trames 525/60

fréquence horizontale 15.734 kHz

fréquence verticale 60 Hz

fréquence porteuse couleur 3.579545 MHz

largeur de bande vidéo 4.2 MHz

porteuse audio 4.5 MHz (FM)

- le standard PAL :

Développé en Allemagne, il exploite plusieurs brevets du


NTSC, pour procéder à des améliorations sur la couleur. Les
retransmissions commencent en 1967.

PAL B-G-H PAL I PAL D PAL N PAL M

lignes/ trames 625/ 50 625/ 50 625/ 50 625/ 50 525/ 60

fréquence horizontale 15.625 kHz 15.625 kHz 15.625 kHz 15.625 kHz 15.734 kHz

fréquence verticale 50 Hz 50 Hz 50 Hz 50 Hz 60 Hz

fréquence porteuse vidéo 4.433618 4.433618 3.582056 3.575611


4.433618 MHz MHz
couleurs MHz MHz MHz

largeur de bande vidéo 5.0 MHz 5.5 MHz 6.0 MHz 4.2 MHz 4.2 MHz.

porteuse audio 5.5 MHz (FM) 6.0 MHz 6.5 MHz 4.5 MHz 4.5 MHz

37
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

- le standard SECAM :

Développé en France. Début de la diffusion commerciale en


1967.

SECAM B-G-H SECAM D SECAM K-K1 SECAM L

lignes/nombre de trames 625/50 625/50 625/50 625/50

fréquence horizontale 15.625 kHz. 15.625 kHz. 15.625 kHz. 15.625 kHz.

fréquence verticale 50 Hz 50 Hz 50 Hz 50 Hz

largeur de bande vidéo 5.0 MHz 6.0 MHz 6.0 MHz 6.0 MHz

porteuse audio 5.5 MHz (FM) 6.5 MHz (FM) 6.5 MHz (FM) 6.5 MHz (AM)

• La vidéo numérique

La vidéo numérique comprend une série d’images numériques (de données numériques codées)
affichées en succession rapide. Elle a été introduite commercialement pour la première fois en
1986 et existe sous les formats compressés et non compressés. Contrairement aux sources
analogiques, la vidéo numérique peut être copiée sans dégradation de la qualité et peut être
stockée sur un support numérique ou diffusée sur internet.

L'image vidéo non compressée:

Si un signal vidéo de 720x486 pixels de résolution est numérisé en utilisant la


norme YUV 4:2:2, le fichier résultant, pour le format NTSC, sera de 1025,16 Ko
par image ou 30,03 Mo/sec. C'est ce qu'on appelle le format non compressé de
ratio 1:1.

Pour le PAL, les calculs donneront environ 25,03 Mo/sec en se basant sur la
résolution 720 x 576 pixels à 25 images/sec.

Avec un débit d'environ 30 Mo/sec, la vidéo numérique non-compressée exigerait


donc plus de 1.8 Go d'espace disque pour capter 1 seule minute de vidéo.

38
Université de Blida 1 Master Réseaux & Télécom
Faculté de Technologie UED : Normes Semestre 1 Année 2019-2020
Département d’Electronique et Protocoles

https://fr.wikipedia.org/wiki/Radio_AM
https://www.cima.ned.org/publication/power-airwaves-role-spectrum-management-
media-development/
https://fr.wikipedia.org/wiki/Radio_num%C3%A9rique
http://www.aps.dz/sante-science-technologie/69727-tda-premiere-station-
experimentale-de-la-radio-numerique-terrestre-en-mode-t-dab
https://videonline.info/wp-content/uploads/2016/11/the_horse_in_motion.jpg
https://www.quora.com/How-does-TV-work
https://www.youtube.com/watch?v=z1lG8BjXZsM
https://www.robertponge.com/telechargements/ebooks/video-1.pdf
https://www.schema-electronique.net/2010/02/un-regenerateur-de-tube-
cathodique.html
http://www.proftnj.com/RGB3.htm
http://www.sen-av.net/IMG/pdf/video_signal.pdf
https://www.ubaldi.com/guides/televiseur/rafraichissement-tv--gup181.php
http://apprendre-le-cinema.fr/standards-de-codage-couleur-et-modes-de-balayage/
http://www.sharetechnote.com/html/Communication_OFDM.html

39