Vous êtes sur la page 1sur 304

MODULE

TVN &TNT
BASE FONDAMENTALE &
EVOLUTION DE LA TELEVISION
INTRODUCTION:
Le terme télévision issue de la combinaison du vocable grec tele (« distance ») et du
terme latin visio (« vision ») est l’ensemble des techniques de transmission, par câble
ou par ondes radioélectriques, d'images ou de scènes animées et généralement
sonorisées pouvant être reproduites sur un écran au fur et à mesure de leur réception,
ou enregistrées sur un support. Autrement dit c’est un ensemble de procédés et de
techniques employés pour la production et la transmission d’évènements enregistrés
ou vécus en direct d’un lieu distant aux récepteurs de télévision. Le développement de
la télévision est assez complexe, et ce depuis déjà plus d’un siècle. Le disque de
Nipkow de 1884, ancêtre de la télévision, est un système d'analyse d'une image
destiné à sa décomposition sous forme de lignes dans le but de transmettre celle-ci
par des moyens électroniques. Pour la réception il est apparu les téléviseurs à tubes
cathodiques en noir et blanc, puis en couleur et de nos jours les écrans plats à savoir
les téléviseurs plasma, avec des écrans à cristaux liquides (LCD).
La télévision à l’époque analogique et aujourd’hui numérique est transmise sur ondes
radio à travers l'espace terrestre de la même façon que la télévision analogique, la
principale différence se trouve au niveau des émetteurs et des téléviseurs.
Téléviseur à écran plat

Le disque de Nipkow de 1884 Téléviseur à tube


cathodique
Chapitre I

Architecture Technique
d’une Chaîne de Télévision

Cours sur les technique de Transmission et


Professeur Mr
de Diffusion Numériques
DABO
1)Production audiovisuelle fixe:
PRESENTATION DU JOURNAL TELEVISE

Du fait de la surface du plateau limitée, il a été créée un premier fond, grâce à la superposition sur une faible
épaisseur d’éléments en lignes croisées. Plus en profondeur encore, se trouvent des barres verticales éclairées
différemment. La couleur des lumières (led) sur ces dernières varie selon les émissions qu’elle personnalise. De
plus, sur tout le tour du décor, des écrans très différents ajoutent un niveau de profondeur supplémentaire
permettant ainsi de varier les fonds de gros plans.
RÉGIE:
L’emble des images sur moniteurs en provenance de différents sources (caméra, des
équipements de lecture et de l’extérieur) face au poste de travail du réalisateur .
Régie de production télévisuelle
Déroulement JT
L’enchaînement des éléments et
leur durée sont contenus dans
un “conducteur” d’antenne (voir
la flèche rouge sur image écran
à droite).
Avec l’avènement du numérique
l’enchaînement est automatisé

Conducteur d’antenne
Une régie
Une régie d’un journal télévisé par exemple, peut occuper jusqu’à quinze personnes.
Il y a au premier rang, le réalisateur, du chef du groupe. Celui-ci est en relation
constante avec les cadreurs (cameramen). C’est lui qui pilote l’enchaînement des
éléments constitutifs du journal. Il est assisté d’un(e) script(e), parfois d’un assistant
réalisateur. Il est accompagné par une équipe technique: techniciens en charge des
correction des signaux vidéo, celui en charge de la lumière et de celui de la prise de
son, la secrétaire d’édition pour ne citer que ceux là. La vigilance est de mise car les
éléments des différentes sources d’informations s’enchainent très vite. Dans certains
studios il y a une équipe qui contrôle le côté rédactionnel de l’émission. Ils gèrent
l’agencement général du journal télévisé et peuvent en modifier l’ordre
d’enchainement et le contenu en temps réel en fonction de l’actualité. Cela se produit
très souvent pour coller le mieux à une actualité brulante lorsqu’il est possible
d’ajouter ou de retirer une image clé d’un événement.
Gestion du son: console audio

La gestion du son, est assurée


par les opérateurs de prise de
son. Les éléments traités sont
souvent mixés en stéréo. Mais
certaines émissions peuvent être
multi canal. Là encore, il faut
jongler avec une multitude de
sources, notamment lors des
duplexes en en liaison avec le
centre NODAL pour la TV ou
CDM pour la radio.
LE PUPITRE DE CONTRÔLE ET DE RÉGLAGE DES PROJECTEURS

Le directeur de la photo et son


équipe en charge de l’éclairage
travaillent en collaboration avec le
réalisateur et le technicien vidéo
RÉGIE DE COORDINATION OU NODAL
LA POST PRODUCTION TELEVISUELLE:
La post production fait partie intégrante du processus des grandes
productions télévisuelles. Elle comprend toutes les étapes de production
qui se déroulent après la prise de vue ou l’enregistrement de segments
de programme individuels. Les différentes étapes:
 Montage vidéo de l’image d’un scénario suivant une liste de décision
d’édition
 Ré - enregistrement et édition de la bande-son
 Ajout d’effets spéciaux visuels principalement des images générées
par ordinateur;
 Conception sonore, effets sonores, ADR (Automated Dialogue
Replacement), bruitage et la musique.
N.B. Il est impératif que la post-production exécute et supervise la
préparation jusqu'à ce que le produit final soit complètement prêt.
Attardons nous sur le rôle de la post production dans l’élaboration de
film ou de séries télévisées.
Le temps consacré à la postproduction dans la création d'un film est généralement
plus long que le tournage du film. Il peut prendre plusieurs mois car elle inclut
l'édition complète, la correction des couleurs et l'ajout de musique et de son. Le
processus d'édition d'un film est également considéré comme la deuxième
réalisation, car grâce à la post production, il est possible de changer l‘esprit du
scénario. De plus, grâce à l'utilisation d'outils de calibrage des couleurs et à l'ajout
de musique et de son, l'atmosphère de celui-ci peut être fortement influencée. Par
exemple, un film de couleur bleue est associé à une atmosphère froide et le choix de
la musique et du son augmente l'effet des scènes sur le public.
La post production traditionnel (analogiques) a toujours offert un service de qualité
exceptionnelle, grâce à des installations de haut de gamme. De nos jours, grâce à
l’avènement du numérique et l’apport de l’informatique, elle est remplacée par un
logiciel de montage vidéo fonctionnant sur un système de montage non linéaire
(NLE).
Traitement du signal audio
Le processus ADR peut être utilisé pour:
changer les pistes audio originales enregistrées sur l'ensemble afin de clarifier le
contexte;
améliorer la diction ou corriger l’accent ;
améliorer le timing comique ou le timing dramatique;
corriger les problèmes techniques avec la synchronisation;
utiliser une performance de chant de qualité studio ou fournir un doublage de voix
pour les acteurs qui sont de mauvais chanteurs par exemple;
ajouter ou supprimer du contenu à des fins légales (comme la suppression d'un
nom de marque non autorisé);
ajouter ou supprimer un emplacement de produit;
corriger une piste audio mal orthographiée qui n'a pas été prise pendant le
tournage;
supprimer les sons parasites tels que le bruit de l'équipement de production, le
trafic, le vent ou d'autres sons indésirables provenant de l'environnement du
tournage.
Salle de monitoring

La salle de monitoring peut, entre autres, servir à la collette de contenus servant à la confection des
éléments du journal télévisé. Les sources sont multiples : satellite (via nodal), Internet…
Le montage: Salle de visionnage
Cabine de montage non linéaire mis à la
disposition du journaliste reporter d’images
NODAL
Au sein d'un service audiovisuel ou d'une chaîne de production télévisuelle, le Master control room
appelé le centre nodal, ou encore le " nodal", est le:
 centre technique par où transitent tous les signaux échangés avec l'extérieur.
À ce titre il gère la réception technique des sources en provenance de l'extérieur, par liaison satellite ou
hertzienne ou par fibre optique;
 Il permet sur le réseau interne d’acheminer les signaux d'un site à un ou plusieurs autres destinations
(régies, serveurs…)
Il gère également la retransmission des signaux pour alimenter les émetteurs;
 Il assure les communications en duplex émission/réception simultanée).
NODAL & Évolution technologique
L'exploitation d'un NODAL est fortement liée à l'évolution des normes des signaux qui y sont traités:
Normes des signaux audio et vidéo, analogiques et numériques, et
les protocoles de transmission associés.
Les capacités techniques du NODAL déterminent ainsi l'aptitude des chaînes à répondre à des besoins
particuliers en matière de programmes.
L‘évolution technologique (signaux numériques, et automatisation des centres nodaux) a un impact
considérable sur le mode de travail des techniciens. Ils passent d'un savoir-faire traditionnel en vidéo
analogique à un autre mode de travail du fait de l’automatisation du système.
CDM: En radiodiffusion, le CDM (Centre Distributeur des Modulations) assure les mêmes fonctions pour
la radio.
Nodal Au sein d'un service
audiovisuel ou d'une
chaîne de télévision,
le nodal, ou encore le
"centre nodal", est le
centre technique par
où transitent tous les
signaux échangés
avec l'extérieur et
aussi avec les salles
techniques en
interne.
STUDIO TV: RTS T1

NODAL RTS

Downliink
Liaison
F.H. Programme
extérieur

Studios NODAL
(1 &2 voire 3) ou
Master
control
room
Régie de coordination ou nodal
Equipements de production mobile
1) Production audiovisuelle mobile:

Car de production TV
REGIE D’UN CAR DE PRODUCTION TV.
PRESENTATION
CAMERA DE REPORTAGE (ENG & CAMESCOPE)
Porte batterie Viseur pour voir
l’image à filmer

Ouverture Iris (quantité


lumière entrant)

Objectif

magnétoscope

Partie
électronique
Commande mise au point
Commande de zoom (plan large/serré)
Viseur CAMERA STUDIO

Objectif

Partie
électronique

Câble coaxial reliant


Câbles de tête de caméra au CCU
télécommande installé dans la régie
Iris/Zoom

Pied de caméra

Bras de caméra portant commande Iris et Zoom et


permettant aussi les mouvements de la caméra
Caméra sur pied
Steadycam

Le steadycam est un stabilisateur de caméra, qui


sert au cadreur pour les prises de vues en
mouvement et aussi stabiliser la caméra lors d’un
travelling, de tourner au ras du sol.
Ce dispositif mécanique repose sur le principe des
contrepoids, destiné à l’amortissement des chocs,
à-coups ou tremblements de l’image, en caméra
portée.
Téléprompteur

1.Caméra
2. Écran de protection noir
3. Moniteur vidéo
4. Miroir semi-réfléchissant
5. Image provenant du présentateur
6. Image provenant du moniteur vidéo
Schéma de fonctionnement d'un prompteur.
Le prompteur ou téléprompteur est un dispositif
technique permettant à un présentateur ou un orateur de
lire son texte défilant sur un écran placé dans l'axe de la
caméra qui le filme.
Ce dispositif technique est composé principalement :
d’un miroir sans tain ou glace sans tain (à très fort taux de réflexion) placé dans
l’axe de la caméra c’est-à-dire devant l’objectif. Sur cette dernière, se réfléchit le texte
défilant dans un moniteur placé à 90° par rapport à l’angle de vue de la caméra. La
glace est ainsi à mi-distance entre l’objectif et l’écran c’est-à-dire à 45° de chacun
d’eux.
 d’un ordinateur manipulé par un opérateur pour ajuster la vitesse de lecture de
l’orateur et de celle du défilement de texte. Notons que tout défilement trop lent ou
trop rapide est perçu dans l’élocution de l’orateur par le téléspectateur.
Il existe une option légère ceci grâce à l’écran plat de petite dimension presque
invisible monté sur une caméra . Il est, aujourd’hui, très utilisé dans certaines
productions télévisuelles à savoir des émissions musicales, de divertissement, de
discours ou interventions officielles (discours du chef de l’Etat à la nation).
CAR SNG ou car satellitaire
CAR SNG ou car satellitaire
Partie du intérieur du SNG dédié à la transmission
Equipements de production légers
LiveU: Il s’agit d’un équipement
qui permet la transmission en
direct d’évènement en HD ou
SD grâce au progrès
technologiques du réseau
Internet

LiveU

Le choix n°1 pour le live en haute qalité (HDMI or SDI and HDMI) to
LiveU délivre les solutions de transmission et de
accept
distribution en direct de la plus haute qualité, les plus all of your video sources.
fiables et les plus flexibles, qui s’appuient sur sa
LiveU Solo PRO
HDMI/SDI
LES DIFFÉRENTS MODES DE TRANSMISSION TÉLÉVISUELLE

Liaison satellitaire
Liaison faisceaux hertziens

Architecture d’une liaison FH

Liaison fibre optique


DIFFUSION LOCALE DE PROGRAMMES
TELEVISUELS

Studio Régie
TV
Architecture d’une retransmission télévisuelle

Centre
émetteur

via
NODAL

Régie via
NODAL

Figure : Architecture d’une transmission d’une production TV externe par satellite


DIFFUSION DES PROGRAMMES SUR LE PLAN
NATIONALE & INTERNATIONAL
DIFFUSION NATIONALE & INTERNATIONALE D’UN
EVENEMENT EXTERNE EN DIRECT
Diffusion télévisuelle

Centre
émetteur
Chapitre II PHYSIOLOGIE DE L’ŒIL HUMAIN
1) LE POUVOIR SEPARATEUR:
Le pouvoir séparateur, acuité visuelle ou pouvoir de résolution de l'œil est d'environ
une minute d'arc (1' = 1/60° = 0,017°) soit environ un détail d'environ 1 mm pour un
objet ou une image situé à 3 m de distance.
Dans cette position et à une distance « d » l’œil sépare nettement les barres noires
et les barres blanches. A fur et à mesure que nous nous éloignons et à une certaine
distance « d’ » nous voyons une surface uniforme c’est-à-dire toute noire
2) LA PERSISTANCE RÉTINIENNE
La persistance rétinienne est une particularité du fonctionnement de l'œil humain. Il
nous donne l'illusion du mouvement lorsque l'on regarde un dessin animé par
exemple. En effet, les cellules de la rétine gardent en mémoire une image pendant
environ un dixième de seconde après sont apparition .
Cette persistance de la vision est le phénomène attribuant à l'œil une image
rémanente durant ¹⁄₂₅ de seconde sur la rétine. Selon la loi de Ferry-Porter, le seuil
critique de fusion du papillotement est la fréquence à laquelle un stimulus visuel
discontinu est perçu comme complètement continu
Le seuil critique de fusion du papillotement est la fréquence
à laquelle un stimulus visuel discontinu est perçu comme
complètement continu, elle est lié à la persistance
rétinienne.
Tant que la fréquence du stimulus est au-dessus du seuil de
fusion, l'intensité perçue peut être modifiée en changeant
les durées d'éclairement et d'obscurité : l’œil moyenne la
sensation. C'est la loi de Plateau, dite de Plateau-Talbot
dans le monde anglo-saxon (du nom du physicien Belge
La fréquence d’images est l’unité indiquant le nombre
d’images diffusées (ou enregistrées) en une seconde.
On la note souvent i/s, ips ou fps (frame per second).
Une vidéo est en réalité une suite d’images fixes.
Selon la vitesse de succession des images, on aura
une vidéo plus ou moins fluide ou saccadée. Le
cerveau considère une série d’images fixes comme
une action continue grâce à deux phénomènes : la
persistance rétinienne et l’effet phi.

Il existe une limite à la vitesse perceptible par l'œil. La raison en est que la rétine sensible à la lumière
ne cesse pas d'envoyer ses signaux au cerveau à l'instant précis où une scène se modifie, mais
continue de le faire pendant une fraction de seconde. Du fait de cette lenteur rétinienne, les yeux ne
peuvent enregistrer une image que tous les 1/16 de seconde environ.
C'est ce qui explique l’apparition d’un objet, quand il se déplace à une très grande vitesse. En effet des
images successives, distinctes mais très voisines, semblent se fondre les unes dans les autres et
forment un flot continu.
Encore à titre d'exemple, si une pièce sombre est brusquement éclairée par une vive lumière, on peut
continuer de la voir illuminée pendant un bref instant après la disparition de la lumière. C'est ce que
l'on appelle communément l'image eidétique (du grec eidos, la forme, l'image, l'essence). Après
l’extinction d’une lumière c’est-à-dire son arrêt de la stimulation lumineuse, les fibres nerveuses de l'œil
continuent, pendant une fraction de seconde, à envoyer des signaux au cerveau.
3) L’EFFET PHI
Lorsqu’un même objet apparaît successivement à des endroits contiguës, le cerveau le traduit
automatiquement pour un objet en un mouvement. Il est moins connu que la Persistance
rétinienne, cependant c’est le phénomène qui génère la sensation d’image animée.

Exemple: les voyants jaunes ci-dessus s’allumant successivement l’un à la suite de l’autre
dans le sens des aiguilles d’une montre nous donnent l’impression que le point jaune tourne,
alors qu’en réalité ce ne sont que des points qui s’éclairent successivement. Cette succession
d’images fixes même saccadée se transforment en une action, c’est l’Effet Phi base du cinéma.
En résumé:
Pouvoir séparateur
Persistance rétinienne
Effet PHI
Nous permet d’obtenir des images animées avec pour:
Cinéma : 24i/s
Télévision: 25i/s ou 30i/s
CARACTERISTIQUES
La couleur d'une source lumineuse varie du rouge orangé de la flamme d'une bougie
(1 850 K) au bleuté (9 000 K) d'un arc électrique. Celle de la lumière du jour varie
entre 4 000 et 7 500 K selon qu'il s'agit de soleil direct ou d'un éclairage moyen, d'un
temps couvert, de la hauteur du soleil sur l'horizon. Cette variation de couleur de la
lumière dans une même journée n'est que difficilement reproductible par la lumière
artificielle et souvent avec des appareils complexes et coûteux. Elle relativise la notion
de normalité de la lumière naturelle. Un objet éclairé par des sources différentes
peuvent apparaître avec une couleur légèrement différente même si les sources ont la
même température de couleur.
La température de couleur résume les différences de spectre en une seule valeur. La
couleur que l'on perçoit d'un objet résulte du produit du spectre d'émission de
l'éclairant par le spectre d'absorption de l'objet. Si les spectre des sources lumineuses
sont différents, les spectre résultants peuvent être suffisamment différents pour que
leur intégration, situant les couleurs, donne des valeurs trichromes différents au delà
du seuil de discrimination de la vision humaine. Ce phénomène, est appelé défaut de
métamérisme . Le diagramme ci-dessous représente les différentes températures de
couleur pour des sources lumineuses naturelles et artificielles :
Notre œil est sensible aux radiations
électromagnétiques comprises entre 400 et 700 nm
Ainsi, il perçoit la manière dont un objet coloré
modifie (absorbe, réfléchie et diffuse) la lumière
qu’il reçoit.
La rétine est tapissée d'environ 150 millions de récepteurs photosensibles: les cônes
et les bâtonnets (hauteur d'environ 50 µm et diamètre de l'ordre de 1 à 3 µm). Elle
comporte de 5 à 7 millions de cônes dans l'aire centrale correspondant à la fovéa.
Les bâtonnets assurent la vision « incolore » et les cônes la vision des couleurs. Il
existe trois types de cônes, sensibles soit aux radiations du bleu, aux radiation du
vert ou aux radiations du rouge.
Pouvoir séparateur
L’œil humain a une limite de pouvoir distinguer des informations trop petites ou trop
proches l’une de l’autre. Cette caractéristique permet d’ailleurs de calculer la définition
optimale d’une image télévisée.
Persistance rétinienne
L’excitation de la rétine ou sensation visuelle s’établit progressivement lorsqu’elle
reçoit un rayonnement lumineux.
La disparition de la stimulation n’interrompt pas immédiatement la sensation visuelle
C’est la persistance rétinienne
Chapitre III: PRERQUIS

De cette expérience nous obtenons, à la


sortie du prisme, un certain nombre de
couleurs visibles sur l’écran:
1) Ces radiations visibles sont comprises
entre le Violet de 400nm de longueur
d’onde (couleur la plus déviée) et du
Rouge 750nm de longueur(couleur la
moins déviée).
2) Les couleurs visibles sur l’écran sont :
rouge, orange, jaune, vert, bleu, indigo
violet
3) Par ailleurs si on interpose un filtre
coloré entre le prisme et la lumière
blanche, à la sortie du prisme, on
observe une seule couleur qui est celle
du filtre.
COULEURS PRIMAIRES & SYNTHESE ADDITIVE:
Le codage des couleurs primaires: R.V.B.
ROUGE longueur
1 1 0 0 1 1 0
d’onde = 700nm
VERT longuet
d’onde = 546,1 1 0 1 0 1 0 1
nm
BLEU longueur
1 0 0 1 0 1 1
d’onde 435, 8
Résultat BLANC ROUGE VERT BLEU JAUNE POURPRE CYAN TURQUOISE

Notons en additionnant ces trois primaires nous obtiendrons toutes les couleurs
visibles de la nature. En additionnant par couple nous avons les couleurs secondaires:
le rouge et le bleu donnent le magenta ;
le bleu et le vert donnent le cyan ;
le rouge et le vert donnent le jaune.
Ces trois couleurs (magenta, cyan, jaune) et le noir
issues de la combinaison de R, V, B nous permettent
de faire la synthèse soustractive utilisée dans
l'imprimerie.
L'objet coloré: Un Objet nous apparaît coloré car il possède la capacité à absorber
et à diffuser certains rayonnements lumineux auxquels notre œil est sensible.

Un objet coloré Orange absorbe


majoritairement les longueurs d’onde
du violet, bleu, vert, jaune et rouge et
réfléchit majoritairement les longueurs
d’onde de l’orange.
Cet objet coloré est caractérisé par ses
propriétés d’absorption et de diffusion
sélectives de la lumière blanche. Sa
caractéristique unique est appelée
Courbe Spectrale et reflète la capacité
de la matière à absorber et diffuser
certaines longueurs d’onde de la
lumière blanche incidente. Les valeurs
spectrales définissant cette courbe sont
exprimées en %. C’est un rapport
énergétique à chaque longueurs d’onde
de l’énergie réfléchie, par rapport à
l’énergie incidente.
QUELQUES DEFINITIONS IMPORTANTES
Définition du corps noir
Le corps noir se caractérise par son comportement:
1.Il absorbe tout rayonnement qu’il reçoit
2.Rien ne passe au travers
3.Rien n’est réfléchi.
Cela ne dépend:
1.Ni de la longueur d’onde du rayonnement
2.Ni de l’angle d’incidence
3.Ni d’un quelconque autre paramètre
En somme tout corps qui absorbe toutes les couleurs du spectre visible est un corps
noir d’où son nom: ‘’corps noir’’. Autrement dit le corps noir est capable
d'absorber complètement toutes les radiations électromagnétiques incidentes sur sa
surface. Dans la nature, il n'existe pas de corps avec les caractéristiques
requises, mais en laboratoire, il est possible de construire des modèles qui, dans des
conditions déterminées, sont capables d'en simuler fidèlement le comportement.
Lumière
Températures de couleur
EXPLICATION
La température de couleur est une caractérisation des sources de lumière, par
comparaison à un matériau idéal émettant de la lumière uniquement par l'effet de la
chaleur.
Elle indique en kelvins (unité du Système international dont le symbole est K) ou en
milli kelvin inverse (mired) la température du corps noir dont l'apparence visuelle
serait la plus proche de la source de lumière.
En éclairage, la comparaison de la couleur de la source avec celle d'un corps noir de
même luminance se fait par une évaluation colorimétrique.
DEFINITION
Donner la température de couleur d'une source lumineuse, c'est comparer sa couleur
à celle d'un corps noir théorique chauffé entre 1 800 et 10 000 K. En général, son
spectre électromagnétique d'émission est différent.
Plus la température s'élève et plus la lumière est dite "froide"
Flamme de bougie: ~2000°K
•Ampoule incandescente classique: ~2700°K
•Ampoule halogène: ~2900°K
•Ampoules fluocompactes "économes": de 2400°K à 6 500°K
•Ampoules LED: de 2400°K à 6500°K
RAPPEL DE NOTIONS DE BASE
LA MODULATION D’AMPLITUDE:
La modulation d'amplitude consiste à faire varier l'amplitude d'un signal de fréquence
élevée en fonction d'un signal de basse fréquence.

signal de modulation vm(t)

signal modulé (ou signal de sortie) vs(t),

porteuse vp(t)
Modulation d’amplitude en quadrature
L’information à transmettre est contenue dans
un signal électrique uS(t) de basse fréquence.
Pour le transporter, on utilise une « onde
porteuse » de haute fréquence.
L’amplitude de l’onde porteuse est modulée par
le signal électrique de basse fréquence.
Ceci est effectué par un modulateur.
Représentation spectrale du signal modulé :

Si (Ap)min<0, alors B>1


Si (Ap)min>0, alors B<1 Il y a surmodulation
MODULATION DE FREQUENCE
Considérations physiques

La figure ci-contre montre une modulation en fréquence.

Spectre d’une onde modulée en fréquence :


les deux parties du spectre sont répartis de
part et d’autre de la fréquence porteuse fo
MODULATION DE FRÉQUENCE PAR UN SIGNAL
NUMERIQUE
Le niveau bas
correspond à fmin alors
que le niveau haut
correspond à fmax.

La fréquence du signal modulant représente le débit


binaire, en bits/s. Plus le débit est important, plus
l’encombrement hertzien est important.
- L’amplitude du signal binaire détermine l’excursion
de fréquence. Pour réduire l’excursion de fréquence,
et par conséquent l’encombrement hertzien il est
impératif de réduire l’amplitude du signal modulant,
ce qui entraîne une diminution du rapport
signal/souffle, donc un risque important de perte
d’informations.

Représentation spectrale.
CHAPITRE IV :
Base de la TRansMission de l’iMaGe
TELEVISUELLE
I. Principe de base: image en télévision
La transmission et la réception d’une image télévisuelle
doivent être déterminés en fonction des caractéristiques
de l’œil humain. A l’image d’un appareil photo, celle-ci
grâce aux nombreuses terminaisons du nerf optique
procède à une analyse simultanée de l’image formée sur
la rétine. Pour mieux aborder le principe de base de la
télévision essayons de comprendre celui du cinéma.
1) Le principe du cinéma:
Le cinéma est un système qui projette un certain
nombres d’images fixes par seconde supérieur à la
valeur de la persistance rétinienne de l’œil. Le cerveau
fait la synthèse des différentes informations reçues et
recrée le mouvement. Pour éviter tout scintillement le
nombre d’images par seconde doit être supérieur à 15
images par seconde. Il est à noter que la persistance
rétinienne est entre 1/10 et 1/15 de seconde c’est-à-dire
10 à 15 Images par seconde.
Le principe du cinéma repose sur la projection successive de photos d’une pellicule sur un écran
2) La télévision:
Pour la télévision, il est impossible de procéder à une analyse simultanée des images
à transmettre car il faudrait plusieurs canaux. Ici on procède à une analyse
séquentielle de l’image. Cela revient à transmettre les points élémentaires les uns
après les autres sur un même canal. Chaque point est analysé en fonction de sa
luminance (brillance). Un point blanc donne une tension maximale, le noir une tension
sensiblement nulle et entre les deux extrêmes toute l’échelle des gris avec leur tension
intermédiaire fonction de leur densité respective. Le système adopté détermine l’ordre
de transmission des points élémentaires, de façon qu’à la réception ils soient replacés
au bon endroit sur l’écran afin de reconstituer l’image initiale. Le son est transmis par
un canal séparé. Les paramètres de transmission doivent permettre d’obtenir à la
réception: une bonne définition, un contraste satisfaisant, une géométrie de l’image
sans distorsion et stable, un niveau de bruit faible, un son de qualité. Cependant cela
ne devrait pas entrainer des équipements de réception couteux. Il est ainsi transmis
25 images ou 30 images par seconde selon les pays.
Pour un écran de téléviseur nous avons: L/H = 4/3 ou 16/9 avec 625 L transmises
dont 575 L visibles 1 image = 2 trames BP luminance Y = 6 MHz BP chrominance
C = 1,5 MHz

25 ou 30i/s

Professeur : Mr DABO

19-30 juillet 2010 Formation sur les Techniques de Transm


Principe de base de la transmission des images
Contrairement au cinéma qui projette les images fixes l’une à la suite de l’autre sur un écran de
cinéma, la télévision quant à elle, les diffuse à distance. Elle décompose ces dernières en points
élémentaires ou pixels puis les transmet successivement sur un récepteur TV qui reconstitue
l’image. Chaque point lumineux est converti en signal électrique pour sa transmission. La
télévision est donc un système séquentiel, l’image décomposée à l’émission est recomposée à la
réception. image
reproduction d’image

Convertisseur optique en Transmission Convertisseur signal


signal Électrique en optique
électrique
Conclusion:
La transmission des images TV s’effectue en convertissant l’images optique en
signaux électriques proportionnels à la brillance de chacun des points constituant
l’image. Ces points sont transmis les uns après les autres sur un canal unique. A la
réception on opère la conversion inverse.

Comme nous le montrent les schémas ci-dessus un point blanc donne une
tension maximale et le noir une tension voisine de zéro et entre les deux
extrêmes toute l’échelle des gris avec leur tension respective fonction de
leur densité.
II.LES PARAMETRES FONDAMANTAUX DE LA TV
1)Caractéristique d’une image télévisuelle:
L’analyse, la transmission et la réception d’une image télévisuelle doivent être
déterminés en fonction des caractéristiques de l’œil. A l’image d’un appareil photo,
l’œil grâce aux nombreuses terminaisons du nerf optique procède à une analyse
simultanée de l’image formée sur la rétine. Le cinéma est basé sur le principe qui
consiste à projeter un nombre d’images fixes par seconde supérieur à la valeur de la
persistance rétinienne de l’œil humain. Ce dernier, via le cerveau, fait la synthèse des
différentes informations reçues et recrée le mouvement. Pour éviter tout scintillement
le nombre d’images par seconde doit être supérieur à 15. Il est à noter que la
persistance rétinienne est entre 1/10 et 1/15 de seconde c. à. d. 10 à 15 images par
seconde. Cinéma muet 15; cinéma sonore 24 images par seconde mais pour éviter un
probable scintillement, chaque image est obturée une fois au cours de sa projection
ce qui procure une cadence double soit 48 images subjectives par seconde. Pour la
télévision comme nous venons de le dire, il est impossible de procéder à une analyse
simultanée des images à transmettre car il faudrait plusieurs canaux . Ici on procède à
une analyse séquentielle de l’image. Cela revient à transmettre les points élémentaires
les uns après les autres sur un même canal.
Chaque point est analysé en fonction de sa luminance lorsqu’on est en N/B et en
fonction des informations du contenu du point en Rouge, Vert et Bleu pour la TVC. Le
système adopté détermine l’ordre de transmission des points élémentaires, de façon
qu’à la réception ils soient replacés au bon endroit sur l’écran afin de reconstituer
l’image initiale. Le son est transmis par un canal séparé. La durée d’une image est
fonction de la persistance rétinienne de l’œil humain (1/15s) et de la fréquence du
secteur (50Hz ou 60Hz), l’analyse compète d’une image dure 1/25 s ou 1/30 s selon
le système, valeur moitié de la fréquence du secteur, supérieure à la persistance
rétinienne et proche de la cadence des images cinéma (24 i/s).
Pour éviter tout scintillement de l’image, on analyse une ligne sur deux et ensuite les
lignes restantes, cela double la fréquence d’analyse c’est le balayage entrelacé.
Cependant avec l’avancée de la technologie
2)Principe d’analyse d’une image télévisuelle
Paramètres d’analyse:
Le signal de synchro ligne ou trame sert à indiquer le passage respectif d'une ligne à
la ligne suivante ou d’une image à une autre. Les informations électriques sont
représentées par des impulsions électriques d'une tension inférieure à celle du niveau
de noir. Les tops de synchronisation
lignes sont précédés d’un petit
palier, appelé PALIER AVANT,
destiné à favoriser le passage
éventuel du 100% de blanc au
niveau du noir qui ne peut se
faire instantanément. Les tops
sont suivis également d’un
PALIER ARRIERE plus long que
le palier avant et dans lequel
(pour la couleur) on fait passer
des informations pour la
transmission des couleurs
(burst pour le NTSC & PAL ou
signaux d’identification en
SECAM).
Allure générale du signal de luminance
Structure d’une ligne d’image:
d’une mire de barres (1 ligne d’un signal
Intervalle actif et niveaux
en noir et blanc)
A B

Palier
Avant
Top Palier
synchro Arrière
Structure d’une ligne d’image:
Intervalle actif et niveaux
Synchro trame
Principe de balayage:
Le système d’entrelacement
Le principe consiste à analyser les lignes de l'image
en 2 trames. Le choix d'un nombre impair de lignes
totales permettait un entrelacement simple : une
trame commence son balayage en début de ligne,
l'autre en milieu de ligne.

Le principe de l'entrelacement :
le but est d'économiser la moitié de la bande
passante au prix de quelques défauts peu visibles sur
un petit écran. Une première trame, représentée
avec des traits pleins, analyse les lignes impaires la
deuxième en pointillé, analyse les lignes paires.
Par ailleurs la fréquence 50 trames par seconde ou
30 trames par seconde correspondent aux fréquence
du secteur électrique
Chaque image est explorée selon des lignes légèrement obliques et de haut en bas.
Chaque ligne de l’image est analysé point par point de gauche à droite. Avec la figure
ci-dessus, l’on constate que l’analyse débute au coin supérieur gauche, elle parcourt
l’image jusqu’à l’extrémité droite par une ligne légèrement descendante. La synchro
ligne indique la fin de la ligne et permet le retour en début ligne pour entamer la
deuxième ligne légèrement en dessous de la première.
Il parcourt ainsi toutes les lignes jusqu’à la dernière qui se trouve en bas à droite de
l’écran. A ce moment comme pour la ligne, un signal de synchronisation appelé
synchro trame indique la fin de l’analyse de la trame pour entamer la deuxième trame
en partant du haut vers le bas. Ces deux analyses de la même image constituent les
deux trames de l’image. En d’autre terme, une image est constituée de deux trames
appelées respectivement trame paire et trame impaire. Cependant il arrive que
l’analyse de l’image se fasse en une seule fois dans ce cas il s’agit du balayage
progressif (suivre explication).
En adoptant le premier système nous nous retrouvons avec 25 images par seconde
soit 50 trames par seconde. Cette valeur correspondant à la fréquence du secteur
d’alimentation évitant les interférences qui pourraient se produire par suite d’une
induction magnétique parasite, ou d’un filtrage insuffisant du secteur redressé dans les
récepteurs. Il en est de même pour les pays utilisant 60Hz, nous avons 30 images par
seconde soit 60 trames par seconde.
Il est à noter que le papillotement de l’image fortement éclairée est plus faible avec 60
trames par secondes que 50 trames par secondes. Les lignes des deux trames
successives doivent être légèrement décalées, afin d’éviter la superposition des lignes
ce qui diviserait la définition par deux. On dit que l’entrelacement doit être rigoureux;
pour cela il faut que le nombre de lignes soit impaire.
Balayage entrelacée
ANALYSE PROGRESSIVE

C'est le type d'analyse d'image universellement


répandue en Informatique. En effet, après
quelques essais infructueux avec des téléviseurs
entrelacés, l'informatique a fait dès le départ le
bon choix :
le progressif.
L'image progressive consiste à décrire toutes les
lignes de l'image en une seule fois.

Le principe d’analyse progressive:


C'est le type d'analyse d'image universellement répandue en Informatique.
L'image progressive consiste à analyser toutes les lignes de l'image en suel fois c’st-
à-dire en une trame contrairement à l’entrelacé où il faut deux trames..
Le principe d’analyse progressive:
C'est le type d'analyse d'image universellement répandue en Informatique.
L'image progressive consiste à analyser toutes les lignes de l'image en suel fois c’st-à-
dire en une trame contrairement à l’entrelacé où il faut deux trames..
Avantages et inconvénients :
Plus de scintillement interligne.
Une image parfaitement stable, surtout avec les fréquences informatiques 66, 75, 80
Hz...
La bande passante est très élevée, mais dans le cas de l'informatique on ne diffuse
pas le signal, un simple câble suffit pour relier l'unité centrale avec le moniteur.
Avec les transmissions numériques compressées que l'on emploie aujourd'hui, la
bande passante ne serait plus un obstacle, car un signal progressif n'occuperait
qu'un débit à peine supérieur à son concurrent entrelacé grâce à l'utilisation de la
redondance.
Les formats vidéo progressifs:
De nos jours, les constructeurs présentent des équipements Vidéo utilisant le mode
progressif. Le but est de retrouver presque tous les avantages de l'image progressive
que nous venons de voir, en utilisant tous des liaisons et des équipements Vidéo
standards ou commutables.
Tout d'abord et contrairement aux formats informatiques, il a fallu faire un compromis
sur la fréquence des images. Il ne sera pas possible de garder tous les avantages du
progressif avec les équipements vidéo standards.
 La condition première à respecter est d'obtenir un signal qui n'occupe pas plus de
bande passante que son équivalent entrelacé. Pour cela, il faut choisir une fréquence
image qui soit environ la moitié de la fréquence trame.
 Le deuxième élément important est la facilité d'effectuer un retour sur film et une
conversion vers les standards de diffusion vidéo conventionnels.
Il résulte de ces contraintes que les bons choix pour les cadences images des formats
progressifs sont 24 et 25 images/s comme au cinéma. L'effet stroboscopique obtenu
n'est plus un inconvénient puisqu'il se rapproche de celui d'une caméra film et que le
système progressif est souvent destiné à la fiction.
Des équipements commutables permettront de revenir au mode entrelacé lorsque
l'analyse du mouvement est déterminante, pour le sport notamment.
Concernant la diffusion sur film les cadences de 24 et 25 images/s permettent un
retour direct avec un minimum de recalcule. Pour la diffusion en vidéo classique le 25
images/s est naturellement exploitable en 50 trames/s et le 24 images/s est
convertible en 60 trames/s en utilisant la technique du 3/2 pull down comme dans les
télécinémas.
Représentation très schématique d'une acquisition comparée progressive à 25
images/s et entrelacée à 50 trames/s. Le principe général consiste à décrire chaque
image complètement mais à une fréquence deux fois plus faible que la fréquence
trame du format vidéo correspondant. La quantité d'information à transmettre reste
globalement identique et une mise en forme du signal, avec deux "pseudo trames"
permet d'utiliser tous les équipements Vidéo standards.
Voir schéma ci-dessous.
Les formats en vidéo: Entrelacé et progressif..

Le principe entrelacé: le principe consiste à analyser les lignes de l'image en 2 trames,


autrement dit on analyse une ligne sur deux. Le choix d'un nombre impair de lignes
totales permettait un entrelacement simple : une trame commence son balayage en
début de ligne, l'autre en milieu de ligne
Principe progressif: C'est le type d'analyse d'image universellement répandue en
Informatique. L'image progressive consiste à analyser toutes les lignes de l'image à
une seule fois
Exemple de l'effet de
peigne sur un travelling
latéral. Les images du
balayage progressive,
n‘ont aucun défaut
La notion de pixel
Une image est constituée d'un ensemble de points appelés pixels (pixel est une
abréviation de PICture ELement).
Le pixel représente ainsi le plus petit élément constitutif d'une image (terme souvent
utilisé en numérique). L'ensemble de ces pixels est contenu dans un tableau à deux
dimensions constituant l'image :

Etant donné que l'écran effectue un balayage de gauche à droite et de haut en bas,
on désigne généralement par les coordonnées [0,0] le pixel situé en haut à gauche de
l'image, cela signifie que les axes de l'image sont orientés de la façon suivante:
L'axe X est orienté de gauche à droite. X’ X
L'axe Y est orienté de haut en bas, contrairement aux notations conventionnelles en
mathématiques, où l'axe Y est orienté vers le haut. Y’

Y
Définition et résolution
Définition: nombre de points (pixels) constituant l'image, c'est-à-dire le nombre de
pixels contenu dans une ligne multiplié par le nombre de lignes. Une image
possédant 640 pixels en largeur et 480 en hauteur aura une définition de 640x480.
Résolution: terme souvent confondu avec la "définition’’ détermine, par contre, le
nombre de points par unité de mesure, exprimé en points par pouce (PPP, en anglais
DPI pour Dots Per Inch); un pouce représentant 2.54 cm.
La résolution permet ainsi d'établir le rapport entre le nombre de pixels d'une image
et la taille réelle de sa représentation sur un support physique. Une résolution de 300
dpi signifie donc 300 colonnes et 300 rangées de pixels sur un pouce carré ce qui
donne donc 90000 pixels sur un pouce carré. La résolution de référence de 72 dpi
nous donne un pixel de 1"/72 (un pouce divisé par 72) soit 0,353mm, correspondant
à un point pica (unité typographique anglo-saxonne).
ETABLISSEMENT D’UN SYSTÈME DE
TÉLÉVISION COULEUR
La compatibilité du système
La compatibilité directe :
Un TV N/B doit pouvoir recevoir, en N/B les émissions en couleur. Sachant que la
largeur de bande du canal et la position de la porteuse vision ne soit pas modifiées.
Le signal de luminance appliqué sur la porteuse vision doit contenir toutes les
informations nécessaires à l’obtention d’une image parfaite. Cela signifie qu’il respecte
les facteurs de luminosité des trois couleurs primaires déterminées par la courbe de
l’œil humain. La pondération des trois couleurs primaires doivent être respectée pour
obtenir le signal de luminance global Y compatible.
La compatibilité indirect:
Un TV N/B doit pouvoir recevoir des programmes N/B sans dominantes colorées.
L’image sur l’écran doit avoir une bonne définition et respecter La gamme des gris
(gamma).
Cette exigence conduit à transmettre les signaux de chrominance sur une ou plusieurs
porteuses séparées de celle de la luminance. Les contraintes de compatibilité
conduisent au principe fondamental de luminance constante. Ce principe est la
conséquence d’une série d’expériences qui montrent:
 l’œil humain n’est pas sensible aux détaillés colorés donc pas nécessaire de les
transmettre dans une large bande passante.
 l’œil est très sensible aux détails fins achromes, cela exige une large bande
passante.
 L’information de luminance:
Le signal de luminance est obtenu en pondérant les signaux en provenance de la
caméra, selon la loi de visibilité relative de l’œil déjà étudiée. Les primaires de
référence ne sont pas celles théoriques mais celles correspondant aux luminophores du
téléviseur. L’équation fondamental de la luminance issue de la colorimétrie relative à la
télévision est:
Ey = 0,30 Er + 0,59 Ev + 0,11 Eb Er, Ev et Eb signaux primaires et Ey détails fin achrome la
luminance sortie caméra.
Chapitre V eTaBliseMenT d’un sYsTÈMe de
TELEVISION COULEUR
Transmission informations de: luminance & chrominance

Additionne Y
ur
0,11
Tri-CCD, un capteur par couleur de base (Rouge, Vert et Bleu)

Capteur couleur :
un prisme et trois capteurs CCD

Image
Image Image Image d’origine
rouge verte bleue
L’équation fondamentale:
E’y = 0,30E’R + E’0,59V + E’0,11B
Signaux de différence de couleur.
E’r – E’y = 0,3 – 1 = – 0,7
E’v – E’y = 0,59 – 1 = – 0,41
E’b – E’y = 0,11 – 1 = – 0,89
SYSTÈME NTSC & PAL

B-Y
R-Y

Les signaux de chrominance modulés par R-Y et B-Y sont ajoutés au signal de luminance .
On démontre qu’il n’est pas nécessaire de transmettre les trois signaux de différence
de couleur. En effet connaissant la somme de deux différences de couleurs on peut
reconstituer les trois couleurs primaires. Le choix a porté sur: E’r – E’y et E’b – E’y car
leurs différences est plus grandes en effet:
E’r – E’y = 0,3 – 1 = – 0,7
E’v – E’y = 0,59 – 1 = – 0,41
E’b – E’y = 0,11 – 1 = – 0,89
Ces deux données permettent une meilleure exploitation de la dynamique du système
de transmission c.à.d. de travailler dans des conditions optimales de rapport signal sur
bruit.
.
•Y = 0,587V + 0,299R + 0,114B
•Cb = 0,886 (B – Y)
•Cr = 0,713 (R – Y)
𝒀 = 𝟎, 𝟑𝟎𝑹 + 𝟎, 𝟓𝟗𝑽 + 𝟎, 𝟏𝟏𝑩
𝑫𝒓 = 𝑹 − 𝒀
𝑫𝒃 = 𝑩−𝒀

L’équation fondamentale:
E’y = 0,30E’R + E’0,59V + E’0,11 B
Transmission des signaux vidéo
La transmission des informations de luminance (signal N/B) et de chrominance.
 Combiner les signaux de luminance et ceux de chrominance dans le spectre des
fréquences alloué par la norme .
 Transmission des informations de luminance dans toute la largeur du canal sans
aucune perturbation majeur sur les informations de chrominance (phénomène de
cross color); une certaine tolérance n’affectant pas la qualité subjective est
cependant admise.
Insertion des informations de chrominance dans le canal pour
une définition de 1,5Mhz de bande passante.
Ces conditions ont conduit à l’utilisation d’une sous porteuse modulée par les signaux
de chrominance.
On démontre qu’il n’est pas nécessaire de transmettre les trois informations de
chrominance.
Emplacement typique d’énergie de luminance et de
chrominance dans le canal vidéo

Explications et commentaires des schémas représentant la


répartition spectrale de la luminance et de la chrominance 111
Multiplexage spectral (en fréquence et en phase) « Luminance/Chrominance »

Explications et commentaires des schémas représentant la


répartition spectrale de la luminance et de la chrominance
112
Canal norme L

Le spectre des fréquences du récepteur en norme L haute fréquence


Les deux signaux de chrominance R-Y et B-Y doivent être présents au même instant
au niveau de la matrice du récepteur afin que la reconstitution des trois couleurs
primaires soit possible par leur combinaison avec la luminance.
Pour ce faire nous avons deux cas possibles:
 La transmission simultanée des deux informations de chrominance que l’on trouve
dans les systèmes NTSC et PAL
 La transmission séquentielle des informations de chrominance que l’on trouve dans
le système le SECAM.
V.4. Illustration de la synthèse de la lumière au transducteur
Présence des trois couleurs primaires permettent de reconstituer l’image de la TVC
Courant/ Lumière: cas du tube cathodique à masque

04/12/2012 18
PRINCIPE DU CODAGE COULEURS
Le codage couleur s’obtient en ajoutant à la luminance une porteuse modulée par la
chrominance.
La modulation est différente selon les standards de télévision :
NTSC, PAL et SECAM.

Y
R
SIGNAL VIDEO
+
V Cr +

Système
de
Modulation
B Cb COMPOSITE

Y / C OU
PRIMAIRES COMPOSANTES S-VIDEO
Cours sur les Techniques de Transmission Professeur
et Diffusion Numériques Mr DABO
Schéma synoptique d’une émission TV en couleur

E’’Y

ER E’R E’R
Filtre Modu
R 1,5
lateur S/P modulée
ER E’V
1/ϒ de Emetteur
V
E’ B Filtre
1,5 S/P
B Er E’B
Schéma synoptique d’une réception TV en couleur

E’’Y L.A.R

E’R
D’R
Récepteur démodulateur S/P Matrice E’V Récep
Filtre modulée
HI-FI teur
S/P D’B

E’ B
PRINCIPE DES SYSTEMES TV ANALOGIQUES: NTSC, PAL & SECAM
Les standards de signal de télévision couleur analogique les plus connus sont PAL,
SECAM, et NTSC.
 NTSC (National Television System Committee, (« Comité du système national de
télévision »).
 PAL: « Phase Alternating Line »)
 SECAM : SEquential Couleur Avec Mémoire
La définition pour les différents standards:
La définition pour le standard PAL est fixée à 768 x 576 pixels
La définition pour le standard SECAM est fixé à 768 x 576 pixels.
La définition pour le standard NTSC est fixé à 720 x 480 pixels

Définitions
pour les
écrans de
télévision:
1) Système NTSC:
La particularité du NTSC consiste à avoir trouvé deux nouveaux axes de modulation I
et Q différents R-Y et B-Y
 Q: orienté suivant la direction pourpre-jaune-verdâtre
correspondant à la tolérance la plus grande de l’œil.
 I: orienté dans la direction bleu-orange en quadrature avec l’axe Q.
bleu-orange
VECTEURS COULEURS EN NTSC

pourpre-jaune-verdâtre

20/01/2024 123
 en définitive on ne prend que 85% du signal (R-Y) et (B-Y)
on a l’équation du signal suivant:
 Luminance :Y= 0,30R+ 0,59V+0,11B
Chrominance: I=0,60R – 0,28V- 0,32B
Q =0,21R – 0,52V + 0,31B
 I porteur de plus d’information donc sa bande passante
fixée à 1,3MHz avec une bande latérale supérieure transmise
intégralement alors que la bande latérale inférieure atténuée à
0,6MHz
Schéma synoptique d’un codeur NTSC
Schéma synoptique d’un décodeur NTSC

la matrice permet de


retrouver les signaux de
différence de couleur:
R-Y = - 0,96 I + 0,62Q
B- Y = - 1,1 I + 1,7 Q
V- Y = - 0,28 I – 0,64 Q
 on en déduit E’R, E’V, et
E’B appliqués au tube
trichrome du récepteur.
2) Le système PAL (système européen)
 Principe:
Le système PAL (Phase Alternated Line) reprend le mode de transmission des
informations de chrominance du système NTSC. Les deux informations D’R et D’B
modulent en quadrature une sous-porteuse qui n’est pas transmise. La différence
provient du fait que l’information D’R voit sa fréquence inversée de 180° à la
fréquence ligne. Ainsi en cas de déphasage accidentelle, leur combinaison électronique
permet d’éliminer ce défaut.
Codeur PAL

Codeur PAL
N°2
N°1

N°4

N°3
Décodeur PAL
Le rôle de la salve (burst) dans Système NTSC et PAL
1) Régénérer la sous porteuse dans le récepteur du téléviseur HF
2) Contrôle en fréquence et phase l’oscillateur local destiné à générer la sous
porteuse supprimée à l’émission
3) elle est placée dans le palier arrière de la synchro ligne et comprend huit périodes
d’un signal à 4,8 MHZ ou 3,58MHZ
4) elle est rigoureusement calée sur la fréquence sur la sous-porteuse de
chrominance à l’émission, et à une de 180° de B-Y
5) son amplitude est fixe et connu, donc il ;peut servir de référence pour contrôler
l’amplification du canal de chrominance ACC (Automatic Control Color)
6) bloquer le décodeur couleurs en cas d'émission en N/Bl. C'est le rôle tenu par le
COLOR KILLER (le "tueur de couleur") qui coupera les amplis dans le téléviseur s'il
n'y a pas de burst.
3) LE SYTEME SECAM: SEquentiel Couleur A Mémoire
Le système comme pour le PAL cherche à éliminer les défauts dus aux variations
d’amplitude et de phase .
La principale difficulté réside dans la transmission simultanée des deux signaux de
chrominance sur une même porteuse. Pour résoudre le problème, le SECAM a choisi
de transmettre les deux informations l’une après l’autre d’où le nom du système
séquentiel couleur à mémoire. Le système a une excellente fiabilité des couleurs,
mais comme le PAL DL la définition verticale est réduite de moitié , ce qui n’est
perceptible.
La particularité du système est de pouvoir procéder à la modulation de fréquence et
de bénéficier de ses avantages.
Codage du système:
o Signal de luminance: E’Y = 030ER + 0,59EV + 0,11EB
o Luminance avec précorrection ϒ:
E’Y = 0,299ER + 0,587EV + 0,114EB
o Signal du blanc= E’R = E’V = E’B = 1
Canal norme L

Le spectre des fréquences du récepteur en norme L haute fréquence


o relation entre la fréquence de la sous porteuse et la fréquence ligne FH :
for = 282 FH
foB = 272 FH
o fréquence centrale des circuits en cloche et anti-cloche
Fo = 4,286MHz
o déviation de fréquence de la sous-porteuse modulée en fréquence pour D’ pré
accentué =1
Δ for = ± 280 ± 9 KHz
Δ foB = ± 230 ± 7KHz
o déviation maximale de la sous-porteuse
Δ for = ± 350 ± 18 KHz et – 506 ± 25KHz
Δ foB= ± 230 ± 7KHz et – 350 ± 18KHz
o suppression de la sous-porteuse: pendant tout l’intervalle de suppression de trame,
sauf pendant les signaux d’identification. Du départ de l’intervalle de suppression
ligne jusqu’à 5,6µs après le front avant de l’impulsion de ligne.
SIGNAUX D’IDENTIFICATION

Signaux d’identification SECAM ils permettent d’identifier la différence de couleur


de la ligne

20/01/2024 138
 Préaccentuation des signaux de chrominance
 Codeur SECAM: voir bloc diagramme (explications détaillées)
 Décodeur SECAM: voir bloc diagramme et explications détaillées
TABLEAU COMPARATIF DES TROIS SYSTEMES DE
TV ANALOGIQUE
Système Nombre Nombre Mode Type de Caractéristique N.B.
lignes Trames/se transmission modulation particulière
conde informations Base fondamentale du SECAM:
chrominance La probable similitude de deux
NTSC 525 60 Transmission Modulation Changement d’axe signaux de chrominance consécutifs
Simultanée des d’amplitude de modulation R-Y ont conduit à mettre en place la
informations de en quadrature et B-Y en I et Q transmission séquentielle de
chrominance
avec un l’information de chrominance, c’est-à-
déphasage dire par exemple envoyer sur la ligne
« n » R-Y et sur ligne « n +1» B-Y.
𝝅
entre les deux
𝟐
porteuses c’est le système SECAM, qui en
PAL 625 50 Transmission Modulation Inversion de phase utilisant la modulation de fréquence
simultanéedes d’amplitude une ligne sur deux lui confère une robustesse en
informations de en quadrature de R-Y
chrominance
transmission mais production moins
avec un bon lors des transitions verticales
déphasage
𝝅
entre les deux
𝟐
porteuses
SECAM 625 50 Transmission Modulation de Transmission
séquentielle fréquence séquentielle
de R-Y et B-Y
Système de télévision amélioré à format 4/3
INTRODUCTION:
L’expression télévision amélioré désigne différentes améliorations applicables aux
systèmes de télévision 525l/60Hz et 625/50 Hz, offrant un format d’image de 4/3 ou
plus large avec des normes d’émission qui peuvent être modifiées ou non
Les systèmes de télévision améliorée peuvent être classés en fonction des
caractéristiques suivantes:
 Format d’image: on peut avoir un format d’image normal 4/3) ou
 Format d’image plus grand (par exemple 16/9)
 Format d’images élargie
 Structure du signal: elle peut être composite (type NTSC, PAL ou SECAM)
Les systèmes de télévision améliorée n’implique pas forcément une résolution accrue;
dans certains cas, celle-ci peut être diminuée sous l’effet d’autres améliorations
comme l’obtention de format d’image élargi.
DOMAINE D’AMELIORATION:
Les améliorations portent à des degrés différents à une amélioration de la qualité
globale de l’image de télévision reçue à savoir:
 Effets de repliement de spectre produits par le balayage;
 Effets réciproque du signal de luminance et des signaux de différence de couleur;
 Immunité aux dégradations de transmission;
 Technique de décodage et visualisation dans le récepteur.
Amélioration de format du signal: les signaux composites NTSC, PAL et SECAM sont
soumis à des dégradations importantes due à la diaphotie de chrominance et de
luminance.
On peut obtenir d’importante amélioration grâce à l’emploi de filtre séparateurs
multidimensionnels utilisant des mémoires de ligne ou des mémoires de trame. Un
pré filtrage complémentaire du signal vidéo avant codage couleur peut, améliorer la
qualité de l’image.
Quand un filtrage adéquat est appliqué avant visualisation, de nouvelles améliorations
de la résolution verticale
effective peuvent être obtenues par filtrage à la source.
L’effet dit de kelf , résultant de la marge qui doit être prévue dans la caméra par
rapport à la limite de Nyquist dans l’échantillonnage vertical (pour le balayage) pour
éviter le recouvrement de spectre, réduit la résolution verticale effective d’un
système de télévision.
Des études ont montré qu’un sur-échantillonnage (balayage à une fréquence de ligne
double), suivi d’un filtrage vertical et de corrections d’ouverture puis d’un sous-
échantillonnage (en prenant une ligne sur deux) pour la transmission, peut
augmenter le facteur de Kell jusqu’à un nombre approchant l’unité, avec pour effet
d’augmenter la résolution verticale effective d’un système de télévision d’un facteur
de 30 à 40%. En combinant cette technique avec un filtrage de visualisation ($6), on
doit pouvoir obtenir une augmentation nettement plus importante de la résolution
verticale
TELEVISION NUMERIQUE
INTRODUCTION &
ENJEUX DE LA TNT
Signaux vidéo & audio numérique
La qualité du numérique
Dégradation
de l ’image
Dégradation linéaire

TRES GENANTE

GENANTE

LEGEREMENT GENANTE

PERCEPTIBLE MAIS NON GENANTE

Dégradation
du signal
IMPERCEPTIBLE

Seuil de « cliff effect »


(effet de falaise).
Tout va bien puis tout va mal !
La télévision numérique offre
une image de qualité jusqu'à
ce que la qualité du signal
reçu atteigne un seuil. À
partir de ce point, la qualité
devient rapidement nulle. La
télévision analogique se
dégrade graduellement parce
que la modulation analogique
ne peut corriger le signal
perturbé par le bruit.
La simplicité du numérique

Volts (V)

temps (s)
0

Volts (V)

temps (s)
0
La pérennité du numérique

Signal numérique d’origine Signal numérique reçu Signal numérique restitué


amplitude amplitude amplitude
Seuil de détection
haut
haut
haut
temps
temps
temps
bas

bas bas

• Le signal numérique, c’est simplement des niveaux bas (0) et des niveaux hauts (1).
• malgré une forte distorsion de ce signal logique les 0 et les 1 sont conservés.
• une remise en forme par seuil de détection restitue facilement la forme d’origine.
La multi transmission du numérique

Par exemple:
l’insertion de données et/ou de voies audio numériques dans la vidéo numérique
Choix des signaux de codage

Les signaux R, V et B sont pré corrigés en g.


L’équation de la luminance Y reste inchangée par rapport aux codages analogiques.
Des coefficients de pondération sont introduits sur (R-Y) et (B-Y) pour maintenir les évolutions des
signaux dans une même plage de variations d’amplitude:
* Cr = 0,713 (R-Y) ils ont été calculés à partir

* Cb = 0,564 (B-Y) d’une mire de barres à 100 %

+0,7V +0,35V +0,35V

0 0

0 -0,35V -0,35V
Y = 0,299 R + 0,587 V + 0,114 B Cr = 0,713 (R-Y) Cb = 0,564 (B-Y)
Bp = 5,75 MHz (0,1 dB) Bp = 2,75 MHz (0,1 dB) Bp = 2,75 MHz (0,1 dB)
Temps de montée: 174 ns Temps de montée: 364 ns Temps de montée: 364 ns
Luminance / Chrominance delay max: 10ns
LE TRAITEMENT NUMERIQUE: transport du signal
CODAGE DE TRANSPORT:
CONVERSION ANAL. / NUMERIQUE PROTECTION CONTRE MODULATION DE PHASE
REDUCTION DE DEBIT LES ERREURS QAM
FIBRE OPTIQUE

Source Codage de Codage de Codage de


Source Canal Voie

Dépend de la nature Dépend de la nature


de la source de la voie
Dépend de la nature
de la source et de la voie
AUDIO
VIDEO CABLE
TEXTE FIBRE OPTIQUE
SATELLITE
AUDIO CABLE
MAGNETOSCOPE
VIDEO FIBRE OPTIQUE

TEXTE SATELLITE
MAGNETOSCOPE Cours audiofréquence
Année 2014/ 2010 …
Professeur Mr DABO
Choix des signaux de codage

Les signaux R, V et B sont pré corrigés en g.


L’équation de la luminance Y reste inchangée par rapport aux codages analogiques.
Des coefficients de pondération sont introduits sur (R-Y) et (B-Y) pour maintenir les évolutions des
signaux dans une même plage de variations d’amplitude:
* Cr = 0,713 (R-Y) ils ont été calculés à partir

* Cb = 0,564 (B-Y) d’une mire de barres à 100 %

+0,7V +0,35V +0,35V

0 0

0 -0,35V -0,35V
Y = 0,299 R + 0,587 V + 0,114 B Cr = 0,713 (R-Y) Cb = 0,564 (B-Y)
Bp = 5,75 MHz (0,1 dB) Bp = 2,75 MHz (0,1 dB) Bp = 2,75 MHz (0,1 dB)
Temps de montée: 174 ns Temps de montée: 364 ns Temps de montée: 364 ns
Luminance / Chrominance delay max: 10ns
Problèmes de transport
• Il est évident qu’avec les débits examinés plus haut, il est impossible de
transporter des signaux TV numériques, sans des outils de codage et de
compression adéquats.
• On pourrait classer les problèmes de transport des signaux TV numériques en
deux catégories:
1. Le codage de source:
• Nécessité de mise au point de techniques de compression vidéo et audio
réduisant le débit numérique à une valeur très faible
• Que les débits après compression soient compatibles à une dégradation
imperceptible du rendu de l’image télévisé en mouvement, ainsi que du son
associé.
2. Le codage de canal: il consiste à développer des algorithmes de corrections
d’erreurs, associés à des techniques de modulation, parmi les plus efficaces
possibles (en termes de Mb/s par MHz).
Il est important de tenir compte de la bande passante disponible et des défauts
prévisibles du canal de transmission (exemples: bruits, échos….)
Le codage numérique
De l'analogique au numérique

Y Luminance
R M Signal vidéo
A Chrominance
T
composite
V R Cr
I Système de
C modulation
B A Cb
G Fsc
E

COMPOSANTES
Codeur
4.2.2.  NUMERIQUES

Composantes analogiques (Y,


Cr, Cb)
SYNOPTIQUE CODEUR 422
TELETEXTE
SOUS TITRAGE
VITC DONNEES 10 bits
AUDIO 1
AUDIO 2
E.D.H.
AUXILIAIRES M
Sup. H/V

U
Y
R Y FILTRE CONVERTISSEUR L
M ANAL. / NUM. 10 bits

A 5,75 MHz 13,5 MHz


T
T Cb I
V R Cb
I
FILTRE CONVERTISSEUR
ANAL. / NUM.
10 bits P 10 bits 25 PINS
2,75 MHz
C
Cr
6,75 MHz
L
A
B G Cr FILTRE CONVERTISSEUR E 27 MHz
10 bits
ANAL. / NUM.
E 2,75 MHz 6,75 MHz
X
E
U
SYNCHRO BASE DE MUX. TIMING

TEMPS
R
T.R.S. 10 bits

Cours sur les Techniques de Transmission Professeur


et de Diffusion Numériques Mr DABO
Chaine de numérisation

Filtre
Quantification
Échantillonnage
anti-repliement
et Codage

Vidéo analogique Vidéo numérique


Y - Cr - Cb 4:2:2
L‘ÉCHANTILLONNAGE

C’est le découpage du signal au rythme d’une horloge

Signal de luminance analogique Y Signal échantillonné


Fréquence maximale de Y = 6 MHz

Circuit de
découpage
temps temps
TH période de découpage
ou intervalle de temps séparant 2 échantillons

Signal de découpage FH (1/TH).


12 µs 52 µs
FH égal ou supérieur à 2 . FY max.
C’est le nombre d’échantillons pendant une seconde.

temps
Spectre du signal échantillonne

Signal
échantillonné

Circuit de
Signal de luminance Y découpage
temps temps
TH période de découpage
12 µs 52 µs ou intervalle de temps séparant 2 échantillons
12 MHz

Signal de découpage FH (1/TH)


temps

amplitude amplitude

amplitude

Fréq. Fréq. Fréq.

6 MHz 6 MHz 12 MHz 18 MHz 6 MHz 12 MHz 18 MHz 24 MHz


Spectre du signal Y Spectre du signal d’échantillonnage Spectre du signal échantillonné
(bande base)
Choix de la fréquence d‘échantillonnage

Il faut au moins 2 « tops » d’horloge pour identifier une période de signal.


FH égal ou supérieur à 2 . F max bande de base (théorème de SHANNON).

TY min = 167ns
FY max = 6 MHz Signal échantillonné
+0,7V

Claude Elwood SHANNON


1916 / 2001

Circuit de
découpage
temps temps
0

12 µs 52 µs
Signal de découpage FH
Exemple: signal de luminance
temps
Choix de la fréquence d‘échantillonnage

* Compatibilité entre les standards 525 / 59,94 Hz et 625 / 50 Hz

* Fréquence commune : 2,25 MHz x 1,5 = 3,375 MHz

* Échantillonnage luminance Y = 4 x 3,375 MHz = 13,5 MHz

* Échantillonnage (R-Y) = 2 x 3,375 MHz = 6,75 MHZ

* Échantillonnage (B-Y) = 2 x 3,375 MHz = 6,75 MHZ

Soit: 13,5 MHz = 864 . FL (625 L) = 858 . FL (525 L)


6,75 MHz = 432 . FL (625 L) = 429 . FL (525 L)
Multiplexage 422 des données vidéo

Les mots des composantes vidéo Y, Cr et Cb sont transmis dans


le même train numérique en respectant la séquence suivante:
Cb0 , Y0 , Cr0 , Y1 , Cb1 , Y2 , Cr1 , Y3 , Cb2 , Y4, Cr2 , Y5 , Cb3 , Y6 , … , Cb359 , Y718, Cr359 , Y719

1er échantillon pair


dernier échantillon impair
MULTIPLEXEUR
Débit global : 10 x 27 MHz = 270 Mbits/s
Cb0 Cb1 … 10 bits
Applications:
• Production en studio
6,75 MHz • Post production

10 bits
Y0 Y1 Y2 Y3 … 10 bits
Cb0 Y0 Cr0 Y1 Cb1 Y2 Cr1 Y3 Cb2 Y4 Cr2 …
13,5 MHz
0 0 0 0 0 0 0 0 0 0 0
74 ns 0 1 1 1 0 1 1 1 0 1 0
1 1 1 0 0 1 1 1 1 1 1

8 BITS
1 1 0 0 0 1 0 0 0 1 0
Cr0 Cr1 … 10 bits

10 BITS
0 1 0 0 0 1 0 0 0 0 0
H 1 0 1 1 1 1 1 1 1 1 1
0 0 0 0 1 1 1 0 1 1 0
6,75 MHz 1 0 0 1 0 1 0 0 1 1 0
0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0

27 MHz

37 ns +/- 3 ns
Forme de la structure d‘échantillonnage
720 échantillons de Y par ligne utile
360 échantillons de CH par ligne utile

Y Cr Cb Y Y Cr Cb Y Y Cr Cb Y Y Cr Cb

• structure orthogonale de Y, Cr et Cb
• les informations Y, Cr et Cb sont concomitantes
tous les échantillons pairs
• les échantillons impairs ne comprennent que Y

• Période d’un échantillon Y = 74 ns


• Période d’un échantillon CH = 148 ns

74 ns
F éch Y = 13,5 MHz

F éch CH = 6,75 MHz

148 ns
Autres structures d'echantillonnage
Y Cr Cb Y Cr Cb Y Cr Cb Y Cr Cb Y Cr Cb Y Cr Cb Y Cr Cb Y Cr Cb Y Y Y Y Cr Cb Y Y

Y Cr Cb Y Y Cr Cb Y Y Cr Cb Y Y Cr Cb

• DVC PRO 25
• DV (525 L)

• IMAGES DE SYNTHESE
• RECHERCHE • DV CAM
• IMAGERIE MEDICALE • DV (625 L)
• ASTRONOMIE • BOUQUETS NUMERIQUES
• MILITAIRE
LA QUANTIFICATION
C’est l’attribution d’une valeur numérique binaire à chaque échantillon dont le niveau est maintenu
1111 1111
1111 1101 1111 1101

1001 0000
Valeur binaire 0001 1110

Signal échantillonné et bloqué


0000 0011
1111 1111 1111 1111
1111 1110
1111 1101 1111 1101 0000 0001
1111 1101
1111 1100
.
.

CONVERSION ANALOGIQUE
.
1001 0000
.
0001 1110 0 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 0
. MSB
.
. 0 0 0 0 0 0 0 0 0 1 1 1 1 0 0 0 0
Circuit de .
. 0000 0011
découpage 0000 0011 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 0 0
0000 0010 0000 0001

BINAIRE
0000 0001
0000 0000 0 1 1 1 1 1 1 1 0 1 1 1 1 1 0 0 0

0 1 1 1 1 1 1 1 0 1 1 1 1 0 0 0 0

0 0 1 1 1 1 1 1 0 1 1 1 1 0 0 0 0

Signal de découpage FH 0 0 1 1 0 0 0 1 0 0 1 1 0 0 1 0 0

0 0 0 0 0 0 0 1 1 1 1 1 1 0 1 1 0
LSB

FH
temps
Un signal analogique est par définition d'une L'intervalle de temps entre deux
échantillons est appelé taux
précision infinie, à la fois en temps et en valeur. d'échantillonnage.
Or l'échantillonnage, pour permettre une définition
exacte en temps du signal afin de le stocker
numériquement, va réduire ce signal à une suite de
points discrets.
Erreur de quantification : Pour
l’exemple ci-contre, la
quantification choisie porte sur
4 bits. Nous constatons que sur
de nombreux points il existe
une erreur de quantification car
seule la valeur la plus proche
du signal analogique est
retenue.

Erreur de quantification:
Par exemple pour noter la
valeur 12,5:
12,5 → 12 → 1100

Conclusion: Lors de la quantification, plus le nombre de bits utilisés pour quantifier le


signal est grand et plus la numérisation sera précise. Plus grande sera la fréquence de
l'échantillonnage, meilleure sera sa qualité.
Le binaire simple

SIGNAL ANALOGIQUE ECHANTILLONNEUR NUMERISATION


D’ENTREE BLOQUEUR 111

110
101
1 1 1 1
100
011 MSB
0 0 0 0

NUMERISATION
010

SUR 3 BITS
001
1 1 1 1
000
0 0 0 0

1 1 1 1

0 0 0 0 LSB

FH FH
Choix des quantifications

+V/2
• la précision d’amplitude quantifiée est de + ou – V/2 sur un échantillon.
Elle déterminera le facteur de bruit et le pas de quantification.
Amplitude • S/B analogique excellent: à partir de +55 dB.
-V/2
• précision dans le blanc (700 mV) et le noir (0 V) en analogique: 3,5 mV.
700 mV soit 200 pas de quantification souhaitables.
• S/B numérique théorique = (n . 6,02 + 10,8) dB (n = nombre de bits)
• S/B numérique pratique = (n . 6,02 + 8) dB.

Nombre de pas de quantification


Nbre de Nbre de pas de Précision S/B num.
bits quantification d’amplitude pratique
2 4 175 mV +20 dB
4 16 44 mV +32 dB

8 256 2,7 mV +56 dB


10 1024 0,68 mV +68 dB

Pas de quantification
d’amplitude V
temps
0

Nombre d’échantillons
sur la durée ligne utile vidéo Production, post production
(Soit 1 octet)
Diffusion, news, stockage
QUALITE DES QUANTIFICATIONS

256 marches à 45°


de pente sur la durée
1024 marches à 45°
de ligne
de pente sur la durée
de ligne

5 marches à 15° de pente


sur la durée de ligne 20 marches à 15° de pente
sur la durée de ligne
Qualité des quantifications
Visualisation du signal SDI

DIAGRAMME DE L’ŒIL
DIAGRAMME DE L’ŒIL NORMAL BRUITE ET ATTENUE

0,8 V

3,7 ns 3,7 ns
SDI: Serial Data Interface
7,4 ns
Correspondance paramètre analogique et paramètre numérique

NORME 625 L / 50 t/s:


Afin d’éviter des ½ lignes numériques, les débuts et fins de
suppression trame coïncident avec les débuts et fins de
suppression ligne. Conséquences:
• 288 lignes visibles par trame.
• 576 lignes visibles par image.
• 2 trames entrelacées.
• 24 lignes de suppression en trame impaire.
•25 lignes de suppression en trame paire.

Vidéo

625 LIGNES TRANSMISES


288 LIGNES VISIBLES 288 LIGNES VISIBLES 25 L
24 L
au noir
au noir

temps
0
1ière trame 2ième trame
0 20 ms 40 ms
Forme de l'image numérique
64 µs
52 µs

REFERENCES TEMPORELLES
144 mots de 0,89 µs soit
sup. H numérique 4 mots de START 4 mots de END 12 mots d’écart

10,67 µs ligne active vidéo ligne active vidéo

E S E S
EA E A A A
AV A V V V
V V

720 mots de ligne active numérique 53,34 µs

864 mots de ligne numérique 64 µs


Forme générale d'une ligne numérique

864 échantillons sur 64 µs

9,77 µs 53,34 µs 0,89 µs

132 720 échantillons 12

625 L / 50 Hz

525 L / 59,94 Hz
122 720 échantillons 16

9,03 µs 53,34 µs 1,18 µs

858 échantillons sur 63,55 µs


Lignes analogique et numérique

64 µs
52 µs

0,89 µs soit
12 mots d’écart

72 mots de REFERENCES TEMPORELLES


sup. H numérique 4 mots de START 4 mots de END
10,67 µs ligne active vidéo ligne active vidéo

E S E S
A A A A
V V V V

360 mots de ligne active numérique 53,34 µs

432 mots de ligne numérique 64 µs


Correspondance trames analogique et numérique
SUPPRESSION TRAME ANALOGIQUE DE 25 L (1,6 ms)

622 623 624 625 1 2 3 4 5 6 20 21 22 23 24


Trame 1 analogique

Première trame numérique


Données vidéo numériques Première suppression trame numérique de 24 L Données vidéo numériques

309 310 311 312 313 314 315 316 317 318 319 333 334 335 336 337
Trame 2 analogique

Seconde trame numérique


Données vidéo numériques deuxième suppression trame numérique de 25 L Données vidéo numériques
Forme de la ligne active numérique 422

288 mots de sup. H numérique

E S E
A A 1440 mots de ligne active numérique A
V V V

mot mot
1 1440

1 0 0 0 0 1 0 0 1 1 0 1 0 1 0 1 1 1 1 0 0 0 1 00 10 1 0 1 0 0 0 0 0 MSB
0 1 1 1 0 1 1 0 1 1 1 0 0 0 0 0 0 0 0 1 1 0 1 10 00 0 0 1 1 0 1 0 0
1 0 0 0 0 1 0 0 1 0 0 0 0 1 0 0 1 0 1 1 0 0 0 10 00 0 0 1 0 1 1 1 0
0 0 1 0 0 1 0 0 1 0 1 0 1 1 1 0 1 1 1 1 0 1 0 10 00 1 1 0 1 1 0 1 1
0 1 0 0 1 1 0 1 0 0 0 0 1 0 0 0 0 0 1 0 0 0 1 10 00 1 1 0 1 1 1 0 1
0 0 0 1 1 0 1 1 1 0 0 0 1 0 0 0 0 1 0 1 1 1 1 10 10 1 1 0 0 0 1 1 1
0 0 0 1 1 0 0 1 0 0 0 0 1 0 1 0 0 1 0 1 1 1 1 10 10 1 0 1 1 1 0 1 0
1 0 1 1 0 1 0 1 1 0 0 0 0 0 1 1 0 0 0 1 1 0 1 10 10 1 1 1 1 1 0 1 0
0 1 0 1 0 1 1 0 0 0 0 0 0 0 1 1 0 1 0 0 0 1 1 0 0 0 1 0 0 1 1 1 1
0 0 1 1 0 1 1 0 0 1 0 0 0 0 1 1 1 1 1 0 0 0 1 0 1 0 0 1 0 1 0 0 1 LSB

Cb0 Y0 Cr0 Y1 Cb1 Y2 Cr1 Y3 Cb2 Y4 Cr3 Y5 Cb3 Y6 Cr4 Y7 Y Cb Y Cr Y Cb Y Cr Y Cb Y Cr Y Cb Y Cr Y


711 356 712 356 713 357 714 357 715 358 716 358 717 359 718 359 719

Éch 1 Éch 3 Éch 5 Éch 7

Éch 713 Éch 715 Éch 717 Éch 719


Forme de la suppression ligne numérique 422

288 mots de sup. H numérique

E S E
A A 1440 mots de ligne active numérique A
V V V

LIGNE N-1 LIGNE N


3FF 000 000 XY 200 040 200 040 200 040 200 200 040 200 040 200 040 200 040 3FF 000 000 XY

1 0 0 0 1 1 0 0 1 1 0 1 0 1 0 1 1 0 1 0 1 0 1 0 1 00 00 1 0 1 0 0 0 0 0 MSB
0 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 00 00 0 0 1 1 0 0 0 0
1 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 00 00 0 0 1 0 1 1 1 0
0 0 1 0 1 1 0 0 1 0 1 0 1 0 1 0 0 1 0 1 0 1 0 1 1 00 00 0 1 0 1 1 0 1 1
0 1 0 0 1 1 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 00 00 0 0 0 1 1 1 0 1
0 0 0 1 1 1 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 00 00 0 0 0 1 1 1 1 1
0 0 0 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 00 00 0 0 1 1 1 0 0 0
0 0 1 1 0 1 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 00 00 0 1 1 1 1 0 0 0
0 1 0 1 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 1 1 0
0 0 1 1 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1 0 1 0 0 0 LSB

Y Cb Y Cr Y Cb Y Cr Y Cb Y Cr Cb Y Cr Y Cb Y Cr Y Cb0 Y0 Cr0 Y1 Cb1 Y2 Cr1 …


717 359 718 359 719 EAV 361 722 361 723 362 724 362 429 858 429 859 430 860 430 861 SAV
280 mots de suppression horizontale codés au noir
FORME DES REFERENCES TEMPORELLES
But: indiquer le début et la fin de la ligne active numérique.
Position: en suppression horizontale numérique.
Forme: 2 messages « Start of Active Vidéo » et « End of Active Vidéo » de 4 mots chacun.
Constitution: 3 mots de séquence fixe 3FF 000 000 et 1 mot XY de « carte d’identité » avec protections

REFERENCES TEMPORELLES (TRS: timing reference signal)


288 mots de
sup. H numérique
4 mots de début 4 mots de fin
ligne active ligne active

E S E
A A 1440 mots de ligne active numérique A
V V V

1728 mots de ligne numérique

3FF 000 000 XY 3FF 000 000 XY


MSB
1 0 0 1 Non utilisé (toujours à 1) 1 0 0 1 MSB

= OU EXCLUSIF
1 0 0 F Parité trame: 0 (trame 1) / 1 (trame 2)
Type de ligne: 0 (active) / 1 (sup. trame) X 1 0 0 F
IN OU 1 0 0 V 1 0 0 V
T 1 0 0 H Type de référence temporelle: 0 (SAV) / 1 (EAV) 1 0 0 H
1 0 0 P3 P3 = V H 1 0 0 P3
00 0 P2 = F H Bits de correction de X.
1 0 0 P2 1 0 0 P2
01 1 1 0 0 P1 P1 = V F Y Le code employé permet de 1 0 0 P1
corriger une erreur simple et
10 1 1 0 0 P0 P0 = V F H de détecter les erreurs doubles. 1 0 0 P0
1 0 0 0 Non utilisé (toujours à 0) 1 0 0 0
11 0 Non utilisé (toujours à 0)
LSB
1 0 0 0 1 0 0 0 LSB
Valeur des SAV et EAV

1 ère TRAME 2 ème TRAME


LIGNE ACTIVE SUP TRAME LIGNE ACTIVE SUP TRAME
23 à 310 1à 22 / 311 et 312 336 à 623 312 à 335 / 624 et 625

TYPE DE MOT SAV EAV SAV EAV SAV EAV SAV EAV
1 (MSB) 1 1 1 1 1 1 1 1
F 0 0 0 0 1 1 1 1

V 0 0 1 1 1 1 0 0
H 0 1 0 1 0 1 0 1
P3 0 1 1 0 1 0 0 1
P2 0 1 0 1 1 0 1 0

P1 0 0 1 1 0 0 1 1
P0 0 1 1 0 0 1 1 0
0 0 0 0 0 0 0 0 0
0 (LSB) 0 0 0 0 0 0 0 0
notation 200 274 2AC 2D8 31C 368 3B0 3C4
héxa décimale
Principe de la détection et correction d'erreurs

AU CODAGE XY EST CALCULE DE LA MANIERE SUIVANTE:

1 Non utilisé (toujours à 1)


F Parité trame: 0 (trame 1) / 1 (trame 2) X = OU EXCLUSIF
V Type de ligne: 0 (active) / 1 (sup. trame)
IN OU
H Type de référence temporelle: 0 (SAV) / 1 (EAV)
00 T0
P3 P3 = V H
P2 P2 = F H 01 1
Y Bits de protection de X
P1 P1 = V F 10 1
P0 P0 = V F H 11 0
0 Non utilisé (toujours à 0)
0 Non utilisé (toujours à 0)

EXEMPLE POUR UN EAV, TRAME 1, LIGNE ACTIVE:


VERIFICATION A LA RECEPTION

CODAGE ERREUR EN TRANSMISSION XY Y INDICATION ERREUR X


RECU RECALCULE D’ERREUR DETECTEE RECALCULE

1 1 1 1 1
F 0 0 F 0 0
X
V 0 0 V 0 0
H 1 0 H 0 1
P3 1 1 P3 1 0 Erreur sur V ou H 1
P2 1 1 P2 1 0 Erreur sur F ou H H 1
Y P1 0 0 P1 Pas d’erreur sur V et F
0 0 0
P0 1 1 Indique qu’il y P0
a une erreur 1 0 OUI 1
0 0 0 0 0
0 0 0 0 0
Exercice de détection et correction d'erreurs

Trouvez l’erreur sur F, V ou H et déterminez la nature de la référence temporelle reçue:

XY Y INDICATION ERREUR X
RECEPTION RECALCULE D’ERREUR DETECTE RECALCULE
MSB 1 1 1
F 0 0
X
V 1 1
H 1 1
P3 0 0
P2 0 0
Y
P1 0 0
P0 1 1
0 0 0
LSB
0 0 0
Forme de la suppression trame numérique 422

Première suppression trame numérique de 24 L

Départ première trame numérique Données auxiliaires

621 622 623 624 625 1 2 3 4 5 6 7 20 21 22 23 24 25

code de contrôle de la transmission


2 EDH (Error Detection and Handling)
Données vidéo SWITCHING POINT (lignes 6/7/319/320) Données vidéo
Zones réservées aux commutations de source
numériques numériques
(grille, mélangeurs, magnétoscopes…)

LIGNE 625 LIGNE 1


040 200 040 200 040 3FF 000 000 XY 200 040 200 040 200 040 200 200 040 200 040 200 040 200 040 3FF 000 000 XY 200 040 200 040 200 040 200

0 1 0 1 0 1 00 0 1 1 0 1 0 1 0 1 1 0 1 0 1 0 1 0 1 00 0 1 1 0 1 0 1 0 1 MSB
0 0 0 0 0 1 00 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 00 0 0 0 0 0 0 0 0 0
0 0 0 0 0 1 00 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 00 0 1 0 0 0 0 0 0 0
1 0 1 0 1 1 00 0 1 0 1 0 1 0 1 0 0 1 0 1 0 1 0 1 1 00 0 0 0 1 0 1 0 1 0
0 0 0 0 0 1 00 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 00 0 1 0 0 0 0 0 0 0
0 0 0 0 0 1 00 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 00 0 0 0 0 0 0 0 0 0
0 0 0 0 0 1 00 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 00 0 1 0 0 0 0 0 0 0
0 0 0 0 0 1 00 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 00 0 1 0 0 0 0 0 0 0
0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 LSB

Y Cb Y Cr Y
717 359 718 359 719
EAV Cb Y Cr Y Cb Y Cr
361 722 361 723 362 724 362
Cb Y Cr Y Cb Y Cr Y
429 858 429 859 430 860 430 861
SAV Cb0 Y0 Cr0 Y1 Cb1 Y2 Cr1 …

1440 mots au noir


1440 mots au noir 280 mots de suppression horizontale codés au noir
Synchronisation audio numérique et image

Ligne N° 1 = première ligne entière de la synchro trame.


La première trame commence avec la ligne N° 1.

Début trame N°1

N° ligne 622 623 624 625 1 2 3 4 5 6 7 8 9 10 11

+/- 1 µs
block 0

Z CH A Y CH B X CH A Y CH B X CH A Y CH B X CH A

Trame 0 Trame 1 Trame 2

20,833 µs 48 KHz
Les données auxiliaires
Première suppression trame numérique de 24 L

Départ première trame numérique Données auxiliaires

621 622 623 624 625 1 2 3 4 5 6 7 20 21 22 23 24 25

2
Données vidéo Données vidéo
numériques numériques

LIGNE 20 3FF 000 000 XY 3FF 000 000 XY LIGNE 21

0 1 0 1 0 1 0 0 1 0 1 1 1 1 0 0 1 0 1 0 0 0 1 0 1 0 0 1 1 0 1 0 0 0 1 MSB

1 0 0 1 0 1 0 0 0 0 1 1 0 0 1 1 0 1 0 1 1 1 0 1 1 0 0 0 0 1 1 0 1 0 1
0 0 0 0 1 1 0 0 1 0 1 1 0 1 0 1 0 0 0 0 0 0 0 0 1 0 0 1 0 1 1 0 1 0 1
1 0 1 0 1 1 0 0 1 0 1 1 1 0 0 1 0 0 0 1 0 1 0 1 1 0 0 0 0 0 0 1 0 1 0
0 0 0 0 1 1 0 0 0 0 1 1 0 1 1 1 0 0 0 0 0 0 1 1 1 0 0 1 0 0 0 0 0 1 0
1 0 1 0 1 1 0 0 1 0 1 1 0 0 1 1 1 1 0 1 0 0 1 0 1 0 0 0 1 1 0 0 0 1 0
1 0 0 0 1 1 0 0 1 0 1 1 1 0 1 1 1 0 0 1 0 1 1 0 1 0 0 1 1 0 0 0 0 1 0
0 0 0 0 1 1 0 0 0 0 1 1 0 1 0 1 1 0 0 0 0 1 1 0 1 0 0 1 1 0 0 0 0 1 1
1 0 0 1 1 1 0 0 0 0 1 1 0 1 1 1 0 0 1 0 1 1 1 1 1 0 0 0 1 0 0 1 0 1 1
0 1 1 0 0 1 0 0 0 0 1 1 1 0 1 0 1 1 1 1 0 0 0 1 1 0 0 0 1 0 0 1 0 1 1 LSB

EAV SAV
1440 mots de données auxiliaires 1440 mots de données auxiliaires
sur 8 ou 10 bits VANC 280 emplacements de données auxiliaires sur 10 bits sur 8 ou 10 bits VANC
(Vertical ANCillary) HANC (Horizontal ANCillary) (Vertical ANCillary)

BUT: transmission de données complémentaires de type VITC, télétexte, sous titrage, audios (jusqu’à 16 voies), nom de scène…
POSITION: en sup. trame sur les lignes 20, 21, 22 et 333, 334, 335 (VANC) et/ou sur toutes les sup. lignes (HANC).
FORME: en binaire simple à 8 ou 10 bits.
Les données auxiliaires HANC

Longueur maximale d’un paquet de HANC:


255 mots possibles de 10 bits entre EAV et SAV

b9 MSB
b8
0 3 3 b7
b6
0 F F DID DBN DC USER DATA WORDS (248 mots max) SUM b5
b4
b3
0 F F b2
b1
b0 LSB

Check SUM
DID 1 DBN DC UDW b9 = b8
ADH Data Block Number Data Counter User Data Words
Data Identification b8 = b8 UDW
Ancillary Data Header
Exemple en audio: N° du bloc de Nombre de données Données Utiles b7 = b7 UDW
Préambule 2FF: Canaux 1 à 4 données auxiliaires dans le bloc Maxi 248 mots b6 = b6 UDW
1FD: Canaux 5 à 8 (à cause du compteur) b5 = b5 UDW
(Compteur de blocs)
1FB: Canaux 9 à 12 b4 = b4 UDW
2F9: Canaux 13 à 16
b3 = b3 UDW
b2 = b2 UDW
b1 = b1 UDW
Cours vidéofréquence
b0 = b0 UDW
Professeur Mr DABO : fonction OU EX
Insertion du audio

L ’audio numérique est inséré dans les suppressions lignes en tant


que données auxiliaires (H-ANC)
BLOC de 255 mots possibles de 10 bits entre EAV et SAV

b9 MSB
b8
0 3 3 b7
b6
0 F F DID DBN DC USER DATA WORDS (248 mots max) SUM b5
b4
b3
0 F F b2
b1
b0 LSB

Check SUM
DBN DC UDW b9 = b8
ADH DID 1 User Data Words
Data Block Number Data Counter b8 = b8 UDW
Ancillary Data Header Data Identification
N° du bloc de Nombre de données Données Utiles b7 = b7 UDW
2FF: Canaux 1 à 4
Préambule fixe données auxiliaires dans le bloc Maxi 248 mots b6 = b6 UDW
1FD: Canaux 5 à 8
1FB: Canaux 9 à 12 (Compteur de blocs) (à cause du compteur) b5 = b5 UDW
2F9: Canaux 13 à 16 b4 = b4 UDW
b3 = b3 UDW
PAQUET TYPE 1 (AUDIO 20 BITS) : fonction OU EX b2 = b2 UDW
b1 = b1 UDW
b0 = b0 UDW
Le bloc audio

IL Y A 255 MOTS DE 10 BITS POSSIBLES DANS 1 BLOC.

DBN CHECK SUM


N° du bloc de DC des b0 UDW
données auxiliaires Nbre de mots des b1 UDW
(compteur de blocs) dans le bloc …..
LIGNE N-1 B9 = b8 LIGNE N
3FF 000 000 XY 200 040 3FF 000 000 XY

b9 0 1 1 1 0 0 1 1 0 0 1 1 1 0 0 1 0 1 1 1 1 0 1 0 0 0 0 1 0 0 1 0 1
b8 0 0 1 1 0 0 0 0 0 0 1 1 0 0 1 0 1 0 0 0 0 1 0 1 1 1 1 1 0 0 0 0 0
b7 0 1 1 1 0 0 1 0 0 0 1 1 1 1 1 0 0 0 0 0 0 1 1 0 1 0 1 1 0 0 1 0 0
b6 1 1 0 1 0 0 1 0 1 0 1 1 1 1 1 0 0 0 0 1 0 0 0 1 0 1 0 1 0 0 0 1 0
b5 0 1 0 1 0 0 0 0 0 0 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 1 0 1 0 0 1 1 1
b4 1 1 0 1 0 0 1 0 0 0 1 1 1 0 0 0 1 0 1 0 1 1 0 1 1 1 0 1 0 0 0 0 1
b3 1 0 0 1 0 0 1 0 0 0 1 1 1 1 0 0 0 0 1 1 1 0 1 0 0 1 0 1 0 0 1 0 1
b2 0 0 0 1 0 0 0 0 0 0 1 1 1 0 0 1 0 0 1 1 1 0 0 0 0 1 1 1 0 0 1 0 1
b1 0 0 0 1 0 0 0 0 0 0 1 1 1 1 1 1 1 0 0 1 0 1 1 1 1 0 1 1 0 0 0 0 1
b0 0 0 0 1 0 0 0 0 0 0 1 1 1 1 1 0 1 1 1 1 1 0 0 1 0 1 1 1 0 0 0 0 1

EAV SAV
25 mots max ADF
codés au noir Préambule du bloc
000/3FF/3FF USER DATA WORDS
248 mots max
DID IDENTIFICATION à cause du compteur
2FF: canaux 1 à 4
1FD: canaux 5 à 8
1FB: canaux 9 à 12
2F9: canaux 13 à 16
Extension des données audio

OPTION AUDIO 24 BITS (20 + 4 BITS)

b9 MSB
b8
0 3 3 b7

DID SDID DC PAQUETS DE 4 BITS AUXILIAIRES SUM


b6
0 F F b5

0 F F D’AUDIO ETENDUE b4
b3
b2
b1
b0 LSB

Check SUM
DBN DC UDW b9 = b8
ADH DID 2 User Data Words
Data Block Number Data Counter b8 = b8 UDW
Ancillary Data Header Data Identification
N° du bloc de Nombre de données Données Utiles b7 = b7 UDW
1FE: Canaux 1 à 4
Préambule données auxiliaires dans le bloc Maxi 248 mots b6 = b6 UDW
2FC: Canaux 5 à 8
2FA: Canaux 9 à 12 (Compteur de blocs) (à cause du compteur) b5 = b5 UDW
1F8: Canaux 13 à 16 b4 = b4 UDW
b3 = b3 UDW
b2 = b2 UDW
b1 = b1 UDW
b0 = b0 UDW
: fonction OU EX
PAQUET TYPE 2 (2 x 4 bits en plus)
Paquet de contrôle audio
• 1 PAQUET DE CONTRÔLE AUDIO PAR TRAME VIDEO
• INSERSION EN SUPPRESSION LIGNE 21 ET 334
• INFORMATIONS DE N° TRAME AUDIO, FREQUENCE D’ECHANTILLONNAGE,
N° DE VOIE ACTIVE ET RETARD AUDIO/VIDEO DE CHAQUE VOIE
• FACULTATIVE POUR LE MODE SYNCHRONE A 48 KHz
b9 MSB
b8
0 3 3 b7
b6
0 F F DID SDID DC DONNEES DE CONTROLE AUDIO SUM b5
b4
b3
0 F F b2
b1
b0 LSB

UDW Check SUM


DBN DC User Data Words b9 = b8
ADH DID
Data Block Number Data Counter Données Utiles b8 = b8 UDW
Ancillary Data Header Data Identification
N° du bloc de Nombre de données Maxi 248 mots b7 = b7 UDW
1EF: Canaux 1 à 4
Préambule dans le bloc (à cause du compteur) b6 = b6 UDW
2EE: Canaux 5 à 8 données auxiliaires
• N° trame audio b5 = b5 UDW
2ED: Canaux 9 à 12 (Compteur de blocs)
1EC: Canaux 13 à 16 • fréquence échantil. b4 = b4 UDW
• N° de voie audio b3 = b3 UDW
• retard audio/vidéo b2 = b2 UDW
b1 = b1 UDW
2014/ b0 = b0 UDW
2015 : fonction OU EX
Mr DABO
Format d'insertion des échantillons audio
1 sous trame AES = 32 bits série
Préambule 4 bits auxiliaires
X/Y/Z (option 24 bits) Mot de 20 bits audio

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

b0 b1 b2 b3 b4 b5 b6 b7 b8 b9 b10 b11 b12 b13 b14 b15 b16 b17 b18 b19 V U C P
LSB MSB

b0 à b19 b8 b8 b8 Le bit 9 est l’inverse du b8 pour


MSB b9
bits audio qu’aucune valeur interdite ne soit
du signal AES b5 b8 b14 P utilisée (3FF / 3FC / 003 / 000).
b4 b7 b13 C Bit de Parité relatif aux bits 0 à 8
b3 b6 b12 U des 3 mots

b2 b5 b11 V Extrait du signal AES


Compteur des 4 voies
b1 b4 b10 b19
audio possibles
(2 AES ou 4 sources b0 b3 b9 b18
indépendantes) 1 sous trame UER/AES de 32 bits
N° voie
audio
b2 b8 b17 est organisée en 3 mots vidéo de
Prend la valeur « 1 » à chaque N° voie
b7 b16 10 bits (x , x+1 et x+2)
audio b1
début de bloc de 192 trames
Année 2014 / Bit Z LSB b0 b6 b15 Professeur
2015 Mr DABO
Mot x Mot x+1 Mot x+2
Répartitions des échantillons audio dans le signal vidéo

en 1 seconde il y a

48 000 échantillons dans une voie audio


répartis dans 15 625 suppressions lignes – les 25 ( sup. des lignes 5 / 6 / 318 / 319)

15 625 lignes TV

LES INTERDITS
Pas d’échantillons audio dans les 4 suppressions lignes suivantes:
• 6 et 319 correspondants aux zones de commutations de source,
• 5 et 318 correspondants aux EDH (mots de vérification de la détection des erreurs).

1 suppression ligne peut recevoir:


48 000 / (15625 – 100) = 3,092 échantillons par voie audio.
Soit 3 échantillons de 3 mots à chaque suppression ligne
et 1 échantillon supplémentaire 1 suppression sur 10.
Répartitions des échantillons audio dans
x
lex+1signal
x+2
vidéo
LIGNE 99 LIGNE 100
0 1 0 1 0 1 0 0 1 0 1 1 1 0 0 b8 b8 b 8 b8 b8 b8 b8 b8 b8 b8 b8 b8 b8 b8 b8 1 0 0 1 0 MSB
1 0 0 1 0 1 0 0 0 0 1 1 0 0 1 b5 b14 P b5 b14 P b5 b14 P b5 b14 P b5 b14 P 1 0 0 0 0
0 0 0 0 1 1 0 0 1 0 1 1 1 0 0 b4 b13 C b4 b13 C b4 b13 C b4 b13 C b4 b13 C 1 0 0 1 0
1 0 1 0 1 1 0 0 1 0 1 1 1 0 0 b3 b12 U b3 b12 U b3 b12 U b3 b12 U b3 b12 U 1 0 0 0 1
0 0 0 0 1 1 0 0 0 0 1 1 1 0 1 b2 b11 V b2 b11 V b2 b11 V b2 b11 V b2 b11 V 1 0 0 1 0
1 0 1 0 1 1 0 0 1 0 1 1 1 0 1 b1 b10 b19 b1 b10 b19 b1 b10 b19 b1 b10 b19 b1 b10 b19 1 0 0 0 0
1 0 0 0 1 1 0 0 1 0 1 1 1 0 1 b0 b9 b18 b0 b9 b18 b0 b9 b18 b0 b9 b18 b0 b9 b18 1 0 0 1 0
0 0 0 0 1 1 0 0 0 0 1 1 1 0 0 N° b8 b17 N° b8 b17 N° b8 b17 N° b8 b17 N° b8 b17 1 0 0 1 0
1 0 0 1 1 1 0 0 0 0 1 1 1 1 1 N° b7 b16 N° b7 b16 N° b7 b16 N° b7 b16 N° b7 b16 1 0 0 0 1
0 1 1 0 0 1 0 0 0 0 1 1 1 0 1 Z b6 b15 Z b6 b15 Z b6 b15 Z b6 b15 Z b6 b15 1 0 0 0 1 LSB

3FF 000 000 XY


3FF 000 000 XY 000 3FF 3FF 2FF x x+1
EAV N° bloc
Nombre de données du bloc
SAV
Préambule audio Canaux 1 à 4

TRAIN DE VIDEO NUMERIQUE 422



LIGNE 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114

2 x 2 x+1 x+2 x+3 2


LIGNE 109 LIGNE 110
0 1 0 0 1 0 1 1 1 0 0 b8 b8 b8 b8 b8 b8 b8 b8 b8 b8 b8 b8 b8 b8 b8 b8 b8 b8 b8 1 0 0 1 0 MSB
1 1 0 0 0 0 1 1 0 0 1 b5 b14 P b5 b14 P b5 b14 P b5 b14 P b5 b14 P b5 b14 P b5 1 0 0 0 0
0 1 0 0 1 0 1 1 1 0 0 b4 b13 C b4 b13 C b4 b13 C b4 b13 C b4 b13 C b4 b13 C b4 1 0 0 1 0
1 1 0 0 1 0 1 1 1 0 1 b3 b12 U b3 b12 U b3 b12 U b3 b12 U b3 b12 U b3 b12 U b3 1 0 0 0 1
0 1 0 0 0 0 1 1 1 0 1 b2 b11 V b2 b11 V b2 b11 V b2 b11 V b2 b11 V b2 b11 V b2 1 0 0 1 0
1 1 0 0 1 0 1 1 1 0 1 b1 b10 b19 b1 b10 b19 b1 b10 b19 b1 b10 b19 b1 b10 b19 b1 b10 b19 b1 1 0 0 0 0
1 1 0 0 1 0 1 1 1 0 1 b0 b9 b18 b0 b9 b18 b0 b9 b18 b0 b9 b18 b0 b9 b18 b0 b9 b18 b0 1 0 0 1 0
0 1 0 0 0 0 1 1 1 0 1 N° b8 b17 N° b8 b17 N° b8 b17 N° b8 b17 N° b8 b17 N° b8 b17 N° 1 0 0 1 0
1 1 0 0 0 0 1 1 1 1 1 N° b7 b16 N° b7 b16 N° b7 b16 N° b7 b16 N° b7 b16 N° b7 b16 N° 1 0 0 0 1
0 1 0 0 0 1 1 1 0 1 Z b6 b15 Z b6 b15 Z b6 b15 Z b6 b15 Z b6 b15 Z b6 b15 Z 1 0 0 0 1 LSB
0
3FF 000 000 XY 000 3FF 3FF 2FF 3FF 000 000 XY
Nombre de données du bloc x x+1
EAV Préambule audio
N° bloc
Canaux 1 à 4
SAV
Nombre de mots audio en suppression ligne vidéo
4 VOIES AUDIO 16 VOIES AUDIO
3 échantillons / voie 4 échantillons / voie 3 échantillons / voie 4 échantillons / voie
Préambule 3 3 3 3
DID 1 1 1 1

3 échantillons audio par voie à chaque suppression ligne et


4 échantillons audio par voie 1 suppression ligne sur 10.
DBN 1 1 1 1
DC 1 1 1 1
AES 1 voie A (CANAL 1) 9 12 9 12
AES 1 voie B (CANAL 2) 9 12 9 12
3 mots = 1 échantillon audio.

AES 2 voie A (CANAL 3) 9 12 9 12


AES 2 voie B (CANAL 4) 9 12 9 12
AES 3 voie A (CANAL 5) 9 12
1 mot = 10 bits.

AES 3 voie B (CANAL 6) 9 12


AES 4 voie A (CANAL 7) 9 12
AES 4 voie B (CANAL 8) 9 12
AES 5 voie A (CANAL 9) 9 12
AES 5 voie B (CANAL 10) 9 12
AES 6 voie A (CANAL 11) 9 12
AES 6 voie B (CANAL 12) 9 12
AES 7 voie A (CANAL 13) 9 12
AES 7 voie B (CANAL 14) 9 12
AES 8 voie A (CANAL 15) 9 12
AES 8 voie B (CANAL 16) 9 12
CHECK SUMM 1 1 1 1
TOTAL 43 mots 55 mots 151 mots 199 mots
Synoptique codeur 422
TELETEXTE
SOUS TITRAGE
VITC DONNEES 10 bits
AUDIO 1
AUDIO 2
E.D.H.
AUXILIAIRES M
Sup. H/V

U
R Y FILTRE Y CONVERTISSEUR L
M ANAL. / NUM. 10 bits

A 5,75 MHz 13,5 MHz


T
T I
V R Cb
I
FILTRE Cb CONVERTISSEUR
ANAL. / NUM.
10 bits P 10 bits 25 PINS
2,75 MHz
C 6,75 MHz
L
A
B G Cr FILTRE Cr CONVERTISSEUR
E 27 MHz
10 bits
ANAL. / NUM.
E 2,75 MHz 6,75 MHz
X
E
U
SYNCHRO BASE DE MUX. TIMING

TEMPS
R
T.R.S. 10 bits
Signaux de sortie parallèle 422

amplitude 18,5 ns +/- 3ns

5 ns/DIV.

100%
80%
+ DATA temps
-1,29 V

0,8 à 2 V 20%

0%
37 ns RISE TIME
5 ns HORLOGE
DATA
amplitude 37 ns
TTL IN
27 MHz +/- 0,2 MHz
0,8 à 2 V Gigue de phase de +/- 11 ns
temps
-1,29 V Temps de montée: 5 ns
- DATA

Pour les 10 bits (DATA) et pour l’horloge (CLOCK):


Logique ECL (Emitter Coupled Logic)
Niveaux de 0,8 V à 2 V c/c
Composante continue de – 1,29 V
Sortie symétrique
Impédance caractéristique 110 Ohms +/- 10 Ohms
La symétrisation

Parasite

+V+p
+V 2.V
V
+ +

OUT
IN _ _

-V
-V+p
(+V+p) – (-V+p) = 2.V

SOURCE LIAISON DE TRANSMISSION RECEPTEUR


AVEC TRESSE DE MASSE
1 + HORLOGE 27 MHz

Liaisons et connectique 422 parallèle 2 MASSE GROUPE +


3 + DATA 9 (MSB)
4 + DATA 8
5 + DATA 7
CONNECTEUR 25 D
6 + DATA 6
7 + DATA 5
8 + DATA 4
9 + DATA 3
10 + DATA 2
11 + DATA 1
12 + DATA 0 (LSB)
13 TRESSE DE MASSE
14 - HORLOGE 27 MHz
15 MASSE GROUPE -
16 - DATA 9 (MSB)
17 - DATA 8
18 - DATA 7
19 - DATA 6
10 paires torsadées de DATA symétriques
1 paire torsadée d’horloge symétrique 20 - DATA 5
21 - DATA 4
2 fils de masse
22 - DATA 3
1 fil de terre
23 - DATA 2
24 - DATA 1
25 - DATA 0 (LSB)
Résume 422

SIGNAUX CODES LUMINANCE CHROMINANCE


Y Cr Cb
BANDE PASSANTE 5,75 MHz 2,75 MHz

FREQUENCE D’ECHANTILLONNAGE 13,5 MHz 6,75 MHz

Nbre D’ECHANTILLONS PAR LIGNE 864 432 432

Nbre D’ECHANTILLONS PAR LIGNE UTILE 720 360 360

NOMBRE DE TRAME 2 TRAMES ENTRELACEES


STRUCTURE D’ECHANTILLONNAGE STRUCTURE ORTHOGONALE
QUANTIFICATION 8 BITS 220 NIVEAUX UTILES 225 NIVEAUX UTILES

QUANTIFICATION 10 BITS 877 NIVEAUX UTILES 897 NIVEAUX UTILES

RAPPORT SIGNAL SUR BRUIT 8 BITS 56 dB


RAPPORT SIGNAL SUR BRUIT 10 BITS 68 dB
CODAGE BINAIRE SIMPLE BINAIRE DECALLE

DEBIT BRUT 8 BITS 216 Mbits/s


DEBIT BRUT 10 BITS 270 Mbits/s
DEBIT NET 8 BITS 166 Mbits/s
DEBIT NET 10 BITS 207 Mbits/s
Débit vidéo numérique

Signal utile Signal complet

8 bits 10 bits 8 bits 10 bits

Qualité studio 165.6 Mbit/s 207 Mbit/s 216 Mbit/s 270 Mbit/s
numérique 4.2.2 (20.7 Mo/s) (25.9 Mo/s) (27 Mo/s) (33.75 Mo/s)

Avec
124 Mbit/s 162 Mbit/s
sous- échantillonnage
chrominance (15.5 Mo/s) (20.25 Mo/s)
4.2.0 ou 4.1.1
SÉRIALISATION
Pourquoi sérialiser?

KX6/KX8
Avoir un seul câble plus souple que les paires torsadées.

Avoir une connectique plus simple que le 25 broches.


BNC
Utiliser les liaisons existantes.

Assurer des liaisons plus longues que 15 mètres. 300 m

Faciliter les traitements numériques et l’enregistrement du signal.

Faciliter la sélection, la distribution et le contrôle


des sources.
Insérer des données et/ou des voies audio numériques dans la vidéo numérique.
Le traitement numérique: transport du signal
CODAGE DE TRANSPORT:
CONVERSION ANAL. / NUMERIQUE PROTECTION CONTRE MODULATION DE PHASE
REDUCTION DE DEBIT LES ERREURS QAM
FIBRE OPTIQUE

Source Codage de Codage de Codage de


Source Canal Voie

Dépend de la nature Dépend de la nature


de la source de la voie
Dépend de la nature
de la source et de la voie
AUDIO
VIDEO CABLE
TEXTE FIBRE OPTIQUE
SATELLITE
AUDIO CABLE
MAGNETOSCOPE
VIDEO FIBRE OPTIQUE

TEXTE SATELLITE
MAGNETOSCOPE Cours audiofréquence
Année 2014/ 2010 …
Professeur Mr DABO
Problèmes de transport
• Il est évident qu’avec les débits examinés plus haut, il est impossible de transporter des
signaux TV numériques, sans des outils de codage et de compression adéquats.
• On pourrait classer les problèmes de transport des signaux TV numériques en deux
catégories:
1. Le codage de source:
• Nécessité de mise au point de techniques de compression vidéo et audio réduisant le
débit numérique à une valeur très faible
• Que les débits après compression soient compatibles à une dégradation imperceptible du
rendu de l’image télévisé en mouvement, ainsi que du son associé.
2. Le codage de canal:
il consiste à développer des algorithmes de corrections d’erreurs, associés à des techniques
de modulation, parmi les plus efficaces possibles (en termes de Mb/s par MHz).
Autrement dit, le codage de canal rajoute de la redondance au signal pour le rendre plus
robuste vis-à-vis des erreurs de transmission. Pour cela il est important de tenir compte
de la bande passante disponible et des défauts prévisibles du canal de transmission
(exemples: bruits, échos….)
LE CODAGE VIDEO & AUDIO
1. Le codage vidéo
a. Propriété du signal : Redondance temporelle
• Un élément commun à plusieurs images consécutives n’est transmis qu’avec
la première image
• Pour les autres images on transmet uniquement sa position dans l’image
• Exemple : plan fixe ou on envoi une voiture qui va de gauche a droite
• On transmet 1 fois le décor et la voiture
• Pour les images suivantes on indique la position de la voiture
b. Propriété du signal : Redondance spatiale
• Un élément réplique à l’identique dans une même image n’est codée qu’une
fois
• Exemple : image dans laquelle il y a trois voitures identiques
• L’image de la voiture n’est codée qu’une fois
• En y ajoutant la position de chacune dans l’image on peut reconstituer la
scène
Sans codage une vidéo en sortie de post de production utilise 270 Mbit/s à comparer à
38.5 Mbit/ d’un répéteur satellite ou 7 à 8 Mbit/s d’un canal radio terrestre UHF /VHF
Après codage MPEG- 2 ; le flux de 270 Mbit/s sera ramené a un débit variant entre
1.5 – 6 Mbit/s
Principe de base du MPEG : Ne jamais transmettre un élément d’image déjà transmis
On exploite donc les propriété du signal :
Redondance temporelle
Redondance spatiale
En codage MPEG il existe 3 types d’images :
Images I : Images « intra – codées » : nécessitent beaucoup de données .pas
besoin d’information supplémentaire pour le décoder
Images P : elles sont déduites d’une image antérieures qui peut être de type I ou
P . Elles comportent pratiquement la moitié de données d’une image I
Image B : elle sont prédictées bi directionnellement à partir d’images antérieures
ou postérieures de type I ou P .elles comportent pratiquement le quart des
données d’une image I
A partir d’une qualité souhaitée on peut connaître la suite d’images qu’il faut produire
au travers du codeur MPEG ( en fonction du débit souhaité).
Pour une qualité donnée , l’émission d’images I uniquement double le débit par
rapport a une séquence IBBP
Formation vecteur de mouvement, de l’image I, vers l’image P consécutive.
On n'encode que les changements
Principe de la norme MPEG
T1
1
T2
1

T2
2. Le codage Audio
• Le principe de base du MPEG audio : «ne jamais transmettre ce que l’on ne
peut pas entendre »
• La compression audio est basée sur les caractéristique de l’audition humaine .
Typiquement on considère que l’oreille humaine perçoit les sons de 20 à 20 kHz
• Deux types de décodage audio peuvent être utilisés en MPEG : le MPEG-1 ou le
MPEG-2
• Cependant ; le DVB a du aussi adopter un autre codage audio sous la pression
des industriels : le codage AC-3 (utilises dans les systèmes ATSC)
Le Multiplexage MPEG-2
Mise en paquets des données
• Il y a 3 parties fondamentales dans le standard MPEG-2 :
1- le Système
2- la Vidéo
3- l’Audio
• Les vidéo et audio sont compressées pour former des Flux Elémentaires (ES :
Elementary Stream).
• Les flux Elémentaires sont ensuite tronçonnés en paquets (PES : Packetized
Elementary Stream) qui
• seront ensuite redécoupés pour former le flux de transport (TS : Transport Stream).
• Le MPEG ne définit que le décodeur ce qui permet une amélioration (en terme de
réduction de débits ou de qualité d’image) en fonction de l’augmentation en
puissance des équipements de codage.
Le PES ( Packet Elementary Stream )
Chaque composante codée séparément est ensuite regroupée avec les autres
pour constituer un flux complet ( audio +vidéo +data ) : c’est le multiplexage
Les flux élémentaires ES continus transportant la vidéo et l’audio sont divisées
en paquets ( PES)
Chaque PES est identifié par un entête contenant des marqueurs temporels
pour la synchronisation .
Le marqueur permet de synchroniser la vidéo et l’Audio
Le PES commence par un préfixe de 24 bits et un identifiant (PID)
Marqueur temporel :
C’est un nombre de 33 bits constitués par un compteur piloté par une horloge
de 90 KHz (= 27MHz/300)
Le PES ( Packet Elementary Stream )
Chaque composante codée séparément est ensuite regroupée avec les autres
pour constituer un flux complet ( audio +vidéo +data ) : c’est le multiplexage
Les flux élémentaires ES continus transportant la vidéo et l’audio sont divisées
en paquets ( PES)
Chaque PES est identifié par un entête contenant des marqueurs temporels
pour la synchronisation .
Le marqueur permet de synchroniser la vidéo et l’Audio
Le PES commence par un préfixe de 24 bits et un identifiant (PID)
Marqueur temporel :
C’est un nombre de 33 bits constitués par un compteur piloté par une horloge
de 90 KHz (= 27MHz/300)
Mise en paquets des données

Décode
Codeur
ur
vidéo Flux de
Décode Vidéo
Codeur transport (TS)
ur
Flux systèm Flux
système
Elémentaire e Elémentaire
(ES) Syntax Syntaxe (ES)
ePES PES Décode
Codeur ur
audio Audio

Non Standardisé Standard MPEG-2

Cours TV Numérique Professeur


Norme DVB Mr DABO
Le multiplexeur MPEG-2(Système Mux)

Flux
Donnée Codeur Mise en PES
s vidéo Vidéo paquets Vidéo Programme
Multiplexeur
de flux (SPTS)
Données Codeur PES programme ex:
Mise en
Audio Audio paquets Audio Contribution,
DVD
Flux Elémentaires Flux de
Données transport
• Multiplexeur(MPTS)


de transport
ex: Transport
Diffusion DVB
Autres programmes Vidéo/Audio/Data

Contrôle d’accès

Cours TV Numérique Professeur


Norme DVB Mr DABO
Le multiplexeur MPEG-2(Système Mux)

• 2 Syntaxes de flux de données ont été définies en MPEG-2. Chacune a pour


base les paquets de données PES.

• Le Flux Programme (PS: Program Stream), défini à l’origine pour le DVD et


pour d’autres applications d’enregistrement de média, ne contient qu’un seul
programme et utilise des paquets de grande taille.

• Le Flux de Transport (TS: Transport Stream), conçu pour les transmissions,


utilisant des paquets de taille unique (188-bytes).
• Des flux mono-programme (SPTS) peuvent être combinés dans un flux multi-
programmes (MPTS) pour la transmission (généralement en diffusion).
Création du Flux de Transport (TS)

Vidéo composantes numériques

Flux Elémentaires

Paquets PES
Longueur définie

Flux de transport
188 Octets par paquet
Les Paquets de flux de transport (TS: Transport Stream) sont des sous-divisions de
PES avec des informations supplémentaires placées dans l’entête. Deux des
informations les plus importantes placées dans l’entête sont :
• Le PID (Program IDentification), permet d’identifier le programme ou le type de
données transportées dans le paquet.
• Les PCR (Program Clock Reference), transmet des informations temporelles
concernant les données du paquet et permet aussi de resynchroniser l’horloge du
décodeur à 27 MHz avec celle du codeur d’origine.
Les paquets du flux de transport sont à taille fixe de 188 bytes avec une entête de 4
bytes minimum.
Création du Flux de Transport (TS)
SYNOPTIQUE GÉNÉRAL

Vidéo Codeur MPEG ES


2/4 vidéo PES
4:2:2 vidéo Packetizer
vidéo Program Program Stream
Stream PS
Codeur ES MUX
Audio PES
MPEG 2/4 audio Packetizer
AES/EBU audio audio

TS
SPTS
Transport
TS
Stream
MPTS
PES vidéo MPTS
PES audio Y
Transport
PES vidéo Stream
Z MUX
PES audio

Domaine de spécification de MPEG System


Le multiplexage
CONSTRUCTION D'UN FLUX MPEG 2 TS

P1

Vidéo PES TS
SPTS
188 oct 188 oct
Audio PES TS
188 oct 188 oct 188 oct 188 oct

Data PES TS P3 MPTS


P4
SI, CA
Table TS P5
P6

Stuffing packets
Flux de transport Multi-programmes (MPTS)

Audio 1
Programme 2
Programme 1 Vidéo 2

Vidéo 1

PES

PES
2 Flux élémentaires dans le programme 1
1 Flux élémentaire dans le programme 2

Chaque programme a son horloge de référence

Flux de transport à 2 programmes

Cours TV Numérique Professeur


Norme DVB Mr DABO
ARCHITECTURE TECHNIQUE DE LA DIFFUSION TV
A
MOD N
COD DEC
OFDM DEM
N
A
Orthogonal Frequency
Division Multiplexing

A A

DEMUX
Settopbox
Sources
MUX
numériques

Chaîne simplifiée numérique


Avec la TNT, les émissions sont diffusées par des émetteurs
terrestres, mais il est utile de noter les quelques
changements par rapport à la l’analogique :
TELEVIOSION NUMERIQUE TERRESTRE (TNT)
Inter actvite

Tele
Dividente enseignement
Qualite numerique
Internet
Economie:
spectres
ennergie Nouveaux
emploi TNT services Tele achat

Utilisation
cannaux Developpement
adjacents Acces publicites
Nbre conditionnel
programmes
Reception
portable/moble
Comsomateurs

Emjeux
Radiodiffuseurs
Importateurs

Pouvoirs
publiques
Acquisition
Les enregistrements sont planifiés et automatisés. Les sources sélectionnées sont
dirigées vers les systèmes d’encodage en qualité réduite pour la consultation. Les
signaux sont acheminés vers une grille numérique qui permettra la commutation des
signaux sous forme SDI et/ou SDTI.
la fabrication
Il s’y effectue :
la post production qui permet de faire les montages des émissions,
l’habillage et le ‘’compositing’’ ;
le stockage et la gestion des médias : l’accumulation des médias et leur transfert
sur requête pour la post production, l’archivage et la consultation ;
la sécurité des données à stocker;
et le traitement de l’information qui garantit le montage des sujets d’actualités et la
production des journaux d’information.
La distribution
Les flux audio et vidéo sont acheminés sur des liaisons point-à-point en bande de
base et en temps réel et les fichiers par le biais des réseaux haut débit pour les
médias et bas débit pour les données.
La programmation:
L’automatisation de la diffusion des éléments à partir d’un conducteur;
Le stockage temporaire et la restitution des heures de programmes sur un ou
plusieurs canaux de diffusion en temps réel de manière isochrone vers une régie
finale ;
La diffusion des programmes suivant différents types de support;
La garantie de la continuité de service.
LES NOUVEAUX SERVICES
En matière de programmes ou de contenus, les possibilités offertes par la Télévision
Numérique sont beaucoup plus intéressantes que celles de l’Analogique.
En effet, un canal TV en analogique ne permet que la diffusion d’un programme TV en
Définition Standard (SD), alors qu’en Numérique le même canal peut véhiculer jusqu’à
une vingtaine de chaînes (SD ;16/9). Il peut, en outre assurer la diffusion de nouveaux
services ou contenus tels que :
La Télévision Haute Définition (HD)
Les chaînes locales
La réception portable ( sans antenne extérieure )
La réception mobile ( sur téléphone portable )
L’internet haut débit
La vidéo à la demande
Les guides électroniques de programmes
OPTIONS POSSIBLES

TECHNIQUES – ECONOMIQUES – JURIDIQUES –


 Option 1: séparation en Plusieurs

SECURITAIRES – ENVIRONNEMENTAUX…
Multiplex / Transporteurs / Diffuseurs

INSTITUTIONNELS - POLITIQUES -
 Option 2 : 1 seul diffuseur et plusieurs
Multiplexeur s / Transporteurs

ATOUTS & CONTRAINTES


 Option 3 : Opérateur unique
Multiplex, Transport et Diffusion

OPTIONS ENVISAGEABLES
 Option 2 : 1 seul diffuseur et plusieurs
Multiplexeur s / Transporteurs
 Option 3 : Opérateur unique
Multiplex, Transport et Diffusion

OPTION PROPOSEE
 Option 3 : Opérateur unique
Multiplex, Transport et Diffusion

Pour le Sénégal
OPTION : option
RETENUE 3 retenue
: Option 3
ARCHITECTURE ORGANIATIONNELLE DES MEDIAS
AUDIOVISUELS
Editeur des programmes
Diffusion

Editeur des programmes Editeur des programmes


Editeur Transmission

Les principaux acteurs du sous secteur de la radiodiffusion


sont les opérateurs de chaînes de radiodiffusion. Ils assurent
toutes les tâches de la chaîne de valeur : la production de
programmes, le transport des signaux et la diffusion.
Télévision Numérique

Opérateur de
Opérateur
transmission
Editeur des de
programmes multiplex

Transmission
Multiplexage
Production

Distributeur Diffuseur
commercial technique
(chaînes
payantes)
Diffuseur
Le circuit du signal numérique de la production à la réception
Norme retenue pour le Sénégal DVT 2
Introduction:
Quatre systèmes de télévision numérique ont été développés pour la radiodiffusion de
Terre. Ces systèmes appliquent les normes MPEG-2 et MPEG-4 pour la compression et
le codage de source, la norme MPEG-2 TS (Transport Stream) pour le transport. La
principale différence entre ces systèmes en question, réside dans la couche diffusion
RF ou physique, où sont déterminés le type de modulation utilisé et le mode d'émission
en radiofréquence.
La norme DVB-T
DVB-T ou Digital « Video Broadcasting-Terrestrial », fait partie de la norme
européenne DVB appliquée aux transmissions terrestres hertziennes. Les pays
appartenant à la zone européenne de planification ont adopté la norme DVB-T comme
standard national.
La norme ATSC
ATSC ou « Advanced Television Systems Committee », est un groupe qui définit les
normes de transmission de la TNT aux USA. En plus des USA, la norme est utilisée au
Canada, au Mexique, en Corée du Nord et en Argentine. C’est le remplacement de
l’ancienne norme analogique NTSC. L’ATSC est un système extrêmement efficace. Il
fonctionne avec une seule porteuse fonctionnant avec une modulation à une bande
latérale résiduelle (BLR-8) Trois propriétés ont été prises en compte dans la conception
de ce système:
Immunité à l’égard de la propagation par trajets multiples ;
Efficacité spectrale ;
 Facilité pour la planification des fréquences.
Le système a été conçu avec une résistance aux brouillages causés par les signaux
retardés : échos provenant du terrain ou des bâtiments, ou signaux provenant
d’émetteurs éloignés dans un réseau à fréquence unique. Il est capable de réception
fixe, sur un appareil portatif, ou mobile.
La norme ISDB-T
L’ISDB-T ou Integrated System Digital Broadcasting-Terrestrial est un standard
japonais. Il permet la diffusion vers les divers types de récepteurs grâce à la découpe
du signal en 13 segments dont les trois premiers sont réservés à la TMP. Basée sur
l’OFDM pour permettre le multiplexage des différentes sources, la diffusion a lieu en
bande UHF et principalement en bande IV.

La DMB est une norme


utilisée particulièrement en
Chine et en Corée du Sud.
Les différentes normes

JAPON ISDB-T EUROPE DVB-T USA ATSC CHINE T-DMB

OFDM OFDM OFDM


BLR-8
QPSK-16QAM-64QAM QPSK-16QAM-64QAM QPSK-16QAM-64QAM

6 MHz 7/8 MHz 6 MHz 1,5 MHz

1405/5617 1705/6817 Nombre de porteuses 1

RECEPTION MOBILE: RECEPTION MOBILE: RECEPTION MOBILE:


NON CONSIDERE
OUI OUI OUI
Les réseaux de distribution
du contenu audiovisuel
La distribution du contenu audiovisuel en ligne est réalisée via différents types de
réseaux:
Câble de télédistribution,
Réseaux IP privés,
Internet,
Satellite,
télévision numérique terrestre
LES MODES DE RECEPTION DE LA TNT
La Réception fixe
• C’est une réception sur une antenne directive montée au niveau des toits. ( antenne
«râteau» )
• Elle ne nécessite aucune intervention requise sur l’antenne sauf dans de rares cas
• En utilisant l'amplificateur à faible bruit (facultatif), on obtient un meilleur facteur de
bruit pour le système de réception et on compense les pertes qui se produisent dans
le câble de descente
La télévision numérique via le câble
Adaptateurs numériques pour TVA Set Top Box
• Ils permettent la réception de programmes numériques tout en conservant son
ancien téléviseur analogique.
• On distingue trois types de « Set Top Box » :
• les adaptateurs à simple tuner (entrée de gamme),
• ceux à double tuner qui permettent une réception simultanée de deux
programmes différents,
• et les boîtiers haut de gamme dotés de disque dur faisant office de
magnétoscope numérique.
• Ces adaptateurs ne viendront pas se positionner en opposition aux téléviseurs
numériques, mais en complément de ces derniers. En effet, un décodeur interdit la
portabilité représentant l’un des avantages majeurs des récepteurs numériques
intégrés.
Raccordement de l’adaptateur TNT
La télévision numérique par le satellite
TNT: Télévision Numérique Terrestre
La télévision mobile
LE RÉSEAU DE SERVICES TRIPLE-PLAY
Le triple-play
Le "triple play« est une offre combinée de services des opérateurs télécoms via une
liaison unique (Internet, câble, etc.) que le client peut disposer pour accéder au
service de:
 téléphonie,
 télédistribution;
 accès Internet;
Dans un futur proche, cette offre "triple play" pourrait tendre vers un "quadruple
play" ou "multi play" et très certainement vers une convergence totale de services
caractérisée par:
la diffusion de programmes télévision sur n'importe quel terminal (GSM, écran de
télévision, écran d'ordinateur, etc.);
l'accès à ces services à n'importe quel endroit du monde;
la visiotéléphonie sur un terminal spécifique ou sur un ordinateur, un écran de
télévision, un GSM, etc.
l'accès à Internet avec un ordinateur, un écran télévision, un GSM, etc.
Quel liaison, quelle infrastructure?
Actuellement, la liaison unique peut être basé sur:
ADSL : Asymetric Digital Subscriber Line.
Il s’agit d’un câble bifilaire utilisé pour la téléphonie. C’est une technologie qui permet
une connexion digitale one to one, sur paire de fils de cuivre, à haut débit (jusqu'à 8
Mbits en réception et 640 Kbits en émission). Elle permet d'utiliser le poste
téléphonique et, en même temps, d'être connecté à Internet. La distance maximale
entre l'abonné et le central local ne doit pas dépasser 5 km.
VDSL: Very (High bit rate) Digital Subscriber Line
Il s’agit d’une technologie DSL asymétrique qui permet une connexion digitale one to
one, sur une ligne téléphonique, à haut débit (jusqu'à 50 Mbps). La distance maximale
entre l'abonné et le central local est inversement proportionnelle au débit;
VDSL2: Very High data rate Digital Subscriber Line.
Il s’agit du VDSL version 2, capable de transporter de données à des vitesses allant
jusque 100 Mbps, en mode symétrique ou asymétrique, sur des lignes téléphoniques
CÂBLE:
le câble coaxial (en cuivre) utilisé par les réseaux de télédistribution;
le câble Ethernet RJ45 (la paire torsadée en cuivre) utilisé pour un accès à des
réseaux de type Metro Ethernet;
le câble en fibre optique utilisé pour les accès FTTH (Fiber-to-the-
home)Architecture basée sur un chemin de communication en fibre optique qui relie
l'équipement de l'opérateur télécoms jusqu'à l'entrée dans l'espace de vie privée ou
dans l'espace de travail.
Toutes les infrastructures en cuivre contrairement à la fibre optique ont des
limitations de débit liées à la distance de l'utilisateur par rapport à un central
téléphonique ou par rapport à un mini central téléphonique (cabinet street). A plus
de 1000 m, les débits ne peuvent plus être garantis pour des services triple play ou
multi play.
Quels débits?
Dans un passé récent, les besoins actuels en débits pour les services triple/multi play,
étaient les suivants:
 de 3 à 8 Mbps pour la transmission de 2 chaînes SDTV Format de diffusion/réception
des programmes TV avec une qualité des images équivalente à celle des téléviseurs
analogiques actuels (576x720 pixels ou 480x640 pixels). Le format d'affichage n'est
pas figé: l'utilisateur choisit lui-même le format soit 4:3 soit 16:9 codées en MPEG2
(Motion Picture Experts Group - Layer 2), premier standard pour la télévision
numérique, la vidéo à la demande, le DVD, etc. Il fournit une bonne compression des
sources audio et vidéo dans le but de les transporter via des réseaux ou de les stocker
sur un support physique. Le standard définit aussi le format de fichier. mp2 (1,5 à 4
Mbps par chaîne SDTV en MPEG-2);
 de 4 à 5 Mbps pour la transmission de 2 chaînes SDTV codées en MPEG4 (Motion
Picture Experts Group-Layer 4) Standard des applications multimédia. Véritable
révolution multimédia, il réalise l'intégration de trois métiers différents: l'informatique,
la télévision et les télécoms. Le taux de compression vidéo est plus important par
rapport au MPEG-2. Le standard définit aussi le format de fichier ayant l'extension
.mp4 (environ 2 Mbps par chaîne SDTV en MPEG-4);
de 8 à 20 Mbps pour la transmission/réception d'une chaîne HDTV /Télévision Haute
Définition (High Definition Television). Technologie qui fournit sur des écrans TV des
flux audiovisuels en format HD (images et sons). Le format d'affichage est bien défini
et figé à 16:9 (rapport longueur sur hauteur), similaire à celui des salles de cinéma.
Les principaux formats susceptibles d'êtres utilisés en HDTV sont: 720p (720 X 1280
pixels en mode progressif), 1080i (1080 X 1920 pixels en mode entrelacé), 1080p
(1080 X 1920 pixels en mode progressif) codée en MPEG-4;
 de 2 à 6 Mbps pour la VoD (vidéo à la demande);
 jusqu'à 0,1 Mbps symétrique pour la voix (VoIP/Voix sur IP (Voice over Internet
Protocol) Il s’agit d’un système permettant d'utiliser Internet comme moyen de
transmission des appels téléphoniques. Pratiquement, la voix est transformée en
signaux numériques et envoyée par paquet. L'avantage du système réside
notamment dans la diminution des coûts d'appel);
 de 0,2 à 5 Mbps pour Internet.
Les besoins actuels en débits pour les services triple/multi play, sont les suivants:
Pour les services triple play/multi play de nos jours les débits sont les
suivantes:
 de 20 à 40 Mbps pour la transmission/réception de 2 chaînes HDTV (8 à 20 Mbps
par chaîne HDTV) ;
 de 6 à 16 Mbps pour la transmission/réception de 4 chaînes SDTV (1,5 à 4 Mbps
par chaîne SDTV) ;
 de 2 à 6 Mbps pour la VoD;
 jusqu'à 0,1 Mbps symétrique pour la voix (VoIP);
 de 0,2 à 5 Mbps pour Internet;
 0,7 Mbps symétrique pour IMS/vidéo conférence.
Pour supporter les services du futur un débit de 100 Mbps voire supérieur symétrique
sera incontournable.
Le rôle central de l'Internet pour l'avenir de la télévision
L'Internet doit être considéré comme un facteur-clé de l'évolution à long terme de la
télévision. Selon certaines estimations et études, 60% des foyers européens
disposeront d'un accès Internet haut ou très haut débit depuis 2015.
Nous assistons à une lente mais irréversible convergence des univers de la télévision
et de l'Internet. l'Internet en tant que plateforme permettant l'émergence d'une
télévision alternative universelle est à prendre en considération.
Le rôle central de l'Internet pour l'avenir de la TV
L'Internet doit être considéré comme un facteur-clé de l'évolution à long terme de
la télévision. Selon certaines estimations et études, 60% des foyers européens
disposeront d'un accès Internet haut ou très haut débit depuis 2015. Nous
assistons à une lente mais irréversible convergence des univers de la télévision et
de l'Internet. l'Internet en tant que plateforme permettant l'émergence d'une
télévision alternative universelle est à prendre en considération.
LA TELEVISION NUMERIQUE TERRETRE
RESEAU DE DIFFUSION
Le réseau multifréquence, ou Multi Frequency Network:
Le MFN (Multi Frequency Network), dont le principe consiste à utiliser pour deux sites
de diffusion voisins, des fréquences différentes. Ce même mode de planification est
aujourd’hui utilisé pour la TV analogique.
Avantages:
Ce modèle permet la diffusion de programmes régionaux ou locaux,
L’utilisation des sites existants de la TV analogique, ce qui permet une initialisation
rapide,
La couverture est très rapidement étendue,
L’usage des canaux tabous (canaux adjacents) est possible.
Inconvénient :
Cette planification identique à la planification traditionnelle est plus gourmande en
fréquences
Single Frequency Network
Le réseau mono fréquence, SFN (Single Frequency Network) rendu possible grâce à
la technique du COFDM
Le Coded Orthogonal Frequency Division Multiplex (COFDM en français :
Multiplex par division de fréquences orthogonales codées).
Le principe du COFDM consiste à diffuser le même multiplex de programmes sur la
même fréquence, de manière nationale ou régionale. Ainsi un récepteur reçoit un
signal principal correspondant à l’émetteur le plus proche ou le plus puissant et une
combinaison d’échos « actifs ».
Avantages :
Il n’est pas nécessaire d’utiliser différentes fréquences pour distribuer un même
programme à l’échelle régionale ou nationale.
Inconvénients :
Il est nécessaire de diminuer les débits,
Le réseau est coûteux car il nécessite la multiplication du nombre d’émetteurs.
La difficulté de synchronisation des émetteurs.
Le champ minimal
protégé
PROPRIETE DE LA TELEVISION NUMERIQUE TERRESTRE
ARCITECTURE DE LA TELEVSION NUMERIQUE TERRESTRE
Réception TNT en habitat individuel
Réception télévisuelle en habitation avec une
distribution pour plusieurs postes téléviseurs.
AVENEMENT DE LA TELEVISION NUMERIQUE TERRETRE
AU SENEGAL

Architecture de la diffusion télévisuelle au Sénégal


GENERALITE SUR LE DVB RETENU PAR LE CNN

Le projet DVB:
Il a exploité l'expérience acquise par le développement, le lancement et
l'exploitation des normes analogiques de télévision améliorée en Europe : le D2Mac,
le HD Mac ainsi que les accès conditionnels Eurocrypt (Philips, France Telecom),
Videocrypt (Thomson consumer electronics ) ou SECA (canal +).
 Sa tâche principale a consisté à développer une suite complète de technologies de
diffusion de télévision numérique par Satellite , par câble et par FH ( terrestre )
sous forme de « pré-standardisation » ;
Plutôt qu'associer un unique programme par canal (ou fréquence porteuse) de
télédiffusion, il a réussi à transporter une combinaison de sources vidéo, audio et
données multimédias.
Il est un système ouvert (compatible) et évolutif vers la SDTV (résolution standard),
l’EDTV(résolution améliorée) et la future HD TV , le format 16/9 le son multi canal.
Il est capable de véhiculer toute forme de média numérique à venir.
Les standards DVB
DVB-T ( terrestre)
Canaux de 8 MHz et 7 MHz
Utilise une modulation basée sur le COFDM
Modes 2 k et modes 8 K
Intervalles de garde
DVB-S ( satellite)
Modulation QPSK avec deux niveaux de correcteurs d’erreurs
Peut être utilisés sur des répéteurs de 36 MHz et de 72 MHz
DVB-C (câble)
Canaux de 8 MHz avec une modulation 64 QAM qui peut fournir jusqu’à 38.5
Mbit/s
Même noyaux que les systèmes satellites pour faciliter l’interfaçage entre
réseaux
Une innovation constante
DVB-H (handheld)
Tire partie des excellentes performances mobiles du DVB-T et les adaptent
aux besoins particulières des terminaux mobiles
DVB-S2
Une mise à jour du DVB-S utilisant les avancées technologiques pour
améliorer les performances d’environ 30%. Ce sera le standard de référence
pour la diffusion par satellite a l’avenir
DVB- T2
Une mise à jour du DVB-T utilisant les avancées technologiques pour
améliorer les performances d’environ 30%. Ce sera le standard de référence
pour la diffusion Terrestre a l’avenir.
Les avantages de la télévision numérique :
• réception d'un plus grand nombre de programmes et meilleure gestion des
fréquences de transmission;
• meilleure qualité de l'image et du son;
• meilleure compatibilité des contenus, la source audiovisuelle étant codée en
MPEG2 ou MPEG4;
• passage naturel de la définition standard (SD) à la haute définition (HD);
• possibilité de sauvegarder les contenus (émissions, films, etc.) sur un disque dur
ou sur un DVD aussi facilement qu'un fichier sur un ordinateur et en conservant la
qualité d'origine;
• accès aisé à des catalogues de programmes décrivant les horaires de diffusion et
les services associés;
• programmation aisée pour l'enregistrement du contenu;
• intégration aisée de la télévision interactive;
• possibilité de visualiser plusieurs chaînes en même temps sur l'écran;
• usage des outils TIC multimédia;
• intégration de la communication sur le téléviseur: appels téléphoniques, SMS,
messagerie électronique, accès à Internet, télébanking, jeux en ligne, VoD, etc.
Par ailleurs :
L'intégration des outils TIC dans le monde de l'audiovisuel permet de rechercher des
émissions de télévision et de film favori aussi aisément que la recherche actuelle de
documents ou d'images sur Internet. Plusieurs acteurs majeurs du Web ont compris
cet enjeu: Google, Yahoo! ou encore Microsoft travaillent au développement de ces
services.
LA TÉLÉVISION À HAUTE DÉFINITION
La télévision à haute définition (TVHD) ou High Definition TV (HDTV) se caractérise
essentiellement par un format d'image 16:9 et une résolution améliorée de l'image.
Connectiques nécessaires pour restituer la qualité du signal haute définition : YUV et
HDMI (ou DVI).
La haute définition (HD) désigne une classification d'équipements de télédiffusion et
de vidéo numérique ayant une définition d'au moins 720p (1280 par 720 pixels). Elle
est l'évolution du SDTV. Le terme HD s'étend également à l'ensemble des techniques
audiovisuelles numériques telles que le HDV, le HDcam, la télévision DVB-T, DVB-S
DVB-C, les supports disques Blu-ray, HD DVB, l'enregistrement multimédia sur
disque dur, ainsi qu'au stockage de données informatiques.
Les spécificités de la HD nécessitent une définition de l'image vidéo supérieure (d'un
facteur de deux au minimum) à celle de la référence dite « SD » .
La SD présente une définition de 720 X 576 pixel
Les industriels considèrent qu'un équipement vidéo peut être qualifié HD dès lors
qu'il traite ou exploite un signal vidéo dont la définition verticale (nombre de lignes)
est supérieur à 720 pixels c’est-à-dire 720 lignes.
La HD nécessite des capacités techniques plus évoluées, à cause du flux et du
volume bien plus importants des données à traiter, et de leur codage plus complexe
(HDV, AVCHD).
Chaque norme TVHD peut exploiter une variante d'affichage conforme aux standards
vidéo historiques analogiques ; le 50 Hz (conforme aux 25 images par seconde PAL
ou SECAM et le 60 Hz (conforme aux 30 images par seconde NTSC).
Début 2010, l'Europe s'oriente vers deux normes principales :
• Définition 1 080 lignes de 1 920 points en affichage entrelacé (1080i)
• Définition 720 lignes de 1 280 points en affichage progressif (720p)
Les principaux formats d'image Haute Définition exploités dans le monde sont:
• HD 720p: 1 280 × 720 à 50 et 60 Hz en progressif (environ 0,9 mégapixel pour
une image)
• FHD (2K) 1080i: 1 920 × 1 080 à 50 et 60 Hz en entrelacé (environ 2 mégapixels
pour une image)
• FHD (2K) 1080p: 1 920 × 1 080 en 50 et 60 Hz en progressif (environ
2 mégapixels pour une image)
• UHD(4K) 2160p: 4 096 × 2 160 en progressif (environ 8,8 mégapixels pour une
image)
LA TÉLÉVISION ULTRA-HAUTE DÉFINITION (TVUHD)
La télévision à ultra-haute définition (TVUHD ou UHDTV en anglais) selon l’UIT)
selon l’UIT est un format numérique de vidéo dont la caractéristique principale est
une définition d’image comportant quatre fois, voire seize fois plus de pixels que la
télévision haute définition (HDTV).
Le format UHD est composé de deux standards
• Le format TVUHD1 tend à se généraliser,
• La variante TVUHD2 est quant à elle encore à l'état de développement, et devrait
se démocratiser dans un proche avenir.
 UHD-1 a une définition de 3 840 × 2 160 pixels, en
format 16/9 qui est proche du format 4K (4 096 × 2
160 pixels, en format 17/9) utilisé au cinéma.
 UHD-2 a une définition de 7 680 × 4 320 pixels, en
format 16/9 qui est proche du format 8K (8 192 × 4
320 pixels, en format 17:9).
Télévision en 3D
PRINCIPE DE FONCTIONNEMENT DU
TÉLÉVISEUR 3D

Le principe de fonctionnement du téléviseur 3D: comme la projection 3D en salle


cinéma, il diffuse non pas une image de chaque plan, mais deux qui se suivent
temporellement, une pour l'œil droit et une pour l'œil gauche.
PRINCIPE DE LA VISION EN RELIEF:
Nos deux yeux, espacés de 6,5 centimètres environ, ont une vision "binoculaire".
Chacun d'entre eux capte une image 2D (largeur et hauteur) sous un angle
légèrement différent (voir figure ci-dessous).
Le cerveau se charge ensuite de fusionner ces images en interprétant les distances
aux objets selon la largeur, la hauteur mais aussi la profondeur réelle pour aboutir à
une seule image en relief.
Nous en concluons que pour voir en 3D, il est nécessaire de fournir à notre cerveau
deux images d'une même scène prises selon deux prises de vue différentes. C'est le
principe de stéréoscopie. La distance entre les deux points de vue permet de
déterminer la profondeur pour aboutir au relief.
L'image numérique en 3D est similaire à celle reconstituée par le cerveau humain.
La télévision en 3D (trois dimensions), ou télévision en relief, ou télévision
stéréoscopique permet l'enregistrement et la transmission d'images en trois
dimensions (hauteur, largeur et profondeur). Il existe plusieurs techniques pour
produire et afficher des images animées en stéréoscopie.
Pour le téléspectateur, la vision stéréoscopique nécessite soit:
 porter une paire de lunettes pour anaglyphes à filtres colorés (ce procédé dénature
la colorimétrie de l'image perçue),
 porter une paire de lunettes polarisantes (3D "passive"),
 porter une paire de lunettes à occultations alternées alternés (3D "active", procédé
qui ne fonctionne pas correctement en cas de mouvements latéraux rapides),
 écran ou téléviseur réautostéoscopique ne nécessitant pas de lunettes (technique
plus coûteuse industriellement), telle que le système lenticulaire.
Plusieurs autres techniques d'affichage existent (affichage volumétrique ou l'effet
Pulfrich non réellement stéréoscopique).
La stéréoscopie est la méthode la plus largement utilisée pour la capture et la
diffusion de la vidéo 3D.
Elle consiste à filmer une paire d’images avec des caméras montées côte à côte ou
une double optique synchronisée et anamorphosée, généralement séparées par la
distance moyenne qui sépare chaque œil d'un être humain adulte. Les problèmes de
superposition ou parallaxe, fréquents à l’époque des films stéréoscopiques
traditionnels, ont été largement réduits grâce à la technologie numérique.
Téléviseurs 3D
Le téléviseur affiche successivement une image destinée à l'œil gauche, et l'autre,
destinée à celui de droite. Il envoie un signal infrarouge aux lunettes, qui obstruent
alors alternativement la vision de l'un ou l'autre des yeux. L'image obtenue est alors
très réaliste, et de meilleure qualité qu'avec une technologie passive.
Les lunettes : actives ou passives

Principe de fonctionnement des lunettes 3D:


l'écran de façon synchrone envoie un signal infrarouge aux lunettes pour leur
indiquer quel œil obturer. L'œil droit voit donc une image, puis l'œil gauche après, et
ainsi de suite...
Le cerveau se charge d’associer les deux images capturées sur des points de vue
différents pour recréer l'effet 3D.
Lunettes pour anaglyphes

Les lunettes bicolores permettent la vision des anaglyphes. Les couleurs des filtres
sont toujours complémentaires. Elles sont faites de filtres de gélatine ou de film
coloré de qualité, et existent en vert/magenta, bleu/jaune, orange/cyan/rouge, et
pas rouge et bleu car ces deux couleurs ne sont pas complémentaires et ne
pourraient donc pas faire apparaitre cet effet 3D. La variété la plus répandue
actuellement est la rouge/cyan et, par convention, le filtre rouge est destiné à l'œil
gauche.
ROUGE longueur
1 1 0 0 1 1 0
d’onde = 700nm
VERT longuet
d’onde = 546,1 1 0 1 0 1 0 1
nm
BLEU longueur
1 0 0 1 0 1 1
d’onde 435, 8
Résultat BLANC ROUGE VERT BLEU JAUNE POURPRE CYAN TURQUOISE

Couleurs complémentaires
vert/magenta (pourpre),
bleu/jaune,
cyan/rouge
Lunettes "anaglyphiques".
Pour ce principe, les images
sont filtrées par la couleur. Les
deux images sont superposées
et les lunettes intègrent un
filtre coloré pour que chaque
œil ne puisse voir que l'image
qui lui est destinée.

Les lunettes passives


Les lunettes 3D sont dites "passives" car elles n’ont pas de circuit d'électronique. On
distingue deux systèmes :
La technologie REAL-D®.
La technologie Dolby 3D®.
 La technologie REAL-D®: ici le projecteur est équipé d'un filtre ZScreen®. Il
permet, en temps réel et de façon synchronisée, de "faire vibrer" les ondes
lumineuses pour les images destinées à l'œil droit dans le sens des aiguilles d'une
montre et de "faire vibrer" les ondes lumineuses
pour les images destinées à l'œil gauche mais dans le sens inverse des aiguilles
d'une montre. Il s’agit de filtre dit polarisant. Les images s'affichent ensuite sur
une toile "métallisée" (différente des toiles blanches mates habituelle) pour
conserver la polarisation. Ainsi les filtres des lunettes permettent à chaque œil
de recevoir les images qui lui sont destinées.

Ces lunettes 3D, de coût


abordable sont légères et
confortables. Le système de
polarisation diminue de
façon significative la
luminosité des images. Pour
cette raison elles
engendrent des frais pour
les opérateurs de cinéma du
fait que leurs écrans
habituels sont inaptes.
 La technologie Dolby 3D®: Avec la technologie Dolby 3D®, la source lumineuse
émise par le projecteur est divisée en deux flux. Chaque flux passe au travers
d'un filtre qui modifie la longueur d'onde des couleurs primaires (R,V et B). Ainsi
les images destinées à chaque œil contiennent des couleurs primaires de
longueur d'onde différente. Elles sont "codées". Chaque flux est ensuite diffusé
alternativement par le projecteur. Les lunettes sont également équipées de filtres
dont la longueur d’onde permet à chaque œil de voir les images qui lui sont
destinées.

Ici, le filtrage entraîne une perte


de luminosité mais le système
permet de respecter une bonne
colorimétrie et n'exige pas un
écran spécifique. Les lunettes
nécessitent un entretien régulier
et sont onéreux.
Les lunettes actives
Les lunettes "actives" disposent d’un système électronique nécessitant une
alimentation (courant électrique ou batteries) pour fonctionner.
Le projecteur diffuse, les unes après les autres, des images destinées à l'œil droit
puis à l'œil gauche. Un émetteur à infrarouge est connecté au projecteur, permettant
une synchronisation des lunettes avec les images projetées. La matrice de cristaux
liquides contenue dans les lunettes
permet de rendre les verres opaques l'un après l'autre. Ainsi chaque œil reçoit
uniquement l'image qui lui est dédiée.
Les lunettes sont synchronisées avec la fréquence du projecteur (144Hz), chaque
verre est opaque puis clair 72 fois par seconde.
Ici, les lunettes sont alourdies par les batteries ce qui les rend moins confortable.
Elles sont fragiles et onéreuses. Cependant l'avantage réside dans le fait que les
images ne sont pas filtrées, la colorimétrie reste identique à celle de la source et la
baisse de luminosité est faible. Il est possible d'utiliser les écrans de projection
traditionnels.
Avantages et inconvénients des systèmes 3D au cinéma
Technologie Type de lunettes Avantages Inconvénients

Perte de luminosité
Real-D Passives Confort Nécessite l'utilisation d'un
écran métallisé

Confort Perte de luminosité


Dolby 3D Passives
Colorimétrie Coût des lunettes

Confort
Colorimétrie Coût des lunettes
Xpand Actives
Luminosité Nécessite l'utilisation d'un
émetteur à infrarouges
LUNETTES POLARISANTES
a) Lunettes à polarisants linéaires

Elles servent essentiellement à l'observation des images stéréoscopiques projetées en lumière polarisée sur un
écran métallisé.
Chaque œil ne reçoit que l'image qui lui est destinée, grâce à la polarisation de la lumière. En effet la lumière
destinée à l’œil droit ne traverse pas le filtre polarisant des lunettes correspondant à l’œil gauche, car son
orientation ne la laisse pas passer.
b) Lunettes à polarisants circulaires
Similaires aux précédentes elles sont constituées d'une couche polarisante linéaire et
d'une lame à retard quart d'onde. On les trouve parfois dans des salles de cinéma
équipées d'un écran non dépolarisant.
La propriété caractéristique de ces lunettes est liée à la façon dont elles sont faites.
En effet quand on en met deux paires face à face, la superposition de deux verres
correspondant au même œil laisse passer la lumière alors que la superposition de
deux verres correspondant l'un à l'œil gauche et l'autre à l'œil droit est opaque, et
ceci indépendamment de l'orientation des verres. Par contre si on les superpose dos
à dos, ce sont alors les orientations respectives des verres qui déterminent la
transparence ou l'opacification. Cette expérience démontre qu'effectivement, il y a
bien un filtre polarisant du côté intérieur du verre, et que la lame à retard se trouve à
l'avant.
LUNETTES À OCCULTATIONS ALTERNÉES
Le confort est excellent, surtout en
grande salle, mais c’est un système
non compatible avec des
mouvements latéraux rapides dans
l'image, à cause de la parallaxe
temporelle. Il est impossible de
représenter un reportage sportif.

Elles font appel à la technique des cristaux liquides. Le projecteur ou le téléviseur émet
alternativement à une cadence rapide, l'image destinée à l'œil droit, puis celle destinée à
l'œil gauche. Un système électronique installé sur les lunettes et synchronisé avec l'émetteur
de l'image rend opaque les lunettes alternativement du côté droit et du côté gauche, de
manière que chaque œil reçoive l'image qui lui est destinée. L'alternance des occultations est
commandée par un fil ou un récepteur infrarouge. Ce type de lunettes est adapté à la vidéo
en relief et aux salles non équipées d'écrans stéréoscopiques métallisés.
LUNETTES PRISMATIQUES
Trois prismes à base
triangulaire : un prisme à
angle droit, un prisme à
60° et un prisme à 30°.

Ces lunettes (ou lorgnons) sont constituées de deux prisme ou, le plus souvent, de
deux lentilles prismatiques, permettant à chaque œil d'observer l'image qui lui est
destinée.
Les images, imprimées sur papier ou affichées sur un moniteur d'ordinateur sont
disposées côte à côte, ou, pour certains types d'applications, l'une au-dessus de
l'autre.
LUNETTES À ÉCRANS INTÉGRÉS
Sur le même principe que les écrans de contrôle des appareils photos numériques ou
des caméscopes, les lunettes à écrans intégrés fonctionnent avec deux optiques
électroniques associées à un écran pour chaque œil. Plus ou moins limités en
performances par la définition image des deux mini écrans ou moniteurs vidéo
intégrés, ces lunettes sont notamment exploitées pour certains jeux vidéo dits
« immersifs » et dans l'imagerie scientifique ou médicale. Autre conséquence
négative pour ce type d'appareils, le poids relatif des lunettes, ce qui incite de
nombreux fabricants à préférer l'intégration dans un casque. Outre l'encombrement
et le poids de ce type de lunettes, une certaine fatigue oculaire peut être ressentie
chez certains individus.
Ici, les lunettes sont alourdies par les batteries ce qui les
rend moins confortable. Elles sont fragiles et onéreuses.
Cependant l'avantage réside dans le fait que les images ne
sont pas filtrées, la colorimétrie reste identique à celle de la
source et la baisse de luminosité est faible. Il est possible
d'utiliser les écrans de projection traditionnels.

Vous aimerez peut-être aussi