Vous êtes sur la page 1sur 57

UE 4.

1 - Sciences appliquées à l’audiovisuel


Etude des Workflows

1) Introduction
A) Définitions

- RAW= signaux pas encore traité, contient des données brutes du capteur, il n'a pas subi
de transformations irréversibles, ce qui permet de retravailler sans dommage.

- MOV= type de fichier utilisé par le logiciel multimédia QuickTime Player. On l'associe
directement à la firme Apple. Le format .mov est un format conteneur qui présente des
flux vidéo HD ou SD encodés sous différents codecs (MPEG-4 en particulier) et des flux
audio, compressés en MP3 ou en AAC.

- MXF= (Material eXchange Format) conteneur utilisé pour les données audio et vidéo
numériques. Gratuit, ouvert et évolue avec le temps.

- RAID= regroupement de disques indépendants (stockage physique), technique de


répartition des informations sur plusieurs disques durs pour renforcer la sécurité (les
copies se font en //), la rapidité et la fiabilité des ordinateurs.

- MAM= documenter l’archivage, retrouver ce que l’on stocke. Organiser la récupération


des données.

- XAVC= (essence) Format d'enregistrement lancé par Sony et vendu sous licence.
Organisation d’enregistrement, mélange d’audio, vidéo, compression (ex: Prores)

- AAF= (Advanced Authoring Format) Conteneur. Format d’échange de fichiers


numériques multimédia, utilisé en postproduction et très utile pour le montage son
(Extension du XMF). L’AAF, en préservant les références de source et en créant un
historique des décisions, permet de simplifier le flux de travail et d’améliorer la gestion
de projet.

- CODEC= dispositif matériel/logiciel permettant de mettre en œuvre l'encodage ou le


décodage d'un flux de données numérique, en vue d'une transmission ou d'un stockage.
Certains codec intègrent également une fonction de compression ou encore de
chiffrement des données.

- COMPRESSION ALGORITHM= algorithme de compression (H264, MPEG2,...)

- GOP= dans le domaine du codage vidéo, la structure d’un GOP (Group of pictures)
définit l'ordre dans lequel sont disposées les images à codage interne (image intra) et à
codage prédictif image inter. Un GOP est constitué d'une suite d'images regroupées
1
dans un flux vidéo encodé qui est répété périodiquement jusqu'à la fin de l'encodage.
Les images visibles sont générées à partir des images codées contenues dans un GOP.

- SAN= (Storage Area Network) Réseau de stockage spécialisé permettant de mutualiser


des ressources de stockage.

- PAM= Organisation de la production (comme le MAM)

- NRCS= outil éditorial. (MAM appliqué aux News)

- POC= (Proof of concept) Réaliser toutes les étapes du workflow avant de le valider,
s’assurer que le workflow théorique fonctionne.

B) Qu’est-ce qu’un Workflow ?

Workflow =
- L’étude du flux de travail, cheminement de chaque étape d’un projet (continuité).
- Succession d’étapes qui vont transformer des médias dans le temps dans le but de
recevoir le média final.
- Anticipation de tout le travail de la préprod, la production et la post-production.

2
Il y a 2 types de workflow:

- Le workflow de production = les grosses étapes à réaliser


- Le workflow technique = étapes qui font évoluer la matière/le média

→ un workflow de production est plus facile à réaliser mais il faut encore le traduire
correctement en workflow technique.

But du workflow:

Obtenir le chemin le plus efficace dans l’ensemble des contraintes du projet.


L’objectif d’une telle chaîne de processus est évidemment d’optimiser la qualité des données
entre les différentes étapes de production et d’optimiser le temps dédié au projet.

L’ensemble des étapes de production est inspiré par un cahier des charges (de la production)
et impose un mode de travail concret : il organise un schéma global du travail.
CEPENDANT : Le cahier des charges n’indique pas le procédé ! C’est le workflow qui va
traduire le cahier des charges en étapes techniques.

Les contraintes d’un workflow:

- Le temps : il varie d’un workflow à un autre et dépend de la post production (temps


critique en news ou bien moins critique comme en tv ou au cinéma).
- Le budget : les machines, le stockage,... il faut le moins cher possible
- La qualité du produit fini : le - de perte possible
- Les normes de diffusion
- L’organisation globale du flux : un workflow fluide = un workflow préparé et « facile »
à exploiter. On rencontre des problèmes dans le cas inverse : si on n’a pas anticipé les
erreurs de compatibilité au niveau du transfert des médias entre 2 étapes techniques.

Qu’implique la transformation des médias:


- une perte de qualité
- une perte de temps
- une perte d’argent

3
2) Etude des médias
A) Mise en situation

B) Définitions

- Workflow = séquencement de transformations de médias.

- MEDIA = audio + vidéo + données complémentaires : (FORMAT + CODEC +


CONTAINER + METADATA + SUPPORT).

➔ Un média est en fait l’ensemble de données qui vont pouvoir être diffusées et partagées.

- ESSENCE = FORMAT + CODEC

- CONTENEUR = ESSENCE + METADATA

- Actif (Asset) = CONTENU + DROITS (contenu sur lequel on a des droits en prod). Il
désigne l’ensemble des tâches et décisions au sein d’une organisation qui permettent la
collecte, la classification, la recherche, la visualisation, le stockage et la distribution des
différents contenus multimédias de l’organisme. Des droits y sont appliqués.

4
MEDIA

FORMAT = résolution. Caractéristiques de ce que l’on voit (vidéo) et ce que l’on entend
(audio) → impacte l’image brute. Détermine la qualité de base de l’image et du son (ex: UIT
601, UIT 709, AES,...)

CODEC = algorithme de compression (ex : MPEG2, H264, JPG,...). C’est ce qui va


compresser l’audio et la vidéo (on compresse toujours la vidéo et rarement l’audio).

ESSENCE = format auquel on applique un codec. Caractéristiques de l’audio + vidéo


(FORMAT + CODEC). Essence unitaire = que audio ou vidéo + codec.

MÉTADONNÉES (Metadata) = informations supplémentaires sur le fichier (ex : où se trouve


le fichier audio/vidéo).

- Métadonnées structurelles = comment est organisé le fichier/container


- Métadonnées descriptives = quels sont les acteurs, connaître/décrire le contenu (ex :
nom du clip, file size, overall bitrate, encoded date,…)

CONTENEUR/ WRAPPER = METADATA + ESSENCE. Endroit/répertoire où on stocke les


différents éléments de l’essence et les Metadata. Le container comporte d’une part les
données utiles et indique d’autre part où elles sont rangées et comment y accéder. Il gère
également la synchronisation, le stockage et la diffusion des fichiers qu’il contient.

Il y a toujours 3 éléments : le préambule, le corps et la fin (ex : MOV, QuickTime).

SUPPORT = disque dur physique qui contient le média (les métadonnées, l’essence et le
container). Un support à des spécificités : l’espace, les débits d’entrées et de sortie, le
formatage, la taille physique, la résistance du support, la zone de stockage, la sécurisation.

→ Le média est donc l’existence


physique sur un support de
containers qui organisent différentes
essences liées à des métadonnées.

5
SCHEMA

6
Tableau qui regroupe les propriétés et la nomenclature d’un média:

C) Comparaison : la compote de pommes

- On a 3 types de pommes : jaunes, rouges et vertes = FORMAT

- On compresse/réduit la taille des pommes = CODEC

- On obtient la matière (compote) = ESSENCE

- On met la compote dans un bocal = CONTAINER

Sur l’étiquette, on marque :

- De quoi il s’agit = METADONNEES DESCRIPTIVES


- La composition (250g sucre, 90% pommes,…) = METADONNEES STRUCTURELLES

Enfin,

- On stocke le bocal de compote dans une armoire/frigo,… = SUPPORT

7
D) Exercice : chaque élément correspond à une caractéristique citée plus haut

E) Propriétés VIDEO (rappels TIV)

• Caractéristiques du Format

Résolution :
- Taille écran + distance de
visionnement

DAR :
- proportions de l’image/format de
l’écran (rapport largeur-hauteur) →
4/3 ou 16/9

- PAR (Pixel Aspect Ratio = 1,066) =


format du pixel. Permet d’adapter le
format d’affichage au format du
contenu.

- SAR (Storage Aspect Ratio) = nb de


pixels/nbr de lignes.

Bit Depth :
- profondeur/quantification de
l’image → nb de niveaux

8
NB : Attention à l’erreur de quantification ! L’œil ne doit pas remarquer le processus pour que ça
reste une image réaliste → erreur entre le niveau réel et le niveau mesuré.
Si on quantifie en 2 bits, on aura QUE 2 niveaux par échantillon (noir ou blanc) et donc une erreur
de quantification très élevée.
L'œil ne voit plus l'erreur de quantification à partir de 256 niveaux, donc 8 bits. Si on est à 8 bits
(2^8) on aura 256 nuances de gris qui vont du blanc au noir. On doit donc encoder à minimum 8
bits.
➔ + il y a de bits, + il y a de niveaux donc de détails dans l’image, et + l'erreur de
quantification diminue (2^n)

Color Space :
- Comment transporter la
couleur ? RVB ou Y Cr Cb ?

Color Subsampling :
- méthode de réduction de volume des images numériques :
diminuer le nb d'échantillons à traiter → + on échantillonne, - on
aura d’infos colorimétriques.

➢ 4:2:2

- Luminance (Y) mesurée systématiquement


pour chaque pixel.
- Infos relatives aux couleurs (Cr et Cb) données
que pour 1 pixel sur 2.
- On a 32 échantillons (16Y, 8Cb, 8Cr)
- Format de référence.

➢ 4:4:4

- Y, Cr et Cb systématiquement mesurés pour


chaque pixel.
- Format idéal pour travailler l’image.
- On a 48 échantillons (16Y, 16Cb, 16Cr) → 48/32
= 1,5x + précis que le 4:2:2.

9
➢ 4:2:0

- Y mesuré systématiquement
- Cr et Cb mesurés que 1 pixel sur 2 et une ligne
sur deux.
- On a 24 échantillons (16Y, 4Cb et 4Cr). 24/32 =
0,75x + précis que le 4 :2 :2

➢ 4:1:1

- Y mesuré systématiquement pour chaque pixel.


- Infos relatives aux couleurs données que pour 1
pixel sur 4.
- On a 24 échantillons (16Y, 4Cb et 4Cr). 24/32 =
0,75x + précis que le 4 :2 :2

➢ 4:1:0

- Y mesuré systématiquement, mais les infos Cb et


Cr mesurées qu’1 pixel sur 4 et juste une ligne sur
quatre.
- On a 18 échantillons (16Y, 1Cb, 1Cr) . 18/32 =
0,5x + précis que le 4:2:2 (il est donc moins précis)

Color Primaries :
- Position des 3 primaires dans le diagramme XY.
- Quand on change ça, l’équation change :

- + le triangle est grand, + le nb de couleur qu’on peut


représenter est grand.
- permet de savoir dans quel espace colo on se trouve.

10
Color Transfert :
- Niveaux de couleurs = relation entre les
≠ espaces.
- Lois de conversion d’échelle de
valeurs.

Scan Type :
- Type de balayage : progressif / entrelacé / PSF ?

Scan Order :
- quand on est en entrelacé, on doit définir quelle
trame on affiche en 1ère, au-dessus avant l’autre.
- Top field first = 1ère ligne de l’image (FFT)
- Bottom field first = 2e ligne

Frame Rate :
- fréquence d’image (25 i/s , 50 i/s , 120 i/s , …)

Uncompressed Bit Rate :


- Débit non-compressé = L x H x nb de bit/éch x Fréquence image x nb de canaux
(Mono=1 ; stéréo=2 ) → ex : 1920 x 1080 x 10 x 2 x 25 Mbits/sec

Duration

Stream Size :
- taille du flux/poids, espace sur le disque de stockage.
- un stockage se met en « Octet »
- Poids = Débit x durée / 8 ( octets, Bytes ) → pour transformer les Bits en Bytes

11
• Les 3 standards de la vidéo

• Caractéristiques du Codec
But codec = réduire le débit

Algorithmes de compression :
MJPEG (ex : Appel Progress)
MPEG2
H264 ou AVC
H265 ou HEVC
JPEG 2000

➔ Lossy OU Lossless (avec/sans pertes) : ceux cités ci-dessus


sont presque tous avec perte.

Algorithme INTER / INTRA :


- Inter = dépend des images précédemment
codées pour prédire la position des macroblocs
d'origine. But : définir un vecteur de mouvement
qui traduit le déplacement d'un bloc dans une
image de référence déjà codée et sa position
dans l'image courante → prédiction spatiale et
temporelle = profiter des redondances
temporelles entre les images ou trames voisines
pour obtenir un meilleur taux de compression.
12
- Intra = codé à partir d'un algorithme de prédiction
spatiale. Pour la prédiction intra, chaque macrobloc de
l'image courante doit être codée à partir de la texture
de leurs voisins, qui peut varier assez facilement.

PROFILE @ LEVEL INTEROPÉRABILITÉ :


= le fait qu’une image compressée puisse être décompressée.

GOP :
- groupement d’images, structure d’organisation des images de type inter (B et P).
I = une image JPEG en entité
P = image de prédiction (MPEG)
B = image bidirectionnelle

Un GOP va toujours commencer par une image de type I pour avoir une image de référence.
- Toutes les images de type P vont prendre leur base sur l’image qui les précède (qui peut être de
type I ou P). Les images de type P pèse 50% de moins que les I.

- Les images de type B vont se baser sur les images de type I ou P qui les précède et qui les
succède. Les images de type B pèse 75% de moins que les I.

Cela signifie que pour les images de type B, on va chercher des vecteurs de mouvement dans le passé
ET dans le futur.

13
CBR / VBR :
- Constant Bit Rate = algorithme qui fait que le débit est toujours
constant et la qualité variable.
- Variable Bit Rate = algorithme qui fait que le débit est variable et
la qualité toujours constante.

Niveau de quantification (qualité) :


- Connaître cette info permet de se projeter en ce qui concerne le résultat.

Débit du codec :
Débit du format / taux de compression ( Bits/sec ) → x8 (octet) = stream size

F) Propriétés audio (rappels TIV)

• Caractéristiques du format

PCM linéaire : c’est quand le rapport entre le signal


numérique et analogique est linéaire. Utile si on a bien réparti
les éch, càd si on a un niveau de quantification suffisant.

- À 8 bits/éch : + le niveau baisse, + on entend un bruit de


quantification (= souffle).
- À 16 bit/éch : on n’entend pas ce bruit ou du moins, il est très
faible.

→ Rapport signal son/bruit (pour éviter ce pb, on applique ces courbes/lois).

14
On a + de niveaux dans les faibles niveaux que dans les hauts : le pas de q° n’est pas uniforme.
- On a un bruit faible pour un niveau faible
- On a un bruit élevé pour un niveau élevé. Les courbes non-linéaires μ et A permettent de garder un
nombre de niveau de q° faible avec une qualité élevée.

Donc : En linéaire 8 bit, on entend un bruit dans les bas niveaux → la loi μ permet de les
atténuer, en 16 bit, on n’a pas ce problème.

SAMPLING FREQUENCY :
- C’est la fréquence d’échantillonnage audio
- Norme = 44.1 kHz (c’est la vidéo qui a imposé ça car
c’est la 1e harmonisation avec la vidéo)
- Ce n’est pas la seule Fech utilisée : 48 Hz est utilisé
aussi (44.1 est + utilisé pour la musique).

Bit Depth :
- 8, 16 et 24 bits

Channels :
- Canaux = nombre de voies
utilisées pour transporter l’audio.

→Stéréo
→Stéréo + d’autres sources

Operating mode :
On peut avoir du « joint stéréo » = quand les canaux sont traités de la même façon
avec un contenu commun (alors qu’en stéréo, les canaux sont traités différemment)

File Coding :
- Mode AESCBU (d’autres existent mais
c’est le + répandu) = organise les éch
entre eux.

→ 2 canaux sont transmis (paire)


→ chaque canal porte 1 éch à son tour

→ ils sont groupés et forment une trame

15
.
Endianness :
- C’est la façon dont les éch sont stockés dans le fichier, la façon dont on a découpé les éch
en groupe de 8 bits.

UNCOMPRESSED BIT RATE :


- Débit = fréquence éch x nbr d’échantillons x nombres de canaux (mono = 1, stéréo= 2)
- Taille = Débit x durée / 8 ( octets, Bytes )→ pour transformer les Bits en Bytes

Duration

Stream Size

• Caractéristiques codec audio

16
1) On applique une transformation.
2) On découpe 20 kHz en bande de fréquence.
3) On regarde quelle est la fréquence la + élevée.

4) On applique la quantification donc chaque pic va


disparaitre s’il se trouve sous la courbe de masquage.

5) On découpe les fréq masquées par le même


nombre que la + haute fréq qu’on découpe.

6) On applique le modèle de l’audition et on modifie


les fréq qui sont masquées.

AVEC / SANS PERTES :


- Le AAC est avec perte
- Le Flac est sans perte

CBR / VBR : (// vidéo)


- Constant Bit Rate = algorithme qui fait que le débit est tjrs constant et la qualité variable
- Variable Bit Rate = algorithme qui fait que le débit est variable et la qualité toujours constante.

17
3) Transformation d’un média
A) Étapes de production

• Etude de cas:

→ Il est donc bien de connaître la finalité des choses dès le début ainsi que les efforts à
appliquer à cette finalité.

- On peut aussi avoir plusieurs destination (et donc plusieurs PAD)


- Le wkf reprend aussi les étapes de la production (wkfl de production)
- Le budget = élément essentiel du wkfl

Les étapes techniques importantes // étapes de production :


- tournage studio + terrain
- transfert + stockage data
- montage, mixage, habillage, formatage, archives etc…
- PAD
- clean feed (montage simple pour archives)
→ Etapes techniques = étapes qui ont un impact direct sur le média, le modifie et le
transforme.

18
Modélisation :

1) Tournage = plusieurs reportages sont créés :


- Via le tournage ENG (Electronic News Gathering = collecte électronique de médias = équipe
news légère)
- Via les archives
- Via les achats en catalogue

2) Post-production:
- montage
- habillage (infographie)
- mixage
⚠️Important de mettre une double-flèche pour dire que ces étapes sont liées en continu !

On indique que les présentations auront lieu en studio (décor virtuel) avec des images
extraites, ce qui a pour conséquence :
- Des diffusions virtuelles des images extraites d’archives ou tournages ultérieurs
- Un décor virtuel

Une fois ces deux facteurs réunis, on peut procéder à l’enregistrement. Lié à l’étape de
postproduction, on pourra donc assembler le tout afin de les diffuser sur les différents
supports décrits à savoir :
- VOD (vidéo à la demande)
- PAD
- Clean Feed

Attention: À l’assemblage, le projet doit être virtuel, càd. que les pistes doivent être modifiables.

Définitions:
- Diffusion linéaire = la télévision est typiquement linéaire, càd que le flux est permanent.
- Dirty feed (PAD) = en opposition au Clean Feed.

19
Autre manière de faire le schéma:

Modèle synthèse:

Ainsi, on peut regrouper les étapes du précédent workflow en 6 catégories :

1) Shooting ou Acquisition : la partie tournage du sujet.


2) Editing ou Post Production : la partie montage, habillage, mixage, assemblage et tout
ce qui se fait après le tournage.
3) Archive(s) : l’historique de diffusion nécessaire pour savoir combien de fois un plan a
été utilisé.
4) La contribution : concerne l’achat, les diffusions d’illustration, le décor virtuel,
l’enregistrement, etc.
5) Diffusion : déterminera si elle sera linéaire ou non.
6) La distribution : déterminera le canal employé (web, OTT, TV).

20
4) Transformation
A) Complexité

Média simple = n’est composé que d’une piste vidéo et d’une piste audio stéréo.
VS
Média complexe = séquencement des ≠ tracks du média : séquencement des pistes vidéo
et audio (et parfois metadata), on regarde comment elles-sont enchainées en // et on en
déduit une complexité du média.

- Acquisition : une piste audio et une piste vidéo synchronisée. Lors de l’acquisition,
certaines caméras peuvent générer plusieurs pistes vidéo : une native et un proxy. Ce
procédé se nomme le double enregistrement.

- Editing : plusieurs pistes audio et vidéo désynchros.

- Archives : une piste vidéo et plusieurs pistes audios.

- Contributions : une piste vidéo et plusieurs pistes audios.

- Playout : plusieurs qualités → plsr pistes audio et vidéo mais synchro entre elles.

21
B) Description

C) Qualité

// au format et au codec → à l’essence

- On perd de la qualité dans la compression si on a un problème de compatibilité entre les


machines, à chaque traitement etc…

- On veut que la qualité soit constante mais en général, elle ne l’est pas.

- On cherche la meilleure qualité requise par la norme de PAD requise (la + adaptée à la
diffusion). Il faut viser la qualité de distribution (en fonction de ce qu’on en fait on aura
des objectifs de qualité différents). On n'est pas toujours dans la plus haute qualité car
ça coûte cher, il faut trouver la qualité qui convient, celle qu’on va utiliser.

- Il y a des workflow qui permettent de garder la qualité du média original (en fonction
de l’essence qu’on choisit) → But = archiver dans la même qualité que l’acquisition
pour en faire autre chose par la suite.

22
D) Résumé de l’évolution de la complexité

La complexité:

- Pour un multicam, la complexité augmente car ces caméras de sécurités couvrent un


maximum le live afin de pour remonter en aval et fournir donc plusieurs pistes vidéo.

- L’acquisition: la complexité est faible car les vidéos et l’audio sont synchronisés.

- Postproduction: la complexité augmente car il y a plusieurs couches de médias, avec


des essences différentes qui possèdent des codecs différents sur la Timeline. Si des
traitements sont ajoutés, alors la complexité va croître (infographie, cross fade,
étalonnage).

- Archives et contribution: le Clean Feed est constitué d’une piste vidéo et plusieurs
pistes audio, synchronisées. Ils possèdent la même configuration, donc la même
complexité.

- La diffusion: peut également avoir plusieurs pistes vidéo en fonction de la résolution et


différents canaux audio selon les versions.

- La distribution: elle a la même complexité que l’acquisition.

23
Le descriptif :

La qualité :

Les facteurs responsables de la perte de qualité sont ;


- L’essence : transformations de format et de codec = perte de qualité (changement de
résolution, fréquence d’image, compression, réduction du débit, calcul, etc.)
- Le support : doit être transparent pour qu’il n’y ait aucune perte de qualité.
- La Time Line : selon si elle est aplatie ou non.

→ La qualité sera donc décroissante. Cependant, il existe des workflows dans lesquels la
qualité évolue.

24
5) Les essences
A) Les artéfacts

Comment mesurer la qualité des essences ? → Avec nos yeux et nos oreilles, mais on
regarde aussi les artéfact qui dégradent l’image.

Cause:
Artefact = défaut qui fait que l’image/le son n’est pas optimal (ex: du bruit, le blocking,...)
- pbm de compression
- retouche de l’image sans anticipation
- défaut d’optique

2 catégories :
- Lié au codec (à la compression)
- Lié au format (conversion)
→ Artefacts liés à des choix inadaptés = artéfacts liés à des conversions dans les deux cas, ça
génère des défauts dans l’image et le son.

• Format :

➔ Choisir une résolution qui n’est pas la bonne


- La distance dépend de la diagonale de l’écran, + l’écran
est grand + la distance est grande.
- Si on se rapproche, on voit tous les pixels.
- Si on est loin, l’image est floue.

D= distance / résolution. Tang Alpha. racine de 1 + L2/H2 )

➔ La quantification
- Combien de bits on a (8 - 10 - 12 - 14)
- 8 bits : pas suffisant après étalonnage car dégradé
séquencé.

➔ Les effets faits par la suite


- Chromakey : effet qui analyse le contenu de l’image
et, en fonction de la couleur, on affiche un arrière-plan
(quand le pixel en vert on affiche l’arrière-plan et
quand le pixel n’est pas vert on affiche l’avant plan).

25
- Echantillonnage des couleurs : élément clé qui permet d’avoir une bonne découpe pour le
chroma key.
➢ Chaque pixel à une couleur différente de son voisin en 4 :4 :4
(Y, Cr, Cb, on a toute l’information sur la couleur).
- Si pas en 444, alors 4:2:0 chaque pixel partage la couleur
avec son voisin (même information de couleur pour 4 pixels).

➔ L’étalonnage:
Si on modifie les couleurs indépendamment des unes des autres (le 444 permet d’avoir
une meilleure transition entre les couleurs : on modifie la chrominance de pixel par pixel
et pas un groupe de pixel).

➔ Choix entre L’entrelacement et le progressif :


Quand on veut faire un arrêt sur image ou des ralentis
(l’idéal = le progressif et non l’entrelacement).

➔ Le framerate:
Le nombre d’images par seconde (si on veut faire du ralenti, il faut un framerate très
élevé).

● Codec :

➔ Le blur :
- on coupe les hautes fréquences.

➔ Le ringing:
- on voit plusieurs fois le bord de l’objet.

➔ Le blocking:
- apparition des blocs de l’image.

➔ Le débit:
- choix du débit en fonction de ce qu’on veut faire.

26
● Audio :

➔ Se tromper de fréquence d’échantillonnage :


- une conversion de 24 bits à 6 bits.

➔ Compression :
- en général pas nécessaire car les fichiers audio ne sont pas lourds.
- pour la compression, on filtre par bande de fréquences : pour passer de rien à bcp, il
faut des hautes fréquences = avant que le signal non compressé ne commence, il y a
une réplication du signal à l’avant.
- Effet de masque = étouffement
- Distorsion = son métallique
- Pré-écho = on entend la musique avant qu’elle ne commence

→ Quand on transforme une portion du signal en fréq, on décompose cette analyse en bandes
de fréq qu’on quantifie pour cacher les sons inaudibles. On aura donc une - bonne fréq dans
les HF. Les son est alors « répliqué » avec un niveau faible mais + qu’à 0.

B) La génération

● Définition :

Génération = transformer un média en un autre/décoder un média qu’on édite puis réencode.

Il faut passer par 3 étapes à faire sur un média :


1) Décodage = on décompresse le média

2) Edition = modifier le contenu du média de


manière éditoriale ou technique (changer le
format)

3) Encodage = on recompresse (avec le même


codec ou pas)

● Test : Que se passe-t-il si on enchaîne plusieurs générations ?

On fait subir un changement de contenu à


une image et puis un autre…
→ On va avoir un déplacement d’un pixel
vers le bas et vers la droite.

27
● Influence sur le format :

Si on change de génération en gardant cette modif dans l’image, comment évolue-t-elle ?


➔ On a un effet de cascade.

Ici, on a fait 6 compressions/décompressions = 6 générations.


Quand on compare la dernière génération à la première : on a une vraie perte de qualité.

Quelle solution pourrait-on apporter ?

On peut Upscaler = augmenter la résolution de l’image.

Il est préférable d'upscale au début des générations, sinon


on duplique et on zoom dans les défauts (on augmente la
taille de l’image donc on accentue les artéfacts).

● Influence sur le codec :

Doit-on réduire le débit au début ou à la fin de la chaine ?

Il est préférable de réduire le débit en fin de chaîne de production car on


réduit le débit dans de meilleures conditions = meilleure qualité.
Problème : ça coûte + cher car on stocke 50% de média en « trop ».

28
➢ Conclusion :
- changement de format vers des résolutions + élevées = réalisé en début de workflow
- changement de format vers des résolutions + faibles = réalisé en fin de workflow
- réduction de débit opérée en fin de workflow

C) Editing

Au montage, on a une perte de qualité :

● Codec INTRA :

Chaque image est de type I, pas de dépendance entre images et codées indépendamment.

Cut en codage intra :


- recopier toutes les images du type I du 1e média et celles du 2e après le cut (pas
besoin de faire des générations si on fait un cut entre 2 média de type intra).

- Les images I peuvent s’enchaîner, quelle que soit la coupe. Cependant, lorsqu’il y a un
effet appliqué, il faut recalculer la zone de cet effet. La même chose se produit lors
d’une application de couche graphique, on recalcule l’entièreté de la Time Line.

- Le jaune est l’orange doivent être enregistrés avec le même codec. Quand on coupe
entre 2 images on a donc qlq chose de clair.

● Codec INTER :

On utilise les mêmes codec pour avoir les mêmes GOP (la structure des GOP ne peut pas
être changée : les images peuvent être de 3 types différents : I, P et B. Ces images se
basent les unes sur les autres pour être codées et décodées).

La coupe est possible si les GOP des 2 séquences sont les mêmes, s’ils sont en parallèle,
fermés et que si la coupe soit faite à la fin du GOP de la 1e séquence d’images et avant le
GOP de la seconde.

29
3 manières pour traiter l’enchaînement du GOP entre 2 séquences d’images :

➢ 1ère manière :

1) On décompresse les B et P qui sont à l’endroit de la coupure, en I


2) On les recompresse en B et P en fonction de l’ordre du GOP final

➢ 2ème manière :

1) On recopie les images de chaque côté de la coupure

2) On arrange la structure du GOP en décompressant et recompressant les images


nécessaires

➔ La qualité chute localement autour de la coupure mais reste constante après.


➔ Le logiciel doit pouvoir traiter des GOP de tailles variables.

➢ 3ème manière :

Smart Rendering : méthode pour monter un fichier inter-image.


→ On prend le fichier orange qui finit par un B et on va faire en sorte que la dernière image du
point de coupe se finisse par un P et commence par un I + ré-encoder les images qui suivent
jusqu’au I (légère augmentation du débit mais pas de baisse de qualité).

30
On termine « proprement » le fichier après la coupure :

1) On décode les images B et P


2) On ferme le GOP qui termine le premier fichier

3) On fait pareil avec le 2ème clip

4) Toutes les images de part et d’autre de la coupure doivent avoir une image de référence qui
leur ressemble +/-

➔ 2 inconvénients :
- on doit recalculer des images donc on a une perte de qualité
- on a toujours un pic de débit à la coupure (...– B – P – P – I – B – ...)

5) Codec à débit variable = on peut recalculer + d’images ce qui permet de lisser le GOP ET
Smart rendering → on revoit le GOP et on revoit les images à recalculer en d’autres images

31
● Essence Native :

Tout ce qu’on vient de voir a un impact sur l’import et l’export. But = minimiser un max les
générations pour garder une bonne qualité.
Essence native = essence non transformée et fournie au processus, on ne modifie pas
l’essence de base, et on la traite sans avoir besoin de la transformer (sort de la caméra).

➔ Faire une essence native avec un codec intra = pas de perte de qualité car pas de
génération, MAIS pèse plus lourd. (Possible si on ne fait que du cut et que le logiciel est
capable de traiter une essence native).

➔ Appliquer un codec inter à une essence = tout reste identique sauf autour du point de
coupe, donc petite perte de qualité sur quelques images car génération supplémentaire
au point de coupe. Pas d’image de référence donc, perte de qualité de part et d’autre de
la coupure → pas besoin de recalculer les images.

➔ Codec intra avec un effet entre les deux séquences = pour faire l’effet, il faut
recalculer tous les échantillons (on fait une génération car on change le contenu, on
calcul les effets. On doit recalculer la zone où se trouve l’effet, là où on a édité le
contenu.

32
➔ On ajoute un logo, un chromakey, étalonnage = génération appliquée sur l’ensemble
de la timeline.

• Essence Mezzanine :

Si une essence ne peut pas être traitée en native, on doit passer par une essence mezzanine
(généralement intra).

Mezzanine = on passe par une essence intermédiaire complètement gérée par le logiciel :
à l’import, il faut passer d’une essence native à une essence mezzanine (intermédiaire)

➔ Même transformation que les natives mais une génération en + (total = 2 générations)

33
Conclusion :

➔ Soit on a une faible perte de qualité

➔ Soit on a une perte de qualité supérieure avec la perte de qualité du rendering final

➔ Soit on veut une qualité supérieure mais on ne sait pas, donc on a forcément une perte
(ou une infériorité).

D) Les essences usuelles HD :

• Comparaison :

34
Attention: voir les différentes informations de chaque essence dans les exposés et documents

- Hd Xdcam : des GOP longs (12 images) mais peut avoir un faible débit (50 Mbps). Peut
tourner +- 2H et permet un transfert rapide. Le codec est dans les circuits intégrés, il
engendre par conséquent - de calculs et les batteries sont moins conséquentes.

- Xdcam HQ : débit plus faible, 420 (compliqué de faire du chromakey et de l’étalonnage,


pas assez de précision de la couleur point par point) codec peu utilisé en professionnel.

- DNxHD : format créé par AVID, norme VC3, version 8 ou 10 bits. Essence de logiciel de
montage (AVID) qui peut être fortement compressée (1185 Mbps – 185 Mbps). Son
MJPEG est un peu particulier. Il permet un Full résolution et un débit élevé.

- ProRes : full HD mais on peut monter jusqu’en 4K (UHD). Possède une vitesse codage-
décodage élevée ce qui permet de travailler avec les natifs. Codec propriétaire (APPLE)
qui est proche du MJPEG. Il n’existe pas en acquisition.

- AVC-I : inventé par Panasonic, utilise le H264 (codec inter) → prédiction intra, favorise
les images de type I plutôt que les GOP. Son codec est le H264 mais il est limité à
l’interpolation intra, au filtre anti-blocking et au CABAC/CAVLC. Cependant, il existe à
l’acquisition.

- XAVC intra
- XAVC Long Gop : + efficace car inter, débit plus faible, on peut aller jusqu’au 4K, peut
passer en UHD.

35
Comparaison visuelle des essences :

NB : Il n’existe pas d’essence meilleure que d’autres → c’est subjectif et varie selon ce qu’on préfère.
⚠️ Erreur récurrente : on ne peut pas associer une qualité à un débit ! Ce n’est pas parce qu’un débit
est faible que la qualité est faible !

Jaune = Qualité +/- moyenne


Bleu = Débit (pas lié à la qualité) MAIS si on augmente le débit, on augmente la qualité → Le
débit est un des éléments qui évalue la qualité (en + de l’algorithme de compression)

➔ La taille du fichier est proportionnelle au débit : parfois, on a un débit variable mais une
qualité constante

NB : La SEULE situation où on peut se baser sur le débit pour définir la qualité est quand on
compare des codecs qui ont le même algorithme de compression.

Pourquoi les débits sont différents avec une même qualité d’image ?
➢ Le débit varie car il dépend du type d’algorithme, il est différent entre inter ou intra.

36
6) Container
A) Utilisation

● Transfert et partage de média :

Les containers regroupent les différentes essences et les organisent. Ils aident au transfert
de ces essences dans la chaîne de postproduction. Interopérabilité = rendre fluide le
passage des éléments entre les ≠ étapes.

Les containers facilitent également l’accès commun à ces essences et permettent


d’accéder à des versions récentes de fichiers ; des informations audio et vidéo. S’il y a un
changement dans la vidéo, il faut obligatoirement un changement dans l’audio.

➔ Différence entre un container et un fichier classique : les essences sont synchronisées


dans un container.

2 manières de partager la matière:

1) Transfert de container = logiciel qui a accès à des fichiers, il faut les extraire et les
transférer (transfert organisé, codé, structuré grâce à un container) → compatibilité

2) Accéder à de la matière centralisée = container qui contient les essences et


communique aux différents logiciels qui vont s’y connecter.

Le modèle OSI :

- découpe le modèle en sept niveaux / 7 couches


allant de la simple application à l’état physique du
modèle (vu en Connectique).

37
Modèle simplifié : basé sur le modèle OSI, en 5 couches.

Il est limité à l’ordre suivant :


- Contenu (vidéo, audio, data)
- Format de fichier
- Protocole de transfert (FTP,…)
- Réseau (SDI, FC, Ethernet, IP)
- Physique (Coax, fibre, paire).

Différences entre Fichier Texte et Contenu en termes de transfert :

➔ Modes d’accès, techniques et éléments transportés différents.

Fichier Texte Fichier Vidéo

Contenu Texte Vidéo


Poids Ko, Mo Mo, Go, To
Application Word Player
Temps / Durée
Lecture Aléatoire Linéaire
Liaison / Synchronisation

B) Origine des containers : Quicktime

C’est le 1e container historique → Objectif = créer une application qui synchronise l’audio et
la vidéo et sur laquelle la Timeline pouvait contenir des graphiques, images animées, textes,…)
➢ Avoir un outil de présentation (synchrone)
➢ Contenir l’essence dans une seule valise

Cela remonte lorsqu’Apple cherchait un moyen de synchroniser ses pistes audio et vidéo. Ils
décident d’abord de développer la synchronisation temporelle. À cette époque, QuickTime était
un fichier multimédia qui regroupe différents fichiers.
Sa structure va être détournée de manière à permettre la synchronisation de l’audio, de la
vidéo et du sous-titrage, ce qui va annoncer le premier container.

38
● Structure :

➔ On a des essences ayant leur propre référence


temporelle et qui doivent se retrouver dans une
unique timeline (= élément central).

Structure basée sur la notion d’atome (bouts de fichiers liés les uns aux autres) :
déterminée par une entête avec une destination, ensuite on explique ce qu’il y a dans le
fichier (atome le plus grand = le média, atome le plus petit = échantillons)

- Movie atom = l’atome le + grand (un film qui a des propriétés)


- Track atom = track video et track audio

→ on a plusieurs track = polymorphe (en fonction du contenu, le fichier s’adapte).

→ chaque track a ses propriétés

→ essence (uniques ou multiples)

Inconvénient du QuickTime :

- Container propriétaire (sous le contrôle d’Apple) donc c’est Apple


qui décide de tout.
- Pas ouvert en termes de fonctionnalités.

39
Nouvel objectif : créer un nouveau container libre d’accès pour tous avec un transfert
optimisé.
➔ Donc on a essayé de mettre en place des containers + universel, càd qui ne sont pas liés
à des propriétés spécifiques.

Ce dernier doit permettre :


- La lecture du fichier avant la fin du transfert.
- L’accès à un bout du fichier sans forcément devoir télécharger l’entièreté de celui-ci.
- D’avoir un débit variable, voire plus + grâce aux proxys.
- D’être certain du fichier que l’on transfert grâce aux méta-data descriptives.
- Le fonctionnement avec n’importe quelle essence (format ET codec) = interopérabilité
du container.

Il va voir le jour sous le nom de Media Exchange Format, plus communément appelé : MXF
➢ Container qui n’appartient à personne (usage libre).

C) Container universel : le MXF

● Objectifs :

- Doit être open source : pas soumis à des licences et peut évoluer.
- Doit être indépendant des essences : il doit marcher pour tout type d'essence. Les
Meta-data doivent être accessibles sans que le fichier soit transféré et/ou ouvert.
- Doit fonctionner sur n’importe quelle plateforme.
- Doit pouvoir transporter n’importe quel type de codec/format.

Comment faciliter le transfert ?

- Le container doit être ouvert à tout type de compression.

- Gérer des Proxys (envoyer le fichier avec une qualité inférieure). Si pas de Proxys avec
un fichier lourd : transférer, charger progressivement, même si le fichier est transféré
d’un container à l’autre on peut modifier ce qui a déjà été transféré.

- Avant de commencer le transfert, il faut connaître la taille du fichier global, d’où il vient,
s’assurer que c’est le bon fichier (avoir accès aux métadonnées).

40
- Fichier = informations différentes liées entre elles.
- Fichier texte = information qu’on voit sur l’écran qu’on va écrire sur le disque dur et
transformer en binaire (contenu = les lettres et la police,…). Espace dans lequel on va
écrire les informations binaires dans des cases de 8 bits (1 octect).

➔ Table de conversion en binaire :

Header ( début, adresse )

I00100

100100


Fooster (fin)

- Fichier vidéo,= vidéo, audio, métadata

Vidéo

10101000 01001001

Audio

10101010 001

Métadata

11001000 1

➔ Cases de 8 bits où on classe d’abord la vidéo puis l’audio puis les métadonnées :

Entête

10101000

01001001

10101010

o11001000

fin

41
● Structure :

La structure MXF est basée selon les Key, Length et Value (KLV) (clé, longueur, valeur) :
on met une info avant, qui nous dit ce que c’est et combien de place ça vaut.

➔ Permet une lecture à différents niveaux afin de savoir quand, comment et quels éléments
sont à sauter si illisibles.

- Key = nom de code qui permet au container de savoir si des éléments sont illisibles
(mode 8 bits). Permet d’expliquer de quoi il s’agit (quel codec/format, etc…) et
nm de ne pas planter le système même si on n’a pas la puissance.

- Length = connaître leur longueur et durée.


- Value = indique leur contenu.

On va décomposer les médias en cellules (ex: on transfère les données pour la 1e image :
l’image, l’audio associé,.. ensuite la 2e etc). On transfère les données de manière synchrone
et progressive.

42
• Index et partition :

Comment retrouver les différents segments ?


➔ On sait retrouver la position de chaque image par un calcul, car elles ont la même taille.
➔ On ajoute des index = des tables où on ajoute la position physique des images.

- Cas du codec intra : un simple calcul suffit à connaître les positions de chacune des
images. MAIS, on ne sait pas avoir accès à une portion du fichier s’il n’y a qu’un seul
index. On va donc attribuer des GOP à chacun des fichiers, précédés par les metadata
et les informations de partition. C’est cette partition qui permet l’accès et le travail sur
des portions de fichier.

- Cas du codec inter : cette structure change car elle est de taille variable puisque les
GOP correspondent à un enchaînement d’images de types I, P et B qui sont +- grandes.
On a du mal à calculer pour lire le fichier à un endroit précis → il faut donc rajouter un
index indiquant la place mémoire (adresse) de chacune des images se trouvant au
début du fichier.
➢ On découpe le temps en morceau (ex: 1min = la fin d’un fichier) : table d’index pour
chaque morceau

43
● Les packages :

Lorsque les fichiers sont enregistrés sur le DD,


on a 2 types d’infos :

1) Matérial package = ce que l’on va montrer


(découpage virtuel à l’intérieur du fichier).
Vue non-linéaire de ce qu’il y a dans le
fichier.

2) File package = ensemble du fichier, possède


des éléments non nécessaires à la diffusion.
Ensemble des pistes synchro entre elles.

3 types de métadonnées:

1) DM1, données statistiques/descriptives (Static Track) = couvre l’ensemble du


container (titre de l'œuvre,...), infos qui ne changent jamais.
2) DM2, données liées à la timeline (Timeline Track) = séquencées comme une piste
(ex: sous-titres).
3) DM3 ponctuelles (Event Track) = à un moment précis (ex : début générique).

● Operational Pattern : (File Package et Material Package organisés entre eux)

44
9 modes de fonctionnements :

OPa = single package. Il se montre donc du début à la fin → Material Package = File Package
puisqu’il ne comporte qu’un seul fichier (Material Package inutile).

➢ OP1a : ce qu’on montre et ce qu’il y a dans le fichier = File package. 1 seul Material
Package lié à 1 seul File Package, tous deux de même durée pour un même média
(90% des cas du MXF).

➢ OP2a : 1 Material Package pour plusieurs File Packages, le 1er définissant les seconds.
Permet d’organiser la diffusion/créer une playlist sans rééditer le fichier. Chaque File
Package doit être diffusé entièrement. Il y a un ordre de diffusion des différents File
Package, et on rassemble tous les fichiers comme une playlist, c.à.d. on choisit l’ordre et
ils seront automatiquement l’un à la suite de l’autre. Le Material Package vaut la somme
des différents File Packages.

➢ OP3a : 1 Material Package pour plusieurs File Packages, offrant en + la possibilité


d’assigner des points IN et OUT pour chaque File Package (// Timeline de montage
simplifiée) → créer une essence virtuelle. (

OPb = Synchronised (Ganged) Package. Offre la possibilité de diffuser plusieurs contenus


simultanément (en //). On peut synchroniser plusieurs File Packages entre eux.

➢ OP1b : Un Material Package lié à plusieurs File Packages, eux-mêmes


accompagnés par différentes données supplémentaires pour un même média.
Plusieurs Files package synchronisés entre eux (ex: chromakey entre avant-plan et
arrière-plan) → version internationale.

➢ OP2b : Idem mais sur base de playlist.


➢ OP3b : Idem mais sur base d’une structure EDL (Playlist de montage).

OPc = Choice of (Alternate) Material Package. Offre la possibilité d’inclure et choisir parmi
différents Material Packages au sein d’1 seul MXF. >< aux OPa et OPb, on a le choix de
différentes versions.

➢ OP1c : Plusieurs Material Package contenant plusieurs File Packages pour 1 média.
➢ OP2c : Idem mais sur base de playlist par Material Package (versions de playlist).
➢ OP3c : Idem mais basé sur une structure EDL par Material Package (versions de
montage).

OPatom = version à part entière du container car il ne contient qu’1 seule essence (donc, 1
fichier par essence).

45
Exemple :

➔ Cam Panasonic 2

- Le container n’est pas le fichier qui


comporte tout.
- Il peut renvoyer à des fichiers externes.

Applications spécifiques :

Le MXF est beaucoup utilisé aujourd’hui car on peut tout faire avec, mais le problème est qu’il
devient non-interopérable.

⚠️ Le conteneur MXF ne permet pas les effets spéciaux → inutilisable en montage. Par contre,
utilisé pour l’acquisition, les archives, la contribution, la diffusion et la distribution (quand le fichier est
linéaire). Un MXF est programmable et il faut définir des paramètres particuliers pour chaque opération.

Objectif = trouver un moyen pour normaliser les échanges entre les étapes de postproduction,
surtout quand les logiciels ne font pas partie d’une même suite.
➔ Solution : l’EDL (Edit Decision List), fichier contenant la description du contenu d’un
média (IN et OUT des différents rushs, leur durée et leurs effets.)
Il est facilement lisible mais assez limité.

46
E) AAF

AAF (Advanced Authoring Format) = extension du MXF


➔ Permet de bien lier les étapes de la post-production
➔ Un EDL = un fichier texte → très linéaire donc si on le modifie, on doit le remodifier

• Objectifs :

Le container AAF est transmis avec toutes les infos pour le traitement (on veut garder
l’historique des essences). Il reprend tous les objectifs du MXF, mais prend aussi en
compte la créativité, donc les étapes en postproduction.
DONC, il permet l’échange de sessions de travail en postproduction de façon facilitée en
conservant :
- Les effets et autres transitions, audio et/ou vidéo.
- La possibilité de modifier le montage.
- La possibilité d’aller-retours entre différents logiciels de postproduction

1) Pouvoir faire des échanges entre les ≠ éléments de post-prod en gardant toutes les
étapes de prod :

2) Pouvoir transporter un container dans lequel on a tout, mais pour lequel le système n’a
pas la puissance ou le codec nécessaire pour tout utiliser.

(ex: un système audio doit avoir accès aux essences audio sans avoir forcément accès au reste)

47
• Structure :

➢ Entête et pied

➢ Mob (Media Object) = capable de décrire n’importe quel élément (piste,


métadonnées, effets spéciaux, segments, liens avec des MOB extérieurs,…)
1) Mob Fichier
2) Mob Composition, ressemble à une timeline.

➔ Le MOB = en qlq sorte un atome pour le MXF, l’unité la + petite contenant différents
paramètres.

48
49
7) Le support
A) Définition

Support = endroit physique où le média est stocké (// frigo pour la compote de pommes).
→ Endroit où les données audio et vidéo sont stockées après captation. Sans ce dernier, le
fichier n’a pas d’existence physique.

B) Comparaison

➔ + un support est rapide, + il est cher et - il y a d’espace.

Exemples de supports :

- Carte mémoire = la carte va + vite


- Cartouche = stockage le - couteux (bande magnétique à l’intérieur avec
grande quantité de stockage. Accès : dérouler la bande donc très long)
→ ne se dégrade pas vite.
- CD
- Disque dur externe = - fragile, on stocke - en sûreté (pèse lourd).

C) Types de supports

50
1) Network Attached Storage (NAS) = système qui dépend du réseau, donc le traitement
des fichiers stockées en NAS dépend de celui-ci. Utile si on souhaite stocker
massivement car pas puissant ni coûteux.
- Avantages : tout le monde y a accès
- Inconvénients : le réseau est partagé mais il a un débit fixe → saturation. Il est piratable
et on doit avoir accès au réseau.

2) Storage Area Network (SAN) = système + coûteux que le NAS car technologie plus
pointue. Son accès au système de fichier est facilité et ne dépend pas du réseau. Le
SAN est donc son propre réseau → connecte l’ensemble des unités de stockage et des
serveurs. Réseau en fibre optique, stockage local mais partagé. Réseau utilisé QUE
pour le stockage et rien d’autre (ex : pas de connexion, d’envoi de mails etc...).

3) Direct Attached Storage (DAS) = stockage attaché directement à la machine (ex: DD


sur ordi) → Accès facile aux données. On peut travailler en DAS sur une machine puis
partager les fichiers grâce au NAS.

4) Linear Tape-Open (LTO) = stockage sur bande magnétique. C’est le + répandu et le +


abordable. Il y a eu différentes générations, passant de 800GB de stockage et de 160
MB/s de débit (GEN 3) à 120TB de stockage et 2750MB/s de débit (GEN10).

Il y a donc 2 types de supports :

- Les médias non linéaires (Blu-ray, cartes mémoires, disques durs, etc.)
- Les médias linéaires (LTO, cassettes, etc.)

D) Sécurisation technique

Lorsqu’on emploie des supports, il vaut mieux toujours s’assurer de sa sécurité pour éviter des
fichiers corrompus et cracher tout son contenu. Il existe plusieurs systèmes nommés RAID, qui
s’assurent de la sécurisation des données.

2 types de sécurisations :

1) Sécurisation technique
2) Sécurisation opérationnelle

51
● RAID 0

- 1 seul disque de 1To.


- Pas de sécurisation, si on le perd on perd la matière/les
données.
- Pas de duplication de données

● RAID 1

- On stocke les infos sur 2 disques.


- Duplication technique des données
→ si on delete d’un côté, on delete de l’autre aussi.
- Rajoute 100% de stockage.
- Si on en perd un, on a l’autre avec les opérations qui continuent.
- 2x + de place donc 2x + cher que le RAID 0

● RAID 5

- Stockage sur plusieurs disques (ici, 4) et on


adjoint un disque supplémentaire où on copie une
info qui permet de récupérer une info perdue sur
un de ces 4 disques.
- On peut récupérer l’info, coute - cher que RAID1

52
● RAID 6

- Fort similaire au RAID 5, mais on ajoute


encore un disque supplémentaire.
- On n’est plus sur le principe des bit de parité
mais sur un autre principe :

Il y a toujours l’information de parité paire comme dans le RAID 5,


mais également une seconde information de parité impaire.

Avec ces parités, 2 disques peuvent être crashés et constitués


virtuellement à l’aide des disques restants.

- On peut rajouter des bits de protection (4 disques + 2)


- Si perte, les opérations sont à l’arrêt : le contenu n’est pas perdu mais il n’est plus
utilisable avant la reconstruction.
- RAID 6 + coûteux.

E) Sécurisation opérationnelle

• Fragmentation de disque :

Être certains que personne n'efface ou pique les données. Pour cela on fait plusieurs
backup qui sont envoyé dans une archive.

53
8) Le PAD
A) Les normes techniques

PAD = ensemble de normes techniques de livraison pour un produit final

- vérifications techniques
- vérifications de qualité
- vérification éditoriales

➔ il existe pleins de normes de diffusions différentes, c’est pourquoi on s’aide d’un outil
appelé IMF.

B) L’IMF

IMF = outil qui permet de simplifier la fabrication

I = Interopérable (distribution d’un produit vers une diffusion)


M = Master
F = Format

→ Version améliorée du DCP qui part d’une version unique


(master) pour en faire plein d’autres versions.

● L’Interopérabilité (master package)

→ Envelopper tout ce qui est nécessaire pour faire le master.

On regroupe les médias natifs avec des caractéristiques de


hautes qualités pour les transformer à l’extérieur. On embarque
tous les médias pour faire toutes les modifications possibles.

Exemple :

1) On donne les infos


nécessaires pour créer
une version..

2) On a plein de versions
de ce fichier

➔ Quand on synchro les ≠ essences, on obtient le PAD

54
- Output profile List = format qu’on peut sortir, contient les caractéristiques de rendering
(caractéristiques du média qu’on crée) → on transforme les média dont on a besoin en
composants (changer les versions, les sous titres,…) puis on définit le format.
- Package List = étiquette qui décrit l’enveloppe.
- Asset MAP = décrit où se trouvent les médias (peuvent se trouver sur un serveur et non
dans l’enveloppe).

C) Le DCP (somme des MXF)

On encrypte les films : on génère des clés pour décrypter le média en bout de chaîne (les clés
sont timées pour les diffuser à un moment précis).

55
➢ CPL= relation qu’on définit entre les
différentes compositions (composition de
playlists). Autre fichier qui organise les
relations entre les éléments.

➔ Il met le bon son avec la bonne vidéo et


les bons sous-titres.

Le DCP génère le cryptage des


données.

- KDM = Key Delivery Message

- Problème du DCP : son poids


→ obligés de pré-traiter,
mouliner/transformer les
formats.

D) Le PAM

- Stocker, mettre des droits sur les médias, organiser l’espace de travail
- Centraliser et simplifier la gestion du projet → aide à produire
- Gère le profil et les utilisations

MAM = gère les médias pendant la durée de leur vie, va les documenter et les décrire.
PAM = gère le projet pendant la production.

56
9) Analyse des essences

- Prores
- RAW
- HDXD Cam
- DNxHD
- AVC Intra
- XAVC

10) Analyse des outils de fabrication

11) Etudes de cas & exercices → modélisation d’un workflow

Calculer un stockage:

Vidéo
- Essence : MPEG2 à 50mb/s
- Durée : 18min24sec

Audio 1 - 2
- Débit = 48kHz (48x10^3) x 24bits x 2 = 1,152mb/sec

Calculs
- Débit total = 50mb/s + 1,552 x2 (car 2 cannaux audio) = 52,304 mb/s
- Stockage : débit x durée (sec)
→(18 x 60 + 24) = 1104 sec x 52, 304mb/s = 1143,116 /8 Mo = 7,217952 Go

1024 octect = 1Ko

57

Vous aimerez peut-être aussi