Vous êtes sur la page 1sur 54

L1 (CS-SI) Institut Supérieur d’Informatique

Chapitre 3

Technologie multimédia

Bouajina Sonia Ouertani Mourad

Année Universitaire 2020 - 2021 1


Partie 1: le son

2
Définitions
 Media Vient du pluriel du mot latin « medium » : lieu exposé aux regards de tous.
 Un média est un mode de représentation de l'information (comme la presse, la radio,
la télévision, Internet, etc.)
 Le mot multimédia est apparu vers la fin des années 1980, lorsque les supports de
stockage se sont développés comme les CD-ROM. Il désignait alors les applications
qui, grâce à la mémoire du CD et aux capacités de l'ordinateur, pouvaient générer,
utiliser ou piloter différents médias simultanément (son, image, vidéo …).
 Il faudra attendre la fin des années 1990 avec l'arrivée de méthodes de compression de
son et de vidéo, ainsi qu'une certaine montée en puissance des ordinateurs personnels,
pour atteindre de haut niveaux de qualités,
 Aujourd'hui, le mot multimédia est utilisé pour désigner l’ensemble des techniques et
des produits qui permettent l'utilisation simultanée et interactive de plusieurs modes
de représentation de l'information (textes, sons, images fixes ou animées). 3
Intérêt des techniques multimédia

Les techniques multimédia ont un impact sur l'assimilation de l'information par un être
humain. D’après des études psychologiques, la mémoire humaine est capable de
mémoriser :

 10% de ce qu'il lit.

 50% de ce qu'il entend et lit.

 70% de ce qu'il entend, lit et voit.

Nous pouvons dire que les techniques multimédia jouent un rôle très important pour
optimiser le pourcentage d'assimilation d'une cible.

4
Métiers

Les métiers liés au multimédia sont très variés couvrant les domaines technologiques
allants de la conception à la commercialisation et maintenance mais aussi les domaines
artistiques d’exploitation et d’établissement des normes juridiques. On trouve ainsi les
métiers :

 De la production : Éditeurs, producteurs, juristes, prospecteurs


 De la création : Auteurs, directeurs artistiques, scénaristes, ergonomes, illustrateurs
 De la réalisation : Réalisateurs, directeurs techniques, développeurs (programmeurs,
infographistes, etc.) ingénieurs du son, dialoguistes, testeurs, traducteurs
 De l’exploitation : Fournisseurs d’accès, spécialistes réseau
 De la distribution : Commerciaux pour la vente sur support, pour la vente en ligne
 De l’utilisation : Bibliothécaires, formateurs
5
Projet Multimédia
Comme tout projet informatique, un projet multimédia suit un cycle de vie allant de
l’idée jusqu’au développement. Ces phases sont présentées dans ce qui suit.

 Recherche et analyse :
Tout projet commence par l’analyse du public cible pour déterminer leur niveau
d’expertise et besoins et identifier le contexte d’utilisation et les contraintes.
Une phase de recherche de contenu permet de recueillir les différentes contenus qui
seront utilisés par la suite.

 Conception :
Décrire le synopsis du projet.

 Scénarisation (storyboarding)
Description détaillée des différents éléments multimédia et de leur timing.
6
Prototypage :
Réaliser un premier prototype ou maquette du produit et le faire évaluer par les utilisateurs
potentiels.

Développement :
Consiste à créer les éléments multimédia, les intégrer et développer le reste des modules.

Test et validation :
Tester, valider, diffuser le produit puis le maintenir.

7
Son
 Le son est une sensation auditive, pour la créer, il faut mettre un objet en
vibration, comme par exemple, une corde que l’on va pincer ou alors la
membrane d’un haut-parleur qui va vibrer. On parle d’une vibration acoustique.

 Les sons peuvent se propager dans tous les milieux sauf dans le vide, ce qui
peut être vérifiée à partir de l’expérience de la cloche à vide.

 Le son se propage grâce à la vibration de la matière. L’air n’accompagne pas le


son dans son déplacement. Il ne fait que se comprimer et se détendre au passage
du son.

8
Fréquence d’un signal sonore
 Il existe une fréquence limite à partir de laquelle on n’entend plus le son, elle est
d’environ 20 000 Hz. Au-dessus c’est le domaine des ultrasons.
 Il existe une fréquence limite en dessous de laquelle on n’entend plus le son, elle est
d’environ 20 Hz. C’est le domaine des infrasons.
 Entre les infrasons et les ultrasons c’est le domaine audible. Ce domaine dépend de

l’âge, des oreilles, etc.


 Il existe des sons aigus et des sons graves. Ce qui fait la différence entre ces deux
sons, c’est la fréquence qui caractérise un son. Plus la fréquence d’un son
augmente et plus le son est aigu. Plus la fréquence d’un son diminue et plus le son
est grave.

9
La bande d'octaves est un classement d'origine musical. Lorsqu'une fréquence est doublée
ou divisée par 2 on dit qu'elle augmente ou qu'elle diminue d'une octave, exemple : 125Hz
et 250Hz puis 250Hz et 500Hz.
Le spectre sonore (audible) est découpé en 10 octaves.

10
Niveau d’intensité d’un signal sonore
 Toutes les ondes sonores ne sont pas perceptibles par l'oreille humaine. A l'inverse,
des intensités sonores trop élevées peuvent être dangereuses.

 L'oreille humaine peut en moyenne percevoir des sons ayant une intensité sonore
supérieure à 10-12 W.m-2. Cette intensité sonore minimale est noté I 0 et appelée seuil
d'audibilité.

 Par ailleurs, un son dont l'intensité sonore est très forte peut provoquer une douleur, ainsi
qu'une perte d'audition partielle ou totale : on estime en général que le seuil de douleur
correspond à une valeur d'environ 10 W.m-2. Aussi, l'exposition répétée à des ondes
sonores d'intensité élevées mais inférieures aux intensités maximales, sans protections
appropriées, peu également engendrer des dommages sur l'oreille humaine.

 L'intensité sonore est mesurée à l'aide d'un appareil appeler sonomètre. Il est
fréquemment utilisé par la médecine du travail, ou organisme spécialisé pour évaluer
11
l'environnement sonore au travail et le niveau d'exposition des employés.
 L'intensité sonore est additive, c'est-à-dire que si plusieurs sources émettent des
ondes sonores alors l'intensité sonore qui en résulte correspond à la somme des
intensité sonores de toutes les sources.
Par exemple, si trois sources sonores émettent des ondes d'intensité I 1, I2 et I3 en un
point donnée de l'espace alors, une mesure indiquerait que l'intensité sonore en ce
point vaut :

 L'intensité sonore perceptible prend des valeurs sur un intervalle extrêmement large
qui va de 10-12 W.m-2 jusqu'à 10 W.m-2 soit un facteur de 1013 (10 000 milliards !)
entre la limite inférieure et la limite supérieure. Afin d'utiliser une échelle de
grandeur plus simple et plus significative on définit une nouvelle grandeur. Cette
grandeur se note L, s'exprime en décibel de symbole dB et se calcule à partir de la
relation suivante :
Avec L en Décibel (dB)
I en W.m-2
I0 = 10-12 W.m-2 12
:
 Si l'on double l'intensité sonore, le niveau d'intensité sonore n'est pas doublée. En effet :

En conséquence, doubler l'intensité sonore revient à augmenter le niveau sonore de 3


décibels

Remarques :
Log correspond à la fonction logarithme décimale qui est définie à partir du logarithme
népérien :
13
Niveau d'intensité sonore correspondant au
seuil d'audibilité et au seuil de douleur
Le seuil d'audibilité correspond à l'intensité sonore I0 = 10-12 W.m-2 :

sachant que

Le seuil de douleur correspond à l'intensité sonore I0 = 10 W.m-2

Le niveau d'intensité sonore d'un son audible par l'oreille humaine est donc compris
entre 0 et 130 dB. 14
Environnement sonore
Nous sommes constamment exposés au bruit, à la maison, dans la rue, au travail. En effet,
la télévision, la chaîne HiFi, les voitures, le métro, le tramway, les machines... crées un
environnement bruyant. On parle même de pollution sonore dans certains cas.
La réglementation s'est adaptée au problème de pollution sonore, ainsi trois seuils ont été
définis :
Seuil de risque : 80 dB. En dessous de ce seuil, on considère que l'exposition du travailleur
est sans risque quelques soit la durée. Au dessus, la durée d'exposition doit être évaluée afin
de mesurer la nécessité de protections auditives ou adaptation du poste de travail.
Seuil de danger : 85 dB. Si la durée d'exposition de l'employé à une telle intensité sonore
est de 8h par jour, les protections auditives sont requises. Si possible, le poste de travail
peut être adapté afin de baisser le niveau sonore perçu par le travailleur.
Seuil de douleur : 120 dB. A partir de ce niveau sonore, les oreilles souffrent
physiquement du bruit. Cependant, attention les dommages sur l'audition interviennent bien
15
en amont de la douleur.
Echelle des décibels perçus par l’oreille

16
Seuils d’audition
 Les sons ne sont pas perçus de la même façon selon leur niveau et selon leur
fréquence.
 Les courbes iso-niveau de la perception du son ne sont pas horizontales.

 Si on veut rendre compte de la perception humaine il faut corriger les


mesures (pondération).
17
Les courbes de pondération sonométrique
 Pour la mesure des bruits faibles on utilise la pondération A (dB(A)).
 Pour la mesure des bruits moyens on utilise la pondération B (dB(B)).
 Pour la mesure des bruits forts on utilise la pondération C (dB(C)).

18
Les courbes de pondération sonométrique:
suite
 On ajoute à la mesure la valeur de la pondération indiquée dans la table de
correction.

19
Protection contre le bruit

Pour se protéger d'un environnement bruyant, il existe plusieurs possibilité :


 Protections personnelles à adapter selon l'intensité sonore et la durée d'exposition :
bouchons d'oreilles, casque antibruit. Ce type de protection doit également s'adapter à
l'activité. En effet, dans certains cas il est nécessaire, ou du moins souhaitable, de pouvoir
continuer à entendre les personnes autour par exemple. Il existe des protections filtrant
seulement certaines fréquences d'intensités élevées.
 Adaptation de l'environnement en protégeant le lieu : double vitrage (jusqu'à 40 dB de
réduction du bruit), murs antibruit. Ces matériaux réduisent le bruit car l'onde sonore se
propage avec difficultés ou bien se dissipe. On dit que le matériau est absorbant. Le
matériau peu également renvoyer le son. Cependant, afin de contrôler l’environnement
sonore extérieur, il est important qu'une partie du son soit absorbé, plutôt que réémis.
 Dans les environnements industriels, il est parfois possible d'enfermer le bruit en dédiant
des espaces clos à certaines machines. 20
Analyse d’un son musical

 Son pur : Un son pur, ou son simple, correspond à


une onde sinusoïdale dont la fréquence ne varie pas
au cours du temps. Le son émis par le diapason est un
exemple de son pur.

 Son complexe et son musical: La plupart des sons que nous percevons dans
notre environnement ne sont pas purs mais complexes. Ils sont composés
de plusieurs sons purs de fréquences et d’amplitudes différentes. Un son
musical est un cas particulier de son complexe, produit par un instrument de
musique. Parmi les propriétés d’un son musical, nous retiendrons pour l’instant
qu’un son musical est périodique (de période constante au cours du
temps), mais n’est pas forcément sinusoïdal.
21
Analyse spectrale d’un son musical

22
Hauteur d’un son musical :

 La hauteur d’un son musical correspond à la fréquence de son mode de


vibration fondamental, exprimée en hertz (symbole : Hz).

 La hauteur d’un son est associée au nom de la note jouée (do, ré, mi, ... d’une
certaine octave).

 La hauteur d’un son est la caractéristique qui permet de dire si un son est aigu
ou grave.

23
Les notes de la musique
 Chaque note est caractérisée par une fréquence fondamentale déterminée.

 Lorsque deux notes sont séparées d’une octave, le rapport de leur fréquence est égal à
deux. Dans la pratique, ces deux notes ont le même nom, comme par exemple le la de
l’octave 3 et le la de l’octave 4, nommée couramment la3 et la4 pour éviter toute
ambigüité entre elles.

 On appelle gamme l’ensemble des notes composant une octave donnée. Dans la gamme
tempérée, c'est-à-dire celle utilisée dans la musique occidentale, l’octave est divisée en
12 demi-tons, ce qui correspond à 12 notes, en comptant les notes diésées (#).

24
Le timbre d’un son musical :
 Deux sons musicaux correspondant à une même note (même fréquence fondamentale),
mais émis par deux instruments différents ne sont pas perçus de la même façon par
l’oreille. On dit alors que ces deux sons n’ont pas le même timbre.

25
La durée et l’enveloppe d’un son musical :
 Une note musicale a une durée, intervalle entre le début et la fin de la note.

 L’oscillogramme d’une note, indiquant son évolution au cours du temps, est


complexe. Il se compose de quatre phases : attaque, déclin, maintien (corps de
la note) et extinction.

 La courbe décrivant l’évolution de l’amplitude du son au cours du temps est


l’enveloppe du son musical. L’enveloppe dépend de l’instrument utilisé et de la
manière d’en jouer (façon d’appuyer sur les touches du piano par exemple ou la
durée pendant laquelle on souffle dans un instrument à vent)

26
 Exemple: Analyse de la note Do (262 Hz) (Piano vs. Violon)
Piano : attaque très brève et Violon : attaque progressive et
quasiment pas de corps. extinction progressive, et
Amortissement plus rapide maintien du corps sur une
dans le temps d es période importante. Evolution
harmoniques hautes fréquences stationnaire des harmoniques
par rapport aux harmoniques basses et hautes fréquences.
basses fréquences.

27
Exemples de formats audio
Le format MP3 :

 C’est le format le plus populaire et le plus utilisé.


 Il fait partie de la famille des formats audio dits “compressés avec perte”.
 Il est compatible avec tous les appareils et plateformes.
 Il permet de stocker la musique de façon très compacte tout en conservant une qualité
acceptable.

Le format WAV :

 Développé par Microsoft et IBM, c’est le format standard pour les fichiers audio sur les
plateformes Windows.
 Il n’autorise aucune compression, contrairement au MP3
 Il propose un son aussi clair et audible que la maquette originale
 C’est le format audio prisé par les professionnels de la musique
 En raison du manque de compression, le format WAV est très volumineux et occupe une
28
grande place dans votre système
Le format WMA :
 Également conçu par Microsoft
 C’est un fichier compressé et sans perte
 Le fichier WMA est petit par la taille, mais grand par sa qualité
 cette extension fonctionne sur peu d’appareils

29
30
Partie 2: l’image

31
Définition

 Une image est un signal caractérisé par une intensité lumineuse I(X, Y)
dépendant de deux variables X et Y dans le plan de l’espace.

 La variable représentative du signal peut être soit:


 Continue et dans ce cas, le signal est dit analogique,
 Discrète et le signal est dit échantillonné ou numérique.

 Traitement par ordinateur  numérisation


 Échantillonnage spatial du plan (X et Y )
 Quantification de la valeur de la couleur  I(X, Y)

32
Image numérique

 L’image numérique est un ensemble de points élémentaires représentant


chacun une portion de l’image: Le pixel (picture element).

 Une image est définie par :


 Le nombre de pixels en largeur et hauteur.
 L’étendue des nuances de gris ou de couleurs de chaque pixel (dynamique
de l’image)

 On distingue deux types d’images matricielles et vectorielles.

33
Images matricielles ou bitmap

Elle est formée d'une grille de points élémentaires de couleur uniforme ou


pixels.
Elle est caractérisée par:
• Sa dimension en pixels
• Sa résolution
• Son mode colorimétrique
Exemples : GIF, BMP, PNG, JPEG, BPG (photos numériques, images
numérisées

34
Images vectorielles

 Définie par des fonctions mathématiques qui décrivent des lignes, des
courbes etc..

 On manipule des objets et non des pixels. Exemple: un cercle est décrit par
une fonction du type (cercle, position du centre, rayon).

 Essentiellement utilisée pour réaliser des schémas ou des plans.

 Avantages: occupe peu de place en mémoire et peut être redimensionnée sans


perte. Exemple: SVG (Scalable Vector Graphics)

35
Caractéristiques des
images:Résolution spatiale
 La taille d’une image est définie par le nombre de pixels qui la composent verticalement
et horizontalement. ex: une image de 550x300 pixels

 Le poids d’une image numérique est l’espace mémoire qu’elle occupe sur un support
de stockage numérique (disque dur de l’ordinateur, CD…)

Poids = nb de bits par pixel x nb total de pixels

 La résolution d’une image est définie par le nombre de pixels par unité de surface
exprimé en points par pouce noté: ppp (pixel par pouce) ou en anglais: dpi (dot per inch)
sachant que le pouce (inch)=2.54cm

 Cette notion est utile lorsqu’on passe d’un support physique à un support numérique
(ex: une image scannée ou inversement

 La taille en pixels est donnée par la formule suivante: 36


Taille en pixels =taille en pouces*résolution
Caractéristiques des
images:Résolution spatiale
Exemple
- Si on veut scanner une image de 1 pouce sur 1 pouce (soit 2.5cmsur 2.5cm si la
résolution est de 150ppp, on obtient une image de taille 150x150 avec une
résolution de 300ppp, l’image sera de 300x300.
- Si on a une image de 300x300 que l’on veut imprimer. Avec une résolution de 300ppp,
l’image obtenue sur papier sera de 1pouce sur un pouce , une résolution de 150ppp donnera
une image de 2 pouces sur 2 pouces .

37
Caractéristiques des
images:Résolution spatiale
Quelques exemples de résolutions fréquemment utilisées:
• Imprimantes grand public: entre 360 dpi et 1400 dpi . Cela permet d'obtenir une qualité
acceptable pour tous les travaux courants (courriers, rapports, etc...)
• Scanners grand public: 300, 600 ou 1200 dpi.
• Matériel d'impression professionnel: au minimum 4800 dpi (impression de qualité et
grandes tailles pour les affiches).
• Ecrans d'ordinateur: 72 dpi .
• Fax: en général en 200 dpi.

38
Caractéristiques des images:
Résolution colorimétrique
 Le nombre de couleurs que peut avoir un pixel  nombre de bits réservés pour chaque
pixel.

 Image binaire: 2 couleurs donc 1 bit par pixel


 Image en niveaux de gris: 256 niveaux donc 8 bits par pixel
 Image en couleur: 24 bits/pixel

39
6 bit 4 bit 3 bit 2 bit 1 bit
Numérisation d’une image

40
Compression des images: principe
La compression des images garantit un compromis entre la qualité et la taille de stockage
Il existe différents algorithmes de compression d’images:
- sans perte (RLE, LZW, Codage de Huffman)
- avec perte:
• Par transformation: DCT,DWT,FT
• Par prédiction: DPCM,ADPCM
 Le codage RLE (Run Length Encoding) est basé sur la redondance de valeurs
consécutives. Une suite de valeurs consécutives identiques est codée par 2 valeurs: le
nombre de répétitions et la valeur répétée. Cet algorithme est efficace lorsqu’il y a
beaucoup de surfaces uniformes.
Exemple
La séquence AAAAAAAAAABBBBBBCCCCCCC sera codée par: 10A 6B 7C
 Le codage de Huffman consiste à réduire le nombre de bits utilisés pour le codage des
caractères fréquents dans un texte et d’augmenter ce nombre pour des caractères plus rares.
Les étapes de l’algorythme sont les suivantes:
- Chercher la fréquence des caractères
- Trier les caractères par ordre décroisant de fréquence
- Construire un arbre pour donner le code binaire de chaque caractère
41
Types d’images
 Image bitmap ou binaire: avec ce mode, il est possible d'afficher
des images en deux couleurs: noir et blanc donc une seule valeur
par pixel( 0 ou 1) Codage en 1 bit par pixel

 Image monochromatique: si à chaque pixel on associe une seule valeur appelée


luminance ou niveau de gris. Le mode niveau de gris permet d'obtenir différentes
valeurs de gris, afin d'afficher des images nuancées.
8
Exemple: Codage en 8 bits par pixel (bpp) => 2 = 256 possibilitées
Chaque pixel peut avoir 256 nuances de gris possibles

42
Types d’images
 Image couleur ou trichromatique:
 Une image est dite multi-composantes si à chaque pixel on associe plus qu’une valeur.
 Une image trichromatique ou image couleur est constitué de trois matrices correspondantes
aux composantes du système couleur utilisé.
 Chaque pixel est donc représenté par un vecteur de trois valeurs. (24bits par pixel)
 Le système de couleur le plus utilisé est le RVB (Rouge, vert , Bleu); dans ce cas chaque
pixel contient les valeurs des niveaux du rouge, du vert et du bleu.

Poids d’une image


Exemple: Une image 640x480 en True color : (24 bits)
- Nombre de pixels : 640 x 480 = 307200
- Poids de chaque pixel 24 bits / 8 = 3 octets 43
- Le poids de l'image est ainsi égal à : 307200 x 3 = 921600 octets = 921.600 Ko.
Les formats d’images

Les formats d’images les plus connus :


 GIF : Graphic Interchange Format (1987)
 BMP : Bitmap (1993)
 PNG : Portable Network Graphics (1996)
 JPEG : Joint Photographic Expert Group (1994)
 JPEG2000 : (1999)
 BPG : Better Portable Graphics (2014)

44
Partie 3: la vidéo

45
La vidéo: Definition

 Une vidéo est composée de deux parties synchronisées:


 Une partie sonore : son
 Une partie visuelle : image

 Un flux vidéo est composé d’une succession d’images fixes (25/s en Europe
et 30/s aux USA) composant l’illusion du mouvement.

 Chaque image est décomposée en lignes horizontales et chaque ligne est


considérée comme une succession de points.

 Un fichier vidéo nécessite un « lecteur multimedia» (« player » en anglais)


pour le lire.
Par exemple: Windows Media Player pour les fichiers AVI, Quicktime pour les
MOV, Real Player pour les RM, VLC, MediaPlayer Classic…

46
La vidéo analogique: principe
 Sur un récepteur de télévision, une image est obtenue par balayage électronique
successif des lignes de luminophores constituant l’écran.

 Un écran au standard PAL ou SECAM comprend 625 lignes, alors qu’un écran au
standard NTSC n’en possède que 525.

 On sait que, pour donner à l’œil humain une impression d’éclairement continu à
l’aide d’une source lumineuse émettant de façon discontinue (vidéo projecteur,
projecteur de cinéma, écran TV, … ), il faut au moins 40 éclats par seconde

- Une fréquence de 20 à 40 éclats provoque une impression de scintillement


- Une fréquence au-dessous de 20 éclats, l’éclairement paraît saccadé
- Pour obtenir une impression de continuité parfaite avec 25 images/s, on divise
chaque image en 2 demi-images projetées successivement, provoquant ainsi 50
sensations différentes par seconde.

47
La vidéo analogique: principe
 Entrelacement: Les demi-images ou trames sont obtenues par balayage des seules
lignes paires dans un 1er temps, puis des lignes impaires dans un 2ème temps.
l’image complète est obtenue par entrelacement des 2 trames.

Trame Paire Trame Impaire Image complète

Exemple: le signal vidéo analogique PAL/SECAM est donc découpé en 25


images/s, elles-mêmes divisées en 25 x 2 = 50 trames celles-ci étant leur tour
analysées en 312,5 lignes.

48
La vidéo analogique: Standards et
calculs
 Dans le standard PAL, à raison de 625 lignes par image, de 864 points par ligne et
de 25 images/seconde, on obtient :
625 lignes/image x 864 points/ligne x 25 images/s= 13 500 000 points/s

 Dans le standard NTSC, on obtient exactement le même nombre de points par


seconde :
858 points/ligne x 525 lignes/s x 30 images/s x 1000/1001 = 13 500 000 points/s

 si 1 seconde de vidéo correspond à 13 500 000 points et si l’on veut conserver


toute l’information concernant ces points alors il est nécessaire de les décrire
individuellement.

 Pour 1 seconde vidéo, on doit définir 13 500 000 échantillons : la fréquence


d’échantillonnage requise dans ces conditions est donc de 13,5 MHz

49
La vidéo numérique
 La vidéo numérique est une suite d’images numériques codées par des bits (0 et 1) ce qui
permet une recopie infinie sans perte de qualité
 L’histoire du numérique dans la vidéo commence en 1972 – 1982: une anarchie
numérique régna sur le marché
 CCIR (Comité Consultatif International des Radiocommunications/ UIT-R
actuellement): numériser des données communes aux systèmes 625 lignes (PAL/SECAM)
et 525 lignes (NTSC).

 normaliser un format vidéo en composantes numériques compatible dans le monde entier


• CCIR 601: norme qui spécifie les paramètres de codage de signaux à numériser
(échantillonnage, quantification…).
• Permet aujourd'hui à la vidéo numérique de se généraliser dans les centres de production,
chaînes TV, etc.

50
La vidéo numérique; Critères de
qualité
Nombre d'images/trames par seconde
− Cinéma : 24
− Télévision : 25 (France), 30 (USA, Japon).
Qualité propre aux images:
− Définition
− Nombre de couleurs.
Qualité du son
Qualité de la synchronisation entre images et son.
Débit(octet/sec) = poids_image * nb_image/sec
Exemple:
• Image 24 bits 640*480 à 30 images/sec
• Poids image = 640*480 * 3 = 921 600 octets
• Débit = 921 600 * 30 = 28 Mo/s

51
La compression video

 Principe: réduire autant que possible les redondances d’informations dans les données .

 Dans une séquence vidéo il existe deux sortes de redondance:


- La redondance spatiale
- La redondance temporelle

 Compression spatiale
- rechercher sur l’image les éléments redondants : par un exemple un ciel de couleur unie
- On code ensuite la description du bloc correspondant au ciel, plutôt que chaque élément
individuellement.
 Compression temporelle
Dans une suite d’images (vidéo), seuls sont codés les éléments qui varient d’une image à
l’autre.

52
Les formats video
 AVI (Video for Windows).
 MPEG (Moving Picture Expert Group): Il a été établi en 1988 afin de développer les
standards internationaux de compression, décompression, traitement et codage d’
images animés et de données audio.
 MOV.QT (Quick Time Movie): développé par Apple concurrent de .AVI de
windows. Il est très répandu sur internet.
 .RA (Real Audio): format pour la diffusion en direct de séquences sonores et vidéo
par l’internet (Apllication pour ouvrir ces fichiers Real Player.
 .VDO(VDO Live): format pour la diffusion en direct de séquences vidéo par
l’internet.

53
Les standards MPEG
 MPEG-1: premier standard utilisé pour la compression de données vidéos et des
canaux audio associés (jusqu’à 2 canaux pour une coute stéréo). Il permet le
stockage de vidéos à un débit de 1.5Mbps dans une qualité proche des cassettes VHS
sur un support CD.
 MPEG-2: C’est un standard dédié au départ à la télévision numérique offrant une
qualité élevée et un débit allant jusqu’à 40Mbps (5 canaux audio). Il permet en plus
une identification et une protection contre le piratage. C’est le format utilisé pour les
DVD.
 MPEG-4: codage sous forme d’objets numériques offrant une grande intéractivité .
Son usage est adapté au Web et aux périphériques mobiles.
 MPEG-7: rend possible la recherche d’information dans le flux de données.

54

Vous aimerez peut-être aussi