Vous êtes sur la page 1sur 90

Institut Supérieur des Etudes Technologiques de Sousse

Département Technologies de l’Informatique

FONDEMENTS DE
MULTIMEDIA
[Tronc commun en Licence Appliquée en TI ]

Mohamed Ali HADHRI

Année Universitaire 2009-2010


Département Technologies de l’Informatique Introduction au Multimédia

Introduction au MULTIMEDIA

Profil : Licence Appliquée Niveau : 1

Option : Tronc commun Heures /Semaine : 1h30 cours

Durée : 15 semaines

Objectif :

Se familiariser avec le concept de multimédia et connaitre les


principes de fonctionnement de chaque type de média comme le
son, image et vidéo et les appliquer lors des séances de TP
Pré requis :

 connaissances générales en informatique de base

Moyens pédagogiques :

 Vidéo projecteur, tableau


 Exposé oral,
 Support de cours et TP

M.HADHRI 2
Département Technologies de l’Informatique Introduction au Multimédia

Table des matières


1. CHAPITRE 1 : LE MULTIMEDIA........................................................... 8

1. DEFINITIONS ..................................................................................... 8
2. LES TYPES DE MEDIA......................................................................... 9
2.1. Définition Média ................................................................................................................ 9
2.2. Types de données ............................................................................................................ 9
2.2.1. Les données de type texte .................................................................................... 10
2.2.2. Les données de type graphique .......................................................................... 10
2.3. Médias discrets................................................................................................................ 10
2.4. Médias continus .............................................................................................................. 11
2.4.1. Caractéristiques des médias continus ............................................................... 11
3. DOMAINES D’APPLICATIONS MULTIMEDIA ................................... 11
3.1. application grand public ............................................................................................. 11
3.2. applications professionnelles ...................................................................................... 12
4. LA NORME MPC ............................................................................. 12
4.1. MPC 1: ................................................................................................................................ 13
4.2. MPC 2 ................................................................................................................................. 13
4.3. MPC 3 ................................................................................................................................. 13
4.4. MPC 4 ................................................................................................................................. 14
5. COMPOSANTES DE BASE : ............................................................. 14
5.1. périphériques d’entrée.................................................................................................. 14
5.1.1. périphériques d’entrée spécifiques au son ...................................................... 15
5.1.2. périphériques d’entrée spécifiques à l’image ................................................. 15
5.1.3. périphériques d’entrée spécifiques à la vidéo .............................................. 16
5.2. Périphériques de stockage .......................................................................................... 17
5.2.1. Les disques magnétiques....................................................................................... 17
5.2.2. Les disques optiques non réinscriptibles ........................................................... 17
5.2.3. Les disquettes magnéto-optiques ....................................................................... 17
5.2.4. Le vidéodisque : ....................................................................................................... 18
5.2.5. Le CD Audio : ............................................................................................................. 18
5.2.6. Le CD ROM : ............................................................................................................... 19
5.2.7. Le MiniDisc.................................................................................................................. 20
5.2.8. Le DVD ......................................................................................................................... 21
5.2.9. Les HD DVD ................................................................................................................. 22
5.2.10. Le disque Blu-Ray ................................................................................................. 22
5.2.11. Les cartes mémoire : .......................................................................................... 23
5.3. Les périphériques de sortie .......................................................................................... 24
5.3.1. l’écran ......................................................................................................................... 24

Mohamed Ali HADHRI 3


Département Technologies de l’Informatique Introduction au Multimédia

CHAPITRE 2 : L’IMAGE: ........................................................................ 28

1. NOTION DE COULEUR : .................................................................. 28


2. NOTIONS IMPORTANTES. ............................................................... 29
2.1. Taille d'une image .......................................................................................................... 29
2.2. Résolution d’une image ................................................................................................ 29
3. LES DIFFERENTS MODES COLORIMETRIQUES. ................................ 31
3.1. Mode RVB.......................................................................................................................... 31
3.2. Mode CMJN ..................................................................................................................... 32
3.3. Couleurs indexées .......................................................................................................... 32
3.4. Mode Lab .......................................................................................................................... 32
3.5. Mode Niveaux de gris ................................................................................................... 33
3.6. Mode Bitmap.................................................................................................................... 33
4. LA REPRESENTATION ET LE CODAGE DES COULEURS ................... 33
4.1. Synthèse additive ........................................................................................................... 33
4.2. Synthèse soustractive .................................................................................................... 33
5. DESCRIPTION D’IMAGE.................................................................. 34
5.1. Le dessin Bitmap ............................................................................................................. 34
5.2. Les images Vectorielles : .............................................................................................. 36
6. FORMAT D'IMAGES ........................................................................ 38
6.1.JPEG (Joint Photo Expert Group) ................................................. 38
6.2. JPEG 2000 .......................................................................................................................... 41
6.3. PNG (Portable Network Graphics) ............................................................................. 42
6.4. GIF (Graphics Interchange Format) .......................................................................... 43
6.5. TIFF: (Tag Image File Format) ....................................................................................... 45
6.6. Tableau récapitulatif ...................................................................................................... 46
7. COMPRESSION DE DONNEES ........................................................ 46
7.1. Caractérisation de la compression ........................................................................... 46
7.2. Types de compressions et de méthodes ................................................................. 47
7.2.1. Compression physique et logique ...................................................................... 47
7.2.2. Compression symétrique et asymétrique ......................................................... 47
7.2.3. Compression avec pertes...................................................................................... 47
7.2.4. La compression sans perte .................................................................................... 52

CHAPITRE 3 : LE SON ............................................................................ 56

1. PROPAGATION DU SON ................................................................ 56


2. CARACTERISTIQUES DU SON ......................................................... 56
2.1. Hauteur .............................................................................................................................. 56
2.2. Timbre................................................................................................................................. 57
2.3. Volume .............................................................................................................................. 58
2.4. Espace-temps .................................................................................................................. 58
3. LE TRAITEMENT DIGITAL DU SON ................................................... 59
Mohamed Ali HADHRI 4
Département Technologies de l’Informatique Introduction au Multimédia

3.1. L’échantillonnage ........................................................................................................... 59


3.2. Quantification : ................................................................................................................ 60
4. LA LECTURE EN CONTINU .............................................................. 61
5. LA CARTE DE SONS ........................................................................ 61
6. LES FORMATS AUDIO ..................................................................... 63
6.1. CDA (Compact Disc Audio) ........................................................................................ 63
6.2. WAV (Waveform Audio Vector) .................................................................................. 63
6.3. AIFF (Audio Interchange Format File) ....................................................................... 64
6.4. MP3 (MPEG-1 Layer III) .................................................................................................. 64
6.5. AAC (Advanced Audio Coding) ou MPEG-2 AAC ............................................... 65
6.6. WMA (Windows Media Audio) .................................................................................... 65
6.7. AU (Audio Unix) ............................................................................................................... 65
6.8. Real Audio ........................................................................................................................ 66
6.9. Quicktime ......................................................................................................................... 66
6.10. Le format MIDI .................................................................................................................. 66
7. CINEMA MAISON .......................................................................... 67
8. LE SON MULTICANAL ..................................................................... 68
9. COMPRESSION DES SONS ............................................................. 72
9.2. Audio MPEG...................................................................................................................... 74

CHAPITRE 4 LA VIDEO ......................................................................... 76

1. GENERALITES .................................................................................. 76
1.1. La vidéo analogique...................................................................................................... 76
1.2. La vidéo numérique ....................................................................................................... 78
2. LA COMPRESSION VIDEO .............................................................. 78
2.1. Les signaux vidéo à composantes ............................................................................ 80
2.1.1. Le standard S-Video ................................................................................................ 80
2.1.2. Le standard YUV ....................................................................................................... 81
2.1.3. Le codage YIQ .......................................................................................................... 81
2.1.4. Le M-JPEG ................................................................................................................... 81
2.1.5. Le MPEG ...................................................................................................................... 82
3. LES FORMATS VIDEO ...................................................................... 85
3.1. .AVI (Vidéo For Windows) ............................................................................................. 85
3.2. .MPEG .MPG (Moving Picture Expert Group)........................................................... 85
3.3. .MOV .QT (QuickTime Movie) ...................................................................................... 86
3.4. .RA (Real Audio) .............................................................................................................. 86
3.5. VDO (VDO Live) ............................................................................................................... 86
3.6. VIV (Video Active).......................................................................................................... 86
3.7. Tableau des principaux formats vidéo ..................................................................... 87
4. QUELQUES SUPPORTS DE LA VIDEO .............................................. 87
4.1. Le DVD ................................................................................................................................ 87
4.2. Les SVCD (Super Vidéo CD) et VCD (Vidéo CD).................................................... 88

Mohamed Ali HADHRI 5


Département Technologies de l’Informatique Introduction au Multimédia

Liste des figures

Figure 1 : Carte son ................................................................................................................ 15


Figure 2 : Microphone ........................................................................................................... 15
Figure 3 : Le Scanner ............................................................................................................. 15
Figure 4 : Carte d’acquisition vidéo .................................................................................... 16
Figure 5 : Webcam ................................................................................................................ 17
Figure 6 :disque optique ....................................................................................................... 17
Figure 7 : CD Audio ................................................................................................................ 19
Figure 8 : CD ROM.................................................................................................................. 20
Figure 9 : Mini disc .................................................................................................................. 21
Figure 10 : DVD ....................................................................................................................... 21
Figure 11 : Carte mémoire .................................................................................................... 24
Figure 12 : écran CRT ............................................................................................................. 25
Figure 13 : écran LD ............................................................................................................... 25
Figure 14 : Résolution d’une image .................................................................................... 30
Figure 15 : synthèse additive ................................................................................................ 33
Figure 16 : Synthèse soustractive ......................................................................................... 34
Figure 17 : Présentation d’un pixel....................................................................................... 35
Figure 18 : image vectorielle et image bitmap ................................................................. 38
Figure 19 : changement de taille d’une image lors de son orientation ........................ 44
Figure 20 : son grave et son aigu ......................................................................................... 57
Figure 21 : les harmoniques d’un timbre ............................................................................. 58
Figure 22 : volume fort et volume faible ............................................................................. 58
Figure 23 : échantillonnage d’un son ................................................................................. 59
Figure 24 : carte de son intégrée......................................................................................... 61
Figure 25 : Principe de l’affichage entrelacé sur écran de télévision ........................... 77
Figure 26 : norme NTSC ......................................................................................................... 77
Figure 27 : norme PAL/SECAM.............................................................................................. 78
Figure 28 : compression spatiale et compression temporelle ......................................... 79

Mohamed Ali HADHRI 6


Département Technologies de l’Informatique Introduction au Multimédia

Le multimédia
Enoncé de l’objectif général :

Présenter les concepts généraux du multimédia, définir


multimédia et son centre d’activité et les normes générales

Objectifs spécifiques Elément de contenu Moyens Méthodologie

Ce cours vise à :

Présenter la - Tableau et Formative


 Définir média
multimédia  Enumérer les médias support de
 Présenter la multimédia cours
 Présenter les applications
multimédia

Définir les concepts  Définir la norme MPC


généraux  Enumérer les
- Tableau et Formative
périphériques
d’acquisition support de
 Enumérer les cours
périphériques de
stockage, entrée et
sortie

Mohamed Ali HADHRI 7


Département Technologies de l’Informatique Introduction au Multimédia

Le multimédia

Le multimédia est apparu vers la fin des années 1980, avec les
vidéodisques analogiques pour stocker des images, vidéo et son.
La première réalisation numérique est faite avec Hypercard de
Macintosh d’Apple.
Il faudra attendre la fin des années 1990 avec l'arrivée de méthodes de
compression de son et de vidéo, ainsi qu'une certaine montée en puissance
des ordinateurs personnels, pour atteindre simultanément des qualités
semblables aux différents autres médias réunis.
Aujourd'hui on utilise le mot multimédia pour désigner toute application
utilisant ou servant à travailler sur au moins un média spécifique.

1. DEFINITIONS
Quelques définitions permettent de cerner le terme « multimédia» dans les
textes réglementaires, on trouve par exemple :
– un décret relatif au dépôt légal qui désigne par document multimédia, «
tout document qui regroupe deux ou plusieurs supports soit associe, sur un
même support, deux ou plusieurs documents soumis à l’obligation de dépôt» ;
– un arrêté pris par la commission de la terminologie des télécommunications,
où multimédia s’emploie comme adjectif et vise tout ce qui « associe
plusieurs modes de représentation des informations tels que texte, son,
image»
Dans les dictionnaires et encyclopédies, on trouve encore des définitions
telles que
– extrait du dictionnaire du multimédia édité par l’AFNOR : « technique de
communication associant sur un seul support des données audiovisuelles et
informatiques permettant une utilisation interactive tout en visant les métiers
eux-mêmes développés pour la création et la diffusion des produits
multimédias».

Mohamed Ali HADHRI 8


Département Technologies de l’Informatique Introduction au Multimédia

On trouve aussi la définition de l’office de la langue française du


Gouvernement du Québec1 : – multimédia n.m; multimédia informatique
n.m :« Technologie de l’information permettant la manipulation simultanée
de sons, d’images et de textes, au moyen d’un seul ensemble informatique et
de façon interactive».
Les dernières définitions communément reconnues définissent le
multimédia comme l'industrie du "contenu numérique" . Les appareils
électriques, électroniques, informatiques portent encore parfois le terme de
multimédia car ils permettent la visualisation, ou la diffusion d'un document
multimédia.
Il faut faire la différence entre le contenant : ordinateurs, matériels,
câbles..., et le contenu : l'information délivrée, transmise, diffusé.

2. LES TYPES DE MEDIA


Une caractéristique importante d’un système multimédia est le
traitement intégré de plusieurs types de données appelés médias qui
peuvent avoir une dépendance temporelle (médias continus) ou une
indépendance temporelle (médias discrets).

2.1. Définition Média


Un média est un moyen de présenter ou de communiquer des
informations (texte, image, son, vidéo…)
Chaque média possède un moyen de stockage comme le papier pour
le texte et les cassettes pour la vidéo
Le média digital est la représentation des médias par les systèmes de
l’information qui sera manipulé, sauvegardé ou transmise par un réseau
informatique

2.2. Types de données


Plusieurs modes de représentation des données multimédia sont
possibles, elles concernent :

Mohamed Ali HADHRI 9


Département Technologies de l’Informatique Introduction au Multimédia

2.2.1. Les données de type texte


Le texte est souvent la forme de donnée la plus utilisée dans une
application. Seules quelques applications hautement spécialisées pourront se
passer de texte. La saisie de texte peut se faire de différentes manières dont
les plus communes sont la saisie au moyen :
d’un clavier,
OCR (Optical Character Recognition), ou la reconnaissance de
caractères effectués à partir de documents digitalisés.
2.2.2. Les données de type graphique
Elles peuvent être:
- de purs dessins informatiques en 2D ou 3D (fixes),
- des images digitalisées (fixes),
- des images vidéo digitalisées (fixes),
- des séquences vidéo (animées),
- des images de synthèse (animées).

2.2.3. Les données de type sonore


Le son est une information sous forme de sensation auditive engendrée
par une vibration acoustique.

2.3. Médias discrets


Ceux qui n’ont aucune dépendance temporelle, comme le texte, les
graphiques, les images fixes, qui seront appelés médias discrets; l’information
contenue est donnée exclusivement par l’ensemble des éléments individuels
qui le compose, sans aucune référence temporelle.
Leur traitement, même s’il doit se faire dans un temps contraint par
l’application, n’est pas conditionné par des contraintes temporelles,
l’intégrité des données d’un média discret étant indépendante du temps.
Leur volume est aussi limité.

Mohamed Ali HADHRI 10


Département Technologies de l’Informatique Introduction au Multimédia

2.4. Médias continus


Ceux qui ont une dépendance temporelle, comme le son, la musique,
la vidéo, qui seront appelés médias continus,. L’information qu’ils contiennent
ne peut se comprendre que par rapport aux évolutions temporelles de
grandeurs physiques. Leur traitement est critique du point de vue temporel.
Par exemple, un groupe d’échantillons audio n’ont pas de sens s’ils sont
lus après ceux qui les suivaient initialement.

2.4.1. Caractéristiques des médias continus


Les signaux manipulés dans les systèmes multimédias, et notamment les
signaux temporels, ne correspondent pas à des données ordinaires, celles-ci
sont caractérisées par :
– un volume très important :
Le débit de la vidéo (non comprimée) se situe entre 140 et 216 Mbits/s,
celui de l’audio tel que le type CD de l’ordre de 1,4 Mbits/s, la parole 64
Kbits/s. La nécessité de la compression apparaît assez rapidement pour de
nombreuses raisons
– un flux continu :
Il en découle des aspects temps réel, synchronisation et contrôle des
flux très importants.
– des qualités de services spécifiques :
Par exemple, en terme de taux d’erreur, si la vidéo s’accommode de taux
modérés, l’audio sera plus exigeant et nécessitera des taux plus faibles.

3. DOMAINES D’APPLICATIONS MULTIMEDIA


3.1. application grand public
 magazines, journaux en ligne
 musée interactif
 encyclopédies et livres électroniques
 jeux vidéo : jeu d'aventure, jeu de stratégie, jeu d'action ;
 tv et cinéma interactif

Mohamed Ali HADHRI 11


Département Technologies de l’Informatique Introduction au Multimédia

 réalité virtuelle
 Enseignement assisté par ordinateur (EAO) : enseignement à
distance, didacticiel ;
 auto apprentissage
 Animation : dessin animé, image de synthèse ;

3.2. applications professionnelles


 Présentation d’entreprise
 Formation à la carte, formation à distance
 Catalogues interactifs
 Commerce électronique
 Domaine médical
 Construction (architecture, simulation, visite virtuelle)
 Conception assistée par ordinateur (CAO) ;
 Éditeur Web ;
 Graphisme : infographie, dessin bitmap, dessin vectoriel ;
 Publication assistée par ordinateur (PAO) : Mise en page,
photocomposition ;
 Musique assistée par ordinateur (MAO) : synthèse sonore,
échantillonneur,
 Montage assisté par ordinateur (son et/ou vidéo) : vidéo ;
 VoIP ;
 Visio-conférence

4. LA NORME MPC
Développée en 1991 par Microsoft, en collaboration avec un groupe
d'éditeurs appelé Multimedia PC Marketing Council. Cette norme définit des
spécifications matérielles et logicielles qui ont été volontairement nivelées par
le bas. Dans sa première version, cette norme était vraiment très limitée et
pratiquement inutilisable pour le multimédia, mais elle a connu plusieurs
évolutions, liée à l'évolution des PC.

Mohamed Ali HADHRI 12


Département Technologies de l’Informatique Introduction au Multimédia

Voici la configuration minimum requise pour les versions de la norme :

4.1. MPC 1:
• PC à base de 386 SX à 16 MHz
• 2 Mo de mémoire, disque dur de 30 Mo
• lecteur 3"5 1.44 Ko, clavier 101 touches, souris 2 boutons
• carte vidéo VGA 640x480 256 couleurs ou 800x600 16 couleurs
• carte de sons 8 bits à 11/22 KHz
• port série 9 ou 25 broches (9600 Bauds)
• port parallèle 25 broches bidirectionnel
• port joystick, port MIDI (In, Out, Through)
• lecteur CD-ROM 150 Ko/s (simple vitesse) compatible ISO 9660
• logiciel système compatible "Microsoft Windows Multimedia
Extension"

4.2. MPC 2
Dès 1993, la norme MPC2 a été créée pour améliorer cette première
version insuffisante :
• PC à base de 486 SX à 25 MHz
• 4 Mo de mémoire, disque dur de 160 Mo
• lecteur 3"5 1.44 Ko, clavier 101 touches, souris 2 boutons
• carte vidéo VGA 640x480 256 couleurs ou 800x600 16 couleurs
• carte de sons 16 bits à 44 kHz
• port série 9 ou 25 broches (9600 Bauds)
• port parallèle 25 broches bidirectionnel
• port joystick, port MIDI
• lecteur CD-ROM 300 Ko/s (double vitesse) compatible ISO 9660 et
XA
• logiciel système compatible "Microsoft Windows MultiMedia
Extension"

4.3. MPC 3
Née en 1995 et demande

Mohamed Ali HADHRI 13


Département Technologies de l’Informatique Introduction au Multimédia

• processeur Pentium I à 75 MHZ


• 8 MO de mémoire vive
• Disque dur de 540 MO
• CD ROM 4x
• Carte son

4.4. MPC 4
La norme MPC 4 est contemporaine et exige :
• Un ordinateur puissant
• Sauvegarde de dizaines de GO de données
• Présence de lecteurs CD ROM ou de DVD
• Manipulation des images, son et vidéo
• Communiquer de diffuser d’importants volumes de données

Comme ces normes l’indiquent, le multimédia tourne surtout autour de


trois pôles : le son, la vidéo et le support.
Ces normes ont évolué, mais une norme, une fois édicté par le groupe
MPC est déjà dépassée par les standards de l’industrie. Cette norme va
surtout servir de plancher aux producteurs de contenu. Elles permettent de
fixer un plancher sur lequel ils peuvent bâtir un produit et assurer des
performances minimales.

5. COMPOSANTES DE BASE :
L’ordinateur est un équipement indispensable pour la manipulation des
données multimédia, il sert pour acquérir de l’information,la traiter, la stocker
et de la divulguer.
En plus de l’unité centrale, il existe des périphériques pour gérer

5.1. périphériques d’entrée


Leur rôle est de gérer les flux d’information vers l’ordinateur en captant de
l’information et de fournir les données et de transmettre les commandes de
l’utilisateur.

Mohamed Ali HADHRI 14


Département Technologies de l’Informatique Introduction au Multimédia

Exemple : clavier, souris, crayon optique, écran tactile,joystick


5.1.1. périphériques d’entrée spécifiques au son
 La carte son
Conversion analogique / numérique et conversion numérique /
analogique du son

Figure 1 : Carte son

 Le microphone
Convertit les vibrations sonores en signaux analogiques en vue
d’enregistrement

Figure 2 : Microphone

5.1.2. périphériques d’entrée spécifiques à l’image


 le scanner
Appareil qui permet d'analyser une image pour attribuer une valeur
numérique à chacun de ses points.
L'image est soumise au balayage d'un rayon lumineux ; un capteur
transforme la lumière réfléchie en un signal électrique qui est transféré à
un ordinateur, pour y être ensuite sauvegardé, traité ou analysé. L'appareil
prend souvent la forme d'une tablette sur laquelle le document doit être
posé, mais il existe aussi des numériseurs à main et des stylos numériseurs.

Figure 3 : Le Scanner

Mohamed Ali HADHRI 15


Département Technologies de l’Informatique Introduction au Multimédia

 l’appareil photo numérique


Un appareil photo numérique prend des photos électroniques par l'intermédiaire
de son capteur (CCD, CMD ou CMOS) et les stockent généralement sur un support
de stockage amovible (Memory Stick, MultiMedia Card, Mémoire flash, Secure
Digital, SmartMedia..) ce qui élimine la pellicule photo traditionnelle. C'est la
définition du capteur qui conditionne la qualité de l'image reproduite. En effet plus
la définition du capteur est importante et plus les points sur l'image reproduite sont
nombreux.

Les photos stockées dans les cartes mémoire peuvent être exploitées de différentes
façons :
La carte peut rester dans votre appareil photo et les photos sont transférées
vers l'ordinateur via un cordon.
La carte peut s'insérer directement dans votre imprimante photo sans passer
par votre PC.
La carte peut s'insérer dans un lecteur, boîtier externe, branché sur votre
ordinateur, qui permet d'accélérer le transfert des données.
La carte peut s'insérer dans une disquette adaptatrice que vous glissez ensuite
dans votre ordinateur.

 la caméra numérique
5.1.3. périphériques d’entrée spécifiques à la vidéo
 carte d’acquisition vidéo
Convertit les signaux vidéo analogiques en données numériques :
l’acquisition vidéo nécessite le décodage de la couleur puis la
conversion des signaux de luminance en signal numérique.

Figure 4 : Carte d’acquisition vidéo

 la Webcam
Caméra de qualité généralement assez faible, elle est
directement liée à l’ordinateur par un port USB ou FIREWIRE, elle est

Mohamed Ali HADHRI 16


Département Technologies de l’Informatique Introduction au Multimédia

directement reliée à l’ordinateur pour lui transmettre des images


fixes ou animés.
C’est un moyen de communication sur Internet

Figure 5 : Webcam

5.2. Périphériques de stockage


5.2.1. Les disques magnétiques
: Disque recouvert d'une couche magnétique où sont enregistrées les données.
Apparus en 1956 (IBM) de taille 5 Mo, aujourd’hui jusqu’à 2 Go.
5.2.2. Les disques optiques non réinscriptibles
Disque où sont enregistrées des données lisibles par un procédé optique.
Il peut sauvegarder plusieurs Go de données numériques
Ce sont des supports comparables aux disques magnétiques
Il existe 3 catégories de disques optiques numériques :
 Disques non réinscriptibles (WORM)
 Les disques optiques compacts (CD-ROM)
 Les disques magnéto-optiques réinscriptibles

Figure 6 :disque optique

5.2.3. Les disquettes magnéto-optiques


Apparus en 1990 «floptical» ou FMO
Leurs caractéristiques principales sont:

Mohamed Ali HADHRI 17


Département Technologies de l’Informatique Introduction au Multimédia

- 21 Mo (disquette spéciale 31/2 p) de mémoire


- 80 ms (200 ms pour lecteur de disquette magnétique !) de temps de
réponse.
- 1250 pistes/pouce (135 pistes/pouce sur une disquette HD)

5.2.4. Le vidéodisque :

L’ancêtre du CD-ROM, c’est le vidéodisque, apparu dans les laboratoires


de Philips au début des années 70 : l’enregistrement et la lecture des
données étaient effectués sans aucun contact avec le support, par
l’intermédiaire d’un faisceau laser

Le vidéodisque est aussi appelé CD-vidéo ou Laserdisc.


Le vidéodisque original permet l'enregistrement de la vidéo analogique et du
son analogique sur un support en plexiglas gravé de la même façon que les
CD audio. Le disque est lu à partir du centre et en allant vers l'extérieur.
Le disque fait 30 cm de diamètre. Sa durée de stockage dépend du format
de gravure du disque :

5.2.5. Le CD Audio :

Apparu en 1982 Le Compact Disc Digital audio (CDDA) est venu


révolutionner le monde des mélomanes. Inventé par Philips, consigné dans un
livre de standardisation (« Red Book ») en association avec Sony.

Lors de pressage usine des données, le laser creuse des minuscules trous
(microcuvettes) sur un disque en rotation. Les microcuvettes constituent une
piste unique en spirale

La capacité du CD Audio est de 650 Méga octets ce qui correspond à un


peu plus de 70 mn. de musique (en mode stéréo, codé à 44,1 Khz sur 16 bits).

Mohamed Ali HADHRI 18


Département Technologies de l’Informatique Introduction au Multimédia

Figure 7 : CD Audio

5.2.6. Le CD ROM :

Le standard CD-ROM fut établi en 1984 quand le standard du CD audio


fut modifié pour permettre l'accès de cette technologie aux PC.
Les bits sont stockés d'une façon permanente sur un CD sous la forme de
creux moulés physiquement dans la surface d'une couche en plastique
recouverte d'aluminium réfléchissant (ou d'or, ou d'argent). Les CD sont
extrêmement durables car aucun élément du lecteur optique ne touche
la surface du disque.

Avec une capacité de stockage de 700 Mo et un temps d'accès de


80 ms à 120 ms suivant la position des bits sur le disque et un taux de
transfert de 5 Mo/s font des CD-ROM des médias particulièrement bien
adaptés pour les grandes présentations multimédias et les logiciels.

Le CD se compose de trois couches superposées. La couche principale


qui est la plus épaisse est en polycarbonate, un plastique résistant et
transparent (1). Ce plastique laisse passer la lumière émise par le laser lors de
la lecture d'un CD. On trouve ensuite une couche métallique réfléchissante
(2) très souvent en aluminium qui va réfléchir la lumière émise par le laser.
Il y a par dessus tout ça une couche de vernis protecteur qui vient protéger le
métal de l'agression des Ultra Violets (3).
Par dessus le tout, on trouve la surface imprimée qui sert à habiller le disque
(4)

Mohamed Ali HADHRI 19


Département Technologies de l’Informatique Introduction au Multimédia

Figure 8 : CD ROM

Lors de la lecture d'un CD de ce type, le faisceau laser traverse la


couche de polycarbonate et rencontre ou non un creux.
Le faisceau est ensuite réfléchi par la couche métallique. Le passage d'un
creux à une bosse ou d'une bosse à un creux représente un 1 dans le
langage binaire. Le reste représente un 0.
La lumière du laser est alors fortement déviée (on dit qu'elle est
réfractée), de telle sorte que la dose de lumière renvoyée par la couche
réfléchissante est minime. Le lecteur comprend alors qu'il s'agit d'un 1.
La longueur du motif qui suit, qu'il soit bosse ou creux, donne la
longueur du nombre de 0 situés après.
La succession de 0 et de 1 permet ensuite de lire le contenu du disque.
A noter que contrairement aux disques durs, un CD n'a qu'une seule piste
organisée en spirale.

5.2.7. Le MiniDisc
Lancé par Sony en 1992
Amélioration du CD audio :
Permet l’enregistrement par l’utilisateur
Diminution de la taille du disque
Incompatibilité avec le CD audio :
Dimension : 6,4 cm
74 minutes de son numérique
Vitesse de 1,4 m/s
Algorithme de compression ATRAC

Mohamed Ali HADHRI 20


Département Technologies de l’Informatique Introduction au Multimédia

�Le stockage numérique informatique

Figure 9 : Mini disc

5.2.8. Le DVD
Le DVD-ROM (Digital Versatile Disc - Read Only Memory) est en fait un CD-
ROM dont la capacité est bien plus grande Capacité (de 4,7 Go à 17 Go)
Ceci est dû au fait que les alvéoles du DVD sont beaucoup plus petites (0,4µ
avec un espacement de 0.74µ contre 1.6µ et 1.83µ pour le CD-ROM).

Figure 10 : DVD

Les DVD existent en version "double couche", ces disques sont constitués
d'une couche transparente à base d'or et d'une couche réflexive à base
d'argent. Leur intérêt est que la capacité de ces DVD est bien supérieure à
celle des DVD simple couche.

Pour lire ces données, le laser du lecteur de DVD possède deux intensités :

* lorsque l'intensité est faible, le rayon se réfléchit sur la surface en or, c'est à
dire sur la première couche et ne la traverse pas.

* lorsqu'on augmente l'intensité du laser, le faisceau traverse la première


couche en or et se réfléchit sur la deuxième couche, qui est en argent.

Mohamed Ali HADHRI 21


Département Technologies de l’Informatique Introduction au Multimédia

Voici les normes les plus couramment utilisées :

 DVD -R : DVD réinscriptible une fois d'une capacité de 4.7 Go


 DVD +R : DVD réinscriptible une fois d'une capacité de 4.7 Go.
Il en existe des modèles dont la capacité est doublée grâce à une
deuxième couche. On les nomme la plupart du temps DL (Dual Layer).
 DVD -RW : pareil au DVD -R mais réinscriptible jusqu'à 1000 fois.
 DVD +RW : pareil au DVD +R mais réinscriptible jusqu'à 1000 fois.

5.2.9. Les HD DVD

HD DVD (High Density Digital Versatile Disc) traduit en français comme


disque numérique polyvalent de haute densité. Tout comme pour le CD et
le DVD, les données étaient stockées sous forme numérique, sur un disque
de 12 cm de diamètre. Le « HD » du nom fait également référence à la
Haute définition, les films stockés sur ces disques pouvant effectivement
être en HD.

Le HD DVD a une capacité par couche de 15 Go, soit un total de 30 Go


avec un HD DVD double couche. La couche de protection (qui protège
la couche de données) des disques HD DVD fait 0,6 mm d’épaisseur (la
même que celle du DVD). Cette technologie utilise une diode laser
fonctionnant à une longueur d’onde de 405 nm pour lire et écrire les
données.

5.2.10. Le disque Blu-Ray

Mohamed Ali HADHRI 22


Département Technologies de l’Informatique Introduction au Multimédia

Le disque Blu-ray ou Blu-ray Disc (abréviation officielle BD, autre


dénomination B-RD) est un format de disque numérique breveté et
commercialisé par l’industriel japonais Sony permettant de stocker et restituer
des vidéogrammes en Haute Définition. Sa dénomination provient du type de
rayon laser qu’il exploite, de couleur spectrale proche du bleu.

Son principal concurrent, le HD DVD lancé par Toshiba avec le soutien


de Microsoft a été officiellement abandonné en février 2008. Plus tard Toshiba
rejoindra officiellement le consortium Blu-ray et présentera lors de l'IFA 2009 sa
première platine Blu-ray, la BDX2000E.

Le Blu-ray exploite un rayon laser bleu-violet (longueur d’onde λ = 405 nm),


Par comparaison avec le laser Infrarouge (λ = 780 nm) utilisé pour le CD et le
laser rouge (λ =650/635 nm) utilisé pour le DVD, le Blu-ray permet de stocker
plus d’informations sur la même surface grâce à un rayon plus fin (diamètre
du spot laser : 290 nm) induisant des sillons de gravure plus petits et plus
rapprochés (écart : 320 nm) et des alvéoles plus courts (longueur minimale :
149 nm — 135 nm pour le modèle 27 Go actuellement abandonné).

5.2.11. Les cartes mémoire :


Développées par Intel en 1983
Première carte : Toshiba en 1985

Une carte mémoire est une unité de stockage de données numériques


utilisée le plus souvent pour le stockage des clichés numériques dans les
appareils photo numériques, pour la sauvegardes de parties sur consoles de
jeux vidéo, mais aussi dans des lecteurs de musique ou des appareil
électroniques professionnels te

Les capacités existantes aujourd'hui sont de 16 Mo jusqu’à 8 Go Bientôt vont


apparaître les cartes 10 et 12 Go

Mohamed Ali HADHRI 23


Département Technologies de l’Informatique Introduction au Multimédia

Figure 11 : Carte mémoire

5.3. Les périphériques de sortie


5.3.1. l’écran
Un moniteur est un périphérique de sortie usuel d'un ordinateur. C'est
l'écran où s'affichent les informations saisies ou demandées par l'utilisateur et
générées ou restituées par l'ordinateur, sous forme de texte et d'images en
deux dimensions avec éventuellement un effet à trois dimensions. Le texte et
les images peuvent être fixes ou animés.
Sur certains systèmes, l'écran peut aussi servir de périphérique d'entrée :
l'utilisateur peut choisir une action en touchant la partie correspondante de
l'écran, si le système le prévoit ; on parle alors d'écran tactile.

 L’écran a tube cathodique (CRT)


Un écran à tube cathodique est un tube sous vide où l'on place un
dispositif d'extraction et d'accélération d'électrons constitué d'un filament
chauffé, de cathodes et d'anodes soumises à une différence de tension
créant un champ électrique accélérant les électrons. Ces derniers viennent
frapper un des bords plats, l'écran, sur lequel on a déposé une couche
fluorescente couverte de petits éléments phosphorescents d'une couleur vert,
rouge ou bleue (appelés lumiphores) réagissant au choc des électrons.

Chaque lumiphore est ainsi un point lumineux que l'on appelle pixel. Il s'agit
du plus petit point pouvant être affiché par l'écran.
Le mélange des trois couleurs de base (rouge, vert, bleu) permet de
reconstituer toutes les couleurs visibles.

Mohamed Ali HADHRI 24


Département Technologies de l’Informatique Introduction au Multimédia

Figure 12 : écran CRT

 L’écran a cristaux liquides (LCD)


L’écran à cristaux liquides (affichage à cristaux liquides ACL ou LCD, liquid
crystal display, en anglais) est le principal composant des moniteurs plats aussi
appelés TFT pour Thin-film transi.

Il utilise la polarisation de la lumière grâce à des filtres polarisants et la


variation de l’orientation de certains cristaux liquides en fonction du champ
électrique. Du point de vue optique, l'écran à cristaux liquides est un dispositif passif
(il n'émet pas de lumière) dont la transparence varie :il doit donc être éclairé.

La technologie LCD est basée sur un écran composé de deux plaques


transparentes entre lesquelles est coincée une couche de liquide contenant des
molécules qui ont la propriété de s'orienter lorsqu'elles sont soumises à du courant
électrique et donc de permettre ou non le passage d'une couleur

Figure 13 : écran LD

 L’écran a PLASMA
Un écran à plasma est un écran plat dont la lumière est créée par du phosphore
excité par une décharge de plasma entre deux plaques de verre.

Les écrans Plasma fonctionnent à peu près de la même manière que les lumières
néon ou fluorescentes - ils utilisent l’électricité pour illuminer un gaz.

 Caractéristiques du moniteur

Mohamed Ali HADHRI 25


Département Technologies de l’Informatique Introduction au Multimédia

 La Définition : c'est le nombre de pixels que l'écran peut afficher, ce nombre de


points est généralement compris entre 640 points en longueur et 480 points en
largeur et 1600x1200.
 La Taille : Elle se calcule en mesurant la diagonale de l'écran et est exprimée en
pouces. Un pouce vaut 2.54 cm.
 Le Pas de Masque : C'est la distance qui sépare deux lumiphores. Plus celle-ci est
petite plus l'image est nette. Évitez donc les écrans dotés d'un pas de masque de
0.28 ou plus.
 Le Temps de Réponse (ou Temps de Rémanence) : Utilisé uniquement pour les
écrans plats, il s'agit du temps que met un pixel noir pour passer à l'état blanc ou
inversement

Mohamed Ali HADHRI 26


Département Technologies de l’Informatique Introduction au Multimédia

L’image

Enoncé de l’objectif général


Décrire les principales caractéristiques de l’image

Objectifs spécifiques Elément de contenu Moyens Méthodologie

Ce cours vise à :

 Présenter les
caractéristiques de
reconnaître les - Tableau et Formative
l’image (couleur,
différents types résolution, taille…) support de
d’image,  Différentier Image cours
vectorielle et
matricielle
 Les modes
colorimétriques

distinguer les formats  Définir les formats gif,


de l’image et jpeg, png,TIFF
- Tableau et Formative
reconnaître l’usage  Comparer les formats
d’image support de
 Expliquer l’ulilité cours

Comprendre le  Citer les différents


principe de types de compression
- Tableau et Formative
compression de  Expliquer l’utilité
l’image support de
cours

Mohamed Ali HADHRI 27


Département Technologies de l’Informatique Introduction au Multimédia

L’image
L’image est une perception visuelle d’un objet donné par une surface
réfléchissante de lumière et de couleurs.
Grâce à la cornée (l'enveloppe translucide de l'œil) et de l'iris (qui en se
fermant permet de doser la quantité de lumière), une image se forme sur la
rétine. Celle-ci est composée de petits bâtonnets et des cônes .
Les bâtonnets permettent de percevoir la luminosité et le mouvement,
tandis que les cônes permettent de différencier les couleurs. Il existe en réalité
trois sortes de cônes : Une sorte pour le Rouge, Une sorte pour le Vert et Une
sorte pour le Bleu .
La couleur est provoquée par la lumière que captent nos yeux, mais elle naît -
et ne naît que- dans notre cerveau : La couleur est une perception du
cerveau.

1. NOTION DE COULEUR :
La couleur de la lumière est caractérisée par sa longueur d'onde. On
caractérise généralement la longueur d'onde d'un phénomène oscillatoire
par la relation: λ=(1/C*T).
avec: λ: longueur d'onde, C:désigne la célérité de l'onde ,T :désigne la
période de l'onde (en secondes).
L'œil humain est capable de voir des lumières dont la longueur d'onde est
comprise entre 400 et 700 nanomètres. En dessous de 400 nm se trouvent des
rayonnements tels que les ultraviolets, au-dessus de 700 on trouve les rayons
infrarouges .

La couleur est caractérisée par une teinte, Saturation et Luminosité ou (T S L)


-La teinte est un attribut qui décrit immédiatement une couleur pure, comme
le rouge pur, le bleu pure, etc. La teinte définit la couleur elle-même.
-La saturation est un attribut qui décrit l'altération d'une couleur pure avec le
blanc
ou un niveau de gris. Elle mesure la proportion de couleur pure par rapport au

Mohamed Ali HADHRI 28


Département Technologies de l’Informatique Introduction au Multimédia

blanc. Elle représente le facteur de pureté de la couleur. Cette notion permet


de distinguer le rose du rouge.
-La luminosité (intensité, nuance) est un attribut qui qualifie la luminosité d'une
couleur. La luminosité détermine l'intensité lumineuse émise par la couleur
(couleur claire ou foncée
La couleur blanche est composée des couleurs du spectre. La couleur d'un
objet correspond à la longueur d'onde que cet objet réfléchit ou transmet;
car les autres rayons de la lumière blanche sont absorbés.

2. NOTIONS IMPORTANTES.
2.1. Taille d'une image
La taille d'une image est définie par le nombre de pixels qui la composent
verticalement et horizontalement. Ex: une image de 550x300 pixels (un pixel
est le plus petit élément qui compose une image)
C'est une manière absolue de chiffrer la taille de l'image. A ne pas confondre
avec la place qu'occupe l'image sur l'écran! La place que prend l'image sur
l'écran dépend de la résolution du moniteur
ex: une image de 750x550 affichée à 100% occupera une bonne partie de
l'écran si la résolution du moniteur est de 800x600; elle occupe une place
beaucoup plus petite pour un affichage de 1024x768; elle n'apparaît pas
dans sa totalité pour un affichage de 640x480.

2.2. Résolution d’une image


Ce terme répond à deux définitions :
1/ Résolution = capacité de définition du moniteur
On peut choisir entre plusieurs résolutions d'affichage du moniteur. ex,
sous Windows: 640x480, 800x600, 1024x768.
si la taille de l'image dépasse la résolution du moniteur, cette image ne
peut pas être affichée à 100% sur l'écran
2/ Résolution = nombre de pixels par pouce

Mohamed Ali HADHRI 29


Département Technologies de l’Informatique Introduction au Multimédia

On utilise l'unité "ppp" = "pixel par pouce" Ou en anglais "dpi" = "dots per
inch"
A savoir qu'un pouce est à peu près égal à 2,5 cm.
Cette notion est utile lorsqu'on passe d'un support physique à un support
numérique (ex: une image scannée), ou inversement (quand on scanne une
image)
- Si on veut scanner une image de 1 pouce sur 1 pouce (soit 2,5 cm sur 2,5
cm): si on scanne avec une résolution de 150 ppp, on obtient une image de
150x150; avec une résolution de 300 ppp, l'image sera de 300x300.
- On a une image de 300x300 que l'on veut imprimer. Si lors de l'impression on
a une résolution de 300 ppp, l'image obtenue sur papier sera de 1 pouce sur
1 pouce; une résolution de 150 ppp donnera une image de 2 pouces sur 2
pouces.
Exercice 1:
On a une image de 10 cm sur 5 cm que l'on scanne avec une
résolution de 300 dpi. Quelle sera alors la taille de l'image?
Réponse 1: 1200x600

Exercice 2:
On a une image de 600x600 que l'on veut imprimer. On veut que
l'image imprimée soit de 10 cm sur 10 cm. Comment doit-on choisir la
résolution lors de l'impression?
Réponse 2: 150 ppp

Figure 14 : Résolution d’une image

Mohamed Ali HADHRI 30


Département Technologies de l’Informatique Introduction au Multimédia

3. LES DIFFERENTS MODES COLORIMETRIQUES.


Une image n’est pas seulement définie par sa taille, elle est aussi définie
par son mode. On entend par mode un type particulier d'organisation des
couleurs de l'image. Les modes les plus courants sont: bitmap, niveaux de gris,
couleurs indexées, RVB et CMJN.

3.1. Mode RVB


C'est le mode le plus couramment utilisé. Il est idéal pour l'affichage sur
l'écran.
Une image RVB est composée de trois couches de couleurs: rouge, verte et
bleue. En fait chaque pixel d'une image RVB est un mélange de ces trois
couches dans des proportions différentes: une certaine quantité de rouge, de
bleu ou de vert (de 0 à 255).
La combinaison de ces trois couches permet, par synthèse additive,
d'obtenir toutes les autres couleurs.
le mode RVB est utilisé dans les cas suivants:
- lorsque l'image est destinée à un affichage sur écran, pour le Web par
exemple;
- pour une impression sur imprimante personnelle, si celle-ci est conçue pour
afficher des images RVB (ce qui est le cas de beaucoup d'imprimantes, mais
vérifier tout de même);
Correspondance:

Rouge Vert bleu Couleur Obtenu

000 000 000 Noir

255 255 255 Blanc

255 000 000 rouge claire

128 000 000 rouge foncé

255 255 000 jaune claire

128 128 000 jaune foncé

Mohamed Ali HADHRI 31


Département Technologies de l’Informatique Introduction au Multimédia

3.2. Mode CMJN


CMJN signifie Cyan, Magenta, Jaune et Noir. C'est le mode utilisé pour
une impression en quadrichromie (impression obtenue par mélange d'encre
de ces quatre couleurs). Donc il sera exclusivement employé pour une image
destinée à être imprimée selon ce mode.
Il faut savoir que le spectre de couleurs des images CMJN est moins
important que celui des images RVB. Lorsqu'on convertit une image RVB en
image CMJN, les couleurs non imprimables sont converties en couleurs
imprimables. Il ne faut pas convertir à la légère une image RVB en mode
CMJN, l'image en serait altérée.

3.3. Couleurs indexées


Les modes RVB et CMJN permettent de disposer de 16 millions de couleurs,
le mode Couleurs indexées n'en permet que 256. Dans ce mode est créée
une table (ou index) de 256 couleurs au maximum. Cette table répertorie
toutes les couleurs possibles de l'image. Puis on attribue à chaque pixel une
valeur de 1 à 256, correspondant à l'une des couleurs de la table.

3.4. Mode Lab


Le mode Lab est très particulier:
- Ce mode permet d'obtenir des couleurs identiques quel que soit le support
(moniteur, imprimante personnelle ou offset), c'est-à-dire que la gamme de
couleurs qu'il permet est plus étendue que celle des modes RVB et CMJN.
Bien entendu, puisque l’écran fonctionne en mode RVB, on ne peut pas
afficher l’ensemble des couleurs données par le mode Lab.
- Une image Lab est composée de trois couches : la couche de luminance L
correspond aux niveaux de lumière de l’image ; les deux couches de
chrominance a et b définissent les couleurs de l’image mais ne
correspondent pas à une perception naturelle des couleurs.
Le mode Lab est cependant peu usité dans la pratique. Il est utilisé comme
intermédiaire par Photoshop lors de la conversion d’un mode à un autre.

Mohamed Ali HADHRI 32


Département Technologies de l’Informatique Introduction au Multimédia

3.5. Mode Niveaux de gris


Dans ce mode il n’y a que 256 nuances de gris, allant du noir au blanc. On
convertit une image en Niveaux de gris lorsque l’on traite une image en Noir
et Blanc ou que l’image est destinée à être imprimée en noir et blanc. Ainsi
on économise de la mémoire.

3.6. Mode Bitmap


C’est le mode le plus simple : un pixel est soit allumé (dans ce cas il est
blanc), soit éteint (il est noir). Les images Bitmap ne sont donc pas
particulièrement nuancées.

4. LA REPRESENTATION ET LE CODAGE DES COULEURS


4.1. Synthèse additive
Toutes les couleurs peuvent être produites à partir de trois couleurs
primaires en faisant varier l’intensité de chacune de ces couleurs. La synthèse
additive consiste à reproduire les couleurs à partir de trois sources lumineuses.
Les couleurs primaires sont dans ce cas le rouge, le vert et le bleu (RVB ou
RGB en anglais)

Figure 15 : synthèse additive

4.2. Synthèse soustractive


Avec la méthode de la synthèse soustractive, les couleurs sont générées à
partir d’une seule source lumineuse blanche devant laquelle on superpose
trois filtres colorés. Les couleurs primaires sont alors le cyan, le magenta et le
jaune (CMJ ou CMY)

Mohamed Ali HADHRI 33


Département Technologies de l’Informatique Introduction au Multimédia

.
Figure 16 : Synthèse soustractive

5. DESCRIPTION D’IMAGE
Deux principes sont applicables pour décrire une image :
1) le premier considère l'image comme un rectangle constitué de points
élémentaires de couleur uniforme, les pixels. Décrire l'image revient alors à
préciser la couleur de chaque point. Le fichier graphique sera une liste de
nombres binaires, correspondants à ces couleurs, précédée par un en-tête
(header) décrivant la méthode utilisée. On peut en effet imaginer plusieurs
façons de décompter les points. Ce principe est celui des images dites
numériques ou bitmap

2) le deuxième considère l'image comme un ensemble de figures


élémentaires pouvant être décrites par des données mathématiques
(coordonnées de points, tangentes en un point d'une courbe, etc.). Le fichier
décrit ces différentes figures, véritables "objets" graphiques indépendants les
uns des autres. Ce principe est celui des images dites vectorielles image
bitmap doit être considérée comme un ensemble de petits carrés-unités de
couleur uniforme, les pixels. Une image plein écran en résolution "VGA"
(résolution courante pour les écrans standards) est c

5.1. Le dessin Bitmap


Le dessin bitmap porte ce nom car il s'agit simplement de travailler avec
des pixels. Le pixel un point qui peut avoir une valeur de couleur et de
transparence .Les images qui sont très souvent utilisées sur Internet sont
composées d'un nuage de pixels ("picture element", il en va de même pour
les images numérisées et les photos numériques.

Mohamed Ali HADHRI 34


Département Technologies de l’Informatique Introduction au Multimédia

Figure 17 : Présentation d’un pixel

Le logiciel de dessin bitmap va permettre de sélectionner ces pixels pour


ensuite les manipuler, changer leur couleur, etc. Ce type d'image et de
logiciel convient parfaitement pour la retouche photographique,
Une image matricielle est composée d’une grille de points) où chaque
pixel possède une position et une couleur. Ex: 640*480
L'ensemble des points figure un dessin (ex: une photo, une carte…) sous
forme d'un rectangle.

Un dessin bitmap est tracé en "escalier" donc le Zoom délicat voire même
impossible, composé d’une seule couche visible et la modification très
délicate

POUR : CONTRE :
autorise la qualité Les fichiers sont encombrants.
photographique. Leur agrandissement provoque un effet de
mosaïque (les pixels agrandis deviennent des carrés
visibles).
La création d'une image "à la souris" est difficile.
Usage conseillé d'un périphérique de numérisation :
scanner, digitaliseur, appareil photonumérique...
Les retouches sont délicates : effacer un élément
de l'image crée un "trou".

Mohamed Ali HADHRI 35


Département Technologies de l’Informatique Introduction au Multimédia

5.2. Les images Vectorielles :


Les formats vectoriels décrivent l'image en une série d'objets ou formes
géométriques (lignes, ellipses, polygones, etc.) dont les propriétés permettent
de recréer l'image à partir d'instructions précisées.
3 types de données graphiques
 points isolés  objets ponctuels
 lignes isolées  objets linéaires
 surfaces isolées  objets surfaciques

L'information contenue dans le fichier d'un format vectoriel est


composée par des commandes qui permettent de dessiner les formes
particulières qui constituent l’image : appelées vecteurs ou couples de points
associés.
L'information décrira, par exemple, la position, l'épaisseur et la couleur d'une
ligne à tracer.

Le codage d'une ligne contient...


 un point de départ,
 un point d'arrivée,
 l'épaisseur,
 un motif,
 une couleur.

Ce chiffre est ici codé à l'aide des couples de points


(A,B) ; (B,C) ; (C,D) ; (D,E) ; (E,F) ; (F,A)

Donc dans une image en format vectoriel, chaque forme est définie
par une équation mathématique.
Les fichiers image en mode point sont faits d'une mosaïque d'éléments
d'image appelés pixels. Chaque pixel contient les informations concernant la

Mohamed Ali HADHRI 36


Département Technologies de l’Informatique Introduction au Multimédia

couleur d'un point de l'image en particulier. La combinaison de tous les pixels


forme l'image.

Les fichiers image en mode point sont habituellement très lourds à


cause de la quantité d'information que contient chaque pixel et du grand
nombre de pixels nécessaires pour obtenir une image de qualité. Pour ces
raisons, un format vectoriel est souvent à privilégier par rapport à un format
image en mode point, sauf lorsque le type d'information ne s'y prête pas.

Caractéristiques :
 Se caractérise par son aspect "VIRTUEL", l’image est (re)calculée à
chaque affichage. Possibilité de transformer les fichiers en mode
bitmap.
 Nécessité d’un PC puissant pour les images complexes.
 Pire que pour le Bitmap : presque chaque logiciel propose son format.
Les formules mathématiques utilisées variant considérablement, il est
presque impossible de récupérer et de convertir une image vectorielle
provenant d'un autre programme. Encore plus que les Bitmap, les
formats vectoriels évoluent et il n'est pas toujours facile de lire un fichier
avec une extension théoriquement reconnue...
 Ce type de format permet d'éditer les différents objets d'une image
indépendamment : les images peuvent être modifiées sans perte de
résolution et la taille des fichiers est relativement petite.
 Ces équations mathématiques font en sorte qu'une illustration
vectorielle peut être redimensionnée sans pour autant subir une
altération. Donc contrairement aux images bitmap, il n'y a pas d'effet
de pixellisation lors de l'agrandissement d'un dessin vectoriel, qui peut
être affiché ou imprimé à n'importe qu'elle résolution.
 Une illustration vectorielle n'est pas tributaire de la résolution du
périphérique de sortie. Seuls les dégradés de couleurs et les couleurs
contenus dans l'illustration peuvent être sensibles à la résolution du
périphérique.

Mohamed Ali HADHRI 37


Département Technologies de l’Informatique Introduction au Multimédia

POUR : CONTRE :
Les fichiers sont petits. Inutilisables pour des images
Les images sont redimensionnables sans perte complexes, des
de qualité, les courbes sont lissées quelque soit photographies.
l'échelle d'affichage. Non reconnues par les
Les retouches sont aisées puisque les différents navigateurs Internet et par
éléments de l'image sont indépendants. certains logiciels multimédia.

image vectorielle image bitmap

Figure 18 : image vectorielle et image bitmap

6. FORMAT D'IMAGES
Un format d'image comprend en général un en-tête qui contient des
données sur l'image (taille de l'image en pixels par exemple) suivie des
données de l'image. La structuration des données est différente pour chaque
format d'image.

6.1. JPEG (Joint Photo Expert Group)


JPEG est une norme reconnue par l'ISO. Elle définit le codage des images
numériques dans le format JFIF, JPEG File Interchange Format, qui utilise une
méthode de compression destructrice. L'extension des images au format JFIF
est .jpg ou .jpeg.
Ce format est libre de droits. Ce format permet une représentation en vraies
couleurs (16 millions).
Compression
La compression utilisée est une compression avec perte.

Mohamed Ali HADHRI 38


Département Technologies de l’Informatique Introduction au Multimédia

L'utilisateur peut faire varier le taux de compression de 1% (qualité la


meilleure) à 99% (qualité la moins bonne).
Exemple:
Une compression de 10% ne signifie pas une perte de 10% des
informations (la perte n'est pas linéaire, et dépend des données de chaque
image). Cela signifie que selon le logiciel utilisé, les taux de compression sont
très difficilement comparables.

Chaque fois qu'une image JPEG est enregistrée, il y a perte car il y a


compression. Il n'est également pas possible d'utiliser le format JPEG sans
perte de données (même avec le taux de compression le plus faible). Cela
signifie qu'il est toujours préférable d'avoir une copie des images JPEG dans
un format sans perte (TIFF par exemple), car une erreur irrécupérable est très
(trop!) vite arrivée.

Tout d'abord, l'image qui doit être compressée est divisée en matrices de 8
pixels sur 8 soit de 64 pixels chacune, qui sont traitées individuellement.

Le JPEG exploite les limitations de la perception visuelle humaine pour


compresser les images. En effet, il s'avère qu'en fonction de la luminosité, l'oeil
humain perçoit mieux certaines couleurs que d'autres.

C'est pourquoi, une des premières étapes de la compression JPEG est la


transformation des trois composants colorimétriques de l'image en un
coefficient de luminance et deux coefficients pour exprimer les couleurs.
L'image est ainsi exprimée par 3 fonctions :

 Luminance = 0,29 * rouge + 0,59 * vert + 0,12 * bleu


 Différence de rouge = rouge - luminance
 Différence de bleu = bleu - luminance

Ensuite, tous les octets signifiant la luminance sont conservés tandis que seul 1
octet pour la différence de rouge et 1 octet pour la différence de bleu sont
conservés par sous-matrice de 4 * 4 pixels. A ce stade-ci de la compression, la

Mohamed Ali HADHRI 39


Département Technologies de l’Informatique Introduction au Multimédia

taille de l'image a déjà été réduite de moitié. En effet, 64 pixels * 3 octets =


192 octets de l'image originale sont réduits à 64 pixels * 1 octet + 16 pixels * 1
octet + 16 pixels * 1 octet = 96 octets.

Ensuite, le JPEG procède à une transformation en cosinus discrète des pixels


de l'image ou un pixel correspond à une et une seule fréquence. La
transformée est appliquée à chacune des fonctions exprimées plus haut.
Cette opération produit une nouvelle matrice qui, lorsqu'elle est parcourue
en diagonale depuis le coin supérieur gauche jusqu'au coin inférieur droit,
alignent les fréquences obtenues par la transformation des plus basses au
plus hautes. Pour la majorité des images, les fréquences hautes sont moins
nombreuses que les fréquences basses car les fréquences hautes signifient
que les pixels de l'image sont très différents les uns des autres, un phénomène
rare dans une image. Ensuite vient l'étape de la quantification où les
fréquences les plus hautes sont éliminées en fonction d'un taux de
compression donné.

Enfin, le JPEG utilise les méthodes de Huffman et du RLE pour coder les octets
résultant de l'opération de compression destructrice.

Transparence
Ce format ne supporte pas la transparence. La raison en est que pour qu'une
transparence existe, il faut "indiquer" dans le fichier que les pixels de telle ou
telle couleur ne seront pas affichés à l'écran lors de la lecture des données de
l'image. Le problème est que lorsque la compression s'effectue avec perte, à
la décompression un pixel peut très bien ne pas avoir la même couleur, ce
qui signifie que l'effet de la transparence pourrait changer après
compression, chose qui n'est pas acceptable.
Entrelaçage
Ce format supporte l'entrelaçage. La visualisation de l'image s'effectue
d'abord à très faible qualité (faible encombrement) puis la qualité augmente
au fur et à mesure des passages jusqu'à atteindre la qualité finale de l'image.

Mohamed Ali HADHRI 40


Département Technologies de l’Informatique Introduction au Multimédia

Animation
Ce format ne supporte pas les animations.
Usages
Représentation de prédilection: les images "naturelles" avec des grands
dégradés de couleurs (transition douce de couleurs).
Internet

6.2. JPEG 2000

La norme JPEG 2000 définit le codage des images numériques et est destinée
à supplanter la norme JPEG. L'extension des images au format JPEG 2000 est
.jp2.

L'originalité du JPEG 2000 est qu'il permet de compresser les images avec ou
sans perte(s) d'informations. La norme ne décrit cependant que la méthode
de décompression qui doit être utilisée pour les images de ce format.

Compression

La compression JPEG 2000 peut débuter par la transformation des trois


composants colorimétriques de l'image en un coefficient de luminance et
deux coefficients pour exprimer la couleur. Contrairement au JPEG, cette
première étape de compression n'est pas obligatoire. De plus, elle peut
s'effectuer avec ou sans perte(s) des données. Dans ce dernier cas, tous les
octets sont conservés.

Contrairement au JPEG, le JPEG 2000 utilise une transformation par ondelettes


des pixels de l'image. Il s'agit d'une transformation des pixels de l'image en
fréquences où chaque pixel correspond à une et une seule fréquence. Cette
opération produit plusieurs sous-images par divisions successives de l'image
source. Ces sous-images rassemblent chacune un intervalle de
fréquences. Pour la majorité des images, les fréquences hautes sont moins
nombreuses que les fréquences basses car les fréquences hautes signifient

Mohamed Ali HADHRI 41


Département Technologies de l’Informatique Introduction au Multimédia

que les pixels de l'image sont très différents les uns des autres, un phénomène
rare dans une image. Ensuite vient l'étape de quantification où se produit la
destruction des fréquences les plus hautes sont éliminées en fonction d'un
taux de compression donné. Néanmoins, si la compression est non
destructrice, l'étape de quantification n'est pas effectuée.

Enfin, le JPEG 2000 effectue un codage arithmétique adaptatif des


octets résultant de l'opération de compression.

Avantages et inconvénient du JPEG 2000 :

Le JPEG 2000 est la meilleure méthode de compression des images qui existe
à ce jour. Pour un même taux de compression, la quantité d'information
pertinente préservée est supérieure à celle permise avec le JPEG. Elle permet
également d'appliquer des taux de compression différents sur une même
image. Certaines parties de l'image peuvent ainsi être plus ou moins
compressées en fonction de leur niveau de détail respectif. Cependant, un
inconvénient majeur du JPEG 2000 est l'apparition de zones floues sur l'image
compressée à un taux trop élevé.

6.3. PNG (Portable Network Graphics)

Le PNG est un format d'images numériques libre de droits, normalisé par l'ISO,
qui utilise la compression sans perte. L'extension des images PNG est .png.

Avant l'étape de compression, des filtres sont appliqués à chaque ligne de


l'image. Ces filtres servent à modifier les octets de l'image pour optimiser sa
compression. Il existe cinq types principaux de filtres. Chaque ligne de l'image
peut se voir associé à un de ces types de filtres. A l'étape de compression, les
octets qui composent chaque ligne de l'image sont précédés d'un octet qui
indique le type de filtre utilisé. Ensuite, les images sont compactées par
l'algorithme deflate qui est une combinaison du LZ77 et du codage de
Huffman.

Mohamed Ali HADHRI 42


Département Technologies de l’Informatique Introduction au Multimédia

Pour une qualité d'image semblable, les images PNG ont une taille beaucoup
plus petite comparée à celle des images au format GIF. Mais, dès que le
codage des images PNG s'effectue sur plus de 8 bits, ce format est supplanté
par le JPEG et le JPEG 2000. Néanmoins, les images PNG peuvent être
codées jusqu'à 48 bits ce qui rend leur palette très riche en nuances.

Compression
La compression est sans perte et réputée pour son efficacité...
Transparence
La transparence est supportée avec la possibilité d'utiliser des masques (fusion
de 2 images)
Entrelaçage
L'affichage interlacé est possible.
Animation
Le format PNG ne supporte pas les animations. Il existe cependant son
équivalent qui supporte les animations: le format MNG. Sa définition étant très
récente, son principal inconvénient est d'être inconnu de la plupart des
logiciels...
Usages
Tous usages et internet.

6.4. GIF (Graphics Interchange Format)


Ce format est sous brevet Unisys. Il s'agit donc d'un format "propriétaire créé à la
fin des années 80 dans le but d'optimiser la transmission des images sur
Internet. C'est un format propriétaire. L'extension des images GIF est .gif.

Le GIF utilise la méthode de compression non destructrice du LZW. Les


couleurs de l'image sont indexées dans une palette (le dictionnaire). Chaque
pixel de l'image GIF référence l'indice de sa couleur dans la palette. Les
images GIF sont codées sur maximum 8 bits. Par conséquent, la palette sera
composée de 256 couleurs différentes au plus.

Mohamed Ali HADHRI 43


Département Technologies de l’Informatique Introduction au Multimédia

Nombre de couleurs supportées


Ce format supporte 256 couleurs avec palette.

Compression
L'algorithme de compression permet une compression sans perte mais dont
l'efficacité dépend de plusieurs facteurs:
- de l' existence de zones "homogènes". Une image avec des zones très
homogènes permettra une compression importante alors qu'une image avec
des zones hétérogènes permettra une compression beaucoup moins
importante.
- de l'orientation de l'image:
Exemple de la même image dont l'orientation varie:

1385 octets 3956 octets


Figure 19 : changement de taille d’une image lors de son orientation

Ceci est simplement dû au fait que la lecture des données de l'image se fait
en commençant par le pixel en haut et à gauche et se fait en ligne.
Pour l'image de gauche, la couleur des pixels de la première ligne est
homogène (donc facile à compresser) , alors que pour celle de droite, la
couleur des pixels de la première ligne varie grandement (plus difficile à
compresser).

Mohamed Ali HADHRI 44


Département Technologies de l’Informatique Introduction au Multimédia

Transparence
La transparence est possible.
Entrelaçage
L'entrelaçage fait que les images ont en général un poids en octets plus
important que celles dont les données ne sont pas entrelacées (différence
qui peut parfois s'avérer relativement importante).
Animation
Les animations sont supportées par ce format (attention à l'entrelaçage).
Usages
Format d'images typiquement à utiliser pour les logos, ou tout ce qui contient
peu de nuances de couleurs et avec des transition de couleurs brusques.
Internet

6.5. TIFF: (Tag Image File Format)

Format de compression de type RVB ce format est de moins en moins utilisé


sur le WEB.

L'avantage de ce format est de supporter tous les modes de compression


standards.Mais l’implémentation de ce format reste assez lourde, à cause,
justement, de tous les Tags nécessaires au codage de l'image.

Nombre de couleurs supportées


16 millions.
Compression
Ce format d'images peut être avec ou sans compression. De plus, il existe
différents modes de compressions (sans perte) possibles que l'on peut choisir
(ou pas) lors de l'enregistrement du fichier. Toutes ces possibilités expliquent la
multitude des formats TIFF que l'on peut rencontrer et qui est à l'origine de
problèmes de compatibilités entre logiciels.
Transparence
Ce format ne supporte pas la transparence.

Mohamed Ali HADHRI 45


Département Technologies de l’Informatique Introduction au Multimédia

Entrelaçage
Ce format ne supporte pas l'entrelaçage.
Animation
Ce format ne supporte pas les animations.
Usage
Tous usages (sauf internet).
Format non utilisé sur internet car trop volumineux.

6.6. Tableau récapitulatif


Bitmap/ Compression Nombre de Affichage Animations Transparence
vectoriel des données couleurs progressif

JPEG Bitmap Oui, réglable 16 millions Oui Non Non


(avec perte)
GIF Bitmap Oui (sans 256 (palette) Oui Oui Oui
perte)
PNG Bitmap Oui (sans de 256 à 16 Oui Non Oui (couche
perte) millions alpha)
TIFF Bitmap Oui (sans 16 millions Non Non Non
perte) ou non

7. COMPRESSION DE DONNEES
La compression consiste à réduire la taille physique de blocs d'informations. Un
compresseur utilise un algorithme qui sert à optimiser les données en utilisant des
considérations propres au type de données à compresser; un décompresseur est
donc nécessaire pour reconstruire les données originelles grâce à l'algorithme
inverse de celui utilisé pour la compression.
La méthode de compression dépend intrinsèquement du type de données à
compresser : on ne compressera pas de la même façon une image qu'un
fichier audio...
7.1. Caractérisation de la compression
La compression peut se définir par le quotient de compression, c'est-à-dire le
quotient du nombre de bits dans l'image compressée par le nombre de bits
dans l'image originale.
Le taux de compression, souvent utilisé, est l'inverse du quotient de
compression, il est habituellement exprimé en pourcentage.

Mohamed Ali HADHRI 46


Département Technologies de l’Informatique Introduction au Multimédia

Enfin le gain de compression, également exprimé en pourcentage, est le


complément à 1 du taux de compression :

7.2. Types de compressions et de méthodes


7.2.1. Compression physique et logique
La compression physique agit directement sur les données; il s'agit ainsi de
regarder les données redondantes d'un train de bits à un autre.
La compression logique par contre est effectuée par un raisonnement
logique en substituant une information par une information équivalente.
7.2.2. Compression symétrique et asymétrique
Dans le cas de la compression symétrique, la même méthode est
utilisée pour compresser et décompresser l'information, il faut donc la même
quantité de travail pour chacune de ces opérations. C'est ce type de
compression qui est généralement utilisée dans les transmissions de données.
La compression asymétrique demande plus de travail pour l'une des
deux opérations, on recherche souvent des algorithmes pour lesquels la
compression est plus lente que la décompression. Des algorithmes plus
rapides en compression qu'en décompression peuvent être nécessaires
lorsque l'on archive des données auxquelles on n'accède peu souvent (pour
des raisons de sécurité par exemple), car cela crée des fichiers compacts.

7.2.3. Compression avec pertes


La compression avec pertes se permet d'éliminer quelques informations pour
avoir le meilleur taux de compression possible, tout en gardant un résultat qui
soit le plus proche possible des données originales. C'est le cas par exemple
de certaines compressions d'images ou de sons, telles que le MP3
En revanche, les données multimédias (audio, vidéo) peuvent tolérer un
certain niveau de dégradation sans que les capteurs sensoriels (oeil, tympan,
etc.) ne discernent une dégradation significative.

La compression avec pertes est aussi appelée communément


compression destructrice. La compression avec pertes utilise des algorithmes

Mohamed Ali HADHRI 47


Département Technologies de l’Informatique Introduction au Multimédia

qui compressent les données en les dégradant. Autrement dit, après la


décompression des données, celles-ci sont moins nombreuses que celles
utilisées pour la compression. Pour éviter que ces dégradations soient perçues
par les utilisateurs, les concepteurs d'algorithmes pour la compression
destructrice se basent sur les limites de perception au niveau de l'ouïe et de
la vue chez l'être humain.

Les algorithmes de compression destructrice sont utilisés pour


compresser des données graphiques, audio et vidéo. Ils ne pourraient être
appliqués sur des données textuelles ou sur celles d'un programme au risque
de les rendre illisibles ou inexécutables.

Voici trois méthodes utilisées pour la compression avec pertes :

 La transformée en cosinus discrète

La transformée en cosinus discrète est une fonction mathématique


complexe dont il existe plusieurs variantes. Elle est utilisée pour la
compression destructrice des données, notamment pour les sons aux
formats Vorbis, WMA et MP3 et pour les images et les vidéos suivant les
normes JPEG et MPEG.

Lors de l'opération de compression des données dans ces différents


formats, l'algorithme transforme les pixels de l'image ou les échantillons
de la séquence audio en fréquences. Les fréquences qui ne
correspondent pas à des données pertinentes pour l'oeil ou l'oreille
humaine sont éliminées par l'algorithme.

 La compression par ondelettes

La compression par ondelettes, aussi appelée DWT (Discrete Wavelet


Transform) est une méthode basée sur la théorie mathématique de
l’analyse du signal : les ondelettes sont un ensemble de signaux
élémentaires à partir desquels on peut reconstruire un signal complexe.
La compression par ondelettes consistera donc à décomposer l’image

Mohamed Ali HADHRI 48


Département Technologies de l’Informatique Introduction au Multimédia

perçue comme un signal en un ensemble d’images de plus petite


résolution. Ce procédé, qui repose sur la différence entre zones de
contrastes forts et zones de contrastes faibles, se développe en trois
phases :

Tout d’abord, on procède à une transformation de l’image en


ondelettes selon un schéma à plusieurs niveaux, processus relativement
complexe qui est détaillé ci-dessous.

Ensuite, on réalise une quantification des informations. Lors de cette


phase, les détails qui se situent au-dessous d’un certain seuil sont
purement et simplement éliminés. C’est donc à ce niveau que se
produit la perte d’informations.

Enfin, on termine en codant les informations.

La décompression des images s’opère par le schéma inverse : les


informations sont tout d’abord décodées pour fournir un ensemble à
plusieurs niveaux d’ondelettes qui permet la reconstitution progressive
de l’image.

L’opération de transformation de l’image initiale en ondelettes


demande quant à elle quelques explications. Son fonctionnement
repose sur une série de cycles successifs à deux temps (voir schéma ci-
dessous). Dans un premier temps, on moyenne les pixels de l’image
d’origine deux à deux en suivant l’axe horizontal. On obtient ainsi une
image A, sous-échantillonnée dans le sens horizontal et dont la largeur
est évidemment la moitié de celle de l’image d’origine. Sur base de
celle-ci, on va construire une seconde image A’ en sens horizontal en
calculant cette fois les erreurs entre l’image d’origine et l’image sous-
échantillonnée. Dans un second temps, on va moyenner les pixels des
deux images obtenues deux à deux en suivant l’axe vertical cette fois,
avant de déterminer une nouvelle fois les erreurs engendrée lors de

Mohamed Ali HADHRI 49


Département Technologies de l’Informatique Introduction au Multimédia

cette opération. Au terme de ce cycle, on obtient quatre images dont


la résolution est la moitié de celle de l’image d’origine. La première de
ces images, AA, fruit des sous-échantillonnages horizontal puis vertical
sans correction, est une image d’approximation, tandis que les trois
autres images AA’, A’A et A’A’, fruits des calculs d’erreurs successifs,
contiennent les détails de l’image d’origine. Une fois ce premier sous-
niveau obtenu, on recommence autant de fois que nécessaire le
procédé en reprenant chaque fois comme base la première sous-
image obtenue (AA, puis BB, puis CC, etc.).

La compression par ondelettes, particulièrement appropriée pour les


images, est vraisemblablement la méthode de compression la plus
performante à l’heure actuelle et est la base du JPEG 2000. Ses
avantages sont multiples : elle permet une compression 50 à 100 fois
plus importante que le JPEG, offre une meilleure définition des détails et
permet un téléchargement progressif de l’image.

 La compression fractale (uniquement appliquée aux images)

La compression fractale est un procédé qui s’applique uniquement aux


images. Il repose sur la géométrie fractale de Benoît Mandelbrot. Le format
des images compressées par ce procédé n’est à l’heure actuelle pas
standardisé et n’est donc pas reconnu par les navigateurs. Il se reconnaît par
l’extension .fif.

Principe de fonctionnement :

Le principe général est très simple à comprendre : l’idée est que toute image
est un ensemble fini de transformations géométriques (rotations, translations,
agrandissements, réductions) appliquées aux sous-ensembles de motifs
identiques et de tailles variables qui la composent. La compression fractale
consiste donc à remplacer l’image toute entière par une série de formules
mathématiques qui permettent de la recomposer dans son entièreté. Le
succès de l’opération de compression est par conséquent proportionnel à

Mohamed Ali HADHRI 50


Département Technologies de l’Informatique Introduction au Multimédia

l’importance des propriétés géométriques de l’image. Plus celles-ci sont


nombreuses, moins le nombre de formules mathématiques sera conséquent.
On comprend dès lors pourquoi la compression fractale se prête fort bien au
traitement des paysages par exemple. Evidemment, aucune image ne peut
se résumer strictement à ensemble de propriétés géométriques appliquées à
des blocs. C’est donc au niveau de la délimitation de ces derniers qu’a lieu
une perte d’informations. Ce procédé comporte des avantages certains,
mais également certains inconvénients.

Avantages :

 La compression est complètement indépendante de la taille de


l’image puisque ce sont les propriétés géométriques qui sont seules
prises en considération.
 L’image ainsi découpée en blocs de tailles variables en fonction de ses
propriétés géométriques est vectorisée, ce qui évite les effets de
pixellisation commun au JPEG par exemple. Notons qu’à
l’agrandissement de l’image reconstituée, on peut remarquer un
certain effet de flou qui rend sensible la perte engendrée par la
compression.

Désavantages :

 Les formules gèrent la transformation géométrique des blocs, mais sont


incapables de gérer l’apparition et la disparition pure et simple de
ceux-ci. Ce procédé ne se prête donc pas au traitement de la vidéo,
qui se caractérise par une succession d’images parfois radicalement
différentes.
 Si le processus de décompression d’une image est aussi rapide
qu’avec d’autres méthodes et algorithmes, le temps de calcul
nécessaire à la compression est en revanche particulièrement plus
important. A titre d’exemple, une compression fractale peut prendre
jusqu’à 50 fois plus de temps qu’une compression JPEG pour la même
image.

Mohamed Ali HADHRI 51


Département Technologies de l’Informatique Introduction au Multimédia

7.2.4. La compression sans perte

La compression sans perte est aussi appelée compression non destructive ou


encore compactage. La compression sans perte utilise des algorithmes qui
compressent les données sans les dégrader. Autrement dit, après la
décompression des données, celles-ci sont identiques à celles utilisées pour la
compression.

Ces algorithmes de compactage sont utilisés pour compresser tous types de


données : des données textuelles, des images, du son, des programmes, etc.

Voici trois méthodes principales de compression sans perte :

 Le codage de Huffman

Cette technique de compression sans perte a hérité du nom de son


inventeur, David Huffman. Elle repose sur le codage statistique d'un fichier
octet par octet. Plus les octets apparaissent souvent, plus les codes qui les
remplacent sont courts. Selon ce point de vue, le codage de Huffman
peut être comparé au code Morse. Le codage de Huffman peut être
réalisé sur le mode adaptatif, semi-adaptatif ou non adaptatif.

Le codage de Huffman est utilisé pour la compression du son au format


MP3 et des images aux formats PNG et JPEG.

Principe de fonctionnement :

L'algorithme parcourt les données d'un fichier et examine chaque octet


ainsi que le nombre fois où ce dernier apparaît.

Ensuite, l'algorithme construit un arbre (ou graphe). La construction de


l'arbre s'effectue en commençant par ses feuilles jusqu'à sa racine. Pour
ce faire, les octets sont classés par ordre décroissant de fréquence
d'apparition. Chaque fréquence d'apparition correspond donc à un octet
et constitue les feuilles de l'arbre. Elles sont alors liées deux par deux pour

Mohamed Ali HADHRI 52


Département Technologies de l’Informatique Introduction au Multimédia

former les noeuds du graphe jusqu'à ce qu'il n'y ait plus qu'un seul noeud,
soit la racine. Les noeuds sont ainsi formés par la somme de chaque
fréquence d'apparition de ses deux feuilles ou de ses deux noeuds-
descendants directs. Puis, les branches de l'arbre - c'est à dire les liens qui
unissent les noeuds - se voient attribuer soit le chiffre 1, soit le chiffre 0 selon
ce principe : le lien qui unit le noeud signifiant la fréquence la plus élevée
avec son noeud-ascendant se voit attribuer le chiffre 1, les autres le chiffre
0. En fin de compte, les octets compressés sont par codés par les chiffres
attribués aux liens, qui sont alignés en remontant depuis le noeud-racine
jusqu'aux feuilles terminales.

Illustration :

Par exemple, le mot "JULONOVO" compte 1 fois les lettres "J, U, L, N, V" et 3
fois la lettre "O". Les lettres sont donc codées comme suit : J : 000 ; U : 001 ;
L : 010 ; N : 011 ; V : 10 ; O : 11. Le caractère "O" qui apparaît le plus
souvent reçoit un code plus court que les autres.

 Le Run-lenght encoding ou RLE

Cette méthode de compression sans perte code les données en y


recherchant des successions d'octets identiques. Le RLE est utilisé pour
compresser des images codées sur un faible nombre de bits car, dans ce
type d'image, il est fréquent de trouver des pixels contigus identiques. La
méthode RLE est utilisée pour la compression des images au format PCX,
dans une version du format BMP ainsi qu'au format JPEG.

Principe de fonctionnement :

L'algorithme du RLE parcourt les données et recherche les octets


identiques qui se suivent. Lorsqu'il trouve un même octet répété
successivement au moins x fois, il crée une paire de données composée
du nombre de répétitions suivi de l'octet en question.

Mohamed Ali HADHRI 53


Département Technologies de l’Informatique Introduction au Multimédia

La compression RLE est efficace pour compresser des données où les


répétitions d'éléments consécutifs sont nombreuses ce qui n'est pas
toujours le cas. C'est pourquoi, lorsque le nombre de répétition est trop
petit (c'est à dire s'il est inférieur à x), l'algorithme ajoute un caractère
spécial dans le couple de données (nombre de répétition de l'octet,
octet).

Par exemple, dans une image codée sur 1 bit, les pixels de l'image
peuvent prendre 2 valeurs soit le noir (codée par 1) soit le blanc (codé par
0). Si x = 5, la séquence de pixels "00000111100110011000011111111"
devient, une fois compressée, "5041#20#10#20#104081".

La méthode de compression RLE (Run Length Encoding, parfois notée


RLC pour Run Length Coding) est utilisée par de nombreux formats d'images
(BMP, PCX, TIFF). Elle est basée sur la répétition d'éléments consécutifs.
Le principe de base consiste à coder un premier élément donnant le nombre
de répétitions d'une valeur puis le compléter par la valeur à répéter. Ainsi
selon ce principe la chaîne "AAAAAHHHHHHHHHHHHHH" compressée donne
"5A14H". Le gain de compression est ainsi de (19-5)/19 soit environ 73,7%.

 La famille des Lempel-Ziv-*

Cette famille est un ensemble de techniques de compression sans perte


qui utilisent un dictionnaire et où les codes signifient les indices des
séquences d'octets placées dans le dictionnaire.

Ce sont Abraham Lempel et Jakob Ziv qui ont inventé, en 1977, le premier
algorithme de compression de cette famille sous le nom de Lempel-Ziv-77
ou LZ77. LZ77 connut rapidement une nouvelle version : le LZ78. Dans les
années 80, Terry Welch modifia les LZ* pour créer le Lempel-Ziv-Welch ou
LZW.

Mohamed Ali HADHRI 54


Département Technologies de l’Informatique Introduction au Multimédia

Le Son

Enoncé de l’objectif général :


Décrire les principales caractéristiques du son, comprendre le principe de la
numérisation d’un signal et comparer les différents formats du son.

Elément de contenu Moyens Méthodologie


Objectifs spécifiques
Ce cours vise à :

 Définir son - Tableau et


 Présenter les support de
reconnaître les Formative
caractéristiques d’un caractéristiques du cours
son son (Hauteur, timbre et
volume)
 Enoncer le principe de
propagation du son

 Fonctionnement de la
carte son
énoncer le - Tableau et Formative
 échantillonnage
traitement numérisé support de
du son cours

distinguer entre les  Comparer entre les


formats de fichiers différents formats
- Tableau et Formative
sonores. sonores
support de
cours

Mohamed Ali HADHRI 55


Département Technologies de l’Informatique Introduction au Multimédia

Le Son
Le son est une onde produite par la vibration mécanique d'un support
fluide ou solide et propagée grâce à l'élasticité du milieu environnant sous
forme d'ondes longitudinales.
Un son est la sensation provoquée sur nos oreilles par de l'air en
déplacement, c'est-à-dire des vibrations d'air. Pour que l'air vibre il faut que
quelque chose l'agite, c'est le rôle joué par la source sonore.

1. PROPAGATION DU SON
Dans un milieu compressible, le plus souvent dans l'air, le son se
propage sous forme d'une variation de pression crée par la source sonore.
Notons que seule la compression se déplace et non les molécules d'air,
Les ondes sonores se déplacent à environ 344 mètres par seconde dans de
l'air à 20 °C.
Le son ne se propage pas dans le vide, car il n'y a pas de matière pour
supporter les ondes produites, le son se propageant grâce aux déplacements
des molécules d'air. C'est une onde dite longitudinale, car les points matériels
se déplacent dans le même sens que le déplacement de l'onde

2. CARACTERISTIQUES DU SON
Un son est caractérisé essentiellement par trois paramètres : la hauteur, le
timbre et le volume.

2.1. Hauteur
La hauteur est le paramètre qui permet de différencier un son aigu d'un son
grave. La caractéristique d'un son aigu est qu'il fera vibrer l'air plus souvent
qu'un son grave. On dit qu'un son aigu a une fréquence élevée alors qu'un
son grave a une fréquence basse.
La fréquence d'un son s'exprime en hertz, c'est-à-dire le nombre de vibrations
par seconde. Un son qui vibre à une fréquence de 1000 vibrations seconde à
une fréquence de 1000 Hz.

Mohamed Ali HADHRI 56


Département Technologies de l’Informatique Introduction au Multimédia

L'oreille humaine répond aux fréquences allant de 20 Hz à 20 Khz.

2.2. Timbre
Le timbre est le paramètre qui permet de différencier un son d'un autre son.
Un piano a un timbre différent de celui d'un violon, peu importe la fréquence.
Ceci nous permet d'introduire la notion d'onde. L'onde est en quelque sorte la
représentation graphique des mouvements que fait notre tympan lorsqu'il est
actionné par des vibrations d'air. La hauteur d'un son a une influence directe
sur la forme de son onde.

Figure 20 : son grave et son aigu

La première onde représente un son grave, la deuxième un son aigu.


Toute onde, aussi complexe soit-elle, peut être décomposée en une somme
d'ondes sinusoïdales élémentaire qu'on appelle harmoniques. Toutes ces
harmoniques additionnées donnent le timbre d'un instrument. L'harmonique
la plus grave se nomme fondamentale ou harmonique 1 et c'est celle que
retient l'oreille pour identifier la note jouée, les autres harmoniques servent à
l'habillage du son et à la personnalisation du timbre. Le diagramme en barres
permet d'identifier les harmoniques présentes dans un timbre.

Mohamed Ali HADHRI 57


Département Technologies de l’Informatique Introduction au Multimédia

Figure 21 : les harmoniques d’un timbre

2.3. Volume
Le volume est la force avec laquelle l'air frappe le tympan. Sur une forme
d'onde, il se traduit par une amplitude plus grande :

Figure 22 : volume fort et volume faible

L'amplitude (le volume) des différentes harmoniques constituant un son


change au cours du temps : le son peut être fort ou doux Dans l'air,
l'amplitude correspond aux variations de pression de l'onde.
En acoustique l'intensité se mesure en décibels (dB).

2.4. Espace-temps
Comme tous les phénomènes perçus, le temps joue un rôle fondamental
pour l'acoustique Il existe même des relations très étroites entre l'espace et le
temps, vu que le son est une onde qui se propage dans l'espace au cours du
temps.
On distingue trois grandes classes de signaux acoustiques :
 périodiques, dont la forme se répète à l'identique dans le temps ;
 aléatoires, qui n'ont pas de caractéristiques périodiques.
 impulsionnels : qui ne se répètent pas dans le temps et ont une forme
déterminée.

Mohamed Ali HADHRI 58


Département Technologies de l’Informatique Introduction au Multimédia

3. LE TRAITEMENT DIGITAL DU SON


3.1. L’échantillonnage
Pour être traité par un ordinateur, un son doit être sous forme digitale, il faut
procéder alors à une conversion analogique – numérique : c’est l’acquisition.
La conversion s'effectue par échantillonnage : on prélève à des intervalles de
temps réguliers des échantillons du son et on les traduit en chiffres.

Figure 23 : échantillonnage d’un son

Un son digitalisé est donc une approximation d'un son analogique.


Un microphone convertit les variations de pressions de l'air en signaux
électriques qui, reliées a un convertisseur analogique-numérique (CAN ) qui
va numériser ce signal à pas régulier, le transformer en une suite de nombres.

Deux paramètres caractérisent un son échantillonné : la qualité et la


résolution.
La qualité est déterminée par la fréquence d'échantillonnage ; plus la
fréquence est élevée, plus on prélève d'échantillons et par conséquent
meilleure est la qualité.
La résolution est déterminée par la plage de valeurs que peuvent prendre les
échantillons, et elle est d'autant plus élevée qu'on dispose de bits. Donc, plus
fréquence et résolution seront élevées, plus le son digitalisé ressemblera au
son original.
Exemple le CD audio est une succession d'échantillons à raison de 44100
échantillons par seconde sur 16 bits de résolution.

Mohamed Ali HADHRI 59


Département Technologies de l’Informatique Introduction au Multimédia

3.2. Quantification :
Numériser un signal analogique (par exemple audio) implique qu'on doit le
coder à l'aide d'un nombre fini de symboles; c'est l'opération de
quantification.
Le nombre fini de symboles implique une quantité de valeurs possibles du
signal limitée.
Quantifier un signal revient à approximer sa valeur instantanée par la valeur
discrète la plus proche. On commet donc une erreur.
Plus le nombre de valeurs numériques possibles est élevé, plus la valeur
discrète sera proche de la valeur instantanée; le signal quantifié sera donc
plus fidèle à l'original.
Par exemple, un signal codé sur 8 bits peut prendre 256 valeurs différentes, sur
16 bits, on passe à 65536 valeurs possibles et sur 24 bits, 16777216 valeurs. On
utilise généralement un nombre de pas de quantification étant une
puissance de deux, ce qui permet de le coder facilement en binaire.
Rapport signal-sur-bruit de quantification
Lorsque l'on effectue une approximation du signal original, on commet
forcément une erreur relativement à la représentation originale du signal.
Cette erreur est appelée erreur de quantification.
A cette erreur de quantification est associée, lors de l'écoute, une
perturbation, que l'on appelle bruit de quantification.
L'effet du bruit de quantification relativement au signal original constitue ce
que l'on nomme le rapport signal-sur-bruit de quantification.
Formule de Shannon pour le calcul de rapport signal-sur-bruit:

D = W * log2 (1+ S/B)

Avec :
D : débit en bps
W : bande passante
S : signal
B : bruit
Exemple :

Mohamed Ali HADHRI 60


Département Technologies de l’Informatique Introduction au Multimédia

…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..

4. LA LECTURE EN CONTINU
La lecture en continu (en anglais : streaming), aussi appelée diffusion de flux
continu, désigne un principe utilisé principalement pour l'envoi de contenu en
léger différé. Très utilisée sur Internet, elle permet la lecture d'un flux audio ou
vidéo (cas de la vidéo à la demande) au fur et à mesure qu'il est diffusé. Elle
s'oppose ainsi à la diffusion par téléchargement de fichiers qui nécessite de
récupérer l'ensemble des données d'un extrait vidéo avant de pouvoir
l'écouter ou le regarder. Néanmoins la lecture en continu est, du point de vue
théorique, un téléchargement, mais le stockage est provisoire et n'apparaît
pas directement sous forme de fichier sur le disque dur du destinataire. Les
données sont téléchargées en continu dans la mémoire vive (RAM), sont
analysées à la volée par l'ordinateur et rapidement transférées dans un
lecteur multimédia (pour affichage) puis remplacées par de nouvelles
données.

5. LA CARTE DE SONS

Figure 24 : carte de son intégrée

Une carte de son est une carte d'extension d'ordinateur qui traite les
signaux audio qui sortent de l'ordinateur pour les envoyer vers les haut-
parleurs. Mais elle peut également servir à interpréter les signaux audio qui
entrent dans l'ordinateur (micro, entrée ligne, etc.). Dans ce cas, elle
transforme un signal analogique en signal numérique.

Mohamed Ali HADHRI 61


Département Technologies de l’Informatique Introduction au Multimédia

Aujourd'hui, une carte son standard possède une sortie stéréo au format mini
jack, une entrée ligne stéréo ainsi qu'une prise micro. Ce type de carte sera
suffisant pour une utilisation bureautique, ou bien encore surfer sur Internet et
écouter un peu de musique occasionnellement.
D'autres cartes offrent le double stéréo. Sous Windows, cela n'a que peu
d'intérêt, on pourra simplement brancher deux paires d'enceintes.
Par contre, dans les jeux vidéo ou même dans les DVD Vidéo, chaque voix
pourra être gérée indépendamment si le logiciel le permet.

La carte son repose sur :

 un processeur DSP (Digital Signal Processor) pour le traitement des


signaux audio (écho, distorsion, distribution des différents sons sur
les sorties)
 Un convertisseur analogique-numérique pour numériser des signaux
externes (micro ...),

 un convertisseur numérique-analogique pour restituer les signaux


audibles vers les enceintes ou le casque.

 une interface MIDI pour communiquer avec des synthétiseurs

Deux grands standards se sont imposés dans le domaine de son : AdLib et


Sound Blaster (SB). De ces deux standards, celui qui s’est imposé comme
standard commercial est Sound Blaster de Creative Labs.
Une carte limitée à 8 bits (première génération) ne permettra que le son
mono. Il faut un minimum de 16 bits pour obtenir réellement un son stéréo et
une qualité digitale (CD audio) de reproduction.

Aujourd’hui, les cartes ont pour la plupart 32 ou 64 bits et un taux


d’échantillonnage qui permet la reproduction en Dolby avec effet cinéma
maison. La différence essentielle entre une carte de 16, 32 ou 64 bits est le
nombre de voix ou le nombre de table de reproduction disponible. Plus vous

Mohamed Ali HADHRI 62


Département Technologies de l’Informatique Introduction au Multimédia

avez de voix, plus les effets sonores seront impressionnants, parce que
reproduit avec plus de détails.

6. LES FORMATS AUDIO


Dans un format donné, les fichiers sont déclinés en plusieurs taux de
compression qui induisent des niveaux de qualité sonore et des poids de
fichier très différents. En théorie, plus le taux de compression est haut, moins le
fichier est comprimé. La qualité de ce fichier comprimé s'approche de la
celle du fichier non comprimé. Par contre, plus le taux de compression est
bas, plus le rendu sonore perd de sa qualité.

6.1. CDA (Compact Disc Audio)


Il s'agit de l'extension qui apparaît sur les pistes des CD audio lorsqu'ils sont
insérés dans le lecteur CD-ROM.
Le suffixe des fichiers créés est .cda

Pour Non comprimé, forcément qualité CD

Contre Volumineux,

6.2. WAV (Waveform Audio Vector)


Mis au point par Microsoft et IBM, ce format mono ou stéréo est l'un des
plus répandus. Le format "Disque compact" 44.1 kHz, 16 bits et stéréo nous
servira de référence pour le calcul du poids et ratio des autres formats.
Le suffixe des fichiers créés est .wav.
Le format de données comprend :
– 44 octets d'en-tête permettant une identification.
– Une structure les organisant.
– Le codage des données.

Mohamed Ali HADHRI 63


Département Technologies de l’Informatique Introduction au Multimédia

Pour Non comprimé (pour la version PCM)

Contre limité à 2 Go

6.3. AIFF (Audio Interchange Format File)


Equivalent du format Wav dans le monde Macintosh.
Le suffixe des fichiers créés est .aif

Non comprimé,
Fichiers son de haute qualité
Pour
Devenu le premier format d’échange multiplateformes.
Jusqu'à 44,1 kHz en 16 bits.

Très volumineux, une variante l'AIFF-C permet de


Contre
comprimer la taille jusqu'à 6x.

6.4. MP3 (MPEG-1 Layer III)


MP3 est l'abréviation de Mpeg- 1 Audio Layer 3. Cet algorithme de compression
prend naissance en 1987. L'ISO en fera un standard dans les années 92-93. La
couche (Layer) III est la couche la plus complexe. Elle est dédiée à des applications
nécessitant des débits faibles d'où une adhésion très rapide du monde internet à ce
format de compression. Les taux de compression (ratio) sont d'ordinaire de 1 pour 10
(1:10) (1:4 à 1:12). Très rapide à l'encodage. Ceci est obtenu par suppression de

zones dans la bande passante dont les fréquences sont inaudibles par l’oreille
humaine.

• De nombreux lecteurs permettent la restitution des fichiers .mp3 : WinAmp,


Nad mp3 Player,UnrealPlayer, JetAudio, etc.

Le suffixe des fichiers créés est .mp3

Pour Grande compatibilité,

Mohamed Ali HADHRI 64


Département Technologies de l’Informatique Introduction au Multimédia

Qualité soit disant équivalente au CD, a un débit de


192Kbits/s = 1,44 Mo/min [CD : 10 Moctets/min]

Compression destructive avec problèmes dans les aiguës,


Contre
lors d'un ré-encodage on passe par un fichier .wav .

6.5. AAC (Advanced Audio Coding) ou MPEG-2 AAC


Il fait partie des successeurs du MP3. L'AAC, est une extension du MPEG-2
et a été amélioré en MPEG-4, MPEG-4 Version 2 et MPEG-4 Version 3. Il a été
reconnu fin avril 1997.
Le suffixe des fichiers créés est .aac, .mp4, .m4a

Pour Très bon codec destructif (mieux que MP3 et WMA),

Contre Durée d'encodage importante

6.6. WMA (Windows Media Audio)


Créé par Microsoft à partir des recommandations MPEG 4 en 1999, ce format
est utilisé par le logiciel Windows Media Player. Ce format est lié à une gestion
pointue des droits d'auteurs (DRM ou Digital Right Management) qui permet
de définir par exemple une durée de vie limitée pour les fichiers ou d'interdire
les possibilités de gravure. Il existe plusieurs versions du codec (wma7.1,
wma9, wma pro)
Le suffixe des fichiers créés est .wma

Pour bonne compatibilité, meilleure compression que le MP3.

Souvent illisible sur lecteurs portables, à cause de la


Contre
gestion des droits et des restrictions dans le format wma.

6.7. AU (Audio Unix)

Mohamed Ali HADHRI 65


Département Technologies de l’Informatique Introduction au Multimédia

Format assez bien répandu grâce à Unix et Linux. La fréquence


d'échantillonnage est comprise entre 1 kHz et 200 kHz. Mais les players ne
lisent principalement que trois fréquences d'échantillonnage: 8012.821
(codec entré), 22050 et 44100 hertz.
Le suffixe des fichiers créés est .au

6.8. Real Audio


Format propriétaire adapté aux débits limités de Internet pour la diffusion
de sons ou de vidéos en streaming.
Peuvent être lus grâce à l’application spécifique RealPlayer (en version
commerciale ou shareware).
Le suffixe des fichiers créés est .ra .rm ou .ram

6.9. Quicktime
Destiné à l’origine à l’environnement Macintosh.
Il est aujourd’hui disponible sur PC et peut être utilisé pour réaliser du
streaming.
Le suffixe des fichiers créés est .MOV ou .QT

6.10. Le format MIDI


MIDI (Musical Instrument Digital Interface) est une norme développée par les
fabricants de synthétiseurs au début des années 1980 pour permettre
l'interconnexion de 16 instruments de musique électroniques et on indique sur
quelle note jouer, sur quel instrument, à quel volume, etc.

Les données MIDI ne sont pas des données audio, mais des instructions de
déclenchement et de déroulement de sons générés par un synthétiseur.
L'avantage de cette technique tient dans la taille des données à transmettre
qui sont bien plus légères que de l'audio numérisé, mais le résultat écouté par
l'utilisateur dépend fortement de la qualité des sons implémentés sur sa carte
audio.

Mohamed Ali HADHRI 66


Département Technologies de l’Informatique Introduction au Multimédia

Les limitations de ce format sont :


• Restriction à la musique.
• La qualité de la musique :
Dépend du périphérique utilisé pour la jouer en particulier le nombre
de canaux).
 Le codage des instruments n'est pas normalisé :
Par exemple : un morceau de violon peut être interprété par un
saxophone sur un autre synthétiseur.
 Obligation d'utiliser des sons déjà existants :
"Impossible " d'intégrer un son créé par le musicien (échantillonné ou
réellement synthétisé).

7. CINEMA MAISON
Le Cinéma maison (en anglais Home cinema ou Home theater) est une mini-
salle de cinéma qui s'installe chez soi, réalisée en général avec le meilleurs
solutions de confort, d'acoustique et de restitution du son Hifi et d'image
vidéo grand format. Le cinéma maison est adapté au visionnage d'émissions
télévisées et de films (sur DVD notamment ou plus récemment support Haute
définition), à l'écoute de musique, ou encore à la pratique du jeu vidéo.
Le terme est parfois utilisé pour décrire un ensemble comprenant un simple
téléviseur associé à un système acoustique à quatre enceintes ou plus et à un
lecteur de dvd. Les détaillants de produits Hi-fi nomment souvent cinéma
maison les ensembles acoustiques seuls.
La réalisation d'un tel lieu fait appel en général aux meilleurs appareils de
Audio HiFi Vidéo
Son

 Amplificateur(Stéréo, Dolby Digital, LC Concept, DTS, SDDS, Dolby Pro


Logic, Dolby Pro Logic 2)
 Enceintes satellites 2.1, 5.1, 6.1, 7.1 ... :
 Deux enceintes avants pour les ambiances et la musique
 Une enceinte centrale pour les dialogues

Mohamed Ali HADHRI 67


Département Technologies de l’Informatique Introduction au Multimédia

 Deux enceintes latérales pour les effets sonore surround (Dolby surround
par exemple)
 Deux enceintes arrière pour les effets sonore surround
 Un Caisson de basse pour appuyer les enceintes dans les sons graves et
infra

Source Image

 Démodulateur de Télévision Numérique par Satellite


 Démodulateur Télévision Numérique Terrestre TNT
 Magnétoscope (VHS et SVHS ou numérique avec disque dur ...)
 Lecteur de CD
 Lecteur de DVD
 Lecteur de DIVX
 Micro ordinateur Multimédia
 Lecteur de film haute définition

Diffusion d'image

 Télévision à haute définition, format 16/9


 Écran plasma
 Écran LCD
 Vidéo projecteur
 Rétroprojecteur

8. LE SON MULTICANAL
Le son a bouleversé l'équipement des salles de cinéma. Ces dernières
années, les nombreux cinémas Multiplex ont ainsi permis de faire remonter la
pente à cette industrie.

Il est logique que, les films bénéficiant de bandes son de plus en plus
sophistiquées, les concepteurs cherchent à trouver des moyens de restituer
cette richesse à domicile. Les laboratoires Dolby ont toujours été à la pointe
de ces travaux. On leur doit la plupart des standards du moment. La société
Lucas Film a participé à ce développement en mettant au point le label THX

Mohamed Ali HADHRI 68


Département Technologies de l’Informatique Introduction au Multimédia

qui définit une extension du standard Dolby. Afin de s'y retrouver parmi tous
ces labels et formats, voici quelques informations synthétiques

Les anciens formats sont encore proposés sur certains DVD ou sur
les VHS, pour les films n'utilisant pas les encodages multicanaux.
On trouve ainsi les symboles de signal mono ou stéréo.

Le Dolby Surround utilise quatre voies distinctes : une voie mono


centrale prédominante (pour la compatibilité avec les salles et les
récepteurs mono), deux canaux frontaux pour latéraliser la bande
sonore. Ces pistes ont peu de différence avec la voie centrale
(entre 30 et 40 dB en ProLogic alors que les premiers décodeurs
ne les distinguaient que de 7 dB. Le 4eme canal, dit de surround,
est monophonique même s'il est distribué sur deux enceintes
arrières. Le canal d'infra-grave n'est pas encodé dans le signal
mais simplement produit par filtrage et addition des quatre canaux.
Le Dolby Surround a fait le succès du LaserDisc dans lequel les 4
signaux sont matricés sur 2 canaux. C'est ce même codage (Left
Total/Right Total) qui est utilisé pour diffuser des films Surround en
Nicam. Le signal arrière a une bande passante réduite (100Hz à
7kHz).

Dolby ProLogic

Le Dolby Pro Logic est une extension du décodage Dolby


Surround. Le décodeur Dolby Pro Logic ajoute une voie centrale,
afin que le son paraisse plus central. Cette enceinte centrale
reproduit typiquement les voix des acteurs. Ce système augmente
également la séparation des voies de droite et de gauche.
Deux voies arrières reproduisent l'image sonore en trois
dimensions.

Avec un tel décodeur, Nous avons donc besoin de 5 enceintes pour


un réel confort d’écoute.

Ce système tend aujourd'hui à être dépassé depuis l'arrivée du


Dolby Digital ou Dolby AC3.

Dolby Pro logic II


Les laboratoires Dolby ont développé ces dernières années de
nombreuses technologies adaptées à la diffusion de signaux multi-
canaux. Le plus utilisé aujourd’hui est le Dolby Digital, qui offre une

Mohamed Ali HADHRI 69


Département Technologies de l’Informatique Introduction au Multimédia

qualité exceptionnelle de séparation des canaux, grâce à la


technologie numérique. Cependant, le Dolby Digital, nécessite une
source digitale (DVD généralement) et un encodage Dolby Digital.
Le Dolby Pro logic ou Dolby Surround est ‘l’ancêtre’ analogique du
Dolby Digital. La différence tient dans le niveau de séparation des
canaux, ne dépassant pas 37 dB (dû à la technologie de
déphasage employée), à une bande passante limitée dans les
effets arrières (de 100 Hz à 7 000 Hz) et à deux voies arrières
exactement identiques (mono).

Le Pro logic II améliore beaucoup les lacunes du Pro Logic original


:
- Il permet une lecture en multi-canal de sources stéréo standards
sans encodage
- La bande passante des voies d’effet arrière est améliorée
- La séparation des canaux est meilleure
- Le Dolby Pro Logic II est entièrement compatible avec les
encodages Pro Logic et Surround.

Avec quels supports utiliser le Dolby Pro Logic II ?


Le Dolby Pro Logic II propose 3 modes de fonctionnement :
- Music
- Movie
- Panorama
- Un procédé ‘Phantom’ permet également de créer l’effet en
l’absence d’enceintes surround.

On peut considérer que le résultat est intéressant surtout pour le


cinéma, même à partir de sources VHS. En revanche, le résultat à
partir de sources musicales stéréo n’est pas toujours intéressant, il
faut ‘essayer’. Certains disques sont recommandés pour
fonctionner avec ce système. Dans tous les cas, deux réglages
permettent d’ajuster le résultat du Pro Logic II en fonction de votre
installation et de la source que vous utilisez.

Dolby ProLogic IIx

Ce format est une extension du Dolby ProLogic II conçu pour traiter


les sources stéréo afin de produire un signal 5.1 et, avec le IIx du
6.1 ou 7.1. Le DPL IIx propose plusieurs modes: Movie, Music et
Game pour produire des ambiances "réalistes".

Le Dolby Digital
Virtual Speaker est
conçu pour donner la
sensation d'un son
surround enveloppant
avec une simple paire
d'enceintes. Ce
procédé de traitement
numérique du signal

Mohamed Ali HADHRI 70


Département Technologies de l’Informatique Introduction au Multimédia

simule les décalages temporels et les réflexions en les diffusant par


les 2 seules enceintes frontales. Un mode large permet de donner
l'impression que les enceintes sont plus écartées que leurs
positions réelles. Ce procédé est complémentaire des système
Dolby Digital et Dolby ProLogic.

Le THX est une évolution du Dolby Surround. Il repose sur une


conception spéciale et rigoureuse de l'installation. Lucas Film
souhaitait, en proposant le THX, que toutes les salles (de cinéma,
puis privées) restituent correctement les efforts de ses ingénieurs.

Le Dolby Digital est un système de son numérique utilisant 5


canaux. Appelé AC-3 (pour les appareils grand-public) et SR-D
(dans les salles), il utilise un système de compression numérique
très performant. Ce taux peut atteindre 12:1 pour un débit de
384kbps (échantillonnage 24 bits/48 kHz). Tous les canaux sont
indépendants et large bande. On devrait donc, pour tirer
correctement parti du Dolby Digital, utiliser 5 enceintes identiques
et un sub.

Le DTS est la réponse de Steven Spielberg à Georges Lucas. Le


Digital Theater System est très proche du Dolby Digital. Son
principal avantage est qu'il compresse beaucoup moins le signal - 4
fois moins - et numérise le son sur 20 bits au lieu de 16. Il offre
ainsi une qualité de son bien meilleure au prix d'un débit nettement
supérieur (1411 kbps).

Le THX Ultra est une extension du THX pour garantir une qualité
meilleure: grande puissance sur tous les canaux, niveau de 105dB
sans distorsion... Auparavant conçu pour les studios
d'enregistrement, ce format est disponible aujourd'hui chez
l'amateur passionné.

Mohamed Ali HADHRI 71


Département Technologies de l’Informatique Introduction au Multimédia

Le THX Select est une déclinaison plus facile à vivre du THX pour
garantir une bonne qualité tout en utilisant des enceintes plus
petites et plus faciles à placer.

Les évolutions actuelles

Dolby propose maintenant le Dolby Pro Logic II (cf. ci-dessus), une


évolution du Dolby Pro logic classique destiné à améliorer la
restitution des supports encodés en Doly Pro Logic, Dolby
Surround ou des sources simplement stéréo. Cependant, les
nouvelles évolutions intègrent maintenant une voie centrale arrière.
C’est le cas du Dolby Digital EX, du DTS ES et du THX EX. Cette
voie centrale ne représente pas un canal supplémentaire encodé
numériquement, mais reprend le procédé analogique de
déphasage entre les voies arrières existantes sur les systèmes
actuels pour recréer une voie centrale arrière.

Pour bénéficier de cette voie arrière, il faut que le support soit


encodé avec le procédé en question. Le procédé THX conseille
l’usage d’une nouvelle paire d’enceintes bipolaires en fond de salle.
Pour bénéficier de cette voie arrière supplémentaire, il faut que le
support soit encodé avec cette option.

Certains amplificateurs proposent ce format 6.1 chargé de stabiliser


l'image sonore sur l'arrière. La 6e voie n'est pas présente dans le
signal d'origine mais calculée par le décodeur.

Le SDDS (ou Sony Dynamic Digital Sound). Sony a mis au point un


format spécifique pour les grandes salles. Réservé aux
professionnels pour encore quelques temps (aucun lecteur DVD ne
le supporte), il utilise une compression de type ATRAC (comme les
MD). Parmi ses nombreux avantages, il peut gérer de 2 (96kHz/24
bits) à 8 canaux (48kHz/16bits). Il est donc compatible THX-Ultra.

9. COMPRESSION DES SONS


Quant il s’agit de diffuser du matériel sonore de haute qualité en temps
réel (streaming) par voie hertzienne ou par câble, le débit exigé pose de
sérieux problèmes…
• La diffusion d’un programme musical de qualité CD exige de disposer
d’un débit d’environ 180ko par seconde !

Mohamed Ali HADHRI 72


Département Technologies de l’Informatique Introduction au Multimédia

D’où la nécessité de compresser ces fichiers. Quant il s’agit de diffuser du


matériel sonore de haute qualité en temps réel (streaming) par voie
hertzienne ou par câble, le débit exigé pose de sérieux problèmes…
La diffusion d’un programme musical de qualité CD exige de disposer
d’un débit d’environ 180ko par seconde !
D’où la nécessité de compresser ces fichiers.

Le principe de compression de sons est de retirer des données audio les


fréquences inaudibles par l'oreille humaine capable de discerner des sons
entre 0.20Khz et 20Khz.

9.1. Algorithme PASC


Modèle psycho-acoustique qui a pour rôle de déterminer les sons
inaudibles et de les masquer et supprimer les silences.
Il a deux tâches distinctes :
 Un rôle filtreur :
Eliminer du signal toutes les fréquences inférieures à 15 Hz et
supérieures à 20 KHz.
 Un rôle échantillonneur :
o Diviser le spectre audible en 32 bandes de 720 Hz chacune.
o Comparer la valeur moyenne de chaque bande à la valeur
correspondant sur la courbe de réponse de l'oreille.
o Toute bande en dessous de la courbe de réponse est éliminée.
o Chaque bande retenue est divisée en 12 sous-bandes
échantillonnées sur 16 bits.
o On compare encore une fois la valeur des sous-bandes à la
courbe de référence.
o On quantifie les différences à la courbe, et on code ces
différences sur un nombre minimum de bits.
o Ces opérations sont renouvelées tous les 8 millièmes de seconde.

Mohamed Ali HADHRI 73


Département Technologies de l’Informatique Introduction au Multimédia

Nous avons 6 bandes (traits verticaux) qui


– Traversent ou non la zone de masquage.
– 2 restent sous la courbes : rejetées.
– Les 4 autres sont échantillonnées en 12 autres sous-bandes.
– Pour chaque sous-bande : un nombre de bits.

9.2. Audio MPEG


Echantillonnage à 32, 44.1 ou 48 kHz.
Précision équivalant à une quantification à 16 bits par échantillon.
 3 niveaux de compression possibles :
o Layer 1 : 192 kbit/s (compression 4:1).
o Layer 2 : 128 kbit/s (compression 6:1).
o Layer 3 : 64 kbit/s (compression 12:1) (le célèbre MP3!!!).
 Spectre divisé en 32 sous-bandes.
 Application du modèle psycho-acoustique :
o Calcul des masquages (ne conserver que les sons audibles).
o Allocation du nombre de bits.
o Quantification.

Mohamed Ali HADHRI 74


Département Technologies de l’Informatique Introduction au Multimédia

La vidéo

Enoncé de l’objectif général :


Décrire les principales caractéristiques de la vidéo , les différents modes de
compression.

Objectifs spécifiques Elément de contenu Moyens Méthodologie

Ce cours vise à :

 Définir vidéo
 Présenter la vidéo
analogique - Tableau et Formative
 Définir PAL/SACAM et support de
distinguer entre la cours
vidéo analogique et la NTSC
vidéo numérique ,  Présenter la vidéo
numérique
 Les signaux vidéo à
composantes

 Eliminer la
redondance spatiale
reconnaître les  Eliminer la - Tableau et Formative
différents modes de redondance support de
compression temporelle cours

Reconnaitre les  Citer les formats


différents formats vidéo avi, mpeg,
ra,mov - Tableau et Formative
vidéo
support de
cours

Comparer les  DVD, VCD, SVCD


différentes
- Tableau et Formative
technologies de
support de
stockage vidéo . cours

Mohamed Ali HADHRI 75


Département Technologies de l’Informatique Introduction au Multimédia

La Vidéo
Une vidéo est une succession d'images à une certaine cadence. L'oeil
humain a comme caractéristique d'être capable de distinguer environ 20
images par seconde. Ainsi, en affichant plus de 20 images par seconde, il est
possible de tromper l'oeil et de lui faire croire à une image animée.

On caractérise la fluidité d'une vidéo par le nombre d'images par


secondes, exprimé en FPS (Frames per second, en français trames par
seconde).
D'autre part la vidéo au sens multimédia du terme est généralement
accompagnée de son, c'est-à-dire de données audio.

1. GENERALITES
Il existe deux grandes familles de systèmes vidéo : les systèmes vidéo
analogiques et les systèmes vidéo numériques.

1.1. La vidéo analogique


La vidéo analogique représente l'information comme un flux continu de
données analogiques, destiné à être affichées sur un écran de télévision.
Il existe plusieurs normes pour la vidéo analogique qui se partagent le
monde. Historiquement, les différences de codage du signal ont été
imposées par des contraintes techniques et notamment par la fréquence du
courant électrique (50 Hz en Europe, 60 Hz aux USA et au Japon).

Ces trois standards ont toutefois une particularité commune :


l’affichage entrelacé des images. Chaque image est affichée en deux temps
: les lignes impaires sont affichées en premier, suivies de lignes paires. Comme
les tubes utilisés pour les écrans de télévision présentent une certaine
rémanence (persistance du point lumineux à l’écran après l’arrêt du signal
qui l’a généré),

Mohamed Ali HADHRI 76


Département Technologies de l’Informatique Introduction au Multimédia

Figure 25 : Principe de l’affichage entrelacé sur écran de télévision

NTSC
La norme NTSC (National Television Standards Committee), utilisée aux Etats-
Unis et au Japon, utilise un système de 525 lignes entrelacées à 30 images/sec
(donc à une fréquence de 60Hz).
8% des lignes servent à synchroniser le récepteur. Ainsi, étant donné que le
NTSC affiche un format d'image 4:3, la résolution réellement affichée est de
640x480.

Figure 26 : norme NTSC

PAL/SECAM
Le format PAL/SECAM (Phase Alternating Line/Séquentiel Couleur avec
Mémoire), utilisé en Europe pour la télévision hertzienne, permet de coder les
vidéos sur 625 lignes (576 seulement sont affichées car 8% des lignes servent à
la synchronisation). à raison de 25 images par seconde à un format 4:3
Or à 25 images par seconde, de nombreuses personnes perçoivent un
battement dans l'image. Ainsi, étant donné qu'il n'était pas possible d'envoyer
plus d'informations en raison de la limitation de bande passante, il a été
décidé d'entrelacer les images, c'est-à-dire d'envoyer en premier lieu les
lignes paires, puis les lignes impaires.

Mohamed Ali HADHRI 77


Département Technologies de l’Informatique Introduction au Multimédia

Grâce à ce procédé appelé "entrelacement", le téléviseur PAL/SECAM


affiche 50 champs par seconde (à une fréquence de 50 Hz), soit 2x25 images
en deux secondes.

Figure 27 : norme PAL/SECAM

1.2. La vidéo numérique


Est constituée d’une suite de trames formées d'une matrice rectangulaire
de pixels. Le principe de balayage utilisé est sensiblement le même que pour
la vidéo analogique mais l’entrelacement n'est généralement pas utilisé en
vidéo numérique puisque les moniteurs rafraîchissent l'écran 75 fois par
seconde ou plus.

2. LA COMPRESSION VIDEO
Le principe fondamental de la compression vidéo est de réduire autant que
possible les redondances d'informations dans les données
Dans une séquence vidéo, il existe deux sortes de redondances :

 La redondance spatiale
Réside dans chaque image prise indépendamment des autres. On
peut diminuer cette redondance en codant chaque image séparément en
JPEG. Cette approche est parfois la seule utilisée lorsqu'on a besoin de
pouvoir accéder de façon aléatoire (c'est-à-dire non séquentielle) à chaque
image individuellement, comme par exemple lors d'un montage vidéo. On
parle alors de MJPEG (Motion JPEG).

Mohamed Ali HADHRI 78


Département Technologies de l’Informatique Introduction au Multimédia

 La redondance temporelle
Si deux images qui se suivent dans une séquence vidéo sont quasiment
identiques : c'est la redondance temporelle. Le but est alors de ne stocker
que ce qui est modifié lors du passage d'une image à une autre. Les images
ainsi compressées sont de deux types :
 les images I (images Intracodées) sont des images complètes
codées en JPEG, on les appelle aussi images-clés.
 Les images P (images Prédictives) ne contiennent que les pixels
modifiés par rapport à l'image précédente

Figure 28 : compression spatiale et compression temporelle

Enfin, une séquence vidéo ne se compose pas seulement d'images, mais


aussi de son. Il y a donc deux flux à gérer : le flux vidéo et le flux sonore.
Les normes de compression vidéo (comme MPEG) ont donc trois parties :
une partie vidéo, une partie audio, et une partie système qui gère
l'intégration des deux premières.

Mohamed Ali HADHRI 79


Département Technologies de l’Informatique Introduction au Multimédia

Les codeurs/décodeurs vidéo et audio travaillant indépendamment l'un


de l'autre, la partie système est là pour résoudre le problème de multiplexage
et démultiplexage.

2.1. Les signaux vidéo à composantes


La vidéo à composantes séparées est également appelée vidéo en
composantes, S-Vidéo, Y/C ou YCbCr. C'est un signal vidéo dont la
luminance et la chrominance sont séparées, ce qui supprime la dégradation
de l'image due à l'interférence entre ces deux signaux
Les principaux signaux vidéo à composantes sont :
2.1.1. Le standard S-Video
Le standard S-Video (pour « Sony Video »), parfois appelé Y/C, est un mode
de transmission vidéo à composantes séparées utilisant des câbles distincts
pour faire transiter les informations de luminance (luminosité) et de
chrominance (couleur).
Une connexion S-Video permet d'offrir une qualité de vidéo optimale en
envoyant simultanément les 576 lignes de l'image, sans entrelacement (en
une seule fois).
On trouve ainsi ce type de connecteurs sur les camescopes ou
magnétoscopes haut de gamme S-VHS, les caméras Hi8 ou tout simplement
sur la majorité des cartes graphiques possédant une sortie TV.
Cependant, le signal S-Vidéo ne permettant de transporter que le
signal vidéo, il est nécessaire d'utiliser un câble audio séparé pour le transport
des données audio.
Il faut noter toutefois que les prises péritel récentes permettent
également de transporter un signal S-Vidéo. Il existe d'ailleurs des adaptateurs
permettant de connecter un câble S-Vidéo et des connecteurs RCA audio
sur une prise péritel, au prix d'une dégradation supplémentaire du signal.

Mohamed Ali HADHRI 80


Département Technologies de l’Informatique Introduction au Multimédia

2.1.2. Le standard YUV


Le standard YUV (appelé aussi CCIR 601), auparavant baptisée YCrCb
(Y Cr Cb), est un modèle de représentation de la couleur dédié à la vidéo
analogique.
Il se base sur un mode de transmission vidéo à composantes séparées
utilisant trois câbles différents pour faire transiter les informations de luminance
(luminosité) et les deux composantes de chrominance (couleur). Il s'agit du
format utilisé dans les standards PAL (Phase Alternation Line) et SECAM
(Séquentiel Couleur avec Mémoire).
Le paramètre Y représente la luminance (c'est-à-dire l'information en
noir et blanc), tandis que U et V permettent de représenter la chrominance,
c'est-à-dire l'information sur la couleur. Ce modèle a été mis au point afin de
permettre de transmettre des informations colorées aux téléviseurs couleurs,
tout en s'assurant que les téléviseurs noir et blanc existant continuent
d'afficher une image en tons de gris.
2.1.3. Le codage YIQ
Le modèle YIQ est très proche du modèle YUV. Il est notamment utilisé dans le
standard vidéo NTSC (utilisé entre autres aux États-Unis et au Japon).Le
paramètre Y représente la luminance. I et Q représentent respectivement
l'Interpolation et la Quadrature.
2.1.4. Le M-JPEG

Le principe du Motion JPEG (noté MJPEG ou M-JPEG, à ne pas


confondre avec le MPEG) consiste à traiter chaque image d’une séquence
vidéo séparément au moyen d’un algorithme JPEG. Le taux de compression
obtenu est relativement modéré et plus faible que celui du MPEG puisque
seule la redondance spatiale est traitée au sein de chaque image, sans que
l’on intervienne sur la redondance temporelle (on a simplement une
succession d’images JPEG). Le codage séparé de chaque image permet
néanmoins de comprendre tout l’intérêt de ce format pour les professionnels
de la vidéo. Le traitement par image permet une plus grande capacité
d’édition du flux et offre d’excellentes conditions de travail au montage.

Mohamed Ali HADHRI 81


Département Technologies de l’Informatique Introduction au Multimédia

Ainsi, son débit de 8 à 10 Mbps le rend utilisable dans les studios de


montage numérique.

L’évolution de ce format est le M-JPEG 2000, issu du JPEG 2000, lui-


même basé sur les techniques algorithmiques de compression par
transformation en ondelettes. Notons aussi que le M-JPEG 2000, à l’instar du
JPEG 2000, permet de travailler avec ou sans pertes.

2.1.5. Le MPEG
Dans la plupart des séquences vidéos, la majorité des scènes sont fixes
ou bien changent très peu, c'est ce qui s'appelle la redondance temporelle.
il suffit donc de ne décrire que le changement d'une image à l'autre. C'est là
la différence majeure entre le MPEG (Moving Pictures Experts Group) et le M-
JPEG. Cependant cette méthode aura beaucoup moins d'impact sur une
scène d'action.

Le groupe MPEG a été établi en 1988 dans le but de développer des


standards internationaux de compression, décompression, traitement et
codage d'images animées et de données audio.
Il existe plusieurs standards MPEG :

 le MPEG-1 est un standard pour la compression des données vidéos et


des canaux audio associés (jusqu'à 2 canaux pour une écoute stéréo).
Il permet le stockage de vidéos à un débit de 1.5Mbps dans une
qualité proche des cassettes VHS sur un support CD appelé VCD
(Vidéo CD).

Le principe à la base du MPEG est qu'en plus de gérer la


redondance spatiale présente au sein de chaque image qui compose
les séquences vidéo, on va s'appliquer à gérer également la dimension
temporelle de la redondance, c'est-à-dire déterminer quelles zones de
pixels changent d'une image à l'autre, et lesquelles restent identiques.
De ce fait, on peut tenir compte du flux et éviter ainsi de devoir

Mohamed Ali HADHRI 82


Département Technologies de l’Informatique Introduction au Multimédia

réencoder pour chaque image les mêmes informations que celles de


l'image précédente, comme c'est le cas en M-JPEG. Evidemment, le
revers de la médaille est que l'accès devient séquentiel et que l'on
perd la possibilité de travailler image par image. On comprendra alors
pourquoi les techniques de compression MPEG sont essentiellement
destinées à la diffusion et non à l'édition.

La compression temporelle repose sur la définition de trois


types d'images, au sein d'une séquence vidéo :

 Les images-clé (aussi appelées I-frames en anglais) sont


compressées individuellement et indépendamment de leur
relation aux autres images de la séquence. L'élimination de la
redondance spatiale au sein de l'image se fait au moyen d'une
transformée en cosinus discrète (DCT) des blocs de 8x8 pixels qui
la composent, suivie d'une quantisation puis d'un codage RLE.
 Les images prédites (aussi appelées P-frames en anglais) sont
compressées au moyen du principe dit de compensation de
mouvement, qui vise à éliminer la redondance temporelle entre
l'image prédite et l'image-clé qui la précède. L'idée est de coder
différemment les macroblocs qui composent l'image prédite en
fonction du fait qu'ils sont identiques ou différents à ceux de
l'image-clé. Les macroblocs qui diffèrent sensiblement sont codés
de la même manière qu'un macrobloc dans une image-clé,
tandis que ceux qui sont identiques ou presque à ceux de
l'image antérieure sont codés référentiellement.
 Les images bidirectionnelles (aussi appelées B-frames en anglais)
sont compressées de manière identique aux images prédites. La
différence avec celles-ci réside dans le fait que les macroblocs
sont codés référentiellement à une image qui précéde ou à une
image qui suit. Les images suivantes doivent donc déjà se trouver
en mémoire pour que soit réalisée la reconstruction de l'image
bidirectionnelle. La très faible quantité de macroblocs qui ne

Mohamed Ali HADHRI 83


Département Technologies de l’Informatique Introduction au Multimédia

peuvent être référencés soit par une image qui précède, soit par
une image qui suit, explique le gain considérable d'espace lors
de l'opération de compression.

Le flux vidéo est donc compressé de la sorte, en générant


une suite d'images du type IBBPBBPBBPBBI.

 le MPEG-2, un standard offrant une qualité élevé à un débit pouvant


aller jusqu'à 40 Mbps, et 5 canaux audio surround.

Le MPEG-2 a été conçu pour répondre à des besoins différents en


matière de taux de transfert. La vidéo est ici entrelacée, chaque
séquence se composant de deux trames et non plus d'une simple
succession d'images. La compensation de mouvement se travaille
donc ici sur des blocs de 8x16 pixels, mieux adaptés à ce flux
d'informations beaucoup plus important

Il s'agit du format utilisé par les DVD vidéos et la télévision


numérique(HDTV).

Le MPEG-2 permet de plus une identification et une protection contre


le piratage.

 le MPEG-4, un standard destiné à permettre le codage de données


multimédia sous formes d'objets numériques, afin d'obtenir une plus
grande interactivité, ce qui rend son usage particulièrement adapté au
Web et aux périphériques mobiles.

S'inspirant des techniques précédentes, la norme MPEG-4


développe une technologie qui lui permet de fournir des taux de
compression exceptionnels dont le principal avantage est de
permettre le transfert d'une vidéo de bonne qualité à faible débit. L'ASP
sous-tend d'excellents codecs gratuits actuels tels le DivX ou le Xvid qui

Mohamed Ali HADHRI 84


Département Technologies de l’Informatique Introduction au Multimédia

offrent une qualité d'image remarquable pour d'importants taux de


compression. L'AVP est quant à lui un codec vidéo avancé qui
améliore sensiblement le principe de compensation du mouvement en
autorisant jusqu'à 32 images intermédiaires et permet l'utilisation de
blocs de tailles variables (16x16 au 4x4).

 le MPEG-7, un standard visant à fournir une représentation standard des


données audio et visuelles afin de rendre possible la recherche
d'information dans de tels flux de données. Ce standard est ainsi
également intitulé Multimedia Content Description Interface.

3. LES FORMATS VIDEO


3.1. .AVI (Vidéo For Windows)
Format vidéo de Windows.
Applications à utiliser pour ouvrir ces fichiers : Lecture directe avec le
lecteur multimédia de Windows. Cette extension, grâce au logiciel libre
sert pour les fichiers vidéo compressés notamment le format DivX
permettant d'obtenir des fichiers peu volumineux facilement
échangeable tout en ayant une bonne qualité.
Lecture directe avec le lecteur multimédia de Windows

3.2. .MPEG .MPG (Moving Picture Expert Group)


Norme publique très répandu sur l'Internet, il est généralement
visualisable en différé. La norme MPEG-1 est utilisée pour les diffusions
sur CD-Rom (format quart d'écran) tandis que le format MPEG-2 est
utilisé pour les DVD vidéo, et sert de base à la diffusion sur les chaînes
numériques. Il vous faut un ordinateur relativement musclé avec une
carte graphique qui booste le processeur. Pour le MPEG-2 il faut investir
dans une carte de décompression spécialisée ou sur un logiciel de
décompression adapté.
Applications à utiliser pour ouvrir ces fichiers :

Mohamed Ali HADHRI 85


Département Technologies de l’Informatique Introduction au Multimédia

Lecture directe avec le lecteur multimédia de Windows ou le player


QuickTime pour les Mac.

3.3. .MOV .QT (QuickTime Movie)


Développé par Apple, concurrent du .AVI de Windows, il est très
répandu sur l'Internet et sur toutes les plates-formes visant le statut de
standard universel. Applications à utiliser pour ouvrir ces fichiers :Lecture
directe avec le lecteur QuickTime.

3.4. .RA (Real Audio)


Format propriétaire pour la diffusion en direct de séquences sonores et
vidéo par l'Internet.
Application à utiliser pour ouvrir ces fichiers : RealPlayer (version
shareware ou commerciale)

3.5. VDO (VDO Live)


Format propriétaire pour la diffusion en direct de séquences vidéo par
l'Internet.
Applications à utiliser pour ouvrir ces fichiers : VDO player ou plug-in
adapté.
3.6. VIV (Video Active)
Format propriétaire pour la diffusion en direct de séquences vidéo par
l'Internet. Ces fichiers très compacts sont de qualité d'image médiocre.
Applications à utiliser pour ouvrir ces fichiers : VIV player ou plug-in
adapté.

Mohamed Ali HADHRI 86


Département Technologies de l’Informatique Introduction au Multimédia

3.7. Tableau des principaux formats vidéo


Format /
Utilisation Logiciel / support
extension
chaque composante audio ou vidéo peut être
tous les logiciels de
AVI / .avi compressée par n'importe quel codec (DIvX et mp3).
lecture vidéo.
C'est un "conteneur" très pratique, le plus utilisé.
Un format conteneur de Microsoft et sa famille de
WMV/ .wmv codecs vidéo. On le trouve souvent chez des vidéo en Windows Media Player.
streaming ou en téléchargement.
Format conteneur d'Apple, pouvant contenir un très
MOV / .mov Quicktime.
large choix de codec, y compris haute définition.
Les codecs vidéo les plus utilisés. Permet de diviser par Nécessite l'installation
DivX et Xvid 6 la taille d'un film en DVD sans trop de perte de des codecs DivX / Xvid
qualité. Xvid est le concurrent libre de DivX. à jour,
Se lit avec VLC, Media
MKV / .mkv Format conteneur russe, pouvant contenir de très Player Classic et autres
.mka .mks nombreux codecs. après l'installation des
Codecs.
H264 /
Codec utilisé pour la haute définition. Se lit avec la majorité
MPEG 4
Se retrouve dans les Blu-ray. des lecteurs vidéo
AVC
format natif d'Adobe Flash Player,
FLV / .flv s'ouvre avec VLC.
Le format Flash Video, utilisé sur Internet
Real Video / RealPlayer ou
Codec video propriétaire de Real Networks.
.rmvb RealAlternative

4. QUELQUES SUPPORTS DE LA VIDEO


4.1. Le DVD
DVD signifie Digital Video Disc, renommé Digital Versatil Disc.
Il a été développé en 1995 par un consortium regroupant 10 constructeurs.
Il faut distinguer les DVD Audio, DVD vidéo (lecture sur TV)et DVD-ROM,
capable de stocker environ de 4.7 Go (monocouche simple face) à 17 Go
(double couche double face).
Le DVD supporte les normes MPEG-1 et MPEG-2, en la résolution est de
720x576 en PAL (x480 en NTSC).

Un DVD vidéo est constitué de plusieurs répertoires, celui correspondant à


des données relatives à la vidéo est le répertoire video_TS. Se trouvent dans
ce répertoire, les fichiers VOB (Video OBjects), comprenant un flux MPEG-2 et
le multiplexage des pistes audio et sous-titres, les fichiers IFO contenant les

Mohamed Ali HADHRI 87


Département Technologies de l’Informatique Introduction au Multimédia

informations relatives à la durée du film, ses pistes audio, le format


d’encodage ou le séquençage des fichiers VOB,

4.2. Les SVCD (Super Vidéo CD) et VCD (Vidéo CD)


Le SVCD est un compromis entre la qualité du DVD et du VCD, le tout sur un
support CD.
VCD : résolution 352x288 et norme MPEG-1
SVCD : résolution 576x480 (PAL) ou 480x480 (NTSC) et MPEG-2, en CBR et VBR.
Les 2 codent le son en MPEG-1 Layer II mais le SVCD permet également de
coder en MPEG 2 multicanal 5.1.
Le VCD est né en 1993 (le SVCD en 2000) pour faire tenir 1 heure de vidéo sur
un CD avec la même interactivité qu’offrent les CD audio. Les 2 fichiers, vidéo
MPEG-1 et audio MPEG-1 Layer 2 stéréo 16 bits, sont multiplexés en 1 fichier
.dat. Le démultiplexage fournit un fichier .mv1 et un autre .mp2.
Le VCD contient les répertoires CDI (pour le programme qui permet de lire le
VCD sur les lecteurs CD-I de Philips), EXT (fichiers utiles pour le CDI), MPEGAV
qui contient les séquences AVSEQOx.DTA avec x le numéro de la séquence,
SEGMENT qui contient des fichiers d’index images pour les menus et
diaporamas, et enfin le répertoire VCD qui contient les informations sur le
volume.
Sur un SVCD, le répertoire MPEGAV se nomme MPEG2.

Mohamed Ali HADHRI 88


Département Technologies de l’Informatique Introduction au Multimédia

Bibliographie

[SHU 01] Shuman Piette

Concepts multimédia

Les éditions Reynaud Goulet INC 2001

http://tecfa.unige.ch/tecfa/teaching/staf13/fiches-mm/modelecouleurs.htm

http://www.loria.fr/~ssidhom/ue503-L3-

http://fr.wikipedia.org/wiki/son

http://www.e-supnet.com/Avoscours/Conseils/ReconaitreFormatFichier.html

http://perso.univ-lr.fr/pcourtel/espadon/site_web/Ch1/page1.htm

http://www.bretagne-traiteur.com/pdf/2007-04-20Intro.pdf

http://www.perso.orange.fr/mondouis/v_ou_b.htm

http://www.commentcamarche.com/format/analog.php3

http://www.commentcamarche.com/video/video.php3

http://urfist.enc.sorbonne.fr/anciensite/image_numerique/format.htm
http://www.cours-photophiles.com/index.php/le-traitement-
dimage/imagerie-numerique-.html
http://www.researchgate.net/profile/Christian_Roux2/publication/228551524_
Technologies_du_Multimdia/links/548db2170cf214269f24348e.pdf
http://a.l.a.i.n.over-blog.com/pages/Presentation_du_graveur_de_CDROM-
1609242.html
http://www.vulgarisation-informatique.com/moniteur.php
http://multimedia.ulb.ac.be/i135g1/CompressionNumerique/AvecPertes.htm
http://www.techno-science.net/?onglet=glossaire&definition=316
http://www.popai.fr/popai-digital-glossaire.htm
http://www.carrecouleur.fr/fr/ecran.php
http://deschamp.free.fr/exinria/CMTI/glossaire.html

Mohamed Ali HADHRI 89


Département Technologies de l’Informatique Introduction au Multimédia

Mohamed Ali HADHRI 90

Vous aimerez peut-être aussi