Académique Documents
Professionnel Documents
Culture Documents
Chapitre 3
Technologie multimédia
2
Définitions
Media Vient du pluriel du mot latin « medium » : lieu exposé aux regards de tous.
Un média est un mode de représentation de l'information (comme la presse, la radio,
la télévision, Internet, etc.)
Le mot multimédia est apparu vers la fin des années 1980, lorsque les supports de
stockage se sont développés comme les CD-ROM. Il désignait alors les applications
qui, grâce à la mémoire du CD et aux capacités de l'ordinateur, pouvaient générer,
utiliser ou piloter différents médias simultanément (son, image, vidéo …).
Il faudra attendre la fin des années 1990 avec l'arrivée de méthodes de compression de
son et de vidéo, ainsi qu'une certaine montée en puissance des ordinateurs personnels,
pour atteindre de haut niveaux de qualités,
Aujourd'hui, le mot multimédia est utilisé pour désigner l’ensemble des techniques et
des produits qui permettent l'utilisation simultanée et interactive de plusieurs modes
de représentation de l'information (textes, sons, images fixes ou animées). 3
Intérêt des techniques multimédia
Les techniques multimédia ont un impact sur l'assimilation de l'information par un être
humain. D’après des études psychologiques, la mémoire humaine est capable de
mémoriser :
Nous pouvons dire que les techniques multimédia jouent un rôle très important pour
optimiser le pourcentage d'assimilation d'une cible.
4
Métiers
Les métiers liés au multimédia sont très variés couvrant les domaines technologiques
allants de la conception à la commercialisation et maintenance mais aussi les domaines
artistiques d’exploitation et d’établissement des normes juridiques. On trouve ainsi les
métiers :
Recherche et analyse :
Tout projet commence par l’analyse du public cible pour déterminer leur niveau
d’expertise et besoins et identifier le contexte d’utilisation et les contraintes.
Une phase de recherche de contenu permet de recueillir les différentes contenus qui
seront utilisés par la suite.
Conception :
Décrire le synopsis du projet.
Scénarisation (storyboarding)
Description détaillée des différents éléments multimédia et de leur timing.
6
Prototypage :
Réaliser un premier prototype ou maquette du produit et le faire évaluer par les utilisateurs
potentiels.
Développement :
Consiste à créer les éléments multimédia, les intégrer et développer le reste des modules.
Test et validation :
Tester, valider, diffuser le produit puis le maintenir.
7
Son
Le son est une sensation auditive, pour la créer, il faut mettre un objet en
vibration, comme par exemple, une corde que l’on va pincer ou alors la
membrane d’un haut-parleur qui va vibrer. On parle d’une vibration acoustique.
Les sons peuvent se propager dans tous les milieux sauf dans le vide, ce qui
peut être vérifiée à partir de l’expérience de la cloche à vide.
8
Fréquence d’un signal sonore
Il existe une fréquence limite à partir de laquelle on n’entend plus le son, elle est
d’environ 20 000 Hz. Au-dessus c’est le domaine des ultrasons.
Il existe une fréquence limite en dessous de laquelle on n’entend plus le son, elle est
d’environ 20 Hz. C’est le domaine des infrasons.
Entre les infrasons et les ultrasons c’est le domaine audible. Ce domaine dépend de
9
La bande d'octaves est un classement d'origine musical. Lorsqu'une fréquence est doublée
ou divisée par 2 on dit qu'elle augmente ou qu'elle diminue d'une octave, exemple : 125Hz
et 250Hz puis 250Hz et 500Hz.
Le spectre sonore (audible) est découpé en 10 octaves.
10
Niveau d’intensité d’un signal sonore
Toutes les ondes sonores ne sont pas perceptibles par l'oreille humaine. A l'inverse,
des intensités sonores trop élevées peuvent être dangereuses.
L'oreille humaine peut en moyenne percevoir des sons ayant une intensité sonore
supérieure à 10-12 W.m-2. Cette intensité sonore minimale est noté I 0 et appelée seuil
d'audibilité.
Par ailleurs, un son dont l'intensité sonore est très forte peut provoquer une douleur, ainsi
qu'une perte d'audition partielle ou totale : on estime en général que le seuil de douleur
correspond à une valeur d'environ 10 W.m-2. Aussi, l'exposition répétée à des ondes
sonores d'intensité élevées mais inférieures aux intensités maximales, sans protections
appropriées, peu également engendrer des dommages sur l'oreille humaine.
L'intensité sonore est mesurée à l'aide d'un appareil appeler sonomètre. Il est
fréquemment utilisé par la médecine du travail, ou organisme spécialisé pour évaluer
11
l'environnement sonore au travail et le niveau d'exposition des employés.
L'intensité sonore est additive, c'est-à-dire que si plusieurs sources émettent des
ondes sonores alors l'intensité sonore qui en résulte correspond à la somme des
intensité sonores de toutes les sources.
Par exemple, si trois sources sonores émettent des ondes d'intensité I 1, I2 et I3 en un
point donnée de l'espace alors, une mesure indiquerait que l'intensité sonore en ce
point vaut :
L'intensité sonore perceptible prend des valeurs sur un intervalle extrêmement large
qui va de 10-12 W.m-2 jusqu'à 10 W.m-2 soit un facteur de 1013 (10 000 milliards !)
entre la limite inférieure et la limite supérieure. Afin d'utiliser une échelle de
grandeur plus simple et plus significative on définit une nouvelle grandeur. Cette
grandeur se note L, s'exprime en décibel de symbole dB et se calcule à partir de la
relation suivante :
Avec L en Décibel (dB)
I en W.m-2
I0 = 10-12 W.m-2 12
:
Si l'on double l'intensité sonore, le niveau d'intensité sonore n'est pas doublée. En effet :
Remarques :
Log correspond à la fonction logarithme décimale qui est définie à partir du logarithme
népérien :
13
Niveau d'intensité sonore correspondant au
seuil d'audibilité et au seuil de douleur
Le seuil d'audibilité correspond à l'intensité sonore I0 = 10-12 W.m-2 :
sachant que
Le niveau d'intensité sonore d'un son audible par l'oreille humaine est donc compris
entre 0 et 130 dB. 14
Environnement sonore
Nous sommes constamment exposés au bruit, à la maison, dans la rue, au travail. En effet,
la télévision, la chaîne HiFi, les voitures, le métro, le tramway, les machines... crées un
environnement bruyant. On parle même de pollution sonore dans certains cas.
La réglementation s'est adaptée au problème de pollution sonore, ainsi trois seuils ont été
définis :
Seuil de risque : 80 dB. En dessous de ce seuil, on considère que l'exposition du travailleur
est sans risque quelques soit la durée. Au dessus, la durée d'exposition doit être évaluée afin
de mesurer la nécessité de protections auditives ou adaptation du poste de travail.
Seuil de danger : 85 dB. Si la durée d'exposition de l'employé à une telle intensité sonore
est de 8h par jour, les protections auditives sont requises. Si possible, le poste de travail
peut être adapté afin de baisser le niveau sonore perçu par le travailleur.
Seuil de douleur : 120 dB. A partir de ce niveau sonore, les oreilles souffrent
physiquement du bruit. Cependant, attention les dommages sur l'audition interviennent bien
15
en amont de la douleur.
Echelle des décibels perçus par l’oreille
16
Seuils d’audition
Les sons ne sont pas perçus de la même façon selon leur niveau et selon leur
fréquence.
Les courbes iso-niveau de la perception du son ne sont pas horizontales.
18
Les courbes de pondération sonométrique:
suite
On ajoute à la mesure la valeur de la pondération indiquée dans la table de
correction.
19
Protection contre le bruit
Son complexe et son musical: La plupart des sons que nous percevons dans
notre environnement ne sont pas purs mais complexes. Ils sont composés
de plusieurs sons purs de fréquences et d’amplitudes différentes. Un son
musical est un cas particulier de son complexe, produit par un instrument de
musique. Parmi les propriétés d’un son musical, nous retiendrons pour l’instant
qu’un son musical est périodique (de période constante au cours du
temps), mais n’est pas forcément sinusoïdal.
21
Analyse spectrale d’un son musical
22
Hauteur d’un son musical :
La hauteur d’un son est associée au nom de la note jouée (do, ré, mi, ... d’une
certaine octave).
La hauteur d’un son est la caractéristique qui permet de dire si un son est aigu
ou grave.
23
Les notes de la musique
Chaque note est caractérisée par une fréquence fondamentale déterminée.
Lorsque deux notes sont séparées d’une octave, le rapport de leur fréquence est égal à
deux. Dans la pratique, ces deux notes ont le même nom, comme par exemple le la de
l’octave 3 et le la de l’octave 4, nommée couramment la3 et la4 pour éviter toute
ambigüité entre elles.
On appelle gamme l’ensemble des notes composant une octave donnée. Dans la gamme
tempérée, c'est-à-dire celle utilisée dans la musique occidentale, l’octave est divisée en
12 demi-tons, ce qui correspond à 12 notes, en comptant les notes diésées (#).
24
Le timbre d’un son musical :
Deux sons musicaux correspondant à une même note (même fréquence fondamentale),
mais émis par deux instruments différents ne sont pas perçus de la même façon par
l’oreille. On dit alors que ces deux sons n’ont pas le même timbre.
25
La durée et l’enveloppe d’un son musical :
Une note musicale a une durée, intervalle entre le début et la fin de la note.
26
Exemple: Analyse de la note Do (262 Hz) (Piano vs. Violon)
Piano : attaque très brève et Violon : attaque progressive et
quasiment pas de corps. extinction progressive, et
Amortissement plus rapide maintien du corps sur une
dans le temps d es période importante. Evolution
harmoniques hautes fréquences stationnaire des harmoniques
par rapport aux harmoniques basses et hautes fréquences.
basses fréquences.
27
Exemples de formats audio
Le format MP3 :
Le format WAV :
Développé par Microsoft et IBM, c’est le format standard pour les fichiers audio sur les
plateformes Windows.
Il n’autorise aucune compression, contrairement au MP3
Il propose un son aussi clair et audible que la maquette originale
C’est le format audio prisé par les professionnels de la musique
En raison du manque de compression, le format WAV est très volumineux et occupe une
28
grande place dans votre système
Le format WMA :
Également conçu par Microsoft
C’est un fichier compressé et sans perte
Le fichier WMA est petit par la taille, mais grand par sa qualité
cette extension fonctionne sur peu d’appareils
29
30
Partie 2: l’image
31
Définition
Une image est un signal caractérisé par une intensité lumineuse I(X, Y)
dépendant de deux variables X et Y dans le plan de l’espace.
32
Image numérique
33
Images matricielles ou bitmap
34
Images vectorielles
Définie par des fonctions mathématiques qui décrivent des lignes, des
courbes etc..
On manipule des objets et non des pixels. Exemple: un cercle est décrit par
une fonction du type (cercle, position du centre, rayon).
35
Caractéristiques des
images:Résolution spatiale
La taille d’une image est définie par le nombre de pixels qui la composent verticalement
et horizontalement. ex: une image de 550x300 pixels
Le poids d’une image numérique est l’espace mémoire qu’elle occupe sur un support
de stockage numérique (disque dur de l’ordinateur, CD…)
La résolution d’une image est définie par le nombre de pixels par unité de surface
exprimé en points par pouce noté: ppp (pixel par pouce) ou en anglais: dpi (dot per inch)
sachant que le pouce (inch)=2.54cm
Cette notion est utile lorsqu’on passe d’un support physique à un support numérique
(ex: une image scannée ou inversement
37
Caractéristiques des
images:Résolution spatiale
Quelques exemples de résolutions fréquemment utilisées:
• Imprimantes grand public: entre 360 dpi et 1400 dpi . Cela permet d'obtenir une qualité
acceptable pour tous les travaux courants (courriers, rapports, etc...)
• Scanners grand public: 300, 600 ou 1200 dpi.
• Matériel d'impression professionnel: au minimum 4800 dpi (impression de qualité et
grandes tailles pour les affiches).
• Ecrans d'ordinateur: 72 dpi .
• Fax: en général en 200 dpi.
38
Caractéristiques des images:
Résolution colorimétrique
Le nombre de couleurs que peut avoir un pixel nombre de bits réservés pour chaque
pixel.
39
6 bit 4 bit 3 bit 2 bit 1 bit
Numérisation d’une image
40
Compression des images: principe
La compression des images garantit un compromis entre la qualité et la taille de stockage
Il existe différents algorithmes de compression d’images:
- sans perte (RLE, LZW, Codage de Huffman)
- avec perte:
• Par transformation: DCT,DWT,FT
• Par prédiction: DPCM,ADPCM
Le codage RLE (Run Length Encoding) est basé sur la redondance de valeurs
consécutives. Une suite de valeurs consécutives identiques est codée par 2 valeurs: le
nombre de répétitions et la valeur répétée. Cet algorithme est efficace lorsqu’il y a
beaucoup de surfaces uniformes.
Exemple
La séquence AAAAAAAAAABBBBBBCCCCCCC sera codée par: 10A 6B 7C
Le codage de Huffman consiste à réduire le nombre de bits utilisés pour le codage des
caractères fréquents dans un texte et d’augmenter ce nombre pour des caractères plus rares.
Les étapes de l’algorythme sont les suivantes:
- Chercher la fréquence des caractères
- Trier les caractères par ordre décroisant de fréquence
- Construire un arbre pour donner le code binaire de chaque caractère
41
Types d’images
Image bitmap ou binaire: avec ce mode, il est possible d'afficher
des images en deux couleurs: noir et blanc donc une seule valeur
par pixel( 0 ou 1) Codage en 1 bit par pixel
42
Types d’images
Image couleur ou trichromatique:
Une image est dite multi-composantes si à chaque pixel on associe plus qu’une valeur.
Une image trichromatique ou image couleur est constitué de trois matrices correspondantes
aux composantes du système couleur utilisé.
Chaque pixel est donc représenté par un vecteur de trois valeurs. (24bits par pixel)
Le système de couleur le plus utilisé est le RVB (Rouge, vert , Bleu); dans ce cas chaque
pixel contient les valeurs des niveaux du rouge, du vert et du bleu.
44
Partie 3: la vidéo
45
La vidéo: Definition
Un flux vidéo est composé d’une succession d’images fixes (25/s en Europe
et 30/s aux USA) composant l’illusion du mouvement.
46
La vidéo analogique: principe
Sur un récepteur de télévision, une image est obtenue par balayage électronique
successif des lignes de luminophores constituant l’écran.
Un écran au standard PAL ou SECAM comprend 625 lignes, alors qu’un écran au
standard NTSC n’en possède que 525.
On sait que, pour donner à l’œil humain une impression d’éclairement continu à
l’aide d’une source lumineuse émettant de façon discontinue (vidéo projecteur,
projecteur de cinéma, écran TV, … ), il faut au moins 40 éclats par seconde
47
La vidéo analogique: principe
Entrelacement: Les demi-images ou trames sont obtenues par balayage des seules
lignes paires dans un 1er temps, puis des lignes impaires dans un 2ème temps.
l’image complète est obtenue par entrelacement des 2 trames.
48
La vidéo analogique: Standards et
calculs
Dans le standard PAL, à raison de 625 lignes par image, de 864 points par ligne et
de 25 images/seconde, on obtient :
625 lignes/image x 864 points/ligne x 25 images/s= 13 500 000 points/s
49
La vidéo numérique
La vidéo numérique est une suite d’images numériques codées par des bits (0 et 1) ce qui
permet une recopie infinie sans perte de qualité
L’histoire du numérique dans la vidéo commence en 1972 – 1982: une anarchie
numérique régna sur le marché
CCIR (Comité Consultatif International des Radiocommunications/ UIT-R
actuellement): numériser des données communes aux systèmes 625 lignes (PAL/SECAM)
et 525 lignes (NTSC).
50
La vidéo numérique; Critères de
qualité
Nombre d'images/trames par seconde
− Cinéma : 24
− Télévision : 25 (France), 30 (USA, Japon).
Qualité propre aux images:
− Définition
− Nombre de couleurs.
Qualité du son
Qualité de la synchronisation entre images et son.
Débit(octet/sec) = poids_image * nb_image/sec
Exemple:
• Image 24 bits 640*480 à 30 images/sec
• Poids image = 640*480 * 3 = 921 600 octets
• Débit = 921 600 * 30 = 28 Mo/s
51
La compression video
Principe: réduire autant que possible les redondances d’informations dans les données .
Compression spatiale
- rechercher sur l’image les éléments redondants : par un exemple un ciel de couleur unie
- On code ensuite la description du bloc correspondant au ciel, plutôt que chaque élément
individuellement.
Compression temporelle
Dans une suite d’images (vidéo), seuls sont codés les éléments qui varient d’une image à
l’autre.
52
Les formats video
AVI (Video for Windows).
MPEG (Moving Picture Expert Group): Il a été établi en 1988 afin de développer les
standards internationaux de compression, décompression, traitement et codage d’
images animés et de données audio.
MOV.QT (Quick Time Movie): développé par Apple concurrent de .AVI de
windows. Il est très répandu sur internet.
.RA (Real Audio): format pour la diffusion en direct de séquences sonores et vidéo
par l’internet (Apllication pour ouvrir ces fichiers Real Player.
.VDO(VDO Live): format pour la diffusion en direct de séquences vidéo par
l’internet.
53
Les standards MPEG
MPEG-1: premier standard utilisé pour la compression de données vidéos et des
canaux audio associés (jusqu’à 2 canaux pour une coute stéréo). Il permet le
stockage de vidéos à un débit de 1.5Mbps dans une qualité proche des cassettes VHS
sur un support CD.
MPEG-2: C’est un standard dédié au départ à la télévision numérique offrant une
qualité élevée et un débit allant jusqu’à 40Mbps (5 canaux audio). Il permet en plus
une identification et une protection contre le piratage. C’est le format utilisé pour les
DVD.
MPEG-4: codage sous forme d’objets numériques offrant une grande intéractivité .
Son usage est adapté au Web et aux périphériques mobiles.
MPEG-7: rend possible la recherche d’information dans le flux de données.
54