Vous êtes sur la page 1sur 14

Chapitre1 : Audiovisuel et la qualité perçus

1.1. Introduction

Au cours des années 1920 à 1940, le disque 78 tours, le cinéma noir et blanc (muet puis
parlant) et la radiodiffusion sonore ouvrent la voie de ce que l'on appellera plus tard
l'audiovisuel. Les années 1950 à 1970 voient se développer le disque microsillon, le cinéma et
la photo en couleurs, la radiodiffusion sonore en modulation de fréquence monophonique puis
stéréophonique, la télévision en noir et blanc puis en couleurs, et la bande magnétique audio
en bobines puis en cassettes. Le transistor permet de développer des appareils autonomes à
piles.

Les années 1970 à1980 sonnent le glas du cinéma d'amateur sur film (16 mm, 8 mm et super-
8), définitivement remplace par le magnétoscoper. Le circuit intègre permet de réaliser
économiquement des dispositifs complexes : c'est le début de l'informatique grand public.

Les années 1980 à 1990 sont surtout marquées par la télévision par satellites, le
Développement des techniques audio numériques avec le disque compact (CD en abrège), et
la miniaturisation des caméras et magnétoscopes désormais fusionnes dans le caméscope.

Les années 1990 s'orientent vers une diversification des formats numériques audio sur disques
et bandes magnétiques, et une extension du format CD à l'image (CD vidéo, CD photo) et aux
informations de toutes sortes (CD-ROM, CD-I).

Désormais, on peut associer l'ordinateur a des analyseurs d'images, des micros ou des
caméras, des mémoires, des imprimantes, des modulateurs de transmission, des écrans, des
haut-parleurs, etc., sans oublier les logiciels et les liaisons avec des banques de données. Ainsi
seconde, il devient appareil de saisie de l'information, enregistreur, machine de traitement,
machine de création ou d'aide a la création, appareil de divulsion de tous messages,
audiovisuels et autres, en bref : machine à communiquer. Les supports traditionnels (papier,
disque, bande) peuvent être remplaces par un support unique et universel, la mémoire de

L’ordinateur, ce que tente d'exprimer le vocable multimédia. Le seul facteur de limitation à


ces techniques réside pour le moment dans l'énorme capacité de mémoire exigée par les
images. [1]
1.2. Définition audiovisuel
Le signal audiovisuel est doublement composé d’un signal vidéo et d’un signal audio,
donc audiovisuel sert a désigner tout ce qui est relatif a image et/ou au son .Les
fichiers audiovisuels s’agit de toutes les formes d’enregistrement du son et/ou des
images animées et/ou des images fixes.[5]

1.3. Les domaines de l’utilisation de l’audiovisuel


1. Domaine enseignement/ apprentissage
L’emploi des supports audiovisuels à plusieurs avantages pour
l’enseignement/apprentissage des langues étrangères. Nous pouvons en citer les
suivant :

-L’audiovisuel facilite la mémorisation.

- L’emploi de l’audiovisuel participe à apporter la vie quotidienne en classe de FLE.

-L’enseignant a la possibilité de présenter ce contenu avec des moyens didactiques


et pédagogiques appropriés. [2]

-Le professeur possède la liberté et la responsabilité pour organiser le contenu


audiovisuel.

2. Vidéoconférence
En 1968, la vidéoconférence a été introduite pour la première fois et présentée comme
une solution commerciale à l’exposition universelle de New York. La technologie
introduite s'appelait le Picture phone d'AT & T. Les participants ont pu s'asseoir et
communiquer «par vidéo» avec la personne de l'autre côté pendant 10 minutes à la fois
pour faire l'expérience du premier appareil de visiophone conçu pour les masses.
Malheureusement, cette machine particulière était ridiculement chère, maladroite et
difficile à installer, donc elle n'a pas vraiment décollé. Pourtant, être capable de voir
quelqu'un qui était loin du confort de votre canapé était plutôt cool pour les années
1960.
Avec le début maladroit, l'adoption de la vidéo n'a pas eu la chance de se généraliser
avant les années 1980. La vidéo est restée un fantasme de science-fiction dans l'esprit
des consommateurs car il semblait invraisemblable que jusqu'à l'introduction des
systèmes de Compression Labs, ces systèmes ont commencé à se vendre pour 250 000
$ et le système de visioconférence de Picture Tel a subi une forte baisse de prix à 80
000 $ dans le à la fin des années 80, les deux semblent beaucoup plus accessibles aux
grandes sociétés. [8]

3. Face Time
Face Time est une application de chat vidéo développée par Apple. Apple l'a
développé sur un standard ouvert, ce qui signifie que techniquement (sans jeu de
mots), FaceTime pourrait être utilisé sur une gamme de plates-formes, et d'autres
fabricants peuvent tirer parti du protocole de Face Time. Cependant, en réalité,
FaceTime reste disponible uniquement pour les utilisateurs de produits Apple. et vous
devrez également contacter quelqu'un sur l'un de ces appareils. Cependant, Apple a
tarifé l'application FaceTime si bas (actuellement seulement 99 cents).
La façon dont vous utilisez FaceTime dépend de l'appareil que vous souhaitez appeler.
Si vous souhaitez appeler l'iPhone de quelqu'un, vous pouvez simplement composer
son numéro de téléphone. Si vous souhaitez le joindre sur l'iPad, l'iPod Touch ou
l'ordinateur Mac, vous devez saisir l'adresse e-mail. La bonne (ou la mauvaise)
nouvelle est que lorsque vous passez ou recevez un appel FaceTime, il sonne sur tous
vos appareils Mac.[9]
4. Demain de l’art
L'art audiovisuel regroupe les pratiques artistiques de
l'audiovisuel : diaporama, cinéma expérimental, art vidéo, vidéo mapping, vidéo
jockey, etc.[5]
5. Domaine de l’autorité
La possibilité d'enregistrer des images et du son a naturellement attiré l'attention des
autorités militaires. À partir de la fin du XIXe siècle, l'audiovisuel sert à la fois pour
les opérations de renseignement militaire et pour la propagande. La Section
cinématographique de l'armée (SCA) est créée en 1915.[5]

1.4. Les flux de base de l’audiovisuel


1. Vidéo
Une vidéo est une succession d'images à une certaine cadence. L'œil humain a comme
caractéristique d'être capable de distinguer environ 20 images par seconde. Ainsi, en
affichant plus de 20 images par seconde, il est possible de tromper l'œil et de lui faire
croire à une image animée. On caractérise la fluidité d'une vidéo par le nombre
d'images par secondes (en anglais frame rate), exprimé en FPS (Frames per second,
en français trames par seconde). [4]

1.2 Codecs
Un codec est un algorithme de compression / décompression d’un signal
audiovisuel numérique [15], La vidéo ou l'audio brut est compressé lors de
l'encodage et décompressé (décodé) lors de la lecture. MP3 est un codec audio -
une norme de compression que les lecteurs MP3 savent décoder, et les encodeurs
MP3 savent encoder.

1.3 codecs Vidéo


1. Format H264 /AVC
La norme de codage vidéo avancée H.264 / MPEG-4 (H.264 / AVC) est la norme
de codage vidéo la plus récente développée conjointement par le Groupe d'experts
du codage vidéo UIT-T (VCEG) et le groupe d'experts ISO / IEC Moving Picture
(MPEG). [6]
H.264, actuellement l'un des codecs vidéo fréquemment utilisés, est une
compression populaire pour la vidéo HD. Étant donné que H.264 peut atteindre
des vidéos de haute qualité dans des débits binaires relativement bas, il est
couramment utilisé dans les caméscopes AVCHD, HDTV, Blu-ray et HD DVD.
MP4 (.mp4) est l'un des formats vidéo codés H.264. [7]
Figure: Diagramme de bloc de codeur H.264.

2. Format MPEG-4
MPEG-4 utilise des techniques similaires à M-JPEG, en ce qui concerne la mise en
séquence. Il compare essentiellement deux images compressées, enregistre l'image
et enregistre uniquement la différence à partir de chaque image séquentielle
supplémentaire, comme le mouvement, ce qui permet d'économiser du temps, de
l'espace mémoire et une puissance de traitement. [13]
Un taux de compression plus élevé fait partie des avantages de MPEG-4. Il peut
synchroniser l'audio et la vidéo, et est idéal pour la visualisation en temps réel.
MPEG-4 a été conçu pour prendre en charge les applications à faible bande
passante.
Les inconvénients de MPEG-4 incluent une qualité d'image inférieure (M-JPEG),
et il est autorisé, ce qui permet aux téléspectateurs d'avoir des frais
supplémentaires. Il prend en charge un nombre réduit de caméras, comme les
caméras méga pixels. [7]
3. AV1 (AOMedia Video 1)
AV1 est actuellement candidat à la normalisation par l'Internet Engineering Task
Force (IETF) en tant que vidéo InternetCodec (NetVC). La finalisation du
processus de normalisation est prévue fin 2018.
Le logiciel de référence AV1 est officiellement disponible depuis mars 2018. il
fournit à la fois un décodeur et un encodeur de référence. Bien que la syntaxe et le
flux binaire soient toujours mis à jour, le codeur logiciel AV1 implémente une
optimisation de codage non évidente et des algorithmes non normatifs tels que la
quantification adaptative ou la structure de sous-gop dynamique. Il peut optimiser
le PSNR ou les critères de qualité perceptuelle. Il prend en charge trois modes de
fonctionnement RC: VBR, CBR (Rate Control (RC) , Constant Bitrate (CBR),
Variable Bitrate (VBR)et Constant (oude façon équivalente-) Qualité. Il
implémente une stratégie à passes multiples (jusqu'à 2), où la première passe peut
calculer des statistiques de bloc, de trame ou de GOP (group of picture) utilisées
par des algorithmes non normatifs afin d'améliorer l'efficacité du codage ou de
réduirela complexité d'encodage de la deuxième passe. Concernant l'optimisation
d'exécution, un certain nombre d'optimisations de niveau sont implémentées pour
accélérer l'encodage.
Encore une fois, nous soulignons que ces diverses optimisations d'encodage sont
hors de portée du standard de compression vidéo et pourraient s'appliquer à
n'importe quel codec. Cela met en évidence la difficulté de différencier les
performances de mise en œuvre de l'encodeur des performances standard. [10]

4. VP8 (Video Compression Format or Video Compression


Specification)
VP8 a été développé par ON2 technologies en 2008 et acquis par Google en 2010.
Google a publié VP8 en tant qu'alternative libre de droits au H.264 dans le cadre
du projet open source «Webm».
VP8 est basé sur la décomposition des images en sous-blocs carrés de pixels, la
prédiction des sous-blocs à l'aide de blocs précédemment construits et l'ajustement
des prédictions à l'aide d'une transformée en cosinus discrète (DCT) ou dans
certains cas.
Dans VP8, il existe deux types de trames compressées: intra trames et inter trames.
Les images intra sont représentées sans référence à aucune image antérieure. Ils
peuvent donc être décodés indépendamment. Dans VP8, les images intra sont
également appelées images clés. Ils peuvent être utilisés comme points de départ
pour la lecture. Les trames inter (ou les trames de prédiction, telles que les trames
P en MPEG) sont représentées avec des références aux trames précédemment
codées. Le décodage d'une trame inter dépend directement du décodage correct de
jusqu'à trois trames précédentes appelées dernière trame, trame altref et trame
dorée. La dernière image est l'image immédiatement précédente. Une trame Altref
ou une trame de référence alternative est décodée normalement mais peut ou non
être affichée dans le décodeur. Il peut être utilisé uniquement comme référence
pour améliorer l’inter-prédiction pour d'autres trames codées ou peut être utilisé
pour transmettre des données utiles à la compression. Le cadre doré peut être
utilisé par les encodeurs VP8 pour améliorer l'efficacité du codage. Par exemple, il
peut être utilisé pour conserver une copie de l'arrière-plan et reconstruire l'arrière-
plan lorsqu'un objet en mouvement s'éloigne. Le cadre doré peut également être
utilisé pour la récupération d'erreurs dans une vidéoconférence en temps réel, ou
même dans une vidéoconférence multipartite pour l'évolutivité. Chaque image clé
est automatiquement à la fois dorée et altref, et toute image intermédiaire peut
éventuellement les remplacer. VP8 n'a pas de prédiction bidirectionnelle. Il n'y a
pas de concept de trames B comme en MPEG.[11]

5. HM (High Maintenance)
HM est la norme de référence. fournit à la fois un décodeur et un codeur logiciel
de référence utilisés pendant le processus de normalisation. Par conséquent, le
décodeur de référence est entièrement conforme à la spécification normalisée.
L'encodeur de référence fournit une implémentation de codage à force brutale, où
pratiquement tous les outils de codage possibles sont implémentés et mis en
concurrence sur la base d'une optimisation exhaustive de RateDistortion (RDO)
par unité de codage (CU). Il optimise la distorsion en fonction de l'erreur
quadratique moyenne ou de manière équivalente PSNR. Il n'y a pas de stratégie
prospective ou avancée à plusieurs passes disponible. Il fournit un contrôle de
débit limité et un mode de fonctionnement de qualité constante (c'est-à-dire un
paramètre de quantification constant (QP)) est préféré. L'objectif de ce logiciel est
de fournir une base de code commune et complète pour effectuer des
comparaisons de recherche et des outils de codage normatif équitable au cours du
processus de normalisation. Ce logiciel est écrit en C / C ++ et contient un nombre
limité d'optimisations de bas niveau (c'est-à-dire des accélérations SIMD basées
sur SSE2). Il s'agit d'un seul thread. L'optimisation du code et les performances
d'exécution n'étaient pas au centre de la conception du logiciel. En conséquence, le
temps d'exécution du codage est particulièrement lent et est compté en minutes par
trame. [10]

2. Audio
L’audio est une onde produite par la vibration mécanique d’un support fluide ou solide
et propagée grâce à l’élasticité du milieu environnant sous forme d’ondes
longitudinales. Par extension physiologique, l’audio désigne la sensation auditive `a
laquelle cette vibration est susceptible de donner naissance.[12]

1. Codec audio
1. Formats audio compressés sans perte
- RAW : RAW est un format audio utilisé pour représenter les données de son en
modulation d’impulsion codée sans en-tête ni métadonnées. [5]
- BWF : Le BWF est un format audio standard permet de stocker des méta-données
dans le fichier. Il s’agit du format d’enregistrement usuel utilisé dans de nombreuses
stations de travail audio professionnel de la télévision et du cinéma. Les Fichiers BWF
incluent une référence standardisée Timestamp qui permet et facilite la
synchronisation avec un élément d’image distincte. [5]
- CAF : Le CAF a été développé par Apple pour s’affranchir des limitations de
conteneur audio plus ancien comme le AIFF ou le WAV. Il est compatible avec le
système Mac OS X d’Apple depuis la version 10.3 et est lisible par Quicktime 7.
Dans un contexte fortement concurrentiel, un des principaux enjeux pour les acteurs
de l’offre de services audiovisuels (AV) est de garantir une qualité d’expérience (QoE
-Quality of Experience-) optimale à l’utilisateur.[5]

- ALAC (Apple Lossless Audio Codec)


C’est un format de codage sans perte de données, créé en 2004 par Apple.
Avantages : Ce n’est plus un format propriétaire depuis fin Octobre 2011. Comme
tous les formats sans perte, il peut compresser les fichiers sans aucune forme de
dégradation. Il possède globalement toutes les qualités du FLAC avec un avantage en
plus, celui d’être compatible avec les produits Apple.
Inconvénients : Au regard de ses concurrents, ALAC possède une effi cacité de
compression moindre, car il a été développé pour des appareils moins puissants que
les ordinateurs de bureaux (par exemple pour des baladeurs, l’iPod en particulier). Il
est aussi plus lent et plus volumineux que la plupart des formats sans perte.[3]

2. Formats audio compressés avec perte

- AC3 : La compression AC3 permet d’utiliser jusqu’à 6 canaux sonores indépendants


avec un taux échantillonneuse de 32, 44,1 ou 48 kHz et avec un taux de transfert allant
de 32 `a 640 kbit/s. Le Dolby Digital utilise ce principe de codage, c’est pourquoi on
le désigne souvent sous ce nom. Format tr`es courant dans les DVD. [5]
- MP3 : MP3 est l’abréviation de MPEG-1/2 Audio Layer 3, La couche (Layer) III est
la couche la plus complexe. Elle est dédiée `a des applications nécessitant des débits
faibles (128 kbit/s) d’où une adhésion très rapide du monde Internet `a ce format de
compression. [5]
- MP3PRO : Le format mp3PRO, fruit de la collaboration entre Thomson Multimédia
et l’Institut Fraunhofer, combine l’algorithme MP3 et un système améliorant la qualité
des fichiers comprimés appelé (en)SBR pour Spectral Bandwidth Replication. [5]

- OGG: Format de fichier libre et open source, par la fondation Xiph.org dont le but est
de proposer des formats et codecs libres de droits. Il contient Vorbis, un format de
compression pour l’audio et Théora, un format de compression pour la vidéo.
Extensions : .ogg, .ogv, .oga, .ogx.

Avantage : Il est totalement libre et gratuit.

Inconvénient : Il est très peu utilisé ne supportant que les formats libres. [14]

3. Formats audio non compressés


- PCM : La modulation par impulsions et code est une représentation numérique des
ondes sonores analogiques. En MIC, l’échantillonnage est utilisé pour convertir les
ondes acoustiques sous forme numérique. PCM est instancié par deux capacités
principales: la fréquence d'échantillonnage et la profondeur de bits. La fréquence
d'échantillonnage permet de mesurer l'amplitude des vagues dans le temps et la
profondeur de bits correspond au nombre de bits d'information dans chaque
échantillon. PCM est largement utilisé dans la création de CD et de DVD.

- WAV : Le format audio Waveform, ou tout simplement WAV, est un format audio
brut et non compressé développé par Microsoft et IBM et principalement utilisé sur les
plates-formes Windows. Avec le développement de formats sans perte supérieurs tels
que FLAC (voir ci-dessous), WAV a perdu de son attrait en tant que format «de
qualité proche de celle d'un CD», mais est toujours très populaire en raison de sa
grande disponibilité.

3. Logiciel pour lire les audiovisuelle

- VideoPad Vidéo Editor : est un logiciel d’édition vidéo grâce auquel vous pourrez
rapidement vous lancer sur You tube ou Face book. Il contient toutes les options
nécessaires pour effectuer un montage rapide et efficace dont des effets de transition
ou encore un effet de stabilisation.

- Cinelerra : Est un logiciel libre de montage audio/vidéo non-linéaire sophistiqué,


équivalent aux logiciels propriétaires Adobe première™, Final Cut™ et Sony
Vegas™. est un outil de montage complet, qui peut faire:

 des transitions et la possibilité d'en créer de nouvelles de son cru


 des effets vidéo complexes qui sont tous "keyframable"
 des modifications sur la partie audio du montage, réglages des volumes, effets audio,
spatialisation du son
 de la composition vidéo de très haut niveau, avec une fonction "masque" permettant
de cacher ou rendre transparente des zones de l’image
- VLC media Player : VLC est un Framework et un lecteur multimédia multiplateforme
gratuit et open source qui lit la plupart des fichiers multimédias ainsi que des DVD, CD
audio, VCD et divers protocoles de streaming.

1.5. La qualité
La qualité est généralement utilisée dans l’optique d’une ingénierie, car elle est un
critére essentiel pour évaluer les systèmes, les services ou les applications au cours des
phases de conception et d’exploitation. Fondamentalement, la qualité est le résultat
d’un jugement humain base sur divers critères. La qualité perçue, et plus largement la
QoE, devient un élément clé qu’il faut par conséquente savoir mesurer. [16]

1.5.1. La qualité de l’expérience (QoE)

La QoE est une mesure du jugement personnel de l’utilisateur selon son expérience
vécue, sur la qualité globale du service fourni par les opérateurs et fournisseurs de
services Internet.

En effet, la notion de l’expérience utilisateur a été introduite pour la première fois par
le Dr Donald Norman, évoquant l’importance de la conception d’un service centré
utilisateur [17]. Gulliver et Ghinea [18] décomposent la QoE en trois composantes :
l’assimilation, le jugement et la satisfaction.

La qualité d’assimilation est une mesure de la clarté du contenu d’un point de vue
informatif. Le jugement de qualité reflète la qualité de présentation. La satisfaction
indique le degré d’appréciation globale de l’utilisateur.

Pour évaluer la qualité audiovisuel il existe essentiellement deux catégories


d’évaluation à savoir les méthodes subjectives qui impliquent des observateurs
humains pour évaluer la qualité des contenus multimédias et des méthodes objectives
qui calculent la qualité automatiquement `a l’aide de modèles mathématiques.[5]

1.6. Evaluation de la qualité


1.6.1. Evaluation de la qualité subjective
Afin de mesurer de manière fiable la qualité perceptuelle par les systèmes auditifs
et/ou visuels humains, les tests subjectifs sont effectués lorsque des groupes
d’observateurs humains formés ou naïfs fournissent des cotes de qualité [19]. Cette
procédure d’évaluation est connue comme évaluation de la qualité subjective qui
vise à quantifier gamme d’opinions que les utilisateurs expriment quand ils
voient / entendre le contenu numérique et elle est généralement effectuée dans un
environnement bien contrôlé `a l’aide de recommandations normalisées.
Les modèles subjectifs d’´evaluation de la qualité des multimédia les plus
performants et les plus utilisés sont normalisés par l’Union Internationale des
Télécommunications (UIT). Cet organisme est chargé de la normalisation et de la
planification des télécommunications dans le monde. Elle établit les normes de ce
secteur et diffuse toutes les informations techniques nécessaires pour permettre
l’exploitation des services mondiaux de télécommunications.
D’autres modèles sont aussi proposés par des laboratoires universitaires ou encore
par des sociétés privées, mais ils ne sont pas validés par les normes de l’UIT. [5]

1.6.2. Evaluation de la qualité objective


Bien que l’évaluation de la qualité subjective fournisse des indices fiables de la
qualité de la perception humaine, il ne peut pas être appliqué dans l’évaluation de
la qualité en temps réel en service. Ainsi, les méthodes d’´evaluation de la qualité
objective ont été mis au point pour remplacer le panneau humain par un modèle de
calcul pour prédire les résultats d’un test subjectif. A savoir, l’objectif de
l’évaluation objective de la qualité est d’estimer automatiquement les valeurs
MOS, qui sont aussi proches que possible de scores de qualité obtenus à partir
évaluation de la qualité subjective. [20]

1.3 Conclusion
Dans ce chapitre nous avons abordé certaines définitions associées à l’audiovisuel
notamment la vidéo et l’audio tout on passe par sa qualité qui contient la qualité subjective et
objective et qui seront des points essentiels dans la suite de notre travail.

Dans le chapitre suivant nous avons voir les différents métrique d’évaluation de la qualité
audiovisuelle (QAV).
Référence :

[1] M.TAYACHI and Hamida MAKLOUF. Techniques audiovisuelles. Université Virtuelle


de Tunis, (2006).

[2] Revue des études humaines et sociales. -b/ lettres et langues_ 19. p.37- 48. (Janvier 2018).

[3]Solène LIMOUSIN,Mieux connaître les formats audio, Publié le 16/10/2016


https://www.supinfo.com/articles/single/2680-mieux-connaitre-formats-audio

[4]Jean-François Pillou,Introduction à la vidéo numérique, Dernière modification le mardi 19


mai 2015 à 09:06  .https://www.commentcamarche.net/contents/1493-introduction-a-la-video-
numerique

[5]abdou &ayache,Evaluation de la qualité des données audiovisuelles,2019

[6] Thomas Wiegand and Gary J,” Sullivan the H.264/AVC Video Coding Standard”, IEEE
SIGNAL PROCESSING MAGAZINE [153] MARCH 2007

[7] Synthèse et étude comparative sur les méthodes de compression vidéo. Mr. Selmi
Mohammed El-Amin.Mr. Yala Mohammed. Université abou bakr belkaid
Tlemcen.02/07/2017.

[8]A Brief History Of Video Conferencing,OCT 15, 2018  |  VIDEO CONFERENCING

[9]What is FaceTime?,BY HOWSTUFFWORKS.COM CONTRIBUTORS


[10]Analysis of Emerging Video Codecs: Coding Tools, Compression Efficiency and
Complexity,Julien Le TanouMediaKind, R&D, Médéric Blestel, October 2018

[11]Video Codec Standards Comparison for Video Streaming Over SDN 1 Shiva
Rowshanrad, 2 Sahar Namvarasl, 3Behnaz Jamasb, 4Manijeh Keshtgary 1, 2, 3 IT
department, Shiraz University of Technology (SUTECH), Shiraz, Iran 2 Assoc. Prof., IT
department, Shiraz University of Technology (SUTECH), Shiraz, Iran,VOL. 5, NO. 1,
February 2015 ISSN 2225-7217
[12]H.BENZENINE. Traitement du son. http://dspace.univ-tlemcen.dz.

[13] L.Chiariglione (Convenor),"MPEG-4 project description", Document ISO/IEC


JTC1/SC29/WG11 N1177, Munich MPEG meeting, January 1996.

[14] Mieux connaître les formats vidéo, Solène LIMOUSIN, Publié le 11/10/2016 à


23:55:23,https://www.supinfo.com/articles/single/2564-mieux-connaitre-formats-video

[15] Mélanie Tremblay. Documents audiovisuels numériques. Stage pratique Rabat (Maroc),

(2012).

[16] T.H.Falk Z. Akhtar. Audio-visual multimedia quality assessment: A comprehensive

survey. (2017).

[17] D. Norman and S. Draper. User centered system design: New perspectives on human
computer interaction l. erlbaum associates. (1986).

[18] S. R. Gulliver and G. Ghinea. The perceptual and attentive impact of delay and jitter in
multimedia delivery. IEEE Transactions on Broadcasting, 53(2):pp. 449-458, (juin2007).

[19] Requirements for an Objective Perceptual Multimedia Quality Model. Document ITU

Rec.J.148. ITU Telecommunication Standardization Sector, (2010).

[20] S. Bech and N. Zacharov. Perceptual Audio EvaluationTheory, Method and Application.

New York, NY, USA, (2006).