Vous êtes sur la page 1sur 61

CHAPITRE 1:

INTRODUCTION AU MULTIMEDIA

I.1 introduction.
I.2 Définitions
I.3 Normalisation
I.3 Aspects de base
I.4 protocoles pour multimédia
I.5 Historique du multimédia

1
Introduction

Nous percevons l'univers à travers nos sens. Nos


organes sensoriels envoient des signaux au
cerveau, qui construit une interprétation de
l’interaction avec notre environnement. Le
processus de communication, consistant à
envoyer des messages d'une personne à une
autre, dépend de notre compréhension des
sens. En général, plus le récepteur perçoit
d’informations, plus il est probable qu’une
communication efficace aura lieu.
2
Introduction
Par exemple, supposons que vous parlez à un ami au téléphone. Qu'est-ce qui
manque dans cette conversation, par opposition à une conversation en face à
face? D'une part, vous ne pouvez pas voir le visage de l'autre personne. Les
expressions et les gestes qui accompagnent ce que nous disons ont beaucoup
à voir avec la communication. Considérons maintenant une lettre que vous
avez écrite décrivant un voyage amusant que vous avez pris. Ici, votre ami ne
peut lire que le texte que vous avez écrit et ne peux pas entendre ta voix dire
les choses que tu as écrites. De plus, la communication est dans un seul sens.
Vous devez attendre un peu avant de savoir ce que votre ami souhaite vous
répondre. Supposons maintenant que vous envoyez une photo de vous-
même à votre ami, avec la lettre. Maintenant, vous envoyez des informations
plus visuelles et votre ami peut visualiser le plaisir que vous avez. Cependant,
l'impact aurait été formidable si vous aviez envoyé une vidéo pendant le
voyage.
Comme vous pouvez le voir, plus vous envoyez d’informations, plus l’impact
de la communication est important.

3
Introduction
Le développement de dispositifs de communication vise à
accroître la quantité d'informations pouvant être transmises.
Les lettres ne concernant que le texte, au téléphone nous
pourrions parler, et maintenant nous assistons au
développement de la téléphonie vidéo. Le développement
des ordinateurs évolue également dans cette direction.
Auparavant, l'ordinateur était capable de fournir uniquement
du texte simple en sortie, maintenant nous pouvons obtenir
du son, des images et plus encore. À l'heure actuelle, une
multitude de dispositifs électroniques multimédia (ordinateur,
labtop, tablet, smartphone, smartwatch…) qui sont capable
de lire des sons, de reproduire des images avec précision et de
lire des vidéos est facilement disponible et largement utilisé.

4
Introduction

Le développement de puissants ordinateurs


multimédias, l'évolution de l'Internet et l’imergence
des réseaux de communication sans fils ont
entraîné une explosion des applications du
multimédia dans le monde entier. De nos jours, les
systèmes multimédias sont utilisés pour
l'éducation, la santé, les présentations, le sport, les
loisirs et l'industrie du jeu. En fait, le multimédia a
des applications partout: dans les entreprises, dans
les écoles et les universités, à la maison et même
dans les lieux publics.

5
Définitions
Définition 1 Un document multimédia est un document
interactif qui comprend au moins deux formes d’informations .
Les formes d’information classiques les plus courante sont :
• Le texte ;
• Les graphes ;
• Les images ;
• Le son ;
• La vidéo ;
• Les animations
A ces types d’informations classiques on peut ajouter les
émotions qui sont intégrés récement dans les applications
multimédia.

6
Définitions
donc, un document multimédia est caractérisé par deux choses :
• L’intégration de plusieurs formes classiques d’information.
• L’interactivité de l’utilisateur avec le contenu multimédia.
Parmi les exemples typiques de documents multimédia on trouve
les documents hypertexte/hypermédia, qui sont définis par :
Définition 2(hypertexte) Un document hypertexte est un document
multimédia structuré de manière non séquentielle (ou non linéaire).
Définition3 (hypertexte )L'hypertexte désigne un mode
d'organisation des documents textuels informatisés caractérisé par
l'existence de liens dynamiques entre ses différentes sections.

7
Définitions
Un système hypertexte est un système contenant des nœuds liés
entre eux par des hyperliens permettant de passer
automatiquement d'un nœud à un autre. Un nœud est une "unité
minimale d'information". Les liens entre les parties du texte sont
gérés par ordinateur et permettent d'accéder à l'information d'une
manière non linéaire, selon le désire de l'utilisateur.

8
Définitions
Supposons que la page A soit la première page du document. À
partir de là, la structure hypertexte est telle que le lecteur peut
choisir entre les pages B ou F. La page B conduit alors à F ou C.
Par contre, il n’est plus possible de consulter B sitôt que F a été
lue ; le seul point d’accès à B est la page de départ A.
Parmi les divers avantages de l'hypertexte, il y a la possibilité de
naviguer rapidement parmi une masse importante d'information,
qu'on peut consulter à des niveaux de détails plus ou moins grands.
L'hypertexte permet également des économies d'espace en évitant
d'avoir à dupliquer des données. En effet, si on peut créer un
hyperlien vers ces données, le tour est joué. Cette technologie peut
également favoriser la collaboration des usagers en vue de la mise à
jour rapide de données. Enfin, la possibilité d'ajouter des
commentaires à des textes favorise l'esprit critique. 9
Définitions
Lorsque les nœuds ne sont pas uniquement textuels, mais de
différentes formes( audio, vidéo…), on peut parler de système et de
documents hypermédias.
Définition 4 : (hypermédia)
Un ensemble de ressource électronique dont le contenu est
multimédia et dont l'architecture est de type hypertexte.
Le World Wide Web, conçu par Tim Berners-Lee en 1989, est
aujourd'hui le système hypermédiat le plus vaste et le plus utilisé : il
compte des milliards de documents répartis dans le monde entier,
lesquels sont consultés par des millions de personnes à travers le
réseau Internet. Les hyperliens du Web sont contenus dans des
documents généralement écrits en langage HTML (HyperText
Markup Language), présentés sous la forme de pages Web.
10
Définitions

Illustration d’un exemple de document hypermédia sur Web

11
De nos jours, les pages web comprennent des
informations de différentes formes, leur structure
et leur contenu sont établis sur base d’un scénario
de navigation. Pour trouver les informations sur
ces pages, il faut recourir à des outils d’indexation
et des moteurs de recherche.

12
NORMALISATION
Pour arriver à une exploitation efficace et universelle des
données multimédia qui sont partagé à travers les réseaux de
communication, il a faut fixer des règles communes pour la
production et le partage de ces données. L’établissement de ces
règles est le but de la normalisation.
Définition 5 La normalisation est un processus politique,
économique et technologique qui consiste à établir un ensemble
de règles appelé norme.
Définition 6 Les normes sont des accords documentés contenant
des spécifications techniques ou autres critères précis destinés à
être utilisés systématiquement en tant que règles, lignes
directrices ou définitions de caractéristiques pour assurer que
des matériaux, produits, processus et services sont aptes à leur
emploi.

13
NORMALISATION
Définition 7 Certification
La certification est l’opération qui consiste à vérifier que des
produits, matériaux, services, systèmes ou individus sont
conformes aux spécifications d’une norme pertinente.
Aujourd’hui, nombre de produits nécessitent des essais de
conformité à des spécifications ou à des règlements de sécurité
avant d’être commercialisés. Il arrive aussi que la législation
nationale exige que de tels essais soient effectués par des
organismes spécialisés indépendants.

14
NORMALISATION
Organismes de normalisation
Les organismes de normalisation peuvent être nationaux,
régionaux ou internationaux. Les organismes de normalisation
nationaux sont mandatés par les gouvernements. Ces
organismes nationaux apportent leur contribution et dispose de
droits de vote au sein des organismes internationaux.
L’organisme de normalisation en Algerie est l’IANOR (Institut
Algérien de Normalisation). Au niveau régional on peut citer
l’ARSO « African Regional Standards Organization » pour
l’Afrique et le CEN ou « Comité européen de normalisation »
pour l’Europe.

15
NORMALISATION
Organismes de normalisation
Au niveau international, le groupe multisecteur le plus connu
pour ses activités est l’ISO (International Organisation for
Standardisation). Pour le secteur de télécommunications l’
organisme le plus importants est l’ITU « International
Telecommunications Union », qui est une agence spéciale des
Nations-Unies. L’organisme international spécialisé pour
l’ingénierie électrique et électronique est l’IEEE « Institute of
Electrical and Electronics Engineers ».

16
NORMALISATION
Exemples de normes pour le multimédia
Une norme multimédia devrait prendre en charge un grand
nombre d'applications. Ces applications se traduisent par un
ensemble spécifique d'exigences pouvant être très différentes
les unes des autres. Un thème commun à la plupart des
applications est la nécessité de prendre en charge l'interactivité
avec différents types de données. Les normes jouent un rôle
majeur dans la révolution multimédia, car ils offrent une
interopérabilité entre le matériel et les logiciels fournis par
plusieurs fournisseurs.

17
NORMALISATION
Norme JPEG :
JPEG (Joint Photographic Experts Group) est une méthode de
compression avec perte normalisée par l’ISO en 1992 . Les applications
commerciales utilisant la norme JPEG ont commencé à apparaître en
1991. Les images codé en JPEG sont largement utilisées sur le Web. La
quantité de compression peut être ajustée pour obtenir le bon
compromis souhaité entre la taille du fichier et la qualité visuelle de
l’image.
La compression JPEG a un des meilleurs taux de compression (20 :1 à
25 :1) sans perte notable de qualité. La compression JPEG est plus
efficace sur les images photographiques (comportant de nombreux
pixels de couleurs différentes) et moins sur des images géométriques
car sur ces dernières les différences de nuances dues à la compression
sont très visibles. Il existe une forme de compression JPEG sans perte
utilisée dans l’imagerie médicale ou spatiale, mais elle est moins
efficace (approximativement 2 :1).

18
NORMALISATION
Les étapes du codage d’une image en utilisant le standard JPEG sont :
1. L’image en base RVB est convertie en base YCbCr et les
composantes de chrominance (Cb et Cr) sont sous-
échantillonnées. Ensuite les trois composantes sont traitées
séparément.
2. Pour chaque composante, on groupe les valeurs par blocs de 8x8
valeurs. Pour chaque bloc on applique un codage par transformée
orthogonale avec la transformée en cosinus discrète, DCT(Discrete
cosine transform)
3. La matrice obtenue par DCT est quantifiée (ce qui induit une
compression destructrice de l’image).
4. Pour chaque composante, on entreprend une compression sans
perte des matrices quantifiées en utilisant un codage pres de
l’entropie : celui-ci consiste à parcourir les blocs de l’image en
zigzag puis à utiliser une compression RLC et un codage entropique
(sans perte : Huffman, voir un codage arithmétique).

19
NORMALISATION

DPCM : Differential Pulse Code Modulation


RLC : Run Length Coding
illustration de la procédé de codage JPEG.

20
Norme H261
H.261 est une ancienne norme de compression vidéo numérique. Mais
sont principe de compression qui est basée sur la compensation de
mouvement (corriger plz) est très largement retenu dans les normes de
compression vidéo ultérieures récentes.
Le Comité consultatif international télégraphique et téléphonique
(ITTCC : International Telegraph and Telephone Consultative
Committee) a entamé le développement de H.261 en 1988. La
recommandation finale a été adoptée par l'UIT-T (International
Telecommunication Union—Telecommunication standardization
sector) en 1990.
La norme a été conçue pour le visiophone, la vidéoconférence et
d'autres services audiovisuels sur les lignes téléphoniques RNIS :
Réseau numérique à intégration de services (ISDN : Integrated Services
Digital Network).
Initialement, la norme H261 était prévu de prendre en charge des
multiples (de 1 à 5) de canaux de 384 kbps (kilobits par seconde). Au
final, le codec vidéo prend en charge les débits binaires de p × 64 kbps,
où p est compris entre 1 à 30. Par conséquent, la norme était connue
sous le nom de p * 64, notée «p star 64».

21
Norme H263 :
H.263 est une norme de codage vidéo améliorée pour la vidéoconférence et
les autres services audiovisuels transmis sur les réseaux téléphoniques
commutés publics RTCP (PSTN Public Switched Telephone Network ).
Il vise des communications à faible débit binaire à des débits inférieurs à 64
kbps. Il a été adopté par la 15 ième commission d'études de l'UIT-T en 1995.
La deuxième version de H.263, également connue sous le nom de H.263 +, a
été approuvée en janvier 1998 par la 16 ième Commission d'études de l'UIT-
T. Elle est entièrement rétrocompatible avec la conception de la version
H.263.
Le but de H.263+ est d'élargir les applications potentielles et d'offrir une
flexibilité supplémentaire. H.263 + comprend de nombreuses
recommandations pour améliorer l'efficacité du code et la résilience aux
erreurs. Puisque le développement de H263+ était après la standardisation
de MPEG-1 et 2, il n’est pas surprenant qu’elle adopte également de
nombreux aspects des normes MPEG.
La troisième version de la norme H263, connue sous le nom de H.263 ++, a
été approuvée pour la première fois en 2000. Une version plus élaborée a été
approuvée en 2005. La norme H.263 ++ inclut les méthodes de codage de
base de H.263 en plus de recommandations supplémentaires.

22
Normes MPEG :
Le groupe « Moving Picture Experts Group » MPEG a été créé en 1988 dans le but de
créer une norme de diffusion de la vidéo et de l’audio numériques. Ce groupe a
développé une série de standard (MPEG-1, MPEG-2, MPEG-4, MPEG-7…) depuis sa
création.
MPEG-1
La norme de compression de l’audio/vidéo numérique MPEG-1 a été approuvée par le
groupe MPEG en novembre 1991 pour le codage des images animées et du son
associé pour les supports de stockage numérique pour un débit allant jusqu'à environ
1,5 Mbit/s.
Les supports de stockage numériques courants comprennent les disques compacts
(CD) et les disques VCD (video compact discs).
La norme MPEG-1 est également appelée ISO/IEC 11172, elle comprend cinq parties:
• Systèmes 11172-1,
• vidéo 11172-2,
• audio 11172-3
• conformité 11172-4 et
• logiciel 11172-5.
Brièvement, la partie système s'occupe, entre autres choses, de diviser la sortie en
train de paquets de bits, de multiplexer et de synchroniser les flux vidéo et audio. La
partie conformité spécifie la conception des tests permettant de vérifier si un train de
bits ou un décodeur est conforme à la norme. La partie logiciel inclut une
implémentation logicielle complète du décodeur MPEG-1 standard et un exemple
d'implémentation logicielle d'un codeur.
23
MPEG-2
Le développement de la norme MPEG-2 a débuté
en 1990. Contrairement à la norme MPEG-1, qui est
essentiellement une norme permettant de stocker
et de lire des vidéos sur le CD d'un seul ordinateur à
faible débit (1,5 Mbps), MPEG-2 est une norme
pour les vidéos de meilleure qualité avec un débit
supérieur à 4 Mbps. La norme MPEG-2 a été
initialement développé pour la télévision
numérique.
Le MPEG-2 a réussi à satisfaire aux exigences de
compression et de débit de la télévision numérique
à haute résolution HDTV et remplace en fait une
norme distincte, MPEG-3, initialement jugée
nécessaire pour la TVHD.
24
La norme MPEG-2 est également appelée ISO/CEI 13818, elle
a été approuvée par le Groupe d’experts en image animée
ISO/CEI en novembre 1994. Semblable à la norme MPEG-1,
elle comporte les parties suivantes :
• 13818-1 Systems
• 13818-2 Video
• 13818-3 Audio
• 13818-4 Compliance
• 13818-5 Software Simulation
• 13818-6 Digital Storage Media - Command and Control
(DSM-CC)
• 13818-7 : Advanced Audio Coding (AAC)
• 13818-9 Real-time Interface for System Decoders
• 13818-10 DSM Reference Script Format
MPEG-2 a acquis une large acceptation au-delà de la
diffusion de télévision numérique sur des réseaux terrestres,
satellitaires ou câblés. Parmi diverses applications telles que la
télévision interactive, il a également été adopté pour les
disques vidéo numériques ou les disques numériques
polyvalents (DVD : digital versatile discs).
La norme MPEG-2 définie sept profils destinés à
différentes applications (par exemple, visioconférence à faible
délai, HDTV…). Dans chaque profil, jusqu'à quatre niveaux
sont définis(Tableau I.2).
Le tableauI.2 répertorie les quatre niveaux du profil principal (Main),
avec la quantité maximale de données et les applications ciblées.
MPEG-4
Les normes MPEG-1 et MPEG-2 utilisent des techniques de codage
basées sur les frames, dans lesquelles chaque frame vidéo rectangulaire est
divisée en macroblocs puis en blocs pour la compression. Ceci est également
appelé codage par blocs. Leur principale préoccupation est le taux de
compression élevé et la qualité satisfaisante de la vidéo sous de telles
techniques de compression.
La norme MPEG-4 avait une emphase très différente. Outre la
compression, l'interactivité de l'utilisateur fait l'objet d'une grande attention.
Cela permet à un plus grand nombre d'utilisateurs de créer et de
communiquer leurs présentations multimédia et leurs applications sur de
nouvelles infrastructures, telles qu'Internet, le World Wide Web (WWW) et
les réseaux mobiles / sans fil.
MPEG-4 se démarque de ses prédécesseurs en adoptant une
nouvelle approche de codage basé sur les objets: les objets multimédias sont
désormais des entités pour le codage MPEG-4. Les objets multimédias
(également appelés objets audio et visuels) peuvent être naturels ou
synthétiques. c'est-à-dire qu'ils peuvent être capturés par une caméra vidéo
ou créés par des programmes informatiques.
Le codage basé sur les objets offre non seulement un taux de
compression plus élevé, mais il est également bénéfique pour la
composition, la manipulation, l’indexation et la récupération de
vidéos numériques. La figure I.4 illustre la manière dont les vidéos
MPEG-4 peuvent être composées et manipulées au moyen
d'opérations simples, telles que l'insertion / suppression, la
conversion / rotation, la mise à l'échelle, etc., sur les objets visuels

VOP = Video object plane


La première version de MPEG-4 a été finalisée en octobre 1998 et est
devenue une norme internationale au début de 1999. La norme
MPEG-4 est aussi nommée ISO / IEC 14496. À l'instar des normes
MPEG précédentes, la norme MPEG-4 possède plusieurs parties, ses
dix premières parties sont les suivantes:

• Part 1: Systems
• Part 2: Visual
• Part 3: Audio
• Part 4: Conformance testing
• Part 5: Reference software
• Part 6: Delivery Multimedia Integration Framework (DMIF)
• Part 7: Optimized reference software for coding of audio-visual
objects
• Part 8: Carriage of ISO/IEC 14496 contents over IP networks
• Part 9: Reference hardware description
• Part 10: Advanced Video Coding
Format MPEG-7
Puisque de plus en plus de contenu multimédia
devient partie intégrante de diverses applications, la
recherche efficace devient un souci primordial. Pour cela,
le groupe MPEG a entrepris l'élaboration d'une autre
norme majeure qui est le MPEG-7.
L'un des points communs entre MPEG-4 et MPEG-7
est la focalisation sur les objets audiovisuels. L'objectif
principal de MPEG-7 est de répondre aux besoins de
recherche basée sur le contenu audiovisuel (audiovisual
content-based retrieval ) dans des applications telles que
les bibliothèques numériques. Néanmoins, il ne se limite
certainement pas à la recherche: il s’applique à toutes les
applications multimédias impliquant la génération
(création de contenu) et l’utilisation (consommation de
contenu) de données multimédia.
MPEG-7 est devenue une norme internationale en septembre 2001.
Son nom officiel est « Multimedia Content Description Interface » (interface
de description de contenu multimédia), connue sous le nom ISO/IEC 15938.
À l'instar des normes MPEG précédentes, la norme MPEG-7 possède plusieurs
parties, ses 13 premières parties sont les suivantes:
• Part 1: Systems
• Part 2: Description definition language
• Part 3: Visual
• Part 4: Audio
• Part 5: Multimedia description schemes
• Part 6: Reference software
• Part 7: Conformance testing
• Part 8: Extraction and use of MPEG-7 descriptions
• Part 9: Profiles and levels
• Part 10: Schema definition
• Part 11: MPEG-7 profile schemas
• Part 12: Query format
• Part 13: Compact descriptors for visual search.
Les caractéristiques (features) sont extraites et utilisées pour
instancier des descriptions MPEG-7. Ils sont ensuite codés par le codeur
MPEG-7 et envoyés au support de stockage et de transmission. Différents
moteurs de recherche émettent des requêtes de recherche, tandis que les
agents filtrent de nombreux documents transmis au terminal - utilisateurs et /
ou systèmes informatiques et applications qui utilisent (consomment) les
données.
Pour la description du contenu multimédia, la norme MPEG-7 a mis
au point des descripteurs (Descriptors D), des schémas de description
(Description Schemes DS) et un langage de définition de description
(Description Definition Language DDL).
IV . ASPECTS DE BASE DU MULTIMEDIA

IV. 1 L’interactivité
Dans un système multimédia, si l'utilisateur a la possibilité de
contrôler quels éléments sont livrés et à quel moment, le système s'appelle
un système interactif. Les médias traditionnels incluent la télévision, le
cinéma, la radio et les journaux. On les appelle les médias de masse, puisque
les processus de communication sont à sens unique, provenant d'une source
et livrés à un public de masse. Ces technologies combinent également l'audio,
la vidéo, les graphiques et le texte, mais de manière inflexible. Par exemple,
un film a un début, un milieu et une fin prédéfinis, indépendamment du
public qui les regarde. Avec le pouvoir de l'ordinateur, les mêmes médias
pourraient être manipulés par le public.
De cette manière, le public n’a pas besoin de rester passif, mais
devient l’utilisateur du système. Ainsi, la différence essentielle entre les
médias de masse et le multimédia réside dans le passage de l’audience aux
utilisateurs et communication à sens unique vers une communication
bidirectionnelle. Ceci est accompagné par l'interactivité.

34
IV . ASPECTS DE BASE DU MULTIMEDIA

IV.2 éléments d’un système de communication multimédia


Il existe deux modes de communication clés dans lesquels les systèmes
multimédia sont généralement utilisés: communications de personne à
personne et communications de personne à machine. Les éléments clés des
systèmes multimédia sont présentés dans Figure I.6. Ces deux modes ont
beaucoup de points communs, ainsi que certaines différences.

35
IV . ASPECTS DE BASE DU MULTIMEDIA

IV.2 éléments d’un système de communication multimédia


Dans le mode de personne à personne représenté sur la figure
I.6 (a), il existe une interface utilisateur (user interface) qui fournit les
mécanismes permettant à tous les utilisateurs d'interagir les uns avec
les autres et une couche de transport qui déplace le signal multimédia
d'un emplacement d'utilisateur vers tous les autres emplacements
d'utilisateur associés aux communications. L'interface utilisateur crée
le signal multimédia et permet aux utilisateurs d'interagir avec le
signal multimédia d'une manière facile-à-utiliser. La couche de
transport préserve la qualité des signaux multimédia afin que tous les
utilisateurs reçoivent ce qu’ils perçoivent comme des signaux de haute
qualité à chaque emplacement d’utilisateur. Les exemples
d'applications pour le mode de personne à personne sont la
téléconférence, les visiophones, l'apprentissage à distance et les
scénarios d'espace de travail partagé.

36
IV . ASPECTS DE BASE DU MULTIMEDIA

IV.2 éléments d’un système de communication multimédia


Dans le mode personne à machine, représenté sur la figure I.6
(b), il existe à nouveau une interface utilisateur pour interagir avec la
machine, ainsi qu'une couche de transport pour déplacer le signal
multimédia de l'emplacement de stockage vers l'utilisateur, ainsi qu’un
mécanisme de stockage et de récupération des signaux multimédia
créés par l'utilisateur ou demandés par l'utilisateur. Les mécanismes de
stockage et de récupération impliquent la navigation et la rechercher
des données multimédia existantes. En outre, le stockage et
l'archivage afin de déplacer les données multimédia créées par
l'utilisateur vers l'emplacement approprié pour que d'autres puissent y
accéder. Exemples d'applications pour le mode personne à machine:
création et accès à des notes de réunion d’affaires, accès à des vidéos
diffusées et à des archives de documents à partir d’une bibliothèque
numérique.

37
IV . ASPECTS DE BASE DU MULTIMEDIA

IV.3 Besoins des utilisateurs


L'utilisateur a besoin d'un système de communication multimédia qui prépare
et présente les informations d'intérêt, permet le contrôle dynamique des
applications et fournit une interface naturelle.
Du point de vue de l’utilisateur, les exigences les plus importantes en matière
de communication multimédia sont les suivantes:
• Préparation et présentation rapides des différents types d’informations
présentant un intérêt, en tenant compte des capacités des terminaux et
des services disponibles.
• Contrôle dynamique des applications multimédias en ce qui concerne les
interactions de connexion et la qualité à la demande, associé à des
interfaces utilisateur / machine conviviales.
• Support d’assistance intelligente des utilisateurs en tenant compte de
leurs capacités individuelles
• Normalisation.

38
IV . ASPECTS DE BASE DU MULTIMEDIA

Du point de vue du réseau, les exigences les


plus importantes des communications
multimédia sont les suivantes:
• Haut débit et débits changeants
• Plusieurs connexions virtuelles sur le même
accès
• Synchronisation de différents types
d’informations

39
IV . ASPECTS DE BASE DU MULTIMEDIA

IV.4 Domaines d’intérêt et applications du multimédia


Du point de vue informatique, l’intérêt du multimédia réside dans le
fait qu’une grande partie des concepts couvertes dans les domaines de
l’informatique traditionnelle trouvent leurs place dans le domaine du
multimédia. A cet effet le contenu multimédia est omniprésent dans
les logiciels tout autour de nous. le multimédia s’intéresse souvent
aux problèmes plus généraux en informatique. Par exemple, le
domaine de la vision par ordinateur, c’est-à-dire d’une branche de
l’Intelligence Artificielle qui s’efforçait de comprendre le contenu des
images. Ce domaines est très riche en discipline comme :
reconnaissance de scène (scene recognition), classification d’objet
(object classification), détection d’objet (object detection),
segmentation d’image (image segmentation)….

40
IV . ASPECTS DE BASE DU MULTIMEDIA

IV.4 Domaines d’intérêt et applications du multimédia


Dans le monde numérique actuel, le contenu multimédia
est enregistré, lu, affiché ou accédé par des dispositifs de
traitement de contenu numérique, allant des
smartphones aux tablettes, ordinateurs portables,
ordinateurs personnels, téléviseurs intelligents et
consoles de jeux, aux serveurs et centres de données, en
passant par ces supports de distribution. en tant que
bandes, disques durs et, plus généralement, réseaux
câblés et sans fil.

41
IV . ASPECTS DE BASE DU MULTIMEDIA

IV.4 Domaines d’intérêt et applications du multimédia


Cela conduit à une grande variété de sujets de recherche:
• Traitement multimédia et codage : cela inclut le traitement audio / image
/ vidéo, les algorithmes de compression, l'analyse du contenu multimédia,
la récupération multimédia basée sur le contenu, la sécurité multimédia,
etc.
• Prise en charge du système multimédia et mise en réseau : abordant des
sujets tels que les protocoles réseau, les réseaux Internet et sans fil, les
systèmes d'exploitation, les serveurs et les clients, ainsi que les bases de
données.
• Outils multimédia, les terminaux et les applications : ceux-ci
comprennent les systèmes hypermédia, les interfaces utilisateur, les
systèmes de création, l’interaction multimodale et l’intégration, les
périphériques pour le Web omniprésents, formation multimédia, y
compris apprentissage et conception en collaboration supporté par
ordinateur et applications d’environnements virtuels.

42
IV . ASPECTS DE BASE DU MULTIMEDIA

IV.4 Domaines d’intérêt et applications du multimédia


La recherche en multimédia touche presque toutes les branches de
l'informatique. Par exemple, l’exploration de données (fouille de
données, forage de données, prospection de données, data mining,
ou encore extraction de connaissances à partir de grandes quantités
de données) est un domaine de recherche important et actuel. Les
applications de télémédecine ( La télémédecine regroupe les pratiques
médicales permises ou facilitées par les télécommunications) , telles
que la "consultation télémédicale des patients sont des applications
multimédia largement présentent dans la médecine moderne.
La recherche multimédia est également hautement interdisciplinaire
et englobe d'autres domaines de recherche tels que le génie
électrique, la physique et la psychologie; le traitement du signal
audio / vidéo.

43
IV . ASPECTS DE BASE DU MULTIMEDIA

Télémédecine

44
IV . ASPECTS DE BASE DU MULTIMEDIA

Télémédecine

45
V. PROTOCOLES POUR MULTIMEDIA

Classification: La classification traditionnelle des réseau, fondée sur la


notion d’étendue géographique.
• LAN (Local Area Network), réseau local d’étendue limitée à une
circonscription géographique réduite (bâtiment...), ces réseaux
destinés au partage local de ressources informatiques (matérielles
ou logicielles) offrent des débits élevés de 10 à 100 Mbit/s.
• MAN (Metropolitan Area Network), d’une étendue de l’ordre d’une
centaine de kilomètres, les MAN sont généralement utilisés pour
fédérer les réseaux locaux ou assurer la desserte informatique de
circonscriptions géographiques importantes (réseau de campus).
• WAN (Wide Area Network), ces réseaux assurent généralement le
transport d’information sur de grande distance. Lorsque ces
réseaux appartiennent à des opérateurs, les services sont offerts à
des abonnés contre une redevance. Les débits offerts sont très
variables de quelques kbit/s à quelques Mbit/s.

46
V. PROTOCOLES POUR MULTIMEDIA

Classification: La classification traditionnelle des réseau, fondée sur la


notion d’étendue géographique.
• LAN (Local Area Network), réseau local d’étendue limitée à une
circonscription géographique réduite (bâtiment...), ces réseaux
destinés au partage local de ressources informatiques (matérielles
ou logicielles) offrent des débits élevés de 10 à 100 Mbit/s.
• MAN (Metropolitan Area Network), d’une étendue de l’ordre d’une
centaine de kilomètres, les MAN sont généralement utilisés pour
fédérer les réseaux locaux ou assurer la desserte informatique de
circonscriptions géographiques importantes (réseau de campus).
• WAN (Wide Area Network), ces réseaux assurent généralement le
transport d’information sur de grande distance. Lorsque ces
réseaux appartiennent à des opérateurs, les services sont offerts à
des abonnés contre une redevance. Les débits offerts sont très
variables de quelques kbit/s à quelques Mbit/s.

47
V. PROTOCOLES POUR MULTIMEDIA
V.2.2 Couche de transport: TCP et UDP
Le protocole de contrôle de transmission (Transmission Control
Protocol : TCP) et le protocole de datagramme d'utilisateur (User
Datagram Protocol :UDP) sont deux protocoles de la couche de
transport utilisés sur Internet pour faciliter les communications
hôte à hôte (ou de bout en bout).
TCP : Ce protocole permet d’assurer un canal de transmission fiable
des octets d’un flux de données entre deux ordinateurs dans un
réseau.

48
V. PROTOCOLES POUR MULTIMEDIA
V.2.2 Couche de transport: TCP et UDP
La structure générale d’un segement selon le protocole TCP est la
suivante :
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

Port Source 2 octets Port destination 2 octets

Numéro de séquence

Numéro d'acquittement

ECN
Taille de l'en-tête Réservé CWR ECE URG ACK PSH RST SYN FIN Fenêtre
/ NS

Somme de contrôle Pointeur de données urgentes

Options Remplissage

Données

49
V. PROTOCOLES POUR MULTIMEDIA
V.2.2 Couche de transport: TCP et UDP
UDP : l’UDP est un protocole de transmission pour le mode non
connecté (Datagramme). Le rôle de ce protocole est de permettre
la transmission de données de manière très simple entre deux
entités. Pour qu'un message soit livré de manière fiable, il doit être
traité par sa propre application dans la couche application. Ce
protocole est plus flexible pour certaines applications, par exemple
l’ audio/ vidéo conférence multipartite où chaque participant
s'attend à entendre/voir tous les autres.
Le paquet UDP est encapsulé dans un paquet IP. Il comporte un en-
tête suivi des données proprement dites à transporter.

En-tête IP En-tête UDP Données

50
V. PROTOCOLES POUR MULTIMEDIA

L'en-tête d'un datagramme UDP est plus simple que celui de TCP
elle à la structure suivante :

Port Source (16 bits) Port Destination (16 bits)


Longueur (16 bits) Somme de contrôle (16 bits)
Données (longueur variable)

51
V. PROTOCOLES POUR MULTIMEDIA
V.3 les protocoles pour la transmission multimédia et l'interaction
V.3.1 protocole http (HyperText Transport Protocol) :
Le HTTP est un protocole conçu à l'origine pour la transmission
de contenu Web, mais il prend également en charge la transmission
de tout type de fichier. Le développement standard de HTTP a été
surveillé à la fois par l’IETF (Internet Engineering Task Force) et le
World Wide Web Consortium (W3C), aboutissant à la publication
d’une série de RFC (Request for Comments), notamment le RFC 2616
(juin 1999), qui définit HTTP 1.1, la version de HTTP en usage
commun.
Le HTTP est un protocole de la couche application ( avec le TCP
en couche de transport) pour la communication client-serveur .
Les clients HTTP les plus connus sont les navigateurs Web permettant
à un utilisateur d'accéder à un serveur contenant les données. Le
HTTPS ( S :secured) est la variante du HTTP sécurisée par l'usage des
protocoles didiés. 52
V. PROTOCOLES POUR MULTIMEDIA
V.3 les protocoles pour la transmission multimédia et l'interaction
V.3.2 protocole RTP (Real-Time Transport Protocol):
Le protocole de transport en temps réel (RTP), défini dans le
document RFC 3550, est conçu pour le transport de données en
temps réel, telles que les flux audio et vidéo. Le RTP est utilisé
comme protocole pour les services de la voix sur IP ou de vidéo
conférence, voire de streaming. RTP est unidirectionnel mais peut
être utilisé en mode diffusion (multicast) via satellite. Il est alors
extrêmement économique en termes de ressources réseau pour
servir un grand nombre de récepteurs, ce qui permet d'augmenter
considérablement le débit utile et la qualité de codage du contenu.

53
V. PROTOCOLES POUR MULTIMEDIA
V.3 les protocoles pour la transmission multimédia et l'interaction
• V.3.3 protocole RTCP (RTP Control Protocol):
Le protocole de contrôle du RTP (RTCP), également défini dans la
RFC 3550, est un protocole compagnon du protocole RTP. Il surveille la
qualité de service en fournissant un retour d'information à la source sur
la qualité de la transmission des données et transmet des informations
sur les participants à une session de multidiffusion. RTCP fournit
également les informations nécessaires à la synchronisation audio et
vidéo, même si elles sont envoyées via différents flux de paquets.
Le RTCP fournit les statistiques de bandes passantes et des informations
de contrôle pour un flux RTP. La fonction principale du RTCP est de fournir
des informations sur la qualité de service (QoS) dans la distribution des
médias en envoyant périodiquement des informations statistiques aux
participants à une session de flux multimédia (audio ou vidéo).

54
V. PROTOCOLES POUR MULTIMEDIA
V.3 les protocoles pour la transmission multimédia et l'interaction
• V.3.3 protocole (Real-Time Streaming Protocol)
Le protocole RTSP (Real-Time Streaming Protocol), défini dans
le document RFC 2326, est un protocole destiné au application de
streaming en temps réel. Il permet de contrôler les serveurs de
diffusion en continu. Le protocole est utilisé pour établir et contrôler
les sessions multimédias entre les points finaux. Les clients des
serveurs multimédias émettent des commandes telles que lecture,
recherche aléatoire et pause, pour faciliter le contrôle en temps réel
de la lecture de fichiers multimédias à partir du serveur.

55
VI HISTORIQUE DU MULTIMEDIA

• 1967 : Nicholas Negroponte forme le groupe Architecture


Machine au MIT.
• 1969 : Nelson et van Dam de « Brown University » créent un
éditeur pour hypertexte appelé FRESS.
• 1976 Le MIT Architecture Machine Group propose un projet
intitulé «Multiple Media». Il en résulte le « Aspen Movie Map »,
le premier vidéodisque, en 1978.
• 1982 Le disque compact (CD) est commercialisé par Philips et
Sony. Il devient rapidement le support standard et populaire
pour les données audio numériques, remplaçant la bande
magnétique analogique.
• 1985 Negroponte et Wiesner ont cofondé le MIT Media Lab, une
institution de recherche consacrée à la vidéo numérique et au
multimédia.
56
VI HISTORIQUE DU MULTIMEDIA

• 1990, Kristina Hooper Woolsey dirige le laboratoire multimédia


d’Apple, qui emploie 100 personnes. L’éducation est l’objectif
principal.
• 1991 MPEG-1 est approuvé en tant que norme internationale pour
la vidéo numérique. Son développement ultérieur a conduit à la
mise au point de normes plus récentes, MPEG-2, MPEG-4 et MPEG,
dans les années 90.
• 1991 L'introduction des PDA (Personal Digital Assistant,) en 1991
marque le début d'une nouvelle période d'utilisation des
ordinateurs en général et du multimédia en particulier. Ce
développement s'est poursuivi en 1996 avec la commercialisation
du premier PDA sans clavier.
• 1992 JPEG a été accepté comme norme internationale pour la
compression d’images numériques, qui est toujours largement
utilisé (par exemple, par pratiquement tous les appareils photo
numériques). 57
VI HISTORIQUE DU MULTIMEDIA

• 1990, Kristina Hooper Woolsey dirige le laboratoire multimédia


d’Apple, qui emploie 100 personnes. L’éducation est l’objectif
principal.
• 1991 MPEG-1 est approuvé en tant que norme internationale pour
la vidéo numérique. Son développement ultérieur a conduit à la
mise au point de normes plus récentes, MPEG-2, MPEG-4 et MPEG,
dans les années 90.
• 1991 L'introduction des PDA (Personal Digital Assistant,) en 1991
marque le début d'une nouvelle période d'utilisation des
ordinateurs en général et du multimédia en particulier. Ce
développement s'est poursuivi en 1996 avec la commercialisation
du premier PDA sans clavier.
• 1992 JPEG a été accepté comme norme internationale pour la
compression d’images numériques, qui est toujours largement
utilisé (par exemple, par pratiquement tous les appareils photo
numériques). 58
VI HISTORIQUE DU MULTIMEDIA

• 1992 Le premier multicast audio sur le backbone multicast


(MBone) est réalisé.
• 1995 Le langage JAVA est créé pour le développement
d'applications indépendantes de la plate-forme, largement
utilisé pour le développement d'applications multimédias.
• 1996 DVD vidéo a été introduit; Des films complets de haute
qualité ont été distribués sur un seul disque. Le format DVD
promettait de transformer les industries de la musique, des jeux
et de l’informatique.
• 1998 les lecteurs MP3 portatifs sont introduits sur le marché
grand public, avec initialement 32 Mo de mémoire flash.
• 2000: la taille du WWW était estimé à plus d’un milliard de
pages , Sony a dévoilé les premiers prototypes de
disques Blu-ray en octobre 2000.
59
VI HISTORIQUE DU MULTIMEDIA

• 2003 : Skype est disponible gratuitement sur Internet pour la


communication par voix.
• 2004 Le Web 2.0 a été reconnu comme un nouveau moyen pour les
développeurs de logiciels et les utilisateurs finaux afin de promouvoir
la collaboration et l’interaction des utilisateurs pour travailler dans le
cadre de "communauté virtuelle". Les exemples incluent les réseaux
sociaux, les blogs, les wikis, etc.
• 2005 YouTube a été créé, offrant un portail facile pour le partage de
vidéos.
• 2006 Amazon a lancé sa plate-forme de cloud computing,

60
VI HISTORIQUE DU MULTIMEDIA
• 2007 Apple lance la première génération d'iPhone, avec le système
d'exploitation mobile iOS. Son écran tactile permettait des opérations
très intuitives.
• 2008 : commercialisation du premier téléphone Android
• 2009 Le premier réseau LTE (Long Term Evolution) a été mis en place à
Oslo (Norvège) et à Stockholm (Suède), marquant ainsi une étape
importante dans la mise en réseau en réseau sans fil.
• 2013 Sony lance sa PlayStation 4. La télévision à résolution 4K a
commencé à être disponible sur le marché grand public.

61

Vous aimerez peut-être aussi