Vous êtes sur la page 1sur 216

Matière Technologie et protocoles pour le multimédia

Objectifs du cours

• – Aperçu des technologies multimédia


• – Permettre un raisonnement “multimédia”
• – Comprendre l’évolution
• – Identifier une série d’éléments importants

2
Quelques objectifs plus “techniques”

• – Comprendre la différence entre l’analogique et


le numérique
• – Identifier les éléments déterminant la qualité
d’un signal numérique
• – Comprendre les contraintes liées à la
transmission de signaux numériques dans les
réseaux
• – Comprendre le fonctionnement du réseau
Internet

3
Programme : Technologie et
protocoles pour le multimédia
Chapitre 1. Analyse multimédia : Normes et
Protocoles
• Introduction au multimédia
• Définitions, normalisation, exemples de normes.
• Multimédia et hypertexte, fondements du
multimédia, Composantes du Multimédia,
Diversité des applications multimédia et besoins,
• Internet (structure et vision). Les protocoles IP,
UDP, RTP, TCP/IP, RTSP,
• Multicast, Réservation de ressources …

4
SUITE du PROGRAMME
Chapitre 2. Les signaux multimédia
• Son (Ton ou hauteur tonale, Intensité, timbre,
Durée, analyse spectrale …etc),
• Image, vidéo. Rappels sur la compression image.
Descriptif sur la Compression des signaux Audio.
• Introduction sur la compression vidéo.
• Problématique du changement de formats.
• Edition de documents multimédia.

5
SUITE du PROGRAMME
Chapitre 3. Techniques de synchronisation
multimédia
• Principe et définition.
• Approches locales, approches distribuées.
• Indexation des fichiers multimédia par le
contenu.
• Interactions dans les applications multimédia.

6
SUITE du PROGRAMME
Chapitre 4. Introduction aux techniques d'accès
• Les catégories de réseaux de transfert,
• Les différents types de transmission et multiplexage,
• Le réseau téléphonique,
• Les réseaux à commutation,
• Les réseaux d’accès : les technologies SDH et WDM,
• Les architectures dans la boucle locale : fibre, réseaux
câblés HFC, réseaux XDSL et faisceaux hertziens LMDS.

7
SUITE du PROGRAMME
Chapitre 5. Services réseau et sécurité
• Protocole http,
• Messagerie électronique,
• Transfert de fichiers,
• Téléphonie sur IP,
• vidéo sur IP,
• qualité de service QoS
• télévision interactive.
• Cryptage et Chiffrement.
• Watermarking (Tatouage) numérique de données.
• Stéganographie.
• Sécurité dans les réseaux

8
• CHAPITRE 1:
Analyse multimédia : Normes et Protocoles

9
Les acteurs technologiques du monde
multimédia

10
Les acteurs technologiques du monde
multimédia

11
Les acteurs technologiques du monde
multimédia
• Signaux multimédia. La technologie s’est
développée principalement dans le but de
diversifier la forme de présentation de
l’information. Elle comprend à la fois de
l’information textuelle, des images, jusqu’à
inclure des animations.

12
Les acteurs technologiques du monde
multimédia

13
Les acteurs technologiques du monde
multimédia
• Réseaux de télécommunications. Le réseau
téléphonique fut le premier réseau grand
public de communication. Ayant ses propres
contraintes, le multimédia s’accommode plus
difficilement de ce réseau ; il lui préfère le
réseau de transmission de données qu’est le
réseau Internet.

14
Les acteurs technologiques du monde
multimédia

15
Les acteurs technologiques du monde
multimédia
• Informatique. Les progrès de l’informatique
ont été fulgurants ces dernières années. La
convivialité des outils logiciels facilite
l’apprentissage de l’usage de l’ordinateur par
un nombre croissant d’utilisateurs alors que la
puissance des micro-processeurs double
chaque année.

16
Les acteurs technologiques du monde
multimédia

17
Les acteurs technologiques du monde
multimédia
• Normalisation. Enfin, un échange
d’information n’est possible que s’il existe un
“langage” commun, ce qui dans le monde
technique s’appelle des normes ou
standards1. Par ailleurs,la figure 1.1 en
reprend quelques-unes (SGML, MPEG, : : )

18
Définitions

Sens « multimédia »

• Définition 1 Le terme multimédia vient du pluriel du


mot latin « medium » c'est-à-dire « moyen/support
diffusion ou de transmission de signaux ».

• Définition 2 Le « multi »- « media » se définit par


l’utilisation de plusieurs moyens de communication
simultanément.

19
Définitions (Suite)
• Depuis la fin des années 2000, on utilise le
mot « multimédia » pour désigner toute
application utilisant ou servant à travailler sur
au moins un « média » spécifique tel que :
messages écrits, sonore ou visuels.

20
Définitions (Suite)

• Définition 3 Aujourd’hui le multimédia est


défini par l’ensemble des moyens de
communication qu’utilise les machines
informatiques pour communiquer avec
l’homme.
• Les dernières définitions approuvées
définissent le multimédia comme l'industrie
du « contenu numérique » (digital content en
anglais.

21
Définitions (Suite)

• Définition 4 un signal multimédia se caractérise


par l’intégration d’au moins deux signaux parmi le
texte, les graphiques, les images, le son et les
séquences vidéo. Ce sens s’étend lentement pour
inclure la notion d’interactivité.. On pourrait donc
définir un document multimédia comme suit :

• Définition 5 Un document multimédia est un
document interactif qui comprend au moins deux
signaux de type différent.
22
Interactivité

• Les documents écrits tels que nous les


connaissons se présentent sous une forme
linéaire ; le lecteur les parcourt dans un ordre
unique et pré-établi.
• D’un point de vue informatique, un produit
multimédia fait appel à deux techniques
voisines: l’hypertexte et l’hypermédia, non
séquentielles car elles offrent plusieurs
moyens de parcourir l’information.

23
L’hypertexte


Le terme « Hypertexte » fut proposé en 1965
par Ted Nelson pour décrire des documents
traduisant la structure non linéaire des idées.
S’appliquant à une bibliothèque de fichiers, la
technique hypertexte consiste à chaîner ensemble
de ses fichiers par un tissu de relations non
séquentiel.
Ces liens permettent ainsi à l’utilisateur de
naviguer parmi des sujets variés sans
tenir compte de l’ordre dans lequel ils sont
rangés.
24
L’hypermédia

La technique hypermédia, similaire au mode
hypertexte, s’applique aux documents
composés de textes, de sons, d’images et de
toutes combinaisons de ces derniers.
De la même manière que la technique
hypertexte, l’hypermédia présente toutes ces
données sous forme de stockage-recherche
d’informations.
25
• D’où la Définition 6

Un document hypertexte / hypermédia est un


document multimédia structuré de manière
non séquentielle.

26
Principe de l’hypertexte
• L’hypertexte présente donc plusieurs choix au
lecteur ; c’est lui qui choisit l’ordre entre les
pages, appelées nœuds, en activant des liens.

Figure: Exemple de structure hypertexte comprenant 6 nœuds et 10 liens.


27
• complexité à la création d’un document
hypertexte par rapport à un simple texte
• veiller à assurer une cohérence entre les
pages parcourues sachant qu’il y a plusieurs
possibilités de lecture,
• à permettre un retour en arrière,
• à définir des moteurs de recherche ….

28
• Actuellement les pages comprennent des
graphiques, des images, des animations
audiovisuelles voire des questionnaires ; leur
structure et leur contenu sont établis sur base
d’un scénario de navigation. Avec le réseau
Internet, ces pages sont même dispersées à
travers le monde entier.

29
• pour en arriver là il a fallu :
- fixer des formats,
- établir des règles de dialogue entre machines
- résoudre les questions de communication à
travers les réseaux de télécommunications.

L’établissement de ces règles est le but de la


normalisation.
30
Normalisation
1/ Définitions
• La normalisation, ou standardisation, un rôle
essentiel dans le développement de produits,
elle s’applique aussi bien au format du papier,
qu’au matériel, logiciel, couleur, interface et
même à la qualité de la production.

• Définition 7 La normalisation est un processus


politique, économique et technologique qui
consiste à établir un ensemble de règles.
31
Normalisation
1/ Définitions (Suite)
• Le travail de normalisation résulte en normes que
l’ISO définit comme suit :

• Définition 8 Les normes sont des accords


documentés contenant des spécifications
techniques ou autres critères précis destinés à
être utilisés systématiquement en tant que règles,
lignes directrices ou définitions de
caractéristiques pour assurer que des matériaux,
produits, processus et services sont aptes à leur
emploi.

32
Normalisation
1/ Définitions (Suite)
• “ ISO ” ( International Organization for Standardization)
: Fédération mondiale d’organismes nationaux de
normalisation de quelque 130 pays, à raison d’un
organisme par pays. Elle a pour mission de favoriser le
développement de la normalisation et des activités
connexes dans le monde, en vue de faciliter entre les
nations les échanges de biens et de services et de
développer la coopération dans les domaines
intellectuel, scientifique, technique et économique. Les
travaux de l’ISO aboutissent à des accords
internationaux qui sont publiés sous la forme de
normes internationales.

33
Normalisation
2/ Diffèrent types
On distingue les standards de facto imposés par un constructeur
, des standards officiels qui eux résultent d’un accord.

34
Question : Faut-il préférer un produit répondant
à des normes ?

35
Réponse :
La réponse est oui dans la majorité des cas.
L’utilisateur peut ainsi espérer une meilleure
intégration du produit dans des solutions tant
matérielles que par logiciel. Il y a malheureusement
des cas où seul un produit non conforme à des normes
est disponible ou, pire, où un constructeur dispose
d’un monopole de marché.

Cours TS 921_ Technologie et Protocoles


36
pour le Multimédia
2 /Certification
• la certification est l’opération qui consiste à vérifier que
des produits, matériaux, services, systèmes ou individus
sont conformes aux spécifications d’une norme
pertinente.
• Un client peut vouloir vérifier le produit qu’il a
commandé auprès d’un fournisseur.
• L’une des procédures les plus efficaces est de s’appuyer
sur les spécifications du produit lorsqu’elles sont définies
dans une norme internationale ; la plupart des normes
actuelles prévoient un chapitre spécifiquement lié à la
certification. Ainsi, le fournisseur comme le client, du fait
qu’ils utilisent les mêmes références, sont en mesure de
se protéger mutuellement.

37
Aujourd’hui, nombre de produits
nécessitent des essais de conformité à
des spécifications ou à des règlements de
sécurité avant d’être commercialisés.

38
3 / Organismes de normalisation
• Des organismes de normalisation ont été
créés pour définir des standards et permettre
l’intégration d’éléments provenant de
fournisseurs distincts, mais aussi d’établir une
concurrence plus saine.

39
secteur de télécommunications
• International Telecommunications Union (ITU)
agence spéciale des Nations-Unies
• toute décision engage les gouvernements des
pays membres à s’y plier
• l’European Telecommunications Standards
Institute (ETSI) organisme européen, créé en
1989 pour contrebalancer l’influence du
groupe de normalisation américain ANSI. à
l’initiative du Conseil des ministres.
40
• l’ITU a développé une série de
recommandations, appelée série V, décrivant
la connexion d’un modem à un réseau
téléphonique.
• l’ETSI a développé entre autres l’Euro-RNIS et
la norme GSM.

41
• Pour des domaines plus récents et plus
complexes comme le multimédia, la situation
est plus confuse dans la mesure où les acteurs
sont plus nombreux.

42
Dans le monde informatique
• l’Institute of Electrical and Electronics
Engineers (IEEE) développé Ethernet

• l’International Organisation for


Standardisation (ISO). Norme MPEG

43
Groupes de normalisation
internationaux
ISO International Organisation for
Standardisation
IEC Commission Électronique Internationale
ITU Union Internationale des
Télécommunications
CIE Commission Internationale de l’Éclairage
IAU International Astronomical Union
IFIP International Federation for Information
Processing
IPA International Prepress association

44
Groupes de normalisation régionaux
CEN European Committee for Electrical
Standardisation
CEPT European Conference of Postal and
Telecommunications Administrations
ETSI European Telecommunications
Standards Institute
IBN Institut Belge de Normalisation
BSI British Standards Institute
JSA Japanese Standards Association

45
a) Structure d’un groupe de
normalisation
• Les groupes de normalisation ont tous une
structure différente. Cette structure comprend
généralement un secrétariat et une série de
domaines techniques dans lesquels œuvre
une série de sous-groupes organisés
hiérarchiquement. Ainsi, l’ISO est organisé en
Technical Committees (TC), puis en Sub-
Committees (SC) et finalement en Working
Groups (WG).
46
Structure organisationnelle de quelques groupes
de l’ISO :
– JTC1/SC29 (Picture and audio coding)/WG10
(JPEG), WG11 (MPEG)
– JTC1/SC24 (Computers and Imaginery)/WG6
Computer Graphics Metafile.

47
b) Phases du développement d’une
norme
• une norme en cours de développement de l’ISO passe
successivement par les étapes suivantes :
 Working Draft (WD)
 Committee Draft (CD) : rédaction d’un projet de norme
appelé CD
 Draft International Standard (DIS) : Une fois, le projet
validé, il est appelé DIS, le document porte la référence
ISO/DIS XXXX
 International Standard (IS)
 chaque standard a un numéro unique ; c’est
l’identifiant de la norme

48
Exemples de normes
• – la format A4 papier est une norme ISO
• – la série V de l’ITU définit les modes
connexion d’un modem au réseau
téléphonique (V90, …)
• – les familles H32x définissent des normes de
vidéoconférence
• – les langages HTML, XML
• – les numéros ISBN, . . .
49
Numérotation des comptes bancaires

• Pour faciliter les paiements transfrontaliers, l’ISO a


défini la norme ISO-13616 “International Bank Account
Number” (IBAN) pour l’uniformisation des numéros de
compte bancaire.
• L’IBAN se compose de 3 parties :
1. du code ISO du pays où le compte est tenu (2 lettres)
2. d’un chiffre de contrôle (2 chiffres) et
3. de l’actuel numéro de compte national.

50
Normes de qualité : ISO 9000
• Les normes de qualité ISO 9000 constituent une
référence incontestable en matière de qualité.
• Le tableau suivant résume le contenu des différentes
parties de la norme 9000.

51
• La norme est ensuite déclinée suivant le
secteur d’activités. Les normes applicables aux
différents secteurs sont reprises dans le
tableau suivant.

52
53
Applications et besoin du
multimédia

Enseignement/Formation
Jeux éducatifs, sites Web d'établissements scolaires et
universitaires, etc.
Divertissement/Loisirs
Applications de Web TV, jeux vidéo, de musique et de
vidéo.
Communication/Echanges sociaux
Réseaux sociaux, forums de discussion.
Commerce/EconomieCours TS 921_ Technologie et Protocoles
54
Catalogues électroniques, netbanking, sites d'achat,
pour le Multimédia
Applications et besoin du multimédia
(suite)
• Culturel
livres électroniques, musées en ligne.
• Tourisme/Voyages
sites de réservation d'hôtels et d'avions, systèmes de
géolocalisation par satellite.
• Santé
Portails d'information sur la santé plateformes
d'échange de données sur la santé.
• Edition/Presse
Journaux en ligne, magazines sur CD-ROM ou DVD,
dictionnaires et livres électroniques.
Cours TS 921_ Technologie et Protocoles
55
pour le Multimédia
• Internet

Cours TS 921_ Technologie et Protocoles


56
pour le Multimédia
Les structures

• Le développement du réseau mondial Internet est assez


particulier parce qu’il n’y a pas d’autorité unique qui gère
la totalité du réseau.
• Pour faciliter la coordination des groupes, l’Internet
Society a été créé (ISOC) en 1992. L’ISOC est une
association sans but lucratif qui regroupe les
professionnels de tous les horizons d’Internet.

• Les structures d’Internet sont de deux types :


• (1) celles qui ont la charge de la distribution des adresses
et de l’information (partie gauche de la figure),
• (2) celles qui définissent la technologie (partie droite de la
figure).

Cours TS 921_ Technologie et Protocoles


57
pour le Multimédia
Les structures (Suite)

Adresses et noms

Technologie
Technologie et Protocoles pour le Multimédia
58
Les structures (Suite)

(1) Les adresses et les noms


• INTERNIC (Internet Network Information Center) et la société Network Solutions
(ISOC) : chargés du contrôle des adresses au niveau mondial, déléguant leur
pouvoir à l’organisme Réseaux IP Européens (RIPE) pour l’Europe. RIPE déléguait
ensuite partiellement son pouvoir à des sociétés commerciales qui exploitent
directement le réseau Internet.

• l’ICANN (Internet Corporation for Assigned Names and Numbers) qui officie
comme le régulateur des organismes autorisés à donner des noms de domaine.
• En matière de domaines principaux (Top-Level Domain ou TLD, dite aussi
extension), les noms génériques sont limités à sept : .com (commerce), .mil
(militaire), .int (international), .gov (gouvernement), .org (organisation), .net
(réseau) et .edu (éducation aux États-Unis). Tous datent de la fin des années 1980.
• Depuis, les suffixes désignant les pays (.dz par exemple pour l’Algérie) sont venus,
au milieu des années 1990, enrichir la nomenclature.
• Actuellement de nouveaux suffixes existent proposés par l’ICANN: .aero, .biz,
.coop, .info, .museum, .name et .pro.

Cours TS 921_ Technologie et Protocoles


59
pour le Multimédia
Les structures (Suite)

• (2) La technologie
• La définition des standards sur Internet s’effectue par des organismes spécifiques.
• l’Internet Engineering Task Force (IETF) organisme bénévole qui canalise les
développements, organisé en 8 secteurs de recherche.
• Les résultats des travaux sont publiés sous la forme de Request For Comments
(RFC). Ces documents, disponibles gratuitement sur Internet (www.ietf.org), font
l’objet de discussion et certains deviennent des standards comme par exemple :
RFC 791 (décrit IP) après une procédure que contrôle l’Internet Architecture
Board (IAB). Les travaux de recherche sont effectués au sein de l’Internet
Research Task Force (IRTF).
• l’Internet Assigned Number Authority (IANA) définit toutes les grandeurs
arbitraires (par exemple l’équivalent des préfixes téléphoniques pour Internet).
Cette société héberge aussi la base de données des Country Code Top Level
Domains. On y trouve par exemple des informations sur la gestion des noms de
domaines nationaux comme « .fr »
• Ces groupes ne sont pas les seuls. Ainsi le World Wide Web Consortium (W3C)
effectue tout le travail relatif au Web. Dans certains cas, les résultats obtenus sont
ensuite présentés à l’IETF pour adoption. Ainsi, les normes HTML 4.0, XML ou
HTTP/1.1 ont d’abord été définies par le W3C, avant d’être soumises à l’IETF pour
approbation.
60
• Les applications se lient à des sockets pour
accéder au réseau
➢ Ces sockets (connecteur réseau ou interface
de connexion )système sont identifiées par une
adresse IP et un numéro de port
• Pour toute connexion via socket, il faut
connaitre l'IP et le port que nous allons
utiliser.
• Le port est comme une porte. Il faut que nos
deux programmes soient sur le même pour
pouvoir communiquer.
• L'IP est comme un numéro de téléphone, le
client doit entrer celle du serveur pour s'y
connecter.
Le protocole IP
• Le protocole IP a pour but de transporter les
paquets, appelés datagrammes, d’une
extrémité à l’autre du réseau. Ces derniers
sont des octets issus de la couche de transport
et encapsulés à l’aide d’un en-tête IP avant
d’être propagés vers la couche réseau
(Ethernet par exemple).
Structure de l’en-tête

L’en-tête d’un paquet IP est illustré à la figure;


Structure de l’en-tête

• VERSION : 4 bits qui spécifient la version du Protocol IP. L’objet de ce


champ est la vérification que l’émetteur et le destinataire des
datagrammes sont bien en phases avec la même version ( IPv4 ou IPv6).

• IHL : 4 bits qui donnent la longueur de l’en-tête en mots de 4 octets. La


taille standard de cette en-tête fait 5 mots, la taille maximale fait : (23 + 22
+ 21 + 20) × 4 = 60 octets.

• TOTAL LENGTH : Donne la taille du datagramme, en-tête plus données. La


taille des données est donc à calculer par soustraction de la taille de l’en-
tête. 16 bits autorisent la valeur 65535.

• TYPE OF SERVICE : ce champ définit 4 bits utiles sur les huit (3 à 6). Ceux-ci
indiquent au routeur l’attitude à avoir vis à vis du datagramme (Minimiser
le délai, Maximiser le débit, Maximiser la qualité ou bien alors Service
normal).
• IDENTIFICATION, FLAGS et FRAGMENT OFFSET : Ces mots sont prévus pour
contrôler la fragmentation des datagrammes.
• TTL “ Time To Live ” : 8 bits, 255 secondes maximum de temps de vie pour un
datagramme sur le net. Ce champ n’est qu’un compteur décrémenté d’une unité à
chaque passage dans un routeur.
• PROTOCOL : 8 bits pour identifier le format et le contenu des données.
• HEADER CHECKSUM : 16 bits pour s’assurer de l’intégrité de l’en-tête. Lors du
calcul de ce “ checksum ” ce champ est à 0. A la réception de chaque paquet, la
couche calcule cette valeur, si elle ne correspond pas à celle trouvée dans l’en-tête
le datagramme est oublié sans message d’erreur.
• SOURCE ADDRESS : Adresse IP de l’émetteur, à l’origine du datagramme.
• DESTINATION ADDRESS : Adresse IP du destinataire du datagramme.
• IP OPTIONS : 24 bits pour préciser des options de comportement des couches IP
traversées et destinatrices. Les options les plus courantes concernent
• Des problèmes de sécurité
• – Des enregistrements de routes
• – Des enregistrements d’heure
• – Des spécifications de route à suivre
• PADDING : Remplissage pour aligner sur 32 bits.
MTU et fragmentation

• Maximum Transfer Unit (MTU) : taille max des données (charge


utile) transportées sur un réseau physique.

• MTU des différent types de réseaux:


• Ethernet : 1 500 octets
• Arpanet : 1000 octets
• FDDI : 4470 octets

• Si le datagramme est trop grand pour passer sur le réseau, le


routeur va le fragmenter, c'est-à-dire le découper en fragments de
tailles inférieures au MTU du réseau et de telle façon que la taille du
fragment soit un multiple de 8 octets.
Champs Fragmentation
le routeur ajoute des informations afin que la machine de destination puisse
réassembler les fragments dans le bon ordre. On effet, chaque datagramme
possède plusieurs champs permettant leur
réassemblage :

identification : valeur identifiant le datagramme d'origine relativement a


l'adresse IP Source
Bit 0 : n'est pas utilisé.
bit D(Don't Fragment) : indique si le datagramme peut être fragmenté ou non
bit M(More Fragment) : a 0 si ce datagramme est le dernier (ou seul) fragment

déplacement : champ permettant de connaître la position du début du


fragment dans le datagramme initial. L'unité de mesure de ce champ est de 8
octets
• Mais si un fragment manque, la totalité du datagramme est perdu car aucun
mécanisme de contrôle n'est implémenté pour cela dans IP.

• C'est la raison principale pour laquelle il faut absolument éviter de fragmenter un


datagramme IP !
l'opération de fragmentation d'un datagramme IP
Résumé de la fragmentation
H1 H2 H3 H4 H5
IDENTIFICA
I I I I I
TION
FLAG MF MF MF MF 0
OFFSET 0 N 2xN 3xN 4xN
TOTAL
H+N H+N H+N H+N H+M
LENGTH
HEADER
C1 C2 C3 C4 C5
CHECKSUM

Notez les variations de certains champs de l'entête :

 IDENTIFICATION est le même pour tous.


 FLAG est 0 pour le dernier datagramme.
 OFFSET croît de la taille du fragment, ici N.
 TOTAL LENGTH est généralement différent pour le dernier fragment,
sauf cas particulier.
 HEADER CHECKSUM change à chaque fois, car l'OFFSET change
Exemple :
• Données de départ :
– Un routeur doit router un datagramme IP dont la taille totale fait 4470 octets sur un réseau Ethernet.
– Le datagramme initial comprend 20 octets d'entête et 4450 octets de données. Numérotons de 0 à 4449 ces
octets.
– Chaque fragment aura une taille maximale de 1500 octets, soit 20 octets d'entête et 1480 octets de
données.
• Répartition des données dans les fragments (H=20, N=1480) :
– On mettra dans le premier fragment les octets de 0 à 1479 du datagramme initial.
– On mettra dans le deuxième fragment les octets de 1480 à 2959 du datagramme initial.
– On mettra dans le troisième fragment les octets de 2960 à 4439 du datagramme initial.
– On mettra dans le quatrième fragment les octets de 4440 à 4449 du datagramme initial.
• La position du premier octet du fragment dans le datagramme initial sera donc :
– premier fragment : 0
– deuxième fragment : 1480
– troisième fragment : 2960
– quatrième fragment : 4440
• On s'aperçoit que la condition Chaque fragment sauf le dernier contient un nombre d'octets
multiple de 8 a pour conséquence que dans tous les fragments y compris le dernier la position du
premier octet du fragment dans le datagramme initial est un multiple de 8.
• Description des fragments :
– premier fragment : FO=0/8=0 et MF=1
– deuxième fragment : FO=1480/8=185 et MF=1
– troisième fragment : FO=2960/8=370 et MF=1
– quatrième fragment : FO=4440/8=555 et MF=0
• Dans la communication par socket . On distingue
deux modes de communication :
• Le mode connecté ,utilisant le protocole TCP.
Dans ce mode de communication, une connexion
durable est établie entre les deux processus, de
telle façon que l’adresse de destination n’est pas
nécessaire à chaque envoi de données ;
• Le mode non connecté, utilisant le
protocole UDP. Ce mode nécessite l’adresse de
destination à chaque envoi, et aucun accusé de
réception n’est donné.
Le protocole UDP(User Datagram
Protocol)
• un protocole de transport du mode “non
connecté”, (couche 4 du modèle OSI). Dont, il
transmettre des données rapidement et
simplement.
• met à disposition que les fonctions essentielles
avec une dépense minimum de Sockets et Ports,
dont pas de fiabilité supplémentaire assurée.
• certains ports sont affectés à des services
particuliers
Numéro de port comme numéro de
service

Exemple : Pour un serveur DNS(un serveur qui traduit les adresses symboliques
en adresses IP) , les messages doivent être envoyés avec le protocole UDP sur le port 53.
En général, les n° de port inférieurs à 1024 sont réservés.
Les datagrammes UDP
 Structure

Les datagrammes UDP contiennent deux parties : un en-tête UDP et les données UDP:

Port source: Le numéro de port de l’émetteur du paquet, facultatif (égal à zéro si non
utilisé).
Port destination: Le numéro de port du destinataire du paquet.
Longueur du message: exprimée en octets (8 au minimum, maximale est 65 535 −
H(IP). )
Champ de contrôle(checksum) : optionnel (0 si non utilisé)
Les datagrammes UDP
 Caractéristique

Un paquet UDP est conçu pour être encapsulé dans un


datagramme IP et permettre un échange de données entre deux
applications, sans échange préliminaire.

Figure : UDP encapsulé dans IP

Le champ PROTO indique l'identificateur de protocole pour IP (17= UDP)


Caractéristiques et utilisations d'UDP

• UDP apporte un mécanisme de gestion des ports, mais il n'offre que peu
de services.

• UDP est simplement une interface au dessus d’IP, ainsi l’émission des
messages se fait-elle sans garantie de bon acheminement. Plus
généralement, tous les défauts d’IP énoncés auparavant sont applicables à
UDP.(Protocole IP ne vérifie nullement le bon acheminement des paquets
IP, il ne s´intéresse pas du tout de savoir si le paquet a bien été reçu ou s´il
a été endommagé pendant le transfert )

• Plus particulièrement, les paquets à destination d’une application UDP


sont conservés dans une pile de type FIFO. Si l’application destinatrice ne
les “consomme” pas assez rapidement, les plus anciens paquets risquent
d’être écrasés par les plus récents. Un risque supplémentaire de perte de
données.
Protocole TCP

• TCP est l’acronyme de “ Transmission Control


Protocol
• TCP contient un mécanisme pour assurer le
bon acheminement des données.
• permet l’établissement d’un circuit virtuel
entre les deux points qui échangent de
l’information (mode connecté)
• Pour établir une connexion, un circuit virtuel, il faut avoir
réunis les éléments suivants :

• Le protocole : C’est TCP


• IP locale : Adresse de la machine qui émet.
• Port local Le numéro de port associé au processus.
• IP distante : Adresse de la machine distante.
• Port distant : Le numéro de port associé au service à
atteindre. Il est obligatoire de le connaître précisément.
• L’ensemble de ces cinq éléments définit un circuit virtuel
unique. Si l’un d’eux change il s’agit d’une autre connexion.
• a la capacité de mémoriser des données: il
peut fragmenter le flux de données en
paquets de tailles adaptées aux réseaux
traversés. Par conséquent , il peut effectuer le
réassemblage et donc de stocker
temporairement les fragments avant de les
présenter dans le bon ordre à l’application.
Caractéristique
• Les données encapsulées dans un en-tête TCP
sont des “ paquets TCP ”.

Figure: TCP encapsulé dans IP

• N protocole= 6
Structure de l’en-tête TCP
• Description de l’en-tête

• TCP SOURCE PORT : Le numéro de port de l’application locale.


• TCP DESTINATION PORT : Le numéro de port de l’application
distante.
• SEQUENCE NUMBER : C’est un nombre qui identifie la position des
données à transmettre par rapport au segment original
• ACKNOWLEDGEMENT NUMBER : C’est un numéro qui identifie la position du
dernier octet reçu dans le flux entrant. Il doit s’accompagner du drapeau ACK.

• OFF pour OFFSET : il s’agit d’un déplacement qui permet d’atteindre les données
quand il y a des options.

• RESERVED : Six bits réservés pour un usage futur.

• CODE : Six bits pour influer sur le comportement de TCP en caractérisant l’usage
du segment : tel que « Urgent : Flag URG», « réinitialisation de la connexion : Flag
RST », « acquittement : Flag ACK » ou alors « l’émetteur du segment a fini
d’émettre : Flag FIN»

• WINDOW : Le flux TCP est contrôlé de part et d’autre pour les octets compris dans
une zone bien délimitée et nommée “ fenêtre ”. Chaque partie annonce ainsi la
taille de son buffer de réception, de telle sorte que l’´émetteur n’envoie pas plus
de données que le récepteur ne peut en accepter.
• CHECKSUM : Un calcul qui porte sur la totalité du segment, en-tête
et données.

• URGENT POINTER : Ce champ n’est valide que si le drapeau URG est


mis à 1. Ce pointeur contient alors un offset à ajouter à la valeur de
SEQUENCE NUMBER du segment en cours pour délimiter la zone
des données urgentes à transmettre à l’application.
• OPTIONS C’est un paramétrage de TCP. Sa présence est détectée
dés lors que l’OFFSET est supérieur à 5.

• Parmis options utilisées :


• mss (Maximum Segment Size) La taille maximale du segment
des données applicatives que l’émetteur accepte de recevoir.
• timestamp pour calculer la durée d’un aller et retour (RTT ou
“ round trip time ”).
• wscale Facteur d’échelle pour augmenter la taille de la
fenêtre au delà des 16 bits du champ WINDOW (> 65535).

• PADDING : Remplissage pour se caler sur un mot de 32 bits.

• DATA : Les données transportées.


Contrôle du transport

• Le bon acheminement des données applicatives est assuré


par un mécanisme d’acquittement des paquets.
• 1). Mécanisme de l’acquittement
1. une horloge se déclenche.
Si T horloge >valeur limite (30 s à 2 mn)
avant réception de l’ACK
le Paquet i est retransmis.

2. RTT (Round Trip Time): Le temps qui s’écoule


entre l’émission d’un paquet et la réception de
son acquittement est le

3. L’émetteur conserve la trace du Paquet i pour éventuellement le renvoyer.


• Pour un délais de transmission important (500 ms, voir plus)
un tel mécanisme est totalement inadapté au transfert de flux
de données. On peut aussi remarquer qu’il sous-emploie la
bande passante du réseau.
2). Fenêtres glissantes 1. la bande passante du réseau
est beaucoup mieux employée.

2. A chaque paquet est associé une


horloge .

3. Le nombre de paquets à envoyer avant


d’attendre le premier acquittement est
fonction de deux paramètres :
• La largeur de la fenêtre (WINDOW).
• La taille maximale du segment de données
TCP ou MSS =512 octets par défaut..
• si le paquet de données de tête n’est pas acquitté, les
suivants, même reçus, sont en attente avant d’être
délivrés à l’application. Ce qui ne conviendra pas pour
des communications en temps réel.

• Pour la téléphonie sur IP (VoIP – Voice over IP), il faut


distinguer deux types d’information : les informations
de service et les messages vocaux. Les informations de
service sont envoyées par TCP, puisqu’il est important
qu’elles arrivent bien à destination. Pour les messages
vocaux, une retransmission est exclue en raison du
temps. On utilise plutôt le protocole RTP.
Protocole RTP / RTCP
 Caractéristiques
• RTP/RTCP sont les acronymes de “ Real Time Transport
Protocol ” et “ Real Time Transport Control Protocol ”.

• Ils permettent respectivement de transporter et de


contrôler des flots de données qui ont des propriétés
temps réel.

• RTP fournit des fonctions de transport de bout en bout


pour les applications temps réel sur des services
réseaux multicast (multipoint) ou unicast (point à
point):
 conférence audio, diffusion vidéo, audio
 Caractéristiques

• RTP permet :

• d'identifier le type de l'information transportée,

• d'ajouter des marqueurs temporels permettant d’indiquer l’instant


d’émission du paquet.

• D’inclure des numéros de séquence à l'information transportée afin


de détecter l’occurrence de paquets perdus et de délivrer les
paquets en séquence à l’application destinataire.

• De plus, RTP peut être véhiculé par des paquets multicast afin
d'acheminer des conversations vers des destinataires multiples.
• Le RTCP accompagne le RTP.

• Il assure un trafic de contrôle, c'est un "feedback" pour


l'émetteur sur la qualité de transmission et d'autres
informations.

• Basé sur la transmission périodique de paquets de contrôle


à tous les participants dans une session.

• Utilise le même mécanisme de distribution que les paquets


de données mais ne transporte aucune donnée.
• Le RTCP accompagne le RTP.

• Il assure un trafic de contrôle, c'est un "feedback" pour


l'émetteur sur la qualité de transmission et d'autres
informations.

• Basé sur la transmission périodique de paquets de contrôle


à tous les participants dans une session.

• Utilise le même mécanisme de distribution que les paquets


de données mais ne transporte aucune donnée.
• Ces deux protocoles utilisent des ports de communications différents permettant
de référencer les applications qui s’exécutent sur les deux machines (locale et
distante). Un port pair sera utilisé par RTP et un port impair (le suivant) par
RTCP, les numéros de ports 5004 et 5005 ont étés enregistrés pour l'utilisation par
défaut du couple de protocoles RTP/RTCP.

Figure: Les tubes de communication RTP,RTCP

• RTP est en fait le canal contenant les informations utiles propres à l'image ou la
bande son en cours.
• RTCP est en fait un canal de supervision du canal porteur RTP.
En-tête RTP
• V : permet d’indiquer la version de Rtp. Actuellement, V=2.
• P : Padding, s’il est à 1, les données possèdent une partie de bourrage.
• X : (Extension) ,s’ il est à 1, l’en-tête est suivi d’un en-tête supplémentaire.
• CC : (CSRC Count), représente le nombre de CSRC qui suit l’entête (nombre de
sources contributives contenues dans la liste CSRC).
• M : Marqueur il s’agit d’un bit de signalisation, permettant aux applications de
définir des comportements qui leurs sont propre (exemple : fin de séquence
d’images).
• PT (Payload Type) , identifie le type du payload (audio, vidéo, image, texte, html,
etc.), qui représente le type de codage de l’information véhiculé dans le paquet.
• Numéro de séquence :, représente le numéro d’ordre d’émission des paquets. Sa
valeur initiale est aléatoire et il s’incrémente de 1 à chaque paquet envoyé, il peut
servir à détecter des paquets perdus.
• Timestamp , représente l’horloge système de l’émetteur, qui permet de dater les
paquets émis.
• SSRC (Synchronisation Source),identifie de manière unique la source ayant produit
le paquet, sa valeur est choisie de manière aléatoire par l’application. On parle ici
de synchronisation car l’échelle de temps installée par la source dans ses paquets
va servir de repère aux récepteurs pour restituer l’information correctement.
• CSRC (Contributing Source) , identifie les sources de contribution. La liste des
participants ayant leur contribution (audio, vidéo) mixées dans un même paquet.
Le protocole RTCP
• RTCP est un protocole de contrôle des flux RTP, permettant de
véhiculer des informations basiques sur les participants d'une
session, et sur la qualité de service. Il existe 5 types différents de
paquets RTCP pour chaque type d'information :
• 200 - SR (Sender Report) : Ce rapport regroupe des statistiques
concernant la transmission (pourcentage de perte, nombre cumulé
de paquets perdus, variation de délai, …Ces rapports sont issus
d’émetteurs actifs d’une session.
• 201 - RR (Receiver Report) : Ensemble de statistiques portant sur la
communication entre les participants. Ces rapports sont issus des
récepteurs d’une session.
• 202 - SDES (Source Description) : Carte de visite de la source (nom,
e-mail, localisation).
• 203 - BYE : Message de fin de participation à une session.
• 204 - APP : Paquet de signalisation spécifique à une application.
En-tête RTCP

V : version de RTP, la même que dans les paquets RTCP.

P (Padding): s’il est à 1, les données possèdent une partie


de bourrage.

RC (Reception Report Count) : indique le nombre de


rapport de réception contenus pour chaque source.

• PT (Paquet Type): indique le type de paquet ; il s’agit d’un paquet SR


identifié par la valeur 200 dans ce datagramme RTCP.

• Longueur : représente la longueur de ce paquet RTCP incluant l’entête et le


bourrage.

• SSRC of sender : représente l’identification de la source pour le créateur de


ce paquet SR.
Le protocole RTSP
• RTSP (Real Time Streaming Protocol) permet de contrôler la
distribution de flux multimédias (streaming) sur un réseau IP. C'est
un protocole de niveau applicatif prévu pour fonctionner sur des
protocoles tels que RTP/RTCP. Il fonctionne comme «
télécommande » du réseau pour régler l’émission. RTSP fourni des
messages pour établir une connexion temps réel, pour lancer,
pauser et arrêter le reproduction du film et pour avancer ou
rembobiner le film.

• Le Streaming consiste à découper les données en paquets dont la


taille est adaptée à la bande passante disponible entre le client et le
serveur. Quand le client a reçu suffisamment de paquets
(bufferring), l'application cliente commence à jouer un paquet,
décompresse un autre et reçoit un troisième. Ainsi l'utilisateur peut
avoir le flux multimédia sans avoir à télécharger tout le fichier.
Fonctionnalités de RTSP

• Le protocole RTSP permet de réaliser les scénarios suivants :

• Récupération d’un contenu multimédia à partir d’un serveur.

• Invitation d’un serveur multimédia à une conférence, afin d’incorporer à la


conférence un flux multimédia existant sur ce serveur, ou d’effectuer un
enregistrement d’une partie ou de la totalité de la conférence sur le serveur
invité. Cette fonctionnalité est utile dans le cas d’une application distribuée tel
que le e-learning.

• Ajout d’un contenu multimédia à une présentation en cours. Dans ce cas, lors
d’une diffusion en direct par exemple, le serveur prévient le client qu’un flux
supplémentaire est disponible pour la transmission.
• Parmi les méthodes pour définir
l'état de la session RTSP:

• SETUP: Le client demande au serveur


l'allocation des ressources pour un flux
et commence une session RTSP;
• PLAY: Le client demande la transmission des données d'un flux
alloué selon SETUP;
• RECORD: Le client initie l'enregistrement selon les paramètres de la
description de la présentation;
• PAUSE: Le client arrête temporairement le flux sans libérer les
ressources du serveur;
• TEARDOWN: Le client demande de libérer les ressources associées
au flux. La session RTSP ces d'exister sur le serveur;
• CHAPITRE II - LES SIGNAUX MULTIMEDIA
1. Introduction
• Les applications multimédia
mettent en jeu plusieurs types
de signaux ainsi qu’une série
de processus de mise en forme
de ces signaux. La figure fournit
une liste partielle des signaux et
des traitements qui leur sont
appliqués.
2. Les signaux analogiques de base
2.1. son
Un son est une onde sous forme d’oscilations
La figure montre le relevé d’un son à
l’oscilloscope.
L’axe vertical représente une mesure physique
équivalente comme une tension électrique
par rapport au temps (axe horizontal).
2. Les signaux analogiques de base
2.1. son

• Quatre paramètre suffisent à décrire globalement un son : hauteur tonale,


intensité, timbre et durée.

2-1 - Ton ou hauteur tonale


• La notion de ton est intimement liée à celle de fréquence.
• Le nombre d’oscillations d’un son dans un temps donné est sa fréquence.
C’est la hauteur tonale ou ton du son perçu.

• L’unité de base correspond au nombre de période par seconde ; c’est le


Hertz(Hz) T=1/F.

• Il n’y a pas de limitation dans la gamme des fréquences des sons possibles.
Cependant notre oreille perçoit théoriquement des vibrations acoustiques
allant de 15 [Hz] (son grave) à 20000 [Hz] (son aigu) (i.e bande de
fréquence).
2. Les signaux analogiques de base
2.1. son
• 2-2 – L’intensité
• L’intensité I correspond au volume d’énergie d’une onde.

• L’amplitude du son est la mesure du changement de


pression par rapport à une valeur moyenne. Cette mesure
est l’intensité acoustique I.

• l’intensité acoustique est définit comme l'énergie


transportée par l'onde sonore par unité de temps et de
surface. Elle s'exprime en Watt par mètre carré [W/m2].

2. Les signaux analogiques de base
2.1. son

2-3 Timbre
le timbre ou spectre, ou se qu’on appel L'IDENTITÉ SONORE, Il permet d'identifier
un son d'une façon unique .

le timbre représente un son complexe formé de l'addition algébrique de plusieurs


fréquences issues de la fréquence fondamentale dite harmoniques, dont les
fréquences sont des multiples de la fréquence fondamentale (double, triple,
etc...).
2. Les signaux analogiques de base
2.1. son
2–4 Durée
C’est la répétition d’une onde sonore, Elle s’exprime en secondes et correspond
au temps pendant lequel l’énergie du son est perceptible.

L’analyse en fréquences et la transformée de FOURIER sont le pivot de ces


calculs et de tous les traitements effectués sur les signaux sonores.

2-5 L’analyse en fréquences et la transformée de Fourier


a) Transformée de FOURIER
tout signal périodique (ce qui est le cas du son) peut se décomposer en une
série d’oscillations sinusoïdales. Soit x(t) un signal sonore continu dans le temps
t, la transformée de FOURIER de ce signal est définie comme suit :

on peut reconstituer sa forme initiale x(t) par la transformée de FOURIER inverse


• B) Bande passante: L’intervalle de fréquences que peut
traiter un système

• la bande passante de l’oreille est l’intervalle de


fréquences [15Hz; 20 kHz].

• Pour les signaux de parole, on estime que l’énergie est


concentrée dans les fréquences inférieures à 4 [kHz].
D’où la bande passante du téléphone qui est de
[300Hz; 3400Hz]. En fait, tout système physique a une
bande passante finie.
2. Les signaux analogiques de base
2.1. Image
3-1 Le système visuel humain
L’œil est un système
complexe . La lumière
incidente est réfractée
par la cornée et dirigée
vers la pupille ; la pupille
est l’ouverture de l’iris
par laquelle la lumière
pénètre dans l’œil. La lumière est ensuite réfractée une
seconde fois en direction du fond du globe oculaire où elle
illumine la rétine. Cette dernière est composée d’une série
de récepteurs, appelés photorécepteurs, reliés à des
cellules qui transmettent des signaux au nerf optique.
2. Les signaux analogiques de base
2.1. Image
• 3 – 2 La lumière
• le fond de l’œil est tapissé de récepteurs qui envoient des influx
électriques au cerveau via le nerf optique. De plus, certaines
couleurs ne sont pas perceptibles à cause d’un effet de limitation
de la “bande passante” de l’œil.

• Il est d’usage de définir les couleurs par leur longueur d’onde ; on


passe aisément de la longueur d’onde à la fréquence par le biais de
l’expression :

𝑐
• f=
𝜆

• Où c = 3 x 108 [m/s] est la vitesse de la lumière.


• Les longueurs d’onde du spectre visible s’étendent
approximativement de 380 à 720 [nm].
2. Les signaux analogiques de base
2.1. Image

• Les espaces de couleurs


• Une lumière est définie par une onde, une longueur
d'onde. Quand on parle de lumière monochromatique cela
signifie que la lumière n'émet qu'une seule couleur soit une
seule longueur d'onde. On peut aussi parler de fréquence
unique.

• Les couleurs suivantes ont des longueurs d'ondes uniques :


Infrarouge / rouge / rouge-orangé / orangé-rouge / orange
/ orangé-jaune / jaune / jaune-vert / vert-jaune / vert /
vert-bleu / bleu-vert / bleu / bleu-violet / violet-bleu /
violet / ultraviolet.
2. Les signaux analogiques de base
2.1. Image

• Les espaces de couleurs


• La représentation des couleurs consiste à utiliser un espace de
couleurs. En effet, en distinguant deux principaux espaces:

• L’espace de couleurs additif RGB (Red, Green, Blue)


• a synthèse additive utilise généralement trois lumières colorées :
une rouge, une verte et une bleue (RVB ou RGB en anglais
pour red, green, blue). L'addition de ces trois lumières colorées en
proportions convenables donne la lumière blanche. L'absence de
lumière donne du noir.

• Les écrans et les projecteurs de télévision


et d'ordinateur utilisent le procédé de la synthèse
additive.Ils ne dépendent pas d'un éclairage extérieur
2. Les signaux analogiques de base
2.1. Image

 La figure représente le diagramme


chromatique dans le système RGB

 chaque couleur primaire est placée au


sommet d’un triangle isocèle rectangle ;
2. Les signaux analogiques de base
2.1. Image

 La figure représente le diagramme


chromatique dans le système RGB

 chaque couleur primaire est placée au


sommet d’un triangle isocèle rectangle ;

 l’ensemble des couleurs monochromatiques


s’aligne sur le contour du spectral,
tandis qu’une radiation complexe se situe
à l’intérieur du contour.

Figure: Diagramme chromatique RGB de la


CIE (la commission internationale de l’éclairage ).
2. Les signaux analogiques de base
2.1. Image
• L’espace de couleurs XYZ
• Afin de parer à ces inconvénients, la CIE a introduitun autre espace
de couleurs appelé XYZ. Les composantes X, Y et Z qui décrivent un
stimulus sont liées aux composantes RGB par la relation matricielle
suivante :

• En normalisant le tri-stimulus XYZ par rapport à X +Y +Z, on obtient


le système xyz. Une particularité intéressante de ce nouveau
référentiel est que seules deux variables, par exemple x et y, sont
indépendantes. Ces deux composantes sont appelées les
composantes chromatiques du stimulus. On a donc les relations :

2. Les signaux analogiques de base
2.1. Image

• Après transformation du
stimulus original en deux
composantes normalisées
indépendantes x et y, il est
possible de décrire l’ensemble
des couleurs par les deux
variables de chrominance x
Diagramme chromatique
et y. Il en résulte ce figure défini par les deux variables de
chrominance x et y.
2. Les signaux analogiques de base
2.1. Image
Espace HSI (Hue ou teinte, S pour saturation et I pour intensité ou luminosité)
La Luminance:
s’exprime quant à elle le pourcentage de
noir. Elle est définie par L ou L= Ll+LBl
Ll=luminance de la radiation colorée
LBl=luminance de la radiation blanche dans la
couleur.
FIG. 2.12 – Diagramme chromatique xy
La teinte (Hue): et luminance maximale en chaque point.
Définit la couleur, est associée à la longueur
d’onde.

La saturation :
Elle s’exprime quant à elle le degré de la
coloration; pourcentage de blanc contenu
dans la couleur. Elle est définie par la pureté
colorimétrique (pc)
pc= Ll/Ll+LBl
2. Les signaux analogiques de base
2.1. Image
L’espace de couleurs soustractifs CMY (Cyan, Magenta et Yellow ).

Est un autre systèmes de couleurs, complémentaires au système RGB.


consistant à combiner l'absorption d'au moins trois colorants pour obtenir toutes
celles d'une gamme.

Les trois colorants généralement utilisés pour


la synthèse soustractive sont un cyan,
un jaune et un magenta, dont le spectre
d'absorption doit convenir au procédé et
dont la couleur exacte peut varier.

La photographie argentique en couleurs et l'impression en couleurs utilisent des procédés


2. Les signaux analogiques de base
2.1. Image

• Les systèmes de couleurs en pratique


• Pour désigner une couleur en infographie, on utilise généralement
une quantification sur 8 bits par composante de couleurs.

• Les couleurs sont alors représentées par un triplet de valeurs


exprimées en hexadécimal, en décimal ou en binaire.

Table de correspondance de couleurs définies sur 8 bits.


2. Les signaux analogiques de base
2.1. Image
• Couleurs des objets opaques
•Les objets sont visibles par la lumière qu’ils diffusent .
lorsqu’on les éclaire Leur couleur est donnée par la
couleur de la lumière qu’ils nous renvoient ou
transmettent lorsqu’on les éclaire

•Fonction de la couleur du
rayonnement qui les éclaire.
Supposons que ce soit « blanc ».
2. Les signaux analogiques de base
2.1. Image

Couleurs des objets opaques

Mesure: « réflectance » en fonction de la longueur d’onde:

« réflectance » = quantité de lumière diffusée / quantité de lumière reçue


2. Les signaux analogiques de base
2.1. Image
• Couleur des objets transparents
Mesure: « transparence » en fonction de la longueur d’onde:
–« transparence » = quantité de lumière reçue / quantité de lumière transmise
•Objet rouge: transparence plus grande pour le rouge que pour le vert
•Objet vert: transparence moins grande pour rouge
2. Les signaux analogiques de base
2.1. Image
• Image indexée: une image où la teinte de chaque pixel est
déterminée par une valeur d'indice à l'intérieur d'un tableau
de teintes RVB (palette).
dans la quel, les couleurs sont assignées aux pixels de façon
indirecte, à travers une table de référence appelée Carte de
couleurs. le maximum d'entrées dans une carte de couleurs est
de 256 : à chaque indice de 0 à 255 est ainsi affectée une couleur
particulière
2. Les signaux analogiques de base
2.1. Signal vidéo
• permet de transmettre une succession d'images d'une
source (caméra, lecteur DVD décodeur TNT, etc.) à un
récepteur (téléviseur,enregistreur
pour divers supports, etc.).

• Le signal vidéo peut être un signal analogique ou un signal


numérique selon la technologie employée.

• Généralement, une liaison entre source et récepteur est


nécessaire. Les câbles et connecteurs associés sont
nombreux. on cite par exemple
Liaison numérique
• Liaison analogique
2. Les signaux analogiques de base
2.1. Signal vidéo
le signal vidéo peut se présenter sous la forme:

RVB : chaque couleur primaire rouge, verte, bleue est véhiculée par trois
signaux distincts sur trois liaisons indépendantes (une quatrième voie peut être
utilisée pour la synchronisation).
La qualité de l’image est optimale, mais aucune compatibilité n’est offerte avec
les téléviseurs noir et blanc.

Composantes : les signaux en composantes sont fabriqués à partir d’une


recomposition linéaire des signaux primaires RVB, conduisant à un signal de
luminance Y (représentant à lui seul l’image en noir et blanc), et deux signaux
dits de différence de couleurs R-Y et B-Y, notés Dr et Db.

Composite : les trois signaux composantes Y, Dr, Db sont combinés en un


unique signal vidéo appelé signal composite. Il existe trois standards
composites, le PAL, le SECAM et le NTSC, dont les différences portent
essentiellement sur la manière dont sont combinés les signaux.
2. Les signaux analogiques de base
2.1. Signal vidéo

Le signal vidéo composite est un signal unique


mixant la luminance et les chrominances (voir figure).
le signal final est obtenu à partir d'un signal porteur
(d'environ 3 à 5 MHz) modulé en modulation de fréquence
(SECAM) ou bien en amplitude et en phase (PAL, NTSC).
On peut lui ajouter le signal du son de la même manière.
2. La numérisation
5 – 1 Signaux analogiques ou numériques

• Un signal x(t) analogique est une fonction continue pour tout temps t.
• Un signal numérique x[n] est un signal temporel discontinu , où n est l’indice d’un
élément pris dans l’ensemble d’instants {t0, t1,…}

• Parmi les raisons de la numérisation des signaux :

• Un ordinateur travaille exclusivement avec des données numériques,


• Grâce aux processeurs de traitement de signal modernes, traiter un signal
numérique est plus facile,
• le stockage et la reproduction,
• les signaux numériques offrent une meilleure résistance au bruit.
• Plus facile de régénérer un signal numérique d’un signal analogique .
2. La numérisation
Processus de numérisation

La figure illustre les étapes du passage d’un signal analogique à un signal numérique
et celles de la conversion inverse.
2. La numérisation
Processus de numérisation

une autre présentation étapes intervenant lors de la numérisation d’un signal.


2. La numérisation
Échantillonnage

Un signal numérique s’obtient en découpant le signal d’onde analogique en


petits éléments qui sont ensuite stockés sous forme d’échantillons numériques,
le nom d’échantillonnage donné à ce processus. Dans le cas d’une image, les échantillons
sont appelés pixels (pixel pour “picture element”) ;
il s’agit de points auxquels on associe une valeur dans une représentation de couleurs.
Le nombre d’échantillons pris par seconde définit le taux ou fréquence d’échantillonnage.
2. La numérisation
Échantillonnage

Fréquence d’échantillonnage:
Nombre de mesures effectuées dans un temps donné pendant la conversion
d’un signal analogique en données numériques.

Une fréquence d’échantillonnage de 22 kHz signifie que 22000 mesures sont effectuées
par seconde.
D’après SHANNON, la fréquence d’échantillonnage doit être égale au
double de la fréquence la plus élevée contenue dans le signal.

Théorème SHANNON Pour pouvoir reconstituer un son correctement,


le nombre d’échantillons pendant une seconde doit être le double
de la largeur de bande de l’onde.

pour un son dont la largeur de bande passante est de l’ordre de 4000 Hz


(téléphonie), il faut au moins 8000 échantillons par seconde.
2. La numérisation
Quantification

• La représentation précise de l’amplitude d’un


signal analogique nécessite un nombre infini
de bits puisque cette amplitude est par
définition de nature continue.
• L’approximation de ce amplitude par un
ensemble de valeurs discrètes. C’est ce qu’
parle alors de quantification.
• l’approximation est la suite de valeurs
discrètes suivantes : 0, 1, 0.5, -1.5, ...
2. La numérisation
Quantification

Les échantillons sont quantifiés avant d’être convertis en une suite de valeurs
binaires 0 ou 1. Cette dernière porte le nom de codage PCM (Pulse Code Modulation).
2. La numérisation
Quantification

Lorsque l’analyse est faite par un système fonctionnant sur 8 bits, la valeur maximale
représentable est 256 (28 = 256) et toutes les valeurs devront être comprises entre [0 ,
255]. Un échantillonnage du son en 12 bits autorisera 4096 valeurs, en 16 bits 65536
valeurs.
Chaque fois que l’on ajoute un bit de quantification, la fidélité progresse d’une
puissance de 2 puisque, les amplitudes restant fixes, l’erreur sur l’approximation
diminue.
En pratique, un signal numérique est donc décrit par la fréquence d’échantillonnage
et par le pas de quantification. Par exemples :
– Son de qualité parole : quantification à 8 bits, 8000 [Hz].
– Son de qualité CD : quantification à 16 bits, 44100 [Hz].

[Débit] En multipliant le nombre de bits nécessaires à coder l’amplitude par la


fréquence d’échantillonnage, on obtient le débit associé à un signal. Il s’exprime en bits
par seconde [b=s].
Aux deux sons mentionnés avant correspondent dès lors respectivement des débits
de 64 et
706 kilobits par seconde (Kb/s).
2. La numérisation
la compression

Objectif:
 Réduire le volume de données nécessaire au codage d’un signal numérique
 Pour faciliter son stockage ou sa transmission par réseau

Principe
 Détection de redondance dans le signal
 Un algorithme de compression permet le codage réduit du signal
 Un algorithme inverse de décompression permet d’exploiter le signal

Type de compression
 Compression sans perte (ou on destructive, i.e. codage ou compactage
Le signal obtenu après décompression est strictement identique à l’original
Utilisation: fichier exécutable, fichier texte

 Compression avec perte ( ou destructive, ou avec dégradation):


Le signal obtenu après décompression diffère (légèrement) de l’original
utilisation: image, son vidéo
2. La numérisation
la compression (mesure de performance)

 Notations

 Taux de compression

 Quotient (ou ratio ) de compression


2. La numérisation
Classification de l’ensemble des techniques de compression

• 1- Compression de données textuelles

• Codage RLC (Run Length Coding). Le principe employé pour ce


codage est simple : toute suite d’octets de même valeur est
remplacée par la valeur, à laquelle on associe le nombre
d’occurrences suivantes.

• Exemple
AAABBREEEGGG = 12 octets
#3A#2BR#3E#3G = 13 octets => inutile

0000001111100000 = 16 octets
#60#51#50 = 9 octets
Codage de Hoffman
• 1. réorganiser les symboles par ordre de probabilité
décroissante.
• 2. Chaque symbole est alors associé à une feuille d’un
arbre en construction.
• 3.On relie ensuite les feuilles en créant un nœud
auquel on associe la somme des probabilités des deux
symboles correspondants.
• À chaque étape, on fusionne les 2 nœuds (ou feuilles)
ayant les probabilités les plus faibles.
• On répète ce processus jusqu’à ce qu’il ne reste plus
qu’un seul nœud dont la probabilité associée vaut 1.
• Exemple Considérons une source à 4 symboles
A1, A2, A3, A4 respectivement de probabilité
p(A1) = 0,5 ; p(A2) = 0,25 ; P(A3) = 0,125 ; p(A4)
= 0,125.
• Une fois l’arbre construit, on associe à chaque
branche de l’arbre un symbole 0 ou 1. Il suffit
de redescendre l’arbre jusqu’aux symboles
pour déterminer le code correspondant :
• Appelons l(Ai) le nombre de bits associé au
symbole Ai. Dès lors, nous avons :
• Le nombre moyen de bits utilisés par symbole, M,
est donné par

• L’entropie d’une source fixe le nombre de bits


minimum moyen nécessaire à coder un symbole de
la source. Il n’est pas possible de descendre en-
dessous de cette valeur minimale.
• 2 Compression audio
• La représentation numérique de base est le
PCM (Pulse Code Modulation). Elle n’est rien
de plus que le signal échantillonné quantifié.
• Compression image

• Différentes méthodes sont utilisées pour la compression d’images


fixes, les plus simples se contentant de réduire le nombre de bits
servant à coder les couleurs de base (RGB).
• L’ISO et l’ITU ont été à l’origine de plusieurs initiatives pour définir
une norme pour la compression des images. Les images ne
contenant que deux couleurs (noir et blanc) sont traitées par des
algorithmes de type RLC. C’est le cas des algorithmes utilisés pour
la transmission de fax.
• La tâche est plus complexe lorsqu’il s’agit de coder des images
naturelles en couleur. Le groupe JPEG de l’ISO a relevé ce défi. Le
principe de la norme de codage JPEG est le suivant :


• Jpeg
• L’image est tout d’abord convertie au format YCbCr pour des raisons d’efficacité de codage.
• YCbCr est une manière de représenter l'espace colorimétrique, on utilisant des formule
mathématique afin de calculer les valeurs des composantes YCbCr d'une image1 à partir des
composantes RVB' (ou RGB) (qui varient de 0 à 255)
• « On envoie Y, le signal de luminance (noir et blanc), plus deux informations de chrominance, Cb (Y
moins le bleu) et Cr (Y moins le rouge). Le récepteur peut recréer le vert et reproduire une image
couleur»

• Le signal de luminance (Y) et les signaux de chrominance sont ensuite divisés en blocs de 8 x 8
pixels.

• On applique une analyse fréquentielle, appelée Transformée en Cosinus Discrète ou Discrete Cosine
Transform (DCT), dont le principe est similaire à celui de l’analyse de FOURIER, à chaque bloc de 64
pixels. On passe ainsi d’une représentation spatiale de 64 pixels à une représentation fréquentielle
avec une composante continue donnant le niveau moyen du bloc.
(pour analyser efficacement les corrélations spatiales entre pixels voisins de la même image)

• Les coefficients de la représentation fréquentielle sont quantifiés avec une précision plus faible
pour les hautes fréquences étant donné que l’œil ne les perçoit pas.
• Un codage entropique de HUFFMAN (codage sans perte) est finalement appliqué aux coefficients.
• Compression vidéo
• Toutes ces techniques exploitent deux types
de redondance :
• la redondance entre les valeurs des pixels de
blocs voisins d’une même image et
• la redondance entre images successives.
• Pour le codage intra, il n’y a qu’une image à
considérer. De ce fait, on supprime la
redondance en exploitant les caractéristiques
d’une transformée en cosinus discrète (DCT),
tout comme pour JPEG.
• si la corrélation entre pixel dans des trames voisines est grande, c'est-à-dire, dans
les cas où deux trames consécutives ont un contenu semblable ou identique, il est
souhaitable d’utiliser une technique de codage dite Inter, par exemple la DPCM
(Differential PCM), qui utilise la prévision temporelle (prévision compensée du
mouvement entre trames).

• Trois types de trames sont considérées :


• Trames I (l’image codée en intra ): Ces trames sont codées sans aucune référence
à une autre image de la séquence vidéo, comme expliqué avant. Les trames I
permettent de réaliser l'accès aléatoire.

• Trames P (l’image prédite ) : Ces trames sont codées avec une référence à l'image
précédente (trame I ou trame P). Ces trames sont utilisées pour la prédiction de
trames futures ou passées et elles ne peuvent pas être utilisées pour réaliser
l'accès aléatoire .

• Trames B (image prédite) : Elles ont besoin des trames futures et passées comme
référence pour être codées.
• Principe:
• Au départ, on code une image I. Cette image ne fait aucune référence à
une autre image. À partir de cette image, l’algorithme de l’encodeur
calcule une prédiction et code la différence entre la prédiction et l’image ;
c’est une image P. Cette image P sert elle même à prédire une autre
image P, jusqu’à ce qu’il soit décidé de coder à nouveau une image I.

• Entre les images I et P, on utilise la prédiction bidirectionnelle cette fois


sur base des images P ou I les plus proches. C’est ainsi qu’on parvient à
glisser deux images B entre des images I et P sans dégradation perceptible
de la séquence.
• Formats et conversion
• Audio
• On distingue deux catégories de fichiers son.

• La conversion de formats est possible à l’intérieur d’une


même catégorie de .
Image
• De nombreux formats d’images ou de graphiques ont été créés pour le stockage et le
traitement d’images fixes
• A-Interface graphique
BMP ou BitMaP est le format d’images bitmap défini par MICROSOFT pour les besoins de son
interface graphique WINDOWS

• B-Applications sur ordinateur


Les formats se caractérisent par le fait qu’ils représentent un certain nombre de pixels par
centimètre carré. Ces formats trouvent leur origine dans les applications pour ordinateur.
• Le format GIF (extension *.gif)
• Le format PNG (extension *.png)
• Le format TIFF (extension *.tiff)
• Le format FlashPix

• C- Applications génériques
Des applications génériques intègrent aussi bien des graphiques que des images.
Le format CGM
Le format EPS (extension *.ps ou *.eps)
Le format PDF.
• Signalons seulement que les conversions sont souvent possibles mais qu’il est rare qu’un
format converti contienne la même information. Il en résulte parfois une perte en qualité
et il se peut même que certains traitements ne puissent plus être appliqués après
conversion.
• Vidéo

• Les normes MPEG-x et H.26x définissent une syntaxe du flux de bits


mais pas la manière d’enregistrer les informations.

• Malgré son succès, MPEG-x n’est pourtant pas le premier procédé


de compression numérique à avoir été implémenté. Appelé DVI
(Digital Video Interactive), Indeo est un procédé de compression
vidéo similaire à MPEG développé il y a plusieurs années par INTEL
pour le marché des PCs. Le format n’a jamais été adopté par la
communauté parce qu’il exigeait un matériel très particulier et
parce qu’INTEL se chargeait de la compression.
Chapitre 3. Techniques de synchronisation
multimédia
• Dans le domaine du multimédia, l’emploi du
terme synchronisation fait implicitement
référence au temps. Cette relation avec la
dimension temporelle, est la source principale
de la difficulté.
• Problématique de la synchronisation multimédia

• 1. Notion de flux, flux continus, flux discrets


• La première caractéristique qui distingue les données multimédias
des données informatiques classiques (textes, données binaires…)
est leur unité de traitement : les données multimédias se
manipulent par flux.

• Flux discret: il n'existe pas de relation temporelle entre les


caractères qui composent un flux textuel. De même, pour une
image unique qui peut être vue comme un flux de bits, ou pour un
graphique, il n'existe aucune relation temporelle entre les
différentes unités du flux. Ce sont typiquement des fichiers, qui, à
la limite, pourraient être considérés comme des flux simples ou des
flux discrets.
• Par contre, pour la vidéo ou le son, les images
ou les échantillons sonores doivent être
produits, traités ou présentés avec une
cadence régulière. On parle dans ce cas là de
flux continus. Si le temps entre deux unités de
base d'un flux est constant, on parle de flux
isochrone ; toutefois, une certaine variabilité
sur ces temps peut être tolérée : cette
variabilité est appelée gigue autorisée.
• 2. La notion de qualité de service
• Une des familles de paramètres de qualité de
service concerne la qualité de restitution des flux
multimédias. Ces paramètres de QoS en rapport
avec les pertes, les erreurs, la place mémoire et
la bande passante requise. Chaque application
multimédia aura ses propres besoins, et aura
donc ses propres paramètres de QoS à respecter
sur ses données propres.
• les données binaires ou textuelles ne tolèrent aucune perte (elles
nécessitent une fiabilité totale) ; par contre, leurs exigences en
termes de capacité de stockage ou le débit requis pour les
transmettre sur un réseau sont très faibles.

• Les images fixes , tolèrent assez bien les erreurs ou la perte de


certaines informations. Toutefois, la capacité de stockage ou le
débit requis sur un réseau de communication sont supérieurs à ce
qui est nécessaire pour du texte ou du graphique.
Pour réduire la quantité de données d'une image vidéo, des
algorithmes de compression ont été conçus comme GIF ou JPEG.
• LA SYNCHRONISATION MULTIMEDIA
• il existe des relations temporelles et spatiales dans les différents
flux. Il peut également exister des relations temporelles et spatiales
entre ces mêmes flux. Ces relations définissent en fait les
contraintes de synchronisation multimédia.

• La synchronisation spatiale
• La synchronisation spatiale exprime les contraintes
d'ordonnancement visuel des différents objets multimédias sur le
support de présentation (écran, mur d'image, etc.).
• Elle permet donc de définir la taille des différentes zones, les
superpositions, les juxtapositions, etc. comme dans la norme
MHEG (Multimedia and Hypermedia information coding Expert
Group).
• La synchronisation temporelle
• Il s'agit d'exprimer et de garantir les contraintes et relations
temporelles qui existent entre les objets d'un document
multimédia .On considère alors trois schémas de synchronisation :

• 1 Synchronisation intra−élément
• Ce type de synchronisation s’applique aux relations temporelles
d’unités d’information de base formant un élément d’un même
média. L’exemple typique d’un tel type de synchronisation est la
relation entre les images successives d’une séquence vidéo. Pour
une vitesse de présentation de 25 images par seconde, chaque
image de la séquence doit être affichée à l’utilisateur pour une
durée de 40 millisecondes

• 2 .Synchronisation inter−élément
• La synchronisation inter−éléments s’applique aux enchaînements de la
présentation de plusieurs éléments multimédia. Elle consiste à contrôler
la dérive (ou décalage temporel) qui peut exister entre deux flux. La
dérive est due à l'effet cumulatif de la gigue ; en effet, les gigues que
subissent chacun des objets du flux peuvent s'accumuler, et le décalage
qui peut apparaître entre deux flux peut devenir très grand. Il faut donc
contrôler cette dérive .

• Par exemple, la présentation simultanée d’un élément audio et d’une


séquence vidéo suivie par des éléments de type texte et des images
• Synchronisation avec l'environnement
• Ce type de synchronisation permet à une
application multimédia d'effectuer des actions de
présentation en réponse à l'arrivée d'un
événement venant de l'extérieur. Par exemple,
l'utilisateur peut contrôler le déroulement de la
présentation (comme démarrer, stopper ou
ralentir) ce qui a pour effet de modifier le
comportement temporel normal de l'application
multimédia.
• Synchronisation de groupe
• Ce type de synchronisation vise à réaliser le
principe "What You See Is What I See" utilisé dans
les applications multimédia coopératives ,
comme par exemple la téléconférence , le tableau
blanc (en anglais, white board) et le télé-
enseignement. Dans une session d'une
application coopérative, tous les participants
doivent recevoir au même instant la même vue
des fenêtres partagées et le même message
audio.
• Gestion de la synchronisation
• la présentation d'un document multimédia a
besoin d'un ordonnanceur qui peut gérer
dynamiquement les différents types de
synchronisation spécifiés par l'auteur sous une
forme de scénario . Les événements, générés
pendant une présentation multimédia sont
gérés de deux façons : réactive ou prédictive.
• L'approche réactive
• Dans ce cas, l'ordonnanceur connaît le point
de départ de la présentation. Il gère le
scénario sous une forme d'une liste
de condition-action(s) définissant le
comportement du scénario
• il reçoit des événements générés
par les objets média et l'interaction
de l'utilisateur.
• chaque fois qu'une condition est
validée, il lance des commandes pour
exécuter l'action correspondante
• L'approche prédictive
• l'ordonnanceur peut savoir comment la
présentation d'un scénario doit se comporter
dans le futur, et c'est l'ordonnanceur qui
génère les événements. En effet,
l'ordonnanceur a une vue globale du scénario
grâce à une structure interne.
 L'ordonnanceur initialise une alarme du premier événement,
et ensuite il attend l'alarme. Quand l'alarme se déclenche,
l'ordonnanceur envoie l'événement vers le gestionnaire approprié
de média.
 un scénario dans lequel trois objets (Objet01, Objet02 et Objet03)
se jouent en séquence. À l'instant t2, l'ordonnanceur peut non
seulement donner la commande de lancer l'objet Objet02 mais aussi
donner la commande d'accéder à l'objet Objet03 afin qu'il soit prêt
pour la présentation après la fin d'Objet02.
• L'approche hybride
• On peut conclure qu'afin de diminuer le délai et
de réaliser l'interactivité dans les applications
multimédia, il vaut mieux que l'ordonnanceur
utilise une approche hybride qui intègre les deux
approches : réactive et prédictive. Afin de
représenter l'organisation temporelle du
scénario, l'approche prédictive utilise
une représentation interne qui lui permet d'avoir
une vue globale du scénario :
• Indexation traditionnelle
• Une indexation est par conséquent la description d’un
document effectuée dans la perspective d’une utilisation et
exploitation donnée.
• L’indexation repose traditionnellement sur deux étapes
clairement distinguées :
– une étape d’analyse conceptuelle : le contenu est
analysé et interprété par un documentaliste pour définir les
principaux concepts permettant de le caractériser ;
– une étape de reformulation documentaire : l’analyse
conceptuelle permet au documentaliste de reformuler le
contenu dans une forme permettant sa manipulation.
• L’indexation a donc deux finalités :
• d’une part elle doit être directement
exploitable pour déterminer où l’information
recherchée,
• d’autre part elle doit permettre d’aller
chercher cette information.
• Indexation : trois types et trois aspects
• – l’indexation conceptuelle : le contenu est
qualifié par un concept qui décrit ce dont il est
question dans le document. On dit en général
que l’indexation conceptuelle est thématique.
• elle ne traduit pas comment sont articulés les
segments décrits par les concepts, mais les
relations logiques entre les concepts les
indexant.
• – l’indexation structurelle : les index ont pour
fonction de décrire comment sont reliés entre
eux les segments indexés. L’indexation
structurelle porte donc sur la mise en forme
du document et sa structure. Elle insiste
particulièrement sur la manière d’articuler la
qualification et la localisation ;
- l’indexation par le contenu :
il conviendrait de parler de description par le
contenu. Il s’agit d’extraire une information, une
signature, permettant d’associer un contenu
documentaire similaire au sens d’une métrique
donnée.
• l’indexation se décompose en trois étapes
importante :une étape de qualification , une
étape de localisation, une étape de
structuration :
– une étape de qualification : il s’agit de caractériser
l’information contenue dans le document de point de vue
de l’interprétation qu’elle possède pour une recherche
d’information. Grossièrement, il faut savoir de quoi ça
parle pour établir le lien avec ce que l’on cherche ;
– une étape de localisation : outre le fait de savoir de
quoi ça parle, il faut savoir où on en parle. La localisation
situe l’information recherchée en termes d’unités de
manipulation ;
– une étape de structuration : les index, qualifiés et
localisés, sont agencés et articulés entre eux. Cette
articulation permet de croiser qualification et localisation
au sein de structures d’index.
• BREF/Ces trois étapes sont intimement liées
et se font plus ou moins simultanément, car
elles sont mutuellement dépendantes les unes
des autres : pour localiser, il faut savoir que
quoi l’on veut parler, et également pour savoir
de quoi on veut parler, il faut déterminer où
on en parle.
• Dans le cas des documents multimédia, la nature dynamique de
l’information rend encore plus nécessaire et complexe la navigation :
• La navigation indépendante du document : cette forme de navigation est
fournie au travers de boutons de contrôle du temps (TAC : Temporal
Access Control) au niveau du système de présentation, comme les boutons
de pause, reprise, accélération en avant ou en arrière, saut d’une scène à
l’autre, etc. Ces fonctions de navigation étant indépendantes du document
présenté, elles n’apparaissent pas dans la spécification du scénario du
document.
• La navigation dépendante du document : cette forme de navigation est
conçue par l’auteur du document de façon à aider les lecteurs dans leur
parcours du document. Elle fait donc partie de la spécification du
document. Cette navigation est définie par des objets activables, comme
les boutons d’interaction . Ces interactions peuvent être classées dans
trois catégories en fonction de la sémantique temporelle qui leur est
associée
Les trois types d’interactions
dépendantes du document
• Les interactions globales : l’activation d’une interaction
globale (comme le lien B sur la figure) a pour conséquence
de stopper tous les objets en cours de présentation à cet
instant pour démarrer la présentation d’un autre document
(lien externe) ou d’une scène du document courant (lien
intra−document : dans l’exemple la cible est définie comme
l’instant de démarragede l’objet E).
• Les interactions locales : l’activation d’une interaction
locale a pour conséquence de ne stopper qu’une partie des
objets en cours de présentation à cet instant (ici l’objet A
lui−même). Ce type d’interaction est plus difficile à gérer
car certaines synchronisations sont difficiles à assurer en
présence d’interactions locales, par exemple si les objets
interrompus par l’interaction sont en relation d’égalité avec
des objets non interrompus.
• Les interactions d’inclusion : l’activation d’une interaction
d’inclusion a pour conséquence d’ajouter un sous−scénario
à partir de l’instant courant de la présentation, par
exemple, un texte explicatif à une image affichée (l’objet F
sur la figure). Les objets du sous−scénario inclus ne peuvent
cependant pas être synchronisés avec les autres objets du
document dans la mesure où ils sont insérés de façon
asynchrone.
• Chapitre 4. Introduction aux techniques d'accès
• Les catégories de réseaux de transfert, Les différents
types de transmission et multiplexage, Le réseau
téléphonique, Les réseaux à commutation, Les réseaux
d’accès : les technologies SDH et WDM, Les
architectures dans la boucle locale : fibre, réseaux câblés
HFC, réseaux XDSL et faisceaux hertziens LMDS.
Introduction aux réseaux
• Un réseau est un ensemble d'objets interconnectés les uns
avec les autres. Il permet de faire circuler des éléments
entre chacun de ces objets selon des règles bien définies.

• Exemple de réseau :
• Réseau de transport : Transport de personnes (trains, bus,
taxi)
• Réseau téléphonique : Transport de la voix de téléphone à
téléphone
• Réseau de neurones : Cellules reliées entre elles.
• Réseau informatique : Ensemble d'ordinateurs reliés entre
eux pour échanger des données numériques (des 0 ou des
1)
Questions pour décrire un réseau
• Pour décrire un réseau, il faut répondre aux questions
suivantes :
• Que transporte le réseau ?
• Qui assure le transport ?
• Comment le transporte-il ?
• Exemple pour le « réseau informatique » :
• Que transporte le réseau ?
• > Des informations (octets sous forme de fichiers)
• Qui assure le transport ?>
• Support physique (cuivre, fibre optique, onde radio)
• Comment le transporte-il ?
• > En utilisant des protocoles de communication.
Topologie d’un réseau informatique:
• Un réseau informatique est constitué
d'ordinateurs reliés entre eux grâce à du matériel
(câblage, cartes réseau, ainsi que d'autres
équipements permettant d'assurer la bonne
circulation des données).L'arrangement physique
de ces éléments est appelé topologie physique.
• Il en existe trois:
• La topologie en bus
• La topologie en étoile
• La topologie en anneau
Topologie en BUS:

• Tous les ordinateurs sont reliés à une même ligne de


transmission par l'intermédiaire de câbles, généralement
coaxiaux.
• Le mot "bus" désigne la ligne physique qui relie les
machines du réseau.
• Facile à mettre en œuvre
• Fonctionne facilement
• Vulnérable aux pannes (Une connexion défectueuse
entraîne la panne de l’ensemble du réseau)
Topologie en ETOILE:

Les ordinateurs du réseau sont reliés à un système matériel appelé switch ou


commutateur.
Un câble à paires torsadées Droit est utilisé pour la connexion Ordinateur <->
Switch
 Moins vulnérable car on peut retirer une des connexions du concentrateur sans
pour autant paralyser le reste du réseau.
Topologie en ANNEAU

• Les ordinateurs communiquent chacun à leur tour.


• Chacun d'entre-eux va "avoir la parole"
successivement. Ils sont reliés à un répartiteur (appelé
MAU, Multistation Access Unit) qui va donner
successivement "la parole" à chacun d'entre-eux.
Types de réseaux
• On distingue différents types de réseaux (privés)
selon :Taille (en terme de nombre de
machines)Vitesse de transfert des données,
Etendue géographique
• Les réseaux privés sont des réseaux appartenant
à une même organisation. On fait généralement
trois catégories de réseaux:
• Local Area Network (LAN)
• Metropolitan Area Network (MAN)
• Wide Area Network (WAN)
Local Area Network ou LAN:
Ce terme désigne les réseaux « locaux » qui se
caractérisent par :
• Même organisation
• Petite aire géographique
• Même technologie
• Exemples :Réseau local du lycée
• Réseau local de la famille
Local Area Network ou LAN:
Un réseau local est donc un réseau sous sa forme la
plus simple.
Caractéristiques :
Vitesse de transmission : 10 mbps à 1000 mbps
Nombre de stations : 2 à 1000 machines
Aire géographique : 4𝑚2 à 400 𝑚2
(variable)Topologie : Bus, Etoile, Anneau
Technologies : câbles à paires torsadées, WiFi, ….
Metropolitan Area Network ou MAN:
• Les MAN (Metropolitan Area Network) interconnectent
plusieurs LAN géographiquement proches à des débits
importants.
• Un MAN permet à deux noeuds distants de communiquer
comme s’ils faisaient partie d'un même réseau local.
• Exemples :MAN d’une région .
• MAN des Universités .
• Caractéristiques :Vitesse de transmission entre LAN : > 100
mbps
• Nombre de stations : > 1000 machines
• Aire géographique : 1 à 100 k𝑚2
• (variable)Topologie : Bus, Etoile en général
Wide Area Network ou WAN:
• Les WAN (Wide Area Network)
interconnectent plusieurs LAN
géographiquement éloignés à des débits
faibles.
• Des dispositifs permettent de « choisir » la
meilleur route possible pour acheminer les
informations le plus vite possible.
• Exemple :Internet est le WAN le plus connu
Wide Area Network ou WAN:
• Caractéristiques :Vitesse de transmission
entre stations :56kbps à 100 Mbps
• Nombre de stations : > machines
• Aire géographique : Toute la surface de la
Terre
• Topologie : Bus, Etoile en général
• Technologie : Câble téléphonique, fibre
optique
Matériel d'interconnexion:
 La carte réseau
 Câbles réseaux
 Equipements d’interconnexion
la carte réseau:La
• carte réseau constitue l'interface entre
l'ordinateur et le câble du réseau.
• La fonction d'une carte réseau
est de préparer, d'envoyer et de
contrôler les données sur
le réseau.
les câbles réseau
• Pour assurer la transmission de données entre
les éléments du réseau, il faut un câble.
• Les types de câblage sont nombreux.
• Câble coaxial
• Câble à paires de fils torsadés
• Fibre optique
Câble coaxial
• Câble coaxial: Peu coûteux, facilement manipulable
Peut être utilisé sur de longues distances
• Débit jusque 10Mbit/s
• Construction :
• Gaine : protection du câble (caoutchouc )
• Blindage : partie métallique entourant le câble
diminuant le bruit due aux parasites
• Isolant : évite le contact (court- circuit) entre l'âme et
le blindage
• Âme : brin de cuivre ou brins torsadés transportant les
données
Paires torsadés

• Franchissement de la limite des 10Mbits/s


• Plus de bande passante
• Possibilité de travailler en Full Duplex
• Plus d'interruption par coupure du câble.
Fibre optique
Une fibre optique est composée de 3 éléments principaux
 Le cœur dans lequel se propage
les ondes optiques
 La gaine optique d'indice de
réfraction inférieur à celui du cœur,
qui confie les ondes optiques dans le cœur
 Le revêtement de protection qui
assure la protection mécanique de la fibre

 Caractéristiques:
 Large bande passante
 Faibles dimensions
 Faible poids
 Pas d’interférence électromagnétiques
 Grande résistance aux attaques chimiques et
aux variations en température
Les différents types de transmission
• Lorsqu’il s’agit de transmettre des informations, plusieurs cas
peuvent se présenter :
• D’une part, il faut soit effectuer une liaison point a point entre un
émetteur et un récepteur (téléphonie), soit diffuser l’information a
partir d’un émetteur vers plusieurs récepteurs(radio/télé diffusion).
• En fonction du type de liaison (point a point ou diffusion), des
contraintes économiques et matérielles, s’effectue le choix du
media de transmission (câble coaxial ou paires torsadées, fibres
optiques, vide ou air pour les communications Hertziennes etc).

• Le media de transmission, au quel s’ajoutent les perturbations et


déformations (bruits, distorsions) de l’information, est appelé canal.
• Types de transmission :
• simplex : communication dans une seule direction (transmission
unidirectionnelle). Ce type de transmission est utilisé dans la diffusion radio et TV
par exemple.

• half-duplex : communication possible dans les 2 sens, mais pas simultanément


(partage d’un même canal).
• L’exemple le plus typique est la conversation par « talkie/walkie », l’utilisateur est
à l’écoute et il doit couper l’écoute s’il désire parler. Par rapport aux transmissions
simplex, il est nécessaire de disposer de transmetteur (émetteur) et récepteur aux
deux extrémités

• Full-duplex : communication dans les 2 sens simultanément, par séparation du


canal de transmission. Comme exemple, citons le téléphone. Cette technique
nécessite l’utilisation de deux voies de transmission, une pour l’émission, l’autre
pour la réception. Notons toutefois qu’une liaison full duplex peut être multiplexé
Les transmissions dans les
réseaux
Pour transmettre des informations binaires sur un support de
transmission, il est nécessaire de le transformer au préalable en un
signal électrique mieux adapté aux contraintes physiques du système
de transmission.
Les réseaux informatiques présente la particularité de demander de
très hauts débits, de plusieurs mégabits par seconde

• Dans ce contexte, deux technique de transmission sont


envisageable : la transmission dite en mode de bande qui n’effectue
qu’une simple transformation du signal, et la transmission qui
réalise une translation du spectre (modulation).
Les transmissions dans les réseaux

• A. Transmission en bande de base


• La transmission en bande de base (base
band) typique de la plupart des réseaux
locaux, consiste à transmettre
directement les signaux numériques sur
le support de transmission.

Figure: Principe de la transmission en bande


de base
Les transmissions dans les
réseaux
• Le Codeur bande de base, à essentiellement pour
objet :
 De transformer le signal numérique en un autre,
à fin que le spectre du nouveau signal soit mieux
adapté aux caractéristiques du support de
transmission (de bande passante en particulier)
 De maintenir la synchronisation entre l’émetteur
et le récepteur.
• Un tel procède est simple et non coûteux, mais
demande des supports de transmission à grande
bande passante.
Les transmissions dans les
réseaux
• Les principaux codages en bande de base
• Différents codage sont utilisés pour transmettre les
données en bande de base :
• Le codage NRZ
• Le codage NRZ (Non Return to Zéro, non retour à zéro)
utilise une tension négative pour représenter un ‘ 0 ‘
binaire, et une tension positive pour un ‘ 1 ‘ binaire.

Exemple de données binaires 10011 codées en


NRZ
Les transmissions dans les réseaux
• Le codage Manchester et le codage Manchester différentiel
• Le principe de ce codage est de deviser la période de
transmission de bit ‘ T ’ en deux intervalles égaux, ainsi chaque
période de transmission comporte une transition en son milieu.

1.1. Codage Manchester


• Avec le codage Manchester (appelé aussi le codage biphasé), c’est
le point où le signal change qui représente la valeur de bit
transmis. Un ‘ 0 ‘ binaire est représenté par une tension allant de
bas en haut, tandis que le ‘ 1 ‘ binaire est représenté par une
tension allant du haut en bas.

Exemple de données binaires représenté en


codage Manchester
• Codage Manchester différentiel
• Le codage Manchester différentiel tient
compte du bit précèdent. Un ‘ 0 ‘ binaire est
représenté par un changement de tension
au début de la transmission, et le ‘ 1 ‘
binaire est représenté par l’absence de
changement de tension au début de la
transmission.

Exemple de codage Manchester différentiel


• Limitation de la transmission en bande de base

• Les signaux en bande de base sont sujet à une atténuation au fur


est à mesure de la distance parcouru, ce qui constitue le principal
problème de la transmission en bande de base. Si le signal n’est
pas régénéré très souvent, il prend une forme quelconque, que le
récepteur est incapable de comprendre (puisque le niveau
logique haut, peut être détecté comme niveau bas si son
amplitude devient inférieur à une tension de seuil). Cette
méthode de transmission ne peut être utilisé que sur de très
courtes distances, la distance maximale d’utilisation dépend
essentiellement de la qualité du support utilise, elle est de l’ordre
de 5 Km. Sur des distances plus longues, on utilise un signal qui
oscille en permanence, nommée porteuse. Ce signal est de forme
sinusoïdale.
• Pour envoyer les données par-dessus ce signal continue, l’émetteur
modifie la porteuse de manière à refléter les informations à
transmettre, ce type de modification de la porteuse s’appelle
modulation et ces techniques ont été en usage pour la radio, la
télévision, le téléphone, bien avant l’avènement des réseaux
informatiques.

• B. Modulation discrète
• Pour mettre en oeuvre l’opération de modulation on utilise (en
amont du canal) un organe appelée modulateur, à la sortie du canal
on utilise un organe effectuant l’opération inverse de la modulation
(séparation du signal en bande de base de la porteuse), cette
opération s’appelle démodulation et l’organe qui l’effectue s’appelle
démodulateur. Ces opérations de modulation et de démodulation
sont généralement mises en oeuvre au sein d’un même organe
physique appelé dans ce cas MODEM (MOdulateur DEModulateur).
On dit que le MODEM est la liaison entre le monde numérique et le
monde analogique.
• Il existe plusieurs manières dont une porteuse analogique
peut être modulée pour représenter des données
numériques :
• Modulation d’amplitude
• La modulation d’amplitude est employé pour la radio AM
(Amplitude Modulation) et peut l’être également pour les
réseaux informatiques. Dans cette technique, l’amplitude
de la porteuse est modifiée de manière à représenter, à
coder, les données. Par exemple, une amplitude élevée
peut représenter un ‘ 1 ‘ binaire, et une amplitude basse un
‘ 0 ‘ binaire.
• Modulation de fréquence
La modulation de fréquence consiste à modifier la
fréquence de la porteuse pour représenter les données.
Par exemple, on associe une fréquence f0 pour un ‘ 0 ‘
binaire et la fréquence f1 pour un ‘ 1 ‘ binaire. La figure
montre un exemple de porteuse modulé en fréquence
avec f1=2f0.
• Modulation de phase
• La modulation d’amplitude et de fréquence utilisent
toutes les deux au moins une période complète de
la porteuse pour coder un ‘ 0 ‘ ou un ‘ 1 ‘ binaire. Or,
si on peut coder plusieurs bits pendant une seule
période, le nombre de bits transmis par seconde en
serait augmenté d’autant. Cette possibilité à été
implanté dans les réseaux informatiques grâce à la
modulation de phase, avec cette technique, c’est la
phase de la porteuse qui est modifié de manière à
représenter les données.
• Modulation hybride
• Il est possible de combiner les différents types
de modulation que nous venons de présenter
à fin de transmettre un nombre important de
bits par secondes. Il est ainsi fréquent
d’utiliser à la fois une modulation d’amplitude
et une modulation de phase.
Multiplexage
• Il est fréquent de devoir transmettre plusieurs
informations simultanement au travers d’un
même canal. Pour ce faire, il est nécessaire de
recourir au multiplexage.

Vous aimerez peut-être aussi