Académique Documents
Professionnel Documents
Culture Documents
1
OBJECTIFS DU COURS
L'objectif du cours d'Introduction aux réseaux est de donner des bases solides aux étudiants qui
souhaitent comprendre le monde des réseaux. Un monde aux évolutions spectaculaires qui englobe
aujourd'hui l'informatique, les télécommunications et l'audiovisuel.
Introduction
Chapitre 1 : Concepts fondamentaux
Chapitre 2 : Architectures réseaux et les modèles de référence
Chapitre 3 : Les réseaux locaux
Chapitre 4 : L’interconnexion des réseaux
Chapitre 6 : Notions de sécurité des réseaux
2
INTRODUCTION
En fait, il s’agit d’utiliser les moyens et les techniques de télécommunication pour rendre
l’informatique plus accessibles et disponible à tous les utilisateurs : appelée téléinformatique jadis ;
elle émerge aujourd’hui sous l’appellation télématique.
Pourquoi avoir des liaisons télématiques, des réseaux ? Que veut-on faire ?
Les premières applications faites et qui restent toujours à réaliser sont les transferts de fichiers :
« ftp » File Transfert Protocol (protocole internet) : pouvoir copier un fichier d’une machine à l’autre,
sans manipulation excessive, voire de manière automatisée (batch). « ftam » norme ISO de ftp. Eviter
les redondances. Faciliter les mises à jour. Exemple : fichiers de transactions ou compensations
bancaires.
La deuxième application est le partage de ressources : L’idée de base est de partager des
périphériques chers, partager d’espaces disques, de fichiers, partage de bases de données.
La troisième application est le lien à l’existence de réseau : Courrier électronique (e-mail), Internet
RFC (Request For Comments), Forum électronique (News), Tableau d’affichage électronique (news,
bulletin board).
La quatrième application est l’inter fonctionnement d’applications, de services : Une application peut
utiliser les ressources d’une ou plusieurs autres applications (serveurs de données) situés ailleurs.
Cette application réalise quand même, elle-même, certain calcul, fonction et affichage en local. Elle
peut elle-même être serveur pour d’autres applications. Exemple : WWW (World Wide Web).
Le problème majeur est de faire communiquer et travailler, ensemble, les différents éléments. C’est
la notion d’inter fonctionnement des services proposés ou requis par les différentes parties. C’est
aussi de se libérer des distances, de la géographie. Exemple : Déporter des terminaux, des
imprimantes, relier les personnes d’une entreprise, réseau local (LAN). C’est également de relier des
sites nationaux, internationaux (WAN). Exemples : Banques + agences, terminaux « monétiques »
(Exemple : caisse de supermarché, distributeur de billet), Validation loto dans un bureau de tabac.
Les réseaux sont donc partout autour de nous et même à l'intérieur de nous. Notre système nerveux
et notre système cardio-vasculaire sont des réseaux. Le schéma de grappe ci-contre présente
différents types de réseau. Remarquez les catégories : communications, transport, société, biologie,
services, etc.
3
Figure 01 : Exemples de réseaux
4
HISTORIQUE
L’utilisation des réseaux informatiques n’est pas une technique nouvelle. On signale en 1951, la mise
en place par US AIR Force avec le concours de MIT du réseau SAGE (Semi-automatic Grounded
environnement), qui avait pour but d’organiser la défense aérienne de l’Amérique du Nord. Les
ordinateurs localisés à différents endroits étaient reliés grâce à des lignes téléphoniques.
Un second réseau informatique fut mis en place en 1964, il dérivait de la morphologie du premier,
mais il est d’usage civil : SABRE (Semi-Automatic Bussiness- Related environnement). Ce réseau avait
pour but d’assurer la réservation des places d’avion aux USA dans tous les bureaux de la compagnie
American Airlines. « Il s’agissait d’un ordinateur (doublé par une machine semblable) auquel étaient
reliés 1200 télétypes, répartis sur tout le territoire américain, par le biais des lignes téléphoniques. Il
était installé à New York. »
Les réseaux informatiques ou réseaux de données sont apparus à la suite des applications
informatiques écrites pour les entreprises. Cependant, au moment où ces applications ont été
écrites, les entreprises possédaient des ordinateurs qui étaient des machines autonomes,
fonctionnant par elles-mêmes et indépendantes les unes des autres. On s'aperçut vite que cette
façon d'exploiter les entreprises n'était ni efficace ni rentable. Au début, l'adoption des ordinateurs
personnels par les entreprises a été plutôt lente. L'apparition de Lotus 1-2-3 et d'autres applications
conçues pour l'entreprise a favorisé la croissance rapide de l'industrie des ordinateurs personnels ou
PC.
Au tout début, une entreprise faisait l'acquisition d'ordinateurs en tant qu'appareils autonomes,
parfois reliés directement à une imprimante. Lorsque les membres du personnel ne possédant pas
d'imprimante désirant imprimer des documents, ils devaient copier les fichiers sur des disquettes, les
transporter et les charger sur le PC d'un ou d'une collègue et les imprimer à partir de cet ordinateur.
Cette version plutôt rudimentaire d'un réseau s'est fait connaître sous le nom de "réseau disquettes"
ou "Sneaker Net".
5
Avec la croissance de l'entreprise, les désavantages du " réseau disquettes" sont vite devenus
évidents.
Les entreprises avaient donc besoin d'une solution qui apporte des réponses aux trois questions
suivantes :
La création de réseaux locaux est apparue comme l'une des premières solutions à ces problèmes. En
reliant tous les postes de travail, périphériques, terminaux et autres unités d'un immeuble, le réseau
local permettait aux entreprises qui utilisaient l'informatique de partager efficacement différents
éléments, dont les fichiers et les imprimantes.
Les entreprises ont pris conscience des sommes qu'elles pouvaient économiser et des gains de
productivité qu'elles pouvaient réaliser en utilisant la technologie du réseau. Elles ont commencé à
ajouter des réseaux et à étendre les réseaux existants presque aussi rapidement que l'apparition des
nouvelles technologies et des nouveaux produits de réseau le permettait. Par conséquent, au début
des années 1980, le réseau a connu une croissance phénoménale, mais ce développement était
chaotique à plusieurs points de vue.
Par conséquent, les entreprises se sont mises à investir dans les réseaux locaux. Le réseau local
permettait aux utilisateurs d'un service de transférer rapidement des fichiers dans le réseau de
manière électronique. Les imprimantes autonomes ont été remplacées par des imprimantes réseau
très rapides, partagées par l'ensemble d'un service. Mais même alors, le "réseau disquettes"
demeurait généralement la seule façon de partager des fichiers avec une personne d'un autre service
ou dans un autre réseau.
Vers le milieu des années 1980, des problèmes sont apparus. Bon nombre des technologies de
réseau mises au point avaient été conçues à partir de différentes mises en œuvre matérielles et
logicielles. Par conséquent, beaucoup de ces nouvelles technologies de réseau étaient incompatibles.
Il devint donc de plus en plus difficile de faire communiquer les réseaux utilisant des spécifications
différentes.
Puis, avec la hausse de l'utilisation des ordinateurs en entreprise, même les réseaux locaux sont vite
devenus insuffisants. Dans un système de réseau local, chaque service ou entreprise peut être
comparé à une île.
6
Il fallait donc trouver une façon de faire circuler l'information rapidement et efficacement non plus
seulement à l'intérieur d'une entreprise mais aussi entre les entreprises. La solution du moment a
été de créer des réseaux métropolitains et des réseaux longue distance. Comme les réseaux longue
distance pouvaient relier des réseaux utilisateurs géographiquement éloignés, ils permettaient aux
entreprises de communiquer entre elles sur de grandes distances.
Les entreprises en croissance ont ouvert des bureaux de vente un peu partout dans le monde.
Chaque bureau possédait son propre réseau local, son matériel et son logiciel, ainsi que son
administrateur réseau. Chaque service fonctionnait de manière efficace, mais était isolé, du point de
vue électronique, de tous les autres services. Cette situation a souvent été une cause d'inefficacité à
l'échelle de l'entreprise, ainsi que les détails pour accéder à l'information devant être partagée.
Le besoin d'interconnecter les réseaux est apparu comme la solution aux trois problèmes suivants : la
duplication du matériel et des ressources, l'incapacité de communiquer avec quiconque en tout
temps et en tout lieu, ainsi que le manque de gestion des réseaux locaux. Ces problèmes se sont
transformés en occasion d'affaires pour les sociétés de développement de solutions d'interconnexion
de réseaux locaux et de réseaux longue distance.
7
CHAPITRE 1 : CONCEPTS FONDAMENTAUX
Le terme « télématique » a été inventé en 1977 par un espagnol, LUIS ARROYO, directeur
général de la société ENTEL.
Selon Robert 1944, la télématique est défini comme un « ensemble des techniques qui
combine les moyens de l’informatique avec ceux de la communication ». Et selon le même Robert,
la téléinformatique est définie comme étant une « informatique faisant appel à des moyens de
transmission à distance ».
– un ensemble X = {𝑥1 , … , 𝑥𝑛 } dont les éléments sont appelés sommets ou nœuds (ce dernier terme
est plutôt dans le contexte des réseaux) ;
– un ensemble U = {𝑢1 , … , 𝑢𝑛 } du produit cartésien X × X dont les éléments sont appelés arcs.
Pour un arc u = (𝑥𝑖 , 𝑥𝑗 ), 𝑥𝑖 est l’extrémité initiale, 𝑥𝑗 l’extrémité finale (ou bien origine et destination).
L’arc u part de 𝑥𝑖 et arrive à 𝑥𝑗 .
8
Un p-graphe est un graphe dans lequel il n’existe jamais plus de p arcs de la forme (i, j) entre
deux sommets quelconques.
Une chaîne est une séquence d’arcs telle que chaque arc ait une extrémité commune avec le
suivant. Un cycle est une chaîne qui contient au moins une arête, telle que toutes les arêtes de la
séquence sont différentes et dont les extrémités coïncident.
Exemple :
u2, u5, u6,u4 constitue une chaîne et u4, u7, u6 constitue un cycle.
Un graphe G = (X,U) est dit graphe connexe si couples de sommet distincts i, j ∈ X , une
chaîne joignant i et j. Autrement dit, un graphe est connexe si l’on peut atteindre n’importe quel
sommet à partir d’un sommet quelconque en parcourant différentes arêtes.
Exemple
9
Figure 1.4. : Exemple de graphe connexe
Un chemin de longueur q est une séquence de q arcs tels que l’extrémité initiale du suivant
coïncide avec l’extrémité terminale de l’arc précédent sauf l’extrémité initiale du chemin et
l’extrémité terminale du chemin.
Un circuit de longueur q est un chemin fermé (dont les 2 extrémités initiales et terminales)
coïncident.
G = (X,U) est dit graphe fortement connexe si i, j X, avec i j, un chemin les reliant.
Figure 1.7.
10
De manière générale, un graphe permet de représenter simplement la structure, les
connexions, les cheminements possibles d’un ensemble complexe comprenant un grand nombre de
situations, en exprimant les relations, les dépendances entre ses éléments (e.g., réseau de
communication, réseaux ferroviaire ou routier, arbre généalogique, diagramme de succession de
tâches en gestion de projet, ...). En plus de son existence purement mathématique, le graphe est
aussi une structure de données puissante pour l’informatique.
Un réseau est un graphe connexe, sans boucle et asymétriques, possédant une entrée
et une sortie.
Les Réseaux informatiques sont nés du besoin de faire communiquer des terminaux
distants avec un site central puis des ordinateurs entre eux.
Dans un premier temps ces communications étaient juste destinées aux transports de
données informatiques alors qu'aujourd'hui on se dirige plutôt vers des réseaux qui intègrent à la fois
des données mais en plus, la parole, et la vidéo.
Station de travail : On appelle station de travail toute machine capable d’envoyer des
données vers les réseaux (PC, MAC, SUN Terminal X, …).
11
Figure 1.9. : Exemple de station de travail
Nœud : C’est une station de travail, une imprimante, un serveur ou toute entité pouvant
être adressée par un numéro unique.
Paquet : C’est la plus petite unité d’information pouvant être envoyé sur le réseau.
Un type de réseau est défini par la distance entre les processeurs et suivant leur
localisation. Ainsi, Andrew TANENBAUM a présenté la classification suivante des réseaux.
12
➢ Autoroutes de l’information : Expression apparue vers les années 1980 et qui connut un
regain de popularité dans la campagne présidentielle américaine de 1992 par le co-listier de
Bill Clinton, Al Gore. En effet, une autoroute de l’information est un réseau composite qui
comprend : des lignes téléphoniques terrestres, des lignes hertziennes (téléphones sans fils),
des liaisons satellites, des liaisons câblées et fibres optiques et des lignes spécialisées dans le
transfert de données.
➢ Société de l’information : Concept né suite aux autoroutes de l’information et qui est la toile
de fond de la mondialisation des échanges et de l’économie. Ce concept a un impact sur la
nouvelle vision de l’entreprise. On parle ainsi de l’entreprise étendue, de l’entreprise ouverte
et communicante et de l’entreprise réseau. Ces novelles conceptions de l’entreprise visent
essentiellement l’adaptabilité dans un environnement où les opérations sont plus
décentralisés et même dématérialisées.
➢ Notion de E-business
➢ Le terme E-business désigne l’organisation de l’entreprise répondant aux nouvelles
technologies de l’information et de communication (NTIC) nécessités par une nouvelle
économie.
➢ Le E-business englobe le E-commerce et l’E-management. L’E-comme représente la nouvelle
organisation de la relation commerciale, avec la définition des produits et services, la
politique de prix et le marketing (segmentation, personnalisation). L’E-managment
représente la nouvelle organisation de l’entreprise et de ses relations avec ses partenaires,
ainsi que la gestion de la fonction de coût.
➢ Notion de commerce électronique
➢ Le commerce électronique « electronic commerce » consiste en une automatisation et en
une intégration « des procédures de traitement et d’échanges de toutes les informations
nécessaires pour traiter une affaire ». Il fonctionne grâce aux marchés électroniques appelés
aussi place de marché. Il existe cinq types de commerce électronique en se basant sur le type
d’intervenants (particuliers, organisations commerciales ou pouvoirs publics ou
administrations) :
➢ Business – to – business (B2B)
➢ Business – to – consumer (B2C)
➢ Business – to – administration (B2A)
➢ Consumer - to – administration (C2A)
➢ Consumer – to – consumer (C2C)
➢ Environnement technique pour le commerce électronique
➢ Le commerce électronique représente aujourd’hui la concrétisation de la dématérialisation
des échanges. Il s’appuie sur les réseaux informatiques, notamment l’Internet, l’Intranet ou
l’Extranet. La mise en œuvre du commerce électronique nécessitent certains services tels
que :
➢ Le service de répartition de l’information,
➢ Le service de recherche de l’information,
➢ Le service de production de l’information,
➢ L’outil de sélection des partenaires,
➢ L’outil d’indexation et de classification,
13
➢ Le service de gestion de transaction,
➢ Les services pour les individus,
➢ L’annuaire électronique,
➢ Le tiers de confiance,
➢ Les services de sécurité,
➢ Et les services d’interconnexion.
Un système centralisé, appelé également serveur central, est un système qui regroupe
toutes les bases de données sur lequel se connectent les individus voulant accéder à une
information. On dénombre trois types de centralisation différents :
Avantages :
Limites :
2. Qu'est ce qu'un terminal passif? Les terminaux passifs ne possèdent pas de moyens
de traitement autonomes et se contentent :
14
➢ d'accepter ce que l'utilisateur frappe au clavier ou transmet comme ordre à la souris, de le
transmettre à un ordinateur (soit caractère par caractère, soit plus efficacement par blocs,
par exemple chaque fois que l'utilisateur presse la touche « Entrée »).
➢ d'imprimer les réponses de l'ordinateur ou de les afficher sur un écran (soit en mode
machine à écrire, soit en mode full-screen, que ce soit du texte pur ou des images). Bien que
bon marché et très simples à mettre en œuvre, les terminaux passifs ont souvent, à partir
des années 80, été remplacés par des ordinateurs personnels, voire par des stations de
travail, pour tous les travaux un peu élaborés. On a glissé petit à petit d'architectures
centralisées où tous les traitements étaient effectués de manière centralisée vers des
architectures distribuées
Le traitement de l’information dans les entreprises autour d’un site central (système
centralisé) a vu le jour vers les années 1960.
En 1970, les systèmes décentralisés ont vus le jour avec les mini-ordinateurs.
En 1980, les premiers réseaux locaux virent le jour avec la naissance des micro-
ordinateurs et permirent le partage de fichiers, les programmes et les périphériques.
En 1990, apparurent les systèmes clients – serveurs. Les micro-ordinateurs, les mini-
ordinateurs et les mainframes deviennent complémentaires.
Dans les mainframes, les réseaux (connectiques) consistaient principalement à relier les
terminaux à l’unité centrale. Cette connexion s’effectuait soit en étoile (star network), soit par un
réseau téléphonique (téléphone network) quand la distance était longue.
Les terminaux étaient des machines bêtes, seule l’unité centrale gardait l’intelligence et
la puissance arithmétique et logique. Cette type de connexion est appelé « front-end-networks » et
se présentaient sous plusieurs modèles dont : « star network », « front-end-networks with switching
capabilities» et « switched telephone network as a front-end-network ».
Un système est un système qui est constitué des matériels et logiciels dont le protocole
de fonctionnement est une propriété gardée sécrète par les constructeurs.
15
Un système ouvert est celui qui permet la connexion des matériels et logiciels provenant
des différents constructeurs. Cela était rendu possible par le fait que les constructeurs avaient publié
leurs protocoles pour permettre aux uns et aux autres d’harmoniser leurs composants.
Une communication est dite en mode connectée lorsqu’elle est caractérisée par les trois
phases bien distinctes :
16
➢ ISO(International Organization for Standardisation : une organisation internationale non
gouvernementale dont le rôle est d’unifier et de coordonner la normalisation dans diverses
techniques.
➢ CEI ou IEC (Commission Electronique Internationale ou International Electrotechnical
Commission) : Cet organisme s’occupe de la normalisation des composants électriques et
électroniques permettant la transmission de l’information (alimentation électrique,
résistance).
➢ ITU (International Telecommunication Union : Elle s’occupe de la normalisation des
télécommunications. Elle s’appelait autrefois CCITT (Comité Consultatif international
téléphonique et télégraphique).
➢ JTC1 (Joint Technical Commitee 1) : C’est un comité technique réunissant les experts de l’ISO
et de la CEI, c’est la seule référence mondiale des normes des TIC (Technologie de
l’Information et de Communication).
➢ IEEE(Institute of Electronic and Electricity Enginners) : né depuis 1970, cet organisme essaie
de normaliser les réseaux locaux en s’appuyant sur les couches 1 et 2 du modèle OSI. Ces
normes concernent tous les niveaux de transmission de l’information, du cablage jusqu’aux
modèles théoriques des réseaux. En 1980, un autre groupe de travail appelé 802 (soit l’année
et le mois de la création de ce groupe) est né pour la normalisation des réseaux locaux. Son
but est de développer un standard pour la communication entre deux systèmes, quelle que
soit l’architecture utilisées. En 1982, le groupe 802 se subdivise en sous-groupes de travail
spécialisés :
➢ 802.1. : groupe de travail sur l’architecture générale des réseaux,
➢ 802.2. : groupe de travail sur la gestion de transfert de données,
➢ 802.3. : groupe de travail sur le réseau bus CSMA/CD,
➢ 802.4. : groupe de travail sur le réseau bus à jeton,
➢ 802.5. : groupe de travail sur le réseau anneau à jeton
➢ IS ou ISOC (Internet Society)
➢ IS produit des documents appelés RFC (Request For Comments), gratuits, qui indiquent les
normes à respecter pour les communications sur le réseau Internet.
➢ Les normes sont produites par plusieurs groupes de travail :
➢ IETF (Internet Engeneering Task Force),
➢ IESSG(IETF Engeneering Steering Group),
➢ IAB(Internet Architecture Board),
➢ IANA(Internet Assigned Number Authority),
➢ IRTF(Internet Research Task Force),
➢ IRSG(Internet Research Steering Group).
17
Telecommunication Standards Institute) et CEPT (Conférence Européenne des Postes et
Télécommunications) qui sont orientés vers les télécommunications.
Plusieurs pays ont des organismes nationaux et même continentaux qui transportent les
normes internationales sur le plan national, régional ou continental. Il s’agit :
En communication, on parle de :
➢ Queuing delay , le délai d’attente entre le moment où l’on demande une communication et
le moment où s’établit la transmission.
➢ Transmission delay ou temps de transmission, le délai (en seconde) qui s’écoule entre le
début (begin transmission) et la fin de la transmission (end transmission) d’un message sur
une ligne physique).
➢ Throughput (débit d’information ou vitesse d’information) : c’est le nombre de bits qui
peuvent être transmis par seconde, il est noté D (bits/ seconde).
18
Section 3 : Concepts de base des télécommunications numériques
3.1.1 Généralités
Afin de qualifier ces différents flux vis-à-vis du système de transmission, nous définirons
succinctement les caractéristiques essentielles d’un réseau de transmission. Ensuite, nous
examinerons le mode de représentation de ces informations. Enfin, nous appliquerons les résultats
aux données, à la voix et à l’image pour en déduire les contraintes de transfert spécifiques à chaque
type de flux.
Les systèmes de traitement de l’information emploient une logique à deux états dite «
binaire ». Pour y être traitée, l’information doit être traduite en symboles compréhensibles et
manipulables par ces systèmes. Selon le type d’information à transformer, l’opération qui consiste à
transformer les données en éléments binaires s’appelle le codage ou numérisation. On appelle débit
binaire (D) le nombre d’éléments binaires, ou nombre de bits, émis sur le support de transmission
pendant une unité de temps. Le débit binaire est généralement la grandeur utilisée en premier pour
qualifier un système de transmission ; il s’exprime par la relation :
19
V
D=
t ,
N.B.
L’unité officielle de débit est le bit/s (invariable). L’abréviation bps pouvant être
confondue avec byte par seconde ne sera pas utilisée dans cet ouvrage. Rappelons que le terme bit
provient de la contraction des termes « binary digit ».
Durant la transmission, les signaux électriques peuvent être perturbés par des
phénomènes électriques ou électromagnétiques d’origine externe désignés sous le terme générique
de bruit. Le bruit est un phénomène qui dénature le signal et qui est susceptible d’introduire des
erreurs d’interprétation du signal reçu (figure 1.13).
20
Les capacités de transport d’information (débit) sont directement liées au rapport entre
la puissance du signal utile et celle du signal de bruit. Ce rapport, appelé rapport signal sur bruit
(SNR, Signal Noise Ratio que nous noterons S/N), s’exprime en dB (décibel ), formule dans laquelle S
représente la puissance électrique du signal transmis et N la puissance du signal parasite ou bruit
affectant le canal de transmission :
N.B.
Le décibel ou dB (10e du Bel) est une unité logarithmique sans dimension. Elle exprime
le rapport entre deux grandeurs de même nature. Le rapport signal/bruit peut aussi s’exprimer par le
rapport des tensions, la valeur est alors D S/NdB = 20 log10 (S/N)(en tension)
On appelle taux d’erreur binaire (Te ou BER, Bit Error Rate) le rapport du nombre de bits
reçus en erreur au nombre de bits total transmis.
21
Le mathématicien français Joseph Fourier (1768-1830) a montré que tout signal
périodique de forme quelconque pouvait être décomposé en une somme de signaux élémentaires
sinusoïdaux (fondamental et harmoniques) superposée à une valeur moyenne (composante
continue) qui pouvait être nulle. L’ensemble de ces composantes forme le spectre du signal ou bande
de fréquence occupée par le signal (largeur de bande).
Les informations peuvent être réparties en deux grandes catégories selon ce qu’elles
représentent et les transformations qu’elles subissent pour être traitées dans les systèmes
informatiques. On distingue :
Pour être traitées par des équipements informatiques, les informations doivent être
représentées par une valeur binaire (codage à la source). Le codage à la source est plus
spécifiquement appelé codage de l’information pour les informations discrètes et numérisation de
l’information pour les informations analogiques.
22
3.1.2.2 Le codage des informations
a) Définition
Le codage des différents états d’un système peut s’envisager selon deux approches. La
première, la plus simple, considère que chacun des états du système est équiprobable. La seconde
prend en compte la fréquence d’apparition d’un état. Ceci nous conduit à définir deux types de code
: les codes de longueur fixe et ceux de longueur variable.
Chaque état du système est codé par un certain nombre de bits (n), appelé longueur du
code, longueur du mot code ou encore code à n moments. Ainsi,
– avec 3 bits 8 états (000, 001, 010, 011, 100, 101, 110, 111)
Le nombre d’états pouvant être codés par un code de n bits s’appelle puissance
lexicographique du code que l’on note : P = 2n
23
En généralisant, le nombre de bits nécessaires pour coder P états est n, tel que :
2 (n – 1) < P ≤ 2 n
Soit, en se rappelant que le logarithme d’un nombre N est le nombre par lequel il faut
élever la base pour retrouver ce nombre (N = base log N ), par exemple, le logarithme de 8 à base 2 est
3 car 2 3 = 8 ; on peut alors écrire :
n = log2 P
Dans cette formule, le nombre de bits (n) représente la quantité d’information (Q) d’un
mot du code. Lorsque dans un système, tous les états sont équiprobables ou considérés comme tel,
la quantité d’information apportée par la connaissance d’un état est la même quel que soit l’état
connu ; le codage qui en résulte est alors dit à longueur fixe. L’information élémentaire est
représentée par deux valeurs équiprobables (0 ou 1, pile ou face...), la quantité d’information
apportée par la connaissance de l’un des états est :
Q = log2 1/p
c) Application
Soit un code de longueur 5 bits pour coder les 26 éléments. La quantité d’information
contenue dans un mot code est de 5 bits. Cependant, la quantité d’information apportée par la
connaissance d’un caractère n’est que de :
Q = log2 (1/p)
Q = log2 (26) = 3,32 log10 (26) = 3,32 · 1,4149 = 4,69 shannons ou bits
24
Les codes usuels utilisent cinq éléments (code Baudot), sept éléments (code ASCII
appelé aussi CCITT n ◦5 ou encore IA5) ou huit éléments (EBCDIC). Le code Baudot, code
télégraphique à cinq moments ou alphabet international n ◦2 ou encore CCITT n◦2, est utilisé dans le
réseau télex. Le code Baudot autorise 2 5 soit 32 caractères, ce qui est insuffisant pour représenter
toutes les lettres de l’alphabet (26), les chiffres (10) et les commandes (Fin de ligne...).
Deux caractères particuliers permettent la sélection de deux pages de codes soit au total
une potentialité de représentation de 60 caractères. Le code ASCII (figure 1.17), American Standard
Code for Information Interchange, dont la première version date de 1963, est le code générique des
télécommunications. Code à sept moments, il autorise 128 caractères (27 ). Les 32 premiers
symboles correspondent à des commandes utilisées dans certains protocoles de transmission pour
en contrôler l’exécution. La norme de base pré- voit des adaptations aux particularités nationales
(adaptation à la langue). Ce code, étendu à huit moments, constitue l’alphabet de base des micro-
ordinateurs de type PC.
25
Figure 1.17 : Le code ASCII (suite)
Le code EBCDIC, Extended Binary Coded Decimal Interchange Code, code à huit
moments, d’origine IBM, est utilisé dans les ordinateurs du constructeur. Le code EBCDIC a, aussi, été
adopté par d’autres constructeurs (notamment Bull) pour leurs calculateurs.
26
La longueur optimale du mot code est :
H = – (0,48 log2 0,48 + 0,21 log2 0,21 + 0,12 log2 0,12 + 0,08 log2 0,08 + 0,06 log2 0,06 +
0,05 log2 0,05)
H = – 3,32 [(0,48 log10 0,48 + 0,21 log10 0,21 + 0,12 log10 0,12 + 0,08 log10 0,08 + 0,06
log10 0,06 + 0,05 log10 0,05)]
H = 2,09 bits
4. Insérez la nouvelle occurrence obtenue dans la table et trier celle-ci à nouveau par
ordre décroissant.
5. Poursuivez les réductions jusqu’à ce qu’il n’y ait plus d’élément (répétition des étapes
3, 4, 5).
27
La longueur moyenne (Lmoy) du code est de : © D Lmoy = 0,48 · 1 + 0,21 · 2 + 0,12 · 3 +
0,08 · 4 + 0,06 · 5 + 0,05 · 5 = 2,13
Dans cet exemple, on peut remarquer qu’aucun des mots codes obtenus ne peut être
confondu avec le début d’un autre. Le codage est dit préfixé. Le codage de Huffman permet de
réduire le nombre de bits utilisés pour coder l’information. Dépendant du contexte, il impose, avant
la transmission, d’établir une convention (Huffman modifié, utilisé en télécopie groupe 3) ou de
transmettre, avant les données, le contenu de la table construite par l’émetteur sur un échantillon
ou sur la totalité des données à transférer. Du code ASCII à l’Unicode Le codage ASCII (7 bits) ou ISO-
646 ne permet de coder que 128 symboles ; il ne réserve que sept valeurs pour prendre en compte
les particularités nationales. L’internationalisation des communications, notamment avec Internet, a
mis au premier plan les problèmes de codage des textes et a révélé les insuffisances du codage ASCII.
Une première extension a été réalisée par la norme ISO-8859-x (8 bits). ISO-8859-x utilise les 128
premiers caractères du code ASCII (32 codes de commandes et 96 codes de caractères), le symbole x
renvoie vers des tables qui complètent le jeu originel autorisant ainsi les écritures à base de
caractères latins, cyrilliques, arabes, grecs et hébraïques. Le codage ISO-8859-x doit être préféré, sur
Internet, à tout autre code chaque fois que cela est possible. Le décodage d’un texte nécessite que le
destinataire connaisse et identifie le code utilisé. Ceci a conduit à définir un code unique sur 16 ou 32
bits permettant la représentation de pratiquement toutes les langues écrites du monde : l’Unicode
(16 bits) qui reprend les spécifications du code ISO 10646 UCS-2 (Universal Character Set).
a) Principe
28
Figure 1.19 : La numérisation d’un signal analogique
29
Figure 1.21 : La structure d’un convertisseur analogique/numérique
Une reproduction correcte nécessite aussi que le système de transmission respecte les
intervalles temporels entre chaque échantillon. Si le temps de transfert ou temps de latence varie
dans le réseau, le signal restitué n’est plus conforme au signal d’origine (figure 1.22).
Les flux de données qui nécessitent une récurrence temporelle stricte (gigue nulle) sont
dits isochrones et également, par abus de langage, flux ou données temps réel. Application à la voix
Un canal téléphonique utilise une plage de fréquence ou largeur de bande s’étendant de 300 Hz à 3
400 Hz. Si, pour garantir un espace suffisant entre les différents sous-ensembles du spectre (voir
figure au dessus), on prend 4 000 Hz comme fréquence de coupure du filtre d’entrée, la fréquence
d’échantillonnage minimale est de :
Soit 8 000 échantillons par seconde, ce qui correspond à prélever un échantillon toutes
les 125 μs (1/8 000). Pour une restitution correcte (dynamique6 et rapport signal sur bruit), la voix
devrait être quantifiée sur 12 bits (4 096 niveaux). Des contraintes de transmission en rapport avec le
débit conduisent à réduire cette bande. L’utilisation d’une loi de quantification logarithmique permet
de ramener la représentation numérique de la voix à 8 bits (7 bits pour l’amplitude et un bit de
signe), tout en conservant une qualité de reproduction similaire à celle obtenue avec une
quantification linéaire sur 12 bits. Cette opération dite de compression est différente en Europe (loi
A) et en Amérique du Nord (loi μ). En codant chaque échantillon sur 8 bits, il est nécessaire d’écouler
: 8 000 · 8 = 64 000 bits par seconde sur le lien, Ce qui correspond à un débit de 64 000 bit/s. Le
transport de la voix ayant été le premier transfert d’information réalisé, c’est naturellement lors de la
numérisation des réseaux que le débit de 64 kbit/s est devenu le débit unitaire de référence. Les
débits offerts par les réseaux numériques vont de 64 kbit/s à un multiple entier de 64 kbit/s.
30
b) Application à l’image vidéo
L’image est analysée de gauche à droite ligne par ligne (balayage horizontal) et de haut
en bas (balayage vertical). Pour garantir le synchronisme entre le système d’analyse de l’émetteur et
le système de reproduction du récepteur, une impulsion de synchronisation (synchronisation ligne)
est insérée entre deux lignes successives. À l’instar de la synchronisation ligne, un signal
(synchronisation verticale ou trame) réinitialise le positionnement du système de balayage pour
l’analyse d’une nouvelle image. Les commandes de déplacement, horizontal et vertical, s’exécutent
simultanément, de ce fait les lignes sont légèrement inclinées. L’ensemble des lignes constituant une
image constitue une trame. Lorsque l’analyse des lignes est réalisée de façon continue l’image est
dite progressive. Les paramètres de base d’un système de télévision sont donc :
➢ le format de l’image ;
➢ le nombre de lignes analysées par seconde, généralement appelée définition verticale de
l’image ;
➢ le nombre d’images analysées par seconde.
31
625 lignes en Europe (576 lignes utiles ou visibles) et de 525 lignes en Amérique du Nord et au Japon
(480 lignes visibles).
La persistance rétinienne moyenne est d’environ 0,1 seconde. Dans ces conditions, si le
temps entre l’illumination du premier point en haut à gauche et celle du dernier point en bas à droite
est inférieure à 0,1 seconde, l’œil verra une image et non pas un point. En conséquence, le nombre
d’images doit être d’au moins 10 images/s. Cependant, l’impression de mouvement fluide n’est
obtenue qu’à partir de 16 images/secondes (cinéma muet). Pour avoir une reproduction du son
correcte, le cinéma sonore a nécessité d’augmenter le nombre d’images et de le porter à 24
images/seconde (longueur physique du film pour l’empreinte sonore). Pour tenir compte d’éventuels
phénomènes stroboscopiques entre l’affichage de l’image et la tension dite de ronflement des
alimentations, en télévision, ce nombre a été fixé à 25 images/seconde en Europe et 30
images/seconde en Amérique. En télévision, compte tenu du système spécifique de reproduction
continue d’un point et non de l’affichage d’une image complète comme le cinéma, une reproduction
à 25 images/seconde provoque un effet de papillotement de l’image. Afin d’augmenter le nombre
d’images affichées sans augmenter la bande passante, l’image est analysée et reproduite en deux
trames successives. En Europe, la fréquence image est donc de 25 images/seconde et la fréquence
trames de 50 Hz (50 1∕ 2 images par seconde), la première trame analyse les lignes impaires, la
seconde les lignes paires. Ce système est dit à trames entrelacées (figure 1.24).
Une image colorée peut être analysée selon trois couleurs dites primaires de longueur
d’onde (λ) déterminée. Pour reconstituer l’image d’origine, il suffit de superposer les trois images,
c’est la synthèse additive. La figure 1.25 représente le principe de la synthèse additive. Le dosage de
chacune des sources lumineuses permet de reproduire toutes les couleurs.
32
V celle de la composante de lumière verte,
Figure 1.25
L’image est dite RVB ou RGB (Red, Green, Blue), du nom des trois couleurs primaires
rouge, vert, bleu. En télévision, pour assurer la compatibilité avec les téléviseurs monochromes, il
faut transmettre non seulement les informations de chrominance mais aussi celles de luminance
(échelle des gris). Par conséquent, l’information de luminance (Y) est transmise sans modification.
Compte tenu qu’il existe une relation mathématique entre la luminance et les trois fondamentales,
seules les informations de couleur rouge (R) et bleue (B) sont transmises ; l’information de couleur
verte8 (V) sera calculée par le récepteur :
d’où
Les travaux de Bedford (mires de Bedford) ont mis en évidence que l’œil ne percevait
pas la couleur dans les détails. Dès lors, on peut se contenter d’une définition moindre pour
l’information couleur que pour l’information monochrome (noir et blanc). Plusieurs schémas de
réduction de la bande chrominance ont été adoptés, ceux-ci sont illustrés par la figure 1.26.
33
Le format de base adoptée pour la télévision est le 4:2:2 (quatre échantillons de
luminance pour deux échantillons de chrominance horizontale et verticale). Le format 4:1:1 est plus
réducteur puisque la définition horizontale n’est que le quart de la définition verticale. Enfin, dans le
format dit 4:2:0, à l’instar du format 4:2:2 la définition horizontale de la chrominance est réduite de
moitié, mais aussi celle de chrominance verticale, puisque l’information de chrominance de la ligne N
et réutilisée pour la ligne N+1 (une seule ligne d’analyse de chrominance pour deux lignes
reproduites). Application à la télévision numérique Le standard d’une image de télévision numérique
au format européen (625 lignes, 25 Hz) est caractérisé par :
Au total 1 440 échantillons élémentaires par ligne sont analysés. En se satisfaisant d’une
quantification sur 255 niveaux (8 bits, soit 16 millions de couleurs, plus que l’œil n’est capable d’en
discerner), le nombre de bits nécessaires à la reconstitution d’une image (576 lignes) est donc de :
À raison de 25 images par seconde (50 demi-images), il faut, pour transmettre une
image animée, un débit minimal de :
34
Figure 1.27. Le codage de l’information de chrominance dan le système NTSC
N.B. A l’origine, la fréquence trame du système de télévision américain était de 60 Hz. Lors de la
définition d’un système couleur, cette fréquence a été légèrement modifiée pour tenir compte
de la fréquence de la sous-porteuse chrominance.
c) Application à la vidéoconférence
35
➢ H.320 ou p*64 qui utilise le réseau téléphonique numérique en associant p canaux
téléphoniques, avec 1 ≤ p≤ 30. Le codage de la vidéo y est défini selon les recommandations
de l’avis H.261 et H.263 (plus efficace).
➢ H.323, pour la diffusion de flux multimédia sur des réseaux de transmission de données sans
qualité de service comme Internet. Ces standards définissent la pile protocolaire et les
modes de codage de l’image et du son. Le codage vidéo est celui défini par le CCIR 4:2:2 YUV
non entrelacé (progressif). Ce codage est un compromis entre les formats de télévision NTSC
et PAL. Pour s’adapter au débit du réseau, plusieurs formats dérivés de deux formats de base
ont été définis :
➢ CIF (Common Intermediate Format).
➢ QCIF (Quart-CIF).
➢ De même, en début de communication, le nombre d’images par seconde est négocié entre
les différents agents. La fréquence image est un sous-multiple de 30 : 30 Hz, 15 Hz, 10 Hz et
7,5 Hz. La figure 1.29 fournit les relations entre les formats d’image et leurs implémentations
dans les normes de vidéoconférence.
3.1.3.1 Généralités
36
La compression se quantifie selon trois grandeurs : le quotient de compression, le taux
de compression et le gain de compression.
Le quotient de compression (Q) exprime le rapport entre la taille des données non
compressées à la taille des données compressées
– Le codage en longueur de plage comme le Run Length Encoding (RLE) qui consiste à
remplacer une suite de caractères identiques par le nombre d’occurrences de ce caractère. On
obtient des séquences du type : échappement/nombre/caractère, par exemple la séquence @10A
peut signifier, 10 A consécutifs. Ce codage, peu efficace, pour le texte est utilisé pour compresser les
images et les fichiers binaires, notamment par MacPaint (Apple). Ce codage n’est efficace que
lorsqu’une séquence de caractères comporte plus de deux caractères consécutifs différents. Aussi, si
le nombre de caractères similaires consécutifs est inférieur à trois, la suite de caractères différents
est identifiée (caractère de contrôle) et ne fait l’objet d’aucune compression.
– Le codage d’entropie ou codage statistique attribue un mot code d’autant plus petit
que la probabilité d’apparition du symbole à coder dans le fichier est grande (exemple : le codage
d’Huffman). Nécessitant une lecture préalable du fichier et l’envoi du dictionnaire de codage, le code
de Huffman est peu efficace. Utilisé en télécopie G3, le code de Huffman modifié (HM) associe, à
partir d’un dictionnaire préconstitué, un mot binaire à une séquence de points.
37
bande sera élevée, plus la restitution sera dégradée. L’objectif des procédés de codage consiste donc
en un compromis entre la réduction de bande passante nécessaire à la transmission et la qualité de
restitution. La réduction de bande envisageable ne dépend pas de la source, mais des imperfections
du système d’interprétation. L’homme étant plus sensible aux altérations du son qu’à celles de
l’image, les méthodes de codification de l’image autoriseront des réductions de bande plus
importantes que celles adoptées pour le son.
– Le codage MIC (Modulation par Impulsion et Codage ou PCM, Pulse Code Modulation)
qui utilise une quantification logarithmique.
– Les codages différentiels, codant non plus l’échantillon mais son écart par rapport à
l’échantillon précédent comme l’ADPCM (Adaptative Differential Pulse Code Modulation). Notons
cependant, que L’ADPCM64 autorise une bande de 7 kHz pour un débit de 64 kbit/s ; il peut être mis
en œuvre dans la téléphonie numérique sur RNIS (Réseau numérique à intégration de service).
– Des techniques plus élaborées reconstituent la voix par synthèse (CELP, Code Excited
Linear Prediction).
➢ La loi μ utilisée en Amérique du Nord, Japon et Australie quantifie les échantillons sur un
espace linéaire de 14 bits, réduit à 8 bits.
38
➢ La loi A mise en œuvre dans le reste du monde correspond à une quantification linéaire sur
12 bits et à une réduction à 8 bits. Ces lois autorisent un codage sur 8 bits avec un rapport
signal sur bruit de 33 dB. La figure ci dessous représente la partie positive de la loi A. Celle-ci
divise l’espace de quantification en huit intervalles. Chaque intervalle de quantification (sauf
les deux premiers) est le double du précédent. À l’intérieur de chaque intervalle, on opère
une quantification linéaire sur 16 niveaux. Un échantillon est représenté par 8 bits (figure
1.31) :
➢ le premier indique la polarité du signal (P) ;
➢ les trois suivants identifient le segment de quantification (S) ;
➢ enfin, les quatre derniers représentent la valeur dans le segment (V).
➢ Le codage différentiel
Le MIC différentiel appelé aussi codage Delta Modulation (DM) ne code pas la valeur de
l’échantillon, mais sa différence par rapport au précédent. La figure 1.32 schématise le principe d’un
codeur différentiel à quantification linéaire constante. Le signal quantifié (i) est la différence entre le
signal d’entrée (x) et une valeur prédite. En effet, les différents échantillons étant fortement corrélés,
il est possible à partir de la variation des échantillons précédents (n – 1, n – 2...) de prédire la valeur
de l’échantillon n. Dans le principe de base de la figure ci dessous, la prédiction n’est que de 1, la
référence est le seul échantillon précédent.
Si cette technique permet de réduire la bande nécessaire, on note figure ci dessus que
lorsque le pas de quantification est fixe, le système ne peut suivre les variations rapides du signal.
ADPCM (Adaptative Differential Pulse Code Modulation) ou MICDA (Modulation par impulsion et
codage diffé- rentiel et adaptatif) utilise une technique de quantification à pas variable proportionnel
39
à la variance du signal. Cette quantification est estimée, non pas sur la différence de valeur entre
l’échantillon précédent et l’échantillon courant, mais sur l’écart entre la valeur réelle de l’échantillon
et celle résultant de la prédiction de cette valeur par rapport à la variation de n échantillons
précédents. La figure 1.33 illustre ce principe.
Figure 1.33 :
Ce n’est pas le signal compressé qui est transmis mais la valeur des coefficients qui
permettront au décodeur, à partir d’un dictionnaire de sons, de reconstituer la voix par synthèse
vocale. À l’instar d’un instrument de musique à vent, le système vocal humain peut être assimilé à un
ensemble de tubes, évidemment plus complexe, excités par une onde sonore. Le principe de base
des algorithmes à excitation (CELP, Code Excited Linear Prediction) consiste à transmettre les
paramètres mathématiques qui permettront au récepteur de modéliser le système vocal de celui qui
parle et un index qui pointe dans un dictionnaire de séquences de voix préétablies appelées vecteurs.
Ce dictionnaire est commun à l’émetteur et au récepteur. Le dictionnaire comporte un ensemble de
vecteurs qui modélise le signal de parole. Le mécanisme consiste en une recherche en boucle fermée
le vecteur contenu dans le dictionnaire le plus proche du vecteur courant, le vecteur courant étant
prédit à partir de n échantillons précédents. La figure 1.34 illustre le principe, très simplifié, d’un
codeur CELP.
40
Le CELP nécessite une puissance de calcul importante de l’ordre de 10 MIPS et introduit
un délai important, de l’ordre de 50 à 100 ms. Le CELP modélise la voix, il n’est donc pas adapté aux
autres transferts (fax, modem, signaux de numérotation DTMF12...). La première variante, LD-CELP
(Low Delay - CELP) a pour principal objectif de minimiser le délai, celui-ci n’est plus que de 2 ms. Le
débit obtenu est de 16 kbit/s. Le CS-ACELP (Conjugate Structure - Algebric CELP) conçu à l’origine
pour le transport de la voix en mode paquet (réseau IP, GSM...) opère sur des trames de parole de 10
ms (80 échantillons à 8 000 Hz). La durée de codage est de 15 ms en tenant compte du temps de
prétraitement de la trame suivante (look ahead). La figure 1.35 résume les principales normes
fondées sur la technique CELP.
L’appréciation donnée est donc très subjective. La qualité est exprimée en MOS (Mean
Opinion Score) sur une échelle de notes de 1 à 5 : 1 : mauvais, quelques problèmes d’intelligibilité ; 2
: médiocre, dégradation considérable, la voix à une tonalité de voix synthétique ; 3:passable,
dégradation perceptible, mais on reconnaît son interlocuteur ; 4 : bon, dégradation à peine
perceptible ; 5:excellent, pas de déformation perceptible. La figure 1.36 compare les différents
algorithmes de compression en fonction du débit qu’ils autorisent et de la qualité de restitution de la
parole. La norme G.711 est utilisée dans la téléphonie fixe traditionnelle. La norme G.729 est mise en
œuvre dans la voix sur IP, elle modélise la voix humaine par l’utilisation de filtres.
41
Figure 1.36 : Synthèse des principaux algorithmes de compression
➢ Le codage de l’image
d1. Généralités
➢ la quantification scalaire qui n’attribue pas la même importance à chaque niveau du signal
transmis. En recherchant une répartition optimale des niveaux de quantification, on peut
réduire la bande nécessaire ;
➢ la quantification vectorielle (extension de la méthode précédente) qui opère une
quantification sur des blocs (redondance spatiale) ;
➢ les méthodes prédictives qui tentent, à partir de la valeur des points voisins, de déterminer la
valeur du point courant ;
➢ les méthodes à compensation de mouvements qui ne transmettent au temps t que la
différence entre l’image actuelle et l’image précédente (t – 1) ;
➢ la croissance rapide des puissances de calcul des machines modernes qui laisse prévoir un
avenir aux méthodes mathématiques (fractales, ondelettes).
Le codage d’images fixes a été défini par un groupe d’experts de la photographie le Joint
Photographic Expert Group (JPEG) en 1982. Leurs travaux ont servi de base au Moving Picture Expert
Group (MPEG) pour définir les normes de compression d’images animées (MPEG-1 novembre 1992,
MPEG-2 mars 1994, MPEG-4 fin 1998). Ces procédés de codage procèdent des principes précédents
42
et autorisent des images de qualité VHS (MPEG-1) et de qualité Télévision (720 × 480 à 30
images/seconde pour le système NTSC14 et 720 × 576 à 25 images/seconde pour le système PAL 15)
pour la norme MPEG-2. MPEG-216 dit de qualité broadcast est utilisé pour la diffusion d’émissions de
télévision numérique avec un débit compris entre 4 et 6 Mbit/s. MPEG-4 est essentiellement destiné
à la vidéoconférence, il autorise des débits inférieurs à 64 kbit/s. MPEG-4 sera utilisé dans la TNT
haute définition.
Le codage JPEG met à profit la forte redondance spatiale de l’image. L’image (figure
1.37) est décomposée en blocs de 8 × 8 pixels, chaque pixel de ce bloc présentant entre eux une
forte corrélation. Une réduction de bande importante est envisageable à condition de préserver un
pixel (en haut à gauche) qui servira de référence pour le décodage du bloc. La figure 1.38 illustre le
schéma de codage d’un bloc. Le signal d’entrée est transformé en blocs de 8 × 8 dans lequel chaque
pixel a été quantifié (quantification scalaire). À cette matrice (quantification vectorielle) est
appliquée une opération de transformation linéaire (DCT) permettant de réduire l’écart entre les
coefficients, voire d’en annuler certains sans que cette opération n’entraîne de distorsion
significative de l’image. La transformée en cosinus discrète (DCT, Discret Cosinus Transform) est une
opération mathématique, elle ne correspond nullement à une quelconque compression mais prépare
les données à une compression efficace en transformant l’information sur les pixels en une
information de variation d’un pixel à l’autre.
Le signal d’entrée vidéo est mis au format 4:2:0 et l’image est décomposée en blocs de 8
× 8 pixels. Chaque pixel est alors quantifié sur 8 bits. À chaque bloc est appliqué la fonction DCT, puis
les coefficients sont réduits par division de chaque terme par le terme de même indice d’une matrice
dite matrice de quantification. Les coefficients ainsi réduits sont lus en zigzag puis subissent une
compression sans perte du type longueur de plage (RLE) suivi d’un codage Huffman (figure 1.39). La
matrice de quantification peut être prédéterminée (système à débit variable) ou déterminée en
fonction d’un débit à atteindre (système à débit fixe).
43
Figure 1.39: L’illustration de la compression spatiale JPEG
44
Principe de la compensation de mouvement
Dans une séquence vidéo animée, si la vitesse de déplacement est faible vis-à-vis de la
fréquence des images, il y a peu de différence entre deux images successives. Il est alors
envisageable d’envoyer la différence entre l’image actuelle et l’image précédente (figure 1.41).
Une réduction plus importante peut être obtenue, en déduisant une image par
interpolation de la position d’un bloc entre deux images successives. Cependant, quand un objet se
déplace, il est possible de coder dans l’image suivante le déplacement de l’objet, mais il est
impossible de deviner la partie masquée qu’il a découverte en se déplaçant. Pour cela, MPEG utilise
un codage bidirectionnel. Les images bidirectionnelles ou Bidirectional Pictures (images B) sont
déduites non seulement de la précédente, mais aussi de la suivante (prédiction arrière et avant). Le
décodage correct d’une séquence vidéo nécessite donc plusieurs images. Cet ensemble unitaire
d’images forme un groupe d’images (GOP, Group Of Pictures). La figure ci dessous représente un
45
groupe d’images et les liens de codage entre les différentes images. Un GOP comprend entre dix et
quinze images.
46
Figure 1.45: La structure hiérarchique d’un flux vidéo
Le standard MPEG assure la synchronisation entre les flux vidéo et audio. Deux
paramètres sont définis : l’horloge de référence du système (SCR, System Clock Reference) et le
marquage temporel (PTS, Presentation Time Stamp). Une horloge système à 90 kHz assure le
marquage temporel ; elle est transmise dans le flux et codée sur 33 bits modulo 24 heures. Le
marquage temporel associé à chaque image vidéo (PTS) indique à quel moment celle-ci doit être
affichée. En cas de décalage, le système peut ignorer certaines images pour rattraper un retard
temporel.
47
3.1.4.1. Les données et les contraintes de transmission
Les réseaux transportent des flux numériques et non des informations. Selon le type de
données les exigences en termes de débit (volume), de temporalité (temps de transfert et variation
de celui-ci) et fiabilité (taux d’erreur) diffèrent. Un système de transmission multimédia doit être
capable de garantir à chaque type de flux le respect de ses contraintes spécifiques. Ainsi, un transfert
de fichiers correspond à un flux binaire constant. Il requiert un débit relativement important mais est
très peu sensible au temps de transmission. Plus exigeantes en termes de temps de transfert
(interactivité), les applications informatiques de type conversationnel sont caractérisées par la
sporadicité des flux qu’elles soumettent au système de transmission. Moins sensibles aux erreurs, la
voix et la vidéo ont des exigences strictes en matière de débit (débit minimal garanti), de temps de
transfert et surtout de récurrence temporelle (gigue), elles sont qualifiées de données isochrones. La
compression opérée sur ces types de données engendre des flux variables. La figure 1.47 résume ces
différentes caractéristiques.
Garantir un transfert de données qui respecte les contraintes spécifiques à chaque type
de flux de données (transparence sémantique et/ou la transparence temporelle), c’est assurer à
celui-ci une certaine qualité de service ou QoS (Quality of Service). Il existe essentiellement deux
modes d’approche de la qualité de service. La première se contente d’augmenter la bande passante
du réseau, la seconde plus pragmatique consiste à gérer la bande passante en allouant à chaque flux
ce dont il a besoin. La qualité de service dans un réseau ne crée pas de bande passante, elle assure
un traitement différencié à un flux donné. La QoS et la réservation de ressource Dans un système à
bande passante limitée, les solutions adoptées sont toutes du deuxième type. Deux techniques
s’opposent, la première consiste à rechercher un chemin dans le réseau (circuit virtuel) qui satisfasse
les exigences du flux transmis (figure 1.48).
48
Figure 1.48 : Principe de la réservation des ressources dans un réseau
C’est l’approche traditionnelle des protocoles réseaux comme le Frame Relay et l’ATM18
(Asynchronous Transfer Mode). Compte tenu de la combinatoire possible entre les différents
éléments de qualité de service, ces derniers ont été regroupés en profils. C’est la notion de classe de
service (CoS, Classe of Service). Plusieurs classifications de CoS ont été définies. La classification
formulée par l’ATM Forum est la plus utilisée. Les classes de service se répartissent en deux
catégories, celles qui requièrent une qualité de service multiple (multiservice) comme les
applications voix et vidéo et celles de la qualité « données » dont les exigences sont moindres. Les
classes de service permettent à l’utilisateur de spécifier ses besoins (contrat de service). La figure
1.49 fournit une description succincte des différentes classes de service
Dans les réseaux ATM et Frame Relay, la réservation des ressources par application est
peu utilisée dans les réseaux, elle nécessite des protocoles d’établissement de route complexes. On
préfère attribuer globalement une certaine QoS à une route, toutes les données transitant sur la
route établie subissant le même traitement (figure 1.50).
La notion de priorité consiste à marquer les flux en fonction d’un traitement à lui
appliquer. Chaque application se voit attribuer dynamiquement une partie de la bande passante en
fonction d’un niveau de priorité indiqué dans chaque élément de données. Si ce système a la faveur
des opérateurs car il simplifie la gestion du réseau, il présente l’inconvénient majeur de ne pas
préserver les flux déjà établis dans le réseau ce qui conduit généralement à un surdimensionnement
de ce dernier.
49
Section 3.2. La Transmission de données
A. Système de communication
3. La jonction
La jonction entre ces éléments est une interface physique entre un équipement
informatique et un réseau. Elle définit les caractéristiques de trois types d’interconnexion :
Voici comment se représente une liaison téléinformatique classique (en modulation) ci-
dessous :
50
Figure 1.52 : liaison téléinformatique classique (en modulation)
Elles sont utilisées principalement par les réseaux publics. Chaque station est commutée
avec une autre de façon individuelle.
Elles sont principalement utilisées par les réseaux locaux (privés). Une station primaire a
accès aux stations secondaires, et elles peuvent communiquer entre elles.
La liaison multipoint
La liaison en boucle
51
Figure 1.55: liaison en boucle
Pour communiquer des informations entre deux points, il existe différentes possibilités
pour le sens de transmission :
- Liaisons unidirectionnelles,
- Liaisons bidirectionnelles,
Dans ce type de liaison, les donnes ne circulent que dans un seul sens, c’est-à-dire de
l’émetteur au récepteur. C’est l’émetteur qui dirige la transmission. C’est le genre de liaison qui exige
entre un ordinateur et une imprimante ou entre une souris et un ordinateur.
Dans ce type de liaison, les données circulent dans un sens ou dans l’autre, mais pas
simultanément. Chaque ETTD émet à son tour. Cela peut s »effectuer sur un même support physique
alternativement ou sur deux lignes physiques séparées. Cette technique permet d’exploiter toute la
capacité optimale d’une ligne.
52
Figure 1.57 : Liaison Half – duplex
Dans le mode point à point, deux équipement distantes sont reliés directement par une
ligne de communication. Tandis que dans le mode multipoint, la ligne de communication est
partagée par plusieurs équipements.
Nous pouvons dire pour résumer la structure (topologie) des réseaux de communication
qu’il existe deux types de conception :
53
=> Store and Forward (mode différé). L’interconnexion des nœuds entre eux est un des
problèmes les plus importants dans la conception des réseaux. Dans les réseaux locaux du type point
à point, on s’attache à réaliser des topologies symétriques, ce qui est en revanche totalement
impossible pour des réseaux point à point étendus.
Figure : 1.59
Ces systèmes ont un seul réseau de communication partagé par toutes les machines
composant le réseau. L’information envoyée par une machine est reçue par toutes les autres. Une
adresse de destination contenue dans le message transmis précise le destinataire. Dés réception d’un
message, chaque machine teste l’adresse de destination et ignore le message si celui-ci ne lui est pas
destiné.
Figure : 1.60
54
Section 3.3. Les modes des transmissions : transmission parallèle et série
Les réseaux informatiques se fondent sur la numérisation des informations, c'est à dire
la représentation des données par des suites de ‘ 0 ‘ et de ‘ 1 ‘. Ils englobent la transmission de ces
données, leur mémorisation dans des mémoires de stockage et enfin leur utilisation. La première
étape consiste donc à ramener les informations que nous voulons échanger à un ensemble
d’informations binaires à l’aide de techniques de codage. Pour cela, on utilise des codes, qui font
correspondre à chaque caractère une suite précise d’éléments binaires ou bit (abréviation
universellement reconnue de « binary digit »). La longueur du code va dépendre du nombre de
caractère que l’on veut représenter, on sais par exemple qu’avec deux éléments binaires, on peut
obtenir quatre configuration (00,01,10,11) susceptibles de coder quatre caractères. En généralisant
un code à ‘ n ' éléments binaires permet de représenter 2n caractères distincts. Plusieurs codes ont
été normalisés afin de rendre compatibles des équipements informatiques d’origines diverses. Les
principaux codes utilisés sont les suivants :
➢ Code ASCII (American Standard Code Information Interchange) : code à 7 bits, soit 128
caractères disponibles (le plus utilisé).
➢ Code EBCDIC (Extended Binary Coded Decimal Interchange Code) : est un code de longueur 8
d’origine IBM (International Business Machine) utilisé dans les ordinateurs du constructeur.
Ce code autorise jusqu'à 256 caractères.
Après l’étape de codage intervient l’étape de la transmission, c'est à dire l’envoi des
suites binaires de caractères vers l’utilisateur final des ces informations. Pour transmettre ces
informations binaires sur un canal de transmission, il est nécessaire de les transformer au préalable
en un signal électrique. La méthode la plus simple consiste à représenter l’élément binaire ‘ 0 ‘ par
une tension V0 , et l’élément binaire ‘1‘ par une tension V1, Le signal électrique ainsi obtenue prend la
forme d’une suite d’impulsion (signal rectangulaire) qui donne une correspondance directe entre les
informations binaires élémentaires (ou bits) et les impulsions les représentant. Un exemple est
illustré sur la figure suivante avec V0 = 0 et V1 > 0, représentant une suite d'impulsion représentant la
séquence d'information 10110101.
Le signal tel que cela est représenté par la figure ci-dessus est appelé signal tout ou rien
(généralement les signaux issus d’un ordinateur sont de ce type).
55
Les transmissions de signaux numériques peuvent être effectuées de deux manières :
série ou parallèle selon qu'elles sont faites via un seul ou plusieurs conducteurs.
Très longtemps la liaison série était la plus utilisées car elle ne nécessitait qu’un seul
conducteur. Puis dans les années 80, la transmission parallèle a détrôné la liaison série partout où il
était possible de multiplier les conducteurs pour obtenir des voies de communication plus large.
C’est efficace sur de courtes distances et c’est ce principe qui a été retenu pour les bus sur la carte
mère tels que le FSB ou le bus PCI. C’est aussi le cas des nappes IDE pour échanger les données avec
les disques et celui du port parallèle destiné à l’imprimante. Les communications séries étaient moins
performantes pour ce genre de liaisons rapides et à courtes distances.
Actuellement, les transmissions parallèles sont à leur tour sont dénigrées à cause de
problèmes d’interférences électromagnétiques entre les conducteurs disposés côte à côte. Et la
solution n’est autre que le retour à la liaison série, adaptée il est vrai pour pouvoir augmenter les
vitesses de transmission sans provoquer d’interférences ni y être sujettes. La liaison série se fait par
deux câbles appariés qui transmettent des signaux symétriques. Nous y reviendrons, en parlant des
câbles SATA, des ports USB ou des PCI express. Commençons par décrire ce que sont en principe les
transmissions série et parallèle.
Une transmission est dite parallèle lorsque les 8 bits d’un même caractère sont transmis
simultanément (plusieurs communications simultanées). Cette simultanéité est rendue possible
grâce à l’utilisation des 8 canaux de transmission pour les données et un neuvième canal (canal de
parité, data valid clock, horloge), qui sert pour le contrôle d’émission (la réponse du succès de
l’émission est certifiée par un accusé de réception).
56
Figure 1.62 : Transmission parallèle
Ce mode de transmission tient sur des petites distances. Car, quand les distances
deviennent longues, les signaux s’atténuent et commencent à apparaitre des décalages dans les
délais d’arriver des différents bits d’un même caractère (byte, octet).
Bref, pour transférer des données entre deux équipements informatiques, il peut être
intéressant notamment lorsque ces équipements sont séparés par une courte distance, d’envisager
une transmission en parallèle (l’exemple le plus répandu d’un fonctionnement de ce type est celui du
câble parallèle qui relie un ordinateur et une imprimante), cela aura pour effet de réduire le délai de
transfert et d’avoir une grande vitesse de transmission (débit). Dans ce type de transmission, les bits
sont envoyés sur des fils métalliques distincts pour arriver ensemble à destination, par exemple pour
transmettre un octet, on émet huit signaux sur huit fils différents (voir figure). A l’intérieur d’un
ordinateur, les données sont manipulées sous une forme parallèle, l’unité de donnée la plus courante
est l’octet (bloc de 8 bits).
Etant donné que la transmission en parallèle n’était pas fiable sur des grandes distances,
on y à remédier par un autre mode de transmission dite en série.
Dans ce mode, les bits d’un octet (byte) sont transmis d’une manière séquentielle les
uns après les autres en n’utilisant qu’un seul canal qui sert non seulement de la transmission des
données, mais parfois du data valid clock (horloge), ce qui nécessite une "sérialisation" effectuée par
une logique de transmission dont la pièce maîtresse n'est autre qu'un registre à décalage dont le
fonctionnement est rythmé par une horloge. Lorsqu’on parme de sérialisation, Les informations à
envoyer sont transmises bit par bit sur l’unique ligne de transmission. Au lieu d'être envoyés
simultanément sur 8 fils parallèles, les 8 bits de l'octet à envoyer sont "sérialisés" par un registre à
décalage (shift register) et envoyés les uns à la suite des autres sur un seul conducteur. Le récepteur
reçoit les 8 bits qui se succèdent dans un autre registre où ils sont remis côte à côte ("dé-sérialisés")
pour reformer l'octet d'origine
57
Figure 1.63: transmission série
Une difficulté majeure de ce mode de transmission est liée à l'horloge ; en effet, il est
nécessaire d'employer une horloge d'émission et une horloge de réception qui doit fonctionner en
synchronisme parfait.
Ce mode de transmission transmet les bits d’un octet (byte) d’une manière séquentielle
les uns après les autres en n’utilisant qu’un seul canal qui sert non seulement de la transmission des
données, mais parfois du data valid clock (horloge).
Pour réaliser une telle transmission, on ajoute aux deux ordinateurs communicants deux
interfaces de conversion des bits parallèles en série ou l’inverse. La première interface de conversion
(shift-out, registre de décalage) aligne les bits parallèle en série. La deuxième interface (shift in)
réorganise les bits série en parallèle.
On utilise deux canaux. Le premier canal transmet les bits mis en série, le deuxième
canal transmet le bit de contrôle (horloge). Il va sans dire que le délai de transmission des données
peut connaitre un décalage avec celui des bits de contrôle, ce qui entraine de synchronisation du
canal des données et de celui de contrôle (clock, horloge)
Pour remédier à ce problème de décalage de délai de propagation des signaux dans les
canaux, certaines méthodes de transmissions en séries utilisent un seul canal, dans lequel les bits de
données et de contrôle sont transmis. On parle de transmission en série avec multiplexage des
données et du contrôle (horloge).
58
Figure 1.64 : Comparaison parallèle et série
59
Signaux analogiques : représentés par une grandeur physique variant de manière
continue
Signaux numériques : représentés par une grandeur physique ne prenant qu'un certain
nombre de valeurs discrètes
En fait, à l’origine, les lignes de transmission étaient toutes analogiques alors que les
ordinateurs fonctionnaient depuis leur invention avec des informations numériques. Dès lors, quand
il fallait échanger des informations entre ordinateurs, le transport s’effectuait exclusivement sous
forme analogique.
Dans la transmission numérique ou digitale, les informations sont encodées suivant des
valeurs binaires ou numériques ou 1.
Du point de vue technique, les informations numériques ne peuvent pas circuler sous
forme de 0 et de 1, il faut donc les encoder sous forme d’un signal possédant deux états, comme par
exemple :
60
➢ La différence de tension entre deux fils ;
➢ La présence ou l’absence de courant dans un fil ;
➢ La présence ou l’absence de la lumière ;
➢ Deux niveaux de tensions par rapport à la masse.
Cette conversion de l’information binaire sous forme d’un des signaux précédents
s’effectue par DCE (data communication de données) qu’on appelle souvent codeur de bande de
base (ou CODEC), d’où l’appellation de données qu’on appelle transmission en bande de base pour
designer la transmission digitale ou numérique.
Par exemple, le son et le mouvement sont des phénomènes quasiment continus. Pour
les reproduire, il faut les enregistrer sur un support et deux solutions s'offrent alors : soit on
enregistre le signal de façon continue, et c'est un enregistrement analogique ; soit on n'enregistre
que certaines valeurs de ce signal, et on parle alors de signal numérique. Le lecteur DVD et le lecteur
CD sont numériques, contrairement à leurs homologues respectifs le magnétoscope, l’électrophone.
Graphiquement, nous pouvons représenter les deux par la figure suivante :
La transmission en bande de base (base band) typique de la plupart des réseaux locaux,
consiste à transmettre directement les signaux numériques sur le support de transmission. La figure
suivante résume le principe de la transmission en bande de base.
La transmission en bande de base est surtout utilisée sur des courtes distances pour
permettre d’obtenir des grands débits. Les données binaires codées par un signal numérique sont
directement transmises sur le support (câble par exemple). Un signal en bande de base ne subit pas
de transposition de fréquence, de même que la durée de chaque bit est constante.
61
Dans la figure 1.69 , le codeur bande de base, à essentiellement pour objet : De
transformer le signal numérique en un autre, à fin que le spectre du nouveau signal soit mieux
adapté aux caractéristiques du support de transmission (de bande passante en particulier) De
maintenir la synchronisation entre l’émetteur et le récepteur. Un tel procédé est simple et non
coûteux, mais demande des supports de transmission à grande bande passante.
Remarque
➢ Le codage à deux niveaux (bivalence) : le signal peut prendre une valeur strictement négative
ou strictement positive (exemple : -5V, +5V) ;
➢ Le codage à trois niveaux (trivalence) : le signal peut prendre une valeur strictement
négative, nulle ou positive (exemple : -5V, 0v, +5V).
➢ Le codage le plus simple serait de faire correspondre au bit 1 un signal électrique de tension
n volts, et au bit 0 un signal de tension nulle.
➢ Si une suite binaire présente plusieurs 0 ou 1 consécutifs, le récepteur doit être parfaitement
synchronisé avec l’émetteur pour décoder les données reçues.
➢ Pour éviter ces problèmes, plusieurs codages ont été mis au point : le code NRZ, le code de
Manchester, le code de Manchester différentiel et le code Miller.
La modulation par code est utilisée dans le cas d’une transmission en bande de base
(numérique). Le terme modulation est utilisé ici de façon abusive dans le langage courant parce qu’il
s’agit plutôt d’un codage.
Différents codage sont utilisés pour transmettre les données en bande de base :
Le codage NRZ (Non Return to Zéro, non-retour à zéro) utilise une tension négative pour
représenter un ‘ 0 ‘ binaire, et une tension positive pour un ‘ 1 ‘ binaire22. Donc pour la suite de
62
données binaires 10011 par exemple, on trouve les signaux illustrés sur la figure ci-dessous
représentant ces données binaires codées en NRZ.
+nV
0V
-nV
Un tel codage est mal adapté à un canal de transmission (sa puissance maximal est
concentré au voisinage des basses fréquences or les supports de transmissions coupent les très
basses fréquences défigurant ainsi le signal). De plus, de sérieux problèmes de synchronisation des
horloges sont à redouter, puisque le signal sera constant pour une longue suite de bits identiques.
Le code NRZI (No Return to Zéro Inverted) est similaire au code NRZ, mais les tensions
associées aux valeurs binaires sont inversées : 1 est codée par une tension négative et 0 par une
tension positive.
Le code Manchester est un code biphasé ou PE (Phase Encode), il spécifie que le bit 1
doit être codé par un passage de la tension de +n volts à –n volts et le bit 0 par le passage inverse. Ce
n’est donc plus la tension qui est importante, mais le passage de la différence de signal observé
entre le début et la fin du temps du clock (horloge).
Le codage Manchester consiste à remplacer les états des données par des fronts. Ces
fronts sont placés en milieu de bit. Il s’agit d’un codage bivalent.
Codage Manchester
Avec le codage Manchester (appelé aussi le codage biphasé), c’est le point où le signal
change qui représente la valeur de bit transmis. Un ‘ 0 ‘ binaire est représenté par une tension allant
de bas en haut, tandis que le ‘ 1 ‘ binaire est représenté par une tension allant du haut en bas. La
figure ci-dessous montre la même suite de bits (données binaires) que le codage précédant codée en
manchester.
63
+
nV
0V
Figure : 1.71.
- Codage Manchester
nV
Le codage Manchester nécessite un repérage des fils de ligne pour éviter de les croiser,
et donc d’avoir une réception complémentaires à l’émission, il faut donc soit : posséder une prise
non symétrique, soit utiliser le codage Manchester différentiel (ce codage a l’avantage d’être
indépendant de la polarité et ne nécessite aucun repérage des fils).
Dans ce codage, la transmission des données s’effectue toujours par l’intermédiaire des
fronts placés au milieu des bits. Cependant, le choix du front s’effectue en fonction du précédent.
Ainsi :
Ce mode est utilisé dans les réseaux locaux de la norme IEEE 802.5 (token ring, anneau à
jeton).
+nV
0V
- nV
64
3.4.2.4. Code Miller
Ce code est aussi appelé ‘’ Delay mode’’. Il est issu du code Manchester simple et
consiste à supprimer les fronts descendants du signal. Ce qui signifie qu’une transition apparait au
milieu de l’intervalle uniquement lorsque le bit est à 1.
Quand un phénomène peut être représenté par une valeur continue, on le qualifie
d’analogique. Contrairement à la représentation numérique qui est discrète (0 ou 1). Un signal est
dit analogique si l’amplitude de la grandeur porteuse de l’information peut prendre une infinité de
valeurs dans un intervalle de temps donné.
p(t) = Ap sin(wp 𝑡 + p ), où
Ap est l’amplitude ;
65
Wp est la pulsation (avec wp = 2 𝜋 fp) ;
Il existe plusieurs manières dont une porteuse analogique peut être modulée pour
représenter des données numériques :
La modulation d’amplitude à tendance à être sensible aux bruits et n’est pas une
technique de modulation très efficace pour les réseaux informatiques, c’est cependant celle qui est
utilisé pour transmettre des données numériques sur fibre optique. Elle est parfois appelée
modulation par saut d’amplitude (en anglais ASK, Amplitude Shift Keying).
Le cas le plus simple consiste à fixer deux valeurs f1 et f2 que peut prendre une
fréquence :
Une version plus élaborée utilise 4 valeurs de f, qui peuvent partager un même support
physique pour exploiter deux canaux de transmission. A ce niveau, la norme V21 définit des modems
full-duplex.
66
Figure 1.74 : Exemple de modulation de fréquence ou par saut de fréquence
La modulation de fréquence n’est pas aussi sujette aux erreurs que la modulation
d’amplitude. Elle est couramment employée dans les transmissions radio (radio FM, Frequency
Modulation) et la télédiffusion. Elle est parfois appelée modulation par saut de fréquence (en
anglais FSK, Frequency Shift Keying). Elle est définie par la norme V21 du CCITTI. Un seul des trois
paramètres est utilisé pour représenter l’état binaire : la fréquence f.
On peut utiliser 4 phases différentes pour émettre les bits par 2, ce qui permet de
doubler le débit binaire sans augmenter la rapidité de la modulation.
La figure ci-après montre une porteuse avec quatre phases, on peut coder ainsi 2 bits à
chaque état. La modulation de phase est également appelée modulation par saut de phase (en
anglais PSK, Phase Shift Keying).
67
3.4.3.5. Modulation hybride
Il est possible de combiner les différents types de modulation que nous venons de
présenter à fin de transmettre un nombre important de bits par secondes. Il est ainsi fréquent
d’utiliser à la fois une modulation d’amplitude et une modulation de phase.
La norme V29 utilise 8 états de phase et 2 valeurs d’amplitude, ce qui permet un codage
de 16 valeurs logiques.
3.4.3.6. Remarque
Une autre fonction que le MODEM peut faire est d’adapter le signal au canal de
transmission en décalant la largeur de bande du signal de manière à la faire coïncider avec la bade
passante (éventuellement avec une sous bande) du canal, c’est pour cette raison la que la
modulation est appelée aussi transmission par transposition de fréquence. Ce décalage de largeur
de bande du signal peut être obtenu par les techniques de modulation que nous venons de voir.
Le modem est un dispositif qui permet d’utiliser une ligne physique en modulation et
démodulation. Il remplit les cinq fonctions suivantes :
Le tableau ci-après présente les différentes normes des modems tel que définit au
départ par CCITT et depuis 1993 par UIT (Union Internationale des Télécommunications).
68
bits /Asynchrone /LS
V33 Synchrone/Asynchrone Duplex LS
14400
V34 28800 Synchrone/Asynchrone Duplex RTC/LS
V34 33600 Synchrone/Asynchrone Semi-duplex ou RTC/LS
+ duplex
V90 56000/33600 Synchrone/Asynchrone Duplex RTC/LS
V92 56000/56000 Synchrone/Asynchrone Duplex RTC/LS
Tableau : Principales normes de modems
3.5.1. Commutation
69
70
➢ commutation de messages : l'information à transmettre est découpée en messages ; les
messages circulent sur le réseau à manière du transport automobile. Chaque nœud de
commutation sert de routeur mais aussi d'hébergement des messages en situation
d'engorgement des tronçons du réseau. Ce mode de commutation a pratiquement disparu
au profit de la commutation de paquets. illustration
➢ commutation de paquets : chaque message est découpé en paquets de petite taille qui sont
numérotés pour un réassemblage éventuel. Les paquets circulent dans le réseau et les
nœuds de commutation en effectuent le routage et l'hébergement. Sur un tronçon, les
paquets se suivent, même s'ils n'appartiennent pas au même message.
71
➢ le circuit virtuel : tous les paquets d'un même message suivent le même chemin défini pour
chaque message ; la méthode est similaire à celle de la commutation de circuits.
➢ le datagramme : chaque paquet d'un message peut emprunter un chemin différent des
autres ; à l'arrivée, il faut réordonner les paquets du message car des paquets peuvent aller
plus vite que d'autres puisqu'empruntant des chemins différents.
3.5.2. Multiplexage
Le multiplexage a pour rôle de recevoir des données de plusieurs émetteurs par des
liaisons spécifiques, pour les transmettre toutes ensemble sur une liaison unique appelé aussi voie
composite (on dit que les données sont multiplexés). À l’autre extrémité de la liaison, il faut
effectuer la démarche inverse, c'est à dire récupérer à partir des informations arrivant sur la voie
composite, les données des différents utilisateurs, et les envoyer sur les bonnes voies de sortie, cette
tache nécessite un démultiplexeur. La technique du multiplexage est très utilisée dans les réseaux
d’ordinateurs et particulièrement dans le cas des réseaux étendus. Deux techniques de multiplexages
sont principalement utilisées : le multiplexage fréquentiel et le multiplexage temporel. Cependant on
parle aussi de multiplexage par le code et de multiplexage en longueur d’onde.
On peut considérer par exemple trois terminaux (1, 2,3) localisés en un nœud A qui
doivent échanger des données avec trois ordinateurs localisés en un autre nœud B ) travers une
seule ligne physique A-B. Quand un terminal du nœud A veut communiquer avec un ordinateur du
nœud B, alors que d’autres machines veulent communiquer en même temps, ils doivent partager le
même support physique, c’est la technique de multiplexage.
Il consiste à créer à l’intérieur d’une bande passante d’un support physique ‘câble),
plusieurs bandes de fréquence allouée statiquement. Les données à transporter s’adapteront à la
bande de fréquence et la division du support en plusieurs bandes de fréquence en fonction des
caractéristiques du support physique. On parle alors d’AMRF (accès multiple à répartition de
fréquence) ou de FDMA (Fréquence Division Multiple Access).
72
Figure 1.81 : Multiplexage de Fréquence
Le principe n’est plus ici de créer à l’intérieur d’une bande passante d’un support
plusieurs bandes de fréquence, mais d’en attribuer l’intégralité à chaque utilisateur pendant un
intervalle de temps. Le cycle de répartition de l’intervalle de temps à chaque utilisateur de la ligne
peut être statique ou dynamique. On parle alors de AMRT (Accès Multiple à Repartions dans la
Temps) ou de TDMA (Time Division Multiple Accès).
Dans le cas d’une allocation dynamique des intervalles de temps élémentaires, seuls les
utilisateurs signalant un besoin de transmission se verront octroyer une période de temps : c’est le
multiplexage temporel statistique.
Les données sont transportées sous forme des paquets et le support est alloué
dynamiquement en fonction des paquets à transporter. Ce type de multiplexage est bien adapté aux
réseaux à commutation de paquets. Le multiplexeur n'est autre qu'un mélangeur de paquets, le
démultiplexeur est un trieur de paquets. On peut le voir par la figure ci-après :
L’accès multiple à répartition par code (AMRC) ou Code Division Multiple Access (CDMA)
est basé sur l’attribution d’un code à chaque station. Chaque terminal utilisera ainsi la totalité de la
bande passante pour sa transmission. Ce multiplexage est utilisé abondamment dans la téléphonie
cellulaire (IMT 2000 ou UMTS).
73
à comprendre : il consiste en fait à faire passer plusieurs informations sur un seul support de
transmission. A l'aide de ce principe simple, de larges économies sont possibles grâce à la réduction
des coûts d'installation et/ou d'exploitation. (Moins de câbles pour faire passer la même quantité
d'information).
Voici un schéma permettant d'illustrer le découpage en temps entre les différentes connexions :
Les signaux sont portés par des longueurs d'ondes différentes, et espacées assez largement afin de
ne pas interférer les unes avec les autres.
74
Figure 1.84 : découpage en longueur d'onde entre les différentes connexions
Figure 1.85 : les caractéristiques des modes WDM les plus répandus
Les normes Plesiochronous Digital Hierarchy (PDH) est un multiplexage de base qui se
présente sous plusieurs formes. Pour les européens, c’est E1 et pour les américains c’est T1.
Pour pallier aux imperfections de la technologie PDH, les européens ont développées la
norme DSH (Synchronous Digital Hierarchy). Et d’autre part, les américains ont développés la norme
SONET (Sychronous Optical Network).
Dans une transmission série, le récepteur ne peut pas à priori distinguer les caractères
car les bits sont envoyés successivement. Ce qui pose un problème de synchronisation entre
l’émetteur et le récepteur. Deux techniques utilisées dans les modems permettent de solutionner ce
problème : la transmission synchrone et la transmission asynchrone.
Les bits sont transmis d’une façon régulière, sans séparation entre les caractères, parce
que l’émetteur et le récepteur sont cadencés à la même horloge et à la même vitesse. Pour cela un
75
signal d’horloge périodique de période T fonctionne pendant toute la durée de l’émission. La mise en
œuvre de la transmission synchrone est très complexe et s’effectue à coûts très élevé.
Elle permet la transmission de grande quantité d’informations. Les bits sont envoyés de
façon successive sans séparation entre chaque caractère, il est donc nécessaire d’insérer des
éléments de synchronisation. Dans ce cas, l’horloge est émise sur le support de transmission en
même temps que les données, ce qui permet facilement de synchroniser l’émetteur et le récepteur.
Les bits sont transmis dans un canal d’une façon irrégulière dans le temps. Comme par
exemple des caractères tapés sur un clavier, l’intervalle de temps entre deux caractères est aléatoire,
le début d’un caractère peut survenir à n’importe quel moment. Dans les communications entre
ordinateurs, comment procède alors un ordinateur expéditeur pour indiquer au destinataire où
commence et se termine un caractère particulier, s’il transmet d’une manière asynchrone ? La
réponse est donnée par les bits de départ et d’arrêt souvent désignés par leur appellation anglo-
saxonne de START (élément de départ) et de STOP (élément d’arrêt). Ces bits, sont en fait des
signaux encadrent ceux qui constituent un caractère, le bit de départ (START) indique le début d’un
caractère et celui ou ceux d’arrêt (STOP) – il peut y’en avoir ‘1’, ’1.5’ ou ‘2’ – marquent la fin de
caractère. Un octet transmis d’une façon asynchrone est illustré à la figure ci-dessous. La mise en
œuvre de la transmission asynchrone est très simple et peu couteuse. Mais elle réalise des débits
limités. Dans ce cas, l’horloge n’est pas transmise avec les données. Le récepteur doit se synchroniser
pour chaque donnée qui arrive.
Le protocole ‘’ Start –stop’’ utilisé dans les pots série des PCs, de certains terminaux et
du réseau télex international pour assurer une transmission asynchrone. Dans ce protocole, chaque
caractère est précédé d’une information indiquant le début de la transmission du caractère : le bit
START (information du début d’émission). Il est terminé par l’envoi d’une information de fin de
transmission : le bit STOP (il peut avoir plusieurs bits STOP).
76
3.6.4. Comparaison entre le mode synchrone et le mode asynchrone
En mode asynchrone, il faut à chaque octet ajouter 1 bit de START et 2 bits de STOP,
1500 ×8
soit 11 bits pour 8 utiles. L’efficacité dans ces conditions est : Eff = =0,7.
1500 ×11
Conclusion : la redondance due aux bits START et STOP ajouté pour chaque octet dans la
transmission asynchrone, ne permet pas d’atteindre une grande capacité de transmission, et son
utilisation est limitée pour les systèmes de transmission à bas débit. Par contre le mode synchrone
permet des débits plus importants que le mode asynchrone. Les réseaux informatiques dépendent
de la transmission synchrone.
3.7.1. Généralités
Une bande passante est une bande de fréquences dans laquelle les signaux appliqués à
l’entrée d’un support de transmission gardent une puissance supérieure à un seuil donné après avoir
traversé le support. Le seuil fixé correspond à un rapport déterminé entre la puissance d’un signal
d’entrée et la puissance du signal à la sortie.
Les supports de transmission ont une bande passante limitée. Certains signaux s’y
propagent avec une faible atténuation et peuvent être reconnus à la sortie. D’autres ne parviennent
pas à traverser les supports, ils sont alors déformés et deviennent incompréhensibles à la sortie.
Un exemple serait celui d’un cours dispensé dans un local bien isolé, la leçon se déroule
correctement : la bande passante est bonne. Par contre, les cours dispensé dans un local mal conçu,
la leçon de l’enseignant est très mal écouté : la bande passante est mauvaise.
Du pont de vue technique, nous dirons qu’un support de transmission est toujours
imparfait : il ne laisse passer que certaines fréquences. L’intervalle des fréquences [f max – f min]
qu’il laisse passer est sa bande passante. C’est donc la plage des fréquences utilisables pour que les
signaux soient transmis sans erreur entre l’émetteur et le récepteur. La bande passante est notée W.
c »est la largeur d’une bande passante d’un support, elle s’exprime en hertz.
W= [fmax – fmin]
77
3.7.1.2. Vitesse de modulation (modulation speed)
Le nombre d’états successifs qu’un canal peut prendre par seconde est la vitesse de
modulation. Elle est notée Rm et exprimée en Baud.
Rm= 1/ Tm
Cette loi stipule ce qui suit : si une ligne de transmission possède une largeur de bande
passante w, alors sa vitesse de modulation maximale est :
Rm max = 2 W
Si une ligne de transmission, une largeur de bande passante w, alors son débit binaire
maximal est :
3.7.2. Définitions
Un codage associe une valeur physique (un signal électrique) à une valeur logique (une
donnée binaire). La valence est le nombre de valeurs que peut prendre l’état physique à un instant t.
la valence est généralement notée V.
C’est la durée minimale pendant laquelle il est nécessaire d’émettre un signal électrique
sur le câble électrique pour qu’il puisse être reconnu par le récepteur. Il est noté Tm (en seconde).
C’est le nombre de débit qui peuvent être transmis par seconde, il est noté D
(bits/seconde). La formule de Shannon permet de calculer la limite maximale d’un débit
d’information en fonction des caractéristiques d’un support physique.
Le temps de transmission (Tt) est le délai (en secondes) qui s’écoule entre le début et la
fin de la transmission d’un message sur une ligne physique (voir transmission Delay page 24suppra).
78
Tt = L/D
3.8.1. Problématique :
Un support physique n’est jamais parfait ; c’est ce qui limite la bande passante suite aux
pertes et corruption des données. La trame reçue est parfois différente de la trame envoyée.
Dans ses conditions, la suite binaire reçue ne sera pas identique à la suite émise.
79
Envoyer 10010011001001 au lieu de 1001001
Une méthode de détection devra donc permettre de constater qu’une erreur est
apparue dans la trame. Son but est de signaler que la trame reçue est différente de la trame envoyée
est donc de demander à l’émetteur la retransmission de la trame. Elle ne fournit aucun détail sur le
nombre d’erreurs.
➢ Bit de parité ;
➢ Code CRC (Code de Redondance Cyclique) certains méthodes de détection contiennent aussi
des fonctions de correction.
Une méthode de correction transmet en plus des données, toutes les informations
nécessaires pour reconstituer les données pour une retransmission. Une telle méthode est exigée
lorsque les lignes de transmission ne sont pas fiables. Bien au contraire, quand les lignes sont
bonnes, il n’est pas intéressant de les surcharger inutilement par des retransmissions. La méthode de
correction la plus utilisée est le code Hamming.
80
- Après détection d’une erreur, le récepteur demande à l’émetteur, implicitement
(temporisateur) ou explicitement, de retransmettre une nouvelle fois le message (codé).
- La correction par retransmission est préférée dans les réseaux où le taux de perte est
faible et le délai de retransmission tolérable, car son surcoût est généralement plus faible que celui
induit par les codes auto correcteurs.
Un code (k, n) transforme (code) tout bloc initial de k bits d’information en un bloc codé
de n bits. Le code introduit une redondance. Le code est systématique si les k premiers bits du bloc
codé sont égaux aux bits du bloc initial. Alors les r (r=n-k) derniers bits forment un champ de contrôle
d’erreur. Le rendement d’un code (k, n) est : R = k/n
On appelle mot du code, la suite de n bits obtenue après un codage (k, n). Le nombre n
de bits qui composent un mot du code est appelé la longueur du code. La dimension k étant la
longueur initiale des mots.
Bit de parité : (Informatique) Bit mis à zéro si la somme des autres bits est paire, et à un
si elle est impaire, pour détecter des erreurs de transmission. Parfois, un bit supplémentaire est
ajouté après la donnée : le bit de parité. Le bit de parité est un bit généré par l'interface de
communication et sert à la détection d'erreur de transmission. On parle alors de parité paire ou de
parité impaire. La parité ajoute à chaque bloc de i bits (i=7 ou 8) émis un bit de parité de telle sorte
que parmi les i + 1 bits émis le nombre de bits à 1 soit toujours pair (ou impair). Par exemple, pour
une parité paire si le bloc initial est de 7 bits et est égal à 1000001 le bloc de 8 bits émis est
10000010, pour envoyer 0110100 le bloc 01101001 est émis. À la réception, le décodeur calcule le
nombre de bits à 1 et dans le cas d'une parité paire si ce nombre de bits est pair on suppose qu'il n'y
a pas eu d'erreur. Sinon, on sait alors qu'il y a eu une erreur de transmission mais on ne sait pas la
localiser et il faut alors demander la réémission du bloc. La technique de parité est simple à mettre
en œuvre cependant elle ne permet pas de détecter 2n erreurs dans le même bloc de bits transmis,
car dans ce cas la parité ne sera pas changée.
Exemple :
81
Figure 1.90 :
Le poids de Hamming d’un mot est le nombre de bits à 1 qu’il contient. La distance de
Hamming entre deux mots de même longueur est définie par le nombre de positions binaires qui
diffèrent entre ces deux mots. On l’obtient par le poids de Hamming de la somme binaire des 2 mots.
La distance de Hamming d’un code est la distance minimum entre tous les mots du code.
La capacité de détection (de correction) d’un code est définie par les configurations
erronées qu’il est capable de détecter (corriger). Une erreur simple (resp. double, ou d’ordre p)
affecte une seule (resp. 2, ou p) position(s) binaire(s) d’un mot. Pour qu’un code ait une capacité de
détection (resp. correction) des erreurs d’ordre e, il faut que sa distance de Hamming soit supérieure
à 1+e (resp. 1 + 2e).
Les medias de communication sont constitués de tous les équipements qui permettent
de relier les différentes entités d’un réseau. Sur un support de transmission, les données peuvent
être transmises sous plusieurs formes : comme des ondes électroniques, ou sous forme électrique,
ou même lumineuse. Les canaux de transmissions peuvent être filaires (supports guidés) et non
filaires (supports non guidés).
Dans les supports filaires, on distingue les métalliques et les non métalliques :
➢ Les supports métalliques font circuler les données sous la forme d’une grandeur électrique
(câble coaxial, paire torsadée, courant porteur en ligne –CPL) ;
➢ Les supports non métalliques font circuler les données par propagation des signaux
électromagnétiques ou sous forme lumineuse (fibre optiques).
Dans les supports non filaires ou guidés (air, vide), les signaux sont les ondes
électromagnétiques.
➢ Le câble coaxial
82
Figure 1.91 : Câble coaxial
On distingue plusieurs types de câble coaxial : câble coaxial mince ou fin, câble coaxial
épais et câble large bande.
Il est utilisé dans le réseau Ethernet dans la distance d’une limite maximale de 200
mètres sans régénérer le signal. La connexion avec des éléments actifs s »effectue grâce à des
connecteurs BNC (British Naval Connector ou Bayonnet Neil Concelman). Il a 6 mm de diamètre et
est de couleur blanche. Il sert surtout pour les transmission numériques exclusivement dite aussi en
bande ( figure ci-dessous et ci-dessous bis).
83
Figure 1.93 : Le câble épais ou RG11 ou 10 base 5
Le câble coaxial large bande (Community Antenna Télévision : CATV) est utilisé pour la
transmission des chaines de télévision par câble. Il permet la transmission numérique avec une
bande passante très large. Il est adapté au multiplexage.
Le câble à aires torsadées (Twisted Pair) est constitué de plusieurs fils de cuivre torsadés
par paires, qui sont-elles même torsadées. Les torsades ont pour but de diminuer les interférences
entre paires.
84
Figure 1.95 : câble à paires torsadées
Suivant les utilisations, un câble peut regrouper une ou plusieurs centaines de paires
torsadées. Dans le cas des réseaux locaux, le type le plus utilisé est le câble à 4 paires torsadées
utilisé pour les configurations en étoile. Les réseaux Ethernet 10 base T et 100 base T se sert de ce
type de câble.
Les connexions se font par des prises RJ45 (type téléphone). Tous les brins d’une étoile
arrivent à un hub ou concentrateur. Les câbles de la dernière génération autorisent des débits de 100
et 300 Mbits/s. il existe aussi des câbles à 2 paires (RJ11).
Le connecteur RJ45 se comporte de huit broches. Les fils des câbles sont torsadés pour
former 4 paires. Les couleurs de ces paires sont le plus souvent :
85
Figure 1.97 :
Il est plus utilisé dans les réseaux locaux. La transmission des données se fait
100Mbits/s.
L’écran est une feuille d’aluminium placée entre les fils et gaine PVC, qui crée un
blindage sommaire pour protéger les paires des interférences extérieures.
Il permet une transmission plus rapide et sur une longue distance. Il est protégé des
parasites par une tresse métallique.
Les câbles à paires torsadées sont soumis à certaines normes : six catégories sont
définies actuellement et deux autres sont en phase d’étude (voir tableau ci-dessous).
86
Catégorie Fréquence Débit utilisation
maximale maximale
1 et 2 <10 MHZ ➢ Mbits/s Voix et
données
3 20 MHZ 16 Mbits Voix et
donnés
Réseau
Ethernet
4 20 MHZ 20 Mbits Voix et
données
Réseau
Fast Ethernet
5 Norme 100 MHZ 100 Voix et
EIA/TIA 568 Mbits/s données
Réseau
Fast Ethernet
Réseaux
ATM à 155 Mbit/s
5 100 MHZ 155 Voix et
Améliorée 5+ Mbits/s données
Réseau
Fast Ethernet
Réseaux
ATM à 155 Mbit/s
5 200 MHZ 155 Gbit/s Voix et
Améliorée données
5e Norme EIA/TIA 568- Réseau
A5 Fast Ethernet
Réseaux
ATM à 155 Mbit/s
6 250 MHZ 1 Gbit/s Voix et
Norme données
EIA/TIA 568-B.2-1 Réseau
Fast Ethernet
Réseau
Gigabits Ethernet
Réseaux
ATM à 155 Mbit/s
7 600 MHZ 1 Gbit/s Voix et
(projet) données
Réseau
Gigabits Ethernet
Réseaux
ATM à 155 Mbit/s
8 1 GHZ 1 Gbit/s Voix et
(projet) données
Réseau
Gigabits Ethernet
Tableau 1.2 : catégorie de câbles à paires torsadées
87
3.9.6. La fibre optique
Une fibre optique est un câble constitué d’un matériau en verre ou en matière plastique
conduisant la lumière. Ce matériau, qui est un fil mince est la partie centrale du câble(le cœur), il est
enveloppé dans un isolant. Les données sont transmises sous la forme d’ondes lumineuses par
réfractions successives.
Le cœur translucide d’une fibre optique à saut d’indice est recouvert d’un matériau
sombre qui ne laisse pas passer la lumière est donc qui a un indice de réfraction nul. Les rayons
lumineux sont transmis dans le cœur de la fibre d’une extrémité à l’autre par réfractions successives.
Ce type de fil propose une bande passante de 100MHz, qui est utilisé dans les réseaux locaux à haut
débit.
88
Figure 1.99 : Fibres multi modes
Dans ce type de câble, les rayons lumineux qui sont transmis dans le cœur de la fibre
d’une extrémité à l’autre par réfractions successives diminuent en s’éloignant du cœur. Le chemin
parcouru par le rayon lumineux est plus court en distance, ce qui diminue le temps de transmission
et améliore le débit offert.
La forme de la trajectoire du rayon lumineux est plus sinusoïdale parce qu’il est dévié au
fur et à mesure qu’il s’éloigne du centre. La variation du chemin optique est ici plus faible parce que
le cœur est de petit diamètre de dimension.
89
3.9.6.3. Fibres monomodes
Une fibre monomode a la particularité de ne transmettre que les rayons lumineux sur la
trajectoire du cœur de la fibre. On obtient ce seul mode grâce à la très faible dimension du cœur
(diamètre de 10µm et moins). De cette manière, il n’y a qu’un seul chemin pour les rayons lumineux,
c’est celui du cœur. Dans ces câbles, on obtient des débits intéressants qui peuvent dépasser
plusieurs dizaines de Gigabyte/seconde.
90
Figure 1.102 :
3.9.6.5. Comparatif
3.9.6.1. Présentation
C’est une technique qui consiste à transmettre les données binaires sur une ligne
électrique de courant fort. Cette technologie est intéressante dans deux cas particuliers :
➢ Création d’un réseau local dans un vieux bâtiment dans lequel le câblage s’avère complexe et
couteux, c’est le cas des locaux industriels à forte perturbation électromagnétique ;
Connexion internet à tous les postes d’une entreprise ou d’une habitation.
➢
Le standard IEEE du CPL est le Home Plug, qui définit une architecture d’un réseau local
utilisable uniquement sur une installation électrique privée (indoor). C standard n’autorise pas une
interconnexion au-delà du compteur privé et au réseau électrique national.
91
3.9.6.2. Fonctionnement
A. Principe
La distribution du courant domestique dans les habitations s’effectue sur une fréquence
de 50 HZ. Le CPL sera un second courant transmit sur la même ligne, mais en utilisant une autre
fréquence. Cette dernière est en général éloignée de celle du courant normal et peut situer entre 1,6
MHZ à 30MHZ selon les constructeurs.
Le standard Home Plug définit une modulation OFDM (Orthogonal Frequency Division
Multiplexage). Cette technique de modulation permet d’émettre le signal simultanément sur
plusieurs fréquences prédéfinies mais à une puissance moyenne.
➢ Home Plug 1.0.1 : débit 14 Mbits/s, il permet une intégration dans un réseau Ethernet ;
➢ Home plug 1.1 : debit 85 Mbits (2005) ;
➢ Home plug AV : debit 200 Mbit/s (2007) ;
➢ Home Plug AV II: debit??? (2009).
La mise en place d’un réseau CPL nécessite une clé de cryptage pour chaque réseau. Ce
qui permet la cohabitation de plusieurs réseaux sur une même installation électrique.
Pour mettre en place le CPL, il faut installer un adaptateur sur les prises électriques qui
vont servir de point d’accès au réseau informatique. Cet adaptateur a la forme d’une prise RJ45.
➢ Un filtre permettant de n’utiliser que les fréquences autorisées pour les transmissions
simultanées du signal ;
➢ Un système de modulation (en émission) et de démodulation (en réception) du signal.
L’air et le vide peuvent être considérés comme des supports de transmission des ondes
électromagnétiques. Les milieux conducteurs des ondes électromagnétiques (air, vide) sont appelés
espace hertzien. L’absence de support physique apporte une souplesse qui ne nécessite pas la pose
des câbles.
92
➢ Sa longueur d’onde évaluée en mettre mesure la distance entre deux maxima ou minima
consécutif.
Dans les réseaux informatiques, on utilise surtout les types suivants : les ondes radios,
infrarouges et lumineuses.
La gamme des fréquences réservée aux ondes radio s’étend de 10 KHz à 300GHz. Les
réseaux locaux qui utilisent ses ondes proposent des débits allant de 2 à plus de 20 Mbit/s sur des
distances pouvant atteindre 20 Km.
A partir de 100 MHz, ces ondes sont appelées micro-ondes et permettent d’atteindre
des débits pouvant dépasser Gbits/s.
La norme IEE 802.11 règlemente ce type de réseau. Le wifi (Wireless Fidelity). L’alliance
est un organisme chargé de régler la compatibilité des produits 802.11. Cela a conduit à un abus de
langage pour ce type de réseau et de support appelé vulgairement wifi.
Ce sont des ondes ayant des fréquences supérieures à 300GHz. Leur inconvénient est
qu’elles ne peuvent traverser la matière physique, ce qui limite leur utilisation dans des réseaux
locaux de type particulier. C’est le cas des télécommandes des TV et autres appareils ménagers.
Elles sont basées sur le principe suivant : une source de lumière concentrée (laser)
envoie un faisceau unique, porteur de données, à un récepteur optique pouvant être situé à
plusieurs centaines de mètres.
➢ Généralités
Dans les chapitres précédents nous avons étudié tous les mécanismes à mettre en
œuvre pour transmettre un flot de bits entre deux systèmes distants. Cependant, il ne suffit pas
de lire correctement les bits reçus, encore faut-il les traduire en données utilisables par les
applications, c’est le rôle des protocoles que d’assurer le transfert et la délivrance des données
aux applications. On appelle protocole un ensemble de conventions préétablies pour réaliser
un échange fiable de données entre deux entités (figure ci-dessous).
93
Un protocole est aussi un langage commun utilisé par l'ensemble des acteurs de la
communication pour échanger des données. Toutefois son rôle ne s'arrête pas là.
L'initiation de la communication
L'échange de données
Le contrôle d'erreur
Dans ce mode de liaison, chaque correspondant est relié par un lien dédié à un seul
autre correspondant. C’est, par exemple, le cas d’une liaison entre nœuds2 d’un même réseau ou
entre un ordinateur et un terminal (figure 4.2). L’une des entités est dite primaire, c’est celle qui
initialise le dialogue et émet les commandes, l’autre est dite secondaire. Selon la répartition des
fonctions de primaire et de secondaire, on distingue deux modes de contrôle :
94
(ABM), elle est employée dans les liaisons full duplex (Link Access Protocol Balanced ou LAP-
B) et half duplex (LAP-X, LAP semi dupleX).
➢ La dissymétrie asynchrone dans ce mode, le secondaire peut émettre sans y avoir été
autorisé, ce qui implique qu’un seul secondaire puisse être actif à la fois ou qu’un algorithme
de résolution des collisions soit mis en œuvre. Ce mode est appelé Asynchronous Response
Mode (ARM).
N.B. Le terme nœud (node) désigne d’une manière générale tout calculateur qui reçoit,
émet et/ou traite des données.
Une liaison est dite multipoint lorsqu’un même support est partagé par plusieurs
nœuds. Dans ce cas, des conflits d’accès étant inévitables, il est nécessaire d’instaurer une politique
d’accès au support. L’ensemble des mécanismes particuliers mis en œuvre, pour assurer le partage
de l’accès au support, porte le nom de politique d’accès au canal. On distingue deux modes de
contrôle de l’accès selon la manière dont est gérée la politique d’accès : le mode centralisé ou
maître/esclave et le mode décentralisé ou d’égal à égal.
Le mode maître/esclave
95
Figure 1.108 : Polling/selecting
Dans ce type de configuration, tous les calculateurs sont autorisés à émettre vers
n’importe quel autre calculateur et ce, à tout moment. Cet accès partagé peut donner lieu à des
collisions ou contentions de messages (deux stations transmettent en même temps). Mais
contrairement à la relation maître/esclave, ici, chaque calculateur dispose d’un algorithme d’accès ou
méthode d’accès pour assurer le partage du support. La politique d’accès est dite décentralisée. Les
réseaux locaux3 constituent un exemple de ce mode de contrôle de l’accès au support
a) Notion de fanion
À l’instar des transmissions asynchrones où les bits de start et de stop encadrent les bits
d’information, en transmission synchrone un caractère spécial ou une combinaison de bits
particulière, le fanion, permet de repérer le début et la fin des données transmises (figure 1.109).
b) Notion de transparence
L’utilisation d’un caractère spécifique pour indiquer le début ou la fin d’un bloc de
données interdit l’usage de ce caractère dans le champ données. En conséquence, si on veut
transmettre, en tant que données, le caractère ou la combinaison binaire représentative du fanion, il
faut prévoir un mécanisme particulier. Ce mécanisme se nomme mécanisme de transparence au
caractère, si le fanion est un caractère, ou mécanisme de transparence binaire, si le fanion est une
combinaison de bits. Le mécanisme de transparence consiste à « baliser » le caractère à protéger par
96
un autre caractère dit caractère d’échappement. Ce caractère inséré à l’émission devant le caractère
à protéger (le faux fanion) doit lui-même être protégé s’il apparaît dans le champ données (figure
1.110).
Outre les délais introduits par l’insertion et l’élimination des bits ou caractères de
transparence, cette technique modifie la taille des unités de données transmises. La longueur du bloc
émis est variable, ce qui ralentit son traitement. Les protocoles dits à haut débit mettent en œuvre
d’autres techniques, comme l’utilisation d’un codage de type 4B/5B, qui garantissent que le symbole
choisi comme délimiteur ne pourra être présent dans le champ de données. 4.3.2 Le contrôle
d’intégrité D’une manière générale on doit, lors d’une transmission de données, s’assurer que les
données reçues n’ont pas été altérées durant la transmission. Plusieurs facteurs peuvent modifier le
97
contenu des données. Les uns sont d’origine humaine, le contrôle d’intégrité concerne alors la
sécurité des données. Les autres sont d’origine physique, le contrôle d’intégrité porte alors le nom de
contrôle d’erreur.
c) Notion d’erreur
Le message reçu diffère de 3 bits du message émis. Le nombre de bits émis est de 24
bits. Le taux d’erreur binaire (Teb) est de : Teb = 3/24 = 0,125 Le taux d’erreur binaire varie en
pratique de 10–4 (liaisons RTC 4 )à 10 –9 (réseaux locaux). Dans les réseaux, les erreurs se produisent
généralement par rafale. Le Teb exprime une grandeur statistique, l’erreur affecte aléatoirement n
bits consécutifs et non un bit tous les x bits. Si te est la probabilité pour qu’un bit soit erroné, la
probabilité de recevoir un bit correct est de (1 – te).
Soit, pour un bloc de N bits, une probabilité de réception correcte (p) de : Le message
reçu diffère de 3 bits du message émis. Le nombre de bits émis est de 24 bits. Le taux d’erreur binaire
(Teb) est de : Teb = 3/24 = 0,125 Le taux d’erreur binaire varie en pratique de 10–4 (liaisons RTC 4 )à
10 –9 (réseaux locaux). Dans les réseaux, les erreurs se produisent généralement par rafale. Le Teb
exprime une grandeur statistique, l’erreur affecte aléatoirement n bits consécutifs et non un bit tous
les x bits.
Si te est la probabilité pour qu’un bit soit erroné, la probabilité de recevoir un bit correct
est de (1 – te). Soit, pour un bloc de N bits, une probabilité de réception correcte (p) de :
La probabilité de recevoir un bloc sans erreur est d’autant plus faible que la longueur du
bloc est grande. Par exemple, supposons une transaction de 100 caractères émis sur une liaison en
mode synchrone à 4 800 bits/s avec un Teb de 10 –4. Les erreurs sont supposées être distribuées
aléatoirement. Quelle est la probabilité de recevoir un message erroné ? Le message de 100
caractères correspond à un bloc de :
98
Pc = (1 – 0,0001)800 = (0,9999)800 = 0,923
Pe = 1 – 0,923 = 0,077
99
CHAPITRE 2 : ARCHITECTURE DES RESEAUX ET LES MODELES DE REFERENCE
1.1. Topologie
➢ Physiques ;
➢ Logiques.
La topologie physique décrit la façon selon laquelle les ordinateurs, les imprimantes et
autres équipements sont connectés. C’est une organisation physique, c’est-à-dire une configuration
spatiale du réseau (structure des chemins de câbles, le type de raccordement). En mode point à
point, deux DCE (Data Communication Equipment, soit en français, équipement terminal de circuit de
données (ETCD)) communiquent par un canal dédié (figure ci-dessous)
➢ Topologie en bus ;
➢ Topologie en étoile ;
➢ Topologie en anneau.
➢ Topologie en arbre
➢ Topologie hiérarchique
➢ Topologie maillée
➢ Topologie mixte
100
1.1.1.1. Topologie en bus
Dans une topologie en bus, tous les ordinateurs sont reliés à une même ligne de
transmission par l’intermédiaire de câble généralement coaxiale. Le mot ‘’ bus’’ désigne la ligne
physique qui relie les machines du réseau en série.
Chaque station peut accéder support pour émettre. Cette topologie se prête à la
diffusion. Les collisions sont possibles lorsque plusieurs stations émettent simultanément. La mise en
œuvre de cette topologie est très simple. Mais toute coupure du paralyse le réseau.
Exemple
Dans une topologie en étoile, les ordinateurs du réseau sont reliés à un matériel central
appelé concentrateur (en anglais hub). Il s’agit d’une boite comprenant un certain nombre de
jonction auxquelles il est possible de raccorder les câbles réseau en provenance des ordinateurs.
Celui a pour rôle d’assurer la communication entre les différentes jonctions.
L’élément central de cette topologie est le concentrateur. Ce réseau est plus onéreux
qu’un réseau en bus. Cette topologie est en réalité une généralement des liaisons point à point.
101
Figure 1.4 : Topologie en étoile
Exemple
Dans une topologie en anneau, les information sont situées sur une boucle et
communiquent à tour de rôle.
En réalité, dans une topologie en anneau, les informations ne sont pas reliés en boucle
mais par un répartiteur (appelé MAU : Multi station Access Unit). Les deux normes utilisant cette
topologie physique sont Token ring (anneau à jeton) et FDDI.
102
Exemple
Aussi connu sous le nom de topologie hiérarchique, le réseau est divisé en niveaux. Le
sommet, le haut niveau, est connectée à plusieurs nœuds de niveau inférieur, dans la hiérarchie. Ces
nœuds peuvent être eux-mêmes connectés à plusieurs nœuds de niveau inférieur. Le tout dessine
alors un arbre, ou une arborescence.
C'est une topologie en bus sur laquelle un des nœuds est connecté à un répéteur, qui
donne naissance à un nouveau bus. Elle est souvent utilisée pour les extensions de réseaux et permet
ainsi de les étendre au-delà des recommandations du constructeur
Exemple
103
Figure 1.9 : Exemple topologie en arbre
Elle est dérivée des réseaux en étoile, les réseaux hiérarchiques sont constitués d'un
ensemble de réseaux étoiles reliées entre eux par des concentrateurs jusqu'à un nœud unique. Cette
topologie est essentiellement mise en œuvre dans les réseaux locaux, 10 base T, Starlan.
Une topologie maillée, est une évolution de la topologie en étoile, elle correspond à
plusieurs liaisons point à point. Une unité réseau peut avoir (1,N) connexions point à point vers
plusieurs autres unités. Chaque terminal est relié à tous les autres. L'inconvénient est le nombre de
liaisons nécessaires qui devient très élevé.
Le réseau maillé est un réseau dans lequel deux stations de travail peuvent être mises
en relation par différents chemins. La connexion est effectuée à l’aide de commutateurs, par
exemple les autocommutateurs PABX.
Elle existe aussi dans le cas de couverture Wi-Fi. On parle alors bien souvent de
topologie mesh mais ne concerne que les routeurs WiFi.
104
Figure 1.11 : Topologie maillée
Exemple
La topologie mixte est une topologie qui mélange deux ou plusieurs topologies
différentes. Ce sont des réseaux qui mélangent deux topologies. Par exemples, les bus en étoile,
les réseaux 100VG-AnyLAN (ETHERNET à 100 Mb/s) de la spécification IEEE 802.12 qui fonctionnent
avec la méthode d’accès de la priorité de la demande, les anneaux en étoile
Exemple
105
Figure 1.13 : Topologie mixte ou réseaux mixtes
➢ Ethernet
➢ Token Ring
➢ FDDI
➢ ATM
Ethernet est aujourd’hui l’un des réseaux les plus utilisés en local. Il repose sur une
topologie physique de type bus linéaire, c'est-à-dire tous les ordinateurs sont reliés à un seul support
de transmission. Le principe du réseau Ethernet est apparu à la fin des années 70 dans les milieux de
chercheurs aux Etats-Unis. Ce réseau, le plus répandu des réseaux locaux, est né des expériences
complémentaires de DEC, Intel et Xerox, bien avant les avancées de la normalisation. Ce qui signifie
que l'essentiel des protocoles des couches supérieures n'est pas spécifié.
La méthode utilisée est la contention, tout le monde peut prendre la parole quand
il le souhaite. Mais alors, il faut une règle pour le cas où deux stations se mettraient à " parler
" au même moment. La principale méthode de contention en réseaux locaux est
le CSMA/CD (Carrier Sense Multiple Access), avec détection de collision (CD). C'est celle
d'Ethernet. Dans un réseau Ethernet, CSMA/CD représente le protocole de communication,
ce qui fait qu’il aura une très grande surveillance des données à transmettre pour éviter toute
sorte de collision. Par un conséquent un poste qui veut émettre doit vérifier si le canal est libre
avant d’y émettre.
Elle consiste pour une station, au moment où elle émet, à écouter si une autre
station n'est pas aussi en train d'émettre. Si c'est le cas, la station cesse d'émettre et réémet son
message au bout d'un délai fixe. Cette méthode est aléatoire, en ce sens qu'on ne peut prévoir
106
le temps nécessaire à un message pour être émis, transmis et reçu. Voyons l'évolution
d'Ethernet
La version 10 Base 5 (10Mbps en bande de base sur câble coaxial d'une longueur
maximale par segment de 500 mètres) est la version d'origine d'Ethernet, elle est représentée
ci-dessous :
Chaque station est équipée d'une interface " Ethernet " (NIC, Network Interface
Card) généralement appelée carte transporteur ou carte " Ethernet ". Cet équipement assure
l'adaptation physique et gère l'algorithme CSMA/CD.
Le drop câble est constitué de paires torsadées et peut avoir une longueur
maximale de 50 mètres. Le câble coaxial est un câble épais de couleur jaune (Ethernet jaune)
d'un demi-pouce de diamètre. La longueur totale du réseau peut atteindre 2,5 kilomètres.
Cette version d'Ethernet n'est pratiquement plus utilisée que dans les
environnements compromis (rayonnement électromagnétique) ou lorsque l'on veut garantir la
confidentialité des échanges (pas de rayonnement du câble coaxial).
Une version économique a été réalisée avec du câble coaxial fin (Thin Ethernet).
Ce type de réseau Ethernet est représenté ci-dessous :
107
Figure 1.15 : Ethernet, IEEE 802.3 10 Base 2
Depuis fin 1992, les comités de standardisation ont travaillé à un nouveau réseau
Ethernet à 100 Mbps baptisé Fast-Ethernet. Deux écoles se sont affrontées, l'une voulant
conserver la méthode d'accès CSMA/CD et la compatibilité avec les cartes adaptateurs
existantes, tandis que l'autre préconise un tournant plus radical avec une technologie
déterministe proche de celle de l'anneau à jeton ou FDDI.
Token Ring repose sur une topologie en anneau (Ring). Il utilise la méthode d’accès par
jeton (token). Dans cette technologie, seul le poste ayant le jeton a le droit de transmettre. Si un
poste veut émettre, il doit attendre jusqu’à ce qu’il ait le jeton. Dans un réseau Token ring, chaque
nœud du réseau comprend un MAU (Multi station Access Unit) qui peut recevoir les connexions des
postes. Le signal qui circule est régénéré par chaque MAU.
108
Mettre en place un réseau Token Ring coûte chers, malgré que la panne d’une station
MAU provoque le disfonctionnement du réseau.
Un débit de 4 ou 16 Mb/s
Le réseau TOKEN RING fonctionne en général autour d’un concentrateur passif dans lequel se situe
l’anneau physique du réseau. Cependant, un réseau TOKEN RING peut être composé au maximum
de33 concentrateurs (l’empilement des concentrateurs ne forme qu’un seul anneau logique). Plus le
réseau TOKEN RING comporte de concentrateurs et plus il est à même de gérer un nombre
important d’ordinateurs. Les concentrateurs sont reliés entre eux par les points de connexion (en
entrée et en sortie) qui permettent de ne constituer qu’un seul anneau. Les concentrateurs sont
reliés par un câblage en paire torsadées.
Dans un « réseau à jeton pur », si une station tombe en panne, alors c’est tout le réseau qui ne
fonctionne plus puisque la course du jeton est interrompue. Certaines MSAU peuvent détecter l’arrêt
d’une carte réseau et automatiquement désactiver le port correspondant, ainsi l’anneau logique
n’est pas « coupé ».
109
Les composants matériels d’un réseau TOKEN RING sont les suivants :
Les concentrateurs :
Le câblage :
La catégorie 1 (STP) :
La catégorie 2 (UTP) :
La catégorie 3 (UTP) :
Les câbles de connexion (Patch Cables) de type 6 ont une longueur de 45 mètres.
Les connecteurs :
Les connecteurs MIC (Media Interface Connector) pour connecter les câbles de type 1 et
2.
110
Les filtres de support pour connecter une carte réseau TOKEN RING à une prise
téléphonique RJ45 ou RJ11.
Avec du câble de type 3, deux répéteurs permettent d’obtenir une distance maximale
de 365 mètres entre les deux MSAU.
Les cartes réseaux de 16 Mb/s qui sont compatibles avec un réseau à 4 Mb/s (Le mode
16 Mb/s bascule en mode 4 Mb/s, mais évidemment pas l’inverse). Les cartes réseaux 16 Mb/s
utilisent une trame plus longue.
Etc…
Lorsque l'on compare deux types de réseau, les critères à retenir sont
principalement :
111
Figure 1.17 : Débit nominal (débit physique)
Cependant à forte charge dans le réseau Ethernet, les collisions se multiplient et le débit
s'effondre, alors que pour Token Ring, même si le débit moyen de chaque station diminue, le débit
utile sur le support atteint le débit nominal.
2. En termes d'application
Dans le cas du Token Ring, il est toujours possible de déterminer le laps de temps au
bout duquel on est certain qu'une station obtiendra le jeton, le réseau est dit déterministe.
Cependant, même si le temps d'obtention du jeton peut être borné, même si le Token
Ring met en œuvre un mécanisme de priorité, il ne peut garantir un intervalle de temps constant
entre deux obtentions du jeton pour une même station. Par conséquent, le Token Ring est impropre
au transfert isochrone (voix, vidéo, temps réel).
Les deux types de réseaux sont utilisés pour des applications de type conversationnel. Le
Token Ring, pouvant garantir une bande minimale, pourra être utilisé pour des transferts sous
contrainte temporelle moyennement sévère (transfert synchrone). Mais en principe, aucun des deux
ne satisfait au transfert isochrone. En pratique, des essais ont montré qu'il était possible, sous faible
charge, de réaliser de tels transferts, à condition d'admettre des pertes d'informations pour assurer
une compensation temporelle.
3. En termes d'infrastructure
112
Bien que le réseau Token Ring ait des performances intrinsèquement supérieures, le
marché lui a préféré Ethernet.
1.1.2.4. Le FDDI
La technologie LAN FDDI (Fiber Distributed Data Interface) est une technologie d'accès
réseau utilisant des câbles fibres optiques. Le FDDI est constitué de deux anneaux : un anneau
primaire et anneau secondaire. L’anneau secondaire sert à rattraper les erreurs de l’anneau primaire.
Le FDDI utilise un anneau à jeton qui sert à détecter et à corriger les erreurs. Ce qui fait que si une
station MAU tombe en panne, le réseau continuera de fonctionner.
L'anneau à jeton, dont la norme, pour l'essentiel, a été définie par IBM au début
des années 80 sous le nom de Token-Ring, a tenté de détrôner la prédominance d'Ethernet
grâce à une offre de plus en plus large et des succès dans les réseaux locaux bureautiques. Il
reste qu'Ethernet s'est imposé pour relier les stations de travail techniques, les mini-
ordinateurs, en particulier dans l'univers Unix. Mais l'influence d'IBM sur le marché a
favorisé l'essor continu de l'anneau à jeton. Celui-ci est normalisé pour deux débits
compatibles de 4 ou de 16 Mbps. Un projet de norme à 100 Mbps, se confondant ou presque
avec FDDI, a été mise en chantier ces deux dernières années.
2. Présentation de FDDI
Une version de FDDI sur paire torsadée existe (TPDDI, Twisted Pair Distributed
Data Interface), elle autorise des débits de 100Mbps sur 100 mètres.
La méthode d'accès est similaire à celle du réseau IEEE 802.5 version 16 MBps
(ETR, Early Token Release). Pour accéder au support, une station doit posséder le jeton. Elle
émet ses données et génère un nouveau jeton. Chaque station retire de l'anneau les données
113
qu'elle y a déposées. Plusieurs trames de données issues de stations différentes peuvent
circuler sur l'anneau, mais il n'y a qu'un seul jeton.
Les données sont séparées en deux flux, les données urgentes à contrainte de débit
(classe synchrone) et les données sporadiques, sans contrainte particulière de débit (classe
asynchrone). Lorsqu'une station possède le jeton, elle peut toujours émettre des données
synchrones et, si, et seulement si, le jeton est en avance (jeton temporisé) elle peut alors
émettre des données asynchrones.
FDDI distingue deux types de stations : les stations à simples attachements (SAS,
Single Attachment Station) et celles à double attachements (DAS, Double Attachment
Station). Les stations à double attachements sont reliées directement à l'anneau principal,
celles à attachement simple utilise un concentrateur qui peut être un simple ou double
114
attachement (SAC : Single Attachement Concentrator, DAC : Double Attachment
Concentrator).
Une station qui a des données à émettre attend la réception d'un jeton. La station
qui reçoit un jeton, le répète jusqu'au délimiteur de début (jeton tronqué), puis insère des
symboles Idle. Elle émet une ou plusieurs trames et régénère un jeton valide.
De manière similaire au Token Ring, c'est la station qui a émis qui retire ses
données de l'anneau. A cet effet, quand une station reçoit une trame, elle examine le champ
Adresse Source, si elle reconnaît sa propre adresse, elle cesse sa fonction de répéteur et insère
des symboles Idle. La trame tronquée (champ PA, SD, FC, DA, SA et quelques symboles
Idle) ainsi que le jeton tronqué seront retirés de l'anneau par la station détentrice du jeton qui
durant son émission cesse sa fonction de répéteur.
Une version de FDDI sur paire torsadée est disponible (TPDDI, Twisted Pair
Distributed Data Interface). Cette implémentation autorise des débits de 100Mbits sur 100
mètres.
FDDI garantit une bande passante minimale aux données des différentes stations
(classe synchrone) mais ne garantit pas une récurrence temporelle entre les différentes
115
émissions. De ce fait, FDDI-I n'est pas susceptible d'assurer des transferts de données de type
isochrone i.e. correspondant au même instant, même durée (voix, vidéo).
FDDI-II superpose sur un même support, l'anneau FDDI, une voie asynchrone et
synchrone (fonctionnement en mode paquet) et une voie isochrone (fonctionnement en mode
circuit).
Une station maître (Cycle Master) génère une trame toutes les 125 microsecondes,
une trame représente 16 canaux dans lesquels les stations déposent leurs données. FDDI-II est
incompatible avec FDDI-I.
7. En résumé...
Issue du monde des réseaux locaux privés, la norme FDDI (Fiber Distributed Data
Interface) est une norme de "super réseau" local à hauts débits (100 Mbps), fonctionnant sur
fibre optique et selon une topologie de double anneau sécurisé :
Sa gamme de services est assez large, puisqu'on peut l'utiliser comme support
pour de petits réseaux entre stations à hautes performances, comme anneau fédérateur d'autres
réseaux locaux et même comme réseau " métropolitain ", puisqu'il peut supporter jusqu'à 500
stations à une distance dépassant les 150 kilomètres. En revanche, FDDI ne permet ni le
transport de la voix ni celui de la vidéo. Cette lacune devrait être comblée avec la version
FDDI-II supportant les applications isochrones. Mais, les deux versions sont incompatibles.
Et, si elles peuvent utiliser la même infrastructure, elles nécessitent des équipements d'accès
différents. Ce qui amène certains spécialistes à condamner FDDI-II avant même qu'elle ait
vécu.
116
Il est évident que les architectures " publiques " planifiées à base d'ATM prévoient
de proposer une interface FDDI comme interface d'accès. Mais on peut dire autant de bien
d'autres interfaces, dont le MAN-DQDB, le RNIS bande étroite et les réseaux locaux
aujourd'hui les plus courants sur le marché, l'ATM se présentant avant tout comme un grand
rassembleur. La question est de savoir ce qu'il devra rassembler.
1.1.2.5. L’ATM
Faut-il en outre proposer des services en mode connecté, c'est-à-dire où l'on établit
puis libère le circuit après utilisation, ou en mode non connecté où le message, toujours
associé à son adresse de destination, est aiguillé sans délai ?
Les ingénieurs ont tenté de rapprocher ces quatre formules et d'en cumuler les
avantages en mettant au point une famille de techniques dite de commutation de paquets
rapides (FPS, Fast Packet Switching), dont la plus prometteuse est l'ATM (Asynchronous
Transfer Mode).
Justification de la commutation
Si on veut mettre deux stations en relation on peut utiliser deux solutions. La première
est de créer une connexion permanente entre toutes les stations du réseau.
117
Figure 1.20 : Commutation
Le mot circuit désigne une liaison entre deux commutateurs. Son inconvénient réside
dans la monopolisation des commutateurs en cas de silence, même lorsqu’il n y a pas transmission
d’informations. Le réseau téléphonique commuté (RTC ou PSTN) est un modèle traditionnel de ce
type de commutation.
Figure 1.22 :
118
provenant de la machine d’émission est déposé dans un commutateur attaché à cette machine qui se
met en liaison avec le commutateur de la machine de destination.
Dans cette méthode, le message est découpé en des petites entités de longueur fixe
appelées ‘’paquets’’, c’est la fragmentation. Dans ce cas, chaque paquet peut prendre un chemin
diffèrent, ce qui permet un parallélisme et augmente la vitesse de transmission. Le destinataire doit
attendre l’arrivée de tous les paquets pour reconstruire le message et le traiter (réassemblage).
Le message est découpé comme dans la commutation de paquets, mais en des entités
encore plus petites (cellules). L’objectif est de transmettre en temps réel les données, les images et
le son. Cette méthode essaye de remédier aux inconvénients des méthodes précédentes quant à la
qualité des services, la vitesse de transmission, la difficulté d’interconnexion et la performance. Le
protocole utilisé est l’ATM (Ansychronous T Transfer Model).
Lorsqu’on avait conçu les premiers réseaux, on s’intéressait d’abord aux aspects
matériels et pas tellement aux aspects logiciels. En effet, on oubliait que les données véhiculées dans
119
les échanges utilisant un réseau sont issues de programmes d’application établis à partir des logiciels
(systèmes d’exploitation, langages de programmation, logiciels d’applications, etc.) qui peuvent être
différents d’un ordinateur connecté à un autre, d’où se posera le problème d’hétérogénéité.
Les premiers réseaux informatiques étaient donc conçus suivant des systèmes
propriétaires : chaque constructeur avait ses propres normes. Devant le chaos qui se profilait à
l’horizon avec l’expansion des machines en réseaux, le CCITT (Comité Consultatif International pour
la Télégraphie et la Téléphonie, aujourd’hui dénommée ITU (Introduction Télécommunication Union)
associé avec ISO (International Standard Organisation) publièrent conjointement des normes
internationales pour la conception des réseaux OSI (Open System Interconnexion).
Il s’agit d’un modèle de référence qui devrait assurer l’interopérabilité des systèmes
réseaux ouverts c’est-à-dire ceux dont les normes était connues de tous les constructeurs tant du
point de vue matériel que du point de vue logiciel.
Les architectures des systèmes ouverts sont basées sur une hiérarchie des couches. Tous
les réseaux informatiques ouverts respectent ce principe. Chaque couche étant situé à un niveau
bien précis, a pour rôle de fournir des services à la couche immédiatement supérieure. Les services
fournis dépendent du niveau de la couche et de son rôle.
Une couche est spécialisée dans un ensemble de fonctions particulières. Elle utilise les
fonctionnalités de la couche inférieure et propose ses fonctionnalités à la couche supérieure.
Un système est un ensemble de composants formant un tout autonome. Une entité est
l'élément actif d'une couche dans un système.
La couche N d’une machine gère la conversation avec la couche N d’une autre machine.
Les règles et les conventions utilisées pour cette conversation sont connues sous le nom de protocole
(figure ci-dessous). Le protocole définit les caractéristiques de l’échange entre les deux systèmes.
On appelle entités homologues (paires), des entités de même couche situées dans des
systèmes distants.
Le protocole d'une couche N définit l'ensemble des règles ainsi que les formats et la
signification des objets échangés, qui régissent la communication entre les entités de la couche N.
120
Figure 1.25 :
Entre chaque paire de couches adjacentes, on trouve une interface. L’interface définit
les opérations élémentaires et les services que la couche inferieure offre à la couche supérieure
(figure ci-dessus). Pour réaliser une communication, la couche n+1 utilise le service offert par la
couche n. Les services de la couche n sont proposés à la couche n+1 grâce à son interface.
L'architecture d'un réseau est définie par l'ensemble des couches et la description des
protocoles et des services de chacune d'elles.
Chaque couche contient des entités qui fournissent des services à la couche supérieure.
‘’ Selon la nature du service à fournir, une entité est matérielle ou logicielle : pour les couches les
basses, les entités sont les plus souvent matérielles (inter connectivité), alors que dans les couches
de niveaux élevés, ce sont des éléments de programmation (interopérabilité).
Le lien entre les deux entités des couches n et n+1 sera établi à travers un SAP (Service
Access Point) ou point d’accès au service. Les messages qui transitent entre les deux entités (n et
n+1) sont des unités de données de protocole de niveau n (n-PDU).
Une PDU (Protocol Data Unit) comprend les deux niveaux suivants :
121
NB : En réalité, aucune donnée ne passe directement de la couche n d’une machine à la
couche n d’une autre ; mais chaque couche passe par les données et le contrôle à la couche
immédiatement inferieure jusqu’à la plus basse.
➢ La couche réseau, qui assurait le transport des bits entre machines devait assurer l’inter
connectivité ;
➢ La couche transport qui servait d’interface entre la couche application et réseau ;
➢ La couche application qui donne des facilités d’adaptation aux différents programmes
réseaux devrait assurer l’interopérabilité.
Le modèle à trois couches n’a pas survécu très longtemps, OSI finit par élaborer un
modèle plus affiné avec sept couches : physique, Data Link (Liaison des données), Network (réseau),
Transport, Session, Présentation, Application.
➢ Les fonctionnalités de chaque couche sont assurées par des fonctions logicielles à l’exception
des couches une et deux qui sont réalisées par des composant matériels. Voici quelques
représentations du modèle de référence.
122
4.1. Le Modèle de référence OSI
Il est appelé modèle de référence OSI (Open System Interconnexion) parce qu’il traite de
la connexion entre les systèmes ouverts en communication avec d’autres systèmes ouverts. Notez
que le modèle OSI n’est pas en soi une architecture de réseau, car il ne spécifie pas réellement les
services et protocole utilisés dans chaque couche. Il décrit simplement ce que chaque couche doit
faire. Comprendre le modèle OSI est la clé pour comprendre les réseaux.
La couche physique réalise la transmission des éléments binaires sur le support suivant
les caractéristiques physiques, électriques, optiques et mécaniques. Cette couche est appelée, aussi
niveau bit : c’est celle qui met en œuvre les procédures de connexion des ETCD-DCE (qui traitent des
123
trains de bits). C'est le support de transmissions lui-même: un fil de cuivre, une fibre optique, les
ondes hertziennes...
Au niveau de cette couche, le respect des normes était universel grâce aux avis du
CCITT. Une fois la liaison effective, la couche 1 va rendre compte à la couche suivante, qui prend le
relais, et ainsi de suite. Le rôle de chaque couche commence lorsque la précédente a réussi à établir
une connexion avec la correspondante du processus distant.
La couche liaison assure le transport des trames sur une ligne et dispose des moyens de
détections d’erreurs de transmission, la synchronisation et éventuellement de corrections.
La couche session est d’interface entre les fonctions liées à l’application et celles liées au
transport de données et assure l’ouverture et la fermeture des sessions pour le compte de
l’application. Elle définit les règles d’organisation et de synchronisation du dialogue entre deux
utilisateurs.
Les équipements connectés ouvert ensuite une session de travail. Le dialogue qui
s’instaure alors entre processus utilisateurs est régi par une procédure commune qui peut être
considère comme protocole. Il gère les ressources à mettre en œuvre pour permettre à deux
applications de communiquer (connexion logique, synchronisation, déconnexion).
124
applications. En d’autres termes, elle vise à faire communiquer les applications ayant des
présentations différentes. Elle est en charge de la représentation des données (de telle sorte qu'elle
soit indépendante du type de microprocesseur ou du système d'exploitation par exemple) et -
éventuellement - du chiffrement.
5.1. Introduction
Dans les années 70, la défense américaine (DOD), devant la multiplication des machines
utilisant des protocoles de communications différentes et incompatibles, décide de définir son
propre standard d’interconnexion. Ce standard est aujourd’hui appelé le modèle de référence TCP/IP
du nom de ses deux principaux protocoles :
➢ Internet Protocol (IP) : qui est un protocole de la couche réseau assurant un service sans
connexion (connectionless) ;
➢ Transmission Contrôle Protocol (TCP) : qui est un protocole de la couche transport qui fournit
un service fiable avec connexion (connections oriented).
Les TCP/IP sont des protocoles universels qui s’intègrent facilement dans les composants
d’architectures constructeurs comme IBM, Microsoft, Novell. Ces protocoles tolèrent les pannes dans
les réseaux décentralisés et s’affranchissent du matériel dans sa configuration.
Le TCP/IP est une norme universelle disponible sur tous les types de réseaux physiques,
elle peut être installée sur n’importe quel système. Les protocoles TCP/IP couvrent les couches
réseaux (pour IP) et transport (pour TCP) du modèle OSI.
Malgré sa complexité, elle est un élément essentiel dans les installations informatiques
mettent en œuvre plusieurs réseaux, car elle constitue un dispositif de conversion complet.
125
Figure 1.27 : Le routage à travers les passerelles
Les machines-hôtes (terminaux) traitent les paquets à travers les 4 couches de protocole
alors que les passerelles (intermédiaires) traitent les paquets jusqu'à la couche Internet au sein de
laquelle la voie de routage des données est déterminée.
Cette couche regroupe toutes les fonctions des couches de niveau 1 et 2 du modèle OSI.
Elle examine comment transmettre les paquets de données.
La couche Internet définit un format officiel de paquets qu’on appelle IP. Elle permet
l’interconnexion des structures matérielles différentes de façon transparente.
On peut dire que la couche Internet du modèle TCP/IP a des fonctionnalités identiques à
celle de la couche réseau du modèle OSI.
Deux protocoles sont possibles selon le type d’application employée. Le TCP est un
fiable orienté connexion qui permet la remise sans erreurs à une machine Internet destinataire un
flux d’octets issus d’une autre machine Internet. Sur la machine destinataire, le processus TCP
d’arrivée rassemble les messages reçus.
126
5.3.4. La couche application
SMTP (Simple Mail Transfert Protocole : Courrier électronique) : il définit les règles
d’échange entre servers de messageries pour des réseaux à longues distances ;
Le modèle de régence OSI et TCP/IP ont certains points communs. Ils sont tous deux
fondés sur les concepts de pile de transport indépendants. Les deux modèles présentent également
certaines différences.
Il y a trois concepts centraux dans le modèle OSI (voir infra page 62 à 63) : les services,
les interfaces et les protocoles. Le modèle TCP/IP ne faisait pas à l’origine la distinction entre service,
interface et protocole. Une autre différence entre les deux modèles est le nombre de couche. Le
modèle OSI en a 7 et le modèle TCP/IP en a 4.
127
Figure 1.28 : comparaison en les modèles OSI et TCP/IP (en français et en anglais)
128
CHAPITRE 3 : LES RESEAUX LOCAUX
Les réseaux locaux sont normalisés par l’organisme IEEE (Institute of Electronic and
Electricity Engineers) qui traite, par ailleurs, beaucoup d’autres aspects liés à l’électronique, aux
semi-conducteurs etc. depuis 1970, cet organisme essaye de normaliser les réseaux locaux en
s’appuyant sur les couches inferieurs de l’OSI (1,2 et 3). Ces normes concernent tous les niveaux de
transmission de l’information, du câblage jusqu’aux modèles théoriques des réseaux.
Les normes concernant les réseaux locaux portent le numéro 802 suivis d’un indice.
D’une manière générale, les normes IEEE relatives aux réseaux spécifient les méthodes d’accès et les
supports utilisés.
En février 1980, un groupe de travail a été créé pour la normalisation des réseaux
locaux. Son but est de développer un standard pour la communication entre deux systèmes, quelle
que soit l’architecture utilisée. Le groupe prend le nom de 802 (soit 80 pour l’année et 2 pour le mois
de février, date de la création de ce groupe).
Certains groupes ont été créés et dissous, c’est le cas de 802.7, 802.8, 802.9, 802.10.
D’autres n’ont jamais vu le jour c’est le cas de 802.13.
Certaines correspondances ont été établies entre le modèle OSI et les normes des
réseaux locaux, telles que proposées par IEEE. Si un accord a été trouvé pour la couche OSI 3, pour
les deux autres couches inférieures de l’OSI (1,2), on a gardé certaines particularités (figure ci-
dessous).
802.1 3
802.2 2
8 8 8 8 8 L
02.3 02.4 02.5 02.5 02.5 LC
M
AC
1
0
129
a) Niveau OSI 3 Norme IEEE 802.2
La norme 802.1 correspond à l’interconnexion de tos les réseaux locaux sans distinction.
Elle remplit les fonctions de la couche réseau telle que définie par le modèle OSI pour le transport
des paquets.
MAC (Medium Access Control), qui correspond à des normes particulières pour chaque
type de réseau local. Il est chargé de la gestion des accès dans un support de transmission. Il s’agit
d’une adresse physique qui est propre pour chaque machine, elle est géré par la carte réseau. Cette
adresse respecte un format défini par IEEE sur 16 ou sur 48 bits. Le format de 48 bits est le plus
répandu. Ce format constitue l’adresse universel des équipements : il correspond à un numéro de
série dont un premier champ de 24 bits donne le numéro du constructeur de la carte IBM, HP, DELL,
etc.), tel qu’attribué par IEEE.
Le Format général des adresses MAC universelles de 48 bits se présente comme suit :
LLC (Logical Link Control), qui correspond à la norme IEEE 802.2 pour tous les réseaux
locaux et gèrent les liens logiques. On distingue trois types de LLC :
➢ LLC de type 1, qui offre un service sans connexion et sans acquittement (en point à point, en
multipoint ou en diffusion). Il n y a donc pas de garantie d’acheminement de données ;
➢ LLC de type 2, qui offre un service avec acquittement, un contrôle de flux et une correction
des erreurs (entre deux points d’accès) ;
➢ LLC de type 3, qui offre un service sans connexion mais avec acquittement (utilisé dans le
réseau industriels).
130
Section 2. Norme IEEE 802.3 Ethernet
Le réseau Ethernet est apparu à la fin des années 1079 aux USA. Ce réseau est le plus
répandu des réseaux locaux. Il est issu des expériences complémentaires de DEC, Intel et Xerox de
Palo Alto Research Center, et cela bien avant les premières normalisations.
La méthode utilisée est la contention, tout le monde peut émettre quand il le souhaite.
Mais alors, il faut une règle pour le cas où deux stations émettent au même moment pour éviter la
collision.
a) CSMA/CD
Le protocole le plus utilisé dans les réseaux Ethernet est le CSMA/CD (Carrier Sense
Multiple Acces With Collision Detection- Accès Multiple à Détection de la Porteuse). Il s’agit d’un
protocole aléatoire qui dérive de l’algorithme ALOHA utilisé par les professeurs N.Abramson et F.Kuo
de l’Université d’Hawaï pour relier les différents terminaux des campus disséminés sur différentes
îles à un ordinateur central. Cette liaison était établie au moyen d’un satellite géostationnaire suivant
une architecture « star network ». Cet algorithme se résume de la manière suivante :
REPEAT
Transmit packet Pt ;
Ok: = Pr = Pt;
IF NOT Ok THEN
END
UNTIL Ok
L’algorithme du professeur Abramson est aussi dénommé ALOHA pur. En effet, il existe
à présent plusieurs améliorations de cet algorithme. Ainsi, on a aussi ALOHA discrétisé.
Contrairement à l’ALOHA pur, cet algorithme n’autorise pas à toutes les stations d’un réseau
d’émettre librement, elles doivent s’accorder à un temps fixé par une horloge qui déterminera
désormais l’intervalle de l’émission.
De même CSMA connaît plusieurs variantes : CSMA 1-persistant, CSMA non persistant
(CSMA/CD fait partie de cette famille).
131
b) Type Ethernet et IEEE 802.3
Les premiers réseaux Ethernet étaient conçus avec les caractéristiques suivantes :
➢ Topologie en bus ;
➢ Supports physiques : câble à paires torsadées, câble coaxial et fibre optique ;
➢ Transmission en bande de base (Manchester) ;
➢ Débit 1 à 10 Mbits/s ;
➢ Méthode d’accès CSMA/CD.
Il s’agit d’une nouvelle norme Ethernet à haut débit qui offre 100 Mbit/s ; il fut mis au
point par IEEE en 1995. A l’origine, elle était conçue pour les dorsales (back Bône) d’interconnexion
des réseaux de 10 Mbit/s.
132
N D Support Longueur
orme ébit physique maximale d’un
segment
1 1 Câble à 100
0baseT4 00Mbits/s paires torsadées mètres
catégorie 3 à 4 paires
torsadées
1 1 Câble à 100
0baseTX 00Mbits/s paires torsadées mètres
catégorie 5 à 2 paires
torsadées
1 1 2 fibres 2 000 à
00BaseFX 00Mbits/s optiques 10.000 mètres
Tableau 1.2 : Normes Fast Ethernet
Etant donné que Fast Ethernet était devenu une norme d’architecture normale des
terminaux d’un réseau local (100 Mbit/s). Il fallait alors mettre au point une nouvelle norme qui
servirait de dorsale (Back Bône) pour l’interconnexion des réseaux locaux à haut débit. C’est ainsi
que naquit la norme 802.3z en 1998 et connue sous le nom Gigabit Ethernet, elle propose un débit
binaire de 1000 Mbit sur câbles à paires torsadées ou sur fibre optique.
L’interconnexion avec les réseaux Ethernet originels et Fast Ethernet s’effectue grâce à
des points intégrés au matériel qualifié de 10/100/1000 Mbit/s.
133
4. 10 Gigabit Ethernet (802.3ae)
Cette norme a été ratifiée en juin 2002. L’innovation de sa conception porte sur deux
paramètres :
Cette norme remet en question l’élément distance comme critère de classification des
réseaux (10 km maximum pour un réseau local). La norme utilisant le câble à paires torsadées n’est
pas encore mise au point. Les normes utilisant la fibre optique sont opérationnelles et comprennent
deux versions :
Avec cette norme, les ordinateurs sont connectés au niveau physique à un bus. C’est
une norme qui n’a pas connu beaucoup de succès. Elle a été surtout utilisée dans l’environnement
industriel.
134
ordinateurs. Le superviseur détermine aussi un ordre cyclique de passage de jeton entre tous les
postes connectés. Le bus physique supporte donc un anneau logique de circulation de jeton. Le
protocole utilisé dans ce réseau est déterministe : chaque station n’émet que quand il détient le
jeton.
En fait, le jeton est une trame unique permettant de véhiculer de l’information binaire
sans erreur entre deux machines.
Pour réaliser un réseau token bus, la norme propose l’utilisation de trois types de
support.
S B Débit Principe
upport ande de transmission
passante
C 6 5 ou 10 Large
âble coaxial ou 12 MHz Mbit/s bande
75
C 1 1 Mbit/s Codage
âble coaxial ,5 MHz Manshester
CATV
C 1 1 Mbit/s ; Large
âble coaxial ,5 MHz ; 6 5 Mbit/s ou 10 Mbit/s bande
CATV MHz ou 12
MHz
Ce réseau vit le jour aux débuts des années 1980. Il fut mis au point par IBM qui ne
voulait pas utiliser la technologie Ethernet mise au point par ses concurrents. Il avait un débit de 4
Mbit/s, qui est allé jusque 16 Mbit/s dépassant l’Ethernet classique. Le protocole proposé dans ce
réseau est aussi déterministe : chaque station n’émet que quand il détient le jeton (trame unique
permettant de véhiculer l’information).
Un réseau Token Ring est constitué de MAU (Multisation ou Medium Acces Unit,
repartiteur) reliés entre eux pour constituer un anneau. Le MAU ressemble à un hub, il permet la
connexion des stations au ring et joue le rôle de répéteur. On peut connecter entre 72 à 260 stations
suivant le type de câble utilisé.
Ce réseau dispose d’un système appelé : « token ring recovery procedure », qui permet
de régénérer le jeton en cas de panne d’une station. Cette opération requiert une station «
Monitor » ou superviseur qui aura la tâche spéciale de restaurer le jeton.
135
station « monitor » avant de créer un nouveau jeton va d’abord nettoyer le ring pour s’assurer qu’il
n’y ait pas deux jetons en circulation.
Le MAN fut conçu au départ pour intégrer les LAN et les WAN. Il est basé sur un double
bus physique, ce qui permet l’interconnexion d’un nombre important de terminaux sur des distances
allant jusqu’à plusieurs kilomètres. Cette technique est appelée DWDB (Distributed Queuting Dual
Bus). Le bus peut être un câble coaxial ou une fibre optique en fonction de la distance ou de
l’environnement.
Les deux bus unidirectionnels créent des trames synchrones issues des générateurs
situés aux extrémités, par intervalles réguliers de temps d’environ 125 s. Les générateurs sont
installés tels que les trames circulent sur chacun des bus en sens inverse. Chaque terminal est
connecté par son interface aux deux bus et choisit en fonction du protocole, le bus à utiliser.
Le FDDI (Fiber Distributed Data Interface) repose sur la technique du réseau à jeton
sécurisée, en double bidirectionnelle, constituée de fibres optiques. Son protocole déterministe
ressemble à celui de la norme 802.5 avec la possibilité d’un anneau d’une circonférence maximale de
200km avec une connexion de plus 1.000 terminaux.
Conçu par ANSI (American National Standard Institude) et normalisé par ISO, ce réseau a
été mis au point pour combler les insuffisances des LAN qui ne supportaient pas plusieurs terminaux
et des grandes distances. Sa gestion complexe n’a pas lutté pour sa vulgarisation.
Les réseaux locaux sans fil connaissent un grand développement par la flexibilité de
l’interface qui permet à un utilisateur de changer de place tout en restant connecté et dès lors de se
libérer des contraintes filaires. Deux solutions sont actuellement utilisées dans les réseaux locaux
sans fil :
136
Le réseau sans fil basé sur la transmission radio est appelée 802.11. La Wi-Fi (Wireless
fidelity) Alliance est un organisme chargé de gérer la compatibilité des produits 802.11, cela a
conduit à un de langage pour ce type de réseau et de support appelé vulgairement wifi.
a) Architecture Wi-Fi
Elle se présente souvent sous la forme d’une carte réseau Ethernet placée dans un
ordinateur et reliée à un point radio. Ce qui concrètement consiste à convertir les trames 802.3 de la
carte réseau (Ethernet) en trames 802.11 du réseau sans fil. La méthode d’accès utilisée dans les
réseaux sans fil est le CSMA/CA (Carrier Sense Multiple Acces With Collision Aviodance) qui gère les
conflits d’accès à la fréquence partagée par différentes stations d’une même zone.
L’accès au media est réalisé par le protocole RTS/CTS (Request To Send/Clear To Send).
Son but est de sonder et de réserver le support par un court échange avec le récepteur.
Une architecture WI-Fi est de type cellulaire c-à-d similaire à la téléphonie (téléphones +
stations) avec un ou plusieurs points d’accès pour unifier le réseau et servir de ponts, dans une
couverture géographique (cellule).
1. Le mode infra-structure
Il nécessite donc un matériel spécifique appelé point d’accès. Ce point d’accès définit un
espace géographique appelé cellule wifi à l’intérieur duquel les stations peuvent communiquer.
Chaque station de la cellule se connecte au point d’accès pour émettre ou recevoir. Un réseau sans fil
peut compter plusieurs cellules. Le point d’accès ressemble à un stard network.
100 stations : support partagé entre toutes les stations, ainsi que le débit de 11 Mbit/s.
137
➢ Le mode infra-structure ESS : Extended Service Set
-Plusieurs points d’accès(BSS) connectés entre eux par un système de distribution (DS)
qui peut être un Ethernet ou un autre réseau.
Il permet à chaque station de communiquer avec une autre pour autant qu’elle se situe
dans la zone de couverture de son interface wifi.
138
Dans le mode infrastructure, le réseau sans fil est constitué de plusieurs cellules qui sont
identifiées par un SSID qui permet la connexion des stations au point d’accès.
Pour sécuriser le réseau, on désactive cette fonction qui diffuse par défaut en continu et
on fait connaitre cette valeur seulement aux stations autorisées à se connecter.
Ce mode de sécurité est basé sur l’utilisation d’une clé de chiffrement à l’émission
(codage) et à la réception (décodage).
N Débit Long
ormes ueur Segment
8 54 Mbit/s théoriques, 27 10
02.11a Mbits/s réels mètres
8 11 Mbit/s théoriques, 6 300
02.11b Mbits/s réels mètres
8 300Mbit/s théoriques, 100
02.11n 100 Mbits/s réels mètres
8 10 à 20 Mbit/s Itinér
02.11s ance ad hoc
8 500 Mbps chacun, soit
02.11ac jusqu’à 8 Gbps
Tableau 1.8 : Evolution de quelques normes 802.11
➢ D’augmenter le débit binaire proposé et la portée de a liaison sans fil (802.11a, 802.11b,
802.11g) ;
➢ D’améliorer la qualité de la sécurité des informations (802.11i) ;
➢ D’améliorer la compatibilité de l’architecture avec les autres standards disponibles dans le
monde (802.11f, 802.11h).
Section 8. Norme IEEE 802.12-Reseau local à haut débit (IEEE 100VG Anylan)
Cette norme fut lancée parallèment à la création de IEEE 802.3 ou 802.14 (Fast Ethernet
100 Mbit/s), comme une autre variante d’un réseau à haut débit. Mais les spécifications de la
conception de ce réseau n’est pas une migration de la 802.3 de la famille Ethernet. Sa concurrence
directe avec la norme voisine (802.3u ou 802.14) n’a pas permis à cette norme d’émerger sur le
marché.
Son fonctionnement est basé sur un concentrateur 100VG (Voice Grade) qui supporte
des trames Ethernet 802.3 et Token Ring 802.5, ce qui lui donne le label « Anylan ».
139
raccordé veut émettre une trame. La méthode d’accès fait du 100VG un protocole déterministe et
capable de véhiculer des flux isochrones comme la voix et la et la vidéo.
C’est une autre appellation de la norme IEEE 802.3u que nous avons décrit ci-dessus
(suppra) qui propose trois types de câblage.
Le Bluetooth a pour objectif de permettre les connexions élémentaires sans fil entre
divers matériels faiblement distants (téléphones, périphériques, ordinaires). La norme 802.15 définit
des transmissions radio sur des distances variant de 10 à 100 mètres avec un débit 1 Mbit/s. une
étude en cours prévoit un débit prochain de 20 Mbit/s.
a) Le Wi-max fixe
Il est destiné à des connexions de types point à point, où les deux entités en
communication sont fixes et dotées des antennes appropriées. C’est la norme 802.16-2004. Elle est
ainsi dénommée parce qu’elle a été approuvée en juin 2004.
b) Le Wi-max mobile
C’est la norme 802.16e approuvée en décembre 2005. C’est une extension de la norme
précédente avec une amélioration de la sécurisation du protocole. La problématique aujourd’hui est
celle de savoir si celle technologie se positionnera comme concurrent ou complément de wifi.
140
Section 12. Norme IEEE 802.1Q : Les LAN virtuels (VLAN)
a) Principe
b) Types
Il est aussi appelé VLAN de niveau 1 (couche physique). Dans ce cas, chaque port
physique de chaque commutateur est affecté à un VLAN.
Il est aussi appelé VLAN de niveau 2 (couche liaison de données). Dans ce cas,
l’appartement d’une machine à VLAN s’effectue grâce à son adresse MAC. Cette adresse se trouve
dans une table qui se trouve dans chaque commutateur.
Il est aussi appelé VLAN de niveau 3 (couche réseau). Dans ce cas, l’appartenance d’une
machine à VLAN s’effectue grâce à son adresse IP. Cette adresse IP permet d’enregistrer l’affectation
de chaque machine dans une table.
Dans cette catégorie, on classifie aussi les VLAN par protocole, qui permettent de
regrouper les machines par le groupe de protocole de communication par les mêmes machines. Par
exemple : IP.
La popularisation des réseaux sans fil mérite qu’on termine ce chapitre en évoquant
quelques concepts anglo-saxons utilisés souvent dans cette littérature.
Ce sont des réseaux locaux sans fil raccordant les ordinateurs entre eux. Le modèle
implémenté de ce type de réseau est le wifi.
141
c) Les WMAN (Wireless MAN)
Ce sont des réseaux métropolitains sans fil raccordant plusieurs ordinateurs qui peuvent
accéder à des grands réseaux par la boucle locale radio. Ils permettent de gros débits sur des grandes
distances.
Il s’agit des réseaux téléphoniques sans fil et leur extension pour le transfert de données
(réseaux GSM, GPRS, UMTS)
142
CHAPITRE 4 : L’INTERCONNEXION DES RESEAUX
Section 0 : Introduction
Le domaine des réseaux était limité à l’origine au partage des périphériques lourds
(disques magnétiques, imprimantes), il a évolué aujourd’hui vers celui des applications distribuées.
De plus en plus, le besoin se fait sentir de raccorder des stations à des serveurs, mais également des
LAN voisins ou distincts à travers des réseaux plus vastes (MAN, WAN).
➢ Lorsque le réseau à créer dépasse les distances maximales imposées par la norme du réseau
à mettre en place :
➢ Lorsqu’on doit relier deux réseaux utilisant des protocoles différents
➢ D’étendre le réseau local au-delà de ses contraintes primaires (100 m avec l’Ethernet sur
paire torsadée, quelques km sur la fibre optique…),
➢ D’interconnecter les réseaux locaux d’un même site, même s’ils sont d’architecture ou de
topologie différente,
➢ D’interconnecter des réseaux locaux distants en assurant la transparence de leur
utilisation aux usagers,
➢ De mettre en relation un réseau local avec un ordinateur hôte pour permettre à une
station d’avoir accès aux données du réseau distant ou inversement.
➢ D’interconnecter des hôtes d’architectures propriétaires différentes.
Cette interconnexion est possible grâce à un certain nombre de dispositifs, qui sont au
nombre de quatre :
Exemple d’interconnexion
143
Section 2 : Les fonctions d’interconnexion
Les trames issues des protocoles sont souvent différentes d’un réseau à un autre, les champs sont de
structure différente, les en-têtes ont un rôle différent. Il est donc nécessaire, lors du passage d’un
protocole à un autre, de convertir les trames.
L’affectation des adresses de machines ou d’applications peut être réalisée différemment selon les
réseaux. Diverses solutions sont utilisées :
✓ La norme X400 définit ainsi plusieurs modes d’adressages parmi lesquels un adresse logique
et un adressage physique.
✓ Pour les adresses MAC (adresse matérielle de l’adaptateur réseau, Chaque constructeur
exploite une plage d’adresse unique garantissant en théorie l’unicité de l’adresse.
Le contrôle de flux est destiné à éviter la congestion des liaisons. Les différences technologiques
entre les réseaux (vitesse, techniques d’acquittement…) peuvent imposer le stockage des trames
échangées. Lorsque ces dispositifs de stockage atteigne un taux d’utilisation et de remplissage
trop élevé, il est nécessaire de « ralentir » les machines émettrices afin d’éviter la perte
d’informations et la saturation du réseau. C’est le contrôle de flux.
Interconnecter plusieurs réseaux ne doit pas mettre en péril l’acheminement correct des
messages d’un bout à l’autre. Pour cela, on exploite des techniques de codes de contrôle et des
mécanismes d’acquittement.
Les modes d’acheminement des données d’un réseau vers un autre peuvent également varier, ce
qui rend difficile leur interconnexion. Par exemple la taille des adresses (émetteur, destinataire)
144
rencontrées dans les messages est souvent différente selon le protocole. Il faut donc expédier les
trames vers le bon destinataire et en utilisant la route la plus performante, c’est le routage.
Lors du passage d’un réseau à un autre, il se peut que les messages d’origine soient trop longs
pour être transportés sur l’autre réseau. Il faut alors découper le message en segments plus
petits, transportables sur le deuxième réseau, puis regrouper ces segments dans le bon ordre
avant de les remettre au destinataire. La structure du peut ainsi être modifiée en scindant par
exemple le réseau en sous-réseaux et en mettant en place une liaison FDDI entre ces sous-
réseaux.
3.1. Les répéteurs (repeaters), concentrateurs ou HUB (niveau 1 OSI, couche physique)
Le concentrateur, répéteur ou HUB est un dispositif simple qui régénère les données entre un
segment du réseau et un autre segment de réseau identique (mêmes protocoles, normes, méthodes
d’accès…). Il permet d’augmenter la distance séparant les stations et travaille au niveau 1(physique)
du modèle OSI.
a) Principes
Les répéteurs (repeaters) sont des boitiers d’interconnexion qui n’apportent que des
adaptations au niveau physique. Ils sont principalement utilisés dans les réseaux IEE802.3. Ils servent
à raccorder deux segments de câbles ou deux réseaux identiques (Ethernet) qui constituent alors un
seul réseau logique, Multiports (sur tous les ports de sortie)) sont utilisés pour :
b) Matériels utilisés
Les cartes réseaux intègrent généralement plusieurs connectiques, RJ45 pour le BaseT,
BNC pour le Base2 ou ST pour la fibre optique, permettant la connexion au support physique.
145
Lorsque le matériel utilisé permet de faire une liaison entre deux câbles de type
diffèrent, on l’appelle : transreceiver. Ce matériel peut être multiport. Dans ce cas, il permet une
connexion multiple sur un même câble comme une prise électrique.
Lorsque le matériel utilisé permet de relier des postes de travail dans une topologie
étoile, on l’appelle : « hub » ou « concentrateur ». Ce matériel se trouve alors au centre de l’étoile.
Les concentrateurs sont de trois types : simple, empilable (stackable), modulaire. Les concentrateurs
permettent selon les cartes ajoutées, des ports RJ45 pour le BaseT, BNC pour le Base2 ou ST pour la
fibre optique, etc. Ils proposent aussi des ports à 100Mbits/s et des ports à 10 Mbits/s.
Les cartes ajoutées peuvent proposer de 8 à 24 ports disponibles. Une même carte est
divisée en groupe de ports représentant chacun une sous structure de réseau. Un concentrateur
émule un bus dont le protocole de communication (Ethernet ou ATM) est choisi au moment de
l’achat du matériel. On parle alors de l’émulation de bus, en effet, le concentrateur transmet les
données reçues d’un autre matériel vers tous les matériels connectés avec lui dans la topologie en
bus. Les couches 2 et 3 de ces matériels feront le tri des données reçues pour déterminer si elles leur
sont destinées ou non.
La limite du connecteur est constituée par son mode de fonctionnement. Tous les
matériels qui y sont connectées se partagent le débit maximum proposé. Plus vous connectez de
matériels, plus la disponibilité du réseau diminue. Si par exemple vous connectez dix matériels sur un
concentrateur 100Mbit/s, chacun ne disposera pas de liaison de 100 Mbit/s. ils partageront ce débit
théorique.
Exemple
Un concentrateur passif transmet la trame reçue à toutes les autres stations et aux autres
concentrateurs auxquels il est connecté. Cela entraine un trafic inutile
146
Un concentrateur actif (intelligent) ne propage pas automatiquement la trame vers les autres
stations s’il reconnaît le port de la station de destination. Cela entraine une réduction du trafic mais
le concentrateur passif est plus rapide
3.2. Les ponts (Bridges) : niveau 2 OSI, couche liaison des données)
Les ponts (bridges) qui sont en fait des « commutateurs à 2 ports », permettent de relier deux
segments de réseau de même type (Ethernet, Token-Ring, Ethernet, HDLC, PPP, SLIP, ATM,…)
mettent en œuvre la même méthode d’accès (niveau 2 – CSMA/CD la plupart du temps). Le pont
fonctionne précisément au niveau de la sous – couche MAC (Media Access Control) du protocole de
liaison et interconnecte des réseaux de caractéristiques MAC différentes mais LLC (Logical Link
Control) identiques.
Un pont doit essentiellement assurer les trois fonctionnalités de répéteur de signal, filtre entre les
segments du réseau et détection des erreurs.
a) Principes
Certains ponts proposent un port RNIS configurable au choix en tant que liaison
principale ou liaison de secours. Ces ports interviennent au niveau 2 (MAC, Medium Access Control,
dépendent de la méthode d’accès), ils ne peuvent relier que des réseaux locaux homogènes de ce
point de vue et ne conviennent pas pour créer des sous-réseaux (absences de fonctions de routage).
Ils n’assurent pas de conversion de protocole et sont donc transparent pour les applications. Mais ce
manque d’intelligence leur confère des performances bien supérieures aux autres équipements.
147
Certains organisations et entreprises possèdent plusieurs réseaux locaux éparpillés.
Parfois ; il semble nécessaire devoir rassembler ses différentes structures en un seul réseau et alors
on utilisera un pont (figure ci-après). On rencontre différents types de ponts :
➢ Le pont transparent ou pont classique : il est utilisé pour raccorder des réseaux locaux IEEE
802. Il n’a pas besoin, pour fonctionner, de posséder lui-même une adresse MAC ou une
adresse IP et donc il est indétectable. Il est dit transparent car on ne « voit » pas le pont.
Ainsi une commande telle que tracert (trace route) utilisée avec TCP/IP ne le fera pas
apparaître ;
➢ Les ponts filtrants : ils peuvent gérer une liste d’adresses (MAC), ce qui permet de créer des
coupes – feux (firewall) utilisés notamment avec Internet ;
➢ Les ponts pour anneau à jeton : ils utilisent une technique dite « par l’émetteur » (Source
Routing). Quand une station A veut envoyer des trames à une station B, elle diffuse d’abord
une trame d’apprentissage du chemin. Quand un pont Token-Ring reçoit une telle trame ; il y
ajoute sa propre adresse et retransmet la trame vers le pont de sortie. Chaque pont traversé
fera de même. La station B va recevoir ces trames complétées et retourner à A les trames
recues en utilisant les informations de cheminement cumulées à l’aller. Par la suite, A pourra
choisir un chemin optimal (nombre de ponts traversés, délai..) pour expédier ses trames ;
➢ Les ponts hybrides : ils permettent d’interconnecter un réseau Ethernet à un réseau Token-
Ring. On trouve ainsi des ponts dits « à translation » ou des ponts SRT (Source Routing
Transparent) compatibles avec les ponts transparents.
On peut donc regrouper ces ponts en deux familles : les ponts filtrants et les ponts non
filtrants. Les ponts non filtrants recopient les trames sur tous les segments que le destinateur soit ou
non dans la même structure que le poste émetteur. Ils écoutent tout ce qui se passe sur chaque
segment, qu’il s’agisse de la structure A ou B (figure 6.2).
Dans les ponts filtrants, les trames ne sont systématiquement envoyées à toutes les
structures mais uniquement à celle dans lesquelles se situent l’émetteur et le destinataire. Si le
destinataire et l’émetteur se trouve dans la structure A, la trame n’ira pas encombrer la structure B,
et dès lors, cette trame est ignorée du point (figure ci-après). Les ponts filtrants utilisent les systèmes
d’auto apprentissage (algorithmes) qui leur permettent de mémoriser dans une table les positions
des éléments contenues dans les réseaux : l’algorithme de spanning tree pour les réseaux Ethernet et
l’algorithme source tree pour les réseaux Token-Ring.
148
Les caractéristiques que l’on peut attendre d’un pont sont donc un temps de transmission réduit et
une facilité à le configurer, si possible par apprentissage automatique de la configuration du réseau.
Le pont peut être multi-ports et interconnecter plusieurs segments ou plusieurs réseaux. Il est alors
dit « bridging hub ».
b) Matériels utilisés
Les transreceivers sont aussi utilisés comme ponts. Il existe aussi des demi-ponts qui
permettent de connecter des sous réseaux se situant à des distances importantes l’un après l’autre
pour le maintenir dans le même domaine d’adressage logique. Une telle connexion peut être de type
modem.
Les commutateurs Ethernet (switching HUB), ATM, FDDI… sont aussi utilisés au niveau 2
comme ponts. Il existe deux types de commutateurs :
➢ Les Store-Foreward (stocker et transmettre) qui permettent un stockage des données avant
leur envoi vers le port de destination ;
➢ Les Cutt Through (couper au travers, prendre un raccourci) qui envoient des données à la
volée (on the fly), sans les stocker.
149
Une conception d’un VLAN
a) Principes
1. Notions
Les routeurs ne sont pas transparents aux protocoles mais doivent, au contraire, être en
mesure d’assurer la reconnaissance des trames en fonction du protocole à utiliser. Le protocole doit
être donc routable pour pouvoir traverser le routeur. Avec NetBEUI par exemple, qui n’est pas un
protocole routable, les trames ne pourront normalement pas traverser le routeur. Au contraire avec
un protocole routable tel que IP ou IPX, les trames pourront traverser le routeur (routeur IP, IPX,
voire multi protocoles).
150
Le routeur doit donc être capable d’optimiser et de modifier la longueur du message
selon qu’il passe d’un protocole à un autre ou d’un réseau à un autre. De même il est généralement
capable de modifier la vitesse de transmission, par exemple lors du passage d’un LAN à un réseau
WAN. Il doit donc disposer d’une mémoire tampon.
Si le protocole n’est pas routable, certains routeurs sont capables de se « replier » vers
un niveau inférieur et de se comporter alors comme un simple pont, ce sont les Ponts-routeurs ou B-
routeurs (Bridge, routeurs). On dit que les trames sont « pontées » à travers le pont-routeur.
Les protocoles routables sont : IP, IPX, OSI, XNS, DDP Apple Talk, VINES…par contre
NetBEUI et LAT (Local Area Transport) de DEC sont des protocoles non routables.
La partie logicielle a pour but d’acheminer les paquets vers l’interface correcte du
routeur. Les routeurs successifs se servent d’une adresse logique (IP) contenue dans le paquet pour
trouver le chemin vers le destinataire. Les routeurs sont des centres de tri du réseau.
2. L’adresse logique IP
On parle souvent d’une adresse logique pour un matériel. C’est un abus de langage. On
fait un amalgame entre l’interface réseau de la machine et la machine elle-même. La majeure partie
du temps, un équipement informatique que l’on connecte sur un réseau n’a qu’une interface réseau
(carte réseau). Mais il arrive aussi que certains matériels (routeurs, firewall, serveurs) en aient
plusieurs. Ils auront alors une adresse logique, voire un nom par interface, même s’il s’agit d’un
même équipement.
Il y a donc lieu de faire attention et de distinguer une machine et son adresse logique.
Exemple : si votre machine a deux cartes réseaux (donc deux interfaces), alors vous
aurez deux adresses MAC et deux adresses logiques. Dans certains cas, vous aurez même deux noms
pour la même machine.
151
Un routeur
Dans la figure ci-après, nous présentons un routeur qui est connecté à cinq réseaux. Il
possède pour ce faire cinq interfaces logiques.
Une adresse logique a une longueur de 32 bits en version IPV4, soit 4 octets. Une
adresse est notée en 4 octets séparés par point et traduit en décimale X1.X2.X3.X4.
Réseau Matériel
➢ La première partie concerne le réseau sur lequel se situe la machine. Elle est fournie par
IANA ou ses sous structures ;
➢ La seconde partie concerne l’interface réseau de la machine. Elle est gérée par
l’administrateur du réseau.
Pour répondre aux besoins des utilisateurs et des gestionnaires des réseaux, cinq classes
ont été définies. Ces classes d’adresses logiques permettent l’adaptation aux différentes structures
des réseaux.
152
En effet, il y a des réseaux avec de très nombreux matériel comme il y en a avec peu de
machines.
➢ Dans la classe A, la partie réseau a 1 octet (8bits) et la partie matérielle 3 octets (24 octets) ;
➢ Dans la classe B, la partie réseau à 2 octets (16 bits) et la partie matérielle 2 octets (16
octets) ;
➢ Dans la classe C, la partie réseau à 3 octets (24 bits) et la partie matérielle 1 octet (8 octets) ;
➢ La classe D à la même structure que la classe A. elle ne référence pas de matériels (nœuds),
mais des groupes de matériels qui partagent la même adresse. Cette classe utilise le
protocole IGMP (Internet Group Management Protocol).
➢ La classe E n’est utilisée que pour les tests.
La version 4 du protocole Internet (IPV4), bien que largement utilisée ne garantit pas la
confidentialité des données ou celle des adresses IP. De même, elle ne permet pas l’authentification
de la source ou de la destination du paquet.
➢ La remise des données (pertes possible des données, pas de mécanisme de reprise sur
erreur) ;
➢ La livraison des données au bon destinataire ;
➢ L’ordonnancement (séquencement) correct des données à leurs réceptions ;
➢ La conformité et l’intégrité des données transmises (les données peuvent être interceptées,
copiées, modifiées ou détruits lors de leur transfert) ;
➢ L’authentification de la source ou de la destination de données.
Le manque de sécurité du protocole IP a conduit vers les années 1990 à l’utilisation des
routeurs filtrants (pare-feu, firewalls), qui empêchaient l’émission ou la réception de certains
paquets IP.
153
5. Les protocoles IPV6 et IP Sec
La remise en question du protocole IPv4 a fait l’objet d’une révision connue sous
l’appellation de IPnG (Internet Protocol next Generation) ou IP version 6 (IPV6). Les principales
spécifications peuvent être consultées à l’adresse : http://w.w.w.ietf.org/rfc.rfc2460.txt.
➢ Les adresses sont codées sur 128 bits (16 octets) et non plus sur 32 bits (4 octets). La
représentation des adresses s’effectue en nombres hexadécimaux séparés par deux points
tous les deux octets et non plus en notation décimale ;
➢ L’allocation dynamique de bande passante pour le support d’applications multimédias ;
➢ La création des réseaux IP virtuels ;
➢ Le support de procédures d’authentification et du chiffrement ;
➢ Des en-têtes des paquets simplifiés afin de faciliter et accélérer le routage. La migration de la
version 4 vers la version 6 du protocole IP soulève quelques problèmes technologiques et
économiques sur l’ensemble des routeurs du réseau internet.
IPSec assure l’intégrité des paquets véhiculés par IPV4. En plus, il permet d’authentifier
la source et la destination des paquets qu’ils rendent le contenu confidentiel. Ces services sont
réalisés par deux entêtes IP SC, à la suite de l’entête principale IP. Les principales spécifications
peuvent être consultées à l’adresse suivante : http://w.w.w.ietf.org/rfc/rfc2401.txt.
Il y a :
➢ L’en-tête d’authentification (AH : Authentification Header), les détails se trouvent dans RFC
240 ;
➢ L’en-tête de confidentialité-authentification (ESP : Encapsulating Security Payload Header),
les détails se trouvent dans RFC 2406.
6. Adressage IPV6
154
7. Le routage
A partir de l’adresse logique, les routeurs se passeront les données pour trouver le
destinataire. Les chemins varient suivant plusieurs critères :
Les routeurs utilisent des tables de routages et s’échangent des informations sur les
tables pour trouver plus rapidement le destinataire. Plus ces tables sont importantes, moins les
routeurs sont efficaces. Pour remédier à cela, il est donc possible de configurer un routeur pour qu’il
ne transfère pas ces tables ou les envoie à des routeurs bien précis.
Pour trouver le meilleur chemin, ces routeurs calculent le coût de transport. Ce coût
prend en compte les éléments suivants :
➢ Le débit ;
➢ La fiabilité des liaisons ;
➢ Le délai ;
➢ Le nombre de routeurs à traverser.
B. Matériels utilisés
La partie matérielle du routeur est composée des ports appelés : interfaces qui
reçoivent et émettent les paquets au format correspondant à l’architecture du réseau destinataire
(Ethernet, FDDI, Token Ring). Tant que l’adresse logique du destinataire appartient au réseau
émetteur, les paquets continuent à circuler dans ce réseau. Dans la figure 6.3, les adresses logiques
des paquets se trouvant dans le réseau A resteront à l’intérieur de ce réseau.
Les tables de routage contiennent des informations qui indiquent l’interface ou la voie
que l’information doit emprunter. Ces interfaces sont de deux types : « porte d’entrée ou porte de
sortie ». Le réseau destinataire peut être directement connecté à l’interface ou directement (dans ce
cas, l’information doit traverser d’autres routeurs avant d’atteindre la destination).
155
3.4. Les passerelles-gateways (niveaux 4 et supérieurs)
Une passerelle permet de relier des réseaux hétérogènes. Elle dispose de fonctions
d’adaptation et de conversion de protocoles du système A vers le système B à travers plusieurs
couches de communication jusqu’à la couche application. Elle Coûte plus cher qu’un routeur, elle a
plus de capacité qu’un routeur, elle est spécifique à une application. Cependant elle est plus lente
qu’un pont ou un routeur et exécute des conversions complexes. C’est pourquoi, elles constituent
souvent un goulot d’étranglement lié aux fonctionnalités intrinsèques des équipements.On
distingue : une Passerelle de transport qui met en relation les flux de données d’un protocole de
couche transport et une Passerelle d’application qui réalise l’interconnexion entre applications de
couches supérieures.
Une passerelle
Schéma d’Interconnexion entre deux réseaux SNA (Storage Area Network) et TCP/IP
156
Comme exemples de passerelle, nous avons :
Passerelle de courrier électronique : elle convertit les messages d’un type de système de courriel à
un autre.
Exemples:
– Eudora : utilisateurs d’un système GroupWise,
– Internet SMTP : boîte aux lettres ISO MOTIS (Message-Oriented Text Interchange Systems).
✓ Passerelle hôte IBM : elle établit et gère la communication entre un ordinateur personnel et
un ordinateur central IBM.
✓ Passerelle Internet : elle fournit et gère l’accès entre des réseaux locaux et Internet. Peut
limiter le type d’accès à Internet aux utilisateurs d’un réseau local et vice-versa.
✓ Passerelle de réseaux locaux elle permet aux segments de réseau exécutant différents
protocoles ou modèles de réseaux de communiquer entre eux.
Elle comprend deux composantes essentielles: deux routeurs qui filtrent les paquets (ou
datagrammes) et une passerelle d’application qui renforce la sécurité.
Elle filtre de paquets en général gérés dans des tables configurées par l’administrateur: contiennent
liste des sources/destinations qui sont verrouillées et les règles de gestion des paquets arrivant de et
allant vers d’autres machines.
Comme passerelle d’application, elle peut être configurée pour surveiller chaque message
entrant/sortant c'est-à-dire transmettre/rejeter suivant le contenu des champs de l’en-tête, de la
taille du message, ou de son contenu.
Exemple de firewall
157
3.6. Le réseau privé virtuel : Virtuel Private Network (VPN)
a) Principes
A l’époque, les entreprises interconnectaient leurs réseaux situés sur des sites distants
au moyen des services que proposaient les opérateurs télécoms. Parmi ces services, il y avait : circuit
switched public data networks (X21), packet switched public data networks (X25).
Le PSTN et le CSPDN étaient basés sur une transmission en mode connecté, ce qui
coûtait très cher. Tout le temps de connexion était facturé parce qu’on utilisait dans ce cas le « circuit
switching » comme technique de multiplexage.
Dans le cas de transfert d’une grande quantité de données, il est moins onéreux
d’utiliser une allocation dynamique des intervalles de temps élémentaires. Dans ce cas seuls alors, les
utilisateurs signalant un besoin de transmission pouvait se voir octroyer une période de temps : c’est
le multiplexage temporel statique. Les données étaient alors transportées sous forme des paquets
et le support était alloué dynamiquement en fonction des paquets à transporter « packet
switching ». (Voir multiplexage).
Le PSPDN permettait une liaison en mode connecté juste pour le besoin de transfert des
paquets. Il utilisait la norme X.25, qui est un protocole de communication normalisé pour la
commutation de paquets en mode point à point. Cette norme a été établie en 1976 par le CCITT
(UIT-T) pour les réseaux à commutation de paquets sur proposition de 5 pays qui l’utilisent pour leurs
réseaux publics de communication : Transpac pour la France, EPSS pour la Grande-Bretagne, Datapac
pour le Canada, DCS pour la Belgique et Telenet pour les Etats-Unis. C’est donc le premier réseau
fonctionnant en mode paquet utilisant le principe de circuit virtuel.
X.25 définit l’interface entre un DTE et un DCE. Elle fixe donc les règles de
fonctionnement entre un usager du réseau et le réseau lui-même. Cette norme a l’avantage d’être
sûre à 100% : il n y a aucune perte de données grâce aux nombreux contrôle et aux éventuelles
retransmissions d’éléments perdus. La fiabilité de ce protocole justifiait son utilisation dans les
applications bancaires de types client/serveur.
158
3. Virtual Private Network (VPN)
Les lignes louées avaient certes un avantage, c’est celui de protéger les données de
l’entreprise des intrusions externes, mais elles coûtaient très chères aux entreprises, le VPN est alors
une alternative.
On désigne par un réseau privé virtuel, un réseau sécurisé constitué de plusieurs sites
reliés par un réseau public ou Internet. La traversée de ce dernier est vue comme un tunnel dans
lequel les données de l’entreprise transitent chiffrées. Un tunnel est installé entre chaque paire de
sites. A ses deux extrémités, un firewall peut être installé pour protéger l’accès au réseau des
instruisons externes. On peut donc dire qu’un VPN est une liaison en mode point à point des sites
distants d’une entreprise au moyen d’un tunnel sécurisé à travers l’Internet ou le réseau d’un
opérateur télécom.
Soit une entreprise congolaise qui a une représentation en France (Paris) et en Belgique
(Bruxelles). Chaque représentation dispose d’un réseau local. L’entreprise souhaite interconnecter
les différents sites pour implémenter un Intranet.
➢ Tunnel Kinshasa-Bruxelles ;
➢ Tunnel Kinshasa-Paris ;
➢ Tunnel Bruxelles-Paris.
b) Protocoles
Le VPN correspond à une interconnexion des LAN d’une entreprise par une technique de
« tunnels ». Le protocole utilisé dans un tunnel permet au niveau du client VPN de crypter et de
décrypter les données envoyées au travers du tunnel. De même, du côté du serveur VPN (serveur à
accès distant), il exécute les deux fonctions de cryptage et de décryptage.
C’est sur Internet et les infrastructures IP que se sont développées les techniques de
« tunnel ». Il existe plusieurs protocoles de tunnelisation qui opèrent au niveau de la couche (2)
liaison de données :
➢ PPTP (Point to point Tunneling Protocol) est un protocole de niveau 2 développé par
Microsoft, 3Com, Ascend, US Robotics et ECI Telematics ;
➢ L2F (Layer Two Forwarding) est un protocole de niveau 2 développé par Cisco, Northern
Telecom et Shiva. Il est désormais quasi-obsolète ;
➢ L2TP (Layer Two Tunneling Protocol) est l’aboutissement des travaux de l’IETF (RTC 2661)
pour faire converger les fonctionnalités de PPTP et L2F. il s’agit ainsi d’un protocole de
niveau 2.
159
Le protocole fiable le plus utilisé au niveau 3 (couche réseau) est IP Sec (Internet
Protocol Security), issu des travaux de l’IETF, il permet de transporter des données chiffrées pour les
réseaux IP. D’autres solutions utilisent le protocole SSL (Secure Socket Layer) et TLS (Transport Layer
Security). Tous poursuivent un seul objectif : protéger les données par le chiffrement ou la
cryptographie et d’autres mécanismes de sécurité comme l’authentification et l’identification.
L’utilisateur devra lui-même mettre en place les divers protocoles de sécurité ou faire
appel à un spécialiste. Les constructeurs d’équipement réseau proposent des logiciels et matériels
VPN. Cisco système et Microsoft proposent des logiciels VPN qui intègrent IP Sec pour
l’authentification et divers paramètres de sécurités.
2. Tunneling sur les réseaux des opérateurs télécoms : Services des Réseaux à Valeur
Ajoutée (SRVA)
Les opérateurs télécoms proposent des liaisons entre les divers sites des entreprises par
de routeurs d’accès (edge router). Ils utilisent à cet effet un protocole de routage MPLS (Multiple
Protocole Label Switching), les utilisateurs ne doivent pas se soucier de la sécurité des données qui
est assuré par le SRVA.
Exemple de VPN
VPN d’accès
VPN Intranet
160
VPN Extranet
161
Chapitre 6 : Notions de sécurité des réseaux
162
Références bibliographiques
Breton Philipe, Histoire de l’informatique, Edition La Découverte, Paris, 1987, page 125.
Pierre Alain Goupille, Technologie des ordinateurs et des réseaux, 9e édition, Dunod.
163
Annexes
Section 5 : Les réseaux ISDN : Integrated Services Data Network (RNIS : Réseau
numérique à intégration des services)
164