Vous êtes sur la page 1sur 164

UNIVERSITE DE LUBUMBASHI

FACULTE DES SCIENCES


DEPARTEMENT DE MATH – INFO / UNILU

NOTES DE COURS DE RESEAUX INFORMATIQUES A L’USAGE DES ETUDIANTS


DE DEUXIEME CANDIDATURE EN SCIENCES INFORMATIQUES ET DEUXIEME
GRADUAT EN MATH-INFO

TITULAIRE : PROF.DR. KASORO MULENDA NATHANAEL

COLLABORATEUR : ASS. MUKENGE DESIRE

ANNEE ACADEMIQUE 2020-2021

1
OBJECTIFS DU COURS

L'objectif du cours d'Introduction aux réseaux est de donner des bases solides aux étudiants qui
souhaitent comprendre le monde des réseaux. Un monde aux évolutions spectaculaires qui englobe
aujourd'hui l'informatique, les télécommunications et l'audiovisuel.

PLAN DU COURS D’INTRODUCTION AUX RESEAUX INFORMATIQUES

Introduction
Chapitre 1 : Concepts fondamentaux
Chapitre 2 : Architectures réseaux et les modèles de référence
Chapitre 3 : Les réseaux locaux
Chapitre 4 : L’interconnexion des réseaux
Chapitre 6 : Notions de sécurité des réseaux

2
INTRODUCTION

La connexion des ordinateurs au moyen des lignes de télécommunication, à cette époque de la


globalisation de l’économie mondiale, présente le 21ème siècle, comme ère de la télématique, qui
est le mariage des télécommunications et de l’informatique.

En fait, il s’agit d’utiliser les moyens et les techniques de télécommunication pour rendre
l’informatique plus accessibles et disponible à tous les utilisateurs : appelée téléinformatique jadis ;
elle émerge aujourd’hui sous l’appellation télématique.

Pourquoi avoir des liaisons télématiques, des réseaux ? Que veut-on faire ?
Les premières applications faites et qui restent toujours à réaliser sont les transferts de fichiers :
« ftp » File Transfert Protocol (protocole internet) : pouvoir copier un fichier d’une machine à l’autre,
sans manipulation excessive, voire de manière automatisée (batch). « ftam » norme ISO de ftp. Eviter
les redondances. Faciliter les mises à jour. Exemple : fichiers de transactions ou compensations
bancaires.
La deuxième application est le partage de ressources : L’idée de base est de partager des
périphériques chers, partager d’espaces disques, de fichiers, partage de bases de données.
La troisième application est le lien à l’existence de réseau : Courrier électronique (e-mail), Internet
RFC (Request For Comments), Forum électronique (News), Tableau d’affichage électronique (news,
bulletin board).
La quatrième application est l’inter fonctionnement d’applications, de services : Une application peut
utiliser les ressources d’une ou plusieurs autres applications (serveurs de données) situés ailleurs.
Cette application réalise quand même, elle-même, certain calcul, fonction et affichage en local. Elle
peut elle-même être serveur pour d’autres applications. Exemple : WWW (World Wide Web).

Le problème majeur est de faire communiquer et travailler, ensemble, les différents éléments. C’est
la notion d’inter fonctionnement des services proposés ou requis par les différentes parties. C’est
aussi de se libérer des distances, de la géographie. Exemple : Déporter des terminaux, des
imprimantes, relier les personnes d’une entreprise, réseau local (LAN). C’est également de relier des
sites nationaux, internationaux (WAN). Exemples : Banques + agences, terminaux « monétiques »
(Exemple : caisse de supermarché, distributeur de billet), Validation loto dans un bureau de tabac.

Les réseaux sont donc partout autour de nous et même à l'intérieur de nous. Notre système nerveux
et notre système cardio-vasculaire sont des réseaux. Le schéma de grappe ci-contre présente
différents types de réseau. Remarquez les catégories : communications, transport, société, biologie,
services, etc.

La figure suivante montre les exemples des réseaux :

3
Figure 01 : Exemples de réseaux

4
HISTORIQUE

L’utilisation des réseaux informatiques n’est pas une technique nouvelle. On signale en 1951, la mise
en place par US AIR Force avec le concours de MIT du réseau SAGE (Semi-automatic Grounded
environnement), qui avait pour but d’organiser la défense aérienne de l’Amérique du Nord. Les
ordinateurs localisés à différents endroits étaient reliés grâce à des lignes téléphoniques.

Un second réseau informatique fut mis en place en 1964, il dérivait de la morphologie du premier,
mais il est d’usage civil : SABRE (Semi-Automatic Bussiness- Related environnement). Ce réseau avait
pour but d’assurer la réservation des places d’avion aux USA dans tous les bureaux de la compagnie
American Airlines. « Il s’agissait d’un ordinateur (doublé par une machine semblable) auquel étaient
reliés 1200 télétypes, répartis sur tout le territoire américain, par le biais des lignes téléphoniques. Il
était installé à New York. »

Pour Jacques Philip, la téléinformatique est le résultat de la synergie de l’industrie des


télécommunications datant de 1850 et de l’informatique née vers 1948. L’aboutissement de cette
synergie se situe vers 1960. Depuis cette époque « les techniques informatiques commencent à être
utilisées dans le monde des télécommunications » et d’autre part « les techniques de
télécommunications permettent d’accéder aux ressources informatiques distantes.»

Les réseaux informatiques ou réseaux de données sont apparus à la suite des applications
informatiques écrites pour les entreprises. Cependant, au moment où ces applications ont été
écrites, les entreprises possédaient des ordinateurs qui étaient des machines autonomes,
fonctionnant par elles-mêmes et indépendantes les unes des autres. On s'aperçut vite que cette
façon d'exploiter les entreprises n'était ni efficace ni rentable. Au début, l'adoption des ordinateurs
personnels par les entreprises a été plutôt lente. L'apparition de Lotus 1-2-3 et d'autres applications
conçues pour l'entreprise a favorisé la croissance rapide de l'industrie des ordinateurs personnels ou
PC.

Au tout début, une entreprise faisait l'acquisition d'ordinateurs en tant qu'appareils autonomes,
parfois reliés directement à une imprimante. Lorsque les membres du personnel ne possédant pas
d'imprimante désirant imprimer des documents, ils devaient copier les fichiers sur des disquettes, les
transporter et les charger sur le PC d'un ou d'une collègue et les imprimer à partir de cet ordinateur.
Cette version plutôt rudimentaire d'un réseau s'est fait connaître sous le nom de "réseau disquettes"
ou "Sneaker Net".

Figure 02 : Sneaker Net

5
Avec la croissance de l'entreprise, les désavantages du " réseau disquettes" sont vite devenus
évidents.

Les entreprises avaient donc besoin d'une solution qui apporte des réponses aux trois questions
suivantes :

✓ comment éviter la duplication de l'équipement et des ressources;


✓ comment communiquer efficacement;
✓ comment mettre en place et gérer un réseau.

La création de réseaux locaux est apparue comme l'une des premières solutions à ces problèmes. En
reliant tous les postes de travail, périphériques, terminaux et autres unités d'un immeuble, le réseau
local permettait aux entreprises qui utilisaient l'informatique de partager efficacement différents
éléments, dont les fichiers et les imprimantes.

Les entreprises ont pris conscience des sommes qu'elles pouvaient économiser et des gains de
productivité qu'elles pouvaient réaliser en utilisant la technologie du réseau. Elles ont commencé à
ajouter des réseaux et à étendre les réseaux existants presque aussi rapidement que l'apparition des
nouvelles technologies et des nouveaux produits de réseau le permettait. Par conséquent, au début
des années 1980, le réseau a connu une croissance phénoménale, mais ce développement était
chaotique à plusieurs points de vue.

Par conséquent, les entreprises se sont mises à investir dans les réseaux locaux. Le réseau local
permettait aux utilisateurs d'un service de transférer rapidement des fichiers dans le réseau de
manière électronique. Les imprimantes autonomes ont été remplacées par des imprimantes réseau
très rapides, partagées par l'ensemble d'un service. Mais même alors, le "réseau disquettes"
demeurait généralement la seule façon de partager des fichiers avec une personne d'un autre service
ou dans un autre réseau.

Figure 03 : Réseau avec imprimante réseau

Vers le milieu des années 1980, des problèmes sont apparus. Bon nombre des technologies de
réseau mises au point avaient été conçues à partir de différentes mises en œuvre matérielles et
logicielles. Par conséquent, beaucoup de ces nouvelles technologies de réseau étaient incompatibles.
Il devint donc de plus en plus difficile de faire communiquer les réseaux utilisant des spécifications
différentes.

Puis, avec la hausse de l'utilisation des ordinateurs en entreprise, même les réseaux locaux sont vite
devenus insuffisants. Dans un système de réseau local, chaque service ou entreprise peut être
comparé à une île.

6
Il fallait donc trouver une façon de faire circuler l'information rapidement et efficacement non plus
seulement à l'intérieur d'une entreprise mais aussi entre les entreprises. La solution du moment a
été de créer des réseaux métropolitains et des réseaux longue distance. Comme les réseaux longue
distance pouvaient relier des réseaux utilisateurs géographiquement éloignés, ils permettaient aux
entreprises de communiquer entre elles sur de grandes distances.

Les entreprises en croissance ont ouvert des bureaux de vente un peu partout dans le monde.
Chaque bureau possédait son propre réseau local, son matériel et son logiciel, ainsi que son
administrateur réseau. Chaque service fonctionnait de manière efficace, mais était isolé, du point de
vue électronique, de tous les autres services. Cette situation a souvent été une cause d'inefficacité à
l'échelle de l'entreprise, ainsi que les détails pour accéder à l'information devant être partagée.

Le besoin d'interconnecter les réseaux est apparu comme la solution aux trois problèmes suivants : la
duplication du matériel et des ressources, l'incapacité de communiquer avec quiconque en tout
temps et en tout lieu, ainsi que le manque de gestion des réseaux locaux. Ces problèmes se sont
transformés en occasion d'affaires pour les sociétés de développement de solutions d'interconnexion
de réseaux locaux et de réseaux longue distance.

7
CHAPITRE 1 : CONCEPTS FONDAMENTAUX

Section 1 : Réseaux de communication et traitement de l’information

Section 1.1. Définition de l’informatique

Le terme « informatique » est un néologisme construit à partir des mots « information » et «


automatique » par P. Dreyfus en 1962. Il s'agit donc d'une discipline qui concerne le traitement
automatique de l'information. La définition acceptée par l'Académie Française est la suivante :
"science du traitement rationnel, notamment par machines automatiques, de l'information
considérée comme le support des connaissances humaines et des communications dans les
domaines techniques, économiques et sociaux".

Section 1.2. Définition de la télématique

Le terme « télématique » a été inventé en 1977 par un espagnol, LUIS ARROYO, directeur
général de la société ENTEL.

Selon Robert 1944, la télématique est défini comme un « ensemble des techniques qui
combine les moyens de l’informatique avec ceux de la communication ». Et selon le même Robert,
la téléinformatique est définie comme étant une « informatique faisant appel à des moyens de
transmission à distance ».

Le mot télématique est une contraction des mots télécommunication et informatique, ce


néologisme a été créé par S. NORA et A. MINC en 1978 dans le rapport de l’informatisation de la
société française adressée à Monsieur Valéry Giscard d’Estaing, alors Président de la République
Française. Le terme américain « compunication » met l’accent sur les computers, alors que le terme
Français insiste sur les télécommunications.

Section 1.3. Définition d’un réseau informatique

Section 1.3.1. Définition d’un graphe

Un graphe G = (X,U) est déterminé par :

– un ensemble X = {𝑥1 , … , 𝑥𝑛 } dont les éléments sont appelés sommets ou nœuds (ce dernier terme
est plutôt dans le contexte des réseaux) ;
– un ensemble U = {𝑢1 , … , 𝑢𝑛 } du produit cartésien X × X dont les éléments sont appelés arcs.
Pour un arc u = (𝑥𝑖 , 𝑥𝑗 ), 𝑥𝑖 est l’extrémité initiale, 𝑥𝑗 l’extrémité finale (ou bien origine et destination).
L’arc u part de 𝑥𝑖 et arrive à 𝑥𝑗 .

Graphiquement, l’arc u se représente de la manière suivante (diagramme sagittal) :

Figure 1.1. Exemple d’un arc

Un arc u = (𝑥𝑖 , 𝑥𝑖 ) est appelé une boucle.

8
Un p-graphe est un graphe dans lequel il n’existe jamais plus de p arcs de la forme (i, j) entre
deux sommets quelconques.

Figure 1.2. : Exemple d’un 3-graphe et un 1-graphe

La première figure représente un 3-graphe et la deuxième figure un 1-graphe ou graphe


simplement.

Un graphe est dit symétrique ssi  𝑥𝑖 , 𝑥𝑗 ∈ X, ensemble de sommets (𝑥𝑖 , 𝑥𝑗 ) ∈ U  (𝑥𝑗 , 𝑥𝑖 ) ∈


U. Un graphe est dit asymétrique ssi  𝑥𝑖 , 𝑥𝑗 ∈ X, ensemble de sommets (𝑥𝑖 , 𝑥𝑗 ) ∈ U  (𝑥𝑖 , 𝑥𝑗 ) U.

Une chaîne est une séquence d’arcs telle que chaque arc ait une extrémité commune avec le
suivant. Un cycle est une chaîne qui contient au moins une arête, telle que toutes les arêtes de la
séquence sont différentes et dont les extrémités coïncident.

Exemple :

Figure 1.3. : Exemple de graphe avec chaines et cycles

u2, u5, u6,u4 constitue une chaîne et u4, u7, u6 constitue un cycle.

Un graphe G = (X,U) est dit graphe connexe si couples de sommet distincts i, j ∈ X ,  une
chaîne joignant i et j. Autrement dit, un graphe est connexe si l’on peut atteindre n’importe quel
sommet à partir d’un sommet quelconque en parcourant différentes arêtes.

Exemple

9
Figure 1.4. : Exemple de graphe connexe

G = (X,U) est un graphe connexe.

Un chemin de longueur q est une séquence de q arcs tels que l’extrémité initiale du suivant
coïncide avec l’extrémité terminale de l’arc précédent sauf l’extrémité initiale du chemin et
l’extrémité terminale du chemin.

Figure 1.5. : Exemple d’un chemin de longueur 4

Un circuit de longueur q est un chemin fermé (dont les 2 extrémités initiales et terminales)
coïncident.

Figure 1.6. : Exemple d’un circuit de longueur q

G = (X,U) est dit graphe fortement connexe si i, j  X, avec i  j,  un chemin les reliant.

Exemple d’un graphe fortement connexe d’ordre 3

Figure 1.7.

10
De manière générale, un graphe permet de représenter simplement la structure, les
connexions, les cheminements possibles d’un ensemble complexe comprenant un grand nombre de
situations, en exprimant les relations, les dépendances entre ses éléments (e.g., réseau de
communication, réseaux ferroviaire ou routier, arbre généalogique, diagramme de succession de
tâches en gestion de projet, ...). En plus de son existence purement mathématique, le graphe est
aussi une structure de données puissante pour l’informatique.

Section 1.3.2. Définition d’un réseau

Un réseau est un graphe connexe, sans boucle et asymétriques, possédant une entrée
et une sortie.

Section 1.3.3. Définition d’un réseau informatique

Un réseau informatique est un ensemble d’ordinateurs (ou de périphériques)


autonomes connectés entre eux et qui sont situés dans un certain domaine géographique.

Figure 1.8 : Exemple d’un réseau informatique

Les Réseaux informatiques sont nés du besoin de faire communiquer des terminaux
distants avec un site central puis des ordinateurs entre eux.

Dans un premier temps ces communications étaient juste destinées aux transports de
données informatiques alors qu'aujourd'hui on se dirige plutôt vers des réseaux qui intègrent à la fois
des données mais en plus, la parole, et la vidéo.

Station de travail : On appelle station de travail toute machine capable d’envoyer des
données vers les réseaux (PC, MAC, SUN Terminal X, …).

11
Figure 1.9. : Exemple de station de travail

Nœud : C’est une station de travail, une imprimante, un serveur ou toute entité pouvant
être adressée par un numéro unique.

Serveur : Dépositaire centrale d’une fonction spécifique : service de base de données,


de calcul, de fichier, mail, …

Paquet : C’est la plus petite unité d’information pouvant être envoyé sur le réseau.

Un paquet contient en général l’adresse de l’émetteur, l’adresse du récepteur et les


données à transmettre.

Topologie : Organisation physique et logique d’un réseau. L’organisation physique


concerne la façon dont les machines sont connectées (Bus, Anneau, Étoile ….). La topologie logique
montre comment les informations circulent sur les réseaux (diffusion ou point à point).

Un type de réseau est défini par la distance entre les processeurs et suivant leur
localisation. Ainsi, Andrew TANENBAUM a présenté la classification suivante des réseaux.

Type de réseau Distance entre Localisation des


processeurs processeurs
Réseau Local 10 mètres Une salle
100 mètres Un immeuble
1 Kilomètres Un Campus
Réseau longue 10 Kilomètres Une Ville
distance 100 Kilomètres Une région
1000 Kilomètres Un Continent
Interconnexion de 10000 Kilomètres La terre entière
réseaux longue distance

Tableau 1.1 : classification des réseaux

Section 1.4. Les autoroutes de l’information et la société de l’information

12
➢ Autoroutes de l’information : Expression apparue vers les années 1980 et qui connut un
regain de popularité dans la campagne présidentielle américaine de 1992 par le co-listier de
Bill Clinton, Al Gore. En effet, une autoroute de l’information est un réseau composite qui
comprend : des lignes téléphoniques terrestres, des lignes hertziennes (téléphones sans fils),
des liaisons satellites, des liaisons câblées et fibres optiques et des lignes spécialisées dans le
transfert de données.
➢ Société de l’information : Concept né suite aux autoroutes de l’information et qui est la toile
de fond de la mondialisation des échanges et de l’économie. Ce concept a un impact sur la
nouvelle vision de l’entreprise. On parle ainsi de l’entreprise étendue, de l’entreprise ouverte
et communicante et de l’entreprise réseau. Ces novelles conceptions de l’entreprise visent
essentiellement l’adaptabilité dans un environnement où les opérations sont plus
décentralisés et même dématérialisées.

Section 1.5. E-Business et Commerce électronique

➢ Notion de E-business
➢ Le terme E-business désigne l’organisation de l’entreprise répondant aux nouvelles
technologies de l’information et de communication (NTIC) nécessités par une nouvelle
économie.
➢ Le E-business englobe le E-commerce et l’E-management. L’E-comme représente la nouvelle
organisation de la relation commerciale, avec la définition des produits et services, la
politique de prix et le marketing (segmentation, personnalisation). L’E-managment
représente la nouvelle organisation de l’entreprise et de ses relations avec ses partenaires,
ainsi que la gestion de la fonction de coût.
➢ Notion de commerce électronique
➢ Le commerce électronique « electronic commerce » consiste en une automatisation et en
une intégration « des procédures de traitement et d’échanges de toutes les informations
nécessaires pour traiter une affaire ». Il fonctionne grâce aux marchés électroniques appelés
aussi place de marché. Il existe cinq types de commerce électronique en se basant sur le type
d’intervenants (particuliers, organisations commerciales ou pouvoirs publics ou
administrations) :
➢ Business – to – business (B2B)
➢ Business – to – consumer (B2C)
➢ Business – to – administration (B2A)
➢ Consumer - to – administration (C2A)
➢ Consumer – to – consumer (C2C)
➢ Environnement technique pour le commerce électronique
➢ Le commerce électronique représente aujourd’hui la concrétisation de la dématérialisation
des échanges. Il s’appuie sur les réseaux informatiques, notamment l’Internet, l’Intranet ou
l’Extranet. La mise en œuvre du commerce électronique nécessitent certains services tels
que :
➢ Le service de répartition de l’information,
➢ Le service de recherche de l’information,
➢ Le service de production de l’information,
➢ L’outil de sélection des partenaires,
➢ L’outil d’indexation et de classification,

13
➢ Le service de gestion de transaction,
➢ Les services pour les individus,
➢ L’annuaire électronique,
➢ Le tiers de confiance,
➢ Les services de sécurité,
➢ Et les services d’interconnexion.

Section 1.6. L’entreprise virtuelle

Par entreprise virtuelle, on voit une combinaison d’entreprises et d’organisations qui


naît un jour et se défait aussitôt l’affaire conclue. Mais, elles se font et se défont par des moyens
virtuels, c'est-à-dire par des simulations informatiques en grandeur nature. Une fois que ces
simulations ont été approuvées par les partenaires de la combinaison virtuelle, elles passent à la
production réelle.

Section 2 : Concepts généraux des réseaux informatiques

Section 2.1. Système centralisé et système décentralisé

1. Qu'est ce qu'un système centralisé ?

Un système centralisé, appelé également serveur central, est un système qui regroupe
toutes les bases de données sur lequel se connectent les individus voulant accéder à une
information. On dénombre trois types de centralisation différents :

➢ la centralisation de données qui stocke l'ensemble des données du réseau informatique.


➢ la centralisation de direction qui gère les habilitations et droits (lecture, modification,
création, suppressions,...) sur telle machine ou tel individu à une telle période et à tel
endroit.
➢ la centralisation de communication. Il s'agit à l'origine de la principale organisation des
réseaux informatiques.

Avantages :

➢ Amélioration de l'intégrité des données (sauvegarde).


➢ Meilleure sécurisation des données.
➢ Accès sécurisé à distance.
➢ Gain de temps, de productivité.

Limites :

➢ Risques pour la sécurité si le réseau n'est pas correctement géré.


➢ Coupures de réseaux.
➢ Dépendance à la connectivité aux réseaux.
➢ Formation, coûts élevés.

2. Qu'est ce qu'un terminal passif? Les terminaux passifs ne possèdent pas de moyens
de traitement autonomes et se contentent :

14
➢ d'accepter ce que l'utilisateur frappe au clavier ou transmet comme ordre à la souris, de le
transmettre à un ordinateur (soit caractère par caractère, soit plus efficacement par blocs,
par exemple chaque fois que l'utilisateur presse la touche « Entrée »).
➢ d'imprimer les réponses de l'ordinateur ou de les afficher sur un écran (soit en mode
machine à écrire, soit en mode full-screen, que ce soit du texte pur ou des images). Bien que
bon marché et très simples à mettre en œuvre, les terminaux passifs ont souvent, à partir
des années 80, été remplacés par des ordinateurs personnels, voire par des stations de
travail, pour tous les travaux un peu élaborés. On a glissé petit à petit d'architectures
centralisées où tous les traitements étaient effectués de manière centralisée vers des
architectures distribuées

Figure 1.10 : Système centralisé

Le traitement de l’information dans les entreprises autour d’un site central (système
centralisé) a vu le jour vers les années 1960.
En 1970, les systèmes décentralisés ont vus le jour avec les mini-ordinateurs.
En 1980, les premiers réseaux locaux virent le jour avec la naissance des micro-
ordinateurs et permirent le partage de fichiers, les programmes et les périphériques.
En 1990, apparurent les systèmes clients – serveurs. Les micro-ordinateurs, les mini-
ordinateurs et les mainframes deviennent complémentaires.

Dans les mainframes, les réseaux (connectiques) consistaient principalement à relier les
terminaux à l’unité centrale. Cette connexion s’effectuait soit en étoile (star network), soit par un
réseau téléphonique (téléphone network) quand la distance était longue.

Les terminaux étaient des machines bêtes, seule l’unité centrale gardait l’intelligence et
la puissance arithmétique et logique. Cette type de connexion est appelé « front-end-networks » et
se présentaient sous plusieurs modèles dont : « star network », « front-end-networks with switching
capabilities» et « switched telephone network as a front-end-network ».

Section 2.2. Système fermé et Système ouvert

Un système est un système qui est constitué des matériels et logiciels dont le protocole
de fonctionnement est une propriété gardée sécrète par les constructeurs.

15
Un système ouvert est celui qui permet la connexion des matériels et logiciels provenant
des différents constructeurs. Cela était rendu possible par le fait que les constructeurs avaient publié
leurs protocoles pour permettre aux uns et aux autres d’harmoniser leurs composants.

Il était donc question à plusieurs organismes de normalisation de définir des règles


communes d’utilisation : les standards et les normes.

Section 2.3. : Connectivité et interopérabilité

Lorsque les systèmes sont ouverts, on parle alors de connectivité et d(interopérabilité.


En effet, ces types de systèmes permettent la connexion des matériels et logiciels provenant des
différents constructeurs.

La connectivité est la possibilité d’établir une connexion entre deux ou plusieurs


ordinateurs (systèmes informatiques), des réseaux informatiques ou systèmes de communication.
Elle s’opère au niveau du hardware (couches OSI inférieures : 1,2 et 3).

L’interopérabilité est la possibilité d’établir un dialogue (un échange d’informations)


entre deux ou plusieurs applications (systèmes informatiques) des réseaux informatiques ou
systèmes de communication. Cela est rendu possible par l’utilisation d’un protocole commun.
L’interopérabilité s’opère au niveau software (couches OSI supérieures : 5, 6 et 7).

Section 2.4. Communications en mode connecté et en mode non connecté

Une communication est dite en mode connectée lorsqu’elle est caractérisée par les trois
phases bien distinctes :

➢ La connexion qui nécessite certaines ressources et dans certains cas l’autorisation de


l’appelé,
➢ L’échange dont la durée peut varier, elle est inconnue à l’initialisation de la connexion,
➢ La déconnexion qui consacre la fin du dialogue

Comme exemples, nous pouvons citer une communication téléphonique, les


applications télématiques dans le cas de vidéoconférence….

Une communication en mode non connectée n’exige pas de connexion avec le


destinataire. Les données sont mises sur le support de transmission, c’est ce dernier qui prend la
charge de les faire parvenir à destination. Pour rendre une telle communication fiable, on peut y
ajouter une procédure d’acquittement, c'est-à-dire un accusé de réception qui confirme la bonne
réception des données envoyées.

Section 2.5. Normalisation des réseaux

La normalisation permet d’éviter le chaos qui peut être du à la multiplicité de


constructeurs de logiciels informatiques. La normalisation s’effectue à plusieurs niveaux :
international, européen, national et même professionnel.

2.5.1. Les organismes de normalisation et des télécommunications

Il existe plusieurs organismes internationaux de normalisation :

16
➢ ISO(International Organization for Standardisation : une organisation internationale non
gouvernementale dont le rôle est d’unifier et de coordonner la normalisation dans diverses
techniques.
➢ CEI ou IEC (Commission Electronique Internationale ou International Electrotechnical
Commission) : Cet organisme s’occupe de la normalisation des composants électriques et
électroniques permettant la transmission de l’information (alimentation électrique,
résistance).
➢ ITU (International Telecommunication Union : Elle s’occupe de la normalisation des
télécommunications. Elle s’appelait autrefois CCITT (Comité Consultatif international
téléphonique et télégraphique).
➢ JTC1 (Joint Technical Commitee 1) : C’est un comité technique réunissant les experts de l’ISO
et de la CEI, c’est la seule référence mondiale des normes des TIC (Technologie de
l’Information et de Communication).

2.5.2. Les associations professionnelles de normalisation

➢ IEEE(Institute of Electronic and Electricity Enginners) : né depuis 1970, cet organisme essaie
de normaliser les réseaux locaux en s’appuyant sur les couches 1 et 2 du modèle OSI. Ces
normes concernent tous les niveaux de transmission de l’information, du cablage jusqu’aux
modèles théoriques des réseaux. En 1980, un autre groupe de travail appelé 802 (soit l’année
et le mois de la création de ce groupe) est né pour la normalisation des réseaux locaux. Son
but est de développer un standard pour la communication entre deux systèmes, quelle que
soit l’architecture utilisées. En 1982, le groupe 802 se subdivise en sous-groupes de travail
spécialisés :
➢ 802.1. : groupe de travail sur l’architecture générale des réseaux,
➢ 802.2. : groupe de travail sur la gestion de transfert de données,
➢ 802.3. : groupe de travail sur le réseau bus CSMA/CD,
➢ 802.4. : groupe de travail sur le réseau bus à jeton,
➢ 802.5. : groupe de travail sur le réseau anneau à jeton
➢ IS ou ISOC (Internet Society)
➢ IS produit des documents appelés RFC (Request For Comments), gratuits, qui indiquent les
normes à respecter pour les communications sur le réseau Internet.
➢ Les normes sont produites par plusieurs groupes de travail :
➢ IETF (Internet Engeneering Task Force),
➢ IESSG(IETF Engeneering Steering Group),
➢ IAB(Internet Architecture Board),
➢ IANA(Internet Assigned Number Authority),
➢ IRTF(Internet Research Task Force),
➢ IRSG(Internet Research Steering Group).

2.5.3. Les organismes européens de normalisation

Il existe plusieurs organismes de normalisation à l’échelle européenne. CEN (Comité


Européen de Normalisation) et CENELEC (Comité Européen de Normalisation Electrotechnique) qui
sont orientés principalement vers la normalisation et les standards. ETSI (European

17
Telecommunication Standards Institute) et CEPT (Conférence Européenne des Postes et
Télécommunications) qui sont orientés vers les télécommunications.

2.5.4. Les organismes nationaux et continentaux de normalisation

Plusieurs pays ont des organismes nationaux et même continentaux qui transportent les
normes internationales sur le plan national, régional ou continental. Il s’agit :

➢ USA : ANSI (American National Standards Institute),


➢ Allemagne : DIN,
➢ France : AFNOR (Association Française de Normalisation),
➢ Belgique : IBN (Institut Belge de Normalisation),
➢ Grande Bretagne : BSI (British Standards Institute),
➢ Australie et Asie : AOW (Asia Oceanian Workshop),
➢ Europe du Nord : EWOS (European Workshop For Open Systems),
➢ Amérique du Nord : OIN (OSI Implementors Workshop)
➢ RDC : OCC (Office Congolais de Contrôle).

Section 2.6. Concepts de Delay et Throughtput

2.61. Notion de Delay (delai)

En communication, on parle de :

➢ Queuing delay , le délai d’attente entre le moment où l’on demande une communication et
le moment où s’établit la transmission.
➢ Transmission delay ou temps de transmission, le délai (en seconde) qui s’écoule entre le
début (begin transmission) et la fin de la transmission (end transmission) d’un message sur
une ligne physique).
➢ Throughput (débit d’information ou vitesse d’information) : c’est le nombre de bits qui
peuvent être transmis par seconde, il est noté D (bits/ seconde).

18
Section 3 : Concepts de base des télécommunications numériques

Section 3.1. L’Information et sa représentation dans les systèmes de transmission

3.1.1 Généralités

3.1.1.1 Les flux d’information

L’évolution des besoins et des applications informatiques conduit à l’acheminement,


dans un même réseau de données informatiques traditionnelles (texte), de la voix et de la vidéo.
Transporter sur un même système physique des flux d’information de natures différentes nécessite
que chacun d’eux ait une représentation physique identique et que le système de transmission ait la
capacité de prendre en compte les contraintes spécifiques à chaque type de flux (figure 1.11).

Figure 1.11: Le réseau et les différents flux d’informations

Afin de qualifier ces différents flux vis-à-vis du système de transmission, nous définirons
succinctement les caractéristiques essentielles d’un réseau de transmission. Ensuite, nous
examinerons le mode de représentation de ces informations. Enfin, nous appliquerons les résultats
aux données, à la voix et à l’image pour en déduire les contraintes de transfert spécifiques à chaque
type de flux.

3.1.1.2 Les caractéristiques des réseaux de transmission

a) Notion de débit binaire

Les systèmes de traitement de l’information emploient une logique à deux états dite «
binaire ». Pour y être traitée, l’information doit être traduite en symboles compréhensibles et
manipulables par ces systèmes. Selon le type d’information à transformer, l’opération qui consiste à
transformer les données en éléments binaires s’appelle le codage ou numérisation. On appelle débit
binaire (D) le nombre d’éléments binaires, ou nombre de bits, émis sur le support de transmission
pendant une unité de temps. Le débit binaire est généralement la grandeur utilisée en premier pour
qualifier un système de transmission ; il s’exprime par la relation :

19
V
D=
t ,

Avec, D (débit) en bits2 par seconde (bit/s),

V volume à transmettre exprimé en bits,

t durée de la transmission en seconde.

N.B.

L’unité officielle de débit est le bit/s (invariable). L’abréviation bps pouvant être
confondue avec byte par seconde ne sera pas utilisée dans cet ouvrage. Rappelons que le terme bit
provient de la contraction des termes « binary digit ».

Le débit binaire mesure le nombre d’éléments binaires transitant sur le canal de


transmission pendant l’unité de temps (figure 1.12).

Figure 1.12 : La schématisation d’un système de transmission

b) Notion de rapport signal sur bruit

Durant la transmission, les signaux électriques peuvent être perturbés par des
phénomènes électriques ou électromagnétiques d’origine externe désignés sous le terme générique
de bruit. Le bruit est un phénomène qui dénature le signal et qui est susceptible d’introduire des
erreurs d’interprétation du signal reçu (figure 1.13).

Figure 1.13 : le signal pollué par le bruit

20
Les capacités de transport d’information (débit) sont directement liées au rapport entre
la puissance du signal utile et celle du signal de bruit. Ce rapport, appelé rapport signal sur bruit
(SNR, Signal Noise Ratio que nous noterons S/N), s’exprime en dB (décibel ), formule dans laquelle S
représente la puissance électrique du signal transmis et N la puissance du signal parasite ou bruit
affectant le canal de transmission :

S = 10 log 10 ( S / N )(en puissance )


N dB

N.B.

Le décibel ou dB (10e du Bel) est une unité logarithmique sans dimension. Elle exprime
le rapport entre deux grandeurs de même nature. Le rapport signal/bruit peut aussi s’exprimer par le
rapport des tensions, la valeur est alors D S/NdB = 20 log10 (S/N)(en tension)

c) Notion d’erreur et de taux d’erreur

Les phénomènes parasites (bruit) perturbent le canal de transmission et peuvent


affecter les informations en modifiant un ou plusieurs bits du message transmis, introduisant ainsi
des erreurs dans le message (figure 1.14).

Figure 1.14 : L’effet d’une erreur sur le train binaire

On appelle taux d’erreur binaire (Te ou BER, Bit Error Rate) le rapport du nombre de bits
reçus en erreur au nombre de bits total transmis.

Nombre de bits en erreur


Te =
Nombre de bits transmis
d) Notion de temps de transfert

Le temps de transfert, appelé aussi temps de transit ou temps de latence, mesure le


temps entre l’émission d’un bit, à l’entrée du réseau et sa réception en sortie de ce dernier. Ce temps
prend en compte le temps de propagation sur le ou les supports et le temps de traitement par les
éléments actifs du réseau (nœuds). Dans un réseau, le temps de transfert n’est pas une constante, il
varie en fonction de la charge du réseau. Cette variation est appelée gigue ou jitter. Le temps de
transfert conditionne le bon fonctionnement des applications interactives, sa variation le transfert
correct d’information comme la voix ou la vidéo.

e) Notion de spectre du signal

21
Le mathématicien français Joseph Fourier (1768-1830) a montré que tout signal
périodique de forme quelconque pouvait être décomposé en une somme de signaux élémentaires
sinusoïdaux (fondamental et harmoniques) superposée à une valeur moyenne (composante
continue) qui pouvait être nulle. L’ensemble de ces composantes forme le spectre du signal ou bande
de fréquence occupée par le signal (largeur de bande).

3.1.2. La Représentation de l’information

3.1.2.1. Les différents types d’information

Les informations peuvent être réparties en deux grandes catégories selon ce qu’elles
représentent et les transformations qu’elles subissent pour être traitées dans les systèmes
informatiques. On distingue :

– Les données discrètes, l’information correspond à l’assemblage d’une suite


d’éléments indépendants les uns des autres (suite discontinue de valeurs) et dénombrables
(ensemble fini). Par exemple, un texte est une association de mots eux-mêmes composés de lettres
(symboles élémentaires).

– Les données continues ou analogiques (figure 1.15) résultent de la variation continue


d’un phénomène physique : température, voix, image... Un capteur fournit une tension électrique
qui varie de manière analogue à l’amplitude du phénomène physique à analyser : signal analogique.
Dans un intervalle déterminé (bornes) aussi petit que possible, un signal analogique peut toujours
prendre une infinité de valeurs. Par exemple pour passer 10 ◦C à 11 ◦C, la température prend, entre
ces deux valeurs, une infinité de valeurs sans aucune discontinuité entre elles (fonction continue).

Figure 1.15 : Le signal analogique

Pour être traitées par des équipements informatiques, les informations doivent être
représentées par une valeur binaire (codage à la source). Le codage à la source est plus
spécifiquement appelé codage de l’information pour les informations discrètes et numérisation de
l’information pour les informations analogiques.

22
3.1.2.2 Le codage des informations

a) Définition

Coder l’information consiste à faire correspondre (bijection) à chaque symbole d’un


alphabet (élément à coder) une représentation binaire (mot code). L’ensemble des mots codes
constitue le code (figure 1.16). Ces informations peuvent aussi bien être un ensemble de commandes
d’une machine outil, des caractères alphanumériques... Seuls seront traités ici les codages
alphanumériques utilisés dans les systèmes de traitement de données. Ces codes peuvent contenir :

➢ Des chiffres de la numérotation usuelle [0..9] ;


➢ Des lettres de l’alphabet [a..z, A..Z] ;
➢ Des symboles nationaux [é, è,...] ;
➢ Des symboles de ponctuation [, ;:. ? ! ...] ;
➢ Des symboles semi graphiques [ ] ;
➢ Des commandes nécessaires au système [saut de ligne, saut de page, etc.]

Figure 1.16 : Le principe du codage des données

Le codage des différents états d’un système peut s’envisager selon deux approches. La
première, la plus simple, considère que chacun des états du système est équiprobable. La seconde
prend en compte la fréquence d’apparition d’un état. Ceci nous conduit à définir deux types de code
: les codes de longueur fixe et ceux de longueur variable.

b) Les codes de longueur fixe

Notion de quantité d’information

Chaque état du système est codé par un certain nombre de bits (n), appelé longueur du
code, longueur du mot code ou encore code à n moments. Ainsi,

– avec 1 bit, on peut coder 2 états (0,1)

– avec 2 bits 4 états (00, 01, 10, 11)

– avec 3 bits 8 états (000, 001, 010, 011, 100, 101, 110, 111)

D’une manière générale :

– avec n bits, on code 2 n états

Le nombre d’états pouvant être codés par un code de n bits s’appelle puissance
lexicographique du code que l’on note : P = 2n

23
En généralisant, le nombre de bits nécessaires pour coder P états est n, tel que :

2 (n – 1) < P ≤ 2 n

Soit, en se rappelant que le logarithme d’un nombre N est le nombre par lequel il faut
élever la base pour retrouver ce nombre (N = base log N ), par exemple, le logarithme de 8 à base 2 est
3 car 2 3 = 8 ; on peut alors écrire :

n = log2 P

Dans cette formule, le nombre de bits (n) représente la quantité d’information (Q) d’un
mot du code. Lorsque dans un système, tous les états sont équiprobables ou considérés comme tel,
la quantité d’information apportée par la connaissance d’un état est la même quel que soit l’état
connu ; le codage qui en résulte est alors dit à longueur fixe. L’information élémentaire est
représentée par deux valeurs équiprobables (0 ou 1, pile ou face...), la quantité d’information
apportée par la connaissance de l’un des états est :

Q = log2 2=1 shannon ou 1 bit.

La quantité d’information Q s’exprime en shannon ou plus simplement en bit. Le bit est


la quantité d’information qui correspond au lever de doute entre deux symboles équiprobables.
Lorsque tous les états ne sont pas équiprobables, la quantité d’information est d’autant plus grande
que la probabilité de réalisation de l’état est faible. Si p est la probabilité de réalisation de l’état P, la
quantité d’information apportée par la connaissance de P est :

Q = log2 1/p

c) Application

En supposant équiprobable l’apparition de chaque lettre, combien de bits sont


nécessaires pour coder toutes les lettres de l’alphabet et quelle est la quantité d’information
contenue dans la représentation codée d’une lettre ? Le nombre de bits nécessaires, pour coder P
valeurs, est donné par la relation :

2 (n–1) < P ≤ 2 n si P = 26 on a 2 4 < 26 ≤ 2 5

Soit un code de longueur 5 bits pour coder les 26 éléments. La quantité d’information
contenue dans un mot code est de 5 bits. Cependant, la quantité d’information apportée par la
connaissance d’un caractère n’est que de :

Q = log2 (1/p)

où p représente la probabilité d’apparition d’un symbole. Ici p = 1/26

Q = log2 (26) = 3,32 log10 (26) = 3,32 · 1,4149 = 4,69 shannons ou bits

Les principaux codes de longueur fixe

24
Les codes usuels utilisent cinq éléments (code Baudot), sept éléments (code ASCII
appelé aussi CCITT n ◦5 ou encore IA5) ou huit éléments (EBCDIC). Le code Baudot, code
télégraphique à cinq moments ou alphabet international n ◦2 ou encore CCITT n◦2, est utilisé dans le
réseau télex. Le code Baudot autorise 2 5 soit 32 caractères, ce qui est insuffisant pour représenter
toutes les lettres de l’alphabet (26), les chiffres (10) et les commandes (Fin de ligne...).

Deux caractères particuliers permettent la sélection de deux pages de codes soit au total
une potentialité de représentation de 60 caractères. Le code ASCII (figure 1.17), American Standard
Code for Information Interchange, dont la première version date de 1963, est le code générique des
télécommunications. Code à sept moments, il autorise 128 caractères (27 ). Les 32 premiers
symboles correspondent à des commandes utilisées dans certains protocoles de transmission pour
en contrôler l’exécution. La norme de base pré- voit des adaptations aux particularités nationales
(adaptation à la langue). Ce code, étendu à huit moments, constitue l’alphabet de base des micro-
ordinateurs de type PC.

Figure 1.17: Le code ASCII

25
Figure 1.17 : Le code ASCII (suite)

Le code EBCDIC, Extended Binary Coded Decimal Interchange Code, code à huit
moments, d’origine IBM, est utilisé dans les ordinateurs du constructeur. Le code EBCDIC a, aussi, été
adopté par d’autres constructeurs (notamment Bull) pour leurs calculateurs.

c) Les codes de longueur variable

Lorsque les états du système ne sont pas équiprobables, la quantité d’information


apportée par la connaissance d’un état est d’autant plus grande que cet état a une faible probabilité
de se réaliser. La quantité moyenne d’information apportée par la connaissance d’un état, appelée
entropie, est donnée par la relation :

où pi représente la probabilité d’apparition du symbole de rang i. L’entropie représente


la longueur optimale du codage des symboles du système. Déterminons la longueur optimale du
code (entropie) pour le système décrit par le tableau suivant. À des fins de simplicité, chaque état est
identifié par une lettre.

26
La longueur optimale du mot code est :

H = – (0,48 log2 0,48 + 0,21 log2 0,21 + 0,12 log2 0,12 + 0,08 log2 0,08 + 0,06 log2 0,06 +
0,05 log2 0,05)

H = – 3,32 [(0,48 log10 0,48 + 0,21 log10 0,21 + 0,12 log10 0,12 + 0,08 log10 0,08 + 0,06
log10 0,06 + 0,05 log10 0,05)]

H = 2,09 bits

Le codage optimal devrait conduire à construire un code dont la longueur moyenne


serait de 2,09 bit, alors que l’utilisation d’un code à longueur fixe nécessite 3 bits pour coder les six
états de ce système (2 2 < 6 ≤ 2 3 ). Il n’existe pas de code qui permette d’atteindre cette limite
théorique. Cependant, Huffman introduit en 1952 une méthode de codage (codage d’entropie) qui
prend en compte la fréquence d’occurrence des états et qui se rapproche de cette limite théorique.
À partir du tableau précédent, construisons le code de Huffman correspondant (figure ci-dessous) :

1. Dénombrez les différents états du système et créez la table des symboles.

2. Classez ces symboles par ordre des fréquences décroissantes (occurrence).

3. Réalisez des réductions successives en rassemblant les deux occurrences de plus


petite fréquence en une nouvelle occurrence.

4. Insérez la nouvelle occurrence obtenue dans la table et trier celle-ci à nouveau par
ordre décroissant.

5. Poursuivez les réductions jusqu’à ce qu’il n’y ait plus d’élément (répétition des étapes
3, 4, 5).

6. Construisez l’arbre binaire en reliant chaque occurrence à la racine.

7. Établissez le code en lisant l’arbre construit du sommet aux feuilles et en attribuant


par exemple la valeur 0 aux branches basses et 1 aux branches hautes.

Figure 1.18 : L’arbre d’Huffman

27
La longueur moyenne (Lmoy) du code est de : © D Lmoy = 0,48 · 1 + 0,21 · 2 + 0,12 · 3 +
0,08 · 4 + 0,06 · 5 + 0,05 · 5 = 2,13

Dans cet exemple, on peut remarquer qu’aucun des mots codes obtenus ne peut être
confondu avec le début d’un autre. Le codage est dit préfixé. Le codage de Huffman permet de
réduire le nombre de bits utilisés pour coder l’information. Dépendant du contexte, il impose, avant
la transmission, d’établir une convention (Huffman modifié, utilisé en télécopie groupe 3) ou de
transmettre, avant les données, le contenu de la table construite par l’émetteur sur un échantillon
ou sur la totalité des données à transférer. Du code ASCII à l’Unicode Le codage ASCII (7 bits) ou ISO-
646 ne permet de coder que 128 symboles ; il ne réserve que sept valeurs pour prendre en compte
les particularités nationales. L’internationalisation des communications, notamment avec Internet, a
mis au premier plan les problèmes de codage des textes et a révélé les insuffisances du codage ASCII.
Une première extension a été réalisée par la norme ISO-8859-x (8 bits). ISO-8859-x utilise les 128
premiers caractères du code ASCII (32 codes de commandes et 96 codes de caractères), le symbole x
renvoie vers des tables qui complètent le jeu originel autorisant ainsi les écritures à base de
caractères latins, cyrilliques, arabes, grecs et hébraïques. Le codage ISO-8859-x doit être préféré, sur
Internet, à tout autre code chaque fois que cela est possible. Le décodage d’un texte nécessite que le
destinataire connaisse et identifie le code utilisé. Ceci a conduit à définir un code unique sur 16 ou 32
bits permettant la représentation de pratiquement toutes les langues écrites du monde : l’Unicode
(16 bits) qui reprend les spécifications du code ISO 10646 UCS-2 (Universal Character Set).

3.1.2.3 La numérisation des informations

a) Principe

Numériser une grandeur analogique consiste à transformer la suite continue de valeurs


de la grandeur analogique en une suite de valeurs discrètes finies. À cet effet, on prélève, à des
instants significatifs, un échantillon du signal et on exprime son amplitude par rapport à une échelle
finie (quantification). À partir des valeurs transmises, le récepteur reconstitue le signal d’origine. Une
restitution fidèle du signal nécessite que soient définis : – un intervalle d’échantillonnage qui doit
être une constante du système (fréquence d’échantillonnage) ; – une amplitude de l’échelle de
quantification, celle-ci doit être suffisante pour reproduire la dynamique du signal (différence
d’amplitude entre la valeur la plus faible et la valeur la plus forte) ; – des mécanismes pour garantir
que le système de transmission respecte les intervalles temporels entre chaque échantillon. La figure
1.19 représente les différentes étapes de la numérisation du signal. À intervalle régulier (période
d’échantillonnage), on prélève une fraction du signal (échantillon). Puis, on fait correspondre à
l’amplitude de chaque échantillon une valeur discrète (quantification dite quantification scalaire) ;
cette valeur est ensuite transformée en valeur binaire (codification).

28
Figure 1.19 : La numérisation d’un signal analogique

Alors que le phénomène à quantifier varie de façon continue, la quantification définit


des valeurs en escalier dites « pas de quantification ». Aussi, quel que soit le nombre de niveaux
utilisés, une approximation est nécessaire ; celle-ci introduit une erreur dite erreur de quantification
ou bruit de quantification correspondant à la différence entre la valeur réelle de l’échantillon et la
valeur quantifiée. Pour reproduire correctement le signal à l’arrivée, le récepteur doit disposer d’un
minimum d’échantillons. Il existe donc une relation étroite entre la fréquence maximale des
variations du signal à discrétiser et le nombre d’échantillons à prélever. Soit un signal dont le spectre
(largeur de bande) est limité et dont la borne supérieure vaut Fmax, Shannon a montré que si Fe est la
fréquence d’échantillonnage, le spectre du signal échantillonné est le double de Fmax et est centré
autour de 1Fe, 2Fe... nFe. Par conséquent, pour éviter tout recouvrement de spectre (interférence), le
signal à échantillonner doit être borné (filtré) à une fréquence supérieure telle que Fmax soit
inférieure à la moitié de l’intervalle d’écartement des spectres (Fe). La figure 1.20 illustre cette
relation appelée relation de Shannon. On en déduit que la fréquence minimale d’échantillonnage
(fréquence de Nyquist) d’un signal doit être le double de la fréquence maximale du signal à
échantillonner.

Figure 1.20 : le spectre d’échantillonnage

Pour répondre à cette contrainte, la numérisation du signal sera toujours précédée


d’une calibration du spectre de fréquences. Cette opération est réalisée par un filtre qui élimine les
fréquences hautes (fig 1.21).

29
Figure 1.21 : La structure d’un convertisseur analogique/numérique

Une reproduction correcte nécessite aussi que le système de transmission respecte les
intervalles temporels entre chaque échantillon. Si le temps de transfert ou temps de latence varie
dans le réseau, le signal restitué n’est plus conforme au signal d’origine (figure 1.22).

Figure1.22 : influence de la gigue sur la restitution du signal

Les flux de données qui nécessitent une récurrence temporelle stricte (gigue nulle) sont
dits isochrones et également, par abus de langage, flux ou données temps réel. Application à la voix
Un canal téléphonique utilise une plage de fréquence ou largeur de bande s’étendant de 300 Hz à 3
400 Hz. Si, pour garantir un espace suffisant entre les différents sous-ensembles du spectre (voir
figure au dessus), on prend 4 000 Hz comme fréquence de coupure du filtre d’entrée, la fréquence
d’échantillonnage minimale est de :

Fe ≥ 2 · Fmax = 2 · 4 000 = 8 000 Hz

Soit 8 000 échantillons par seconde, ce qui correspond à prélever un échantillon toutes
les 125 μs (1/8 000). Pour une restitution correcte (dynamique6 et rapport signal sur bruit), la voix
devrait être quantifiée sur 12 bits (4 096 niveaux). Des contraintes de transmission en rapport avec le
débit conduisent à réduire cette bande. L’utilisation d’une loi de quantification logarithmique permet
de ramener la représentation numérique de la voix à 8 bits (7 bits pour l’amplitude et un bit de
signe), tout en conservant une qualité de reproduction similaire à celle obtenue avec une
quantification linéaire sur 12 bits. Cette opération dite de compression est différente en Europe (loi
A) et en Amérique du Nord (loi μ). En codant chaque échantillon sur 8 bits, il est nécessaire d’écouler
: 8 000 · 8 = 64 000 bits par seconde sur le lien, Ce qui correspond à un débit de 64 000 bit/s. Le
transport de la voix ayant été le premier transfert d’information réalisé, c’est naturellement lors de la
numérisation des réseaux que le débit de 64 kbit/s est devenu le débit unitaire de référence. Les
débits offerts par les réseaux numériques vont de 64 kbit/s à un multiple entier de 64 kbit/s.

30
b) Application à l’image vidéo

La voix est un phénomène vibratoire, l’oreille perçoit et interprète les variations de


pression successives. L’image est analysée globalement par l’œil alors qu’elle ne peut être transmise
et reproduite que séquentiellement. La discrétisation de l’image nécessite deux étapes : d’abord une
transformation espace/temps qui se concrétise par une analyse de celle-ci, ligne par ligne, puis une
décomposition de chaque ligne en points (pixel), enfin, la quantification de la valeur lumineuse du
point, valeur qui est transmise.

b.1. L’image monochrome

La reproduction d’une image nécessite l’analyse et la quantification de l’intensité


lumineuse, ou luminance, de chacun des points constituant l’image (échantillon). La figure ci dessous
schématise l’analyse de l’image et présente le signal électrique analogique résultant dit « signal de
luminance » et noté Y(t).

Figure 1.23: Le principe de l’analyse d’image

L’image est analysée de gauche à droite ligne par ligne (balayage horizontal) et de haut
en bas (balayage vertical). Pour garantir le synchronisme entre le système d’analyse de l’émetteur et
le système de reproduction du récepteur, une impulsion de synchronisation (synchronisation ligne)
est insérée entre deux lignes successives. À l’instar de la synchronisation ligne, un signal
(synchronisation verticale ou trame) réinitialise le positionnement du système de balayage pour
l’analyse d’une nouvelle image. Les commandes de déplacement, horizontal et vertical, s’exécutent
simultanément, de ce fait les lignes sont légèrement inclinées. L’ensemble des lignes constituant une
image constitue une trame. Lorsque l’analyse des lignes est réalisée de façon continue l’image est
dite progressive. Les paramètres de base d’un système de télévision sont donc :

➢ le format de l’image ;
➢ le nombre de lignes analysées par seconde, généralement appelée définition verticale de
l’image ;
➢ le nombre d’images analysées par seconde.

À l’origine, l’image de télévision a adopté le même format que l’image du cinéma, ce


format s’exprimant par le rapport entre la largeur de l’image et sa hauteur (image 4:3 ou 1,33). Plus
le nombre de lignes d’analyse est important, plus l’image restituée est fidèle. Cependant,
l’augmentation du nombre de lignes accroît la bande passante (débit) nécessaire à la transmission de
l’image. Le nombre de lignes est donc un compromis entre la qualité de l’image et les contraintes de
transmission. Le nombre de lignes a été défini pour qu’à distance normale de l’écran deux lignes
successives soient vues sous un angle inférieur à 1 minute d’angle. Actuellement, ce nombre est de

31
625 lignes en Europe (576 lignes utiles ou visibles) et de 525 lignes en Amérique du Nord et au Japon
(480 lignes visibles).

La persistance rétinienne moyenne est d’environ 0,1 seconde. Dans ces conditions, si le
temps entre l’illumination du premier point en haut à gauche et celle du dernier point en bas à droite
est inférieure à 0,1 seconde, l’œil verra une image et non pas un point. En conséquence, le nombre
d’images doit être d’au moins 10 images/s. Cependant, l’impression de mouvement fluide n’est
obtenue qu’à partir de 16 images/secondes (cinéma muet). Pour avoir une reproduction du son
correcte, le cinéma sonore a nécessité d’augmenter le nombre d’images et de le porter à 24
images/seconde (longueur physique du film pour l’empreinte sonore). Pour tenir compte d’éventuels
phénomènes stroboscopiques entre l’affichage de l’image et la tension dite de ronflement des
alimentations, en télévision, ce nombre a été fixé à 25 images/seconde en Europe et 30
images/seconde en Amérique. En télévision, compte tenu du système spécifique de reproduction
continue d’un point et non de l’affichage d’une image complète comme le cinéma, une reproduction
à 25 images/seconde provoque un effet de papillotement de l’image. Afin d’augmenter le nombre
d’images affichées sans augmenter la bande passante, l’image est analysée et reproduite en deux
trames successives. En Europe, la fréquence image est donc de 25 images/seconde et la fréquence
trames de 50 Hz (50 1∕ 2 images par seconde), la première trame analyse les lignes impaires, la
seconde les lignes paires. Ce système est dit à trames entrelacées (figure 1.24).

b.2. L’image colorée

Une image colorée peut être analysée selon trois couleurs dites primaires de longueur
d’onde (λ) déterminée. Pour reconstituer l’image d’origine, il suffit de superposer les trois images,
c’est la synthèse additive. La figure 1.25 représente le principe de la synthèse additive. Le dosage de
chacune des sources lumineuses permet de reproduire toutes les couleurs.

Figure 1.24: Le principe de l’analyse entrelacée

Chaque point de l’image est représenté par deux grandeurs, la luminance et la


chrominance. Ces grandeurs sont reliées entre elles par la relation :

Y = 0,3 R + 0,59 V + 0,11 B

où Y est la luminance (échelle des gris),

R l’intensité de la composante de lumière rouge,

32
V celle de la composante de lumière verte,

B celle de la composante de lumière bleue.

Figure 1.25

L’image est dite RVB ou RGB (Red, Green, Blue), du nom des trois couleurs primaires
rouge, vert, bleu. En télévision, pour assurer la compatibilité avec les téléviseurs monochromes, il
faut transmettre non seulement les informations de chrominance mais aussi celles de luminance
(échelle des gris). Par conséquent, l’information de luminance (Y) est transmise sans modification.
Compte tenu qu’il existe une relation mathématique entre la luminance et les trois fondamentales,
seules les informations de couleur rouge (R) et bleue (B) sont transmises ; l’information de couleur
verte8 (V) sera calculée par le récepteur :

Y = 0,3 R + 0,59 V + 0,11 B

d’où

V = [Y – (0,3 R + 0,11 B)] / 0,59

Les travaux de Bedford (mires de Bedford) ont mis en évidence que l’œil ne percevait
pas la couleur dans les détails. Dès lors, on peut se contenter d’une définition moindre pour
l’information couleur que pour l’information monochrome (noir et blanc). Plusieurs schémas de
réduction de la bande chrominance ont été adoptés, ceux-ci sont illustrés par la figure 1.26.

Figure 1.26 : le format de réduction de bande

33
Le format de base adoptée pour la télévision est le 4:2:2 (quatre échantillons de
luminance pour deux échantillons de chrominance horizontale et verticale). Le format 4:1:1 est plus
réducteur puisque la définition horizontale n’est que le quart de la définition verticale. Enfin, dans le
format dit 4:2:0, à l’instar du format 4:2:2 la définition horizontale de la chrominance est réduite de
moitié, mais aussi celle de chrominance verticale, puisque l’information de chrominance de la ligne N
et réutilisée pour la ligne N+1 (une seule ligne d’analyse de chrominance pour deux lignes
reproduites). Application à la télévision numérique Le standard d’une image de télévision numérique
au format européen (625 lignes, 25 Hz) est caractérisé par :

➢ le nombre de lignes utiles (visibles) par image fixé à 576 ;


➢ le nombre de points par ligne défini à 7209 ;
➢ le nombre d’images par seconde déterminé à 25 images (25 Hz). Ainsi, on transmet :
➢ 720 points par ligne pour le signal Y ;
➢ 360 points pour chacune des couleurs B et R.

Au total 1 440 échantillons élémentaires par ligne sont analysés. En se satisfaisant d’une
quantification sur 255 niveaux (8 bits, soit 16 millions de couleurs, plus que l’œil n’est capable d’en
discerner), le nombre de bits nécessaires à la reconstitution d’une image (576 lignes) est donc de :

N(bits) = 1 440 · 8 · 576 = 6 635 520 bits

À raison de 25 images par seconde (50 demi-images), il faut, pour transmettre une
image animée, un débit minimal de :

Dmin = 6 635 520 · 25 = 166 Mbit/s.

Ce débit, relativement important, a conduit à rechercher des méthodes de codage


particulières. Un groupe de travail commun à l’ISO et à la CEI (Commission électrotechnique
internationale), le Motion Picture Expert Group (MPEG), est chargé de définir les algorithmes
normalisés de compression d’images vidéo et du son associé.

c) Le codage de l’information de couleur

Les différents procédés de télévision couleur diffèrent essentiellement par le codage


adopté pour transmettre les informations de couleur. Le premier système public de télévision a été
mis au point aux États-Unis par le National Television Comitee d’où son nom de NTSC (National
Television System Comitee) Dans le système NTSC, les informations de couleur modulent en
amplitude deux sous-porteuses en quadrature. Le signal réellement émis est donc un vecteur dit
vecteur de chrominance (Uc) (figure 1.27).

34
Figure 1.27. Le codage de l’information de chrominance dan le système NTSC

Ce signal correspond à une modulation d’amplitude et à une modulation de phase.


Toute altération de la phase du signal durant la transmission altère les nuances de couleur. C’est le
principal défaut du système NTSC. Le système PAL (Phase Alternance Line), d’origine allemande
utilise le même procédé que le système NTSC, mais en corrige le principal défaut en alternant à
chaque ligne la phase des signaux de chrominance. De ce fait, les erreurs de couleur dues à l’erreur
de phase sur une ligne sont compensées par une erreur de couleur inverse sur la ligne suivante. Le
système de télévision couleur français, dû à Henri de France, procède différemment. Les signaux de
couleur sont émis successivement. Ainsi, par exemple, la ligne N correspond à l’émission des signaux
Dr, et la ligne N + 1 à celle des signaux Db. Les signaux Dr et Db étant nécessaires simultanément
pour reconstituer le signal Dv, lors de la réception de la ligne N, le signal est mis en mémoire durant
l’intervalle de temps d’une ligne, puis lors de la réception de la ligne suivante le signal Dv est
reconstitué à partir du signal reçu et du signal mémorisé précédemment et ainsi de suite. Le procédé
est séquentiel, il nécessite la mise en mémoire de l’information ligne d’où le nom de SECAM pour
SEquentiel Couleur A Mémoire. La figure 1.28 résume les caractéristiques des différents standards
de télévision.

Figure 1.28 : Synthèse des standards de télévision couleur

N.B. A l’origine, la fréquence trame du système de télévision américain était de 60 Hz. Lors de la
définition d’un système couleur, cette fréquence a été légèrement modifiée pour tenir compte
de la fréquence de la sous-porteuse chrominance.

c) Application à la vidéoconférence

➢ La vidéoconférence permet à un groupe de personnes d’entrer en communication. Selon le


type de moniteur vidéo utilisé, on distingue la visioconférence (écran d’ordinateur), la
vidéoconférence (moniteur dédié) ou la téléconférence (téléviseur). Le système assure la
transmission de l’image (vidéo) et du son. Les principaux standards sont :

35
➢ H.320 ou p*64 qui utilise le réseau téléphonique numérique en associant p canaux
téléphoniques, avec 1 ≤ p≤ 30. Le codage de la vidéo y est défini selon les recommandations
de l’avis H.261 et H.263 (plus efficace).
➢ H.323, pour la diffusion de flux multimédia sur des réseaux de transmission de données sans
qualité de service comme Internet. Ces standards définissent la pile protocolaire et les
modes de codage de l’image et du son. Le codage vidéo est celui défini par le CCIR 4:2:2 YUV
non entrelacé (progressif). Ce codage est un compromis entre les formats de télévision NTSC
et PAL. Pour s’adapter au débit du réseau, plusieurs formats dérivés de deux formats de base
ont été définis :
➢ CIF (Common Intermediate Format).
➢ QCIF (Quart-CIF).
➢ De même, en début de communication, le nombre d’images par seconde est négocié entre
les différents agents. La fréquence image est un sous-multiple de 30 : 30 Hz, 15 Hz, 10 Hz et
7,5 Hz. La figure 1.29 fournit les relations entre les formats d’image et leurs implémentations
dans les normes de vidéoconférence.

Figure 1.29: Synthèse des caractéristiques

Les informations vidéos représentent un volume de données important à transférer. Ainsi


hors la définition des formats d’image que nous venons d’étudier, les différents systèmes
mettent en œuvre des techniques de compression.

3.1.3 La compression de données

3.1.3.1 Généralités

Si on néglige le temps de propagation du message sur le support, le temps de


transmission ou temps de transfert d’un message a pour expression : Tt = Longueur du message en
bits / débit de la liaison Pour un même contenu sémantique, ce temps sera d’autant plus faible que la
longueur du message sera petite ou que le débit sera élevé. L’augmentation du débit se heurte à des
problèmes technologiques et de coûts. Il peut donc être intéressant de réduire la longueur du
message sans en altérer le contenu (la sémantique) : c’est la compression de données. Les
techniques de compression se répartissent en deux familles : les algorithmes réversibles ou sans
perte, dits aussi sans bruit, et les algorithmes irréversibles, dits avec perte. Les premiers restituent à
l’identique les données originelles. Ils s’appliquent aux données informatiques. Le taux de
compression obtenu est voisin de 2. Les seconds, dits aussi codes à réduction de bande, autorisent
des taux de compression pouvant atteindre plusieurs centaines au détriment de la fidélité de
restitution. Utilisés pour la voix, l’image et la vidéo, ils s’apparentent plus à des procédés de codage
qu’à des techniques de compression.

3.1.3.2 La quantification de la compression

36
La compression se quantifie selon trois grandeurs : le quotient de compression, le taux
de compression et le gain de compression.

Le quotient de compression (Q) exprime le rapport entre la taille des données non
compressées à la taille des données compressées

Taille avant compression


Q=
Taille après compression

Le taux de compression (T) est l’inverse du quotient de compression. T = 1/Q Enfin, le


gain de compression, exprime en % la réduction de la taille des données. G = (1 − T) × 100

3.1.3.3 La compression sans perte

Compression d’un ensemble fini de symboles équiprobables

Quand le nombre de symboles appartient à un ensemble fini, par exemple un catalogue


de produits, on peut substituer au symbole un code (référence du produit, code d’erreur...).

Compression de symboles non équiprobables

De nombreuses techniques permettent de réduire la taille de données quelconques. Les


trois principales sont :

– Le codage en longueur de plage comme le Run Length Encoding (RLE) qui consiste à
remplacer une suite de caractères identiques par le nombre d’occurrences de ce caractère. On
obtient des séquences du type : échappement/nombre/caractère, par exemple la séquence @10A
peut signifier, 10 A consécutifs. Ce codage, peu efficace, pour le texte est utilisé pour compresser les
images et les fichiers binaires, notamment par MacPaint (Apple). Ce codage n’est efficace que
lorsqu’une séquence de caractères comporte plus de deux caractères consécutifs différents. Aussi, si
le nombre de caractères similaires consécutifs est inférieur à trois, la suite de caractères différents
est identifiée (caractère de contrôle) et ne fait l’objet d’aucune compression.

– Le codage par substitution remplace une séquence de caractères prédéfinie par un


code. Le dictionnaire nécessaire au codage et au décodage est construit dynamiquement. Non
transmis, il est reconstitué en réception. Connu sous le nom de Lempel-Ziv-Welch (LZW), il est utilisé
dans les utilitaires de compression PKZIP, ARJ et dans les modems (V.42bis).

– Le codage d’entropie ou codage statistique attribue un mot code d’autant plus petit
que la probabilité d’apparition du symbole à coder dans le fichier est grande (exemple : le codage
d’Huffman). Nécessitant une lecture préalable du fichier et l’envoi du dictionnaire de codage, le code
de Huffman est peu efficace. Utilisé en télécopie G3, le code de Huffman modifié (HM) associe, à
partir d’un dictionnaire préconstitué, un mot binaire à une séquence de points.

3.1.3.4. Les codages à réduction de bande

Le codage à réduction de bande concerne le codage de la voix et de l’image. Il met à


profit les imperfections des organes d’interprétation humains pour réduire la quantité d’information
transmise tout en garantissant une reproduction correcte pour l’utilisateur final. Plus la réduction de

37
bande sera élevée, plus la restitution sera dégradée. L’objectif des procédés de codage consiste donc
en un compromis entre la réduction de bande passante nécessaire à la transmission et la qualité de
restitution. La réduction de bande envisageable ne dépend pas de la source, mais des imperfections
du système d’interprétation. L’homme étant plus sensible aux altérations du son qu’à celles de
l’image, les méthodes de codification de l’image autoriseront des réductions de bande plus
importantes que celles adoptées pour le son.

Le codage de la voix Les procédés de codage et de compression de la voix déclinent trois


techniques :

– Le codage MIC (Modulation par Impulsion et Codage ou PCM, Pulse Code Modulation)
qui utilise une quantification logarithmique.

– Les codages différentiels, codant non plus l’échantillon mais son écart par rapport à
l’échantillon précédent comme l’ADPCM (Adaptative Differential Pulse Code Modulation). Notons
cependant, que L’ADPCM64 autorise une bande de 7 kHz pour un débit de 64 kbit/s ; il peut être mis
en œuvre dans la téléphonie numérique sur RNIS (Réseau numérique à intégration de service).

– Des techniques plus élaborées reconstituent la voix par synthèse (CELP, Code Excited
Linear Prediction).

➢ Le codage MIC ou PCM

La numérisation de la voix selon le procédé MIC (Modulation par impulsion et codage ou


PCM, Pulse Code Modulation) est adoptée dans tous les réseaux téléphoniques. Cependant, une
reproduction correcte de la voix (dynamique et rapport signal sur bruit) nécessite au minimum une
quantification sur 12 bits (voir dans le § 1.2.3, Application à la voix). Cette quantification dite linéaire
introduit un rapport signal sur bruit d’autant plus défavorable que la valeur du signal est faible (figure
1.30). Maintenir un rapport signal sur bruit acceptable quels que soient le niveau de quantification et
la nécessité de réduire la bande ont conduit à adopter des lois de quantification non linéaires. Ces
lois attribuent pour une même variation d’amplitude du signal un nombre de niveaux de
quantification plus important aux faibles valeurs du signal qu’aux fortes (quantification
logarithmique).

Figure 1.30 : Amplitude du signal de voix et rapport sur bruit

Deux lois de quantification non linéaires sont utilisées :

➢ La loi μ utilisée en Amérique du Nord, Japon et Australie quantifie les échantillons sur un
espace linéaire de 14 bits, réduit à 8 bits.

38
➢ La loi A mise en œuvre dans le reste du monde correspond à une quantification linéaire sur
12 bits et à une réduction à 8 bits. Ces lois autorisent un codage sur 8 bits avec un rapport
signal sur bruit de 33 dB. La figure ci dessous représente la partie positive de la loi A. Celle-ci
divise l’espace de quantification en huit intervalles. Chaque intervalle de quantification (sauf
les deux premiers) est le double du précédent. À l’intérieur de chaque intervalle, on opère
une quantification linéaire sur 16 niveaux. Un échantillon est représenté par 8 bits (figure
1.31) :
➢ le premier indique la polarité du signal (P) ;
➢ les trois suivants identifient le segment de quantification (S) ;
➢ enfin, les quatre derniers représentent la valeur dans le segment (V).

Figure 1.31: La loi de codage A

➢ Le codage différentiel

Le MIC différentiel appelé aussi codage Delta Modulation (DM) ne code pas la valeur de
l’échantillon, mais sa différence par rapport au précédent. La figure 1.32 schématise le principe d’un
codeur différentiel à quantification linéaire constante. Le signal quantifié (i) est la différence entre le
signal d’entrée (x) et une valeur prédite. En effet, les différents échantillons étant fortement corrélés,
il est possible à partir de la variation des échantillons précédents (n – 1, n – 2...) de prédire la valeur
de l’échantillon n. Dans le principe de base de la figure ci dessous, la prédiction n’est que de 1, la
référence est le seul échantillon précédent.

Figure 1.32: Principe de codage différentiel

Si cette technique permet de réduire la bande nécessaire, on note figure ci dessus que
lorsque le pas de quantification est fixe, le système ne peut suivre les variations rapides du signal.
ADPCM (Adaptative Differential Pulse Code Modulation) ou MICDA (Modulation par impulsion et
codage diffé- rentiel et adaptatif) utilise une technique de quantification à pas variable proportionnel

39
à la variance du signal. Cette quantification est estimée, non pas sur la différence de valeur entre
l’échantillon précédent et l’échantillon courant, mais sur l’écart entre la valeur réelle de l’échantillon
et celle résultant de la prédiction de cette valeur par rapport à la variation de n échantillons
précédents. La figure 1.33 illustre ce principe.

Figure 1.33 :

Une variante de l’ADPCM, le SB-MICDA (Sous-bande - MICDA) permet d’augmenter la


bande passante du signal à numériser sans augmenter le débit d’un canal téléphonique. Le SB-MICDA
autorise une bande passante de 50 à 7 000 Hz. Cette bande est séparée en deux sous-bandes 50 à 4
000 Hz et 4 000 à 7 000 Hz. La bande inférieure, la plus riche en composante est quantifiée sur 4, 5
ou 6 bits et la bande supérieure sur 2 bits.

➢ Les codages par synthèse

Ce n’est pas le signal compressé qui est transmis mais la valeur des coefficients qui
permettront au décodeur, à partir d’un dictionnaire de sons, de reconstituer la voix par synthèse
vocale. À l’instar d’un instrument de musique à vent, le système vocal humain peut être assimilé à un
ensemble de tubes, évidemment plus complexe, excités par une onde sonore. Le principe de base
des algorithmes à excitation (CELP, Code Excited Linear Prediction) consiste à transmettre les
paramètres mathématiques qui permettront au récepteur de modéliser le système vocal de celui qui
parle et un index qui pointe dans un dictionnaire de séquences de voix préétablies appelées vecteurs.
Ce dictionnaire est commun à l’émetteur et au récepteur. Le dictionnaire comporte un ensemble de
vecteurs qui modélise le signal de parole. Le mécanisme consiste en une recherche en boucle fermée
le vecteur contenu dans le dictionnaire le plus proche du vecteur courant, le vecteur courant étant
prédit à partir de n échantillons précédents. La figure 1.34 illustre le principe, très simplifié, d’un
codeur CELP.

Figure 1.34: Principe d’un codeur CELP

40
Le CELP nécessite une puissance de calcul importante de l’ordre de 10 MIPS et introduit
un délai important, de l’ordre de 50 à 100 ms. Le CELP modélise la voix, il n’est donc pas adapté aux
autres transferts (fax, modem, signaux de numérotation DTMF12...). La première variante, LD-CELP
(Low Delay - CELP) a pour principal objectif de minimiser le délai, celui-ci n’est plus que de 2 ms. Le
débit obtenu est de 16 kbit/s. Le CS-ACELP (Conjugate Structure - Algebric CELP) conçu à l’origine
pour le transport de la voix en mode paquet (réseau IP, GSM...) opère sur des trames de parole de 10
ms (80 échantillons à 8 000 Hz). La durée de codage est de 15 ms en tenant compte du temps de
prétraitement de la trame suivante (look ahead). La figure 1.35 résume les principales normes
fondées sur la technique CELP.

Figure 1.35 : Tableau récapitulatif des principaux modes de codage

Mesure de la qualité sonore Les algorithmes de compression sont destructifs. En


l’absence d’instrument de mesure pour évaluer la qualité de la restitution sonore celle-ci est
directement appréciée par des observateurs humains.

L’appréciation donnée est donc très subjective. La qualité est exprimée en MOS (Mean
Opinion Score) sur une échelle de notes de 1 à 5 : 1 : mauvais, quelques problèmes d’intelligibilité ; 2
: médiocre, dégradation considérable, la voix à une tonalité de voix synthétique ; 3:passable,
dégradation perceptible, mais on reconnaît son interlocuteur ; 4 : bon, dégradation à peine
perceptible ; 5:excellent, pas de déformation perceptible. La figure 1.36 compare les différents
algorithmes de compression en fonction du débit qu’ils autorisent et de la qualité de restitution de la
parole. La norme G.711 est utilisée dans la téléphonie fixe traditionnelle. La norme G.729 est mise en
œuvre dans la voix sur IP, elle modélise la voix humaine par l’utilisation de filtres.

41
Figure 1.36 : Synthèse des principaux algorithmes de compression

➢ Le codage de l’image

d1. Généralités

Le développement d’applications multimédia, la télévision numérique et la vidéo


conférence sont autant d’utilisation de l’image qui nécessitent une forte compression pour mettre le
volume de données en adéquation avec les capacités de transfert des réseaux et celles de stockage
des calculateurs. Ceci conduit à rechercher des méthodes de codage autorisant des taux de
compression élevés tout en conservant une qualité d’image acceptable. Les méthodes définies
prennent en compte les spécificités de l’information transmise (forte corrélation spatiale et
temporelle des séquences vidéo), et mettent à profit les imperfections de la vision pour réduire la
quantité d’information à transmettre. Différentes techniques peuvent être mises en œuvre :

➢ la quantification scalaire qui n’attribue pas la même importance à chaque niveau du signal
transmis. En recherchant une répartition optimale des niveaux de quantification, on peut
réduire la bande nécessaire ;
➢ la quantification vectorielle (extension de la méthode précédente) qui opère une
quantification sur des blocs (redondance spatiale) ;
➢ les méthodes prédictives qui tentent, à partir de la valeur des points voisins, de déterminer la
valeur du point courant ;
➢ les méthodes à compensation de mouvements qui ne transmettent au temps t que la
différence entre l’image actuelle et l’image précédente (t – 1) ;
➢ la croissance rapide des puissances de calcul des machines modernes qui laisse prévoir un
avenir aux méthodes mathématiques (fractales, ondelettes).

Le codage d’images fixes a été défini par un groupe d’experts de la photographie le Joint
Photographic Expert Group (JPEG) en 1982. Leurs travaux ont servi de base au Moving Picture Expert
Group (MPEG) pour définir les normes de compression d’images animées (MPEG-1 novembre 1992,
MPEG-2 mars 1994, MPEG-4 fin 1998). Ces procédés de codage procèdent des principes précédents

42
et autorisent des images de qualité VHS (MPEG-1) et de qualité Télévision (720 × 480 à 30
images/seconde pour le système NTSC14 et 720 × 576 à 25 images/seconde pour le système PAL 15)
pour la norme MPEG-2. MPEG-216 dit de qualité broadcast est utilisé pour la diffusion d’émissions de
télévision numérique avec un débit compris entre 4 et 6 Mbit/s. MPEG-4 est essentiellement destiné
à la vidéoconférence, il autorise des débits inférieurs à 64 kbit/s. MPEG-4 sera utilisé dans la TNT
haute définition.

d2. Le codage d’images fixes (JPEG)

Le codage JPEG met à profit la forte redondance spatiale de l’image. L’image (figure
1.37) est décomposée en blocs de 8 × 8 pixels, chaque pixel de ce bloc présentant entre eux une
forte corrélation. Une réduction de bande importante est envisageable à condition de préserver un
pixel (en haut à gauche) qui servira de référence pour le décodage du bloc. La figure 1.38 illustre le
schéma de codage d’un bloc. Le signal d’entrée est transformé en blocs de 8 × 8 dans lequel chaque
pixel a été quantifié (quantification scalaire). À cette matrice (quantification vectorielle) est
appliquée une opération de transformation linéaire (DCT) permettant de réduire l’écart entre les
coefficients, voire d’en annuler certains sans que cette opération n’entraîne de distorsion
significative de l’image. La transformée en cosinus discrète (DCT, Discret Cosinus Transform) est une
opération mathématique, elle ne correspond nullement à une quelconque compression mais prépare
les données à une compression efficace en transformant l’information sur les pixels en une
information de variation d’un pixel à l’autre.

Figure 1.37: La décomposition de l’image en blocs

Figure 1.38: le schéma fonctionnel d’un codage JPEG

Le signal d’entrée vidéo est mis au format 4:2:0 et l’image est décomposée en blocs de 8
× 8 pixels. Chaque pixel est alors quantifié sur 8 bits. À chaque bloc est appliqué la fonction DCT, puis
les coefficients sont réduits par division de chaque terme par le terme de même indice d’une matrice
dite matrice de quantification. Les coefficients ainsi réduits sont lus en zigzag puis subissent une
compression sans perte du type longueur de plage (RLE) suivi d’un codage Huffman (figure 1.39). La
matrice de quantification peut être prédéterminée (système à débit variable) ou déterminée en
fonction d’un débit à atteindre (système à débit fixe).

43
Figure 1.39: L’illustration de la compression spatiale JPEG

d3. Le codage d’images animées (MPEG)

Image I ou image de référence

En cinématographie, le mouvement est restitué par la projection d’images successives.


Compte tenu du volume de données, même compressé, d’une image, ce schéma ne peut être
reproduit pour transmettre des images vidéo. Cependant, d’une image à l’autre les données ont peu
varié (redondance temporelle), il est donc envisageable de ne transmettre que la différence avec
l’image précédente. Ce principe, s’il semble simple, ne peut être appliqué strictement. En effet une
erreur dans l’image de référence se propagerait dans les images suivantes. Il est donc nécessaire
périodiquement de transmettre une image complète (compression JPEG). MPEG définit le codage
des images comprises entre deux images de références appelées images I (Intra Picture). Ces images
sont codées indépendamment du contexte, seul intervient leur contenu. Elles constituent des points
de référence à partir desquels les autres images sont construites (1.40).

Figure 1.40 : Principe d’un groupement d’images

44
Principe de la compensation de mouvement

Dans une séquence vidéo animée, si la vitesse de déplacement est faible vis-à-vis de la
fréquence des images, il y a peu de différence entre deux images successives. Il est alors
envisageable d’envoyer la différence entre l’image actuelle et l’image précédente (figure 1.41).

Figure 1.41: Principe du codage des images P (prédites)

Ainsi, le système décompose l’image en macroblocs et recherche dans l’image suivante


la position d’un macrobloc identique qui minimise les informations d’erreurs (vecteurs de
déplacement). Pour être valable, la différence ne doit pas être codée à partir de l’image réelle
précédente, mais à partir de l’image précédente telle que la reconstituera le décodeur. Cette
approche implique qu’un codeur vidéo comporte aussi un décodeur pour coder valablement la
compensation de mouvement. Les images ainsi construites sont dites images P (prédites, Predicted
Pictures). Le déplacement est évalué non pas sur un bloc mais sur un macrobloc (16 × 16 pixels). Les
données d’une image P constituent un ensemble de vecteurs décrivant la localisation des macroblocs
dans l’image de référence et la correction à apporter. La réduction de bande par rapport à une image
I est d’environ 50 %.

Figure 1.42 : Principe du codage des images B (bidirectionnelles

Une réduction plus importante peut être obtenue, en déduisant une image par
interpolation de la position d’un bloc entre deux images successives. Cependant, quand un objet se
déplace, il est possible de coder dans l’image suivante le déplacement de l’objet, mais il est
impossible de deviner la partie masquée qu’il a découverte en se déplaçant. Pour cela, MPEG utilise
un codage bidirectionnel. Les images bidirectionnelles ou Bidirectional Pictures (images B) sont
déduites non seulement de la précédente, mais aussi de la suivante (prédiction arrière et avant). Le
décodage correct d’une séquence vidéo nécessite donc plusieurs images. Cet ensemble unitaire
d’images forme un groupe d’images (GOP, Group Of Pictures). La figure ci dessous représente un

45
groupe d’images et les liens de codage entre les différentes images. Un GOP comprend entre dix et
quinze images.

Figure 1.43: Exemple de structure d’un groupement d’images (GOP)

Ce mode de codage implique un déséquencement dans la transmission des images et


donc un retard à la transmission et au décodage. Ce retard est sans importance, l’image vidéo
n’ayant aucune interactivité avec le spectateur. Structure du flux vidéo La figure ci-dessous
représente le flux vidéo associé à une séquence complète. On y remarquera particulièrement l’ordre
de présentation des images qui diffère de celui d’affichage.

Figure 1.44 : La description du flux vidéo

La figure 1.45 illustre la structure hiérarchique des informations d’image. Le GOP


correspond à une unité de codage, l’en-tête contient les informations d’horloge nécessaires à la
restitution des images (fréquence image, taille, débit binaire, matrices de quantification...). Le champ
image est une unité d’affichage ; son en-tête contient un numéro de séquence utilisé pour l’affichage
des images dans l’ordre de visualisation. La tranche (slice) est une unité de codage et de
resynchronisation du codeur ; l’en-tête précise la position de la tranche dans l’image et le nombre de
macroblocs contenus. La structure macrobloc correspond à une unité de traitement de la
compensation de mouvement. Le type de codage, les vecteurs déplacements... sont contenus dans
l’en-tête. Enfin le bloc, unité élémentaire correspond à l’unité de traitement de la DCT.

46
Figure 1.45: La structure hiérarchique d’un flux vidéo

Structure simplifiée d’un décodeur MPEG

Les informations contenues dans un flux MPEG permettent de reconstituer


complètement une séquence vidéo. La figure 1.46 représente la structure fonctionnelle d’un
décodeur MPEG. Après décodage et séparation des informations, le décodeur MPEG comporte trois
sous-systèmes :

Le sous-système de traitement des images, le sous-système de traitement du son


associé et enfin le sous-système de synchronisation.

Figure 1.46 : La structure fonctionnelle d’un décodeur MPEG

Le standard MPEG assure la synchronisation entre les flux vidéo et audio. Deux
paramètres sont définis : l’horloge de référence du système (SCR, System Clock Reference) et le
marquage temporel (PTS, Presentation Time Stamp). Une horloge système à 90 kHz assure le
marquage temporel ; elle est transmise dans le flux et codée sur 33 bits modulo 24 heures. Le
marquage temporel associé à chaque image vidéo (PTS) indique à quel moment celle-ci doit être
affichée. En cas de décalage, le système peut ignorer certaines images pour rattraper un retard
temporel.

3.1.4. La notion de qualité de service.

47
3.1.4.1. Les données et les contraintes de transmission

Les réseaux transportent des flux numériques et non des informations. Selon le type de
données les exigences en termes de débit (volume), de temporalité (temps de transfert et variation
de celui-ci) et fiabilité (taux d’erreur) diffèrent. Un système de transmission multimédia doit être
capable de garantir à chaque type de flux le respect de ses contraintes spécifiques. Ainsi, un transfert
de fichiers correspond à un flux binaire constant. Il requiert un débit relativement important mais est
très peu sensible au temps de transmission. Plus exigeantes en termes de temps de transfert
(interactivité), les applications informatiques de type conversationnel sont caractérisées par la
sporadicité des flux qu’elles soumettent au système de transmission. Moins sensibles aux erreurs, la
voix et la vidéo ont des exigences strictes en matière de débit (débit minimal garanti), de temps de
transfert et surtout de récurrence temporelle (gigue), elles sont qualifiées de données isochrones. La
compression opérée sur ces types de données engendre des flux variables. La figure 1.47 résume ces
différentes caractéristiques.

Figure 1.47 : Types de données et contraintes de transmission

3.1.4.2 Les classes de service

Garantir un transfert de données qui respecte les contraintes spécifiques à chaque type
de flux de données (transparence sémantique et/ou la transparence temporelle), c’est assurer à
celui-ci une certaine qualité de service ou QoS (Quality of Service). Il existe essentiellement deux
modes d’approche de la qualité de service. La première se contente d’augmenter la bande passante
du réseau, la seconde plus pragmatique consiste à gérer la bande passante en allouant à chaque flux
ce dont il a besoin. La qualité de service dans un réseau ne crée pas de bande passante, elle assure
un traitement différencié à un flux donné. La QoS et la réservation de ressource Dans un système à
bande passante limitée, les solutions adoptées sont toutes du deuxième type. Deux techniques
s’opposent, la première consiste à rechercher un chemin dans le réseau (circuit virtuel) qui satisfasse
les exigences du flux transmis (figure 1.48).

48
Figure 1.48 : Principe de la réservation des ressources dans un réseau

C’est l’approche traditionnelle des protocoles réseaux comme le Frame Relay et l’ATM18
(Asynchronous Transfer Mode). Compte tenu de la combinatoire possible entre les différents
éléments de qualité de service, ces derniers ont été regroupés en profils. C’est la notion de classe de
service (CoS, Classe of Service). Plusieurs classifications de CoS ont été définies. La classification
formulée par l’ATM Forum est la plus utilisée. Les classes de service se répartissent en deux
catégories, celles qui requièrent une qualité de service multiple (multiservice) comme les
applications voix et vidéo et celles de la qualité « données » dont les exigences sont moindres. Les
classes de service permettent à l’utilisateur de spécifier ses besoins (contrat de service). La figure
1.49 fournit une description succincte des différentes classes de service

Figure 1.49 : Les classes de service de l’ATM Forum

Dans les réseaux ATM et Frame Relay, la réservation des ressources par application est
peu utilisée dans les réseaux, elle nécessite des protocoles d’établissement de route complexes. On
préfère attribuer globalement une certaine QoS à une route, toutes les données transitant sur la
route établie subissant le même traitement (figure 1.50).

Figure 1.50 : La schématisation du traitement de la priorité dans un réseau

La QoS et la prioritisation des données

La notion de priorité consiste à marquer les flux en fonction d’un traitement à lui
appliquer. Chaque application se voit attribuer dynamiquement une partie de la bande passante en
fonction d’un niveau de priorité indiqué dans chaque élément de données. Si ce système a la faveur
des opérateurs car il simplifie la gestion du réseau, il présente l’inconvénient majeur de ne pas
préserver les flux déjà établis dans le réseau ce qui conduit généralement à un surdimensionnement
de ce dernier.

49
Section 3.2. La Transmission de données

3.2.1. Transmission de données

A. Système de communication

Selon les normes de CCITT (Comité Consultatif International des Téléphones et


Télégraphes), la communication entre les systèmes informatiques s’effectue suivant le schéma de la
figure 2.1. Trois éléments font partie de ce système :

1. Equipement Terminal de Traitement de Données ou Data Terminal Equipement


(ETTD ou DTE)

C’est un élément qui ne se connecte pas directement à la ligne de transmission. Il peut


s’agir d’un ordinateur, un terminal ou une imprimante.

2. Equipement de Terminaison de Circuit de Données ou Data Communication


Equipement (ETCD ou DCE)

Il assure la transmission des données ; Par exemple : le modem, le multiplexeur. Il


remplit deux fonctions principales :

➢ L’adaptation du signal de l’ETTD à la ligne (codage et modulation en émission, démodulation


et décodage à la réception) ;
➢ La gestion de la liaison (établissement, maintien et libération de la ligne).

3. La jonction

La jonction entre ces éléments est une interface physique entre un équipement
informatique et un réseau. Elle définit les caractéristiques de trois types d’interconnexion :

➢ Physique (description mécanique des connections) ;


➢ Electrique (représentation des bits, tension) ;
➢ Fonctionnelle (protocole d’échange entre ETTD et ETCD).

Figure 1.51 : Eléments de liaison entre systèmes informatiques

Voici comment se représente une liaison téléinformatique classique (en modulation) ci-
dessous :

50
Figure 1.52 : liaison téléinformatique classique (en modulation)

4. Les liaisons entre les stations

On peut distinguer trois types de liaisons de données.

a) Les liaisons point à point

Figure 1.53 : Liaison point à point

Elles sont utilisées principalement par les réseaux publics. Chaque station est commutée
avec une autre de façon individuelle.

b) Les liaisons multipoints et en boucle

Elles sont principalement utilisées par les réseaux locaux (privés). Une station primaire a
accès aux stations secondaires, et elles peuvent communiquer entre elles.

La liaison multipoint

Figure 1.54 : liaison multipoint

La liaison en boucle

51
Figure 1.55: liaison en boucle

B. Les procédures de transmission : les liaisons et les sens des échanges

B1. Sens de transmission

Pour communiquer des informations entre deux points, il existe différentes possibilités
pour le sens de transmission :

- Liaisons unidirectionnelles,

- Liaisons bidirectionnelles,

- Liaisons bidirectionnelles simultanées.

B.2. Liaison simplex ou unidirectionnelle

Dans ce type de liaison, les donnes ne circulent que dans un seul sens, c’est-à-dire de
l’émetteur au récepteur. C’est l’émetteur qui dirige la transmission. C’est le genre de liaison qui exige
entre un ordinateur et une imprimante ou entre une souris et un ordinateur.

Figure 1.56 : Liaison simplex

B.3. Liaisons Semi-duplex ou Half-duplex ou bidirectionnelle

La liaison bidirectionnelles ou à l’alternat ou semi-duplex ou half-duplex permet de faire


dialoguer l’émetteur et le récepteur à tour de rôle;

Dans ce type de liaison, les données circulent dans un sens ou dans l’autre, mais pas
simultanément. Chaque ETTD émet à son tour. Cela peut s »effectuer sur un même support physique
alternativement ou sur deux lignes physiques séparées. Cette technique permet d’exploiter toute la
capacité optimale d’une ligne.

52
Figure 1.57 : Liaison Half – duplex

B.4. Liaison full-duplex ou duplex intégrale

La liaison full-duplex ou bidirectionnelle simultanée ou duplex permet une transmission


simultanée dans les deux sens.

Dans ce type de liaison, les données circulent de façon bidirectionnelle et


simultanément. Chaque ETTD peut transmettre à tout moment. Cela est rendu possible par des
techniques qui permettent le partage de la bande passante d’un support comme le multiplexage.

Figure 1.58 : Liaison Full - duplex

C. Mode point à point ou multipoint

Dans le mode point à point, deux équipement distantes sont reliés directement par une
ligne de communication. Tandis que dans le mode multipoint, la ligne de communication est
partagée par plusieurs équipements.

Nous pouvons dire pour résumer la structure (topologie) des réseaux de communication
qu’il existe deux types de conception :

➢ Les canaux en mode point à point.


➢ Les canaux de diffusion.

C1. Les canaux en mode point à point

Ces réseaux contiennent de nombreux câbles ou lignes téléphoniques louées chacun


reliant deux nœuds du réseau (ou encore IMP Interface Message Processor). Si deux nœuds veulent
communiquer, ils peuvent le faire par l’intermédiaire d’autres nœuds. Dans ce cas les messages sont
acheminés de nœud en nœud dans leur intégralité. Si un nœud n’est pas libre, le message est
mémorisé puis réexpédiée à la libération du nœud.

53
=> Store and Forward (mode différé). L’interconnexion des nœuds entre eux est un des
problèmes les plus importants dans la conception des réseaux. Dans les réseaux locaux du type point
à point, on s’attache à réaliser des topologies symétriques, ce qui est en revanche totalement
impossible pour des réseaux point à point étendus.

Figure : 1.59

C2 : Les canaux de diffusion

Ces systèmes ont un seul réseau de communication partagé par toutes les machines
composant le réseau. L’information envoyée par une machine est reçue par toutes les autres. Une
adresse de destination contenue dans le message transmis précise le destinataire. Dés réception d’un
message, chaque machine teste l’adresse de destination et ignore le message si celui-ci ne lui est pas
destiné.

Figure : 1.60

54
Section 3.3. Les modes des transmissions : transmission parallèle et série

Dans le traitement de l’information sur ordinateur, le caractère est appelé : byte ou


octet. L’octet ou le byte comprend 8 bits. Le binary digit (0,1) est l’unité de l’information sur
l’ordinateur. Aussi les informations circulent dans l’ordinateur sous forme des bits.

Les réseaux informatiques se fondent sur la numérisation des informations, c'est à dire
la représentation des données par des suites de ‘ 0 ‘ et de ‘ 1 ‘. Ils englobent la transmission de ces
données, leur mémorisation dans des mémoires de stockage et enfin leur utilisation. La première
étape consiste donc à ramener les informations que nous voulons échanger à un ensemble
d’informations binaires à l’aide de techniques de codage. Pour cela, on utilise des codes, qui font
correspondre à chaque caractère une suite précise d’éléments binaires ou bit (abréviation
universellement reconnue de « binary digit »). La longueur du code va dépendre du nombre de
caractère que l’on veut représenter, on sais par exemple qu’avec deux éléments binaires, on peut
obtenir quatre configuration (00,01,10,11) susceptibles de coder quatre caractères. En généralisant
un code à ‘ n ' éléments binaires permet de représenter 2n caractères distincts. Plusieurs codes ont
été normalisés afin de rendre compatibles des équipements informatiques d’origines diverses. Les
principaux codes utilisés sont les suivants :

➢ Code ASCII (American Standard Code Information Interchange) : code à 7 bits, soit 128
caractères disponibles (le plus utilisé).
➢ Code EBCDIC (Extended Binary Coded Decimal Interchange Code) : est un code de longueur 8
d’origine IBM (International Business Machine) utilisé dans les ordinateurs du constructeur.
Ce code autorise jusqu'à 256 caractères.

Après l’étape de codage intervient l’étape de la transmission, c'est à dire l’envoi des
suites binaires de caractères vers l’utilisateur final des ces informations. Pour transmettre ces
informations binaires sur un canal de transmission, il est nécessaire de les transformer au préalable
en un signal électrique. La méthode la plus simple consiste à représenter l’élément binaire ‘ 0 ‘ par
une tension V0 , et l’élément binaire ‘1‘ par une tension V1, Le signal électrique ainsi obtenue prend la
forme d’une suite d’impulsion (signal rectangulaire) qui donne une correspondance directe entre les
informations binaires élémentaires (ou bits) et les impulsions les représentant. Un exemple est
illustré sur la figure suivante avec V0 = 0 et V1 > 0, représentant une suite d'impulsion représentant la
séquence d'information 10110101.

Figure 1.61 : Représentation de 10110101 sous d’impulsion

Le signal tel que cela est représenté par la figure ci-dessus est appelé signal tout ou rien
(généralement les signaux issus d’un ordinateur sont de ce type).

55
Les transmissions de signaux numériques peuvent être effectuées de deux manières :
série ou parallèle selon qu'elles sont faites via un seul ou plusieurs conducteurs.

Très longtemps la liaison série était la plus utilisées car elle ne nécessitait qu’un seul
conducteur. Puis dans les années 80, la transmission parallèle a détrôné la liaison série partout où il
était possible de multiplier les conducteurs pour obtenir des voies de communication plus large.
C’est efficace sur de courtes distances et c’est ce principe qui a été retenu pour les bus sur la carte
mère tels que le FSB ou le bus PCI. C’est aussi le cas des nappes IDE pour échanger les données avec
les disques et celui du port parallèle destiné à l’imprimante. Les communications séries étaient moins
performantes pour ce genre de liaisons rapides et à courtes distances.

Actuellement, les transmissions parallèles sont à leur tour sont dénigrées à cause de
problèmes d’interférences électromagnétiques entre les conducteurs disposés côte à côte. Et la
solution n’est autre que le retour à la liaison série, adaptée il est vrai pour pouvoir augmenter les
vitesses de transmission sans provoquer d’interférences ni y être sujettes. La liaison série se fait par
deux câbles appariés qui transmettent des signaux symétriques. Nous y reviendrons, en parlant des
câbles SATA, des ports USB ou des PCI express. Commençons par décrire ce que sont en principe les
transmissions série et parallèle.

3.3.1. Transmission parallèle

Une transmission est dite parallèle lorsque les 8 bits d’un même caractère sont transmis
simultanément (plusieurs communications simultanées). Cette simultanéité est rendue possible
grâce à l’utilisation des 8 canaux de transmission pour les données et un neuvième canal (canal de
parité, data valid clock, horloge), qui sert pour le contrôle d’émission (la réponse du succès de
l’émission est certifiée par un accusé de réception).

56
Figure 1.62 : Transmission parallèle

Ce mode de transmission tient sur des petites distances. Car, quand les distances
deviennent longues, les signaux s’atténuent et commencent à apparaitre des décalages dans les
délais d’arriver des différents bits d’un même caractère (byte, octet).

Bref, pour transférer des données entre deux équipements informatiques, il peut être
intéressant notamment lorsque ces équipements sont séparés par une courte distance, d’envisager
une transmission en parallèle (l’exemple le plus répandu d’un fonctionnement de ce type est celui du
câble parallèle qui relie un ordinateur et une imprimante), cela aura pour effet de réduire le délai de
transfert et d’avoir une grande vitesse de transmission (débit). Dans ce type de transmission, les bits
sont envoyés sur des fils métalliques distincts pour arriver ensemble à destination, par exemple pour
transmettre un octet, on émet huit signaux sur huit fils différents (voir figure). A l’intérieur d’un
ordinateur, les données sont manipulées sous une forme parallèle, l’unité de donnée la plus courante
est l’octet (bloc de 8 bits).

Ex : ethernet, ports COM1,

3.3.2. Transmission série

Etant donné que la transmission en parallèle n’était pas fiable sur des grandes distances,
on y à remédier par un autre mode de transmission dite en série.

Dans ce mode, les bits d’un octet (byte) sont transmis d’une manière séquentielle les
uns après les autres en n’utilisant qu’un seul canal qui sert non seulement de la transmission des
données, mais parfois du data valid clock (horloge), ce qui nécessite une "sérialisation" effectuée par
une logique de transmission dont la pièce maîtresse n'est autre qu'un registre à décalage dont le
fonctionnement est rythmé par une horloge. Lorsqu’on parme de sérialisation, Les informations à
envoyer sont transmises bit par bit sur l’unique ligne de transmission. Au lieu d'être envoyés
simultanément sur 8 fils parallèles, les 8 bits de l'octet à envoyer sont "sérialisés" par un registre à
décalage (shift register) et envoyés les uns à la suite des autres sur un seul conducteur. Le récepteur
reçoit les 8 bits qui se succèdent dans un autre registre où ils sont remis côte à côte ("dé-sérialisés")
pour reformer l'octet d'origine

57
Figure 1.63: transmission série

Une difficulté majeure de ce mode de transmission est liée à l'horloge ; en effet, il est
nécessaire d'employer une horloge d'émission et une horloge de réception qui doit fonctionner en
synchronisme parfait.

Ce mode de transmission transmet les bits d’un octet (byte) d’une manière séquentielle
les uns après les autres en n’utilisant qu’un seul canal qui sert non seulement de la transmission des
données, mais parfois du data valid clock (horloge).

Ex : imprimantes //, port LP1, bus d’ordinateurs

Pour réaliser une telle transmission, on ajoute aux deux ordinateurs communicants deux
interfaces de conversion des bits parallèles en série ou l’inverse. La première interface de conversion
(shift-out, registre de décalage) aligne les bits parallèle en série. La deuxième interface (shift in)
réorganise les bits série en parallèle.

On utilise deux canaux. Le premier canal transmet les bits mis en série, le deuxième
canal transmet le bit de contrôle (horloge). Il va sans dire que le délai de transmission des données
peut connaitre un décalage avec celui des bits de contrôle, ce qui entraine de synchronisation du
canal des données et de celui de contrôle (clock, horloge)

Pour remédier à ce problème de décalage de délai de propagation des signaux dans les
canaux, certaines méthodes de transmissions en séries utilisent un seul canal, dans lequel les bits de
données et de contrôle sont transmis. On parle de transmission en série avec multiplexage des
données et du contrôle (horloge).

3.3.3. Comparaison transmission série/parallèle

58
Figure 1.64 : Comparaison parallèle et série

Section 3.4. Transmission de l’information en bande de base et techniques de modems

L'information qui transite sur les réseaux de télécommunication consiste en messages


de types divers : textes, sons, images fixes ou animées, vidéo, etc.... La forme que revêt cette
information est commode pour une communication directe et classique (conversation, échange sur
papier, ....) lorsque les interlocuteurs sont en présence. Quand ils sont distants l'un de l'autre,
l'emploi des réseaux de télécommunication est une manière moderne de résoudre la transmission
d'informations. Toutefois, pour les nécessités du transport, la transmission d'un message nécessite
un encodage en signaux de type électrique ou électromagnétique :

Figure : 1.65 : encodage d’un message en signaux

L'émetteur et le récepteur sont, de nos jours, des ordinateurs. La voie de transmission


peut être une simple liaison directe entre émetteur et récepteur ou beaucoup plus complexe dans le
cadre d'un ou plusieurs réseaux de télécommunications. Les signaux sont les véhicules de transport
de l'information. Les signaux peuvent être analogiques ou numériques.

Figure : 1.66 : Signal analogique

59
Signaux analogiques : représentés par une grandeur physique variant de manière
continue

Figure : 1.67 : Signal numérique

Signaux numériques : représentés par une grandeur physique ne prenant qu'un certain
nombre de valeurs discrètes

3.4.1. A Transmission analogique et digitale

3.4.1.1. Transmission analogique

Dans la transmission analogique, les informations sont encodées suivant certaines


caractéristiques physiques telles que le voltage, la lumière, etc. du point de vue technique, la
transmission s’effectue sous forme d’une onde porteuse. Les données sont transportées par la
modification de l’une de ces caractéristiques (amplitude, fréquence, ou phase).

On distingue ainsi trois types de transmissions analogiques :

➢ Transmission par modulation d’amplitude de la porteuse ;


➢ Transmission par modulation de fréquence de la porteuse ;
➢ Transmission de phase de la porteuse.

En fait, à l’origine, les lignes de transmission étaient toutes analogiques alors que les
ordinateurs fonctionnaient depuis leur invention avec des informations numériques. Dès lors, quand
il fallait échanger des informations entre ordinateurs, le transport s’effectuait exclusivement sous
forme analogique.

La solution à ce problème était le MODEM (Modulation/DEModulation). A l’émission, il


convertissait les données numériques en signaux analogiques (ondes porteuse), c’était la
modulation. Et à la réception, il convertissait les signaux analogiques en données numériques (bits 0
ou 1), c’était la démodulation. Dans la transmission analogique, l’ETCD est un modem.

3.4.1.2. Transmission digitale

Dans la transmission numérique ou digitale, les informations sont encodées suivant des
valeurs binaires ou numériques ou 1.

Du point de vue technique, les informations numériques ne peuvent pas circuler sous
forme de 0 et de 1, il faut donc les encoder sous forme d’un signal possédant deux états, comme par
exemple :

60
➢ La différence de tension entre deux fils ;
➢ La présence ou l’absence de courant dans un fil ;
➢ La présence ou l’absence de la lumière ;
➢ Deux niveaux de tensions par rapport à la masse.

Cette conversion de l’information binaire sous forme d’un des signaux précédents
s’effectue par DCE (data communication de données) qu’on appelle souvent codeur de bande de
base (ou CODEC), d’où l’appellation de données qu’on appelle transmission en bande de base pour
designer la transmission digitale ou numérique.

Par exemple, le son et le mouvement sont des phénomènes quasiment continus. Pour
les reproduire, il faut les enregistrer sur un support et deux solutions s'offrent alors : soit on
enregistre le signal de façon continue, et c'est un enregistrement analogique ; soit on n'enregistre
que certaines valeurs de ce signal, et on parle alors de signal numérique. Le lecteur DVD et le lecteur
CD sont numériques, contrairement à leurs homologues respectifs le magnétoscope, l’électrophone.
Graphiquement, nous pouvons représenter les deux par la figure suivante :

Figure : 1.68 : Signaux analogique et numérique

Une courbe représentant un signal analogique à gauche, et son homologue numérique à


droite. Malgré une numérisation de qualité, un signal numérique est moins riche qu'un signal
analogique

3.4.1.3. Transmission en bande de base

La transmission en bande de base (base band) typique de la plupart des réseaux locaux,
consiste à transmettre directement les signaux numériques sur le support de transmission. La figure
suivante résume le principe de la transmission en bande de base.

Figure 1.69 : Transmission en bande de base

La transmission en bande de base est surtout utilisée sur des courtes distances pour
permettre d’obtenir des grands débits. Les données binaires codées par un signal numérique sont
directement transmises sur le support (câble par exemple). Un signal en bande de base ne subit pas
de transposition de fréquence, de même que la durée de chaque bit est constante.

61
Dans la figure 1.69 , le codeur bande de base, à essentiellement pour objet : De
transformer le signal numérique en un autre, à fin que le spectre du nouveau signal soit mieux
adapté aux caractéristiques du support de transmission (de bande passante en particulier) De
maintenir la synchronisation entre l’émetteur et le récepteur. Un tel procédé est simple et non
coûteux, mais demande des supports de transmission à grande bande passante.

Remarque

On appelle codage, l’opération qui fait correspondre à chaque caractère une


représentation binaire, on l’appelle codage à la source. On désigne par transcodage ou codage en
ligne l’opération qui consiste à représenter les suites binaires par un signal électrique mieux adapté à
la transmission. Cette transformation est réalisée par un codeur bande de base (figure ci-dessus),
d’où une possibilité de confusion.

Il existe différents systèmes de décodage qu’on peut classer en deux catégories :

➢ Le codage à deux niveaux (bivalence) : le signal peut prendre une valeur strictement négative
ou strictement positive (exemple : -5V, +5V) ;
➢ Le codage à trois niveaux (trivalence) : le signal peut prendre une valeur strictement
négative, nulle ou positive (exemple : -5V, 0v, +5V).
➢ Le codage le plus simple serait de faire correspondre au bit 1 un signal électrique de tension
n volts, et au bit 0 un signal de tension nulle.

Prenons à titre d’exemple le codage binaire C de valeur 110100010116. Un tel codage


peut entrainer plusieurs problèmes qui feront que le récepteur risque de ne pas reconnaitre les
données reçues :

➢ Si une suite binaire présente plusieurs 0 ou 1 consécutifs, le récepteur doit être parfaitement
synchronisé avec l’émetteur pour décoder les données reçues.
➢ Pour éviter ces problèmes, plusieurs codages ont été mis au point : le code NRZ, le code de
Manchester, le code de Manchester différentiel et le code Miller.

3.4.2. Les principaux codages des signaux en bande de base

La modulation par code est utilisée dans le cas d’une transmission en bande de base
(numérique). Le terme modulation est utilisé ici de façon abusive dans le langage courant parce qu’il
s’agit plutôt d’un codage.

Différents codage sont utilisés pour transmettre les données en bande de base :

3.4.2.1. Code NRZ

Le code No Return to Zéro (NRZ) solutionne le problème de l’absence du signal du


codage générique précèdent en bande de base sur le câble. Le bit 1 est codé par la tension +n volt et
le bit 0 par –n volt.

Le codage NRZ (Non Return to Zéro, non-retour à zéro) utilise une tension négative pour
représenter un ‘ 0 ‘ binaire, et une tension positive pour un ‘ 1 ‘ binaire22. Donc pour la suite de

62
données binaires 10011 par exemple, on trouve les signaux illustrés sur la figure ci-dessous
représentant ces données binaires codées en NRZ.

+nV

0V

-nV

Figure : 1.70. Le code NRZ

Un tel codage est mal adapté à un canal de transmission (sa puissance maximal est
concentré au voisinage des basses fréquences or les supports de transmissions coupent les très
basses fréquences défigurant ainsi le signal). De plus, de sérieux problèmes de synchronisation des
horloges sont à redouter, puisque le signal sera constant pour une longue suite de bits identiques.

Le code NRZI (No Return to Zéro Inverted) est similaire au code NRZ, mais les tensions
associées aux valeurs binaires sont inversées : 1 est codée par une tension négative et 0 par une
tension positive.

3.4.2.2. Code de Manchester

Le code Manchester est un code biphasé ou PE (Phase Encode), il spécifie que le bit 1
doit être codé par un passage de la tension de +n volts à –n volts et le bit 0 par le passage inverse. Ce
n’est donc plus la tension qui est importante, mais le passage de la différence de signal observé
entre le début et la fin du temps du clock (horloge).

Le codage Manchester consiste à remplacer les états des données par des fronts. Ces
fronts sont placés en milieu de bit. Il s’agit d’un codage bivalent.

Ce code solution le problème de détection des longues chaines de bits 0 ou 1.

Principe du code Manchester

Le principe de ce codage est de deviser la période de transmission de bit ‘ T ’ en deux


intervalles égaux, ainsi chaque période de transmission comporte une transition en son milieu, ce qui
facilite la synchronisation entre l’émetteur et le récepteur et le spectre du signal a été décalé vers les
hautes fréquences par rapport au signal NRZ, mais il s’étale sur une bande double du codage
précèdent. Le codage Manchester ou sa version Manchester différentiel est donc bien adapté à la
transmission sur un canal à large bande passante et il est utilisé dans la plupart des réseaux locaux et
notamment dans les réseaux locaux de la norme IEEE 802.3 (Ethernet).

Codage Manchester

Avec le codage Manchester (appelé aussi le codage biphasé), c’est le point où le signal
change qui représente la valeur de bit transmis. Un ‘ 0 ‘ binaire est représenté par une tension allant
de bas en haut, tandis que le ‘ 1 ‘ binaire est représenté par une tension allant du haut en bas. La
figure ci-dessous montre la même suite de bits (données binaires) que le codage précédant codée en
manchester.

63
+
nV

0V

Figure : 1.71.
- Codage Manchester
nV
Le codage Manchester nécessite un repérage des fils de ligne pour éviter de les croiser,
et donc d’avoir une réception complémentaires à l’émission, il faut donc soit : posséder une prise
non symétrique, soit utiliser le codage Manchester différentiel (ce codage a l’avantage d’être
indépendant de la polarité et ne nécessite aucun repérage des fils).

3.4.2.3. Code de Manchester différentiel

Dans ce codage, la transmission des données s’effectue toujours par l’intermédiaire des
fronts placés au milieu des bits. Cependant, le choix du front s’effectue en fonction du précédent.

Ainsi :

➢ Un état 0 produit un front identique au précédent (signaux en phase) ;


➢ Un état 1 produit un front inverse au précèdent (signaux en opposition phase).

Ce mode est utilisé dans les réseaux locaux de la norme IEEE 802.5 (token ring, anneau à
jeton).

Le codage Manchester différentiel tient compte du bit précèdent, comme illustre la


figure ci-dessous d’un exemple d’un codage de Manchester différentiel. Un ‘ 0 ‘ binaire est
représenté par un changement de tension au début de la transmission, et le ‘ 1 ‘ binaire est
représenté par l’absence de changement de tension au début de la transmission.

+nV

0V

- nV

Figure 1.72 : Codage Manchester Différentiel

Il existe une multitude de signaux en bande de base, leur différence se voit


essentiellement lorsque l’on étudie leur répartition de puissance en fonction de la fréquence (spectre
de puissance, obtenue par la transformée de Fourier), leur sensibilité au bruit et la facilité de
restitution du signal d’horloge. Chaque signal est adapté pour telle ou telle support de transmission.

64
3.4.2.4. Code Miller

Ce code est aussi appelé ‘’ Delay mode’’. Il est issu du code Manchester simple et
consiste à supprimer les fronts descendants du signal. Ce qui signifie qu’une transition apparait au
milieu de l’intervalle uniquement lorsque le bit est à 1.

3.4.2.5. Limitation de la transmission en bande de base

Les caractéristiques d’un support de transmission limitent la transmission en bande de


base. En effet, les signaux en bande de base sont sujets à une atténuation au fur et à mesure de la
distance parcourue, ce qui constitue le principal problème de la transmission en bande de base.
Cette atténuation du signal peut provenir des différentes causes (apparition de bruit
électromagnétique sur la ligne, affaiblissement du signal sur une grande distance et la perte de
certaines composantes du signal). Si le signal n’est pas régénéré très souvent, il prend une forme
quelconque, que le récepteur est incapable de comprendre (puisque le niveau logique haut, peut
être détecté comme niveau bas si son amplitude devient inférieur à une tension de seuil). Cette
méthode de transmission ne peut être utilisé que sur de très courtes distances, la distance maximale
d’utilisation dépend essentiellement de la qualité du support utilise, elle est de l’ordre de 5 Km. Sur
des distances plus longues, on utilise un signal qui oscille en permanence, nommée porteuse. Ce
signal est de forme sinusoïdale. Pour envoyer les données par-dessus ce signal continue, l’émetteur
modifie la porteuse de manière à refléter les informations à transmettre, ce type de modification de
la porteuse s’appelle modulation et ces techniques ont été en usage pour la radio, la télévision, le
téléphone, bien avant l’avènement des réseaux informatiques. On utilise le modem pour transformer
les données binaires en signal analogique qui sera émis sur le câble électrique.

3.4.3. Modem et méthodes de modulation

Pour mettre en œuvre l’opération de modulation on utilise (en amont du canal) un


organe appelée modulateur, à la sortie du canal on utilise un organe effectuant l’opération inverse
de la modulation (séparation du signal en bande de base de la porteuse), cette opération s’appelle
démodulation et l’organe qui l’effectue s’appelle démodulateur. Ces opérations de modulation et de
démodulation sont généralement mises en œuvre au sein d’un même organe physique appelé dans
ce cas MODEM (MOdulateur DEModulateur). On dit que le MODEM est la liaison entre le monde
numérique et le monde analogique.

3.4.3.1. Notion de signal

Quand un phénomène peut être représenté par une valeur continue, on le qualifie
d’analogique. Contrairement à la représentation numérique qui est discrète (0 ou 1). Un signal est
dit analogique si l’amplitude de la grandeur porteuse de l’information peut prendre une infinité de
valeurs dans un intervalle de temps donné.

La grandeur analogique est représentative d’un courant ou d’une tension. Un signal


analogique est représenté par une courbe sinusoïdale représenté par la fonction suivante :

p(t) = Ap sin(wp 𝑡 + p ), où

Ap est l’amplitude ;

65
Wp est la pulsation (avec wp = 2 𝜋 fp) ;

Fp est la fréquence de la porteuse, le nombre de périodes T ;

p est la phase de la porteuse (décalage de l’onde par rapport à l’origine)

Il existe plusieurs manières dont une porteuse analogique peut être modulée pour
représenter des données numériques :

3.4.3.2. Modulation d’amplitude

Figure1.73 : Exemple de modulation d’amplitude de la porteuse.

La modulation d’amplitude à tendance à être sensible aux bruits et n’est pas une
technique de modulation très efficace pour les réseaux informatiques, c’est cependant celle qui est
utilisé pour transmettre des données numériques sur fibre optique. Elle est parfois appelée
modulation par saut d’amplitude (en anglais ASK, Amplitude Shift Keying).

3.4.3.3. Modulation de fréquence

La modulation de fréquence consiste à modifier la fréquence de la porteuse pour


représenter les données.

Le cas le plus simple consiste à fixer deux valeurs f1 et f2 que peut prendre une
fréquence :

➢ Le bit 0 représente la fréquence f1 ;


➢ Le bit 1 représente la fréquence f2.

Une version plus élaborée utilise 4 valeurs de f, qui peuvent partager un même support
physique pour exploiter deux canaux de transmission. A ce niveau, la norme V21 définit des modems
full-duplex.

Par exemple, on associe une fréquence f0 pour un ‘ 0 ‘ binaire et la fréquence f1 pour un ‘


1 ‘ binaire. La figure ci-dessous montre un exemple de porteuse modulé en fréquence avec f1=2f0.

66
Figure 1.74 : Exemple de modulation de fréquence ou par saut de fréquence

La modulation de fréquence n’est pas aussi sujette aux erreurs que la modulation
d’amplitude. Elle est couramment employée dans les transmissions radio (radio FM, Frequency
Modulation) et la télédiffusion. Elle est parfois appelée modulation par saut de fréquence (en
anglais FSK, Frequency Shift Keying). Elle est définie par la norme V21 du CCITTI. Un seul des trois
paramètres est utilisé pour représenter l’état binaire : la fréquence f.

3.4.3.4. Modulation de phase

La modulation d’amplitude et de fréquence utilisent toutes les deux au moins une


période complète de la porteuse pour coder un ‘ 0 ‘ ou un ‘ 1 ‘ binaire. Or, si on peut coder plusieurs
bits pendant une seule période, le nombre de bits transmis par seconde en serait augmenté d’autant.
Cette possibilité à été implanté dans les réseaux informatiques grâce à la modulation de phase. Avec
cette technique, c’est la phase de la porteuse qui est modifiée de manière à représenter les données.
La modulation de phase est définie par la norme V22 du CCITT pour des valeurs logiques de 1 ou 2
bits par phase. Le paramètre utilisé pour représenter l’état binaire est la phase (p), qui peut
prendre une valeur 0° et 360° pour représenter une valeur logique :

➢ Le bit 0 représente la phase 1 ;


➢ Le bit 1 représente la phase 2.

On peut utiliser 4 phases différentes pour émettre les bits par 2, ce qui permet de
doubler le débit binaire sans augmenter la rapidité de la modulation.

La figure ci-après montre une porteuse avec quatre phases, on peut coder ainsi 2 bits à
chaque état. La modulation de phase est également appelée modulation par saut de phase (en
anglais PSK, Phase Shift Keying).

Figure 1.75 : Exemple de modulation de phase

67
3.4.3.5. Modulation hybride

Il est possible de combiner les différents types de modulation que nous venons de
présenter à fin de transmettre un nombre important de bits par secondes. Il est ainsi fréquent
d’utiliser à la fois une modulation d’amplitude et une modulation de phase.

Modulation par saut de phase et d’amplitude (norme V29)

La modulation par saut de phase et d’amplitude (PSK/AM : Phase Shift Key/Amplitude


Modulation) combine deux paramètres : la phase ((p) et l’amplitude (Ap). Ce qui permet d’obtenir
des débits binaires élevés et un taux d’erreurs faibles.

La norme V29 utilise 8 états de phase et 2 valeurs d’amplitude, ce qui permet un codage
de 16 valeurs logiques.

3.4.3.6. Remarque

Une autre fonction que le MODEM peut faire est d’adapter le signal au canal de
transmission en décalant la largeur de bande du signal de manière à la faire coïncider avec la bade
passante (éventuellement avec une sous bande) du canal, c’est pour cette raison la que la
modulation est appelée aussi transmission par transposition de fréquence. Ce décalage de largeur
de bande du signal peut être obtenu par les techniques de modulation que nous venons de voir.

3.4.3.7. Techniques des modems

Le modem est un dispositif qui permet d’utiliser une ligne physique en modulation et
démodulation. Il remplit les cinq fonctions suivantes :

➢ Modulation et démodulation : le modem permet la conversion des données numériques en


signaux analogiques et inversement ;
➢ Ajustement du signal analogique : le modem permet d’adapter le signal analogique au câble
pour maximiser l’utilisation de la bande passante et minimiser les risques de perte et
d’erreurs de données. Il y a des modems adaptés au réseau téléphonique commuté (RTC) ou
aux lignes spécialisées (LS) ;
➢ Gestion de la synchronisation, du récepteur avec l’émetteur : le mode synchrone ou
asynchrone dépendra du modem ;
➢ Gestion de la communication : la liaison peut être simplex, half-duplex, ou full-duplex ;
➢ Ouverture et fermeture de la connexion.

Le tableau ci-après présente les différentes normes des modems tel que définit au
départ par CCITT et depuis 1993 par UIT (Union Internationale des Télécommunications).

Norme Débit (bit/s) Synchrone/Asynchrone Half duplex/Full Réseaux


duplex utilisables
V22 1200 Synchrone/Asynchrone Duplex RTC/LS
V26 2400 Synchrone Duplex LS
V29 9600 Synchrone Duplex LS
V32 9600 Synchrone/Asynchrone Duplex RTC/LS
V32 14400 Synchrone Duplex RTC

68
bits /Asynchrone /LS
V33 Synchrone/Asynchrone Duplex LS
14400
V34 28800 Synchrone/Asynchrone Duplex RTC/LS
V34 33600 Synchrone/Asynchrone Semi-duplex ou RTC/LS
+ duplex
V90 56000/33600 Synchrone/Asynchrone Duplex RTC/LS
V92 56000/56000 Synchrone/Asynchrone Duplex RTC/LS
Tableau : Principales normes de modems

Section 3.5. Commutation et Multiplexage

3.5.1. Commutation

3.5.1.1. Principes de la commutation

Pour la communication entre usagers, la commutation est essentielle. Il est en effet


impensable de relier chaque usager à tous les autres. En effet, si l'on voulait relier n stations
directement à chacune d'elles, il faudrait établir n(n-1)/2 liaisons ce qui est impensable au niveau
planétaire.

Figure 1.76 : commutation

On est conduit logiquement à construire les réseaux à partir de nœuds de commutation.


Ces nœuds de commutation sont chargés d'acheminer dans la bonne direction les informations qu'ils
reçoivent. Cette fonctionnalité est appelée routage.

3.5.1.2. Types de commutation

En fait, la commutation peut se concevoir de manières différentes :

➢ commutation de circuits : elle consiste à réquisitionner, pour une communication, des


tronçons de réseau pour assurer une liaison de bout en bout ; les tronçons sont liés les uns
aux autres à chaque nœud de commutation ; la communication terminée, les tronçons sont
libérés et disponibles pour une nouvelle commutation. Cette méthode est bien connue en
téléphonie. Voir la figure 1.77 ci-dessous.

69
70
➢ commutation de messages : l'information à transmettre est découpée en messages ; les
messages circulent sur le réseau à manière du transport automobile. Chaque nœud de
commutation sert de routeur mais aussi d'hébergement des messages en situation
d'engorgement des tronçons du réseau. Ce mode de commutation a pratiquement disparu
au profit de la commutation de paquets. illustration

Figure 1.78 : Commutation de messages

➢ commutation de paquets : chaque message est découpé en paquets de petite taille qui sont
numérotés pour un réassemblage éventuel. Les paquets circulent dans le réseau et les
nœuds de commutation en effectuent le routage et l'hébergement. Sur un tronçon, les
paquets se suivent, même s'ils n'appartiennent pas au même message.

Figure 1.79 : commutation de paquets

➢ L'intérêt de la commutation de paquets sur la commutation de messages peut être rendu


évident par la figure ci-dessous ; on gagne du temps par la simultanéité de réception et de
transfert de paquets différents.

Figure 1.80 : intérêt de la commutation de paquets / messages

➢ Il existe deux types de commutation de paquets

71
➢ le circuit virtuel : tous les paquets d'un même message suivent le même chemin défini pour
chaque message ; la méthode est similaire à celle de la commutation de circuits.
➢ le datagramme : chaque paquet d'un message peut emprunter un chemin différent des
autres ; à l'arrivée, il faut réordonner les paquets du message car des paquets peuvent aller
plus vite que d'autres puisqu'empruntant des chemins différents.

3.5.2. Multiplexage

Le multiplexage a pour rôle de recevoir des données de plusieurs émetteurs par des
liaisons spécifiques, pour les transmettre toutes ensemble sur une liaison unique appelé aussi voie
composite (on dit que les données sont multiplexés). À l’autre extrémité de la liaison, il faut
effectuer la démarche inverse, c'est à dire récupérer à partir des informations arrivant sur la voie
composite, les données des différents utilisateurs, et les envoyer sur les bonnes voies de sortie, cette
tache nécessite un démultiplexeur. La technique du multiplexage est très utilisée dans les réseaux
d’ordinateurs et particulièrement dans le cas des réseaux étendus. Deux techniques de multiplexages
sont principalement utilisées : le multiplexage fréquentiel et le multiplexage temporel. Cependant on
parle aussi de multiplexage par le code et de multiplexage en longueur d’onde.

Le multiplexage consiste à partager une ligne physique de transmission pour mettre en


place plusieurs canaux de transmission ou pour permettre une communication bidirectionnelle c’est
le cas d’une liaison full duplex. Le multiplexage peut être utilisé en mode connections oriented ou
confectionnés.

On peut considérer par exemple trois terminaux (1, 2,3) localisés en un nœud A qui
doivent échanger des données avec trois ordinateurs localisés en un autre nœud B ) travers une
seule ligne physique A-B. Quand un terminal du nœud A veut communiquer avec un ordinateur du
nœud B, alors que d’autres machines veulent communiquer en même temps, ils doivent partager le
même support physique, c’est la technique de multiplexage.

3.5.2.1. Multiplexage de fréquence (fréquenciel ou spatial, (en anglais FDM, Frequency


Division Multiplexing)) : circuit switching

Il consiste à créer à l’intérieur d’une bande passante d’un support physique ‘câble),
plusieurs bandes de fréquence allouée statiquement. Les données à transporter s’adapteront à la
bande de fréquence et la division du support en plusieurs bandes de fréquence en fonction des
caractéristiques du support physique. On parle alors d’AMRF (accès multiple à répartition de
fréquence) ou de FDMA (Fréquence Division Multiple Access).

Ce multiplexage peut être utilisé dans les transmissions analogiques ou numériques.


Quand ce multiplexage est utilisé sur la fibre optique, on l’appelle multiplexage en longueur d’onde.

Un multiplexeur mélange les différents messages ; un démultiplexeur, à l'arrivée,


sépare, grâce à un filtrage en fréquence, les messages.

72
Figure 1.81 : Multiplexage de Fréquence

3.5.2.2. Multiplexage temporel : Packet switching

Le principe n’est plus ici de créer à l’intérieur d’une bande passante d’un support
plusieurs bandes de fréquence, mais d’en attribuer l’intégralité à chaque utilisateur pendant un
intervalle de temps. Le cycle de répartition de l’intervalle de temps à chaque utilisateur de la ligne
peut être statique ou dynamique. On parle alors de AMRT (Accès Multiple à Repartions dans la
Temps) ou de TDMA (Time Division Multiple Accès).

Dans le cas d’une allocation dynamique des intervalles de temps élémentaires, seuls les
utilisateurs signalant un besoin de transmission se verront octroyer une période de temps : c’est le
multiplexage temporel statistique.

Les données sont transportées sous forme des paquets et le support est alloué
dynamiquement en fonction des paquets à transporter. Ce type de multiplexage est bien adapté aux
réseaux à commutation de paquets. Le multiplexeur n'est autre qu'un mélangeur de paquets, le
démultiplexeur est un trieur de paquets. On peut le voir par la figure ci-après :

Figure 1.82 : Multiplexage Temporel

3.5.3. Autres techniques de multiplexage

3.5.3.1. Le multiplexage par code

L’accès multiple à répartition par code (AMRC) ou Code Division Multiple Access (CDMA)
est basé sur l’attribution d’un code à chaque station. Chaque terminal utilisera ainsi la totalité de la
bande passante pour sa transmission. Ce multiplexage est utilisé abondamment dans la téléphonie
cellulaire (IMT 2000 ou UMTS).

3.5.3.2. Le multiplexage en longueur d’onde

En transmission sur fibre optique, l’intérêt du multiplexage s'explique par le fait de


vouloir toujours transmettre plus d'information sur une fibre optique. Le principe général est simple

73
à comprendre : il consiste en fait à faire passer plusieurs informations sur un seul support de
transmission. A l'aide de ce principe simple, de larges économies sont possibles grâce à la réduction
des coûts d'installation et/ou d'exploitation. (Moins de câbles pour faire passer la même quantité
d'information).
Voici un schéma permettant d'illustrer le découpage en temps entre les différentes connexions :

Figure 1.83 : Découpage en temps entre les différentes connexions

Le MLO (Multiplexage en Longueur d’Onde) ou WDM (Wave Lenght Division


Multiplexage) permet de transporter sur une même fibre optique différentes longueurs d’ondes
correspondantes à différentes stations. En d’autres mots, Le WDM (Wavelength Division
Multiplexing) consiste à mélanger plusieurs signaux optiques sur une même fibre optique afin de
multiplier la bande passante de celle-ci.

Les signaux sont portés par des longueurs d'ondes différentes, et espacées assez largement afin de
ne pas interférer les unes avec les autres.

Ce procédé nécessite l'utilisation de matériel spécifique, en entrée : un multiplexeur; et


en sortie : un démultiplexeur.

Les informations importantes à retenir :

Allouer des fractions de la bande passante à chaque communication

Répartir les signaux dans un espace de fréquences (longueur d'onde)

Dans la version DWDM ‘dense), elle permet de disposer 40 à 80canaux de transmission


avec un débit total de 400gigabits par seconde sur une seule paire d’une fibre optique. Ce
multiplexage est intéressant pour le réseau internet qui toujours à besoin d’une bande passante
croissante.
Voici un schéma permettant d'illustrer le découpage en longueur d'onde entre les différentes
connexions :

74
Figure 1.84 : découpage en longueur d'onde entre les différentes connexions

Différents types de WDM existent : Coarse-WDM, Dense-WDM, Ultra-Dense-WDM...


La différence entre les modes réside principalement dans l'espacement des canaux optiques utilisés.
Voici un tableau détaillant les caractéristiques des modes WDM les plus répandus :

Figure 1.85 : les caractéristiques des modes WDM les plus répandus

3.5.4. Normes utilisées pour le multiplexage

Les normes Plesiochronous Digital Hierarchy (PDH) est un multiplexage de base qui se
présente sous plusieurs formes. Pour les européens, c’est E1 et pour les américains c’est T1.

Pour pallier aux imperfections de la technologie PDH, les européens ont développées la
norme DSH (Synchronous Digital Hierarchy). Et d’autre part, les américains ont développés la norme
SONET (Sychronous Optical Network).

Section 3.6. Transmission asynchrone et synchrone

Nous abordons maintenant la question de la chronologie de l’émission d’une suite de


données.

Dans une transmission série, le récepteur ne peut pas à priori distinguer les caractères
car les bits sont envoyés successivement. Ce qui pose un problème de synchronisation entre
l’émetteur et le récepteur. Deux techniques utilisées dans les modems permettent de solutionner ce
problème : la transmission synchrone et la transmission asynchrone.

3.6.1. Modem synchrone

Les bits sont transmis d’une façon régulière, sans séparation entre les caractères, parce
que l’émetteur et le récepteur sont cadencés à la même horloge et à la même vitesse. Pour cela un

75
signal d’horloge périodique de période T fonctionne pendant toute la durée de l’émission. La mise en
œuvre de la transmission synchrone est très complexe et s’effectue à coûts très élevé.

Elle permet la transmission de grande quantité d’informations. Les bits sont envoyés de
façon successive sans séparation entre chaque caractère, il est donc nécessaire d’insérer des
éléments de synchronisation. Dans ce cas, l’horloge est émise sur le support de transmission en
même temps que les données, ce qui permet facilement de synchroniser l’émetteur et le récepteur.

Figure 1.86 : Exemple d’un Modem Synchrone

3.6.2. Modem asynchrone

Les bits sont transmis dans un canal d’une façon irrégulière dans le temps. Comme par
exemple des caractères tapés sur un clavier, l’intervalle de temps entre deux caractères est aléatoire,
le début d’un caractère peut survenir à n’importe quel moment. Dans les communications entre
ordinateurs, comment procède alors un ordinateur expéditeur pour indiquer au destinataire où
commence et se termine un caractère particulier, s’il transmet d’une manière asynchrone ? La
réponse est donnée par les bits de départ et d’arrêt souvent désignés par leur appellation anglo-
saxonne de START (élément de départ) et de STOP (élément d’arrêt). Ces bits, sont en fait des
signaux encadrent ceux qui constituent un caractère, le bit de départ (START) indique le début d’un
caractère et celui ou ceux d’arrêt (STOP) – il peut y’en avoir ‘1’, ’1.5’ ou ‘2’ – marquent la fin de
caractère. Un octet transmis d’une façon asynchrone est illustré à la figure ci-dessous. La mise en
œuvre de la transmission asynchrone est très simple et peu couteuse. Mais elle réalise des débits
limités. Dans ce cas, l’horloge n’est pas transmise avec les données. Le récepteur doit se synchroniser
pour chaque donnée qui arrive.

Figure 1.87 : Exemple d’un Modem Asynchrone

Le protocole ‘’ Start –stop’’ utilisé dans les pots série des PCs, de certains terminaux et
du réseau télex international pour assurer une transmission asynchrone. Dans ce protocole, chaque
caractère est précédé d’une information indiquant le début de la transmission du caractère : le bit
START (information du début d’émission). Il est terminé par l’envoi d’une information de fin de
transmission : le bit STOP (il peut avoir plusieurs bits STOP).

76
3.6.4. Comparaison entre le mode synchrone et le mode asynchrone

Supposons qu’on a un bloc de données de 15000 octets à transmettre. L’efficacité d’un


mode de transmission est mesurée par le nombre de bits utiles transmis sur le nombre de bits
réellement émis. L’efficacité noté « Eff » est donnée par la relation suivante :

Eff = Nombre de bits de données / nombre de bits transmis


1500 ×8
L’efficacité dans le mode synchrone correspond : Eff = 1500 ×8=1

En mode asynchrone, il faut à chaque octet ajouter 1 bit de START et 2 bits de STOP,
1500 ×8
soit 11 bits pour 8 utiles. L’efficacité dans ces conditions est : Eff = =0,7.
1500 ×11

Conclusion : la redondance due aux bits START et STOP ajouté pour chaque octet dans la
transmission asynchrone, ne permet pas d’atteindre une grande capacité de transmission, et son
utilisation est limitée pour les systèmes de transmission à bas débit. Par contre le mode synchrone
permet des débits plus importants que le mode asynchrone. Les réseaux informatiques dépendent
de la transmission synchrone.

Section 3.7. Théorie de l’information

3.7.1. Généralités

3.7.1.1. Bande passante

Une bande passante est une bande de fréquences dans laquelle les signaux appliqués à
l’entrée d’un support de transmission gardent une puissance supérieure à un seuil donné après avoir
traversé le support. Le seuil fixé correspond à un rapport déterminé entre la puissance d’un signal
d’entrée et la puissance du signal à la sortie.

Les supports de transmission ont une bande passante limitée. Certains signaux s’y
propagent avec une faible atténuation et peuvent être reconnus à la sortie. D’autres ne parviennent
pas à traverser les supports, ils sont alors déformés et deviennent incompréhensibles à la sortie.

Un exemple serait celui d’un cours dispensé dans un local bien isolé, la leçon se déroule
correctement : la bande passante est bonne. Par contre, les cours dispensé dans un local mal conçu,
la leçon de l’enseignant est très mal écouté : la bande passante est mauvaise.

Du pont de vue technique, nous dirons qu’un support de transmission est toujours
imparfait : il ne laisse passer que certaines fréquences. L’intervalle des fréquences [f max – f min]
qu’il laisse passer est sa bande passante. C’est donc la plage des fréquences utilisables pour que les
signaux soient transmis sans erreur entre l’émetteur et le récepteur. La bande passante est notée W.
c »est la largeur d’une bande passante d’un support, elle s’exprime en hertz.

W= [fmax – fmin]

La largeur de la bande passante sera donc fonction de la qualité du support de


transmission utilisée (fibre optique, câble coaxiale, paire torsadée, etc.).

77
3.7.1.2. Vitesse de modulation (modulation speed)

Le nombre d’états successifs qu’un canal peut prendre par seconde est la vitesse de
modulation. Elle est notée Rm et exprimée en Baud.

Elle dépend des techniques de construction et des composants électromécaniques


employés pour réaliser un support de transmission.

Rm= 1/ Tm

Tm est le moment élémentaire, il s’exprime en seconde.

3.7.1.3. Loi de Nyquist

Cette loi stipule ce qui suit : si une ligne de transmission possède une largeur de bande
passante w, alors sa vitesse de modulation maximale est :

Rm max = 2 W

3.7.1.4 Théorème de Shannon

Si une ligne de transmission, une largeur de bande passante w, alors son débit binaire
maximal est :

Dmax = W log2 [1+S/B]

Ce débit s’exprime en bit par seconde.

3.7.2. Définitions

3.7.2.1. Valence d’une voie

Un codage associe une valeur physique (un signal électrique) à une valeur logique (une
donnée binaire). La valence est le nombre de valeurs que peut prendre l’état physique à un instant t.
la valence est généralement notée V.

3.7.2.2 Moment élémentaire

C’est la durée minimale pendant laquelle il est nécessaire d’émettre un signal électrique
sur le câble électrique pour qu’il puisse être reconnu par le récepteur. Il est noté Tm (en seconde).

3.7.2.3. Débit binaire ou débit d’information (transmission capacité or througput, voir


aussi la page 24 infra)

C’est le nombre de débit qui peuvent être transmis par seconde, il est noté D
(bits/seconde). La formule de Shannon permet de calculer la limite maximale d’un débit
d’information en fonction des caractéristiques d’un support physique.

3.7.2.4. Temps de transmission

Le temps de transmission (Tt) est le délai (en secondes) qui s’écoule entre le début et la
fin de la transmission d’un message sur une ligne physique (voir transmission Delay page 24suppra).

78
Tt = L/D

Où L=longueur en débit d’un message ;

D= débit binaire de la ligne.

Section 3.8. Détection et correction d’erreurs

3.8.1. Problématique :

Un support physique n’est jamais parfait ; c’est ce qui limite la bande passante suite aux
pertes et corruption des données. La trame reçue est parfois différente de la trame envoyée.

Indépendamment des supports de communication et des techniques de transmission


utilisés, des perturbations vont se produire entraînant des erreurs.

Dans ses conditions, la suite binaire reçue ne sera pas identique à la suite émise.

Figure 1.88 : Détection et correction d’erreurs

Comment B peut détecter l'occurrence d’une erreur ?

Comment B peut localiser une erreur ?

Comment B peut corriger une erreur ?

Il existe deux sortes de stratégies de protection contre les erreurs de transmission :

3.8.2. Détection d’erreurs

Le message envoyé est constitué du double du message initial.

79
Envoyer 10010011001001 au lieu de 1001001

Le récepteur détecte une erreur si les exemplaires ne sont pas identiques.

Une méthode de détection devra donc permettre de constater qu’une erreur est
apparue dans la trame. Son but est de signaler que la trame reçue est différente de la trame envoyée
est donc de demander à l’émetteur la retransmission de la trame. Elle ne fournit aucun détail sur le
nombre d’erreurs.

Parmi les méthodes de détection on peut citer :

➢ Bit de parité ;
➢ Code CRC (Code de Redondance Cyclique) certains méthodes de détection contiennent aussi
des fonctions de correction.

3.8.3. Correction d’erreurs

Le message envoyé est constitué du triple du message initial.

Envoyer 100100110010011001001 au lieu de 1001001

Le message correct correspond aux 2 exemples identiques.

Une méthode de correction transmet en plus des données, toutes les informations
nécessaires pour reconstituer les données pour une retransmission. Une telle méthode est exigée
lorsque les lignes de transmission ne sont pas fiables. Bien au contraire, quand les lignes sont
bonnes, il n’est pas intéressant de les surcharger inutilement par des retransmissions. La méthode de
correction la plus utilisée est le code Hamming.

3.8.4. Principe général pour la correction par retransmission des erreurs de


transmission :

➢ La détection et la correction des erreurs nécessitent d’introduire de la redondance dans les


messages transmis.
➢ Certaines erreurs ne peuvent pas être détectées

Exemple : la même erreur sur les deux exemplaires

➢ Certaines erreurs détectées ne peuvent pas être corrigées

Exemple : Une erreur différente sur au moins deux exemplaires.

➢ Certaines erreurs sont mal corrigées

Une même erreur sur deux exemplaires simultanément

➢ L’auto-correction nécessite plus de redondance que la simple détection.

Le principe est le suivant :

80
- Après détection d’une erreur, le récepteur demande à l’émetteur, implicitement
(temporisateur) ou explicitement, de retransmettre une nouvelle fois le message (codé).

- Exemple : de très nombreux protocoles de télécommunication : HDLC, X25, TCP, TP.

Figure 1.89 : L’auto-correction

- La correction par retransmission est préférée dans les réseaux où le taux de perte est
faible et le délai de retransmission tolérable, car son surcoût est généralement plus faible que celui
induit par les codes auto correcteurs.

3 .8.5. Définitions générales :

Un code (k, n) transforme (code) tout bloc initial de k bits d’information en un bloc codé
de n bits. Le code introduit une redondance. Le code est systématique si les k premiers bits du bloc
codé sont égaux aux bits du bloc initial. Alors les r (r=n-k) derniers bits forment un champ de contrôle
d’erreur. Le rendement d’un code (k, n) est : R = k/n

On appelle mot du code, la suite de n bits obtenue après un codage (k, n). Le nombre n
de bits qui composent un mot du code est appelé la longueur du code. La dimension k étant la
longueur initiale des mots.

Bit de parité : (Informatique) Bit mis à zéro si la somme des autres bits est paire, et à un
si elle est impaire, pour détecter des erreurs de transmission. Parfois, un bit supplémentaire est
ajouté après la donnée : le bit de parité. Le bit de parité est un bit généré par l'interface de
communication et sert à la détection d'erreur de transmission. On parle alors de parité paire ou de
parité impaire. La parité ajoute à chaque bloc de i bits (i=7 ou 8) émis un bit de parité de telle sorte
que parmi les i + 1 bits émis le nombre de bits à 1 soit toujours pair (ou impair). Par exemple, pour
une parité paire si le bloc initial est de 7 bits et est égal à 1000001 le bloc de 8 bits émis est
10000010, pour envoyer 0110100 le bloc 01101001 est émis. À la réception, le décodeur calcule le
nombre de bits à 1 et dans le cas d'une parité paire si ce nombre de bits est pair on suppose qu'il n'y
a pas eu d'erreur. Sinon, on sait alors qu'il y a eu une erreur de transmission mais on ne sait pas la
localiser et il faut alors demander la réémission du bloc. La technique de parité est simple à mettre
en œuvre cependant elle ne permet pas de détecter 2n erreurs dans le même bloc de bits transmis,
car dans ce cas la parité ne sera pas changée.

Exemple :

81
Figure 1.90 :

Le poids de Hamming d’un mot est le nombre de bits à 1 qu’il contient. La distance de
Hamming entre deux mots de même longueur est définie par le nombre de positions binaires qui
diffèrent entre ces deux mots. On l’obtient par le poids de Hamming de la somme binaire des 2 mots.
La distance de Hamming d’un code est la distance minimum entre tous les mots du code.

La capacité de détection (de correction) d’un code est définie par les configurations
erronées qu’il est capable de détecter (corriger). Une erreur simple (resp. double, ou d’ordre p)
affecte une seule (resp. 2, ou p) position(s) binaire(s) d’un mot. Pour qu’un code ait une capacité de
détection (resp. correction) des erreurs d’ordre e, il faut que sa distance de Hamming soit supérieure
à 1+e (resp. 1 + 2e).

Exemple : distance =3 → capacité de détection ≤ 2, capacité de correction ≤ 1.

Section 3.9. Médias de communication

Les medias de communication sont constitués de tous les équipements qui permettent
de relier les différentes entités d’un réseau. Sur un support de transmission, les données peuvent
être transmises sous plusieurs formes : comme des ondes électroniques, ou sous forme électrique,
ou même lumineuse. Les canaux de transmissions peuvent être filaires (supports guidés) et non
filaires (supports non guidés).

Dans les supports filaires, on distingue les métalliques et les non métalliques :

➢ Les supports métalliques font circuler les données sous la forme d’une grandeur électrique
(câble coaxial, paire torsadée, courant porteur en ligne –CPL) ;
➢ Les supports non métalliques font circuler les données par propagation des signaux
électromagnétiques ou sous forme lumineuse (fibre optiques).

Dans les supports non filaires ou guidés (air, vide), les signaux sont les ondes
électromagnétiques.

➢ Le câble coaxial

Un câble coaxial est un câble électrique comprenant deux conducteurs. Le conducteur


central rigide est un fil électrique qui est entouré d’un matériel isolant de forme cylindrique
enveloppé le plus souvent d’une tresse conductrice. Le tout est enrobé d’une gaine isolante en
matière plastique. La structure en couches successives permet une bonne isolation aux bruits
électromagnétiques.

82
Figure 1.91 : Câble coaxial

Il comprend les parties suivantes :

➢ Une gaine protectrice en caoutchouc ou en PVC ;


➢ Un conducteur interne ou blindage destiné à protéger les données transmises des bruits et
distorsions ;
➢ Un isolant entourant le conducteur central pour éviter tout contact avec le blindage qui
provoquerait des interactions électriques ;
➢ Le conducteur central qui transporte les données.

On distingue plusieurs types de câble coaxial : câble coaxial mince ou fin, câble coaxial
épais et câble large bande.

3.9.1.1. Câble mince ou fin ou RG58 ou 10 bande 2 (Thinnet)

Il est utilisé dans le réseau Ethernet dans la distance d’une limite maximale de 200
mètres sans régénérer le signal. La connexion avec des éléments actifs s »effectue grâce à des
connecteurs BNC (British Naval Connector ou Bayonnet Neil Concelman). Il a 6 mm de diamètre et
est de couleur blanche. Il sert surtout pour les transmission numériques exclusivement dite aussi en
bande ( figure ci-dessous et ci-dessous bis).

Figure 1.92 : Câble mince ou fin ou RG58 ou 10 bande 2 (Thinnet)

3.9.1.2. Le câble épais ou RG11 ou 10 base 5 (Thickenet ou Thick Ethernet)

Il présente un meilleur niveau de blindage et permet le transport de données jusqu’à


500 mètres. Il a 12mm de diamètre et permet une bande passante de 10 Mbit/s. il est de couleur
jaune.

83
Figure 1.93 : Le câble épais ou RG11 ou 10 base 5

3.9.1.3. Câble coaxial large bande

Le câble coaxial large bande (Community Antenna Télévision : CATV) est utilisé pour la
transmission des chaines de télévision par câble. Il permet la transmission numérique avec une
bande passante très large. Il est adapté au multiplexage.

Figure 1.94 : Câble coaxial large bande

3.9.2. Le câble à paires torsadées (twisted pair)

Le câble à aires torsadées (Twisted Pair) est constitué de plusieurs fils de cuivre torsadés
par paires, qui sont-elles même torsadées. Les torsades ont pour but de diminuer les interférences
entre paires.

84
Figure 1.95 : câble à paires torsadées

Suivant les utilisations, un câble peut regrouper une ou plusieurs centaines de paires
torsadées. Dans le cas des réseaux locaux, le type le plus utilisé est le câble à 4 paires torsadées
utilisé pour les configurations en étoile. Les réseaux Ethernet 10 base T et 100 base T se sert de ce
type de câble.

Les connexions se font par des prises RJ45 (type téléphone). Tous les brins d’une étoile
arrivent à un hub ou concentrateur. Les câbles de la dernière génération autorisent des débits de 100
et 300 Mbits/s. il existe aussi des câbles à 2 paires (RJ11).

Figure 1.96 : Prises RJ45 (type téléphone) et câbles à 2 paires (RJ11).

Le connecteur RJ45 se comporte de huit broches. Les fils des câbles sont torsadés pour
former 4 paires. Les couleurs de ces paires sont le plus souvent :

➢ Paire 1 : bleu et bleu/blanc ;


➢ Paire 2 : orange et blanc/orange ;
➢ Paire 3 : vert et blanc/vert ;
➢ Paire 4 : marron et blanc/marron.

Le fil d’écran (blindage) se connecte sur la neuvième borne.

85
Figure 1.97 :

3.9.3. Le câble non-blindé (UTP : unshielded twisted pair)

Il est plus utilisé dans les réseaux locaux. La transmission des données se fait
100Mbits/s.

3.9.4. Le câble avec écran : UTP avec écran

L’écran est une feuille d’aluminium placée entre les fils et gaine PVC, qui crée un
blindage sommaire pour protéger les paires des interférences extérieures.

3.9.5. Le câble blindé( STP : shielded twisted pair)

Il permet une transmission plus rapide et sur une longue distance. Il est protégé des
parasites par une tresse métallique.

Les câbles à paires torsadées sont soumis à certaines normes : six catégories sont
définies actuellement et deux autres sont en phase d’étude (voir tableau ci-dessous).

86
Catégorie Fréquence Débit utilisation
maximale maximale
1 et 2 <10 MHZ ➢ Mbits/s Voix et
données
3 20 MHZ 16 Mbits Voix et
donnés
Réseau
Ethernet
4 20 MHZ 20 Mbits Voix et
données
Réseau
Fast Ethernet
5 Norme 100 MHZ 100 Voix et
EIA/TIA 568 Mbits/s données
Réseau
Fast Ethernet
Réseaux
ATM à 155 Mbit/s
5 100 MHZ 155 Voix et
Améliorée 5+ Mbits/s données
Réseau
Fast Ethernet
Réseaux
ATM à 155 Mbit/s
5 200 MHZ 155 Gbit/s Voix et
Améliorée données
5e Norme EIA/TIA 568- Réseau
A5 Fast Ethernet
Réseaux
ATM à 155 Mbit/s
6 250 MHZ 1 Gbit/s Voix et
Norme données
EIA/TIA 568-B.2-1 Réseau
Fast Ethernet
Réseau
Gigabits Ethernet
Réseaux
ATM à 155 Mbit/s
7 600 MHZ 1 Gbit/s Voix et
(projet) données
Réseau
Gigabits Ethernet
Réseaux
ATM à 155 Mbit/s
8 1 GHZ 1 Gbit/s Voix et
(projet) données
Réseau
Gigabits Ethernet
Tableau 1.2 : catégorie de câbles à paires torsadées

87
3.9.6. La fibre optique

Une fibre optique est un câble constitué d’un matériau en verre ou en matière plastique
conduisant la lumière. Ce matériau, qui est un fil mince est la partie centrale du câble(le cœur), il est
enveloppé dans un isolant. Les données sont transmises sous la forme d’ondes lumineuses par
réfractions successives.

La connexion à la fibre optique s’effectue grâce à un émetteur optique qui convertit un


signal électrique en provenance d’une machine (ordinateur et autres périphériques) en un signal
lumineux adapté à la fibre.

Figure 1.98 : Une fibre optique

On distingue trois types de fibre optique :

➢ fibres multi modes à saut d’indice ;


➢ fibres multi modes à gradient d’indice ;
➢ fibres monomodes.

3.9.6.1. Fibres multi modes à saut d’indice

Le cœur translucide d’une fibre optique à saut d’indice est recouvert d’un matériau
sombre qui ne laisse pas passer la lumière est donc qui a un indice de réfraction nul. Les rayons
lumineux sont transmis dans le cœur de la fibre d’une extrémité à l’autre par réfractions successives.
Ce type de fil propose une bande passante de 100MHz, qui est utilisé dans les réseaux locaux à haut
débit.

88
Figure 1.99 : Fibres multi modes

3.9.6.2. Fibres multi modes à gradient d’indice

Dans ce type de câble, les rayons lumineux qui sont transmis dans le cœur de la fibre
d’une extrémité à l’autre par réfractions successives diminuent en s’éloignant du cœur. Le chemin
parcouru par le rayon lumineux est plus court en distance, ce qui diminue le temps de transmission
et améliore le débit offert.

La forme de la trajectoire du rayon lumineux est plus sinusoïdale parce qu’il est dévié au
fur et à mesure qu’il s’éloigne du centre. La variation du chemin optique est ici plus faible parce que
le cœur est de petit diamètre de dimension.

Figure 1.100 : Fibres multi modes a gradient d’indice

89
3.9.6.3. Fibres monomodes

Une fibre monomode a la particularité de ne transmettre que les rayons lumineux sur la
trajectoire du cœur de la fibre. On obtient ce seul mode grâce à la très faible dimension du cœur
(diamètre de 10µm et moins). De cette manière, il n’y a qu’un seul chemin pour les rayons lumineux,
c’est celui du cœur. Dans ces câbles, on obtient des débits intéressants qui peuvent dépasser
plusieurs dizaines de Gigabyte/seconde.

Figure 1.101 : Fibres monomodes

Fibres monomodes et multimodes

Le diamètre du cœur (fibre) est compris entre 5 et 8 microns.


Pour assurer son fonctionnement il faut convertir les signaux électriques en signaux lumineux pour
cela à chaque extrémité il faut prévoir deux circuits, qui effectueront cette conversion, un émetteur
et un récepteur.

90
Figure 1.102 :

3.9.6.4. Exemple de connecteurs fibre à fibre

Il existe différents types de connecteurs fibre à fibre, monovoie et multivoies

Figure 1.103 : Exemple de connecteurs fibre à fibre

3.9.6.5. Comparatif

Tableau 1.3 : Comparatif

3.9.7. Les courants porteurs en ligne (CPL)

3.9.6.1. Présentation

C’est une technique qui consiste à transmettre les données binaires sur une ligne
électrique de courant fort. Cette technologie est intéressante dans deux cas particuliers :

➢ Création d’un réseau local dans un vieux bâtiment dans lequel le câblage s’avère complexe et
couteux, c’est le cas des locaux industriels à forte perturbation électromagnétique ;
Connexion internet à tous les postes d’une entreprise ou d’une habitation.

Le standard IEEE du CPL est le Home Plug, qui définit une architecture d’un réseau local
utilisable uniquement sur une installation électrique privée (indoor). C standard n’autorise pas une
interconnexion au-delà du compteur privé et au réseau électrique national.

91
3.9.6.2. Fonctionnement

A. Principe

La distribution du courant domestique dans les habitations s’effectue sur une fréquence
de 50 HZ. Le CPL sera un second courant transmit sur la même ligne, mais en utilisant une autre
fréquence. Cette dernière est en général éloignée de celle du courant normal et peut situer entre 1,6
MHZ à 30MHZ selon les constructeurs.

La problématique de la mise en œuvre du CPL et le choix de la puissance de l’émission


du signal. Car, un signal faible ne permet pas d’obtenir un débit binaire suffisant pour la transmission
des données. Tandis qu’un signal de puissance élevée peut générer des interférences avec les
traitements radio présentes dans le même environnement.

B. Standard IEEE du CPL : Home Plug

Le standard Home Plug définit une modulation OFDM (Orthogonal Frequency Division
Multiplexage). Cette technique de modulation permet d’émettre le signal simultanément sur
plusieurs fréquences prédéfinies mais à une puissance moyenne.

➢ Home Plug 1.0.1 : débit 14 Mbits/s, il permet une intégration dans un réseau Ethernet ;
➢ Home plug 1.1 : debit 85 Mbits (2005) ;
➢ Home plug AV : debit 200 Mbit/s (2007) ;
➢ Home Plug AV II: debit??? (2009).

La mise en place d’un réseau CPL nécessite une clé de cryptage pour chaque réseau. Ce
qui permet la cohabitation de plusieurs réseaux sur une même installation électrique.

3.9.6.3 Intégration dans une installation électrique

Pour mettre en place le CPL, il faut installer un adaptateur sur les prises électriques qui
vont servir de point d’accès au réseau informatique. Cet adaptateur a la forme d’une prise RJ45.

L’adaptateur est constitué de deux éléments :

➢ Un filtre permettant de n’utiliser que les fréquences autorisées pour les transmissions
simultanées du signal ;
➢ Un système de modulation (en émission) et de démodulation (en réception) du signal.

3.9.7. Les supports non filaires

L’air et le vide peuvent être considérés comme des supports de transmission des ondes
électromagnétiques. Les milieux conducteurs des ondes électromagnétiques (air, vide) sont appelés
espace hertzien. L’absence de support physique apporte une souplesse qui ne nécessite pas la pose
des câbles.

Une onde électromagnétique est caractérisée par deux paramètres :

➢ Sa fréquence, en Hertz (Hz), c’est le nombre d’oscillations observées en une seconde ;

92
➢ Sa longueur d’onde évaluée en mettre mesure la distance entre deux maxima ou minima
consécutif.

Dans les réseaux informatiques, on utilise surtout les types suivants : les ondes radios,
infrarouges et lumineuses.

3.9.7.1. Les ondes radio

La gamme des fréquences réservée aux ondes radio s’étend de 10 KHz à 300GHz. Les
réseaux locaux qui utilisent ses ondes proposent des débits allant de 2 à plus de 20 Mbit/s sur des
distances pouvant atteindre 20 Km.

A partir de 100 MHz, ces ondes sont appelées micro-ondes et permettent d’atteindre
des débits pouvant dépasser Gbits/s.

La norme IEE 802.11 règlemente ce type de réseau. Le wifi (Wireless Fidelity). L’alliance
est un organisme chargé de régler la compatibilité des produits 802.11. Cela a conduit à un abus de
langage pour ce type de réseau et de support appelé vulgairement wifi.

3.9.7.2. Les ondes infrarouges

Ce sont des ondes ayant des fréquences supérieures à 300GHz. Leur inconvénient est
qu’elles ne peuvent traverser la matière physique, ce qui limite leur utilisation dans des réseaux
locaux de type particulier. C’est le cas des télécommandes des TV et autres appareils ménagers.

3.9.7.3. Les ondes lumineuses

Elles sont basées sur le principe suivant : une source de lumière concentrée (laser)
envoie un faisceau unique, porteur de données, à un récepteur optique pouvant être situé à
plusieurs centaines de mètres.

Section 3.10. Notions de Protocoles

➢ Généralités

Dans les chapitres précédents nous avons étudié tous les mécanismes à mettre en
œuvre pour transmettre un flot de bits entre deux systèmes distants. Cependant, il ne suffit pas
de lire correctement les bits reçus, encore faut-il les traduire en données utilisables par les
applications, c’est le rôle des protocoles que d’assurer le transfert et la délivrance des données
aux applications. On appelle protocole un ensemble de conventions préétablies pour réaliser
un échange fiable de données entre deux entités (figure ci-dessous).

Figure 1.104 : Un protocole organise l’échange de données.

93
Un protocole est aussi un langage commun utilisé par l'ensemble des acteurs de la
communication pour échanger des données. Toutefois son rôle ne s'arrête pas là.

Un protocole permet aussi :

L'initiation de la communication

L'échange de données

Le contrôle d'erreur

Une fin de communication "courtoise"

Lors de l’échange de données, le protocole de transfert doit assurer :

La délimitation des blocs de données échangés ;

Le contrôle de l’intégrité (contrôle de l’erreur) des données reçues1 ;

L’organisation et le contrôle de l’échange.

Indépendant des fonctions en relation directe avec le transfert de données, un protocole


doit assurer le contrôle de liaison. En particulier, le contrôle de l’échange implique la prise en compte
du type de liaison et de la relation éventuellement hiérarchique entre les machines en
communication.

3.10.2. Les type de liaisons et leur contrôle

3.10.2.1. La liaison point à point

Figure 1.105 : La relation point à point

Dans ce mode de liaison, chaque correspondant est relié par un lien dédié à un seul
autre correspondant. C’est, par exemple, le cas d’une liaison entre nœuds2 d’un même réseau ou
entre un ordinateur et un terminal (figure 4.2). L’une des entités est dite primaire, c’est celle qui
initialise le dialogue et émet les commandes, l’autre est dite secondaire. Selon la répartition des
fonctions de primaire et de secondaire, on distingue deux modes de contrôle :

➢ La symétrie synchrone, elle permet, à chaque extrémité, d’être primaire en émission et


secondaire en réception (figure ci-dessous), il n’y a pas de hiérarchie entre les
communicants. Connue sous le nom de mode équilibré ou Asynchronous Balanced Mode

94
(ABM), elle est employée dans les liaisons full duplex (Link Access Protocol Balanced ou LAP-
B) et half duplex (LAP-X, LAP semi dupleX).
➢ La dissymétrie asynchrone dans ce mode, le secondaire peut émettre sans y avoir été
autorisé, ce qui implique qu’un seul secondaire puisse être actif à la fois ou qu’un algorithme
de résolution des collisions soit mis en œuvre. Ce mode est appelé Asynchronous Response
Mode (ARM).

Figure 1.106 : La symétrie synchrone

N.B. Le terme nœud (node) désigne d’une manière générale tout calculateur qui reçoit,
émet et/ou traite des données.

3.10.2.2. Les liaisons multipoints

Une liaison est dite multipoint lorsqu’un même support est partagé par plusieurs
nœuds. Dans ce cas, des conflits d’accès étant inévitables, il est nécessaire d’instaurer une politique
d’accès au support. L’ensemble des mécanismes particuliers mis en œuvre, pour assurer le partage
de l’accès au support, porte le nom de politique d’accès au canal. On distingue deux modes de
contrôle de l’accès selon la manière dont est gérée la politique d’accès : le mode centralisé ou
maître/esclave et le mode décentralisé ou d’égal à égal.

Le mode maître/esclave

Dans le mode de relation dit maître/esclave (figure 4.4) le primaire, généralement un


ordinateur multiposte (Mainframe ou mini-ordinateur) est responsable de l’initialisation du dialogue,
de la récupération des erreurs et de l’organisation des échanges. Le transfert des données s’effectue
selon

Figure 1.107 : La relation maître/esclave

La technique dite du « polling/selecting » (figure ci-dessous). Le maître invite le terminal


(secondaire) à émettre (polling) ou lui demande de passer en mode réception (selecting). Dans de
grandes configurations, le polling de toutes les stations peut demander beaucoup de temps. Pour
améliorer les temps de réponse, on utilise la technique dite du polling lent et polling rapide. À
l’initialisation, toutes les stations sont interrogées, ensuite uniquement celles qui ont répondu
(polling rapide) ; périodiquement, toutes les stations sont de nouveau interrogées (polling lent).

95
Figure 1.108 : Polling/selecting

Le mode de relation ou dissymétrie synchrone est appelé Normal Response Mode


(NRM) ou Link Access Protocol (LAP).

Le mode d’égal à égal

Dans ce type de configuration, tous les calculateurs sont autorisés à émettre vers
n’importe quel autre calculateur et ce, à tout moment. Cet accès partagé peut donner lieu à des
collisions ou contentions de messages (deux stations transmettent en même temps). Mais
contrairement à la relation maître/esclave, ici, chaque calculateur dispose d’un algorithme d’accès ou
méthode d’accès pour assurer le partage du support. La politique d’accès est dite décentralisée. Les
réseaux locaux3 constituent un exemple de ce mode de contrôle de l’accès au support

3.10.3. Les fonctions élémentaires

3.10.3.1. La délimitation des données

a) Notion de fanion

À l’instar des transmissions asynchrones où les bits de start et de stop encadrent les bits
d’information, en transmission synchrone un caractère spécial ou une combinaison de bits
particulière, le fanion, permet de repérer le début et la fin des données transmises (figure 1.109).

Figure 1.109 : La délimitation des données par fanions

Le fanion assure trois fonctions essentielles : – il délimite les données ; – en l’absence de


données à émettre, il permet de maintenir la synchronisation de l’horloge réception ; – en identifiant
le fanion, le récepteur peut se caler correctement sur une frontière d’octets (synchronisation
caractère) et, par conséquent, traduire le flux de bits reçus en un flux d’octets.

b) Notion de transparence

L’utilisation d’un caractère spécifique pour indiquer le début ou la fin d’un bloc de
données interdit l’usage de ce caractère dans le champ données. En conséquence, si on veut
transmettre, en tant que données, le caractère ou la combinaison binaire représentative du fanion, il
faut prévoir un mécanisme particulier. Ce mécanisme se nomme mécanisme de transparence au
caractère, si le fanion est un caractère, ou mécanisme de transparence binaire, si le fanion est une
combinaison de bits. Le mécanisme de transparence consiste à « baliser » le caractère à protéger par

96
un autre caractère dit caractère d’échappement. Ce caractère inséré à l’émission devant le caractère
à protéger (le faux fanion) doit lui-même être protégé s’il apparaît dans le champ données (figure
1.110).

Figure 1.110 : Principe de la transparence au caractère

L’émetteur insère le caractère d’échappement devant le caractère à protéger. En


réception, l’automate examine chaque caractère pour découvrir le fanion de fin. S’il rencontre le
caractère d’échappement, il l’élimine et n’interprète pas le caractère qui le suit, il le délivre au
système comme un caractère ordinaire. Certains protocoles utilisent les 32 premiers caractères du
code ASCII pour assurer le contrôle de l’échange. Ces caractères dits caractères de commande
nécessitent aussi la mise en place d’un mécanisme de transparence. Les protocoles qui utilisent des
caractères pour le contrôle de l’échange sont dits orientés caractères. En principe, ils utilisent le
caractère ASCII 16 (DLE, Data Link Escape) comme caractère d’échappement.

Dans d’autres protocoles, un champ particulier est réservé aux informations de


contrôle. Ce champ peut contenir une combinaison binaire quelconque. Ces protocoles sont dits
orientés bits. Dans ces protocoles le fanion est constitué de la combinaison binaire « 01111110 » soit
0x7E. La transparence binaire est assurée par l’insertion d’un « 0 » tous les 5 bits à « 1 » consécutifs.
Seul, le fanion contiendra une combinaison binaire de plus de 5 bits à 1 consécutifs (01111110).
Cette technique dite du bit de bourrage (Bit stuffing), outre la transparence au fanion, permet, en
interdisant les longues séquences de bits à 1 consécutifs, de maintenir la synchronisation des
horloges. Les bits de bourrage insérés à l’émission sont éliminés par l’automate de réception. La
figure 1.111 illustre le principe de la transparence binaire.

Figure 1.111 : La technique du bit de bourrage

Outre les délais introduits par l’insertion et l’élimination des bits ou caractères de
transparence, cette technique modifie la taille des unités de données transmises. La longueur du bloc
émis est variable, ce qui ralentit son traitement. Les protocoles dits à haut débit mettent en œuvre
d’autres techniques, comme l’utilisation d’un codage de type 4B/5B, qui garantissent que le symbole
choisi comme délimiteur ne pourra être présent dans le champ de données. 4.3.2 Le contrôle
d’intégrité D’une manière générale on doit, lors d’une transmission de données, s’assurer que les
données reçues n’ont pas été altérées durant la transmission. Plusieurs facteurs peuvent modifier le

97
contenu des données. Les uns sont d’origine humaine, le contrôle d’intégrité concerne alors la
sécurité des données. Les autres sont d’origine physique, le contrôle d’intégrité porte alors le nom de
contrôle d’erreur.

c) Notion d’erreur

c1) Taux d’erreur binaire

Les rayonnements électromagnétiques, les perturbations propres au système


(distorsions, bruit...) peuvent modifier les informations transmises (bits erronés). Compte tenu de
l’extension des réseaux et de l’utilisation massive de la fibre optique, la perte de la synchronisation
des horloges est, aujourd’hui, la principale source d’erreurs. On appelle taux d’erreur binaire ou BER
(Bit Error Rate) le rapport entre le nombre d’informations (bits) erronées reçues et le nombre
d’informations (bits) transmises.

Teb = Nb d’info. (ou bits) erronées / Nb d’info. (ou bits) transmises

Soit, par exemple, la transmission de la suite "011001001100100101001010"

qui est reçue "011001101100101101000010".

Le message reçu diffère de 3 bits du message émis. Le nombre de bits émis est de 24
bits. Le taux d’erreur binaire (Teb) est de : Teb = 3/24 = 0,125 Le taux d’erreur binaire varie en
pratique de 10–4 (liaisons RTC 4 )à 10 –9 (réseaux locaux). Dans les réseaux, les erreurs se produisent
généralement par rafale. Le Teb exprime une grandeur statistique, l’erreur affecte aléatoirement n
bits consécutifs et non un bit tous les x bits. Si te est la probabilité pour qu’un bit soit erroné, la
probabilité de recevoir un bit correct est de (1 – te).

Soit, pour un bloc de N bits, une probabilité de réception correcte (p) de : Le message
reçu diffère de 3 bits du message émis. Le nombre de bits émis est de 24 bits. Le taux d’erreur binaire
(Teb) est de : Teb = 3/24 = 0,125 Le taux d’erreur binaire varie en pratique de 10–4 (liaisons RTC 4 )à
10 –9 (réseaux locaux). Dans les réseaux, les erreurs se produisent généralement par rafale. Le Teb
exprime une grandeur statistique, l’erreur affecte aléatoirement n bits consécutifs et non un bit tous
les x bits.

Si te est la probabilité pour qu’un bit soit erroné, la probabilité de recevoir un bit correct
est de (1 – te). Soit, pour un bloc de N bits, une probabilité de réception correcte (p) de :

p = (1 – te) (1 – te) ... (1 – te) = (1 – te) N

La probabilité de recevoir un bloc sans erreur est d’autant plus faible que la longueur du
bloc est grande. Par exemple, supposons une transaction de 100 caractères émis sur une liaison en
mode synchrone à 4 800 bits/s avec un Teb de 10 –4. Les erreurs sont supposées être distribuées
aléatoirement. Quelle est la probabilité de recevoir un message erroné ? Le message de 100
caractères correspond à un bloc de :

100 · 8 = 800 bits

La probabilité de réception d’un bloc correct (Pc) est de :

98
Pc = (1 – 0,0001)800 = (0,9999)800 = 0,923

Soit la probabilité de recevoir un message erroné (Pe) :

Pe = 1 – 0,923 = 0,077

99
CHAPITRE 2 : ARCHITECTURE DES RESEAUX ET LES MODELES DE REFERENCE

Section 1 : Architecture des réseaux

1.1. Topologie

Une topologie de réseau décrit l’interconnexion des medias (supports de transmission)


et des équipements employés pour la transmission de données. Il s’agit d’une certaine forme
d’arrangement pour assurer la bonne circulation de données, elle influence la façon dont le réseau
fonctionne.

On distingue les topologies :

➢ Physiques ;
➢ Logiques.

1.1.1. Topologie physique

La topologie physique décrit la façon selon laquelle les ordinateurs, les imprimantes et
autres équipements sont connectés. C’est une organisation physique, c’est-à-dire une configuration
spatiale du réseau (structure des chemins de câbles, le type de raccordement). En mode point à
point, deux DCE (Data Communication Equipment, soit en français, équipement terminal de circuit de
données (ETCD)) communiquent par un canal dédié (figure ci-dessous)

Figure 1.1 : Topologie physique

Les topologies physiques se présentent en générale en mode multipoint. On distingue


souvent les topologies physiques suivantes :

➢ Topologie en bus ;
➢ Topologie en étoile ;
➢ Topologie en anneau.
➢ Topologie en arbre
➢ Topologie hiérarchique
➢ Topologie maillée
➢ Topologie mixte

Physiquement, les réseaux en bus, en étoile et en anneau peuvent se ressembler


beaucoup parce qu’ils peuvent être tous organisés autour d’un boitier. Selon la topologie, le boitier
contient un bus, un concentrateur ou un anneau. D’une manière plus générale, la représentation
d’un réseau peut s’établir en fonction de la circulation de l’information. D’un point de vue Client-
Serveur, les rôles sont bien définis et bien séparés. Ainsi, un réseau peut être « centralisé »,
« réparti » ou distribué » bien que ces notions soient relatives et souples.

100
1.1.1.1. Topologie en bus

Dans une topologie en bus, tous les ordinateurs sont reliés à une même ligne de
transmission par l’intermédiaire de câble généralement coaxiale. Le mot ‘’ bus’’ désigne la ligne
physique qui relie les machines du réseau en série.

Chaque station peut accéder support pour émettre. Cette topologie se prête à la
diffusion. Les collisions sont possibles lorsque plusieurs stations émettent simultanément. La mise en
œuvre de cette topologie est très simple. Mais toute coupure du paralyse le réseau.

Figure 1.2 : Topologie en bus

Exemple

Figure1.3 : Exemple Topologie en bus

1.1.1.2. Topologie en étoile

Dans une topologie en étoile, les ordinateurs du réseau sont reliés à un matériel central
appelé concentrateur (en anglais hub). Il s’agit d’une boite comprenant un certain nombre de
jonction auxquelles il est possible de raccorder les câbles réseau en provenance des ordinateurs.
Celui a pour rôle d’assurer la communication entre les différentes jonctions.

L’élément central de cette topologie est le concentrateur. Ce réseau est plus onéreux
qu’un réseau en bus. Cette topologie est en réalité une généralement des liaisons point à point.

101
Figure 1.4 : Topologie en étoile

Exemple

Figure 1.5 : Exemple Topologie en étoile

1.1.1.3. Topologie en anneau

Dans une topologie en anneau, les information sont situées sur une boucle et
communiquent à tour de rôle.

En réalité, dans une topologie en anneau, les informations ne sont pas reliés en boucle
mais par un répartiteur (appelé MAU : Multi station Access Unit). Les deux normes utilisant cette
topologie physique sont Token ring (anneau à jeton) et FDDI.

Figure 1.6 : Topologie en anneau

102
Exemple

Figure 1.7 : Exemple topologie en anneau

1.1.1.4. Topologie en arbre ou topologie arborescente

Aussi connu sous le nom de topologie hiérarchique, le réseau est divisé en niveaux. Le
sommet, le haut niveau, est connectée à plusieurs nœuds de niveau inférieur, dans la hiérarchie. Ces
nœuds peuvent être eux-mêmes connectés à plusieurs nœuds de niveau inférieur. Le tout dessine
alors un arbre, ou une arborescence.

C'est une topologie en bus sur laquelle un des nœuds est connecté à un répéteur, qui
donne naissance à un nouveau bus. Elle est souvent utilisée pour les extensions de réseaux et permet
ainsi de les étendre au-delà des recommandations du constructeur

Figure 1.8 : Topologie en arbre

Exemple

103
Figure 1.9 : Exemple topologie en arbre

1.1.1.5. La topologie hiérarchique

Elle est dérivée des réseaux en étoile, les réseaux hiérarchiques sont constitués d'un
ensemble de réseaux étoiles reliées entre eux par des concentrateurs jusqu'à un nœud unique. Cette
topologie est essentiellement mise en œuvre dans les réseaux locaux, 10 base T, Starlan.

Figure 1.10 : Topologie hiérarchique

1.1.1.6. Topologie maillée

Une topologie maillée, est une évolution de la topologie en étoile, elle correspond à
plusieurs liaisons point à point. Une unité réseau peut avoir (1,N) connexions point à point vers
plusieurs autres unités. Chaque terminal est relié à tous les autres. L'inconvénient est le nombre de
liaisons nécessaires qui devient très élevé.

Le réseau maillé est un réseau dans lequel deux stations de travail peuvent être mises
en relation par différents chemins. La connexion est effectuée à l’aide de commutateurs, par
exemple les autocommutateurs PABX.

Cette topologie se rencontre dans les grands réseaux de distribution (Exemple :


Internet). L'information peut parcourir le réseau suivant des itinéraires divers, sous le contrôle de
puissants superviseurs de réseau, ou grâce à des méthodes de routage réparties.
L'armée utilise également cette topologie, ainsi, en cas de rupture d'un lien, l'information peut quand
même être acheminée.

Elle existe aussi dans le cas de couverture Wi-Fi. On parle alors bien souvent de
topologie mesh mais ne concerne que les routeurs WiFi.

104
Figure 1.11 : Topologie maillée

Exemple

Figure 1.12 : Exemple topologie maillée

1.1.1.7. Réseau centralisé, réparti et distribué

1.1.1.8. Topologie mixte ou réseaux mixtes

La topologie mixte est une topologie qui mélange deux ou plusieurs topologies
différentes. Ce sont des réseaux qui mélangent deux topologies. Par exemples, les bus en étoile,
les réseaux 100VG-AnyLAN (ETHERNET à 100 Mb/s) de la spécification IEEE 802.12 qui fonctionnent
avec la méthode d’accès de la priorité de la demande, les anneaux en étoile

Exemple

105
Figure 1.13 : Topologie mixte ou réseaux mixtes

1.1.2. Topologie logique

La topologie logique décrit la méthode qu’utilisent les ordinateurs en réseau pour


communiquer par le media, elle définit la méthode d’accès au support (MAC : Medium Access
Control). La topologie logique par opposition à la topologie physique représente la façon dont les
données transitent dans les lignes de communication.

Les différentes topologies logiques sont :

➢ Ethernet
➢ Token Ring
➢ FDDI
➢ ATM

1.1.2.1. Topologie Ethernet

Ethernet est aujourd’hui l’un des réseaux les plus utilisés en local. Il repose sur une
topologie physique de type bus linéaire, c'est-à-dire tous les ordinateurs sont reliés à un seul support
de transmission. Le principe du réseau Ethernet est apparu à la fin des années 70 dans les milieux de
chercheurs aux Etats-Unis. Ce réseau, le plus répandu des réseaux locaux, est né des expériences
complémentaires de DEC, Intel et Xerox, bien avant les avancées de la normalisation. Ce qui signifie
que l'essentiel des protocoles des couches supérieures n'est pas spécifié.

La méthode utilisée est la contention, tout le monde peut prendre la parole quand
il le souhaite. Mais alors, il faut une règle pour le cas où deux stations se mettraient à " parler
" au même moment. La principale méthode de contention en réseaux locaux est
le CSMA/CD (Carrier Sense Multiple Access), avec détection de collision (CD). C'est celle
d'Ethernet. Dans un réseau Ethernet, CSMA/CD représente le protocole de communication,
ce qui fait qu’il aura une très grande surveillance des données à transmettre pour éviter toute
sorte de collision. Par un conséquent un poste qui veut émettre doit vérifier si le canal est libre
avant d’y émettre.

Elle consiste pour une station, au moment où elle émet, à écouter si une autre
station n'est pas aussi en train d'émettre. Si c'est le cas, la station cesse d'émettre et réémet son
message au bout d'un délai fixe. Cette méthode est aléatoire, en ce sens qu'on ne peut prévoir

106
le temps nécessaire à un message pour être émis, transmis et reçu. Voyons l'évolution
d'Ethernet

Différents types d’Ethernet

Ethernet, IEEE 803.3 10 Base 5

La version 10 Base 5 (10Mbps en bande de base sur câble coaxial d'une longueur
maximale par segment de 500 mètres) est la version d'origine d'Ethernet, elle est représentée
ci-dessous :

Figure 1.14 : Ethernet, IEEE 803.3 10 Base 5

Chaque station est équipée d'une interface " Ethernet " (NIC, Network Interface
Card) généralement appelée carte transporteur ou carte " Ethernet ". Cet équipement assure
l'adaptation physique et gère l'algorithme CSMA/CD.

Le drop câble est constitué de paires torsadées et peut avoir une longueur
maximale de 50 mètres. Le câble coaxial est un câble épais de couleur jaune (Ethernet jaune)
d'un demi-pouce de diamètre. La longueur totale du réseau peut atteindre 2,5 kilomètres.

Cette version d'Ethernet n'est pratiquement plus utilisée que dans les
environnements compromis (rayonnement électromagnétique) ou lorsque l'on veut garantir la
confidentialité des échanges (pas de rayonnement du câble coaxial).

Ethernet, IEEE 802.3 10 Base 2

Une version économique a été réalisée avec du câble coaxial fin (Thin Ethernet).
Ce type de réseau Ethernet est représenté ci-dessous :

107
Figure 1.15 : Ethernet, IEEE 802.3 10 Base 2

Cette architecture physique de réseau est recommandée pour la réalisation de


petits réseaux d'une dizaine de machines, c'est la plus économique

Ethernet, IEEE 802.3 10 Base T

Compte-tenu des problèmes de câblage, AT&T a imaginé de réutiliser le câblage


téléphonique préexistant dans les immeubles de bureaux pour la réalisation de réseau. Cela
imposait deux contraintes : l'une de débit, l'autre de distance. Le réseau ainsi réalisé
fonctionnait à 1Mbps, les stations étaient connectées sur des concentrateurs répéteurs (hub) et
la distance entre le hub et une station était limitée à 250 mètres. Cette architecture (802.3 1
base 5 ou Starlan) complètement obsolète aujourd'hui a évolué vers une version 10MBps
(802.3 10 base T). La figure suivante présente le réseau 10 base T.

Figure 1.16 : Ethernet, IEEE 802.3 10 Base T

En résumé, la vitesse normalisée d'Ethernet est de 10 Mbps. Pour le média, si un


câble coaxial particulier avait été défini par la normalisation originale (câble " jaune " en bus),
on trouve aujourd'hui d'autres câbles à meilleur prix, notamment un câble coaxial fin (dit
câble " noir ") et surtout plusieurs solutions de câblage sur paires torsadées téléphoniques. La
plus répandue d'entre elles, 1OBase T, permet un câblage en étoile, plus facilement
administrable. Grâce à ces nouvelles possibilités, Ethernet demeure la plus répandue des
infrastructures de réseaux locaux et connaît une véritable seconde jeunesse.

Depuis fin 1992, les comités de standardisation ont travaillé à un nouveau réseau
Ethernet à 100 Mbps baptisé Fast-Ethernet. Deux écoles se sont affrontées, l'une voulant
conserver la méthode d'accès CSMA/CD et la compatibilité avec les cartes adaptateurs
existantes, tandis que l'autre préconise un tournant plus radical avec une technologie
déterministe proche de celle de l'anneau à jeton ou FDDI.

1.1.2.2. Le Token Ring

Token Ring repose sur une topologie en anneau (Ring). Il utilise la méthode d’accès par
jeton (token). Dans cette technologie, seul le poste ayant le jeton a le droit de transmettre. Si un
poste veut émettre, il doit attendre jusqu’à ce qu’il ait le jeton. Dans un réseau Token ring, chaque
nœud du réseau comprend un MAU (Multi station Access Unit) qui peut recevoir les connexions des
postes. Le signal qui circule est régénéré par chaque MAU.

108
Mettre en place un réseau Token Ring coûte chers, malgré que la panne d’une station
MAU provoque le disfonctionnement du réseau.

Il existe deux sortes de Token Ring

Le Token Ring en anneau, c’est le Token Ring « normal ».

Le Token Bus, c’est le Token Ring sur un support en bus.

Les caractéristiques des réseaux TOKEN RING sont les suivantes :

La spécification IEEE 802.5

Une topologie en anneau en étoile

La méthode d’accès au réseau le passage du jeton

Le mode de transmission des signaux en bande de base

Le câblage en paires torsadées non blindées (UTP) ou blindées (STP), rarement de la


fibre optique.

Les types 1, 2 et 3 des câbles IBM

Un débit de 4 ou 16 Mb/s

Les composants matériels d’un réseau TOKEN RING

Le réseau TOKEN RING fonctionne en général autour d’un concentrateur passif dans lequel se situe
l’anneau physique du réseau. Cependant, un réseau TOKEN RING peut être composé au maximum
de33 concentrateurs (l’empilement des concentrateurs ne forme qu’un seul anneau logique). Plus le
réseau TOKEN RING comporte de concentrateurs et plus il est à même de gérer un nombre
important d’ordinateurs. Les concentrateurs sont reliés entre eux par les points de connexion (en
entrée et en sortie) qui permettent de ne constituer qu’un seul anneau. Les concentrateurs sont
reliés par un câblage en paire torsadées.

Dans un « réseau à jeton pur », si une station tombe en panne, alors c’est tout le réseau qui ne
fonctionne plus puisque la course du jeton est interrompue. Certaines MSAU peuvent détecter l’arrêt
d’une carte réseau et automatiquement désactiver le port correspondant, ainsi l’anneau logique
n’est pas « coupé ».

Le concentrateur MSAU de chez IBM a 10 ports de connexion et peut relier 8


ordinateurs. Le câblage est le plus souvent de l’UTP, mais le STP et la fibre optique sont aussi
employés.

109
Les composants matériels d’un réseau TOKEN RING sont les suivants :

Les concentrateurs :

MAU (Multistation Access Unit)

MSAU (MultiStation Access Unit)

MSAU de chez IBM

SMAU (Smart Multistation Access Unit)

Le câblage :

En paire torsadées non blindées (UTP) :

Un nombre maximum de 72 ordinateurs par segment ou par concentrateur

Une impédance de 100 à 120 Ohm

En paires torsadées blindées (STP)

Un nombre maximum de 260 ordinateurs par segment ou par concentrateur

Une impédance de 150 Ohm

Les câbles de chez IBM :

La catégorie 1 (STP) :

Une longueur de 101 mètres

La catégorie 2 (UTP) :

Une longueur de 100 mètres (STP)

La catégorie 3 (UTP) :

Une longueur de 45 mètres (UTP). Pour d’autres constructeurs, la longueur maximale


peut atteindre 150 mètres…

Les câbles de connexion (Patch Cables) de type 6 ont une longueur de 45 mètres.

La fibre optique permet d’augmenter considérablement la portée d’un réseau TOKEN


RING.

Les connecteurs :

Les connecteurs MIC (Media Interface Connector) pour connecter les câbles de type 1 et
2.

Les connecteurs RJ45 et RJ11pour les câbles de type 3.

110
Les filtres de support pour connecter une carte réseau TOKEN RING à une prise
téléphonique RJ45 ou RJ11.

Les répéteurs allongent la longueur d’un câble. Le répéteur régénère et synchronise le


signal :

Avec du câble de type 1 ou 2, deux répéteurs permettent d’obtenir une distance


maximale de 730 mètres entre les deux MSAU.

Avec du câble de type 3, deux répéteurs permettent d’obtenir une distance maximale
de 365 mètres entre les deux MSAU.

Les cartes réseaux TOKEN RING :

Les cartes réseaux de 4 Mb/s

Les cartes réseaux de 16 Mb/s qui sont compatibles avec un réseau à 4 Mb/s (Le mode
16 Mb/s bascule en mode 4 Mb/s, mais évidemment pas l’inverse). Les cartes réseaux 16 Mb/s
utilisent une trame plus longue.

L’écart minimal entre deux ordinateurs est de 2,5 mètres

Un nombre maximal de 33 segments reliés par 33 concentrateurs.

Etc…

1.1.2.3. Comparaison entre Ethernet et Token Ring

Lorsque l'on compare deux types de réseau, les critères à retenir sont
principalement :

* Les performances en terme de débit et temps d'accès


* Les types de transferts et applications informatiques envisageables
* L'infrastructure requise et les distances maximales admissibles

1. En termes de débit et temps d'accès

Lorsqu'il s'agit de définir le débit d'un réseau il y a deux critères à retenir :

Le débit nominal (débit physique)

Le débit vu des applications

Le premier est effectivement lié au choix du réseau, le second dépend non


seulement du débit physique mais aussi de la charge du réseau et des protocoles empilés.
Seuls nous intéressent ici les débits nominaux et la tenue en charge du réseau.

111
Figure 1.17 : Débit nominal (débit physique)

La figure ci-dessus superpose l'évolution des débits en fonction de la charge de chaque


réseau. Il est intéressant de constater qu'à faible charge, les réseaux de type Ethernet présentent,
vis-à-vis des couches supérieures, une meilleure efficacité. En effet, en Ethernet, si le trafic est faible,
dès qu'une station veut émettre, elle émet. En Token Ring, même à faible charge, la station doit
attendre le Token.

Cependant à forte charge dans le réseau Ethernet, les collisions se multiplient et le débit
s'effondre, alors que pour Token Ring, même si le débit moyen de chaque station diminue, le débit
utile sur le support atteint le débit nominal.

2. En termes d'application

Le réseau Ethernet est qualifié de probabiliste, c'est-à-dire qu'il est possible de


déterminer, en fonction d'un trafic modélisé, la probabilité pour qu'une station puisse émettre. Il est
impossible de borner ce temps.

Dans le cas du Token Ring, il est toujours possible de déterminer le laps de temps au
bout duquel on est certain qu'une station obtiendra le jeton, le réseau est dit déterministe.

Cependant, même si le temps d'obtention du jeton peut être borné, même si le Token
Ring met en œuvre un mécanisme de priorité, il ne peut garantir un intervalle de temps constant
entre deux obtentions du jeton pour une même station. Par conséquent, le Token Ring est impropre
au transfert isochrone (voix, vidéo, temps réel).

Les deux types de réseaux sont utilisés pour des applications de type conversationnel. Le
Token Ring, pouvant garantir une bande minimale, pourra être utilisé pour des transferts sous
contrainte temporelle moyennement sévère (transfert synchrone). Mais en principe, aucun des deux
ne satisfait au transfert isochrone. En pratique, des essais ont montré qu'il était possible, sous faible
charge, de réaliser de tels transferts, à condition d'admettre des pertes d'informations pour assurer
une compensation temporelle.

3. En termes d'infrastructure

Si on ne considère que l'implémentation la plus utilisée sur Ethernet : le 10 base T, la


topologie physique de câblage est similaire pour les deux types de réseaux. Les distances couvertes
sont du même ordre. Ces deux réseaux permettent de couvrir des immeubles relativement vastes en
utilisant les techniques de réseaux fédérateurs.

112
Bien que le réseau Token Ring ait des performances intrinsèquement supérieures, le
marché lui a préféré Ethernet.

1.1.2.4. Le FDDI

La technologie LAN FDDI (Fiber Distributed Data Interface) est une technologie d'accès
réseau utilisant des câbles fibres optiques. Le FDDI est constitué de deux anneaux : un anneau
primaire et anneau secondaire. L’anneau secondaire sert à rattraper les erreurs de l’anneau primaire.
Le FDDI utilise un anneau à jeton qui sert à détecter et à corriger les erreurs. Ce qui fait que si une
station MAU tombe en panne, le réseau continuera de fonctionner.

1. De Token Ring à FDDI

L'anneau à jeton, dont la norme, pour l'essentiel, a été définie par IBM au début
des années 80 sous le nom de Token-Ring, a tenté de détrôner la prédominance d'Ethernet
grâce à une offre de plus en plus large et des succès dans les réseaux locaux bureautiques. Il
reste qu'Ethernet s'est imposé pour relier les stations de travail techniques, les mini-
ordinateurs, en particulier dans l'univers Unix. Mais l'influence d'IBM sur le marché a
favorisé l'essor continu de l'anneau à jeton. Celui-ci est normalisé pour deux débits
compatibles de 4 ou de 16 Mbps. Un projet de norme à 100 Mbps, se confondant ou presque
avec FDDI, a été mise en chantier ces deux dernières années.

Le fonctionnement de Token-Ring comme celui de FDDI repose sur l'utilisation


d'un " jeton " qui, en quelque sorte, gère le droit de parole sur le réseau. Dans Token-Ring, ce
jeton de trois octets circule en permanence de station en station : une station qui veut émettre
bascule l'un de ces octets en position " occupée " et émet son ou ses paquets immédiatement à
la suite (en fonction d'un taux d'occupation maximal et de règles éventuelles de priorité). La
station destinataire reconnaît son adresse dans l'en-tête, il lit son message et remet le jeton à
l'état " libre " ; au bout d'un tour d'anneau, la station émettrice voit ainsi repasser son jeton
libre et sait que le message a été reçu. Le temps maximal du tour d'anneau est déterminé et le
remplissage de l'anneau peut ainsi être optimal. Lorsqu'une station se déconnecte de l'anneau,
celui-ci est automatiquement refermé par un dispositif situé au point de concentration des
stations, le MAU (Multistation Access Unit) situé sur le répartiteur (concentrateur ou hub).

2. Présentation de FDDI

FDDI est un réseau en anneau (double anneau), il utilise la fibre optique


multimode, le débit nominal est de 100 Mbps et la distance maximale couverte de 100
kilomètres. FDDI supporte jusqu'à 1000 stations distantes l'une de l'autre de moins de 2
kilomètres.

Une version de FDDI sur paire torsadée existe (TPDDI, Twisted Pair Distributed
Data Interface), elle autorise des débits de 100Mbps sur 100 mètres.

La méthode d'accès est similaire à celle du réseau IEEE 802.5 version 16 MBps
(ETR, Early Token Release). Pour accéder au support, une station doit posséder le jeton. Elle
émet ses données et génère un nouveau jeton. Chaque station retire de l'anneau les données

113
qu'elle y a déposées. Plusieurs trames de données issues de stations différentes peuvent
circuler sur l'anneau, mais il n'y a qu'un seul jeton.

Les différences essentielles, par rapport au Token Ring, sont :

Il n'y a pas de station monitrice, chaque station participe à la surveillance de


l'anneau.

La distance maximale inter-station (2 km) ainsi que la longueur totale de l'anneau


FDI ne permettent plus la synchronisation des stations à partir d'une horloge unique. Chaque
station possède sa propre horloge ; un mémoire tampon (buffer élastique, EB Elasticity
Buffer) permet de compenser les écarts entre l'horloge de réception et celle d'émission. C’est
la capacité du tampon mémoire qui limite la taille de la trame à 4500 octets.

Les données sont séparées en deux flux, les données urgentes à contrainte de débit
(classe synchrone) et les données sporadiques, sans contrainte particulière de débit (classe
asynchrone). Lorsqu'une station possède le jeton, elle peut toujours émettre des données
synchrones et, si, et seulement si, le jeton est en avance (jeton temporisé) elle peut alors
émettre des données asynchrones.

3. Architecture du réseau FDDI

Figure 1.18 : Architecture du réseau FDDI

Le schéma ci-dessus modélise l'architecture du réseau FDDI. La couche


physique est scindée en deux sous couches, l'une (PMD, Physical Medium Dependent) est
chargée d'adapter les caractéristiques des organes d'émission (transducteurs optiques,
connecteurs, ...) en fonction du support physique utilisé (type de fibre optique, paires
torsadées); l'autre gère le protocole physique (PHY, PHYsical layer protocol), elle est chargée
du codage des données et de la synchronisation. La couche MAC est chargée des fonctions
habituelles (gestion du jeton, temporisation,...). Un protocole spécifique (SMT, Station
ManagemenT) gère l'insertion et le retrait des stations, la configuration du réseau et le
traitement des erreurs.

4. Aspects Physiques du FDDI

FDDI distingue deux types de stations : les stations à simples attachements (SAS,
Single Attachment Station) et celles à double attachements (DAS, Double Attachment
Station). Les stations à double attachements sont reliées directement à l'anneau principal,
celles à attachement simple utilise un concentrateur qui peut être un simple ou double
114
attachement (SAC : Single Attachement Concentrator, DAC : Double Attachment
Concentrator).

Figure 1.19 : Aspects Physiques du FDDI

La figure ci-dessus représente la topologie du réseau FDDI. Le double anneau


autorise, en cas de défaillance d'un nœud FDDI, le rebouclage sur l'anneau secondaire. Pour
les stations à simple attachement, cette fonction est assurée par le concentrateur.

5. Fonctionnement général du réseau

A l'initialisation, sur détection d'inactivité, une station émet une requête


d'initialisation (Claim Token). La trame Claim Token comporte l'indication du TTRT
revendiqué. Chaque station recevant cette trame compare la valeur du TTRT avec celle qu'elle
désire. Si la valeur requise est inférieure à la valeur proposée, la station substitue au TTRT
proposé la valeur Qu'elle désire, sinon elle mémorise la valeur et répète la trame. La station
qui voit revenir sa proposition est considérée comme gagnante et elle génère le premier jeton.

Une station qui a des données à émettre attend la réception d'un jeton. La station
qui reçoit un jeton, le répète jusqu'au délimiteur de début (jeton tronqué), puis insère des
symboles Idle. Elle émet une ou plusieurs trames et régénère un jeton valide.

De manière similaire au Token Ring, c'est la station qui a émis qui retire ses
données de l'anneau. A cet effet, quand une station reçoit une trame, elle examine le champ
Adresse Source, si elle reconnaît sa propre adresse, elle cesse sa fonction de répéteur et insère
des symboles Idle. La trame tronquée (champ PA, SD, FC, DA, SA et quelques symboles
Idle) ainsi que le jeton tronqué seront retirés de l'anneau par la station détentrice du jeton qui
durant son émission cesse sa fonction de répéteur.

Une version de FDDI sur paire torsadée est disponible (TPDDI, Twisted Pair
Distributed Data Interface). Cette implémentation autorise des débits de 100Mbits sur 100
mètres.

6. Evolution de FDDI : FDDI-II

FDDI garantit une bande passante minimale aux données des différentes stations
(classe synchrone) mais ne garantit pas une récurrence temporelle entre les différentes

115
émissions. De ce fait, FDDI-I n'est pas susceptible d'assurer des transferts de données de type
isochrone i.e. correspondant au même instant, même durée (voix, vidéo).

FDDI-II superpose sur un même support, l'anneau FDDI, une voie asynchrone et
synchrone (fonctionnement en mode paquet) et une voie isochrone (fonctionnement en mode
circuit).

Une station maître (Cycle Master) génère une trame toutes les 125 microsecondes,
une trame représente 16 canaux dans lesquels les stations déposent leurs données. FDDI-II est
incompatible avec FDDI-I.

7. En résumé...

Issue du monde des réseaux locaux privés, la norme FDDI (Fiber Distributed Data
Interface) est une norme de "super réseau" local à hauts débits (100 Mbps), fonctionnant sur
fibre optique et selon une topologie de double anneau sécurisé :

Un anneau transportant les données dans un sens,

Le second servant normalement de réseau de secours en cas de rupture

On peut toutefois dans certaines configurations l'utiliser pour doubler le débit


global. Son mode de fonctionnement est assez proche des réseaux locaux, en particulier de
l'anneau à jeton (Token Ring).

Sa gamme de services est assez large, puisqu'on peut l'utiliser comme support
pour de petits réseaux entre stations à hautes performances, comme anneau fédérateur d'autres
réseaux locaux et même comme réseau " métropolitain ", puisqu'il peut supporter jusqu'à 500
stations à une distance dépassant les 150 kilomètres. En revanche, FDDI ne permet ni le
transport de la voix ni celui de la vidéo. Cette lacune devrait être comblée avec la version
FDDI-II supportant les applications isochrones. Mais, les deux versions sont incompatibles.
Et, si elles peuvent utiliser la même infrastructure, elles nécessitent des équipements d'accès
différents. Ce qui amène certains spécialistes à condamner FDDI-II avant même qu'elle ait
vécu.

La norme FDDI définit deux types de stations, de classe A, se connectant aux


deux anneaux, ou de classe B, connectées à un seul anneau. Les coûts des matériels, assez
élevés à l'origine, ont nettement baissé au cours des dernières années grâce à une offre
commerciale aujourd'hui mature et très concurrentielle.

L'arrivée sur le marché de concentrateurs permettant à plusieurs stations de


partager un accès physique a encore abaissé le seuil économique d'accès au réseau. Les
perspectives d'une connectique d'accès à base de paires de cuivre (l'anneau restant bien
entendu en fibre optique) élargissent encore les possibilités, avec baisse de prix. Soutenue
activement par les grands constructeurs de l'informatique, FDDI apparaît maintenant comme
une norme admise dont plus personne ne conteste la viabilité pour des installations privées.
Son rôle dans l'interconnexion de réseaux à plus grande distance reste un point d'interrogation,
quoique les premiers essais soient plutôt encourageants.

116
Il est évident que les architectures " publiques " planifiées à base d'ATM prévoient
de proposer une interface FDDI comme interface d'accès. Mais on peut dire autant de bien
d'autres interfaces, dont le MAN-DQDB, le RNIS bande étroite et les réseaux locaux
aujourd'hui les plus courants sur le marché, l'ATM se présentant avant tout comme un grand
rassembleur. La question est de savoir ce qu'il devra rassembler.

1.1.2.5. L’ATM

L’ATM (Asynchronous Transfer Mode, c'est-à-dire mode de transfert asynchrone) est


une technologie très récente qu’Ethernet, Token Ring et FDDI. Il s’agit d’un protocole de niveau 2, qui
a pour objectif de segmenter les données en cellules de taille unique. L’en-tête de chaque cellule
comprend des informations qui permettent à la cellule d’emprunter son chemin. Les cellules ATM
sont envoyées de manière asynchrone, en fonction des données à transmettre, mais sont insérées
dans le flux de donnée synchrone d'un protocole de niveau inférieur pour leur transport.

Avec le réseau ATM, deux technologies existent pour le moment :

➢ La commutation des paquets


➢ La commutation des circuits

Une question se pose : s'agissant des méthodes de transmission de l'information,


faut-il conserver la commutation de circuits, bien adaptée à la voix et à l'image, ou la
commutation de paquets, qui l'est davantage aux données ?

Faut-il en outre proposer des services en mode connecté, c'est-à-dire où l'on établit
puis libère le circuit après utilisation, ou en mode non connecté où le message, toujours
associé à son adresse de destination, est aiguillé sans délai ?

Les ingénieurs ont tenté de rapprocher ces quatre formules et d'en cumuler les
avantages en mettant au point une famille de techniques dite de commutation de paquets
rapides (FPS, Fast Packet Switching), dont la plus prometteuse est l'ATM (Asynchronous
Transfer Mode).

Il s'agit d'une commutation de paquets, mais comme certains doivent absolument


être envoyés dans des délais très courts (pour les applications isochrones, comme la voix), on
définira des paquets de taille fixe et suffisamment petite pour commuter à des cadences
élevées. Un paquet de longueur fixe est appelé cellule, d'où le nom de relais de cellules (Cell
Relay) qui est parfois donné à l'ATM.

1.2. Méthodes de communication

Justification de la commutation

Si on veut mettre deux stations en relation on peut utiliser deux solutions. La première
est de créer une connexion permanente entre toutes les stations du réseau.

117
Figure 1.20 : Commutation

Ainsi le nombre de connexion nécessaire pour connecter les stations dépend de


l’équation suivante: Nbl = N(N− 1) / 2 avec Nbl, le nombre de connexions et N, le nombre de stations.
Donc si un réseau comprend 15 stations il faudrait 105 connexions. Ce qui est impossible à câbler
d’où l’intérêt des commutateurs. Donc on utilisera la deuxième solution que sont les commutateurs.

1.2.1. Communication des circuits

Figure 1.21 : Communication des circuits

Dans ce type de communication, un chemin physique est réservé à travers le réseau


jusqu’au destinataire. ‘’ Toute les données échangées entre les deux extrémités chemineront par ce
circuit matérialisé par une ligne continue établie provisoirement. Une fois la communication
terminée, le circuit sera libéré.’’

Le mot circuit désigne une liaison entre deux commutateurs. Son inconvénient réside
dans la monopolisation des commutateurs en cas de silence, même lorsqu’il n y a pas transmission
d’informations. Le réseau téléphonique commuté (RTC ou PSTN) est un modèle traditionnel de ce
type de commutation.

Figure 1.22 :

1.2.2. Commutation de messages

Dans ce types de commutation, il n y a pas réservation d’un chemin de la connexion.


C’est la première technique utilisée pour la transmission de données informatiques. Un message

118
provenant de la machine d’émission est déposé dans un commutateur attaché à cette machine qui se
met en liaison avec le commutateur de la machine de destination.

La technique utilisé est ‘’ store an forward’’ : le commutateur ‘’ attend la réception


complète du message, le stocke, analyse l’adresse du destinateur voisin adéquat. Le délai de
transmission du message dépend du nombre de commutateurs traversés par le message et de sa
longueur.

1.2.3. Commutation de paquets

Figure 1.23 : Commutation de paquets

Dans cette méthode, le message est découpé en des petites entités de longueur fixe
appelées ‘’paquets’’, c’est la fragmentation. Dans ce cas, chaque paquet peut prendre un chemin
diffèrent, ce qui permet un parallélisme et augmente la vitesse de transmission. Le destinataire doit
attendre l’arrivée de tous les paquets pour reconstruire le message et le traiter (réassemblage).

Figure 1.24 : Réassemblage de paquets

1.2.4. Commutation de cellules (temporelle asynchrone)

Le message est découpé comme dans la commutation de paquets, mais en des entités
encore plus petites (cellules). L’objectif est de transmettre en temps réel les données, les images et
le son. Cette méthode essaye de remédier aux inconvénients des méthodes précédentes quant à la
qualité des services, la vitesse de transmission, la difficulté d’interconnexion et la performance. Le
protocole utilisé est l’ATM (Ansychronous T Transfer Model).

Section 2 : Notion de couches et les modèles d’architectures en couches

2.1. Caractéristiques logiques des réseaux

Lorsqu’on avait conçu les premiers réseaux, on s’intéressait d’abord aux aspects
matériels et pas tellement aux aspects logiciels. En effet, on oubliait que les données véhiculées dans

119
les échanges utilisant un réseau sont issues de programmes d’application établis à partir des logiciels
(systèmes d’exploitation, langages de programmation, logiciels d’applications, etc.) qui peuvent être
différents d’un ordinateur connecté à un autre, d’où se posera le problème d’hétérogénéité.

Les premiers réseaux informatiques étaient donc conçus suivant des systèmes
propriétaires : chaque constructeur avait ses propres normes. Devant le chaos qui se profilait à
l’horizon avec l’expansion des machines en réseaux, le CCITT (Comité Consultatif International pour
la Télégraphie et la Téléphonie, aujourd’hui dénommée ITU (Introduction Télécommunication Union)
associé avec ISO (International Standard Organisation) publièrent conjointement des normes
internationales pour la conception des réseaux OSI (Open System Interconnexion).

Il s’agit d’un modèle de référence qui devrait assurer l’interopérabilité des systèmes
réseaux ouverts c’est-à-dire ceux dont les normes était connues de tous les constructeurs tant du
point de vue matériel que du point de vue logiciel.

Les architectures des systèmes ouverts sont basées sur une hiérarchie des couches. Tous
les réseaux informatiques ouverts respectent ce principe. Chaque couche étant situé à un niveau
bien précis, a pour rôle de fournir des services à la couche immédiatement supérieure. Les services
fournis dépendent du niveau de la couche et de son rôle.

Chaque couche est constituée d’élément matériels et logiciels et offre un service à la


couche situé immédiatement au-dessus d’elle (supérieure).

2.2. Notions de couche, protocole, services, interface et architecture réseau.

Une couche est spécialisée dans un ensemble de fonctions particulières. Elle utilise les
fonctionnalités de la couche inférieure et propose ses fonctionnalités à la couche supérieure.

Un système est un ensemble de composants formant un tout autonome. Une entité est
l'élément actif d'une couche dans un système.

La couche N d’une machine gère la conversation avec la couche N d’une autre machine.
Les règles et les conventions utilisées pour cette conversation sont connues sous le nom de protocole
(figure ci-dessous). Le protocole définit les caractéristiques de l’échange entre les deux systèmes.

On appelle entités homologues (paires), des entités de même couche situées dans des
systèmes distants.

Le protocole d'une couche N définit l'ensemble des règles ainsi que les formats et la
signification des objets échangés, qui régissent la communication entre les entités de la couche N.

Le service d'une couche N définit l'ensemble des fonctionnalités possédées par la


couche N et fournies aux entités de la couche N+1 à l'interface N/N+1. On note souvent N_X (ou
encore X(N)) l'objet de type X appartenant à la couche N. Par exemple : N-entité ou entité(N).
Exemples de services : „ Connexion, Echange de données, déconnexion

120
Figure 1.25 :

Entre chaque paire de couches adjacentes, on trouve une interface. L’interface définit
les opérations élémentaires et les services que la couche inferieure offre à la couche supérieure
(figure ci-dessus). Pour réaliser une communication, la couche n+1 utilise le service offert par la
couche n. Les services de la couche n sont proposés à la couche n+1 grâce à son interface.

Figure 1.26 : Architecture réseau par couches

L'architecture d'un réseau est définie par l'ensemble des couches et la description des
protocoles et des services de chacune d'elles.

Chaque couche contient des entités qui fournissent des services à la couche supérieure.
‘’ Selon la nature du service à fournir, une entité est matérielle ou logicielle : pour les couches les
basses, les entités sont les plus souvent matérielles (inter connectivité), alors que dans les couches
de niveaux élevés, ce sont des éléments de programmation (interopérabilité).

Le lien entre les deux entités des couches n et n+1 sera établi à travers un SAP (Service
Access Point) ou point d’accès au service. Les messages qui transitent entre les deux entités (n et
n+1) sont des unités de données de protocole de niveau n (n-PDU).

Une PDU (Protocol Data Unit) comprend les deux niveaux suivants :

➢ SDU (Service Data Unit), qui contient des données;


➢ ICI (Interface Control Information), qui est un dispositif de gestion des erreurs de
transmission.

121
NB : En réalité, aucune donnée ne passe directement de la couche n d’une machine à la
couche n d’une autre ; mais chaque couche passe par les données et le contrôle à la couche
immédiatement inferieure jusqu’à la plus basse.

Section 3 : Modèle OSI à trois couches (Réseau, Transport et Application)

A ses origines, le modèle OSI reposait sur trois super couches :

➢ La couche réseau, qui assurait le transport des bits entre machines devait assurer l’inter
connectivité ;
➢ La couche transport qui servait d’interface entre la couche application et réseau ;
➢ La couche application qui donne des facilités d’adaptation aux différents programmes
réseaux devrait assurer l’interopérabilité.

Section 4 : Modèle OSI à sert couches

Le modèle à trois couches n’a pas survécu très longtemps, OSI finit par élaborer un
modèle plus affiné avec sept couches : physique, Data Link (Liaison des données), Network (réseau),
Transport, Session, Présentation, Application.

➢ Les fonctionnalités de chaque couche sont assurées par des fonctions logicielles à l’exception
des couches une et deux qui sont réalisées par des composant matériels. Voici quelques
représentations du modèle de référence.

122
4.1. Le Modèle de référence OSI

Il est appelé modèle de référence OSI (Open System Interconnexion) parce qu’il traite de
la connexion entre les systèmes ouverts en communication avec d’autres systèmes ouverts. Notez
que le modèle OSI n’est pas en soi une architecture de réseau, car il ne spécifie pas réellement les
services et protocole utilisés dans chaque couche. Il décrit simplement ce que chaque couche doit
faire. Comprendre le modèle OSI est la clé pour comprendre les réseaux.

Les couches OSI peuvent être regroupées en trois blocs suivants :

➢ les couches basses de l’OSI (1,2 et 3) : assurent la transmission et l’acheminement des


informations à travers le réseau et se trouvent dans les équipements connectés sur le
réseau, équipement terminal, d’interconnexion etc. c’est l’éclatement de la super couche
réseau du modèle à trois couches.
➢ La couche intermédiaire gère les communications et les ressources (processus et mémoire)
nécessaires à l’échange de messages entre équipements terminaux indépendamment des
réseaux utilisés et comportent les règles de transfert de l’information, de contrôle de flux et
d’intégrité de données transmises. C’est la super couche transport du modèle OSI à trois
couches.
➢ Les couches hautes (5,6 et 7) traitent les données échangées (exécution des commandes,
mise en forme, affichage). C’est l’éclatement de la super couche application du modèle à
trois couches.

4.2. Les différentes couches

4.2.1. La couche physique

La couche physique réalise la transmission des éléments binaires sur le support suivant
les caractéristiques physiques, électriques, optiques et mécaniques. Cette couche est appelée, aussi
niveau bit : c’est celle qui met en œuvre les procédures de connexion des ETCD-DCE (qui traitent des

123
trains de bits). C'est le support de transmissions lui-même: un fil de cuivre, une fibre optique, les
ondes hertziennes...

Au niveau de cette couche, le respect des normes était universel grâce aux avis du
CCITT. Une fois la liaison effective, la couche 1 va rendre compte à la couche suivante, qui prend le
relais, et ainsi de suite. Le rôle de chaque couche commence lorsque la précédente a réussi à établir
une connexion avec la correspondante du processus distant.

4.2.2. La couche liaison de données

La couche liaison assure le transport des trames sur une ligne et dispose des moyens de
détections d’erreurs de transmission, la synchronisation et éventuellement de corrections.

4.2.3. La couche réseau

La couche réseau assure du transport (acheminement), de l’adressage et du routage des


données groupées en paquets à travers le réseau. Elle est appelée aussi niveau paquet.

Ses fonctions principales concernent :

➢ L’adressage : les outils d’interconnexion des réseaux ;


➢ La construction des trames de niveau 4 : diverses informations nécessaires au cheminement
des trames sur le réseau ;
➢ Et les techniques de routage : assure le routage des informations à travers les nœuds.
➢ Le multiplexage s’effectue à ce niveau.

4.2.4 La couche transport

La couche transport est responsable du contrôle de transfert de bout à bout, il permet


de choisir le type de service qu’il faut pour envoyer un message à un destinataire. Il réalise le
découpage des messages en paquet pour le compte de la couche réseau ou le réassemblage des
paquets en message pour le compte des couches supérieures. Elle S'occupe de la fragmentation des
données en petits paquets et vérifie éventuellement qu'elles ont été transmises correctement.

4.2.5. La couche session

La couche session est d’interface entre les fonctions liées à l’application et celles liées au
transport de données et assure l’ouverture et la fermeture des sessions pour le compte de
l’application. Elle définit les règles d’organisation et de synchronisation du dialogue entre deux
utilisateurs.

Les équipements connectés ouvert ensuite une session de travail. Le dialogue qui
s’instaure alors entre processus utilisateurs est régi par une procédure commune qui peut être
considère comme protocole. Il gère les ressources à mettre en œuvre pour permettre à deux
applications de communiquer (connexion logique, synchronisation, déconnexion).

4.2.6. La couche présentation

Elle prend en charge les traitements relatifs à la visualisation. La couche présentation


met en forme les informations échangées pour les rendre compatibles et faire communiquer les

124
applications. En d’autres termes, elle vise à faire communiquer les applications ayant des
présentations différentes. Elle est en charge de la représentation des données (de telle sorte qu'elle
soit indépendante du type de microprocesseur ou du système d'exploitation par exemple) et -
éventuellement - du chiffrement.

4.2.7. La couche application

La couche application est chargée de l’exécution de l’application et de son dialogue avec


le destinataire. Cette couche est plus près de l’utilisateur et fournit les outils et services disponibles
sur un réseau. C'est à ce niveau que sont les logiciels: navigateur, logiciel d'email, FTP, chat...

Section 5 : Le modèle TCP/IP (Transport Contrôle Protocole/Internet Protocol)

5.1. Introduction

Dans les années 70, la défense américaine (DOD), devant la multiplication des machines
utilisant des protocoles de communications différentes et incompatibles, décide de définir son
propre standard d’interconnexion. Ce standard est aujourd’hui appelé le modèle de référence TCP/IP
du nom de ses deux principaux protocoles :

➢ Internet Protocol (IP) : qui est un protocole de la couche réseau assurant un service sans
connexion (connectionless) ;
➢ Transmission Contrôle Protocol (TCP) : qui est un protocole de la couche transport qui fournit
un service fiable avec connexion (connections oriented).

Ce modèle se présente sous la forme d’une architecture en couches.

5.2. Protocole TCP/IP (Transport Contrôle Protocole/Internet Protocol)

Les TCP/IP sont des protocoles universels qui s’intègrent facilement dans les composants
d’architectures constructeurs comme IBM, Microsoft, Novell. Ces protocoles tolèrent les pannes dans
les réseaux décentralisés et s’affranchissent du matériel dans sa configuration.

Le TCP/IP est une norme universelle disponible sur tous les types de réseaux physiques,
elle peut être installée sur n’importe quel système. Les protocoles TCP/IP couvrent les couches
réseaux (pour IP) et transport (pour TCP) du modèle OSI.

Malgré sa complexité, elle est un élément essentiel dans les installations informatiques
mettent en œuvre plusieurs réseaux, car elle constitue un dispositif de conversion complet.

Ce modèle comporte quatre couches : la couche hôte-réseau, la couche Internet, la


couche transport et la couche application. Voici le modèle en couches TCP/IP :

125
Figure 1.27 : Le routage à travers les passerelles

Les machines-hôtes (terminaux) traitent les paquets à travers les 4 couches de protocole
alors que les passerelles (intermédiaires) traitent les paquets jusqu'à la couche Internet au sein de
laquelle la voie de routage des données est déterminée.

5.3. Les couches

5.3.1. La couche hôte-réseau

Cette couche regroupe toutes les fonctions des couches de niveau 1 et 2 du modèle OSI.
Elle examine comment transmettre les paquets de données.

Elle réalise les taches suivantes :

➢ Construction des trames ;


➢ Détection et correction des erreurs de transmission ;
➢ Transmission sur les diverses supports physique ;
➢ Accès au media selon les différentes normes de réseaux.

5.3.2 La couche Internet

La couche Internet définit un format officiel de paquets qu’on appelle IP. Elle permet
l’interconnexion des structures matérielles différentes de façon transparente.

On peut dire que la couche Internet du modèle TCP/IP a des fonctionnalités identiques à
celle de la couche réseau du modèle OSI.

5.3.3. La couche transport

Comment envoyer un message au destinataire ?

Deux protocoles sont possibles selon le type d’application employée. Le TCP est un
fiable orienté connexion qui permet la remise sans erreurs à une machine Internet destinataire un
flux d’octets issus d’une autre machine Internet. Sur la machine destinataire, le processus TCP
d’arrivée rassemble les messages reçus.

126
5.3.4. La couche application

Le modèle TCP/TP n’a pas de couche session ou présentation. Au-dessus de la couche


transport, on trouve donc directement la couche application qui contient tous les protocoles de haut
niveau. Voici la liste non exhaustive des quelques protocoles utilisés dans la couche application :

FTP (File Transfert Protocol : Protocole de transfert de fichier) : c’est un mécanisme


simple de transfert de fichier. Il fournit un moyen efficace de passer les données d’une machine à
une autre machines ;

SMTP (Simple Mail Transfert Protocole : Courrier électronique) : il définit les règles
d’échange entre servers de messageries pour des réseaux à longues distances ;

TELNET (Protocole de terminal virtuel) : il permet à l’utilisateur de se connecter à


distance sur une machine pour y travailler.

Section 6 : Comparaison des modèles OSI et TCP/IP

Le modèle de régence OSI et TCP/IP ont certains points communs. Ils sont tous deux
fondés sur les concepts de pile de transport indépendants. Les deux modèles présentent également
certaines différences.

Il y a trois concepts centraux dans le modèle OSI (voir infra page 62 à 63) : les services,
les interfaces et les protocoles. Le modèle TCP/IP ne faisait pas à l’origine la distinction entre service,
interface et protocole. Une autre différence entre les deux modèles est le nombre de couche. Le
modèle OSI en a 7 et le modèle TCP/IP en a 4.

L’autre différence concerne le support des modèles de communication avec connexion


ou sans connexion. Le modèle OSI permet les deux types de communication au niveau de la couche
réseau, mais seulement un seul type au niveau de la couche transport (avec connexion). Le modèle
TCP/IP support un seul mode de connexion au niveau de la couche réseau (sans connexion), mais
offre les deux modes au niveau transport.

127
Figure 1.28 : comparaison en les modèles OSI et TCP/IP (en français et en anglais)

128
CHAPITRE 3 : LES RESEAUX LOCAUX
Les réseaux locaux sont normalisés par l’organisme IEEE (Institute of Electronic and
Electricity Engineers) qui traite, par ailleurs, beaucoup d’autres aspects liés à l’électronique, aux
semi-conducteurs etc. depuis 1970, cet organisme essaye de normaliser les réseaux locaux en
s’appuyant sur les couches inferieurs de l’OSI (1,2 et 3). Ces normes concernent tous les niveaux de
transmission de l’information, du câblage jusqu’aux modèles théoriques des réseaux.

Les normes concernant les réseaux locaux portent le numéro 802 suivis d’un indice.
D’une manière générale, les normes IEEE relatives aux réseaux spécifient les méthodes d’accès et les
supports utilisés.

En février 1980, un groupe de travail a été créé pour la normalisation des réseaux
locaux. Son but est de développer un standard pour la communication entre deux systèmes, quelle
que soit l’architecture utilisée. Le groupe prend le nom de 802 (soit 80 pour l’année et 2 pour le mois
de février, date de la création de ce groupe).

A partir de 1982, le groupe se divise en sous-groupe de travail spécialisé :

➢ 802.1 : groupe de travail sur l’architecture générale des réseaux ;


➢ 802.2 : groupe de travail sur la gestion de transfert de données ;
➢ 802.3 : groupe de travail sur le réseau bus CSMA/CD (Ethernet) ;
➢ 802.4 : groupe de travail sur le réseau bus de jeton (Token bus) ;
➢ 802.5 : groupe de travail sur le réseau anneau à jeton ( Token ring) ;
➢ 802.6 : groupe de travail sur le réseau métropolitain (MAN).

Certains groupes ont été créés et dissous, c’est le cas de 802.7, 802.8, 802.9, 802.10.
D’autres n’ont jamais vu le jour c’est le cas de 802.13.

Section 1. Réseau local et modèle OSI

Certaines correspondances ont été établies entre le modèle OSI et les normes des
réseaux locaux, telles que proposées par IEEE. Si un accord a été trouvé pour la couche OSI 3, pour
les deux autres couches inférieures de l’OSI (1,2), on a gardé certaines particularités (figure ci-
dessous).

802.1 3
802.2 2
8 8 8 8 8 L
02.3 02.4 02.5 02.5 02.5 LC
M
AC
1
0

Figure 1.1 : Le cadre de référence IEEE 802 et le modèle OSI

129
a) Niveau OSI 3 Norme IEEE 802.2

La norme 802.1 correspond à l’interconnexion de tos les réseaux locaux sans distinction.
Elle remplit les fonctions de la couche réseau telle que définie par le modèle OSI pour le transport
des paquets.

b) Niveau OSI 2 MAC et LLC Norme IEEE 802.2

La couche OSI a été subdivisée en deux sous-couches :

1. MAC (Medium Access Control)

MAC (Medium Access Control), qui correspond à des normes particulières pour chaque
type de réseau local. Il est chargé de la gestion des accès dans un support de transmission. Il s’agit
d’une adresse physique qui est propre pour chaque machine, elle est géré par la carte réseau. Cette
adresse respecte un format défini par IEEE sur 16 ou sur 48 bits. Le format de 48 bits est le plus
répandu. Ce format constitue l’adresse universel des équipements : il correspond à un numéro de
série dont un premier champ de 24 bits donne le numéro du constructeur de la carte IBM, HP, DELL,
etc.), tel qu’attribué par IEEE.

Les 24 bits suivants donnent le numéro de la carte attribuée par le constructeur. De


cette façon, les cartes réseaux des ordinateurs possèdent une adresse unique dans le monde.

Le Format général des adresses MAC universelles de 48 bits se présente comme suit :

Adresse Adresse carte 24


constructeur 24 bits bits

1. En Windows, on l’affiche par la commande IP config/all,

Adresse physique : 52-54-05-FD-DE-E5 ;

2. Sous Linux, on l’affiche par la commande /sbin/if config,

HWaddr 00: 90:27:6A:58:74.

2. LLC (Logical Link Control)

LLC (Logical Link Control), qui correspond à la norme IEEE 802.2 pour tous les réseaux
locaux et gèrent les liens logiques. On distingue trois types de LLC :

➢ LLC de type 1, qui offre un service sans connexion et sans acquittement (en point à point, en
multipoint ou en diffusion). Il n y a donc pas de garantie d’acheminement de données ;
➢ LLC de type 2, qui offre un service avec acquittement, un contrôle de flux et une correction
des erreurs (entre deux points d’accès) ;
➢ LLC de type 3, qui offre un service sans connexion mais avec acquittement (utilisé dans le
réseau industriels).

130
Section 2. Norme IEEE 802.3 Ethernet

Le réseau Ethernet est apparu à la fin des années 1079 aux USA. Ce réseau est le plus
répandu des réseaux locaux. Il est issu des expériences complémentaires de DEC, Intel et Xerox de
Palo Alto Research Center, et cela bien avant les premières normalisations.

La méthode utilisée est la contention, tout le monde peut émettre quand il le souhaite.
Mais alors, il faut une règle pour le cas où deux stations émettent au même moment pour éviter la
collision.

a) CSMA/CD

Le protocole le plus utilisé dans les réseaux Ethernet est le CSMA/CD (Carrier Sense
Multiple Acces With Collision Detection- Accès Multiple à Détection de la Porteuse). Il s’agit d’un
protocole aléatoire qui dérive de l’algorithme ALOHA utilisé par les professeurs N.Abramson et F.Kuo
de l’Université d’Hawaï pour relier les différents terminaux des campus disséminés sur différentes
îles à un ordinateur central. Cette liaison était établie au moyen d’un satellite géostationnaire suivant
une architecture « star network ». Cet algorithme se résume de la manière suivante :

REPEAT

Transmit packet Pt ;

Receive same packet Pr;

Ok: = Pr = Pt;

IF NOT Ok THEN

Wait random delay

END

UNTIL Ok

L’algorithme du professeur Abramson est aussi dénommé ALOHA pur. En effet, il existe
à présent plusieurs améliorations de cet algorithme. Ainsi, on a aussi ALOHA discrétisé.
Contrairement à l’ALOHA pur, cet algorithme n’autorise pas à toutes les stations d’un réseau
d’émettre librement, elles doivent s’accorder à un temps fixé par une horloge qui déterminera
désormais l’intervalle de l’émission.

De même CSMA connaît plusieurs variantes : CSMA 1-persistant, CSMA non persistant
(CSMA/CD fait partie de cette famille).

En dehors de CSMA/CD, il existe d’autres protocoles dérivant de la même famille tels


que le CSMA/CA (Carrier Sense Multiple Acces With Collision Avoidance) et CSMA/CR (Carrier Sense
Multiple Acces With Collision Resolution).

131
b) Type Ethernet et IEEE 802.3

1. Les réseaux Ethernet originels

Les premiers réseaux Ethernet étaient conçus avec les caractéristiques suivantes :

➢ Topologie en bus ;
➢ Supports physiques : câble à paires torsadées, câble coaxial et fibre optique ;
➢ Transmission en bande de base (Manchester) ;
➢ Débit 1 à 10 Mbits/s ;
➢ Méthode d’accès CSMA/CD.

Le tableau suivant (ci-dessous) présente les différentes normes classiques de l’Ethernet.

N D Trans Supp Longueur


orme ébit mission ort maximale d’un segment
1 1 Band Câbl 500 mètres
0base5 0Mbits/s e de base e coaxial RG 11
Manchester
1 1 Band Câbl 200 mètres
0base2 0Mbits/s e de base e coaxial RG58
Manchester
1 1 Large Câbl 3 600
0Broad36 0Mbits/s Bande e coaxial 75Ω mètres
modulation PSK
1 1 Band Câbl 500 mètres
base5 Mbits/s e de base e à paire
Manchester torsadées
1 1 Band Câbl 100 mètres
0baseT 0Mbits/s e de base e à paire
Manchester torsadées Cat 3
ou supérieure
1 1 Band Fibre 2
0baseF 0Mbits/s e de base optique kilomètres
Manchester
Tableau 1.1 : Normes Ethernet classique

2. Fast Ethernet (802.3u ou 802.14)

Il s’agit d’une nouvelle norme Ethernet à haut débit qui offre 100 Mbit/s ; il fut mis au
point par IEEE en 1995. A l’origine, elle était conçue pour les dorsales (back Bône) d’interconnexion
des réseaux de 10 Mbit/s.

Malheureusement, cette norme supplanta les Ethernet originels de 10 Mbit/s et les


remplaça. Elle est nommée 802.3u ou 802.14 (Fast Ethernet) et propose trois types de câble (tableau
ci-dessous).

132
N D Support Longueur
orme ébit physique maximale d’un
segment
1 1 Câble à 100
0baseT4 00Mbits/s paires torsadées mètres
catégorie 3 à 4 paires
torsadées
1 1 Câble à 100
0baseTX 00Mbits/s paires torsadées mètres
catégorie 5 à 2 paires
torsadées
1 1 2 fibres 2 000 à
00BaseFX 00Mbits/s optiques 10.000 mètres
Tableau 1.2 : Normes Fast Ethernet

3. Gigabit Ethernet (802.3z)

Etant donné que Fast Ethernet était devenu une norme d’architecture normale des
terminaux d’un réseau local (100 Mbit/s). Il fallait alors mettre au point une nouvelle norme qui
servirait de dorsale (Back Bône) pour l’interconnexion des réseaux locaux à haut débit. C’est ainsi
que naquit la norme 802.3z en 1998 et connue sous le nom Gigabit Ethernet, elle propose un débit
binaire de 1000 Mbit sur câbles à paires torsadées ou sur fibre optique.

L’interconnexion avec les réseaux Ethernet originels et Fast Ethernet s’effectue grâce à
des points intégrés au matériel qualifié de 10/100/1000 Mbit/s.

N Support physique Longueur


orme maximale d’un
segment
1 Câble à paires 100
000baseTX torsadées mètres
catégorie 5e , 6, 7 ou 8
1 F 62.5 m 275
000BaseSX ibre mètres
optique 50 m 550
multimode mètres
850 mm
1 F 62.5 m 550
000BaseLX ibre mètres
optique 50 m 550
multimode mètres
1300 mm
Fibre optique 10 mètres
monomode 10 m

Tableau 1.3 : Normes Gigabit Ethernet

133
4. 10 Gigabit Ethernet (802.3ae)

Cette norme a été ratifiée en juin 2002. L’innovation de sa conception porte sur deux
paramètres :

➢ L’augmentation des débits binaires de transmissions à 10 Gbits/s en full duplex ;


➢ L’augmentation de la longueur maximale d’une liaison jusqu’à 40 km de façon à ce qu’un
réseau d’entreprise ne dépende plus d’un opérateur télécom.

Cette norme remet en question l’élément distance comme critère de classification des
réseaux (10 km maximum pour un réseau local). La norme utilisant le câble à paires torsadées n’est
pas encore mise au point. Les normes utilisant la fibre optique sont opérationnelles et comprennent
deux versions :

➢ R, concerne l’interconnexion des réseaux distants ;


➢ W, concerne la connexion à un réseau longue distance.

N Support physique Longueur


orme maximale d’un
segment
1 Câble à paires torsadées (non 100
0GBaseT implémentée) mètres
1 Fibre Optique multimode 850 300
0GBaseSR nm mètres
1
0GBaseSW
1 Fibre Optique multimode 1310 10 Km
0GBaseLR nm
1
0GBaseLW
1 Fibre Optique multimode 1310 300
0GBaseLX4 nm mètres
Fibre Optique multimode 10 Km
1 Fibre Optique multimode 1550 40 Km
0GBaseER nm
1
0GBaseEW

Tableau 1.4 : Normes 10 Gigabit Ethernet

Section 3. Norme IEEE 802.4 – Token Bus (Jetton sur Bus)

Avec cette norme, les ordinateurs sont connectés au niveau physique à un bus. C’est
une norme qui n’a pas connu beaucoup de succès. Elle a été surtout utilisée dans l’environnement
industriel.

La gestion du bus est confiée à un élément actif particulier appelé superviseur. Ce


dernier est en charge de la création du jeton à l’initialisation du réseau et de la circulation entre les

134
ordinateurs. Le superviseur détermine aussi un ordre cyclique de passage de jeton entre tous les
postes connectés. Le bus physique supporte donc un anneau logique de circulation de jeton. Le
protocole utilisé dans ce réseau est déterministe : chaque station n’émet que quand il détient le
jeton.

En fait, le jeton est une trame unique permettant de véhiculer de l’information binaire
sans erreur entre deux machines.

Pour réaliser un réseau token bus, la norme propose l’utilisation de trois types de
support.

S B Débit Principe
upport ande de transmission
passante
C 6 5 ou 10 Large
âble coaxial ou 12 MHz Mbit/s bande
75 
C 1 1 Mbit/s Codage
âble coaxial ,5 MHz Manshester
CATV
C 1 1 Mbit/s ; Large
âble coaxial ,5 MHz ; 6 5 Mbit/s ou 10 Mbit/s bande
CATV MHz ou 12
MHz

Tableau 1.5 : Support physique normes 802.4

Section 4. Norme IEEE 802.5 –Token Ring (Jeton sur Anneau)

Ce réseau vit le jour aux débuts des années 1980. Il fut mis au point par IBM qui ne
voulait pas utiliser la technologie Ethernet mise au point par ses concurrents. Il avait un débit de 4
Mbit/s, qui est allé jusque 16 Mbit/s dépassant l’Ethernet classique. Le protocole proposé dans ce
réseau est aussi déterministe : chaque station n’émet que quand il détient le jeton (trame unique
permettant de véhiculer l’information).

a) Architecture Token Ring

Un réseau Token Ring est constitué de MAU (Multisation ou Medium Acces Unit,
repartiteur) reliés entre eux pour constituer un anneau. Le MAU ressemble à un hub, il permet la
connexion des stations au ring et joue le rôle de répéteur. On peut connecter entre 72 à 260 stations
suivant le type de câble utilisé.

Ce réseau dispose d’un système appelé : « token ring recovery procedure », qui permet
de régénérer le jeton en cas de panne d’une station. Cette opération requiert une station «
Monitor » ou superviseur qui aura la tâche spéciale de restaurer le jeton.

Cette procédure commence lorsqu’une station se rend compte après un certain


intervalle de temps qu’il n’accède plus au jeton. Elle envoie alors un message « claim token ». La

135
station « monitor » avant de créer un nouveau jeton va d’abord nettoyer le ring pour s’assurer qu’il
n’y ait pas deux jetons en circulation.

b) Medias physiques utilisés par Token Ring

Trois types de câbles sont employés dans cette architecture.

Support Débit Principe


de transmission
Câble à paires 1 Mbit/s à Manchest
torsadées blindé 4 Mbits/s er différentiel
Câble à paires 1 Mbit/s à Manchest
torsadées blindé 16 Mbits/s er différentiel
Fibre Optique 1 Mbits à Manchest
16 Mbit/s er différentiel
Tableau 1.6 : Supports physiques normes 802.5

Section 5. Norme 802.6 MAN (Metropol Area Network)

Le MAN fut conçu au départ pour intégrer les LAN et les WAN. Il est basé sur un double
bus physique, ce qui permet l’interconnexion d’un nombre important de terminaux sur des distances
allant jusqu’à plusieurs kilomètres. Cette technique est appelée DWDB (Distributed Queuting Dual
Bus). Le bus peut être un câble coaxial ou une fibre optique en fonction de la distance ou de
l’environnement.

Les deux bus unidirectionnels créent des trames synchrones issues des générateurs
situés aux extrémités, par intervalles réguliers de temps d’environ 125 s. Les générateurs sont
installés tels que les trames circulent sur chacun des bus en sens inverse. Chaque terminal est
connecté par son interface aux deux bus et choisit en fonction du protocole, le bus à utiliser.

Section 6. Norme FDDI (Fiber Distributed Data Interface)

Le FDDI (Fiber Distributed Data Interface) repose sur la technique du réseau à jeton
sécurisée, en double bidirectionnelle, constituée de fibres optiques. Son protocole déterministe
ressemble à celui de la norme 802.5 avec la possibilité d’un anneau d’une circonférence maximale de
200km avec une connexion de plus 1.000 terminaux.

Conçu par ANSI (American National Standard Institude) et normalisé par ISO, ce réseau a
été mis au point pour combler les insuffisances des LAN qui ne supportaient pas plusieurs terminaux
et des grandes distances. Sa gestion complexe n’a pas lutté pour sa vulgarisation.

Section 7. Norme IEEE 802.11-Réseau local sans fil Wi-Fi

Les réseaux locaux sans fil connaissent un grand développement par la flexibilité de
l’interface qui permet à un utilisateur de changer de place tout en restant connecté et dès lors de se
libérer des contraintes filaires. Deux solutions sont actuellement utilisées dans les réseaux locaux
sans fil :

➢ Les transmissions par onde radio ;


➢ Par faisceau optique (laser).

136
Le réseau sans fil basé sur la transmission radio est appelée 802.11. La Wi-Fi (Wireless
fidelity) Alliance est un organisme chargé de gérer la compatibilité des produits 802.11, cela a
conduit à un de langage pour ce type de réseau et de support appelé vulgairement wifi.

a) Architecture Wi-Fi

Elle se présente souvent sous la forme d’une carte réseau Ethernet placée dans un
ordinateur et reliée à un point radio. Ce qui concrètement consiste à convertir les trames 802.3 de la
carte réseau (Ethernet) en trames 802.11 du réseau sans fil. La méthode d’accès utilisée dans les
réseaux sans fil est le CSMA/CA (Carrier Sense Multiple Acces With Collision Aviodance) qui gère les
conflits d’accès à la fréquence partagée par différentes stations d’une même zone.

L’accès au media est réalisé par le protocole RTS/CTS (Request To Send/Clear To Send).
Son but est de sonder et de réserver le support par un court échange avec le récepteur.

Une architecture WI-Fi est de type cellulaire c-à-d similaire à la téléphonie (téléphones +
stations) avec un ou plusieurs points d’accès pour unifier le réseau et servir de ponts, dans une
couverture géographique (cellule).

Deux modes d’exploitation sont possibles : le mode infrastructure et le mode poste à


poste (mode ad-hoc). On parle également de topologies, au lieu de modes d’exploitation.

1. Le mode infra-structure

Le mode infra-structure désigne un réseau Wifi composé d’une infrastructure


permettant l’échange d’informations entre les stations. L’infrastructure est le point d’accès.

Il nécessite donc un matériel spécifique appelé point d’accès. Ce point d’accès définit un
espace géographique appelé cellule wifi à l’intérieur duquel les stations peuvent communiquer.
Chaque station de la cellule se connecte au point d’accès pour émettre ou recevoir. Un réseau sans fil
peut compter plusieurs cellules. Le point d’accès ressemble à un stard network.

➢ Le mode infra-structure BSS : Basic Service Set

1 cellule = 1 Basic Service Set = 1 point d’accès

100 stations : support partagé entre toutes les stations, ainsi que le débit de 11 Mbit/s.

Figure : 1.2 : Mode infra-structure BSS

137
➢ Le mode infra-structure ESS : Extended Service Set

-Plusieurs points d’accès(BSS) connectés entre eux par un système de distribution (DS)
qui peut être un Ethernet ou un autre réseau.

-Il peut fournir l’accès vers un autre réseau : Internet

Figure 1.3 : Mode infra-structure ESS

1.3. Le mode poste à poste ou ad-hoc (IBSS : Independant Basic Service)

Il permet à chaque station de communiquer avec une autre pour autant qu’elle se situe
dans la zone de couverture de son interface wifi.

Une station peut partager un accès à Internet. Il fonctionne comme un BSS.

b) Sécurité des réseaux Wi- Fi

Deux modes de sécurité sont possibles dans les réseaux Wi-Fi :

1. Security Set Identifier (SSID)

138
Dans le mode infrastructure, le réseau sans fil est constitué de plusieurs cellules qui sont
identifiées par un SSID qui permet la connexion des stations au point d’accès.

Pour sécuriser le réseau, on désactive cette fonction qui diffuse par défaut en continu et
on fait connaitre cette valeur seulement aux stations autorisées à se connecter.

2. Wired Equivalent Privacy (WEP)

Ce mode de sécurité est basé sur l’utilisation d’une clé de chiffrement à l’émission
(codage) et à la réception (décodage).

c) Les évolutions Wi-Fi

N Débit Long
ormes ueur Segment
8 54 Mbit/s théoriques, 27 10
02.11a Mbits/s réels mètres
8 11 Mbit/s théoriques, 6 300
02.11b Mbits/s réels mètres
8 300Mbit/s théoriques, 100
02.11n 100 Mbits/s réels mètres
8 10 à 20 Mbit/s Itinér
02.11s ance ad hoc
8 500 Mbps chacun, soit
02.11ac jusqu’à 8 Gbps
Tableau 1.8 : Evolution de quelques normes 802.11

Depuis la ratification de 802.11, de nombreuses évolutions ont été proposées,


permettant :

➢ D’augmenter le débit binaire proposé et la portée de a liaison sans fil (802.11a, 802.11b,
802.11g) ;
➢ D’améliorer la qualité de la sécurité des informations (802.11i) ;
➢ D’améliorer la compatibilité de l’architecture avec les autres standards disponibles dans le
monde (802.11f, 802.11h).

Section 8. Norme IEEE 802.12-Reseau local à haut débit (IEEE 100VG Anylan)

Cette norme fut lancée parallèment à la création de IEEE 802.3 ou 802.14 (Fast Ethernet
100 Mbit/s), comme une autre variante d’un réseau à haut débit. Mais les spécifications de la
conception de ce réseau n’est pas une migration de la 802.3 de la famille Ethernet. Sa concurrence
directe avec la norme voisine (802.3u ou 802.14) n’a pas permis à cette norme d’émerger sur le
marché.

Son fonctionnement est basé sur un concentrateur 100VG (Voice Grade) qui supporte
des trames Ethernet 802.3 et Token Ring 802.5, ce qui lui donne le label « Anylan ».

Le principe du 100VG repose sur l’utilisation de la méthode d’accès DPAM (Demand


Priority Acces Method). Le concentrateur scrute chaque port pour savoir si le nœud qui y est

139
raccordé veut émettre une trame. La méthode d’accès fait du 100VG un protocole déterministe et
capable de véhiculer des flux isochrones comme la voix et la et la vidéo.

Voici les spécifications de cette norme :

➢ Topologie en bus logique


➢ Supports physiques : câbles à 4 paires torsadées de catégorie 3, 4 ou 5, non blindées, équipés
de concentrateurs RJ45.
➢ Transmission en bande de base : NRZ – 5B6B.
➢ Débit de 100 Mbit/s : 25 Mbit/s par paire en semi-duplex.
➢ Méthode d’accès centralisés DPAM : le concentrateur intègre le rôle de contrôleur.

Section 9. Norme IEEE 802.14-Fast Ethernet

C’est une autre appellation de la norme IEEE 802.3u que nous avons décrit ci-dessus
(suppra) qui propose trois types de câblage.

Section 10. Norme IEEE 802.15 Architecture Bluetooth

Le Bluetooth a pour objectif de permettre les connexions élémentaires sans fil entre
divers matériels faiblement distants (téléphones, périphériques, ordinaires). La norme 802.15 définit
des transmissions radio sur des distances variant de 10 à 100 mètres avec un débit 1 Mbit/s. une
étude en cours prévoit un débit prochain de 20 Mbit/s.

Section 11. Norme IEEE 802.15-Architecture Wi-Max

Le Wi-max est une technologie de type Broadband Wireless Acces, c’est-à-dire un


protocole d’accès sans fil à haut débit, elle est normalisée par IEEE sous l’application 802 .16. Cette
norme est née de l’effort conjugué de ETSI avec IEEE, ce qui a abouti à la création d’un organisme Wi
max (World Interoperability for Microware Acces). Ce forum certifie les équipements compatibles
avec cette norme. Cette architecture se présente sous deux formes :

➢ Une version fixe ;


➢ Une version mobile.

a) Le Wi-max fixe

Il est destiné à des connexions de types point à point, où les deux entités en
communication sont fixes et dotées des antennes appropriées. C’est la norme 802.16-2004. Elle est
ainsi dénommée parce qu’elle a été approuvée en juin 2004.

b) Le Wi-max mobile

C’est la norme 802.16e approuvée en décembre 2005. C’est une extension de la norme
précédente avec une amélioration de la sécurisation du protocole. La problématique aujourd’hui est
celle de savoir si celle technologie se positionnera comme concurrent ou complément de wifi.

140
Section 12. Norme IEEE 802.1Q : Les LAN virtuels (VLAN)

a) Principe

Un VLAN permet de regrouper virtuellement des machines en fonction des critères


définis, indépendamment de leur emplacement physique dans l’architecture de réseau.

b) Types

On distingue trois types de VLAN, en fonction des critères suivants :

➢ Ports physiques du commutateur ;


➢ Adresse MAC des machines ;
➢ Adresse IP des machines.

1. VLAN par port (port-based VLAN)

Il est aussi appelé VLAN de niveau 1 (couche physique). Dans ce cas, chaque port
physique de chaque commutateur est affecté à un VLAN.

2. VLAN par adresse MAC (MAC Adress based VLAN)

Il est aussi appelé VLAN de niveau 2 (couche liaison de données). Dans ce cas,
l’appartement d’une machine à VLAN s’effectue grâce à son adresse MAC. Cette adresse se trouve
dans une table qui se trouve dans chaque commutateur.

3. VLAN par adresse IP

Il est aussi appelé VLAN de niveau 3 (couche réseau). Dans ce cas, l’appartenance d’une
machine à VLAN s’effectue grâce à son adresse IP. Cette adresse IP permet d’enregistrer l’affectation
de chaque machine dans une table.

Dans cette catégorie, on classifie aussi les VLAN par protocole, qui permettent de
regrouper les machines par le groupe de protocole de communication par les mêmes machines. Par
exemple : IP.

Section 13. Autre classification des réseaux sans fil

La popularisation des réseaux sans fil mérite qu’on termine ce chapitre en évoquant
quelques concepts anglo-saxons utilisés souvent dans cette littérature.

a) Les WPAN (Wireless Personal Network)

Ce sont des réseaux sans fil raccordant un ordinateur à quelques périphériques. Le


modèle implémenté de ce type de réseau est le Bluetooth.

b) Les WLAN (Wireless LAN)

Ce sont des réseaux locaux sans fil raccordant les ordinateurs entre eux. Le modèle
implémenté de ce type de réseau est le wifi.

141
c) Les WMAN (Wireless MAN)

Ce sont des réseaux métropolitains sans fil raccordant plusieurs ordinateurs qui peuvent
accéder à des grands réseaux par la boucle locale radio. Ils permettent de gros débits sur des grandes
distances.

d) Les WWAN (Wireless WAN)

Il s’agit des réseaux téléphoniques sans fil et leur extension pour le transfert de données
(réseaux GSM, GPRS, UMTS)

Section 14. Autres réseaux locaux à haut débit

L’évolution technologique a poussée à la création de plusieurs réseaux locaux à haut


débit que nous n’étudierons pas dans ce cours introductif.

142
CHAPITRE 4 : L’INTERCONNEXION DES RESEAUX
Section 0 : Introduction

Le domaine des réseaux était limité à l’origine au partage des périphériques lourds
(disques magnétiques, imprimantes), il a évolué aujourd’hui vers celui des applications distribuées.
De plus en plus, le besoin se fait sentir de raccorder des stations à des serveurs, mais également des
LAN voisins ou distincts à travers des réseaux plus vastes (MAN, WAN).

La problématique de l’interconnexion consiste à déterminer la solution à mettre en


œuvre :

➢ Lorsque le réseau à créer dépasse les distances maximales imposées par la norme du réseau
à mettre en place :
➢ Lorsqu’on doit relier deux réseaux utilisant des protocoles différents

L’interconnexion de réseaux a pour buts :

➢ D’étendre le réseau local au-delà de ses contraintes primaires (100 m avec l’Ethernet sur
paire torsadée, quelques km sur la fibre optique…),
➢ D’interconnecter les réseaux locaux d’un même site, même s’ils sont d’architecture ou de
topologie différente,
➢ D’interconnecter des réseaux locaux distants en assurant la transparence de leur
utilisation aux usagers,
➢ De mettre en relation un réseau local avec un ordinateur hôte pour permettre à une
station d’avoir accès aux données du réseau distant ou inversement.
➢ D’interconnecter des hôtes d’architectures propriétaires différentes.

L’interconnexion de deux réseaux d’architectures différentes nécessite un équipement


d’interconnexion spécifique dont la dénomination varie suivant les différentes couches de OSI. En
interconnectant ainsi deux réseaux hétérogènes on va assurer le partage des services et des
ressources offerts par différents réseaux, tout en respectant le

Cette interconnexion est possible grâce à un certain nombre de dispositifs, qui sont au
nombre de quatre :

➢ Les répéteurs, les concentrateurs ou hubs


➢ Les ponts ou Bridges, les commutateurs ou Switchs
➢ Les routeurs ;
➢ Les Coupe-feux ou FireWall
➢ Les passerelles ou gateways.

Exemple d’interconnexion

143
Section 2 : Les fonctions d’interconnexion

L’interconnexion de réseaux doit prendre en charge diverses fonctionnalités.

2.1. Le formatage des trames des protocoles

Les trames issues des protocoles sont souvent différentes d’un réseau à un autre, les champs sont de
structure différente, les en-têtes ont un rôle différent. Il est donc nécessaire, lors du passage d’un
protocole à un autre, de convertir les trames.

2.2. La Détermination d’adresses

L’affectation des adresses de machines ou d’applications peut être réalisée différemment selon les
réseaux. Diverses solutions sont utilisées :

✓ La norme X400 définit ainsi plusieurs modes d’adressages parmi lesquels un adresse logique
et un adressage physique.
✓ Pour les adresses MAC (adresse matérielle de l’adaptateur réseau, Chaque constructeur
exploite une plage d’adresse unique garantissant en théorie l’unicité de l’adresse.

2.3. Le contrôle de flux

Le contrôle de flux est destiné à éviter la congestion des liaisons. Les différences technologiques
entre les réseaux (vitesse, techniques d’acquittement…) peuvent imposer le stockage des trames
échangées. Lorsque ces dispositifs de stockage atteigne un taux d’utilisation et de remplissage
trop élevé, il est nécessaire de « ralentir » les machines émettrices afin d’éviter la perte
d’informations et la saturation du réseau. C’est le contrôle de flux.

2.4. Le traitement des erreurs

Interconnecter plusieurs réseaux ne doit pas mettre en péril l’acheminement correct des
messages d’un bout à l’autre. Pour cela, on exploite des techniques de codes de contrôle et des
mécanismes d’acquittement.

2.5. Le routage des trames

Les modes d’acheminement des données d’un réseau vers un autre peuvent également varier, ce
qui rend difficile leur interconnexion. Par exemple la taille des adresses (émetteur, destinataire)

144
rencontrées dans les messages est souvent différente selon le protocole. Il faut donc expédier les
trames vers le bon destinataire et en utilisant la route la plus performante, c’est le routage.

2.6. Segmentation et réassemblage

Lors du passage d’un réseau à un autre, il se peut que les messages d’origine soient trop longs
pour être transportés sur l’autre réseau. Il faut alors découper le message en segments plus
petits, transportables sur le deuxième réseau, puis regrouper ces segments dans le bon ordre
avant de les remettre au destinataire. La structure du peut ainsi être modifiée en scindant par
exemple le réseau en sous-réseaux et en mettant en place une liaison FDDI entre ces sous-
réseaux.

Section 3 : Les dispositifs d’interconnexion

3.1. Les répéteurs (repeaters), concentrateurs ou HUB (niveau 1 OSI, couche physique)

Le concentrateur, répéteur ou HUB est un dispositif simple qui régénère les données entre un
segment du réseau et un autre segment de réseau identique (mêmes protocoles, normes, méthodes
d’accès…). Il permet d’augmenter la distance séparant les stations et travaille au niveau 1(physique)
du modèle OSI.

a) Principes

La première méthode d’étendre un réseau local est d’utiliser un répéteur. Ce dispositif


n’est en fait qu’un amplificateur électronique qui permet de régénérer le signal, qui au bout d’une
certaine distance devient trop faible selon le type de réseau. Si l’on se réfère au modèle OSI, il se
situe au niveau 1 (physique) et n’assure qu’une continuité physique limitée du signal par sa
régénération et sa transmission sous forme des bits.

Les répéteurs (repeaters) sont des boitiers d’interconnexion qui n’apportent que des
adaptations au niveau physique. Ils sont principalement utilisés dans les réseaux IEE802.3. Ils servent
à raccorder deux segments de câbles ou deux réseaux identiques (Ethernet) qui constituent alors un
seul réseau logique, Multiports (sur tous les ports de sortie)) sont utilisés pour :

- Augmenter la taille du réseau sans dégradation significative du signal et du taux


d’erreurs sur le port ;
- Raccorder différents tronçons d’un réseau local pour n’en faire apparaitre qu’un seul
aux stations ;
- Assurer une éventuelle conversion de médias (de la paire torsadée vers de la fibre
par exemple) ;
- Augmenter le nombre de stations physiquement connectables sur le réseau.

Les concentrateurs (répéteurs, Hub ou répéteurs

b) Matériels utilisés

Les cartes réseaux intègrent généralement plusieurs connectiques, RJ45 pour le BaseT,
BNC pour le Base2 ou ST pour la fibre optique, permettant la connexion au support physique.

145
Lorsque le matériel utilisé permet de faire une liaison entre deux câbles de type
diffèrent, on l’appelle : transreceiver. Ce matériel peut être multiport. Dans ce cas, il permet une
connexion multiple sur un même câble comme une prise électrique.

Lorsque le matériel utilisé permet de relier des postes de travail dans une topologie
étoile, on l’appelle : « hub » ou « concentrateur ». Ce matériel se trouve alors au centre de l’étoile.
Les concentrateurs sont de trois types : simple, empilable (stackable), modulaire. Les concentrateurs
permettent selon les cartes ajoutées, des ports RJ45 pour le BaseT, BNC pour le Base2 ou ST pour la
fibre optique, etc. Ils proposent aussi des ports à 100Mbits/s et des ports à 10 Mbits/s.

Les cartes ajoutées peuvent proposer de 8 à 24 ports disponibles. Une même carte est
divisée en groupe de ports représentant chacun une sous structure de réseau. Un concentrateur
émule un bus dont le protocole de communication (Ethernet ou ATM) est choisi au moment de
l’achat du matériel. On parle alors de l’émulation de bus, en effet, le concentrateur transmet les
données reçues d’un autre matériel vers tous les matériels connectés avec lui dans la topologie en
bus. Les couches 2 et 3 de ces matériels feront le tri des données reçues pour déterminer si elles leur
sont destinées ou non.

La limite du connecteur est constituée par son mode de fonctionnement. Tous les
matériels qui y sont connectées se partagent le débit maximum proposé. Plus vous connectez de
matériels, plus la disponibilité du réseau diminue. Si par exemple vous connectez dix matériels sur un
concentrateur 100Mbit/s, chacun ne disposera pas de liaison de 100 Mbit/s. ils partageront ce débit
théorique.

Exemple

Un concentrateur passif transmet la trame reçue à toutes les autres stations et aux autres
concentrateurs auxquels il est connecté. Cela entraine un trafic inutile

146
Un concentrateur actif (intelligent) ne propage pas automatiquement la trame vers les autres
stations s’il reconnaît le port de la station de destination. Cela entraine une réduction du trafic mais
le concentrateur passif est plus rapide

Exemple de pont (Un switching Hub ou concentrateur commuté)

3.2. Les ponts (Bridges) : niveau 2 OSI, couche liaison des données)

Les ponts (bridges) qui sont en fait des « commutateurs à 2 ports », permettent de relier deux
segments de réseau de même type (Ethernet, Token-Ring, Ethernet, HDLC, PPP, SLIP, ATM,…)
mettent en œuvre la même méthode d’accès (niveau 2 – CSMA/CD la plupart du temps). Le pont
fonctionne précisément au niveau de la sous – couche MAC (Media Access Control) du protocole de
liaison et interconnecte des réseaux de caractéristiques MAC différentes mais LLC (Logical Link
Control) identiques.

Un pont doit essentiellement assurer les trois fonctionnalités de répéteur de signal, filtre entre les
segments du réseau et détection des erreurs.

Le pont travaillant au niveau 2 (liaison) du modèle OSI assure automatiquement la fonctionnalité de


niveau 1 et se charge donc de répéter le signal.

a) Principes

Les ponts se présentent généralement sous la forme de boitiers empilables disposant


d’un nombre réduit d’interface : Ethernet, Token-Ring et WAN.

Certains ponts proposent un port RNIS configurable au choix en tant que liaison
principale ou liaison de secours. Ces ports interviennent au niveau 2 (MAC, Medium Access Control,
dépendent de la méthode d’accès), ils ne peuvent relier que des réseaux locaux homogènes de ce
point de vue et ne conviennent pas pour créer des sous-réseaux (absences de fonctions de routage).
Ils n’assurent pas de conversion de protocole et sont donc transparent pour les applications. Mais ce
manque d’intelligence leur confère des performances bien supérieures aux autres équipements.

Le pont fonctionne dans la couche liaison du modèle OSI et assure la conversion du


format de la trame et adapte sa longueur. Il filtre les trames en fonction de l’adresse du destinataire,
positionne certains bits, segmente le trafic et limite la congestion sur une partie du réseau.

147
Certains organisations et entreprises possèdent plusieurs réseaux locaux éparpillés.
Parfois ; il semble nécessaire devoir rassembler ses différentes structures en un seul réseau et alors
on utilisera un pont (figure ci-après). On rencontre différents types de ponts :

➢ Le pont transparent ou pont classique : il est utilisé pour raccorder des réseaux locaux IEEE
802. Il n’a pas besoin, pour fonctionner, de posséder lui-même une adresse MAC ou une
adresse IP et donc il est indétectable. Il est dit transparent car on ne « voit » pas le pont.
Ainsi une commande telle que tracert (trace route) utilisée avec TCP/IP ne le fera pas
apparaître ;
➢ Les ponts filtrants : ils peuvent gérer une liste d’adresses (MAC), ce qui permet de créer des
coupes – feux (firewall) utilisés notamment avec Internet ;
➢ Les ponts pour anneau à jeton : ils utilisent une technique dite « par l’émetteur » (Source
Routing). Quand une station A veut envoyer des trames à une station B, elle diffuse d’abord
une trame d’apprentissage du chemin. Quand un pont Token-Ring reçoit une telle trame ; il y
ajoute sa propre adresse et retransmet la trame vers le pont de sortie. Chaque pont traversé
fera de même. La station B va recevoir ces trames complétées et retourner à A les trames
recues en utilisant les informations de cheminement cumulées à l’aller. Par la suite, A pourra
choisir un chemin optimal (nombre de ponts traversés, délai..) pour expédier ses trames ;
➢ Les ponts hybrides : ils permettent d’interconnecter un réseau Ethernet à un réseau Token-
Ring. On trouve ainsi des ponts dits « à translation » ou des ponts SRT (Source Routing
Transparent) compatibles avec les ponts transparents.

On peut donc regrouper ces ponts en deux familles : les ponts filtrants et les ponts non
filtrants. Les ponts non filtrants recopient les trames sur tous les segments que le destinateur soit ou
non dans la même structure que le poste émetteur. Ils écoutent tout ce qui se passe sur chaque
segment, qu’il s’agisse de la structure A ou B (figure 6.2).

Dans les ponts filtrants, les trames ne sont systématiquement envoyées à toutes les
structures mais uniquement à celle dans lesquelles se situent l’émetteur et le destinataire. Si le
destinataire et l’émetteur se trouve dans la structure A, la trame n’ira pas encombrer la structure B,
et dès lors, cette trame est ignorée du point (figure ci-après). Les ponts filtrants utilisent les systèmes
d’auto apprentissage (algorithmes) qui leur permettent de mémoriser dans une table les positions
des éléments contenues dans les réseaux : l’algorithme de spanning tree pour les réseaux Ethernet et
l’algorithme source tree pour les réseaux Token-Ring.

Avec un pont on peut :

- interconnecter des stations sur des réseaux de types différents ou identiques ;


- interconnecter deux réseaux locaux voisins ou des réseaux locaux éloignés, via une liaison
longue distance (ponts distants) ;
- augmenter le nombre de stations connectées à un réseau local tout en conservant une
charge de trafic supportable sur le réseau car on segmente le domaine de collision.
- Partitionner un réseau local en plusieurs tronçons pour des raisons de sécurité, de
performance ou de maintenance ;
- Assurer éventuellement une conversion de média (paire torsadée vers fibre …).

148
Les caractéristiques que l’on peut attendre d’un pont sont donc un temps de transmission réduit et
une facilité à le configurer, si possible par apprentissage automatique de la configuration du réseau.
Le pont peut être multi-ports et interconnecter plusieurs segments ou plusieurs réseaux. Il est alors
dit « bridging hub ».

b) Matériels utilisés

Les transreceivers sont aussi utilisés comme ponts. Il existe aussi des demi-ponts qui
permettent de connecter des sous réseaux se situant à des distances importantes l’un après l’autre
pour le maintenir dans le même domaine d’adressage logique. Une telle connexion peut être de type
modem.

Les commutateurs Ethernet (switching HUB), ATM, FDDI… sont aussi utilisés au niveau 2
comme ponts. Il existe deux types de commutateurs :

➢ Les Store-Foreward (stocker et transmettre) qui permettent un stockage des données avant
leur envoi vers le port de destination ;
➢ Les Cutt Through (couper au travers, prendre un raccourci) qui envoient des données à la
volée (on the fly), sans les stocker.

Exemple de pont (bridg)

Pont interconnectant un réseau Ethernet et un réseau Token-Ring

149
Une conception d’un VLAN

3.3. Les routeurs (niveau 3 OSI, couche réseau)

a) Principes

1. Notions

Les routeurs (routers) agissent au niveau de la couche réseau du modèle OSI et


effectuent le routage de paquets (relient des stations situées sur des réseaux ou des sous-réseaux
(au sens IP, éventuellement quel que soit le protocole utilisé) différents, c’est-à-dire, ils sont chargés
de trouver le meilleurs chemin pour acheminer les paquets vers le destinataire. Cette capacité de
routage fait des routeurs des matériels performants. Les routeurs relient des sous structures qui sont
des réseaux différents. Le routeur assure l’acheminement des paquets, le contrôle et le filtrage du
trafic entre ces réseaux. Le routage est la fonction qui consiste à trouver le chemin optimal entre
émetteur et récepteur (destinataire). On distingue deux types de routages : le Routage statique et le
Routage dynamique. Dans un routage statique, le routeur est programmé pour suivre des routes
précises et dans un routage dynamique, calcul automatique de la meilleure route à emprunter entre
deux nœuds, avec accumulation des informations dans une table de routage. La table de routage
comprend en général les informations suivantes :

- L’ensemble des adresses connues sur le réseau,


- Les différents chemins connus et disponibles entre les routeurs,
- Le « coût » ou métrique lié à l’envoi des données sur différents chemins.

La commande route print permet de visualiser la table de routage.

Les routeurs ne sont pas transparents aux protocoles mais doivent, au contraire, être en
mesure d’assurer la reconnaissance des trames en fonction du protocole à utiliser. Le protocole doit
être donc routable pour pouvoir traverser le routeur. Avec NetBEUI par exemple, qui n’est pas un
protocole routable, les trames ne pourront normalement pas traverser le routeur. Au contraire avec
un protocole routable tel que IP ou IPX, les trames pourront traverser le routeur (routeur IP, IPX,
voire multi protocoles).

150
Le routeur doit donc être capable d’optimiser et de modifier la longueur du message
selon qu’il passe d’un protocole à un autre ou d’un réseau à un autre. De même il est généralement
capable de modifier la vitesse de transmission, par exemple lors du passage d’un LAN à un réseau
WAN. Il doit donc disposer d’une mémoire tampon.

Si le protocole n’est pas routable, certains routeurs sont capables de se « replier » vers
un niveau inférieur et de se comporter alors comme un simple pont, ce sont les Ponts-routeurs ou B-
routeurs (Bridge, routeurs). On dit que les trames sont « pontées » à travers le pont-routeur.

Comme il fonctionne au niveau 3, le routeur dépend de l’architecture utilisée dans les


différents réseaux qu’il relie. Pour dépasser cette limitation, les routeurs intègrent le plus souvent
une fonction de passerelle (Gateway) qui leur permet d’acheminer les paquets des différentes
architectures par exemple IP vers X25.

Les protocoles routables sont : IP, IPX, OSI, XNS, DDP Apple Talk, VINES…par contre
NetBEUI et LAT (Local Area Transport) de DEC sont des protocoles non routables.

Un routeur est composé de deux parties :

➢ Une partie logicielle ;


➢ Une partie matérielle.

La partie logicielle a pour but d’acheminer les paquets vers l’interface correcte du
routeur. Les routeurs successifs se servent d’une adresse logique (IP) contenue dans le paquet pour
trouver le chemin vers le destinataire. Les routeurs sont des centres de tri du réseau.

2. L’adresse logique IP

Qu’est-ce qu’une adresse logique ?

On parle souvent d’une adresse logique pour un matériel. C’est un abus de langage. On
fait un amalgame entre l’interface réseau de la machine et la machine elle-même. La majeure partie
du temps, un équipement informatique que l’on connecte sur un réseau n’a qu’une interface réseau
(carte réseau). Mais il arrive aussi que certains matériels (routeurs, firewall, serveurs) en aient
plusieurs. Ils auront alors une adresse logique, voire un nom par interface, même s’il s’agit d’un
même équipement.

Il y a donc lieu de faire attention et de distinguer une machine et son adresse logique.

Exemple : si votre machine a deux cartes réseaux (donc deux interfaces), alors vous
aurez deux adresses MAC et deux adresses logiques. Dans certains cas, vous aurez même deux noms
pour la même machine.

Un organisme dénommé IANA (Internet Assigned Numbers Authority) est chargé de


gérer les adresses logiques pour qu’elles soient uniques. Cette gestion est repartie entre diverses
sous structures par continent. Pour l’Amérique et le reste du monde africain c’est ARIN (American
Registry for Internet Numbers), et pour l’Europe c’est RIPE NCC (Réseaux IP Européens Network
Coordination Center) et pour l’Asie et le Pacifique c’est l’APNIC (Asia Pacific Network Information
Center).

151
Un routeur

Dans la figure ci-après, nous présentons un routeur qui est connecté à cinq réseaux. Il
possède pour ce faire cinq interfaces logiques.

3. Les formats des adresses logiques

Une adresse logique a une longueur de 32 bits en version IPV4, soit 4 octets. Une
adresse est notée en 4 octets séparés par point et traduit en décimale X1.X2.X3.X4.

Exemple : 172.16.15.3 est l’adresse logique d’IBM3.

Chaque adresse IP se décompose en deux parties : la partie réseau et la partie


matérielle.

Voici le format d’une adresse IP :

Réseau Matériel

➢ La première partie concerne le réseau sur lequel se situe la machine. Elle est fournie par
IANA ou ses sous structures ;
➢ La seconde partie concerne l’interface réseau de la machine. Elle est gérée par
l’administrateur du réseau.

Pour répondre aux besoins des utilisateurs et des gestionnaires des réseaux, cinq classes
ont été définies. Ces classes d’adresses logiques permettent l’adaptation aux différentes structures
des réseaux.

152
En effet, il y a des réseaux avec de très nombreux matériel comme il y en a avec peu de
machines.

➢ Dans la classe A, la partie réseau a 1 octet (8bits) et la partie matérielle 3 octets (24 octets) ;
➢ Dans la classe B, la partie réseau à 2 octets (16 bits) et la partie matérielle 2 octets (16
octets) ;
➢ Dans la classe C, la partie réseau à 3 octets (24 bits) et la partie matérielle 1 octet (8 octets) ;
➢ La classe D à la même structure que la classe A. elle ne référence pas de matériels (nœuds),
mais des groupes de matériels qui partagent la même adresse. Cette classe utilise le
protocole IGMP (Internet Group Management Protocol).
➢ La classe E n’est utilisée que pour les tests.

Le nombre de matériels augmente considérablement dans le monde entier, aussi la


norme IPV4 devient incapable de satisfaire toutes les demandes. La norme IPV6 avec une possibilité
d’adressage sur 128 bits offre des nouvelles possibilités.

4. Les faiblesses du protocole IPV4

La version 4 du protocole Internet (IPV4), bien que largement utilisée ne garantit pas la
confidentialité des données ou celle des adresses IP. De même, elle ne permet pas l’authentification
de la source ou de la destination du paquet.

Ce protocole s’exécute en mode « connectionless », ce qui signifie qu’il n y a pas de


liaison logique préalable établie entre l’émetteur et le récepteur. Dans ce cas, les paquets sont
envoyés sans prévenir le destinataire, ils peuvent être perdus ou peuvent arriver en désordre. Donc,
la qualité du service n’est pas du tout garantie, il s’agit d’un service non fiable de remise des paquets
IPV4 ne garantit pas :

➢ La remise des données (pertes possible des données, pas de mécanisme de reprise sur
erreur) ;
➢ La livraison des données au bon destinataire ;
➢ L’ordonnancement (séquencement) correct des données à leurs réceptions ;
➢ La conformité et l’intégrité des données transmises (les données peuvent être interceptées,
copiées, modifiées ou détruits lors de leur transfert) ;
➢ L’authentification de la source ou de la destination de données.

Le manque de sécurité du protocole IP a conduit vers les années 1990 à l’utilisation des
routeurs filtrants (pare-feu, firewalls), qui empêchaient l’émission ou la réception de certains
paquets IP.

La prise en compte des insuffisances du protocole IP a conduit à coupler dans différents


systèmes le protocole TCP (Transmission Control Protocol), qui offre un service de transport fiable en
mode connecté (niveau 4 de l’OSI). D’où TCP/IP.

153
5. Les protocoles IPV6 et IP Sec

La remise en question du protocole IPv4 a fait l’objet d’une révision connue sous
l’appellation de IPnG (Internet Protocol next Generation) ou IP version 6 (IPV6). Les principales
spécifications peuvent être consultées à l’adresse : http://w.w.w.ietf.org/rfc.rfc2460.txt.

Ces spécifications portent sur les points suivants :

➢ Les adresses sont codées sur 128 bits (16 octets) et non plus sur 32 bits (4 octets). La
représentation des adresses s’effectue en nombres hexadécimaux séparés par deux points
tous les deux octets et non plus en notation décimale ;
➢ L’allocation dynamique de bande passante pour le support d’applications multimédias ;
➢ La création des réseaux IP virtuels ;
➢ Le support de procédures d’authentification et du chiffrement ;
➢ Des en-têtes des paquets simplifiés afin de faciliter et accélérer le routage. La migration de la
version 4 vers la version 6 du protocole IP soulève quelques problèmes technologiques et
économiques sur l’ensemble des routeurs du réseau internet.

Parmi ces problèmes, il y a la synchronisation à grande échelle de la migration des


versions et la modification du schéma d’adressage et de la gestion des adresses. Ces problèmes font
que plusieurs infrastructures n’ont pas jusqu’à ce jour intégré la version 6.

Pour répondre aux exigences de sécurité de l’environnement Internet en implantant


IPV6 sans devoir modifier tous les routeurs et les systèmes d’extrémité, on a mis au point une
solution intermédiaire dénommée IPSec compatible avec la norme IPv4 et IPv6.

IPSec assure l’intégrité des paquets véhiculés par IPV4. En plus, il permet d’authentifier
la source et la destination des paquets qu’ils rendent le contenu confidentiel. Ces services sont
réalisés par deux entêtes IP SC, à la suite de l’entête principale IP. Les principales spécifications
peuvent être consultées à l’adresse suivante : http://w.w.w.ietf.org/rfc/rfc2401.txt.

Il y a :

➢ L’en-tête d’authentification (AH : Authentification Header), les détails se trouvent dans RFC
240 ;
➢ L’en-tête de confidentialité-authentification (ESP : Encapsulating Security Payload Header),
les détails se trouvent dans RFC 2406.

6. Adressage IPV6

L’IPV6 permet plusieurs types d’adresses :

➢ L’adresse unicast qui identifie une et une seule adresse machine ;


➢ L’adresse multicast qui identifie un groupe d’hôtes ;
➢ L’adresse anycast qui désigne un groupe d’hôtes parmi lesquels un seul est destinataire de la
trame.

154
7. Le routage

A partir de l’adresse logique, les routeurs se passeront les données pour trouver le
destinataire. Les chemins varient suivant plusieurs critères :

➢ Les pannes des routeurs ;


➢ La surcharge du réseau ;
➢ Les besoins de communication.

Les routeurs utilisent des tables de routages et s’échangent des informations sur les
tables pour trouver plus rapidement le destinataire. Plus ces tables sont importantes, moins les
routeurs sont efficaces. Pour remédier à cela, il est donc possible de configurer un routeur pour qu’il
ne transfère pas ces tables ou les envoie à des routeurs bien précis.

Pour trouver le meilleur chemin, ces routeurs calculent le coût de transport. Ce coût
prend en compte les éléments suivants :

➢ Le débit ;
➢ La fiabilité des liaisons ;
➢ Le délai ;
➢ Le nombre de routeurs à traverser.

B. Matériels utilisés

La partie matérielle du routeur est composée des ports appelés : interfaces qui
reçoivent et émettent les paquets au format correspondant à l’architecture du réseau destinataire
(Ethernet, FDDI, Token Ring). Tant que l’adresse logique du destinataire appartient au réseau
émetteur, les paquets continuent à circuler dans ce réseau. Dans la figure 6.3, les adresses logiques
des paquets se trouvant dans le réseau A resteront à l’intérieur de ce réseau.

Les tables de routage contiennent des informations qui indiquent l’interface ou la voie
que l’information doit emprunter. Ces interfaces sont de deux types : « porte d’entrée ou porte de
sortie ». Le réseau destinataire peut être directement connecté à l’interface ou directement (dans ce
cas, l’information doit traverser d’autres routeurs avant d’atteindre la destination).

Une même interface peut représenter plusieurs adresses logiques permettant


d’atteindre plusieurs réseaux par une seule « porte » (figure ci-dessous)

155
3.4. Les passerelles-gateways (niveaux 4 et supérieurs)

Les passerelles (gateways) réalisent toutes les conversions de la couche 4 de l’OSI


jusqu’à la couche (transport, session, présentation, application). Elles apportent des modifications
sur toutes les couches hautes de l’OSI et dès lors ne sont pas facile à utiliser ou à mettre en place.
Malgré cette complexité, une passerelle est un élément essentiel dans les installations informatiques
parce qu’elle permet de mettre en œuvre plusieurs réseaux car elle constitue un dispositif de
conversion complet.

Une passerelle permet de relier des réseaux hétérogènes. Elle dispose de fonctions
d’adaptation et de conversion de protocoles du système A vers le système B à travers plusieurs
couches de communication jusqu’à la couche application. Elle Coûte plus cher qu’un routeur, elle a
plus de capacité qu’un routeur, elle est spécifique à une application. Cependant elle est plus lente
qu’un pont ou un routeur et exécute des conversions complexes. C’est pourquoi, elles constituent
souvent un goulot d’étranglement lié aux fonctionnalités intrinsèques des équipements.On
distingue : une Passerelle de transport qui met en relation les flux de données d’un protocole de
couche transport et une Passerelle d’application qui réalise l’interconnexion entre applications de
couches supérieures.

Les passerelles peuvent être implémentées au niveau de la couche 3 (routeur), lorsqu’il


faut échanger des informations entre deux architectures différentes. Un cas type d’utilisation est
l’interconnexion de réseaux locaux par réseaux X25. Les protocoles et les trames générées de part et
d’autres du serveur d’accès appartiennent respectivement à chacun de deux domaines : celui du
réseau local et celui du réseau X25.

Avantages: incontournables dans les grandes organisations.

Inconvénients: nécessite souvent une gestion importante.

Une passerelle

Schéma d’Interconnexion entre deux réseaux SNA (Storage Area Network) et TCP/IP

156
Comme exemples de passerelle, nous avons :

Passerelle de courrier électronique : elle convertit les messages d’un type de système de courriel à
un autre.
Exemples:
– Eudora : utilisateurs d’un système GroupWise,
– Internet SMTP : boîte aux lettres ISO MOTIS (Message-Oriented Text Interchange Systems).
✓ Passerelle hôte IBM : elle établit et gère la communication entre un ordinateur personnel et
un ordinateur central IBM.
✓ Passerelle Internet : elle fournit et gère l’accès entre des réseaux locaux et Internet. Peut
limiter le type d’accès à Internet aux utilisateurs d’un réseau local et vice-versa.
✓ Passerelle de réseaux locaux elle permet aux segments de réseau exécutant différents
protocoles ou modèles de réseaux de communiquer entre eux.

3.5. Garde-barrière (firewall)

Elle comprend deux composantes essentielles: deux routeurs qui filtrent les paquets (ou
datagrammes) et une passerelle d’application qui renforce la sécurité.

Elle filtre de paquets en général gérés dans des tables configurées par l’administrateur: contiennent
liste des sources/destinations qui sont verrouillées et les règles de gestion des paquets arrivant de et
allant vers d’autres machines.

Comme passerelle d’application, elle peut être configurée pour surveiller chaque message
entrant/sortant c'est-à-dire transmettre/rejeter suivant le contenu des champs de l’en-tête, de la
taille du message, ou de son contenu.

Exemple de firewall

Schéma avec plus de deux firewalls

157
3.6. Le réseau privé virtuel : Virtuel Private Network (VPN)

a) Principes

A l’époque, les entreprises interconnectaient leurs réseaux situés sur des sites distants
au moyen des services que proposaient les opérateurs télécoms. Parmi ces services, il y avait : circuit
switched public data networks (X21), packet switched public data networks (X25).

1. Circuit Switched Public data Networks (CSPDN): X21

Par ce service (CSPDN), certains opérateurs télécoms proposaient des liaisons


« connection oriented » haut débit (2, 34 ou 144 M/bits par second) entre abonnés.

2 Packet swictched publick data network (PSTN): X25

Le PSTN et le CSPDN étaient basés sur une transmission en mode connecté, ce qui
coûtait très cher. Tout le temps de connexion était facturé parce qu’on utilisait dans ce cas le « circuit
switching » comme technique de multiplexage.

Dans le cas de transfert d’une grande quantité de données, il est moins onéreux
d’utiliser une allocation dynamique des intervalles de temps élémentaires. Dans ce cas seuls alors, les
utilisateurs signalant un besoin de transmission pouvait se voir octroyer une période de temps : c’est
le multiplexage temporel statique. Les données étaient alors transportées sous forme des paquets
et le support était alloué dynamiquement en fonction des paquets à transporter « packet
switching ». (Voir multiplexage).

Le PSPDN permettait une liaison en mode connecté juste pour le besoin de transfert des
paquets. Il utilisait la norme X.25, qui est un protocole de communication normalisé pour la
commutation de paquets en mode point à point. Cette norme a été établie en 1976 par le CCITT
(UIT-T) pour les réseaux à commutation de paquets sur proposition de 5 pays qui l’utilisent pour leurs
réseaux publics de communication : Transpac pour la France, EPSS pour la Grande-Bretagne, Datapac
pour le Canada, DCS pour la Belgique et Telenet pour les Etats-Unis. C’est donc le premier réseau
fonctionnant en mode paquet utilisant le principe de circuit virtuel.

X.25 définit l’interface entre un DTE et un DCE. Elle fixe donc les règles de
fonctionnement entre un usager du réseau et le réseau lui-même. Cette norme a l’avantage d’être
sûre à 100% : il n y a aucune perte de données grâce aux nombreux contrôle et aux éventuelles
retransmissions d’éléments perdus. La fiabilité de ce protocole justifiait son utilisation dans les
applications bancaires de types client/serveur.

158
3. Virtual Private Network (VPN)

Les lignes louées avaient certes un avantage, c’est celui de protéger les données de
l’entreprise des intrusions externes, mais elles coûtaient très chères aux entreprises, le VPN est alors
une alternative.

On désigne par un réseau privé virtuel, un réseau sécurisé constitué de plusieurs sites
reliés par un réseau public ou Internet. La traversée de ce dernier est vue comme un tunnel dans
lequel les données de l’entreprise transitent chiffrées. Un tunnel est installé entre chaque paire de
sites. A ses deux extrémités, un firewall peut être installé pour protéger l’accès au réseau des
instruisons externes. On peut donc dire qu’un VPN est une liaison en mode point à point des sites
distants d’une entreprise au moyen d’un tunnel sécurisé à travers l’Internet ou le réseau d’un
opérateur télécom.

Soit une entreprise congolaise qui a une représentation en France (Paris) et en Belgique
(Bruxelles). Chaque représentation dispose d’un réseau local. L’entreprise souhaite interconnecter
les différents sites pour implémenter un Intranet.

L’entreprise devra disposer alors de trois tunnels :

➢ Tunnel Kinshasa-Bruxelles ;
➢ Tunnel Kinshasa-Paris ;
➢ Tunnel Bruxelles-Paris.

b) Protocoles

Le VPN correspond à une interconnexion des LAN d’une entreprise par une technique de
« tunnels ». Le protocole utilisé dans un tunnel permet au niveau du client VPN de crypter et de
décrypter les données envoyées au travers du tunnel. De même, du côté du serveur VPN (serveur à
accès distant), il exécute les deux fonctions de cryptage et de décryptage.

Il existe deux types de tunneling :

➢ Les réseaux publics comme Internet ;


➢ Les réseaux des opérateurs télécoms qui proposent des services à leur ajoutée (SRVA).

1. Tunneling sur Internet

C’est sur Internet et les infrastructures IP que se sont développées les techniques de
« tunnel ». Il existe plusieurs protocoles de tunnelisation qui opèrent au niveau de la couche (2)
liaison de données :

➢ PPTP (Point to point Tunneling Protocol) est un protocole de niveau 2 développé par
Microsoft, 3Com, Ascend, US Robotics et ECI Telematics ;
➢ L2F (Layer Two Forwarding) est un protocole de niveau 2 développé par Cisco, Northern
Telecom et Shiva. Il est désormais quasi-obsolète ;
➢ L2TP (Layer Two Tunneling Protocol) est l’aboutissement des travaux de l’IETF (RTC 2661)
pour faire converger les fonctionnalités de PPTP et L2F. il s’agit ainsi d’un protocole de
niveau 2.

159
Le protocole fiable le plus utilisé au niveau 3 (couche réseau) est IP Sec (Internet
Protocol Security), issu des travaux de l’IETF, il permet de transporter des données chiffrées pour les
réseaux IP. D’autres solutions utilisent le protocole SSL (Secure Socket Layer) et TLS (Transport Layer
Security). Tous poursuivent un seul objectif : protéger les données par le chiffrement ou la
cryptographie et d’autres mécanismes de sécurité comme l’authentification et l’identification.

L’utilisateur devra lui-même mettre en place les divers protocoles de sécurité ou faire
appel à un spécialiste. Les constructeurs d’équipement réseau proposent des logiciels et matériels
VPN. Cisco système et Microsoft proposent des logiciels VPN qui intègrent IP Sec pour
l’authentification et divers paramètres de sécurités.

Les systèmes d’exploitation réseau de Microsoft, Windows server 2003 ou 2008


contiennent dans le module RAS (Remote Access Service) des fonctions permettent de confirmer les
accès VPN à un réseau local.

2. Tunneling sur les réseaux des opérateurs télécoms : Services des Réseaux à Valeur
Ajoutée (SRVA)

Les opérateurs télécoms proposent des liaisons entre les divers sites des entreprises par
de routeurs d’accès (edge router). Ils utilisent à cet effet un protocole de routage MPLS (Multiple
Protocole Label Switching), les utilisateurs ne doivent pas se soucier de la sécurité des données qui
est assuré par le SRVA.

Exemple de VPN

VPN d’accès

VPN Intranet

160
VPN Extranet

161
Chapitre 6 : Notions de sécurité des réseaux

162
Références bibliographiques

Breton Philipe, Histoire de l’informatique, Edition La Découverte, Paris, 1987, page 125.

Philippe Jacques, Réseaux Intranet et Internet : Architecture et mise en œuvre, page 9,


Ellipses Technosup, Paris, 2010.

Alphose Christian IVINZA LEPAPA, Introduction à la télématique et aux réseaux


informatiques, Bruxelles, 2003

Andrew Tanenbaum, Réseaux, 4e édition, Nouveaux horisons, Paris.

Pierre Alain Goupille, Technologie des ordinateurs et des réseaux, 9e édition, Dunod.

163
Annexes

1. Les différentes solutions d’interconnexion que nous proposons :

2. Les réseaux à grande distance (sujets exposés)

Section 1 : Les réseaux PSTN (Public switched telephone network)

Section 2 : les réseaux X21 (Circuit switched public data networks)

Section 3 : Les réseaux X25 (Packer switched public data networks)

Section 4 : Les technologies DSL

Section 5 : Les réseaux ISDN : Integrated Services Data Network (RNIS : Réseau
numérique à intégration des services)

Section 6 : Les réseaux satellites

Section 7 : Les réseaux mobiles

164

Vous aimerez peut-être aussi