Académique Documents
Professionnel Documents
Culture Documents
INTRODUCTION
Au début des années 70, chaque constructeur a développé sa propre solution réseau autour d'architecture et de
protocoles privés (SNA d'IBM, DECnet de DEC, DSA de Bull, TCP/IP du DoD [Department of
Defense],...) et il s'est vite avéré qu'il serait impossible d'interconnecter ces différents réseaux «propriétaires» si
une norme internationale n'était pas établie. Cette norme établie par l'International Standard Organization
(ISO) est la norme Open System Interconnection (OSI, interconnexion de systèmes ouverts) mise au point en
78 et publiée en 1984. Un système ouvert est un ordinateur, un terminal, un réseau, n'importe quel
équipement respectant cette norme et donc apte à échanger des informations avec d'autres équipements
hétérogènes et issus de constructeurs différents.
Du fait du grand nombre de fonctionnalités implémentées dans les réseaux, l’architecture de ces derniers est
particulièrement complexe. Pour tenter de réduire cette complexité, les architectures protocolaires ont
décomposé les processus mise en œuvre dans les réseaux en plusieurs couches. Ce chapitre a ainsi pour objectif
de présenter les couches des principales architectures protocolaires, notamment OSI et TCP/IP.
La complexité croissante des besoins de communication et la diversité des solutions adoptées ont très vite fait
apparaître la nécessité de définir un modèle complet de communication ou architecture protocolaire réseau.
Historiquement, chaque grand constructeur avait défini la sienne : SNA (System Network Architecture)
d’IBM, DSA (Distributed System Architecture) de BULL, ... Ces architectures propriétaires incompatibles
entre elles ne permettaient pas l’interopérabilité des systèmes. Aussi, convenait-il de définir des techniques de
mises en relation en spécifiant une architecture normalisée. C’est ce qu’entreprit l’ISO (International
Standardization Organization) en définissant une architecture de communication normalisée, couramment
appelée modèle de référence ou modèle OSI (Open System Interconnection).
La nécessité d’identifier des fonctions élémentaires distinctes, mais participant au processus de communication,
a conduit à structurer le modèle OSI en sept couches : physique, liaison de données, réseau, transport, session,
présentation et application. Ces sept couches peuvent être regroupées en deux ensembles de couches aux
fonctionnalités spécifiques :
les couches hautes essentiellement chargées d’assurer le dialogue entre les applications distantes, ces
couches sont dites orientées application ;
les couches basses destinées à garantir un transport fiable des informations à travers le réseau, ces
couches sont dites orientées transfert.
Chaque couche est constituée d'éléments matériels et logiciels. Sa fonction fondamentale est d’offrir un service
à la couche située immédiatement au-dessus d'elle en lui épargnant les détails d'implémentation nécessaires.
Pourquoi un modèle de réseau en couches ?
o Il réduit la complexité
o Il uniformise les interfaces
o Il facilite la conception modulaire
o Il assure l’interopérabilité de la technologie
o Il simplifie l’enseignement et l’acquisition des connaissances.
Une brève description des fonctionnalités de chaque couche OSI est donnée ci-dessous
Communication virtuelle
horizontale
Médium physique
Comme illustré dans la figure ci-dessus, chaque couche n d'une machine gère la communication avec la couche
n d'une autre machine en suivant un protocole de niveau n qui est un ensemble de règles de communication
pour le service de niveau n.
Résumé
Le modèle OSI repose sur 3 termes importants : les couches, les protocoles et les interfaces. Chaque couche N
étant définie par 2 éléments de base qui sont :
Le protocole de la couche N et
Les services de cette couche offerts aux couches N+1 par une interface.
le service N est offert aux entités N+1 aux « points d’accès services » N (N-SAP)
les entités N s’échangent des « unités de données de protocoles » N (N-PDU) en les plaçant
dans les « unités de données de service » N-1 (N-1 –SDU)
Chaque N-PDU peut contenir des « informations de contrôle de protocole » N (N-PCI) + des
« données utilisateurs » N (N-DU)
Les N-DU proviennent des N-SDU confiées par les entités N+1. Elles ne sont pas interprétées
par les entités N
Par contre les N-PCI sont générées et interprétées par les entités N.
Mécanisme d’encapsulation
A chacun de ces niveaux, on encapsule un en-tête et une fin de trame qui comporte les informations nécessaires
en suivant les règles définies par le protocole utilisé. Sur le schéma ci-dessous, la partie qui est rajoutée à
chaque niveau est la partie sur fond blanc. La partie sur fond grisé est celle obtenue après encapsulation du
niveau précédent. La dernière trame, celle qu'on obtient après avoir encapsulé la couche physique, est celle qui
sera envoyée sur le réseau
Définition : La couche physique fournit les moyens mécaniques, électriques, fonctionnels et procéduraux
nécessaires à l'activation, au maintien et à la désactivation des connexions physiques destinées à la transmission
de bits entre deux entités de liaison de données. Ici, on s'occupe donc de transmission des bits de façon brute,
l'important est que l'on soit sûr que si l'émetteur envoie un bit à 1 alors le récepteur reçoit un bit à 1. Les
normes et standards de la couche physique définissent le type de signaux émis (modulation, puissance,
portée...), la nature et les caractéristiques des supports (câble, fibre optique...), les sens de transmission... Pour
vous souvenir facilement des fonctions de la couche 1, pensez aux signaux et aux médias .
Les normes TIA/EIA-568-A et TIA/EIA-568-B demeurent les normes les plus répandues en matière de
performances techniques des médias réseau. Ces normes TIA/EIA portent sur six éléments du câblage LAN. Il
s'agit des éléments suivants :
le câblage horizontal qui comprend le média réseau qui s'étend de l'armoire de câblage à une zone de
travail.
l'armoire de câblage,
le câblage de backbone,
les salles d'équipements,
les zones de travail,
les installations d'entrée.
En effet, selon la norme TIA/EIA-568-A, la longueur maximale d'un câble horizontal ne doit pas dépasser 90
mètres. Ceci s'applique à tous les types de câble à paires torsadées non blindées de catégorie 5 reconnus en tant
que médias réseau. La longueur totale des câbles de raccordement et des cavaliers d'interconnexion du câblage
horizontal ne doit pas dépasser 10 mètres.
1. Description
Fils de cuivre isolés et enroulés deux à deux de façon hélicoïdale permettant ainsi de réduire les interférences
électromagnétiques. Nombre variable de paires par câble.
Rappel : 2 câbles parallèles constituent une antenne rayonnante.
Ing. Christian HAMENI © copyright Page | 24
ARCHITECTURE ET PROTOCOLES DES RESEAUX EDITION 2018
Protection
Blindage : Chaque paire d’un même câble est entourée d’une tresse métallique ou d’un feuillard fin
en aluminium
Écrantage : Toutes les paires protégées ensemble
L’UTP est standardisé en diverses catégories d’intégrité du signal. Ces différentes catégories sont ratifiées
régulièrement par les autorités de normalisation ANSI/TIA/EIA. Plusieurs d’entre elles ont des équivalents
européens normalisés par la norme internationale ISO/CEI 11801 et la norme française NF/EN 50173-1
définissant le câblage structuré.
Catégorie 1
La catégorie 1 est un type de câblage abandonné. Cette catégorie de câble était destinée aux communications
téléphoniques. Cette norme n’est plus d’actualité.
Catégorie 2
La catégorie 2 est un type de câblage abandonné. Cette catégorie de câble permettait la transmission de
données à 4 Mbit/s avec une bande passante de 2 MHz, notamment pour les réseaux de type Token Ring.
Catégorie 3
La catégorie 3 est un type de câblage permettant une bande passante de 16 MHz, il est défini dans la norme
ANSI/TIA/EIA-568B. Ce type de câble de nos jours ne sert principalement plus qu’à la téléphonie sur le
marché commercial, aussi bien pour les lignes analogiques que numériques (systèmes téléphoniques, par
exemple : Norstar, etc.). Il est également utilisé pour les réseaux Fast Ethernet (100 Mb/s). Ce type de câblage
est en cours d’abandon (en 2007) par les opérateurs au bénéfice de câbles de catégorie 5 ou supérieure, pour la
transmission de la voix comme des données. Le code couleur est jaune, vert, rouge, noir. Dans les systèmes de
xDSL on prend le vert et le rouge pour transmettre les données.
Catégorie 4
La catégorie 4 est un type de câblage permettant une bande passante de 20 MHz. Ce standard fut
principalement utilisé pour les réseaux Token Ring à 16 Mbit/s ou les réseaux 10BASE-T. Il fut rapidement
remplacé par les catégories 5 et 5e. Dans la norme actuelle. SI/TIA/EIA-568B, seule la catégorie 3 est décrite.
Catégorie 5
La catégorie 5 permet une bande passante de 100 MHz et une vitesse allant jusqu’à 100 Mbit/s. Ce standard
permet l’utilisation du 100BASE-TX et du 1000BASE-T, ainsi que diverses applications de téléphonie ou de
réseaux (Token ring, ATM). Il était décrit dans l’ancienne norme ANSI/TIA/EIA-568-A. Dans la norme
actuelle, seules les catégories 5e et 6 restent décrites.
Catégorie 5e / classe D
La catégorie 5e (enhanced) peut permettre une vitesse allant jusqu’à 1 000 Mbit/s. C’est un type de câblage
permettant une bande passante de 100 MHz (apparu dans la norme TIA/EIA-568B). La norme est une
adaptation de la catégorie 5.
Catégorie 6 / classe E
La catégorie 6 est un type de câblage permettant une bande passante de 250 MHz et plus (norme
ANSI/TIA/EIA-568-B.2-1 et ISO/CEI 11801 ed.2).
Catégorie 6a / classe Ea
Ratifiée le 8 février 2008, la norme 6a est une extension de la catégorie 6 avec une bande passante de
500 MHz (norme ANSI/TIA/EIA-568-B.2-10). Cette norme permet le fonctionnement du 10GBASE-T
sur 90 mètres.
Catégorie 7 / classe F
La catégorie 7 a une bande passante de 600 MHz. Elle permet l’acheminement d’un signal de télévision
modulé en bande VHF ou UHF, mais pas dans une bande satellite (qui nécessite une bande passante de 2 200
MHz).
Catégorie 7a / classe Fa
La catégorie 7a a une bande passante de 1 GHz et permet un débit allant jusqu'à 10 Gbit/s.
UTP : Unshielded Twisted Pair, câble à paires torsadées non blindées, non écrantées.
FTP : Foiled Twisted Pair, câbles écrantés par feuillard et à paires torsadées non blindées.
(Chaque paire torsadée est entourée d'une couche conductrice de blindage en aluminium. L'ensemble des paires
torsadées a un écran collectif en aluminium).
STP : Shielded Twisted Pair, moins sensible au bruit
Il utilise une gaine de cuivre de meilleure qualité, plus protectrice que la gaine de câble UTP. Il contient
également une enveloppe de protection autour de chaque paire. Cela nous confère un excellent blindage qui
protège les données et lui confère une grande vitesse de transmission. Chaque paire torsadée blindée (ou STP
pour shielded twisted pairs) est entourée d’une couche conductrice de blindage, de façon similaire à un câble
coaxial. Cela permet une meilleure protection contre les interférences. Elle est communément utilisée dans les
réseaux token ring.
SFTP : Shielded Foiled Twisted Pair, câble écranté par tresse à paires torsadées blindées par
feuillard
b) Câble coaxial « Bande de base » (Ex : Ethernet 10Base2, câble fin avec brin de 200m)
Le transceiver
C’est un matériel qui relie le câble coaxial fin et le câble coaxial épais. IL comprend un connecteur
appelé prise vampire qui établit la liaison physique avec la partie centrale du câble épais. La connexion entre le
tansceiver et la carte réseau est faite par un câble de transceiver qui se branche sur le connecteur du port AUI
(Attachement Unit Interface). Un tel connecteur est aussi appelé DIX(Digital, Intel, Xerox) ou DB15.
d) Fibre optique
Une fibre optique est un fil en verre ou en plastique très fin qui a la propriété d'être un conducteur de
la lumière et sert dans la transmission de données. Elle offre un débit d'informations nettement supérieur à
celui des câbles coaxiaux et supporte un réseau « large bande » par lequel peuvent transiter aussi bien la
télévision, le téléphone, la visioconférence ou les données informatiques. Le principe de la fibre optique a été
développé au cours des années 1970 dans les laboratoires de l'entreprise américaine Corning Glass Works
(actuelle Corning Incorporated).
Entourée d'une gaine protectrice, la fibre optique peut être utilisée pour conduire de la lumière entre
deux lieux distants de plusieurs centaines, voire milliers, de kilomètres. Le signal lumineux codé par une
variation d'intensité est capable de transmettre une grande quantité d'informations. En permettant les
communications à très longue distance et à des débits jusqu'alors impossibles, les fibres optiques ont constitué
l'un des éléments clef de la révolution des télécommunications optiques. Ses propriétés sont également
exploitées dans le domaine des capteurs (température, pression, etc.), dans l'imagerie et dans l'éclairage.
Un nouveau type de fibres optiques, fibres à cristaux photoniques, a également été mis au point ces
dernières années, permettant des gains significatifs de performances dans le domaine du traitement optique de
l'information par des techniques non linéaires, dans l'amplification optique ou bien encore dans la génération
de supercontinuums utilisables par exemple dans le diagnostic médical. Dans les réseaux informatiques du type
Ethernet, pour la relier à d'autres équipements, on peut utiliser un émetteur-récepteur.
Dans un tel câble, les signaux sont transmis sous forme d’impulsions lumineuses. Il ne véhicule pas
l’impulsion électrique. Il est donc impossible d’écouter et d’interrompre les données transmises. C’est donc un
bon support de transmission pour les gros volumes de données
La bande passante est très large et les débits sont de l’ordre du Gbits/s
Un signal n’a besoin d’être régénéré que tous les 500 km (mesure en laboratoire).
Ex : le câble utilisé pour relier Marseille et Singapour possède un pas de régénération de 150 km
Son coût est bien plus élevé que le support cuivre
Ing. Christian HAMENI © copyright Page | 28
ARCHITECTURE ET PROTOCOLES DES RESEAUX EDITION 2018
Principe :
Le transport des données se fait sous forme de lumière, ce qui à l’avantage d’être très rapide et
également insensible aux parasites. La fibre optique est un support unidirectionnel, il faut donc 2 fibres
pour assurer une liaison bidirectionnelle.
Fibre monomode
Fibre multimode
Le signal lumineux se propage dans le cœur de la fibre (en silice ou en plastique). Ce dernier est plus petit pour
les fibres monomodes (de 2 à 8 μm) que pour les fibres multimodes (de 50 à 125 μm)
Parmi les connecteurs ST/SC/FC et LC qui existent pour fibres optiques Très, la connectique ST est la plus
utilisée depuis de nombreuses années car simple à mettre en œuvre,
III-1-5 Ethernet
Les composants de couche 1 associés à cette technologie sont les 4 composants passifs, c'est-à-dire qu'ils ne
nécessitent aucune énergie pour fonctionner. Il s'agit des composants suivants :
– les fiches,
– le câblage,
– les prises.
Les trois derniers équipements sont actifs, c'est-à-dire qu’ils nécessitent une énergie pour fonctionner. Il s'agit
des équipements suivants :
– les émetteurs-récepteurs,
– les répéteurs,
– les concentrateurs.
Ethernet est tout simplement un Standard normalisé IEEE 802.3 ou ISO 8802
Il s'agit d'un protocole pour les réseaux locaux (LAN) développé par Xerox Corporation en coopération avec
DEC et Intel en 1976. La norme Ethernet 802.3 a pour origine le système ALOHA conçu pour effectuer des
communications radio entre des machines éparpillées sur les îles Hawaï. La norme Ethernet originelle utilise
une topologie en bus et supporte des taux de transfert de donnés de 1 à 10 Mbps. Aujourd’hui, la topologie en
étoile est la plus répandue avec des taux de transfert pouvant atteindre 10 Gigabits par secondes.
L'utilisation du terme Ethernet est souvent confondue aux réseaux CSMA/CD qui est la méthode d'accès
permettant des demandes simultanées sur le réseau. Il s'agit de l'un des standards pour les LAN les plus
implémentés.
Depuis quelques années, les variantes sans-fil d'Ethernet (normes IEEE 802.11, dites « Wi-Fi ») ont connu un
fort succès, aussi bien sur les installations personnelles que professionnelles.
Regrouper le flot de bits brut de la couche physique en trames qu’utilisera la couche réseau. Il
existe pour cela plusieurs méthodes dont le comptage de caractères et l’utilisation de bits ou
caractères de transparence.
Traiter les erreurs de transmission
Contrôler le flux de données échangées entre entités source et destination.
Pour vous souvenir facilement des fonctions de la couche 2, pensez aux trames et aux adresses MAC.
Les services à la couche réseau peuvent être classés en 3 catégories :
Le service sans connexion et sans accusé de réception : il convient lorsque le taux d’erreur est
faible et la correction d’erreur prévue dans les couches hautes.
Le service sans connexion et avec accusé de réception
Le service orienté connexion avec accusé de réception qui se caractérise par 3 étapes :
• Etablissement de la connexion
• Transmission des données
• Libération de la connexion
Les cartes réseau des PC, assurent en plus des fonctions de la couche 1 d'importantes fonctions de la couche
liaison de données (couche 2), dont les suivantes :
Le contrôle de liaison logique LLC - Communication avec les couches supérieures dans
l'ordinateur.
La désignation - Fourniture d'un identificateur d'adresse MAC unique.
Le verrouillage de trame - Partie du procédé d'encapsulation chargée de mettre les bits en paquets
en vue du transport.
Le Media Access Control (MAC)- Fourniture d'un accès structuré au média d'accès partagé.
La signalisation - Création de signaux et d'une interface avec le média en utilisant des émetteurs-
récepteurs intégrés.
Partie basse de la couche liaison, cette sous-couche joue un rôle très important dans les réseaux LAN qui
fonctionnent sur le principe de diffusion bidirectionnel (accès multiple ou aléatoire)
Allocation statique
1 canal unique Ex : 1 artère de communication analogique.
Multiplexage en fréquence (FDM)
N utilisateurs – division de la bande de fréquence en N canaux égaux
Cette allocation devient inadaptée quand
- le nombre d’utilisateurs N est variable
Une méthode d’accès est l’ensemble des règles qui définissent la façon dont un ordinateur place et
récupère les données sur le câble. Le rôle d’une méthode d’accès est de réguler le trafic sur le câble.
- La méthode CSMA (Carreer Sense Multiple Access) ; encore appelée contention s’appuie
sur la méthode suivante : le premier arrivé est le premier servi
- La méthode fondée sur le passage d’un jeton ; qui repose sur le principe chacun attend son
tour !
- La méthode à priorité de demande. S’articule sur l’établissement des priorités parmi les accès
au réseau.
Ce sont des méthodes d’envoie multiplex.
1. Méthode CSMA
Plusieurs ordinateurs (clients et serveurs) envoient les données sur les câbles. Si les envois sont
simultanés, il y aura collision et destruction des paquets. Pour éviter ces collisions, les ordinateurs écoutent les
câbles pour savoir s’il est libre. Et l’accès peut se faire avec détection des collisions (c’est la méthode
CSMA/CD) ou avec prévention des collisions CSMA/CA (Collision Avoidance)
Avec cette méthode, chaque ordinateur signal qu’il va transmettre avant de faire la transmission
proprement dite. Il envoie un broadcast dans le réseau. Les autres ordinateurs du réseau s’abstiennent de
transmettre et évitent ainsi la collision. Les broadcasts ont les méfaits d’augmenter le trafic sur le câble. Cette
méthode est la moins populaire.
Plusieurs stations accèdent au support de transmission. Chacune écoute et attend que plus aucun signal
ne soit détecté. Elle envoie alors ses données et vérifie s’il y a plusieurs signaux présents (collision detection).
Chaque station tente d’émettre lorsqu’elle pense que le réseau est libre. Si une collision est détectée, un signal
d’embouteillage appelée JAM est diffusé à tous les nœuds. Chaque station qui détecte la collision attend un
certain temps avant de faire une nouvelle transmission.
On dit que c’est le principe de la politesse : On ne parle que lorsque personne ne parle
Le principe est basé sur la circulation d’un jeton (TOKEN) sur un anneau (RING) passant d’un
ordinateur à l’autre. Un ordinateur ne peut transmettre que s’il possède le jeton. Ici il n’y a ni collision ni
contention.
3. La priorité de demandes
C’est une méthode récente qui a été conçue pour la norme 100VG ANY LAN (ETHERNET à 100
Mb/s) et normalisée par IEEE spécification 802.12.
Cette méthode est conçue pour des réseaux constitués de répéteurs et des nœuds terminaux. Ce sont des
répéteurs qui gèrent l’accès au câble en interrogeant les nœuds les uns après les autres pour savoir s’il veut
émettre. Un nœud peut être un ordinateur, un pont, un routeur ou un commutateur.
Avec la priorité de demande, il y a contention. Mais il est implémenté un mécanisme de priorité basé
sur le type des données en cas de contention. En cas de requêtes simultanées, les données ayant la priorité la
plus élevée sont traitées en premier.
En cas de requête à priorité identique, elles sont traitées en alternance d’autant plus que le schéma de câblage
inhérent à cette méthode est constitué de quatre paires de fils et un ordinateur peut recevoir et émettre
simultanément.
Avantages
- Utilisation de quatre paires de fils permettant d’émettre et de recevoir
simultanément(duplexage)
- La transmission se fait par l’intermédiaire d’un concentrateur
- Les ordinateurs ne se discutent pas de câbles (absence de collision)
PAD : Bourrage d’octet si la trame n’a pas assez de bits pour atteindre la taille minimale.
CRC : Calcul effectué sur les bits de la trame pour vérifier si la transmission s’est faite sans erreur.
Adressage 802.3
La sous-couche LLC constitue la partie haute de la couche 2 pour les réseaux locaux. Elle est commune à tous
les types de supports physiques et de méthodes d'accès, masquant ainsi ces spécifications aux couches
supérieures.
LLC type-1 (connectionless service): Le service fourni est un mode de transfert "sans connexion" où
chaque unité de données de protocole (PDU) est transmise comme un datagramme dans une trame de
type UI (Unnumbered Information). Il n'y a ni accusé de réception, ni garantie de séquence.
LLC type-2: Le service fourni est un mode de transfert "avec connexion". Une connexion doit être
établie avant le transfert des unités de protocole.
LLC type-3: Ce mode constitue un compromis des deux précédents, les transferts sont effectués "sans
connexion", mais un accusé de réception est envoyé à chaque trame reçue. L'émetteur attend cet
acquittement avant de transmettre la trame suivante.
Les services fournis par la sous couche LLC sont accessibles au travers des "prises" les LSAP (LLC Service
Access Point). Ces points d'accès permettent à des flux de données correspondant à des environnements
d'application différents d'une même station (SNA, TCP/IP, etc...) d'être identifiés avant multiplexage vers la
sous couche MAC. Connections : Ces liens logiques sont matérialisés par des adresses SSAP (Source Service
Access Point) et DSAP (Destination Service Access Point).
C. Primitives de services
4 types
Demande (Request) : Primitives utilisées par la couche réseau pour demander à la couche liaison
d'effectuer une tâche ; établir une connexion, envoyer une trame
Ing. Christian HAMENI © copyright Page | 36
ARCHITECTURE ET PROTOCOLES DES RESEAUX EDITION 2018
Indication (Indication) : Primitives utilisées pour informer la couche réseau qu'un événement est
survenu. Ex : une machine souhaite établir ou libérer une connexion, une trame est arrivée
Réponse (Response): Primitives utilisées par la couche réseau du côté récepteur pour répondre à une
primitive indication
Confirmation (confirm) : Primitives utilisées par la couche réseau de l'émetteur pour savoir si une
demande a été exécutée avec succès et, dans le cas contraire la cause de son échec.
F. Contrôle de flux
Principe : Interdire à l’émetteur d’envoyer des trames sans avoir reçu auparavant une permission implicite ou
explicite du récepteur
Définition :
La couche réseau assure toutes les fonctionnalités de relais et d'amélioration de services entre entité de réseau, à
savoir : l'adressage, le routage, le contrôle de flux et la détection et correction d'erreurs non réglées par la
couche 2. À ce niveau-là de l'architecture OSI il s'agit de faire transiter une information complète (un fichier
par exemple) d'une machine à une autre à travers un réseau de plusieurs ordinateurs. Pour vous souvenir
facilement des fonctions de la couche 3, pensez à la sélection du chemin, au routage et à l'adressage . III-4-1.
Problèmes de conception de la couche réseau Ces problèmes incluent les services fournis à la couche transport
et la conception interne du sous-réseau.
Ils sont accessibles à l’interface entre les 2 couches. Problématique : Il existe deux grandes possibilités pour
établir un protocole de niveau réseau : le mode orienté connexion soutenu par les opérateurs Télécoms et
les transporteurs et le mode sans connexion de la communauté Internet. Le premier cas est celui adopté
dans la norme X25.3 (composante de la norme X25 du CCITT, également norme ISO 8208 et quasi-
standard international des années 80, utilisé dans le réseau français TRANSPAC) et le second est celui du
protocole IP du réseau Internet.
Quel type de service doit-on choisir ?
Où placer la complexité du traitement ?
Dans le contexte des opérations internes du sous-réseau , une connexion est appelée Circuit Virtuel par
analogie avec les circuits physiques du système téléphonique. Les paquets indépendants du mode non
connecté sont appelés des Datagrammes par analogie avec les télégrammes.
C’est la partie du logiciel de la couche réseau qui a la responsabilité de décider sur quelle ligne de sortie un
paquet entrant doit être retransmis. Ceci se fait en fonction de la destination finale du paquet et selon une table
de routage qui indique pour chaque destination finale quelles sont les voies de sortie possibles.
a) Propriétés d’un Algorithme
Exactitude
Simplicité
Robustesse : prendre en compte sans arrêt des modifications de la topologie et du trafic réseau
Stabilité : doit converger vers un équilibre avec le temps
Justice : Trouver vis à vis des usagers un compromis entre efficacité globale et justice pour chaque
connexion individuelle
Optimalité : dépend des critères utilisés dans les algorithmes de routage
Principe : Représenter le sous-réseau par un graphe, chaque noeud représentant un organe de routage (OR) et
tout arc une ligne de communication entre 2 Ors. L’algorithme consiste à trouver le plus court chemin entre 2
Ors en tenant compte des critères suivants :
- Distance géographique
- Capacité de transport
- Trafic moyen
- Nombre de noeuds à traverser,
- Sécurité de transport de certains paquets,
- Coût des communications
- Longueur moyenne des files d’attente, des délais mesurés, etc.
Chaque nœud est étiqueté (entre parenthèses) par sa distance au nœud (OR) source en suivant le meilleur
chemin connu, et la variable représentant le nœud précédent sur ce chemin.
Au début les étiquettes ont des valeurs infinies ex : B (,-). Elles sont donc provisoires. A est marqué
comme nœud permanent.
Quand il est démontré qu’une étiquette représente le plus court chemin possible entre la source et ce
nœud, elle devient permanente et n’est plus modifiée.
Si dans l’étiquette d’un nœud donné, comme c’est le cas pour le nœud G, on trouve une valeur
inférieure à la valeur contenue dans l’étiquette de ce nœud, nous avons trouvé un chemin plus court et
le nœud est réétiqueté (G entre les figures (c) et (d) ci-dessous)
C (∞,-)
D (∞,-)
D (∞,-)
F (6, E)
d) Types de routages
Le routage centralisé via un Centre de Contrôle du Routage (CCR) est géré par un noeud particulier du
réseau qui reçoit des informations de chacun des noeuds du réseau et leur envoie leur table de routage
indiquant ainsi les routes optimales.
La mise à jour des tables de routage peut se faire de manière
fixe : en fait, il n'y a pas de mise à jour, la table de routage est fixée une fois pour toute en fonction de
la topologie du réseau.
synchrone : toutes les tables sont mises à jour au même moment par le centre de contrôle qui reçoit des
informations de la part de tous les noeuds à intervalles réguliers (toutes les 10 sec par exemple).
asynchrone : les tables sont mises à jour indépendamment les unes des autres dans certaines parties du
réseau, chaque noeud envoyant un compte-rendu de son état au centre de contrôle lorsqu'il observe des
changements significatifs.
Mais le routage centralisé dans un réseau à grande échelle est peu performant, car un routage est d'autant
meilleur qu'il réagit rapidement aux informations qui lui parviennent. De plus, si une panne survient dans
l'ordinateur qui assure ce contrôle, c'est tout le réseau qui tombe en panne.
Le routage décentralisé ne possède pas de centre de contrôle et les règles de passage d'un paquet (paquet
d'appel pour établissement d'un circuit virtuel) sont :
L’inondation : à la réception d'un paquet celui-ci est renvoyé sur toutes les lignes de sortie. Cette
technique simpliste et rapide est efficace dans les réseaux à trafic faible et où le temps réel est nécessaire
mais elle est pénalisante en flux de données, inadaptée aux réseaux complexe et au circuit virtuel.
La technique « Hot Potato» (patate chaude) : un paquet reçu est renvoyé le plus tôt possible par la
première ligne de sortie vide sans se préoccuper de l’endroit où elle conduit.
Le routage adaptatif à la fois dans l'espace et dans le temps demande, de la part de chaque nœud, une
connaissance complète du réseau. Un nœud ne transmet un compte-rendu qu'à ses voisins immédiats
qui doivent en tenir compte dans leur propre compte-rendu.
Autres routages
Ing. Christian HAMENI © copyright Page | 40
ARCHITECTURE ET PROTOCOLES DES RESEAUX EDITION 2018
Routage fondé sur le flux (flow-based routing) : Dans ce cas on tient compte des distances et des
charges de communication.
Ex : Si dans le cas de fig. III.17 la ligne AB connaît un trafic intense, il serait efficace de router le trafic de A à
C via AGEFC même si chemin plus long
Routage à vecteur de distance (Routage distribué)
La couche transport segmente les données envoyées par le système de l'hôte émetteur et les rassemble en flux
de données sur le système de l'hôte récepteur. Elle tente de fournir un service de transport des données qui
protège les couches supérieures des détails d'implémentation du transport. Pour être précis, les questions
comme la façon d'assurer la fiabilité du transport entre deux systèmes hôtes relèvent de la couche transport. En
fournissant un service de communication, la couche transport établit et raccorde les circuits virtuels, en plus
d'en assurer la maintenance. La fourniture d'un service fiable lui permet d'assurer la détection et la correction
des erreurs, ainsi que le contrôle du flux d'informations. Pour vous souvenir facilement des fonctions de la
couche 4, pensez à la qualité de service et à la fiabilité.
a. Qualité de service
La Qualité de Service (QoS, Quality of Service) est la capacité à véhiculer dans de bonnes conditions un
type de trafic donné, en termes de disponibilité, débit, délai de transmission, taux de perte de paquets… Son
but est ainsi d’optimiser les ressources du réseau et de garantir de bonnes performances aux applications
critiques. Par sa définition, la qualité de service est une notion subjective. Selon le type de service envisagé, la
qualité pourra résider dans le débit (téléchargement ou diffusion vidéo), le délai (pour les applications
interactives ou la téléphonie), la disponibilité (accès à un service partagé) ou encore le taux de pertes de paquets
(pertes sans influence pour de la voix ou de la vidéo, mais critiques pour le téléchargement).
Voici quelques paramètres de la qualité de service pris en compte par la couche Transport en mode connecté :
Ces paramètres sont utilisés par la couche transport pour fixer des options de protocoles avant d'être soumis à
la couche réseau
b. Primitives de service
Les services qu'offre la couche transport en mode connecté sont rendus par les primitives données ci-dessous.
Celles-ci se décomposent comme dans tout dialogue entre couches en quatre catégories (requête, indication
confirmation et indication ; idem pour la sous-couche liaison)
Phase d'établissement de la connexion
T_CONNECT.request(adresse source, adresse distante, données_express, qds, données_utilisateur)
pour demander une connexion
T_CONNECT.indication(adresse source, adresse distante, données_express, qds,
données_utilisateur) pour indiquer une connexion de transport
T_CONNECT.response(adresse source, adresse distante, données_express, données_utilisateur)
pour répondre à une demande de connexion de transport
T_CONNECT.confirm(adresse source, adresse distante, données_express, qds,
données_utilisateur) pour confirmer l'établissement d'une connexion de transport
Phase de transfert de données
T_DATA.request(données_utilisateur) pour demander le transfert de données
T_DATA.indication(données_utilisateur) pour indiquer un transfert de données
T_EXPEDITED_DATA.request(données_utilisateur) pour demander le transfert de données
express
Précédant le modèle OSI, TCP/IP en diffère fortement, non seulement par le nombre de couches, mais aussi
par l’approche. Le modèle OSI a une approche formaliste (spécifie des services) tandis que TCP/IP a une
approche pragmatique (spécifie des protocoles).
L’architecture TCP/IP a été développée dans le milieu des années 70 par la DARPA (Defense Advanced
Research Project Agency) pour les besoins d’interconnexion des systèmes informatiques de l’armée (DoD,
Department of Defense). TCP/IP du nom de ses deux protocoles principaux (TCP, Transmission Control
Protocol et IP, Internet Protocol), est un ensemble de protocoles permettant de résoudre les problèmes
d’interconnexion en milieu hétérogène.
L’architecture TCP/IP est à la source du réseau Internet. Elle a été adoptée par de nombreux réseaux privés,
appelés intranet. De nos jours, c’est le protocole standard de tous les réseaux, du LAN au WAN.
La couche TCP (Transmission Control Protocol) reçoit d’un processus applicatif un flux de données et le
transforme en datagrammes IP (morcelés éventuellement en fragments IP) dont la taille maximale est de 64 ko
(moins de 1500 octets en pratique). Ils sont transmis au travers du réseau et réassemblés à destination par la
couche réseau distante afin de reconstituer le datagramme original. Celui-ci est acheminé à la couche transport
qui reconstitue à son tour le flux de données pour le faire suivre au processus applicatif concerné.