Vous êtes sur la page 1sur 55

Réseaux informatiques Prof : ABAZINE Karima

Réseaux informatiques(suite)
V. Couche réseau OSI
Les protocoles de la couche réseau du modèle OSI définissent l’adressage et les processus qui
permettent la préparation et le transport des données de la couche transport. L’encapsulation de la couche
réseau permet de transmettre son contenu à la destination, au sein d’un réseau ou sur un autre, avec une
surcharge minimale.
1) IPv4
1) Couche réseau : Communication entre deux hôtes
La couche réseau, ou couche 3 OSI, fournit des services pour l’échange des éléments de
données individuels sur le réseau entre des périphériques finaux identifiés. Pour effectuer ce
transport de bout en bout, la couche 3 utilise quatre processus de base :
· l’adressage : La couche réseau doit d’abord fournir un mécanisme pour l’adressage de ces
périphériques finaux.
· l’encapsulation : La couche réseau doit également fournir une encapsulation. Les éléments
individuels (unités de données de protocole de couche réseau) doivent également contenir les adresses.
· le routage : La couche réseau doit ensuite fournir des services pour diriger ces paquets vers leur
hôte de destination. Les périphériques intermédiaires connectant les réseaux sont appelés routeurs.
Leur rôle consiste à sélectionner les chemins afin de diriger les paquets vers leur destination. Ce
processus est appelé routage.
· le décapsulage : L’hôte de destination examine l’adresse de destination pour vérifier que le
paquet était bien adressé à ce périphérique. Si l’adresse est correcte, le paquet est décapsulé par la couche
réseau, et l’unité de données de protocole de la couche 4 contenue dans le paquet est transmise au service
approprié de la couche transport.
Protocoles de couche réseau
Les protocoles mis en œuvre dans la couche réseau qui transportent des données utilisateur
comprennent :
· Protocole IP version 4 (IPv4)
· Protocole IP version 6 (IPv6)
· Protocole IPX de Novell
· AppleTalk
· CLNS (Connectionless Network Service)/DECNet
Le protocole IP (IPv4 et IPv6) constitue le protocole de transport de données de couche 3 le plus
répandu et fait l’objet de ce cours.
2) Protocole IPV4 :exemple de protocole de couche réseau
Les services de couche réseau mis en œuvre par la suite de protocoles TCP/IP constituent le
protocole IP (Internet Protocol). Les services fournis par IP(IPv4 ou IPv6), ainsi que la structure et le
contenu de l’en-tête de paquet, sont spécifiés par le protocole IPv4 ou IPv6. Ces services et la structure de
paquet sont utilisés pour encapsuler des datagrammes UDP ou des segments TCP pour leur transport dans
un interréseau.
Le protocole IP a été conçu pour ne pas surcharger les réseaux. Il fournit uniquement les fonctions
requises pour transférer un paquet d’une source à une destination en passant par un système interconnecté
de réseaux. Ce protocole n’est pas destiné au suivi et à la gestion du flux de paquets. Ces fonctions sont
effectuées par d’autres protocoles d’autres couches.
Caractéristiques de base du protocole IPv4 :
Ø Sans connexion : aucune connexion n’est établie avant l’envoi de paquets de données.
Ø Au mieux (peu fiable) : aucune surcharge n’est utilisée pour garantir la transmission des paquets.
Ø Indépendant des médias : fonctionne indépendamment du média transportant les données.
3) Protocole IPV4 : sans connexion
L’envoi d’une lettre sans en avertir le destinataire à l’avance constitue un exemple de communication
sans connexion. Les communications de données sans connexion fonctionnent sur le même principe. Les
paquets IP sont envoyés sans avertir l’hôte final de leur arrivée.
1
Réseaux informatiques Prof : ABAZINE Karima

4) Protocole IPV4 :au mieux (peu fiable)


Le protocole IP ne charge pas le service IP d’assurer la fiabilité. Comparé à un protocole fiable, l’en-
tête IP est plus petit. Le transport de ces en-têtes plus petits exige donc moins de surcharge. Et qui dit
moins de surcharge dit moins de retard, ce qui est souhaitable pour un protocole de couche 3.
En effet, le rôle de la couche 3 consiste à transporter les paquets entre les hôtes tout en
imposant le moins de charge possible au réseau. La couche 3 n’est pas concernée par le type de
communication contenu à l’intérieur d’un paquet, ou même l’ignore.
Protocole IP est peu fiable signifie simplement que le protocole IP n’a pas la capacité de gérer
ni de récupérer des paquets non délivrés ou corrompus.
5) Protocole IPV4 : indépendant des médias
IPv4 et IPv6 fonctionnent indépendamment des médias acheminant les données dans les couches
inférieures de la pile de protocoles. Tout paquet IP peut être communiqué électriquement par câble, sous
forme de signaux optiques par fibre, ou sans fil sous la forme de signaux radio.
La couche réseau tient compte de la taille maximale d’unité de données de protocole que chaque
média peut transporter. Cette caractéristique est désignée comme unité de transmission maximale (MTU).
Une partie de la communication de contrôle entre la couche liaison de données et la couche réseau est
l’établissement d’une taille maximale pour le paquet. La couche liaison de données transmet la MTU de
manière ascendante à la couche réseau. Cette dernière détermine alors la taille de création des paquets.
Dans certains cas, un périphérique intermédiaire (généralement, un routeur) devra scinder un paquet
lors de sa transmission d’un média à un autre avec une MTU inférieure. Ce processus est appelé
fragmentation du paquet.
6) Paquet IPV4 : empaquetage de l’unité de données de protocole de la couche transport
IPv4 encapsule, ou empaquette, le datagramme ou segment de la couche transport pour que le
réseau puisse le délivrer à l’hôte de destination. L’encapsulation IPv4 reste en place du moment où le
paquet quitte la couche réseau de l’hôte émetteur jusqu’à son arrivée dans la couche réseau de l’hôte de
destination. Et la partie données du paquet (à savoir l’unité de données de protocole de couche transport
encapsulée) reste inchangée durant les processus de couche réseau.
7) En-tête de paquet IPv4
Un protocole IPv4 définit de nombreux champs différents dans l’en-tête de paquet. Ces champs
contiennent des valeurs binaires que les services IPv4 référencent lors de la transmission de paquets sur le
réseau.
Champs clés d’en-tête IPv4 :
Ø Adresse source IP : contient une valeur binaire de 32 bits représentant l’adresse de couche
réseau de l’hôte source du paquet.
Ø Adresse de destination IP : contient une valeur binaire de 32 bits représentant l’adresse de
couche réseau de l’hôte destinataire du paquet.
Ø Durée de vie (TTL, Time to live) : est une valeur binaire de 8 bits indiquant la durée de vie
restante du paquet. La valeur TTL est décrémentée de 1 au moins chaque fois que le paquet est traité par
un routeur (à chaque saut). Lorsque la valeur devient nulle, le routeur supprime ou abandonne le paquet et
il est retiré du flux de données du réseau.
Ø Type de service (ToS) : contient une valeur binaire de 8 bits utilisée pour définir la priorité de
chaque paquet. Cette valeur permet d’appliquer un mécanisme de qualité de service (QS) aux paquets de
priorité élevée, tels que ceux transportant des données vocales de téléphonie.
Ø Protocole : Cette valeur binaire de 8 bits indique le type de données utiles que le paquet
transporte. Le champ de protocole permet à la couche réseau de transmettre les données au protocole de
couche supérieure approprié.
Ø Décalage du fragment : un routeur peut devoir fragmenter un paquet lors de sa transmission
d’un média à un autre de MTU inférieure. Lorsqu’une fragmentation se produit, le paquet IPv4 utilise le
champ de décalage du fragment et l’indicateur MF de l’en-tête IP pour reconstruire le paquet à son arrivée
sur l’hôte de destination. Le champ de décalage du fragment identifie l’ordre dans lequel placer le
fragment de paquet dans la reconstruction.
Indicateur de fragments supplémentaires
L’indicateur de fragments supplémentaires (MF) est un seul bit du champ Indicateur utilisé avec le

2
Réseaux informatiques Prof : ABAZINE Karima

décalage du fragment pour la fragmentation et la reconstruction de paquets. L’indicateur de fragments


supplémentaires est défini, indiquant qu’il ne s’agit pas du dernier fragment d’un paquet. Quand un hôte
récepteur voit un paquet arriver avec l’indicateur MF = 1, il examine le décalage du fragment pour voir
où ce fragment doit être placé dans le paquet reconstruit. Quand un hôte récepteur reçoit une trame avec
l’indicateur MF = 0 et une valeur non nulle dans le champ de décalage du fragment, il place ce fragment à
la fin du paquet reconstruit. Les informations de fragmentation d’un paquet non fragmenté sont toutes
nulles (MF = 0, décalage du fragment = 0).
Indicateur Ne pas fragmenter
L’indicateur Ne pas fragmenter (DF) est un seul bit du champ Indicateur stipulant que la
fragmentation du paquet n’est pas autorisée. Si le bit de l’indicateur Ne pas fragmenter est défini, la
fragmentation de ce paquet n’est PAS autorisée. Si un routeur doit fragmenter un paquet pour permettre
sa transmission descendante à la couche liaison de données mais que le bit DF est défini à 1, le routeur
supprime ce paquet.

Autres champs de l’en-tête IPv4 :


Ø Version : contient le numéro de version IP (4).
Ø Longueur d’en-tête (IHL) : spécifie la taille de l’en-tête de paquet.
Ø Longueur du paquet : ce champ donne la taille du paquet entier, en-tête et données compris, en
octets.
Ø Identification : ce champ sert principalement à identifier de manière unique les fragments d’un
paquet IP d’origine.
Ø Somme de contrôle d’en-tête : le champ de somme de contrôle est utilisé pour vérifier
l’absence d’erreurs dans l’en-tête de paquet.
Ø Options : des champs supplémentaires sont prévus dans l’en-tête IPv4 afin de fournir d’autres
services, mais ils sont rarement utilisés.

2) Réseaux : division des hôtes en groupes


1) Réseaux : Séparation des hôtes en groupes communs
Un des principaux rôles de la couche réseau est de fournir un mécanisme d’adressage des hôtes. À
mesure que le nombre d’hôtes augmente, la gestion et l’adressage du réseau exigent davantage de
3
Réseaux informatiques Prof : ABAZINE Karima

planification.
Division de réseaux
Au lieu d’avoir tous les hôtes partout connectés à un seul vaste réseau global, il s’avère plus pratique
et gérable de les grouper en réseaux plus petits, interconnectés appelés sous-réseaux. Il convient alors de
diviser le réseau. La planification de la division du réseau implique de regrouper dans le même réseau les
hôtes ayant des facteurs communs.
Comme l’illustre la figure, les réseaux peuvent être groupés en fonction de facteurs incluant :
ü Emplacement géographique : Les hôtes du réseau peuvent être groupés géographiquement. Le
regroupement des hôtes d’un même emplacement (comme chaque bâtiment d’un campus ou
chaque étage d’un immeuble) dans des réseaux distincts peut améliorer la gestion et le
fonctionnement du réseau.
ü Objectif : La division de réseaux en fonction de l’utilisation facilite l’allocation efficace de
ressources réseau ainsi que l’accès autorisé à ces ressources.
ü Propriété : La création de réseaux en fonction de l’organisation (entreprise, service) permet de
mieux contrôler l’accès aux périphériques et données, et facilite l’administration des réseaux.
Dans un grand réseau, il est bien plus difficile pour le personnel réseau de définir et de limiter
les responsabilités. La division des hôtes en réseaux distincts fournit une frontière pour la
mise en place de la sécurité et la gestion de chaque réseau.
2) Pourquoi séparer les hôtes en réseaux ?
Les problèmes courants rencontrés par les grands réseaux sont les suivants :
ü Dégradation des performances
ü Problèmes de sécurité
ü Gestion des adresses
Amélioration des performances
Un grand nombre d’hôtes connectés au même réseau peut produire des volumes de trafic de données
qui peuvent utiliser au maximum, voire épuiser les ressources réseau telles que la bande passante et les
capacités de routage.
Sécurité
La division de réseaux en fonction de la propriété signifie que l’accès à et à partir des ressources à
l’extérieur de chaque réseau peut être interdit, autorisé ou surveillé.
Gestion des adresses
La division des grands réseaux de façon à regrouper les hôtes devant communiquer réduit la
surcharge inutile de tous les hôtes devant connaître toutes les adresses.
Pour toutes les autres destinations, les hôtes ont uniquement besoin de connaître l’adresse d’un
périphérique intermédiaire, auquel ils envoient des paquets pour toutes les autres adresses des
destinations. Ce périphérique intermédiaire est appelé passerelle. La passerelle est un routeur sur un
réseau servant de sortie de ce réseau.
3) Comment séparer les hôtes en réseaux ? Adressage hiérarchique
Un adressage hiérarchique est nécessaire pour pouvoir diviser des réseaux. Une adresse
hiérarchique identifie chaque hôte de manière unique. Elle comporte également des niveaux facilitant
l’acheminement de paquets entre des interréseaux, ce qui permet la division d’un réseau en fonction de
ces niveaux.
Pour prendre en charge les communications de données entre réseaux via des interréseaux, les
systèmes d’adressage de couche réseau sont hiérarchiques.
Les adresses de couche 3 fournissent la partie réseau de l’adresse. Les routeurs acheminent les
paquets entre les réseaux en se référant uniquement à la partie de l’adresse de couche réseau requise pour
diriger le paquet vers le réseau de destination. Au moment où le paquet arrive sur le réseau de l’hôte de
destination, l’ensemble de l’adresse de destination de l’hôte aura été utilisé pour acheminer le paquet.
4) Division des réseaux : réseaux à partir de réseaux
L’adresse IPv4 32 bits logique est hiérarchique et constituée de deux parties. La première partie
identifie le réseau, et la seconde un hôte de ce réseau. Les deux parties sont requises pour que l’adresse IP
soit complète.
Les adresses IPv4 sont divisées en quatre groupes de 8 bits (octets). Chaque octet est converti en

4
Réseaux informatiques Prof : ABAZINE Karima

valeur décimale et l’adresse complète écrite sous la forme des quatre valeurs décimales séparées par un
point.
Exemple : 192.168.18.57
Dans cet exemple, comme l’illustre la figure, les trois premiers octets (192.168.18) peuvent
identifier la partie réseau de l’adresse, et le dernier octet (57) identifie l’hôte.

3) Routage : mode de traitement des paquets de données


1) Paramètres des périphériques : prise en charge de la communication hors réseau
Au sein d’un réseau ou d’un sous-réseau, les hôtes communiquent entre eux sans nécessiter de
périphérique intermédiaire de couche réseau. Quand un hôte doit communiquer avec un autre réseau, un
périphérique intermédiaire, ou routeur, sert de passerelle avec l’autre réseau.
Dans le cadre de sa configuration, un hôte reçoit une adresse de passerelle par défaut. Comme
l’illustre la figure, cette adresse de passerelle est l’adresse d’une interface de routeur connectée au même
réseau que l’hôte.
Il est impossible pour un hôte de connaître l’adresse de chaque périphérique sur Internet avec
lequel il peut devoir communiquer. Pour communiquer avec un périphérique sur un autre réseau, un hôte
utilise l’adresse d’une passerelle, ou passerelle par défaut, pour acheminer un paquet en dehors du réseau
local.
Le routeur a également besoin d’une route définissant où acheminer le paquet ensuite. On parle
d’adresse du tronçon suivant. Si une route est disponible pour le routeur, ce dernier achemine le paquet
vers le routeur de tronçon suivant qui offre un chemin vers le réseau de destination.

2) Paquets IP : transport de données de bout en bout


Si l’hôte de destination se trouve dans le même réseau que l’hôte source, le paquet est acheminé
entre les deux hôtes sur le média local sans nécessiter de routeur.
Si l’hôte de destination et l’hôte source ne se trouvent pas dans le même réseau, le paquet peut
transporter une unité de données de protocole de couche transport entre de nombreux réseaux et via de
nombreux routeurs.
À chaque saut, les décisions d’acheminement sont basées sur les informations de l’en-tête de
paquet IP. Le paquet avec son encapsulation
de couche réseau est aussi fondamentalement
intact tout au long du processus complet, de
l’hôte source à l’hôte de destination.
De nombreux routeurs ou sauts tout
au long du chemin peuvent traiter le paquet
avant d’atteindre la destination.
3) Passerelle : sortie du réseau
La passerelle est une interface de
routeur connectée au réseau local. L’interface
de passerelle a une adresse de couche réseau
5
Réseaux informatiques Prof : ABAZINE Karima

correspondant à l’adresse réseau des hôtes. Les hôtes sont configurés pour reconnaître cette adresse
comme la passerelle.
Passerelle par défaut
La passerelle par défaut est configurée sur un hôte. Sur un ordinateur Windows, les outils
Propriétés du protocole Internet (TCP/IP) permettent d’entrer l’adresse IPv4 de la passerelle par défaut.
L’adresse IPv4 de l’hôte et l’adresse de passerelle doivent avoir la même partie réseau (et sous-réseau, le
cas échéant) de leur adresse respective.
Confirmation de la passerelle et de la route
Comme l’illustre la figure, l’adresse IP de la passerelle par défaut d’un hôte peut être affichée en
lançant les commandes ipconfig ou route sur la ligne de commande d’un ordinateur Windows. La
commande route est également utilisée sur un hôte Linux ou UNIX.

Aucun paquet ne peut être acheminé sans route.


Un routeur prend une décision de transfert pour chaque paquet qui arrive à l’interface de
passerelle. Ce processus de transfert est appelé routage. Pour transférer un paquet vers un réseau de
destination, le routeur a besoin d’une route vers ce réseau. S’il n’existe aucune route vers un réseau de
destination, le paquet ne peut pas être transféré.
4) Route : chemin vers un réseau
Les routes d’une table de routage possèdent trois caractéristiques principales :
· Réseau de destination
· Tronçon suivant
· Mesure
Le routeur met en correspondance l’adresse de destination de l’en-tête de paquet avec le réseau de
destination d’une route dans la table de routage et transfère le paquet au routeur de tronçon suivant
spécifié par cette route. Si deux ou plusieurs routes sont possibles pour la même destination, la mesure est
utilisée pour décider la route qui apparaît dans la table de routage.
Comme l’illustre la figure, la table de routage d’un routeur Cisco peut être examinée avec la
commande show ip route.
Si une route représentant le réseau de destination ne figure pas dans la table de routage, le paquet
est abandonné (non transféré). Le routeur peut également utiliser une route par défaut pour transférer le
paquet. La route par défaut est utilisée lorsque le réseau de destination n’est représenté par aucune autre
route dans la table de routage.
Table de routage d’hôte
Contrairement à la table de routage d’un routeur, qui contient à la fois des routes locales et
distantes, la table locale d’un hôte contient généralement sa (ou ses) connexion(s) directe(s) au réseau et
sa propre route par défaut vers la passerelle. La configuration de l’adresse de passerelle par défaut sur
l’hôte crée la route par défaut locale.
Comme l’illustre la figure, la
table de routage d’un hôte d’ordinateur
peut être examinée sur la ligne de
commande en lançant les commandes
netstat -r, route ou route
PRINT.
Dans certains cas, vous pouvez
indiquer des routes plus spécifiques
à partir d’un hôte. Vous pouvez utiliser
les options suivantes pour la commande
route afin de modifier le contenu de
6
Réseaux informatiques Prof : ABAZINE Karima

la table de routage :
route ADD
route DELETE
route CHANGE
5) Réseau de destination
Entrées de table de routage
La préséance de sélection de route pour le paquet allant à 10.1.1.55 serait :
1. 10.1.1.0
2. 10.1.0.0
3. 10.0.0.0
4. 0.0.0.0 (route par défaut si elle est configurée)
5. Abandon

6) Transfert de paquet : avancement du paquet vers sa destination


Le routage s’effectue paquet par paquet et saut par saut. À chaque saut, le routeur examine
l’adresse IP de destination pour chaque paquet, puis vérifie les informations de transfert dans la table de
routage. Le routeur peut effectuer trois opérations avec le paquet :
Ø le transférer au routeur de tronçon suivant,
Ø le transférer à l’hôte de destination,
Ø l’abandonner.

Utilisation de la route par défaut

Exercices :
Cet exercice examine les règles (algorithmes) utilisées par les routeurs pour prendre des décisions
concernant le traitement des paquets, selon l’état de leurs tables de routage à l’arrivée du paquet.
4) Processus de routage : mode d’apprentissage des routes
1) Routage statique
Des routes vers des réseaux distants avec les tronçons suivants associés peuvent être configurées
manuellement sur le routeur. On parle alors de routage statique. Une route par défaut peut également être

7
Réseaux informatiques Prof : ABAZINE Karima

configurée de manière statique.


Si la structure d’interréseau change ou que de nouveaux réseaux deviennent disponibles, ces
modifications doivent être mises à jour manuellement sur chaque routeur. Si une mise à jour n’est pas
effectuée, les informations de routage peuvent être incomplètes ou inexactes, entraînant des retards, voire
la perte éventuelle de paquets.
2) Routage dynamique
La mise à jour de la table de routage par configuration statique manuelle n’est pas toujours
faisable. Des protocoles de routage dynamique sont par conséquent utilisés. Quand un routeur reçoit des
informations sur des routes nouvelles ou modifiées, il met à jour sa propre table de routage et, à son tour,
transmet ces informations aux autres routeurs. Tous les routeurs disposent ainsi de tables de routage
exactes mises à jour de manière dynamique et peuvent mémoriser des routes vers des réseaux distants
avec une portée de nombreux sauts.
Les protocoles de routage courants sont :
ü RIP (Routing Information Protocol)
ü EIGRP (Enhanced Interior Gateway Routing Protocol)
ü OSPF (Open Shortest Path First)

Exercice :
Cet exercice vous permet d’examiner une visualisation simple d’un protocole de routage
dynamique « en action ».
5) Travaux pratiques
1) TP : examen de la passerelle d’un périphérique
Au cours de ces travaux pratiques, vous allez :
§ examiner l’objectif d’une adresse de passerelle,
§ configurer des paramètres réseau sur un ordinateur Windows,
§ dépanner un problème caché d’adresse de passerelle.
Cet exercice Packet Tracer examine le rôle de la passerelle dans la fourniture de l’accès à des
réseaux distants.
2) TP : examen d’une route
Au cours de ces travaux pratiques, vous allez :
§ utiliser la commande route pour modifier une table de routage d’ordinateur Windows,
§ utiliser un client Telnet Windows pour vous connecter à un routeur Cisco,
§ examiner des routes de routeur à l’aide de commandes IOS Cisco de base.
Au cours de ces travaux pratiques, vous allez utiliser Packet Tracer pour examiner des tables de
routage de routeur à l’aide de commandes IOS Cisco de base.

8
Réseaux informatiques Prof : ABAZINE Karima

VI. Adressage du réseau : IPv4


Ce chapitre décrit la structure des adresses IPv4 et leur application dans la création et le test de
réseaux et de sous-réseaux IP.
1) Adresses IPv4
1) Anatomie d’une adresse IPv4
Tous les périphériques appartenant à un réseau doivent être identifiés de manière unique. Au
niveau de la couche réseau, les paquets de communication doivent être identifiés par une adresse source
32 bits et une adresse de destination 32 bits.
Décimale à point
Les configurations binaires représentant des adresses IPv4 sont exprimées en décimales à point, en
séparant chacun des octets par un point. Le nom d’« octet » s’explique par le fait que chaque nombre
décimal représente 8 bits.

Parties réseau et hôte


Pour chaque adresse IPv4, une partie des bits de valeur supérieure représente l’adresse réseau. Au
niveau de la couche 3, un réseau se définit par un groupe d’hôtes dont la partie adresse réseau de l’adresse
contient la même configuration binaire.
2) Connaissance des nombres : conversion de binaire en décimal
Pour comprendre et expliquer le comportement d’un périphérique sur un réseau, il convient de
traiter les adresses et autres données en notation binaire. Cela implique qu’il faut savoir comment
convertir des nombres binaires en nombres décimaux.
Dans notre exemple, le nombre binaire :
10101100000100000000010000010100
est converti en :
172.16.4.20
3) Connaissance des nombres : conversion de décimal en binaire
Si nous devons être capable de convertir des nombres dans le sens binaire vers décimal, il en est
de même dans l’autre sens.194
Dans notre exemple, le nombre décimal :
172.16.4.20
est converti en :
10101100000100000000010000010100
2) À chaque adresse sa fonction
1) Les différents types d’adresse d’un réseau IPv4
Dans la plage d’adresses de chaque réseau IPv4, il y a trois types d’adresse :
L’adresse réseau : l’adresse qui fait référence au réseau. Dans la plage d’adresses IPv4 d’un
réseau, la plus petite adresse est réservée à l’adresse réseau. Dans la partie hôte, cette adresse comporte un
0 pour chaque bit d’hôte.
L’adresse de diffusion : une adresse spécifique, utilisée pour envoyer les données à tous les hôtes
du réseau. L’adresse de diffusion correspond à la plus grande adresse de la plage d’adresses d’un
réseau. Il s’agit de l’adresse dans laquelle les bits de la partie hôte sont tous des « 1 ». Pour le réseau
10.0.0.0 avec 24 bits réseau, l’adresse de diffusion serait 10.0.0.255.
Des adresses d’hôte : des adresses attribuées aux périphériques finaux sur le réseau. Dans les
adresses IPv4, nous attribuons les valeurs situées entre l’adresse réseau et l’adresse de diffusion aux
périphériques de ce réseau.

9
Réseaux informatiques Prof : ABAZINE Karima

Préfixes réseau
La longueur de préfixe correspond au nombre de bits de l’adresse qui représentent la partie
réseau. Par exemple, dans 172.16.4.0 /24, /24 est la longueur de préfixe. Elle nous indique que les
24 premiers bits correspondent à l’adresse réseau. Il reste donc 8 bits (le dernier octet) qui correspondent
à la partie hôte.

2) Calcul des adresses réseaux, d’hôte et de diffusion


Exemple :

3) Les différents types de communication : monodiffusion, diffusion, multidifusion


Dans un réseau IPv4, les hôtes peuvent communiquer de trois façons :
Monodiffusion : processus consistant à envoyer un paquet d’un hôte à un autre.
Diffusion : processus consistant à envoyer un paquet d’un hôte à tous les hôtes du réseau. Il y a
deux types de diffusion : dirigée et limitée. Une diffusion dirigée est envoyée à tous les hôtes d’un
réseau particulier. Et la diffusion limitée permet une transmission qui est limitée aux hôtes du
réseau local.
Multidiffusion : processus consistant à envoyer un paquet d’un hôte à un groupe d’hôtes en
particulier.

Exercice :
Dans cet exercice, vous allez visualiser des transmissions monodiffusion, diffusion et
multidiffusion à l’aide du Packet Tracer, en mode simulation.
10
Réseaux informatiques Prof : ABAZINE Karima

4) Plages d’adresses IPv4 réservées


Exprimée au format décimal séparé par des points, la plage d’adresses IPv4 va de 0.0.0.0 à
255.255.255.255. Comme nous l’avons vu, certaines de ces adresses ne peuvent pas être utilisées comme
adresses d’hôte dans des transmissions monodiffusion.

5) Adresses publiques et privées


Bien que la majorité des adresses d’hôte IPv4 soient des adresses publiques utilisées dans les
réseaux accessibles sur Internet, d’autres blocs d’adresses sont attribués à des réseaux qui ne nécessitent
pas d’accès à Internet, ou uniquement un accès limité. Ces adresses sont appelées des adresses privées.
Adresses privées
Voici ces plages d’adresses privées :
· de 10.0.0.0 à 10.255.255.255 (10.0.0.0 /8),
· de 172.16.0.0 à 172.31.255.255 (172.16.0.0 /12),
· de 192.168.0.0 à 192.168.255.255 (192.168.0.0 /16).
Traduction d’adresses de réseau (NAT)
Grâce à des services qui traduisent les adresses privées en adresses publiques appelés NAT
(Network Address Translation), les hôtes d’un réseau privé peuvent accéder aux ressources présentes sur
Internet.
Adresses publiques
La grande majorité des adresses de la plage d’hôtes multidiffusion IPv4 sont des adresses
publiques.
6) Adresses IPv4 spéciales
Adresses réseau et de diffusion : La première et la dernière adresse ne peuvent pas être attribuées
à des hôtes. Il s’agit respectivement de l’adresse réseau et de l’adresse de diffusion.
Route par défaut : La route par défaut 0.0.0.0 est utilisée lorsqu’aucune route n’est disponible.
L’utilisation de cette adresse réserve également toutes les adresses de la plage 0.0.0.0 - 0.255.255.255
(0.0.0.0 /8).
Bouclage : L’adresse de bouclage IPv4 127.0.0.1 est une autre adresse réservée. Il s’agit d’une
adresse spéciale que les hôtes utilisent pour diriger le trafic vers eux-mêmes.
Bien que seule l’adresse 127.0.0.1 soit utilisée, les adresses de la plage 127.0.0.0-127.255.255.255
sont réservées.
Adresses locales-liens : Les adresses IPv4 de la plage 169.254.0.0-169.254.255.255 (169.254.0.0
/16) sont désignées en tant qu’adresses locales-liens. Elles peuvent être automatiquement attribuées à
l’hôte local par le système d’exploitation, dans les environnements où aucune configuration IP n’est
disponible.
Adresses TEST-NET : La plage d’adresses 192.0.2.0-192.0.2.255 (192.0.2.0 /24) est réservée à
des activités d’enseignement et d’apprentissage.
7) Adresses IPv4 hérité
Les anciennes classes réseau

11
Réseaux informatiques Prof : ABAZINE Karima

À l’origine, la spécification RFC1700 regroupait les plages monodiffusion selon certaines tailles
appelées des adresses de classe A, B et C. Elle a également établi des adresses de classe D
(multidiffusion) et de classe E (expérimentales).
Blocs d’adresses A
Un bloc d’adresses de classe A a été créé pour prendre en charge les réseaux de très grande taille,
comportant plus de 16 millions d’adresses d’hôte. Les adresses IPv4 de classe A utilisaient un préfixe /8
invariable, le premier octet indiquant l’adresse réseau. Les trois octets restants correspondaient aux
adresses d’hôte.

Blocs de classe B
L’espace d’adressage de classe B a été créé pour répondre aux besoins des réseaux de taille
moyenne ou de grande taille, comportant plus de 65 000 hôtes. Les adresses IP de classe B utilisaient les
deux premiers octets pour indiquer l’adresse réseau. Les deux octets suivants correspondaient aux
adresses d’hôte.

Blocs de classe C
L’espace d’adressage de la classe C était le plus disponible des anciennes classes d’adresses. Cet
espace d’adressage était réservé aux réseaux de petite taille, comportant 254 hôtes au maximum.

3) Attribution d’adresses
1) Préparation de l’adressage d’un réseau
L’attribution d’un espace d’adressage pour la couche réseau doit être correctement préparée et
documentée aux fins suivantes :
· Éviter les doublons d’adresse : chaque hôte d’un interréseau doit avoir une adresse unique
· Fournir et contrôler l’accès : Certains hôtes fournissent des ressources au réseau interne,
mais aussi aux réseaux externes.
· Surveiller la sécurité et les performances
2) Adressage statique ou dynamique pour les périphériques
Il est possible d’attribuer des adresses IP de façon statique ou dynamique.
Attribution statique d’adresses
Avec ce type d’attribution, l’administrateur réseau doit configurer manuellement les informations
12
Réseaux informatiques Prof : ABAZINE Karima

de réseau pour un hôte. Ces informations comportent, au minimum, l’adresse IP, le masque de sous-
réseau et la passerelle par défaut.
Attribution dynamique d’adresses
En raison des difficultés associées à la gestion des adresses statiques, les périphériques des
utilisateurs se voient attribuer leur adresse de manière dynamique, à l’aide du protocole DHCP (Dynamic
Host Configuration Protocol), comme indiqué dans la figure.
3) Vue d’ensemble du protocole IPv6
Au début des années 90, l’iETF (Internet Engineering Task Force, groupe pour la participation à la
standardisation d’Internet) a commencé à se pencher sur le problème de l’épuisement des adresses réseau
IPv4 et à rechercher une solution de remplacement pour ce protocole. Ces activités ont conduit au
développement de ce que nous appelons aujourd’hui IPv6.
IPv6 offre les fonctionnalités et caractéristiques suivantes :
v Un adressage hiérarchique sur 128 bits pour étendre les fonctionnalités d’adressage.
v Un format d’en-tête simplifié pour améliorer le traitement des paquets.
v Une prise en charge améliorée des extensions et des options pour optimiser l’évolutivité et
la durée de vie.
v Une capacité d’étiquetage de flux comme mécanisme QoS.
v Des fonctionnalités d’authentification et de confidentialité pour intégrer la sécurité.
IPv6 n’est pas seulement un nouveau protocole de couche 3, mais toute une suite de
protocoles. De nouveaux protocoles, sur différentes couches de la pile, ont également été développés
pour prendre en charge IPv6. Il s’agit du nouveau protocole de messagerie ICMPv6 et de nouveaux
protocoles de routage. En raison de la taille accrue de l’en-tête d’iPv6, l’infrastructure du réseau sous-
jacente est également touchée.

4) Quels sont les éléments présents sur mon réseau ?


1) Masque de sous-réseau : définition des parties réseau et hôte
Comme nous l’avons vu précédemment, une adresse IPv4 est divisée en deux parties : une partie
réseau et une partie hôte. Le nombre de bits qui correspondent à la partie réseau s’appelle la longueur de
préfixe. Le préfixe permet de représenter la partie réseau dans des caractères que nous pouvons lire.
Le préfixe /24 par exemple, correspondant au masque de sous-réseau, est exprimé sous la forme
255.255.255.0 (11111111.11111111.11111111.00000000).
Prenons par exemple l’hôte 172.16.4.35/27 :
Adresse : 172.16.20.35 10101100.00010000.00010100.00100011
masque de sous-réseau : 255.255.255.224 11111111.11111111.11111111.11100000
adresse réseau : 172.16.20.32 10101100.00010000.00010100.00100000

13
Réseaux informatiques Prof : ABAZINE Karima

2) Application de l’opération AND : de quoi est composé notre réseau


À l’intérieur des périphériques de réseau de données, une logique numérique est appliquée pour
interpréter les adresses. Lorsqu’un paquet IPv4 est créé ou transmis, l’adresse réseau de destination doit
être extraite de l’adresse de destination. Cela est possible par le biais de l’opérateur logique AND (ET).
Opération AND : L’opération logique AND consiste à comparer deux bits, ce qui donne le
résultat suivant :
1 AND 1 = 1
1 AND 0 = 0
0 AND 1 = 0
0 AND 0 = 0
3) Processus d’opération AND
L’opération AND est appliquée à
chacun des bits de l’adresse binaire.
5) Calcul d’adresses
1) Notion de base sur la création de sous-réseaux
La création de sous-réseaux permet de créer plusieurs réseaux logiques à partir d’un seul bloc
d’adresses. Puisque nous utilisons un routeur pour interconnecter ces réseaux, chaque interface du routeur
doit disposer d’un ID réseau unique.
Le routeur A, présenté dans la figure, a deux interfaces pour interconnecter deux réseaux. Avec un
bloc d’adresses de 192.168.1.0 /24, nous créons deux sous-réseaux.
Formule de calcul des sous-réseaux
Utilisez la formule suivante pour calculer le nombre de sous-réseaux :
2^n où n = le nombre de bits empruntés
Le nombre d’hôtes
Pour calculer le nombre d’hôtes par réseau, il faut utiliser la formule 2^n - 2 où n = le nombre de
bits laissés pour les hôtes.

2) Création de sous-réseaux : découpage des réseaux à des tailles appropriées


Théoriquement, tous les réseaux d’un interréseau d’une grande entreprise ou d’une administration
permettent d’accueillir un nombre défini d’hôtes.
Certains réseaux, comme les liaisons WAN de point à point, nécessitent seulement deux hôtes, au
14
Réseaux informatiques Prof : ABAZINE Karima

maximum. D’autres, comme un réseau local d’utilisateurs dans des bureaux ou un service de grande
taille, doivent accueillir des centaines d’hôtes. Les administrateurs réseau doivent développer un schéma
d’adressage interréseau de façon à pouvoir accueillir le nombre maximal d’hôtes pour chaque réseau. Le
nombre d’hôtes dans chaque division du réseau doit prévoir un nombre plus important d’hôtes.
Déterminez le nombre total d’hôtes
Calculez d’abord le nombre total d’hôtes requis par l’interréseau entier de l’entreprise. Nous
devons utiliser un bloc d’adresses suffisamment grand pour pouvoir accueillir l’ensemble des
périphériques appartenant à tous les réseaux d’entreprise. Il s’agit, entre autres, des périphériques
d’utilisateurs, des serveurs, des périphériques intermédiaires et des interfaces de routeur.
Un diagramme réseau est très utile dans la préparation de ce schéma d’adressage. Il permet
de représenter les réseaux visuellement et de déterminer le nombre exact de réseaux.
Pour accueillir 800 hôtes dans les quatre endroits où l’entreprise est implantée, il faut appliquer
l’arithmétique binaire afin d’attribuer un bloc /22(2^10-2=1022).
Attribution d’adresses
Une fois le nombre total de réseaux défini et le nombre d’hôtes calculé pour chaque réseau, il
convient d’attribuer des adresses depuis le bloc d’adresses global.
La formule qui permet de calculer le nombre d’hôtes sur un réseau est la suivante :
Nombre d’hôtes utilisables = 2^n - 2
Où n correspond au nombre de bits restants réservés aux hôtes.
3) Création de sous-réseaux :découpage d’un sous-réseau
Le découpage d’un sous-réseau, qui revient à utiliser un masque de sous-réseau de longueur
variable VLSM (Variable Length Subnet Mask), permet d’optimiser l’efficacité de l’adressage. Dans le
cadre de la création classique de sous-réseaux, pour déterminer le nombre total d’hôtes, il est nécessaire
d’attribuer le même nombre d’adresses à chaque sous-réseau. Si tous les sous-réseaux ont besoin d’un
même nombre d’hôtes, l’utilisation de blocs d’adresses de taille fixe est intéressante. Mais, bien souvent,
ce n’est pas le cas.
Par exemple, la topologie du schéma étape 1 démontre qu’un sous-réseau a besoin de sept sous-
réseaux, un pour chacun des quatre réseaux locaux et un autre pour chacun des trois réseaux étendus.
Avec l’adresse 192.168.20.0, nous devons emprunter 3 des bits d’hôte du dernier octet afin de créer sept
sous-réseaux pour le sous-réseau.
La topologie affichée dans la figure étape 2 présente un schéma d’adressage qui découpe les sous-
réseaux 192.168.20.192 /27 en sous-réseaux de plus petite taille, pour fournir des adresses aux liaisons
WAN. Cela permet de réduire suffisamment le nombre d’adresses par sous-réseau pour les liaisons WAN.
Avec cet adressage, nous obtenons les sous-réseaux 4, 5 et 7 qui restent disponibles pour de futurs
réseaux, ainsi que d’autres sous-réseaux réservés aux liaisons WAN.

Dans la figure ci-dessous, l’adressage est considéré sous un autre angle. Nous créons des sous-
réseaux en fonction du nombre d’hôtes, y compris des interfaces de routeur et des connexions WAN. Ce
scénario est associé aux besoins suivants :
ü AtlantaHQ 58 adresses d’hôte
15
Réseaux informatiques Prof : ABAZINE Karima

ü PerthHQ - 26 adresses d’hôte


ü SydneyHQ - 10 adresses d’hôte
ü CorpusHQ - 10 adresses d’hôte
ü Liaisons WAN - 2 adresses d’hôte (chacune)
Avec de tels besoins, il est évident que l’utilisation d’un schéma de création de sous-réseaux
standard serait inefficace. Dans cet interréseau, la création de sous-réseaux standard nécessite que chaque
sous-réseau ait des blocs fixes de 62 hôtes, ce qui implique que de nombreuses adresses potentielles
seront gaspillées. Ce gaspillage est particulièrement évident dans la figure 2, où nous voyons que le
réseau LAN PerthHQ prend en charge 26 utilisateurs, alors que les routeurs des réseaux LAN SydneyHQ
et CorpusHQ ne prennent en charge que 10 utilisateurs chacun.
De ce fait, avec le bloc d’adresses 192.168.15.0 /24, nous créons un schéma d’adressage à la fois
pour répondre aux besoins et ne pas gaspiller d’adresses potentielles.
Aller plus loin
Lorsque vous créez un schéma d’adressage, commencez toujours par le besoin le plus important.
Dans notre scénario, le réseau AtlantaHQ, avec 58 utilisateurs, représente le besoin le plus important.
Avec le réseau 192.168.15.0, nous avons besoin de 6 bits d’hôte pour accueillir 58 hôtes, ce qui nous
laisse 2 bits supplémentaires pour la partie réseau. Le préfixe de ce réseau serait /26 et le masque de sous-
réseau 255.255.255.192.
Commençons par créer des sous-réseaux pour le bloc d’adresses initial 192.168.15.0 /24. En
appliquant la formule Nombre d’hôtes utilisables=2^n - 2, nous déterminons que 6 bits d’hôte permettent
d’obtenir 62 hôtes dans le sous-réseau. Ces 62 hôtes répondent au besoin de 58 hôtes du routeur du siège
de l’entreprise AtlantaHQ.
Adresse : 192.168.15.0 En forme binaire : 11000000.10101000.00001111.00000000
Masque : 255.255.255.192 26 bits en forme binaire : 11111111.11111111.11111111.11000000
La page suivante présente le processus d’identification de la séquence d’étapes suivantes.

Dans notre exemple, nous avons défini le regroupement sur base du nombre d’hôtes dans un
emplacement géographique commun.

16
Réseaux informatiques Prof : ABAZINE Karima

Diagramme du VLSM
Pour planifier des adresses, vous pouvez également faire appel à divers outils. Parmi ces derniers,
le diagramme VLSM permet d’identifier les blocs d’adresses qui sont disponibles et ceux qui sont déjà
attribués. Ce diagramme permet de ne pas attribuer des adresses déjà attribuées. Si l’on reprend le réseau
de notre exemple, nous constatons la façon dont les adresses sont utilisées à l’aide du diagramme du
VLSM.
L’utilisation d’un masque VLSM nous permet d’optimiser l’efficacité de l’adressage, tout en
minimisant le gaspillage d’adresses. Le diagramme présenté est un autre outil auquel les administrateurs
et les techniciens réseau peuvent recourir pour créer un schéma d’adressage plus efficace que l’adressage
de blocs de taille fixe.
4) Attribution d’adresses
Exercice : Dans cet exercice, vous vous verrez présenter un pool d’adresses et de masque. Vous les
attribuerez à un hôte avec une adresse, un masque de sous-réseau et une passerelle, pour lui permettre de
communiquer au sein d’un réseau.
5) Adressage d’un interréseau organisé en niveaux
Exercice : Dans cet exercice, vous vous verrez présenter une topologie et une liste d’adresses IP
possibles. Vous attribuerez les interfaces d’un routeur avec l’adresse IP appropriée et un masque de sous-
réseau permettant de répondre aux besoins en hôtes de chaque réseau, tout en minimisant le nombre
d’adresses IP non utilisées.
6) Test de la couche réseau
1) Envoi d’une requête ping à 127.0.0.1 : test de la pile locale
La commande ping est un utilitaire qui permet de tester une connectivité IP entre des hôtes. Elle
envoie des demandes de réponse à une adresse hôte spécifiée. Elle utilise un protocole de couche 3 qui
fait partie de la suite de protocoles TCP/IP appelée ICMP (Internet Control Message Protocol). Elle
utilise un datagramme ICMP Echo Request.
Si l’hôte, à l’adresse spécifiée, reçoit une demande Echo, il répond par un datagramme ICMP Echo
Reply. Pour chaque paquet envoyé, la commande ping mesure la durée de réception de la réponse.

17
Réseaux informatiques Prof : ABAZINE Karima

Envoi d’une requête ping sur le bouclage local


La commande ping s’utilise également dans certaines activités de test et de vérification. C’est le cas
par exemple d’un test de la configuration IP sur l’hôte local. Pour réaliser ce test, nous exécutons la
commande ping sur l’adresse spéciale réservée du bouclage local (127.0.0.1).
2) Envoi d’une requête ping à une passerelle : test du réseau
Vous pouvez également utiliser la commande ping pour tester la capacité d’un hôte à communiquer
sur le réseau local. En principe, une requête ping est envoyée à l’adresse IP de la passerelle de l’hôte. La
sortie indique si l’hôte et l’interface du routeur qui sert de passerelle sont ou non fonctionnels sur le
réseau local.
3) Envoi d’une requête ping à un hôte distant : test du LAN distant
Vous pouvez également utiliser la commande ping pour tester la capacité d’un hôte IP local à
communiquer sur un interréseau. L’hôte local peut envoyer une requête ping à un hôte fonctionnel sur un
réseau distant, comme présenté dans la figure.

Exercice : Dans cet exercice, nous allons étudier le comportement d’une requête ping dans plusieurs
scénarios de réseau courants.
4) Traceroute (tracert) : test du chemin
La commande ping est un utilitaire qui permet de tester une connectivité IP entre des hôtes. La
commande traceroute (tracert) est un utilitaire qui permet d’identifier le chemin entre des hôtes. L’analyse
du chemin génère une liste de sauts qui ont été traversés sur le trajet.
Cette liste peut fournir d’importantes informations pour la vérification et le dépannage. Si les
données parviennent à destination, l’analyse du chemin répertorie tous les routeurs rencontrés sur le
chemin.
Si les données n’atteignent pas un des sauts sur leur parcours, l’adresse du dernier routeur qui a
répondu à l’analyse est renvoyée. Elle indique, soit l’endroit où le problème est survenu, soit l’endroit où
des restrictions de sécurité s’appliquent.
Durée de transmission ou RTT (Round Trip Time)
L’exécution de la commande traceroute fournit la durée de transmission sur chacun des sauts
rencontrés sur le chemin et indique si un saut n’a pas répondu. La durée de transmission correspond à la
durée nécessaire à un paquet pour atteindre l’hôte distant, plus le temps mis par l’hôte pour répondre. Un
astérisque (*) indique un paquet perdu.
Cette information permet de localiser un routeur problématique sur le chemin. Si des temps de
réponse longs ou une perte de données caractérisent un saut particulier, cela indique que les ressources du
routeur ou que ses connexions sont saturées.
Durée de vie (Time to Live, TTL)
La commande traceroute utilise une fonction de durée de vie dans l’en-tête de la couche 3 et le
message ICMP Time Exceeded (Dépassement du délai). Le champ TTL permet de limiter le nombre de
sauts qu’un paquet peut rencontrer. Lorsqu’un paquet traverse un routeur, le champ TTL est décrémenté

18
Réseaux informatiques Prof : ABAZINE Karima

de 1. Lorsque la durée de vie atteint zéro, le routeur ne transmet pas le paquet, et ce dernier est
abandonné.
Outre abandonner le paquet, le routeur envoie en principe un message ICMP Time Exceeded (Délai
dépassé) adressé à l’hôte source. Ce message contient l’adresse IP du routeur qui a répondu.
La première séquence des messages envoyés par traceroute contient un champ TTL égal à 1. Cela
met fin au délai de transmission du paquet sur le premier routeur. Ce routeur répond ensuite par un
message ICMP. L’utilitaire traceroute dispose à présent de l’adresse du premier saut.
Exercice : L’objectif de cet exercice est de vous présenter la façon dont la commande traceroute (tracert) est
créée à partir d’une série de requêtes ICMP Echo. Ensuite, vous verrez comment fonctionne une boucle de routage,
situation dans laquelle un paquet circule en boucle si son champ Time to Live (Durée de vie) n’est pas défini.
5) ICMPv4 : protocole de prise en charge des tests et de la messagerie
Bien que le protocole IPv4 ne soit pas un protocole fiable, il permet l’envoi de messages, même en
présence de certaines erreurs. Ces messages sont envoyés par le biais des services du protocole ICMPv4
(Internet Control Messaging Protocol). Ces messages ont pour objectif de fournir des commentaires sur
les problèmes liés au traitement de paquets IP dans certaines circonstances. Les messages ICMP ne sont
pas obligatoires et sont souvent interdits pour des raisons de sécurité.
ICMP est le protocole de messagerie de la suite TCP/IP. Les utilitaires ping et traceroute font
appel au protocole ICMP, qui fournit des messages de contrôle et d’erreur. Bien qu’ICMP utilise la prise
en charge de base du protocole IP comme un protocole ICMP de plus haut niveau, il s’agit en fait d’une
couche 3 distincte de la suite TCP/IP.
Il existe différents types de messages ICMP, et les raisons pour lesquelles ils sont envoyés sont très
diverses. Nous décrirons les messages les plus courants.
Parmi les messages ICMP qui peuvent être envoyés, citons :
· Host confirmation (Confirmation de l’hôte)
· Unreachable Destination or Service (Destination ou service inaccessible)
· Time exceeded (Délai dépassé)
· Route redirection (Redirection de la route)
· Source quench (Épuisement de la source)
Host Confirmation (Confirmation de l’hôte)
Un message ICMP Echo (Écho ICMP) permet de déterminer si un hôte est fonctionnel. L’hôte local
envoie un message ICMP Echo Request (Demande d’écho) à un autre hôte. L’hôte qui reçoit le message
d’écho répond par un message ICMP Echo Reply (Réponse d’écho), comme présenté dans la figure.
L’utilisation de messages ICM Echo est à la base de l’utilitaire ping.
Unreachable Destination or Service (Destination ou service inaccessible)
Le message ICMP Destination Unreachable (Destination inaccessible) permet de signaler à un hôte
que la destination ou le service est inaccessible. Lorsqu’un hôte ou une passerelle reçoit un paquet qu’il
ne peut pas livrer, il peut envoyer un paquet ICMP Destination Unreachable ( Destination inaccessible) à
l’hôte source. Le paquet Destination Unreachable (Destination inaccessible) contient des codes qui
indiquent pourquoi le paquet n’a pas pu être remis.
Voici ces codes de destination inaccessible :
0 = réseau inaccessible 1 = hôte inaccessible 2 = protocole inaccessible 3 = port inaccessible
Time Exceeded (Délai dépassé)
Un message ICMP Time Exceeded (Délai dépassé) est envoyé par un routeur pour indiquer qu’il ne
peut pas acheminer un paquet car le champ TTL du paquet a expiré. Si le routeur reçoit un paquet et
décrémente le champ TTL du paquet jusqu’à zéro, il abandonne le paquet. Le routeur peut également
envoyer un message ICMP Time Exceeded à l’hôte source pour informer l’hôte de la raison pour laquelle
le paquet a été abandonné.
Redirection de route
Un routeur peut envoyer un message de redirection ICMP Redirect pour notifier l’hôte sur un réseau,
qu’une meilleure route est disponible jusqu’à une destination particulière. Ce message ne peut être utilisé
que si l’hôte source appartient au même réseau physique que les deux passerelles. Si un routeur reçoit un
paquet auquel il peut associer une route et pour lequel le saut suivant est rattaché à la même interface
lorsque le paquet arrive, le routeur peut envoyer un message ICMP Redirect à l’hôte source. Ce message

19
Réseaux informatiques Prof : ABAZINE Karima

informe l’hôte source du prochain saut rencontré par une route de la table de routage.
Source Quench (Épuisement de la source)
Le message ICMP Source Quench (Épuisement de la source) permet de demander à l’hôte source de
cesser temporairement d’envoyer des paquets. Si un routeur ne dispose pas de suffisamment d’espace
tampon pour recevoir les paquets entrants, il rejette les paquets. Si le routeur doit agir de la sorte, il peut
également envoyer un message ICMP Source Quench (Épuisement de la source) aux hôtes source pour
chaque message qu’il rejette.
Un hôte de destination peut également envoyer un message d’épuisement de la source si des
datagrammes arrivent trop vite pour être traités.
Lorsqu’un hôte reçoit un message ICMP Source Quench (Épuisement de la source), il le signale à la
couche de transport. L’hôte source peut ensuite utiliser les mécanismes de contrôle de flux TCP pour
ajuster la transmission.

7) Travaux pratiques et exercices


1) TP : ping et traceroute
TP : Ces travaux pratiques présentent le fonctionnement des commandes ping et tracert d’un hôte.
Les étapes qui entrent dans l’exécution de ces commandes sur un réseau sont présentées ici.
Exercice : Cet exercice Paquet Tracer présente le fonctionnement des commandes ping et tracert
d’un hôte. Vous visualiserez les étapes qui entrent dans l’exécution de ces commandes sur un réseau.
2) TP : étude d’un paquet ICMP
TP : Dans ces travaux pratiques, vous allez utiliser Wireshark pour capturer des paquets ICMP et
étudier les différents codes ICMP.
Exercice : Cet exercice Packet Tracer examine les paquets ICMP envoyés des hôtes sur un réseau.
3) Exercice : adresses IPv4 et création de sous-réseaux, 1ère partie
Exercice : Dans cet exercice, vous allez vous entraîner à calculer des éléments d’adressage IP réseau
sur la base d’une adresse IP donnée.
4) Exercice : adresses IPv4 et création de sous-réseaux, 2ème partie
Exercice : Dans exercice, vous allez vous entraîner à calculer des éléments de sous-réseaux sur la
base d’une adresse IP et d’un masque de sous-réseau donnés.
5) TP : configuration de sous-réseaux et de routeurs
TP : Au cours de ces travaux pratiques, vous allez créer et appliquer un schéma d’adressage IP pour
une topologie donnée. Après avoir câblé le réseau, vous configurerez ensuite chacun des périphériques à
l’aide des commandes de configuration de base appropriées. Une fois la configuration terminée, vous
exécuterez les commandes IOS appropriées pour vérifier que le réseau fonctionne correctement.
Exercice : Dans cet exercice Packet Tracer, vous allez créer et appliquer un schéma d’adressage IP
pour une topologie donnée. Après avoir câblé le réseau, vous configurerez ensuite chacun des
périphériques à l’aide des commandes de configuration de base appropriées. Une fois la configuration
terminée, vous exécuterez les commandes IOS appropriées pour vérifier que le réseau fonctionne
correctement.

20
Réseaux informatiques Prof : ABAZINE Karima

VII. Couche liaison de données


1) Présentation
Le rôle de la couche liaison de données OSI est de préparer les paquets de couche réseau pour être
transmis et de contrôler l’accès aux supports physiques.

2) Couche liaison de données : accès aux supports


1) Prise en charge des services de couche supérieure et connexion à ces services
La couche liaison de données permet d’échanger des données via un support local commun.
La couche liaison de données assure deux services de base :
ü Elle permet aux couches supérieures d’accéder aux supports par des techniques telles que le
verrouillage de trame.
ü Elle contrôle la manière dont les données sont placées sur les supports et reçues des supports
par des techniques telles que le contrôle d’accès au support et la détection des erreurs.
La couche liaison de données est responsable de l’échange des trames entre les nœuds via les
supports d’un réseau physique.
2) Couche liaison de données : contrôle du transfert sur les supports locaux
Les protocoles de couche 2 spécifient l’encapsulation d’un paquet en une trame et les techniques
permettant de placer le paquet encapsulé sur chaque support et de le récupérer. La technique utilisée pour
placer la trame sur les supports et la récupérer des supports est nommée méthode de contrôle d’accès au
support.
Les méthodes de contrôle d’accès au support décrites par les protocoles de couche liaison de
données définissent les processus qui permettent aux périphériques réseau d’accéder aux supports
du réseau et de transmettre des trames dans divers environnements réseau.
3) Couche liaison de données : création d’une trame
La description d’une trame est un élément clé de chaque protocole de couche liaison de données.
Pour fonctionner, les protocoles de couche liaison de données nécessitent des informations de contrôle.
Ces informations de contrôle peuvent indiquer :
Ø quels nœuds sont en communication ;
Ø à quel moment commence et prend fin une communication entre des nœuds individuels ;
Ø quelles erreurs se sont produites pendant que les nœuds communiquaient ;
Ø quels nœuds vont communiquer prochainement.
La couche liaison de données prépare un paquet à être transporté sur le support local en l’encapsulant
avec un en-tête et une queue de bande pour créer une trame.
La trame de couche liaison de données comprend :
Ø Des données - Le paquet de la couche réseau.
Ø Un en-tête : contient des informations de contrôle telles que l’adressage et est situé au début
de l’unité de données de protocole.
Ø Une queue de bande : contient des informations de contrôle ajoutées à la fin de l’unité de
données de protocole.
Formatage des données à transmettre
Lorsque les données voyagent sur les supports, elles sont converties en un flux de bits, ou de 1 et de
0. Si un nœud reçoit de longs flux de bits, comment détermine-t-il l’endroit où commence et prend fin une
trame ou quels bits représentent l’adresse ?
Le verrouillage de trame divise le flux en regroupements déchiffrables, des informations de contrôle
21
Réseaux informatiques Prof : ABAZINE Karima

étant insérées dans l’en-tête et dans la queue de bande en tant que valeurs situées dans différents champs.
Ce format attribue aux signaux physiques une structure pouvant être reçue par les nœuds et décodée en
paquets au niveau de la destination.
Les types de champs standard incluent :
· Champs d’indicateur de début et de fin - Les limites de début et de fin de la trame.
· Champs de nom ou d’adressage
· Champ de type - Le type d’unité de données de protocole contenu dans la trame.
· Qualité : champs de contrôle.
· Un champ de données : les données utiles de la trame (paquet de couche réseau).
Les champs situés à la fin de la trame constituent la queue de bande. Ces champs sont utilisés pour la
détection des erreurs et marquent la fin de la trame.

4) Connexion des services de couche supérieure aux supports


La couche liaison de données existe en tant que couche de connexion entre les processus logiciels des
couches situées au-dessus et de la couche physique située en dessous.
Sous-couches liaison de données
Pour prendre en charge un large éventail de fonctions réseau, la couche liaison de données est
souvent divisée en deux sous-couches : une sous-couche supérieure et une sous-couche inférieure.
· La sous-couche supérieure définit les processus logiciels qui fournissent des services aux
protocoles de couche réseau.
· La sous-couche inférieure définit les processus d’accès au support exécutés par le matériel.
Diviser la couche liaison de données en sous-couches permet à un type de trame défini par la couche
supérieure d’accéder à différents types de supports définis par la couche inférieure. Il en est ainsi avec de
nombreuses technologies de réseau local, y compris Ethernet.
Les deux sous-couches de réseau local courantes sont les suivantes :
Contrôle de lien logique (LLC, Logical Link Control)
La sous-couche LLC place les informations dans la trame qui indique quel protocole de couche
réseau est utilisé pour la trame. Ces informations permettent à plusieurs protocoles de couche 3 (par
exemple, IP et IPX) d’utiliser la même interface réseau et les mêmes supports.
Contrôle d’accès au support (MAC, Media Access Control)
La sous-couche MAC assure l’adressage de couche liaison de données et la délimitation des données
en fonction des exigences de signalisation physique du support et du type de protocole de couche liaison
de données utilisé.

22
Réseaux informatiques Prof : ABAZINE Karima

3) Techniques de contrôle d’accès au support


1) Placement des données sur les supports
Réguler le placement de trames de données sur les médias constitue l’opération désignée par le
terme « contrôle d’accès au support ». Parmi les différentes mises en œuvre des protocoles de couche
liaison de données, il existe différentes méthodes de contrôle d’accès au support. Ces techniques de
contrôle d’accès au support indiquent si et comment les nœuds partagent les supports.
La méthode de contrôle d’accès au support dépend des facteurs suivants :
ü Partage des supports : si et comment les nœuds partagent les support.
ü Topologie : comment la connexion établie entre les nœuds apparaît à la couche liaison de données.
2) Contrôle d’accès au support pour les supports partagés
Certaines topologies réseau partagent un support commun avec plusieurs nœuds. À tout moment, des
périphériques peuvent tenter d’envoyer et de recevoir des données à l’aide des supports de réseau. Il
existe des règles qui régissent la manière dont ces périphériques partagent les supports.
Deux méthodes élémentaires de contrôle d’accès au support sont utilisées pour les supports partagés :
Ø Accès contrôlé : chaque nœud dispose de son tour pour utiliser le support.
Ø Accès basé sur le conflit : tous les nœuds sont en concurrence pour utiliser le support.

Accès contrôlé pour les supports partagés


Lorsque la méthode d’accès contrôlé est utilisée, les périphériques réseau accèdent tour à tour au
support. Cette méthode est également appelée accès programmé ou déterministe. Si un périphérique n’a
pas besoin d’accéder au support, l’opportunité d’utiliser le support est présentée au périphérique suivant
attendant son tour. Lorsqu’un périphérique place une trame sur le support, aucun autre périphérique ne
peut faire de même tant que la trame n’a pas atteint sa destination et n’a pas été traitée par celle-ci.
Bien que la méthode d’accès contrôlé soit bien organisée et offre un débit prévisible, les méthodes
déterministes peuvent être inefficaces car les périphériques doivent attendre leur tour pour pouvoir utiliser
le support.
Accès basé sur le conflit pour les supports partagés
Également nommées non déterministes, les méthodes basées sur le conflit permettent à un
périphérique d’essayer d’accéder au support chaque fois qu’il doit envoyer des données. Ces méthodes
utilisent un processus accès multiple avec écoute de porteuse (CSMA) pour d’abord détecter si le support
véhicule un signal. Si un signal porteur issu d’un autre nœud et circulant sur le support est détecté, alors
un autre périphérique est en train de transmettre des données. Lorsque le périphérique qui tente de
transmettre des données constate que le support est occupé, il attend et essaie de nouveau au bout d’un
court laps de temps. Si aucun signal porteur n’est détecté, le périphérique transmet ses données. Les
réseaux Ethernet et sans fil utilisent un contrôle d’accès au support basé sur le conflit.
Il est possible que le processus CSMA échoue et que deux périphériques transmettent des données en
même temps. Ce scénario est nommé collision de données. S’il se produit, les données envoyées par les
deux périphériques sont corrompues et doivent être envoyées de nouveau.
Le processus CSMA est généralement mis en œuvre conjointement avec une méthode de résolution
des conflits de supports. Les deux méthodes couramment utilisées sont les suivantes :
CSMA/CD (CSMA/Collision Detection)
Avec la méthode CSMA/CD, le périphérique contrôle le support pour établir si celui-ci comporte un
signal de données. Si aucun signal de données n’est détecté, à savoir si le support est libre, le périphérique
transmet ses données. Si des signaux sont alors détectés indiquant qu’un autre périphérique était au même
moment en train de transmettre des données, tous les périphériques arrêtent de transmettre leurs données
et réessayent ultérieurement. Les formes traditionnelles d’Ethernet utilisent cette méthode.
CSMA/CA (CSMA/Collision Avoidance)
Avec la méthode CSMA/CA, le périphérique examine le support pour établir si celui-ci comporte un
23
Réseaux informatiques Prof : ABAZINE Karima

signal de données. Si le support est libre, le périphérique envoie une notification à travers le support pour
indiquer son intention de l’utiliser. Le périphérique transmet alors ses données. Cette méthode est utilisée
par les technologies de réseau sans fil 802.11.
3) Contrôle d’accès au support pour les supports non partagés
Les protocoles de contrôle d’accès au support pour les supports non partagés nécessitent peu de
contrôle ou n’en nécessitent aucun avant le placement des trames sur les supports. Ces protocoles
comportent des règles et des procédures plus simples de contrôle d’accès au support. Il en va ainsi pour
les topologies point à point.
Dans les topologies point à point, le support n’interconnecte que deux nœuds. Dans cette approche,
les nœuds n’ont pas besoin de partager le support avec d’autres hôtes ou de déterminer si une trame est
destinée à un nœud spécifique. Pour cette raison, les protocoles de couche liaison de données ont peu à
faire pour contrôler l’accès aux supports non partagés.
Bidirectionnel simultané et bidirectionnel non simultané
Dans les connexions point à point, la couche liaison de données doit déterminer si la communication
est bidirectionnelle non simultanée ou bidirectionnelle simultanée.
Dans une communication bidirectionnelle non simultanée, les périphériques peuvent à la fois
transmettre et recevoir des données sur les supports mais pas simultanément. Ethernet a établi des règles
d’arbitrage pour résoudre les conflits se produisant lorsque plusieurs stations de travail tentent de
transmettre des données en même temps.
Dans une communication bidirectionnelle simultanée, les deux périphériques peuvent simultanément
transmettre et recevoir des données sur les supports. La couche liaison de données considère que le
support est à tout moment disponible pour les deux nœuds en vue d’une transmission de données. Pour
cette raison, aucune règle d’arbitrage des supports n’est nécessaire au niveau de la couche liaison de
données.
4) Topologie logique et topologie physique
La topologie d’un réseau constitue l’organisation ou la relation des périphériques réseau et les
interconnexions existant entre eux. Les topologies réseau peuvent être observées au niveau physique et au
niveau logique.
La topologie physique constitue l’organisation des nœuds et les connexions physiques établies entre
eux. La représentation de la manière dont le support est utilisé pour interconnecter les périphériques est la
topologie physique.
Une topologie logique constitue la manière dont un réseau transfère les trames d’un nœud à l’autre.
Cette organisation consiste en connexions virtuelles établies entre les nœuds d’un réseau quel que soit
leur agencement physique.
Les topologies logiques et physiques généralement utilisées dans les réseaux sont les suivantes :
· Point à point
· Accès multiple
· En anneau

5) Topologie point à point


Une topologie point à point connecte directement deux nœuds ensemble. Un réseau point à point
sur lequel les données ne peuvent circuler que dans un sens à la fois opère comme une liaison
bidirectionnelle non simultanée. Si les données peuvent circuler correctement à travers la liaison à
partir de chaque nœud simultanément, il s’agit d’une liaison bidirectionnelle simultanée.
Réseaux point à point logiques
Les nœuds finaux communiquant dans un réseau point à point peuvent être physiquement connectés
via des périphériques intermédiaires. Cependant, l’utilisation de périphériques physiques sur un réseau
n’affecte pas la topologie logique.
La méthode d’accès au support qu’utilise le protocole de liaison de données est déterminée par la
24
Réseaux informatiques Prof : ABAZINE Karima

topologie point à point logique et non pas par la topologie physique. Cela signifie que la connexion point
à point logique établie entre deux nœuds peut ne pas être nécessairement établie entre deux nœuds
physiques à chaque extrémité d’une liaison physique.
6) Topologie d’accès multiple
Une topologie d’accès multiple permet à des nœuds de communiquer en utilisant le même support
partagé. Les données uniquement issues d’un seul nœud peuvent être placées sur le support à tout
moment. Chaque nœud voit toutes les trames situées sur le support, mais seul le nœud auquel la trame est
adressée traite le contenu de la trame.
7) Topologie en anneau
Dans une topologie en anneau logique, chaque nœud reçoit une trame tour à tour. Si la trame n’est
pas adressée au nœud, ce dernier la transmet au nœud suivant. Un anneau peut ainsi utiliser une technique
de contrôle d’accès au support contrôlé appelée passage de jeton.
Les nœuds d’une topologie en anneau logique suppriment la trame de l’anneau, examinent l’adresse
et font suivre la trame si elle n’est pas adressée à ce nœud. Dans un anneau, tous les noeuds situés autour
de l’anneau entre les nœuds source et de destination examinent la trame.
4) Adressage de contrôle d’accès au support et données de trame
1) Protocoles de couche liaison de données : trame
N’oubliez pas que même si de nombreux protocoles de couche liaison de données différents
décrivent les trames de couche liaison de données, chaque type de trame comprend trois parties
élémentaires :
Ø en-tête ;
Ø données ;
Ø queue de bande.
Tous les protocoles de couche liaison de données encapsulent l’unité de données de protocole de
couche 3 dans le champ de données de la trame. Cependant, la structure de la trame et les champs
contenus dans l’en-tête et dans la queue de bande varient selon le protocole.
2) Trame : rôle de l’en-tête
L’en-tête de trame contient les informations de contrôle spécifiées par le protocole de couche liaison
de données pour la topologie logique et les supports spécifiques utilisés.
Les informations de contrôle de trame sont propres à chaque type de protocole. Le protocole de
couche 2 les utilise pour fournir les fonctionnalités demandées par l’environnement.
Les champs d’en-tête de trame standard incluent :
ü Champ de délimiteur de début de trame : indique le début de la trame.
ü Champs d’adresse source et de destination : indiquent les nœuds source et de destination sur les
supports.
ü Champ de priorité/qualité du service : indique un type particulier de service de communication
pour le traitement.
ü Champ de type : indique le service de couche supérieure contenu dans la trame.
ü Champ de contrôle de connexion logique : permet d’établir une connexion logique entre des
nœuds.
ü Champ de contrôle de liaison
physique : permet d’établir la liaison aux
supports.
ü Champ de contrôle de flux :
permet de lancer et d’arrêter le trafic
sur les supports.
ü Champ de contrôle de
congestion : indique la congestion sur
les supports.
3) Adressage : où va la trame
La couche liaison de données assure un adressage utilisé pour acheminer la trame à travers les
supports locaux partagés. Au niveau de cette couche, les adresses de périphérique sont appelées adresses
physiques. L’adressage de couche liaison de données est spécifié dans l’en-tête de trame et indique le
25
Réseaux informatiques Prof : ABAZINE Karima

nœud de destination de trame sur le réseau local. L’en-tête de trame peut également contenir l’adresse
source de la trame.
4) Trame : rôle de la queue de bande
Les protocoles de couche liaison de données ajoutent une queue de bande à la fin de chaque trame.
La queue de bande permet de déterminer si la trame est arrivée sans erreur. Ce processus est nommé
détection des erreurs. Notez qu’il ne s’agit pas du processus de correction d’erreur. La détection d’erreur
s’effectue par le placement d’un résumé logique ou mathématique des bits qui constituent la trame dans la
queue de bande.
Séquence de contrôle de trame
Le champ de séquence de contrôle de trame permet de déterminer si des erreurs se sont produites lors
de la transmission et de la réception de la trame. Le processus de détection d’erreur est ajouté à la couche
liaison de données car il s’agit de la couche au niveau de laquelle les données sont transférées à travers le
support. Les signaux sur le support peuvent subir une perte qui changerait significativement les valeurs de
bits qu’ils représentent. Le mécanisme de détection d’erreur mis en œuvre par le champ de séquence de
contrôle de trame détecte la plupart des erreurs survenant sur le support.
Pour que le contenu de la trame reçue au niveau de la destination corresponde à celui de la trame
ayant quitté le nœud source, un nœud de transmission crée un résumé logique du contenu de la trame. Ce
résumé est appelé valeur de contrôle par redondance cyclique (CRC). Cette valeur est placée dans le
champ de séquence de contrôle de trame de la trame pour représenter le contenu de la trame.
Lorsque la trame arrive au niveau du nœud de destination, le nœud de réception calcule son propre
résumé logique (ou CRC) de la trame. Le nœud de réception compare les deux valeurs CRC. Si les deux
valeurs sont les mêmes, la trame est considérée comme arrivée telle que transmise. Si la valeur CRC du
champ de séquence de contrôle de trame diffère de la valeur CRC calculée au niveau du nœud de
réception, la trame est ignorée.

5) Protocoles de couche liaison de données : trame


Dans un réseau TCP/IP, tous les protocoles OSI de couche 2 opèrent avec le protocole IP au niveau
de la couche OSI 3. Cependant, le véritable protocole de couche 2 utilisé dépend de la topologie logique
du réseau et de la mise en œuvre de la couche physique. En raison du large éventail de supports physiques
utilisés à travers l’ensemble des topologies de réseaux, un nombre en conséquence élevé de protocoles de
couche 2 est utilisé.
Les protocoles utilisés sont :
· Ethernet ;
· PPP (Point-to-Point Protocol) ;
· HDLC (High-Level Data Link Control) ;
· Frame Relay ;
· ATM (Asynchronous Transfer Mode).
Chaque protocole effectue un contrôle d’accès au support pour les topologies logiques de couche 2
spécifiées.
Protocole Ethernet pour les réseaux locaux
Ethernet est la technologie de réseau local la plus utilisée et prend en charge des bandes passantes de
26
Réseaux informatiques Prof : ABAZINE Karima

données de 10, 100, 1 000 ou 10 000 Mbps.


Ethernet fournit un service non orienté connexion sans reçu sur un support partagé en utilisant les
méthodes CSMA/CD comme méthodes d’accès au support. Le support partagé nécessite que l’en-tête de
paquet Ethernet utilise une adresse de couche liaison de données pour identifier les nœuds source et de
destination.

Protocole PPP (Point-to-Point Protocol) pour les réseaux étendus


Le protocole PPP est un protocole utilisé pour livrer des trames entre deux nœuds. Contrairement à
de nombreux protocoles de couche liaison de données définis par des organismes d’ingénierie électrique,
la norme PPP est définie par des requêtes RFC. Le protocole PPP a été développé en tant que protocole de
réseau étendu et demeure le protocole de choix pour mettre en œuvre de nombreux réseaux étendus série.
Il peut être utilisé sur différents supports physiques, notamment les câbles à paires torsadées, la fibre
optique ou la transmission par satellite, ainsi que pour les connexions virtuelles.

Protocole sans fil pour les réseaux locaux


Un environnement sans fil doit faire l’objet de considérations spéciales. Il n’existe aucune
connectivité physique définissable. Pour cette raison, les facteurs externes peuvent interférer avec le
transfert des données et le contrôle de l’accès est difficile. Pour répondre à ces défis, les normes sans fil
comportent des contrôles supplémentaires.
La norme IEEE 802.11, généralement nommée Wi-Fi, est un système basé sur le conflit qui utilise un
processus d’accès au support CSMA/CA (Carrier Sense Multiple Access/Collision Avoidance).
CSMA/CA spécifie une procédure d'interruption aléatoire pour tous les nœuds qui attendent de

27
Réseaux informatiques Prof : ABAZINE Karima

transmettre des données. Le risque de conflit de support se pose surtout juste après que le support
devienne disponible. La mise en retrait des nœuds pendant une période aléatoire réduit considérablement
les risques de collision de données.
Une trame 802.11 est illustrée dans la figure. Elle comprend les champs suivants :
Protocol Version : version de la trame 802.11 utilisée.
Type et Subtype : identifient une des trois fonctions et sous-fonctions de la trame : contrôle,
données et gestion
To DS : défini sur 1 octet dans les trames de données destinées au système de distribution
(périphériques de la structure sans fil).
From DS : défini sur 1 octet dans les trames de données quittant le système de distribution.
More Fragments : défini sur 1 octet pour les trames comportant un autre fragment.
Retry : défini sur 1 octet si la trame est une retransmission d’une trame antérieure.
Power Management : défini sur 1 octet pour indiquer qu’un nœud sera en mode économie
d’énergie.
More Data : défini sur 1 octet pour indiquer à un nœud étant en mode économie d’énergie que plus
de trames sont mises en mémoire tampon pour ce nœud.
Wired Equivalent Privacy (WEP) : défini sur 1 octet si la trame contient des informations chiffrées
WEP à des fins de sécurité.
Order : défini sur 1 octet dans une trame de type de données qui utilise une classe de services
strictement ordonnée (pas de réorganisation nécessaire).
Duration/ID : selon le type de trame, indique le temps, en microsecondes, nécessaire pour
transmettre la trame ou une identité d’association (AID, Association Identity) pour la station de travail
ayant transmis la trame.
Destination Address (DA) : adresse MAC du nœud de destination final sur le réseau.
Source Address (SA) : adresse MAC du nœud ayant établi la trame.
Receiver Address (RA) : adresse MAC qui identifie le périphérique sans fil constituant le
destinataire immédiat de la trame.
Transmitter Address (TA) : adresse MAC qui identifie le périphérique sans fil ayant transmis la
trame.
Sequence Number : indique le numéro de séquence attribué à la trame ; les trames retransmises sont
identifiées par des numéros de séquence dupliqués.
Fragment Number : indique le numéro de chaque fragment d’une trame.
Frame Body : contient les informations transportées ; généralement, un paquet IP pour les trames de
données.
FCS : contient un contrôle par redondance cyclique (CRC) 32 bits de la trame

28
Réseaux informatiques Prof : ABAZINE Karima

5) Mise en pratique : Cheminement des données à travers un interréseau


Exercice : L’exercice représente un transfert de données simple s’effectuant entre deux hôtes à
travers un interréseau. La fonction de chaque couche pendant la communication est présentée. Cet
exemple décrit une requête HTTP entre un client et un serveur.
6) Travaux pratiques et Exercices
1) Examen des en-têtes de trame de couche2
Exercice : Dans cet exercice, vous pouvez explorer certaines des encapsulations de couche 2 les plus
courantes.
2) Travaux pratiques : Examen des trames
Exercice : Au cours de ces travaux pratiques, vous allez utiliser Wireshark pour capturer et analyser
des champs d’en-tête de trame Ethernet II.

29
Réseaux informatiques Prof : ABAZINE Karima

VIII. Couche physique OSI


1) Présentation
Les protocoles de couche OSI supérieure préparent les données provenant du réseau humain pour la
transmission vers sa destination. La couche physique contrôle la manière dont les données sont placées
sur le support de communication.
Le rôle de la couche physique OSI est de coder les chiffres binaires qui représentent des trames de
couche liaison de données en signaux, et de transmettre et recevoir ces signaux sur le support physique
(fils de cuivre, fibre optique et sans fil) reliant des périphériques réseau.
2) Couche physique : signaux de communication
1) Couche physique : objectif
La couche physique OSI fournit le moyen de transporter sur le support réseau les bits constituant une
trame de couche liaison de données. Cette couche accepte une trame complète de la couche liaison de
données et la code sous la forme d’une série de signaux transmis sur le support local. Les bits codés
composant une trame sont reçus par un périphérique final ou intermédiaire.
La transmission de trames sur le support local exige les éléments de couche physique suivants :
Ø le support physique et les connecteurs associés,
Ø une représentation des bits sur le support,
Ø le codage de données et des informations de contrôle,
Ø l’ensemble de circuits émetteur et récepteur sur les périphériques réseau.
À ce stade du processus de communication, les données utilisateur ont été segmentées par la couche
transport, placées dans des paquets par la couche réseau, puis encapsulées comme trames par la couche
liaison de données. L’objectif de la couche physique est de créer le signal électrique, optique ou
micro-ondes qui représente les bits dans chaque trame. Ces signaux sont alors envoyés sur le support
individuellement.
Il incombe également à la couche physique de récupérer ces signaux individuels à partir du support,
de restaurer leurs représentations binaires et de transmettre les bits à la couche liaison de données sous
forme de trame complète.

2) Couche physique : fonctionnement


Le support ne transporte pas la trame comme entité unique. Il transporte les signaux,
individuellement, pour représenter les bits constituant la trame.
Il existe trois formes élémentaires de support réseau sur lesquelles les données sont représentées :
v Câble de cuivre
v Fibre
30
Réseaux informatiques Prof : ABAZINE Karima

v Sans fil
La représentation des bits (c’est-à-dire le type de signal) dépend du type de support. Pour un support
à câble de cuivre, les signaux sont des variations d’impulsions électriques. Pour la fibre optique, les
signaux sont des variations lumineuses. Pour les supports sans fil, les signaux sont des variations de
transmissions radio.
Identification d’une trame
Lorsque la couche physique code les bits dans les signaux pour un support donné, elle doit également
distinguer la fin d’une trame et le début de la suivante. Sinon, les périphériques sur le support ne peuvent
pas savoir quand une trame a été entièrement reçue. Dans ce cas, le périphérique de destination recevrait
uniquement une chaîne de signaux et ne serait pas en mesure de reconstruire correctement la trame.
Comme décrit dans le chapitre précédent, l’indication du début de trame est souvent une fonction de la
couche liaison de données. Cependant, dans de nombreuses technologies, la couche physique peut ajouter
ses propres signaux pour indiquer le début et la fin de la trame.
Pour permettre à un périphérique de réception de reconnaître clairement les limites d’une trame, le
périphérique transmetteur ajoute des signaux pour désigner le début et la fin de la trame. Ces signaux
représentent des configurations binaires particulières utilisées uniquement pour marquer le début ou la fin
d’une trame.

3) Principes fondamentaux de la couche physique


Les trois fonctions élémentaires de la couche physique sont :
Ø Composants physiques : sont les périphériques électroniques, supports et connecteurs qui
transportent et transmettent les signaux pour représenter les bits.
Ø Codage de données : Le codage est une méthode de conversion d’un flux de bits de données
en code prédéfini. Les codes sont des groupements de bits utilisés pour fournir un modèle
prévisible pouvant être reconnu à la fois par l’expéditeur et le récepteur.
Ø Signalisation : La couche physique doit générer les signaux électriques, optiques ou sans fil
qui représentent le 1 et le 0 sur le support. La méthode de représentation des bits est appelée
méthode de signalisation.
Les sections suivantes examinent différentes méthodes de signalisation et de codage.
3) Signalisation et codage physiques : représentation de bits
1) Signalisation de bits pour le support
Toutes les communications provenant du réseau humain finissent sous la forme de chiffres
binaires, qui sont transportés individuellement sur le support physique.
Bien que tous les bits constituant une trame soient présentés à la couche physique en tant qu’unité, la
transmission de la trame sur le support s’effectue par un flux de bits envoyés individuellement. La couche
physique représente chacun des bits de la trame sous la forme d’un signal. Chaque signal placé sur le
support dispose d’un temps spécifique d’occupation du support. On parle de durée du bit. Les signaux
sont traités par le périphérique de réception, qui rétablit leur représentation binaire.
La bonne transmission des bits exige une certaine méthode de synchronisation entre l’émetteur et le
31
Réseaux informatiques Prof : ABAZINE Karima

récepteur. Les signaux représentant les bits doivent être examinés à des moments spécifiques durant la
durée du bit afin de déterminer correctement si le signal représente un 1 ou un 0. La synchronisation
s’effectue au moyen d’une horloge.
Méthodes de signalisation
Les bits sont représentés sur le
support en changeant une ou plusieurs
des caractéristiques suivantes d’un
signal :
· Amplitude
· Fréquence
· Phase
La méthode de signalisation utilisée
doit être compatible avec une norme
pour que le récepteur puisse détecter
les signaux et les décoder.
Signalisation NRZ
Pour commencer, nous examinerons
comme exemple une méthode de signalisation
simple, le non-retour à zéro (NRZ). Dans le
codage NRZ, le flux de bits est transmis
comme série de valeurs de tension.
Une valeur de tension faible
représente un 0 logique, et une valeur
de tension élevée un 1 logique. La plage
de tensions dépend de la norme de couche
physique utilisée.
Codage Manchester
Au lieu de représenter les bits comme impulsions de valeurs de tension simples, le système de codage
Manchester représente les valeurs binaires comme transitions de tension.
Par exemple, une transition d’une tension faible à une tension élevée représente la valeur binaire 1.
Une transition d’une tension élevée à une tension faible représente la valeur binaire 0.
Comme l’illustre la figure, une transition de tension doit se produire au milieu de chaque durée de bit.
Cette transition peut être utilisée pour s’assurer que les durées du bit dans les nœuds récepteurs sont
synchronisées avec le nœud émetteur.
Bien que le codage Manchester ne soit pas assez efficace pour être utilisé à des vitesses de
transmission supérieures, il s’agit de la méthode de signalisation employée par Ethernet 10BaseT
(Ethernet s’exécutant à 10 mégabits par seconde).

2) Codage : groupement de bits


Dans la section précédente, nous avons décrit le processus de signalisation par la manière dont les

32
Réseaux informatiques Prof : ABAZINE Karima

bits sont représentés sur le support physique. Dans cette section, nous utilisons le terme codage pour
représenter le groupement symbolique de bits avant leur présentation au support. L’utilisation d’une étape
de codage avant de placer les signaux sur le support améliore l’efficacité lors de transmissions de données
à plus haut débit.
À mesure que des vitesses plus élevées sont utilisées sur le support, apparaît le risque que les données
soient endommagées. En utilisant les groupes de codage, nous pouvons détecter plus efficacement les
erreurs. De plus, la vitesse de transmission des données augmentant, nous recherchons des moyens de
représenter davantage de données sur le support en transmettant moins de bits. Les groupes de codage
fournissent une méthode pour créer cette représentation de données.
La couche physique d’un périphérique réseau doit pouvoir détecter les signaux de données légitimes
et ignorer les signaux aléatoires hors données pouvant également se trouver sur le support physique. Le
flux de signaux transmis doit commencer de telle manière que le récepteur reconnaisse le début et la fin
de la trame.
Variations de signal
Un moyen de fournir la détection de trame est de commencer chaque trame avec une variation des
signaux représentant des bits que la couche physique reconnaît comme indiquant le début d’une trame.
Une autre variation de bits signale la fin de la trame. Les bits du signal non tramés de cette manière sont
ignorés par la norme de couche physique utilisée.
Les bits de données valides doivent être groupés dans une trame ; sinon, ils sont reçus sans contexte
de signification pour les couches supérieures du modèle de réseau. Cette méthode de tramage peut être
fournie par la couche liaison de données, la couche physique, ou les deux.
La figure illustre certains objectifs des modèles de signalisation. Les variations de signal peuvent
indiquer : le début, la fin et le contenu de la trame. Ces variations de signal peuvent être décodées en bits.
Les bits sont interprétés comme des codes. Ces codes indiquent où les trames commencent et s’arrêtent.

Groupes de codes
Les techniques de codage utilisent des configurations binaires appelées symboles. La couche
physique peut utiliser un ensemble de symboles codés, appelés groupes de codes, pour représenter des
données codées ou des informations de contrôle. Un groupe de codes est une séquence consécutive de
bits de code qui sont interprétés et mappés comme configurations binaires de données. Par exemple,
les bits de code 10101 peuvent représenter les bits de données 0011.
Comme l’illustre la figure, les groupes de codes sont souvent utilisés comme technique de codage
intermédiaire pour les technologies LAN à haut débit. Cette étape se produit au niveau de la couche
physique avant la génération de signaux de tensions, d’impulsions lumineuses ou de fréquences radio. La
transmission de symboles permet d’améliorer les capacités de détection d’erreurs et la synchronisation
entre les périphériques émetteur et récepteur. Ces considérations sont importantes pour la prise en charge
de transmission à haut débit sur le support.
Les avantages de l’utilisation de groupes de codes comprennent :
ü Réduction des erreurs au niveau du bit
ü Limitation de l’énergie effective transmise dans le support
ü Meilleure distinction entre les bits de données et les bits de contrôle
ü Meilleure détection des erreurs de support

33
Réseaux informatiques Prof : ABAZINE Karima

Réduction des erreurs au niveau du bit


Pour détecter correctement un bit individuel comme 0 ou 1, le récepteur doit savoir comment et
quand échantillonner le signal sur le support. Ceci exige une synchronisation entre le récepteur et
l’émetteur. Dans de nombreuses technologies de couche physique, cette synchronisation s’effectue via
des transitions sur le support. Si les configurations binaires transmises sur le support ne créent pas de
transitions fréquentes, la synchronisation peut être perdue et une erreur de bit individuel peut se produire.
Les groupes de codes sont conçus pour que les symboles forcent un grand nombre de transitions de bit à
se produire sur le support pour la synchronisation. Ceci s’effectue grâce à l’utilisation de symboles pour
s’assurer que trop de 1 ou de 0 ne sont pas utilisés à la suite.
Distinction des bits de données et des bits de contrôle
Les groupes de codes comportent trois types de symboles :
· Symboles de données : symboles qui représentent les données de la trame telle qu’elle est
transmise à la couche physique.
· Symboles de contrôle : codes spéciaux injectés par la couche physique utilisés pour contrôler
la transmission. Ceci comprend les symboles de fin de trame et de support inactif.
· Symboles non valides : symboles ayant des variations non autorisées sur le support. La
réception d’un symbole non valide indique une erreur de trame.
Meilleure détection des erreurs de support
En plus des symboles de données et des symboles de contrôle, les groupes de codes contiennent des
symboles non valides. Il s’agit des symboles qui pourraient créer de longues séries de 1 ou de 0 sur le
support ; par conséquent, ils ne sont pas utilisés par le nœud émetteur. Si un nœud récepteur reçoit une de
ces variations, la couche physique peut déterminer la présence d’une erreur dans la réception de données.

4B/5B
Nous allons étudier comme exemple un groupe de codes simple appelé 4B/5B. Les groupes de codes
actuellement utilisés dans les réseaux modernes sont en général plus complexes.
Dans cette technique, 4 bits de données sont transformés en symboles de code à 5 bits pour
transmission sur le système de support. Dans le codage 4B/5B, chaque octet à transmettre est décomposé
en éléments de 4 bits ou quartets et codé sous forme de valeurs à 5 bits appelées symboles. Ces symboles
représentent les données à transmettre ainsi qu’une série de codes facilitant le contrôle de la transmission
sur le support. Ces codes comprennent les symboles indiquant le début et la fin de la transmission de
trame. Bien que ce processus ajoute une surcharge aux transmissions de bits, il intègre également des
fonctions facilitant la transmission de données à haut débit.
Le codage 4B/5B garantit au moins un changement de niveau par code pour permettre la
synchronisation. La plupart des codes utilisés dans le système 4B/5B équilibrent le nombre de 1 et de 0
utilisés dans chaque symbole.
Comme l’illustre la figure, 16 des 32 combinaisons possibles de groupes de codes sont allouées aux
bits de données, et les groupes de codes restants sont utilisés pour les symboles de contrôle et symboles
non valides. Six des symboles sont utilisés pour des fonctions spéciales identifiant la transition de
l’inactivité aux données de trame et le délimiteur de fin de flux. Les 10 symboles restants indiquent des
codes non valides.

34
Réseaux informatiques Prof : ABAZINE Karima

3) Capacité de transport de données


Différents supports physiques prennent en charge le transfert de bits à différentes vitesses. Le
transfert de données peut être mesuré de trois manières :
ü Bande passante
ü Débit
ü Débit applicatif
Bande passante
La capacité d’un support à transporter des données est décrite comme la bande passante de données
brutes du support. La bande passante numérique mesure la quantité d’informations pouvant circuler
d’un emplacement à un autre pendant une période donnée. La bande passante est généralement
mesurée en kilobits par seconde (Kbits/s) ou mégabits par seconde (Mbits/s).
La bande passante pratique d’un réseau est déterminée par une combinaison de facteurs : les
propriétés du support physique et les technologies choisies pour la signalisation et la détection des
signaux réseau.
Les propriétés du support physique, les technologies courantes et les lois de la physique jouent toutes
un rôle dans la détermination de la bande passante disponible.
La figure montre les unités de bande passante couramment utilisées.

Débit
Le débit est la mesure du transfert de bits sur le support pendant une période donnée. Suite à
un certain nombre de facteurs, le débit ne correspond généralement pas à la bande passante spécifiée dans
les mises en œuvre de couche physique comme Ethernet.
De nombreux facteurs influencent le débit. Ces facteurs comprennent la quantité de trafic, son type,
ainsi que le nombre de périphériques rencontrés sur le réseau mesuré. Dans une topologie à accès
multiples comme Ethernet, les nœuds entrent en concurrence pour accéder au support et l’utiliser. Par
conséquent, le débit de chaque nœud se dégrade à mesure que l’usage du support augmente.
Débit applicatif
Une troisième mesure a été créée pour calculer le transfert de données utilisables. Cette mesure est
appelée débit applicatif. Elle correspond aux données utilisables transférées pendant une période
donnée, et représente par conséquent la mesure la plus intéressante pour les utilisateurs du réseau.
Prenons par exemple deux hôtes en réseau local transférant un fichier. La bande passante du LAN est
35
Réseaux informatiques Prof : ABAZINE Karima

de 100 Mbits/s. Suite au partage et à la surcharge du support, le débit entre les ordinateurs n’est que de
60 Mbits/s. Avec la surcharge du processus d’encapsulation de la pile TCP/IP, le débit réel des données
reçues par l’ordinateur de destination (débit applicatif) n’est que de 40 Mbits/s

4) Support physique : connexion de communication


1) Types de supports physiques
La couche physique est concernée par le support réseau et la signalisation. Cette couche produit la
représentation et les groupements de bits comme tensions, fréquences radio ou impulsions lumineuses.
Divers organismes de normalisation ont contribué à la définition des propriétés physiques, électriques et
mécaniques des supports disponibles pour différentes communications de données.
2) Supports en cuivre
Le support le plus souvent utilisé pour les communications de données est un câblage qui utilise des
fils de cuivre pour la transmission de bits de données et de contrôle entre les périphériques réseau. Le
câblage employé pour les communications de données se compose généralement d’une série de fils de
cuivre individuels formant des circuits dédiés à des fins de signalisation spécifiques.
D’autres types de câblage en cuivre, appelés câble coaxial, possèdent un seul conducteur passant au
centre du câble recouvert par l’autre blindage, mais isolé. Le type de support en cuivre choisi est spécifié
par la norme de couche physique requise pour relier les couches liaison de données de deux ou plusieurs
périphériques réseau.
3) Câble à paires torsadées non blindées (UTP)
Le câblage à paires torsadées non blindées (UTP), tel qu’il est utilisé dans les réseaux locaux
Ethernet, se compose de quatre paires de fils à code de couleur qui ont été torsadées puis logées dans une
gaine en plastique souple. Comme l’illustre la figure, les codes de couleur identifient les paires
individuelles et les fils des paires afin de faciliter le raccordement des câbles.
La torsion a pour effet d’annuler les signaux indésirables. Lorsque deux fils d’un circuit électrique
sont rapprochés, les champs électromagnétiques externes créent la même interférence dans chaque fil. Les
paires sont torsadées pour garder les fils aussi proches que possible physiquement. Lorsque cette
interférence commune est présente sur les fils d’une paire torsadée, le récepteur la traite de manière égale
bien qu’opposée. En conséquence, les signaux causés par des interférences électromagnétiques provenant
de sources externes sont annulés dans les faits.
Cet effet d’annulation aide également à éviter les interférences de sources internes appelées
diaphonie. La diaphonie est l’interférence causée par le champ magnétique entourant les paires adjacentes
de fils dans le câble. Lorsque du courant électrique circule dans un fil, il crée un champ magnétique
circulaire autour de celui-ci. Le courant circulant dans des directions opposées dans les deux fils d’une
paire, les champs magnétiques, en tant que forces opposées égales, ont un effet d’annulation réciproque.
De plus, les différentes paires de fils torsadées dans le câble utilisent un nombre différent de torsades par
mètre pour mieux protéger le câble contre la diaphonie entre les paires.

36
Réseaux informatiques Prof : ABAZINE Karima

Types de câbles UTP


Le câblage UTP, terminé par des connecteurs RJ-45, est un support en cuivre courant pour
l’interconnexion de périphériques réseau, tels que des ordinateurs, avec des périphériques intermédiaires,
tels que des routeurs et commutateurs réseau.
Des situations différentes peuvent exiger des câbles UTP répondant à différentes conventions de
câblage. Ceci signifie que les fils individuels du câble doivent être connectés dans des ordres différents à
diverses séries de broches des connecteurs RJ-45. Les principaux types de câbles obtenus en utilisant des
conventions de câblage spécifiques sont les suivants :
ü Ethernet direct
ü Croisement Ethernet
ü Renversement
La figure illustre l’application type, ainsi qu’une comparaison de ces trois types de câbles.
L’utilisation incorrecte d’un câble de croisement ou direct entre des périphériques ne peut pas les
endommager, mais la connectivité et la communication entre les périphériques deviennent alors
impossibles. Il s’agit d’une erreur courante en pratique et la vérification des connexions de périphériques
doit constituer la première action de dépannage en cas de problème de connectivité.

4) Autre câble en cuivre


Deux autres types de câble en cuivre sont utilisés :
1. Coaxial
2. Paires torsadées blindées (STP)
Câble coaxial
Un câble coaxial se compose d’un conducteur de cuivre entouré d’une couche de matériau isolant
flexible, comme l’illustre la figure.
Sur ce matériau isolant, une torsade de cuivre ou un film métallique constitue le second fil du circuit
qui agit comme protecteur du conducteur intérieur. Cette seconde couche, ou blindage, réduit également
les interférences électromagnétiques externes. La gaine du câble enveloppe le blindage.
Tous les éléments du câble coaxial entourent le conducteur central. Comme ils partagent tous le
même axe, cette construction est dite coaxiale.
Utilisations du câble coaxial
La conception du câble coaxial a été adaptée à différentes fins. Le câble coaxial est un type
couramment utilisé dans les technologies sans fil et d’accès par câble. Il permet par exemple de relier des
37
Réseaux informatiques Prof : ABAZINE Karima

antennes à des périphériques sans fil. Le câble coaxial transporte de l’énergie en radiofréquence (RF)
entre les antennes et le matériel radio.
Le câble coaxial est également le support le plus largement employé pour le transport par fil de
signaux de radiofréquence élevée, en particulier les signaux de télévision par câble. La télévision par
câble classique, qui émet exclusivement dans une direction, était composée entièrement de câbles
coaxiaux.
Différents types de connecteurs sont utilisés avec un câble coaxial. La figure en illustre certains.

Câble à paires torsadées blindées (STP)


Un autre type de câblage utilisé dans les réseaux est le câble à paires torsadées blindées (STP).
Comme l’illustre la figure, la norme STP utilise deux paires de fils enveloppées dans un revêtement tressé
ou un film métallique.
Le câble STP protège le faisceau entier de fils à l’intérieur du câble ainsi que les paires de fils
individuelles. Le câblage STP offre une meilleure protection parasitaire que le câblage UTP, mais à un
prix relativement plus élevé.

5) Sécurité des supports en cuivre


Risques électriques
Problème potentiel avec les supports en cuivre : les fils de cuivre peuvent conduire l’électricité de
manière indésirable. Ceci peut soumettre le personnel et le matériel à une série de risques électriques.
Risques d’incendie
L’isolation et les gaines du câble peuvent être inflammables ou dégager des émanations toxiques
lorsqu’elles sont chauffées ou brûlées. Les organismes de construction peuvent stipuler des normes de
sécurité pour le câblage et les installations matérielles.
6) Supports en fibre optique
Le câblage en fibre optique utilise des fibres de verre ou de plastique pour guider des impulsions
lumineuses de la source à la destination. Les bits sont codés sur la fibre comme impulsions lumineuses.
Le câblage en fibre optique prend en charge des débits de bande passante de données brutes très élevés.
La plupart des normes de transmission actuelles n’approchent cependant pas encore la bande passante
potentielle de ce support.
Comparaison entre le câble en fibre optique et le câblage en cuivre
Les fibres utilisées dans les supports en fibre optique n’étant pas des conducteurs électriques, le
support est à l’abri des interférences électromagnétiques et ne peut pas conduire de courant électrique
indésirable suite à des problèmes de mise à la terre. Les fibres optiques étant fines et subissant une perte
de signal relativement faible, elles peuvent fonctionner à des longueurs bien supérieures aux supports en
cuivre, sans nécessiter de régénération des signaux. Certaines spécifications de couche physique en fibre
38
Réseaux informatiques Prof : ABAZINE Karima

optique autorisent des longueurs pouvant atteindre plusieurs kilomètres.


Les problèmes de mise en œuvre de support en fibre optique comprennent :
ü un coût plus élevé (généralement) que les supports en cuivre pour la même distance (mais
pour une capacité supérieure),
ü des compétences et matériel différents pour raccorder et épisser l’infrastructure de câble,
ü une manipulation plus délicate que les supports en cuivre.

Fabrication d’un câble


Les câbles en fibre optique se composent d’une gaine en PVC et d’une série de matériaux de
renforcement entourant la fibre optique et son enveloppe. L’enveloppe qui entoure la fibre de verre ou de
plastique vise à empêcher la perte de lumière. La lumière pouvant uniquement voyager dans une direction
par la fibre optique, deux fibres sont requises pour prendre en charge le fonctionnement bidirectionnel
simultané. Les câbles de brassage en fibre optique regroupent deux câbles en fibre optique raccordés par
une paire de connecteurs monovoies standard. Certains connecteurs de fibre optique acceptent à la fois les
fibres de transmission et de réception dans le même connecteur.

Génération et détection du signal optique


Des lasers ou des diodes électroluminescentes (DEL) génèrent les impulsions lumineuses utilisées
pour représenter les données transmises sous forme de bits sur le support. Des dispositifs à semi-
conducteur électronique appelés photodiodes détectent les impulsions lumineuses et les convertissent en
tensions qui peuvent ensuite être reconstituées en trames de données.
Remarque : la lumière laser transmise via le câblage en fibre optique peut endommager l'œil
humain. Veillez à ne pas regarder dans l’extrémité d’une fibre optique active.
Fibre monomode et fibre multimode
Les câbles à fibre optique peuvent être classés en deux grands types : monomode et multimode.
La fibre optique monomode transporte un seul rayon lumineux, généralement émis par un laser. La
lumière laser étant unidirectionnelle et voyageant au centre de la fibre, ce type de fibre peut transmettre
des impulsions optiques sur de très longues distances.
La fibre multimode utilise en principe des émetteurs à DEL qui ne créent pas une seule onde
lumineuse cohérente.
La fibre multimode, ainsi que la source lumineuse à DEL utilisée en association, sont plus
économiques que la fibre monomode et sa technologie d’émetteur à laser.

39
Réseaux informatiques Prof : ABAZINE Karima

7) Support sans fil


Les supports sans fil transportent des signaux électromagnétiques à des fréquences radio et micro-
ondes qui représentent les chiffres binaires des communications de données. En tant que support réseau,
la transmission sans fil n’est pas limitée aux conducteurs ou voies d’accès, comme les supports en cuivre
et à fibre optique.
Les technologies de communication de données sans fil fonctionnent bien dans les environnements
ouverts. Cependant, certains matériaux de construction utilisés dans les bâtiments et structures, ainsi que
le terrain local, limitent la couverture effective. De plus, la transmission sans fil est sensible aux
interférences et peut être perturbée par des appareils aussi courants que les téléphones fixes sans fil,
certains types d’éclairages fluorescents, les fours à micro-ondes et d’autres communications sans fil.
En outre, la couverture de communication sans fil n’exigeant aucun accès à un fil physique de
support, des périphériques et utilisateurs non autorisés à accéder au réseau peuvent accéder à la
transmission. La sécurité du réseau constitue par conséquent un composant essentiel de l’administration
de réseau sans fil.
Réseau local sans fil
Une mise en œuvre courante de réseau de données sans fil est la possibilité pour des périphériques de
se connecter sans fil via un réseau local. Un réseau local sans fil exige généralement les périphériques
réseau suivants :
ü Point d’accès sans fil : concentre les signaux sans fil des utilisateurs et se connecte, en général
via un câble en cuivre, à l’infrastructure réseau en cuivre existante telle qu’Ethernet.
ü Adaptateurs de carte réseau sans fil : fournissent à chaque hôte du réseau la possibilité de
communiquer sans fil.
Au fur et à mesure de la mise au point de cette technologie, un certain nombre de normes Ethernet
WLAN ont émergé. L’acquisition de périphériques sans fil doit s’effectuer avec soin pour garantir la
compatibilité et l’interopérabilité.
Exercice : Cet exercice vous permet d’explorer un routeur sans fil connecté à un FAI dans une
configuration type d’un domicile ou d’une petite entreprise. Vous êtes encouragé à créer vos propres
modèles également, en intégrant éventuellement de tels périphériques sans fil.
8) Connecteurs de supports
Connecteurs courants de supports en cuivre
Diverses normes de couche physique spécifient l’utilisation de différents connecteurs. Ces normes
définissent les dimensions mécaniques des connecteurs et les propriétés électriques acceptables de chaque
type pour les différentes mises en œuvre dans lesquelles ils sont employés.
Bien que certains connecteurs puissent sembler identiques, ils peuvent être câblés différemment
suivant la spécification de couche physique pour laquelle ils ont été conçus. La norme ISO 8877 spécifie
que le connecteur RJ-45 est utilisé pour une plage de spécifications de couche physique, dont Ethernet.
Une autre spécification, EIA-TIA 568, décrit les codes couleur des fils d’affectation des broches

40
Réseaux informatiques Prof : ABAZINE Karima

(brochage) pour les câbles Ethernet direct et de croisement.


La figure illustre certains composants de câblage Ethernet.

Connecteurs courants de fibre optique


Les connecteurs de fibre optique sont de divers types. La figure illustre certains des plus courants :
ST (Straight-Tip) (marque d’AT&T) : connecteur à baïonnette très courant largement utilisé avec la
fibre optique multimode.
SC (Subscriber Connector) : connecteur utilisant un mécanisme pousser-tirer pour garantir une
insertion dans le bon sens. Ce type de connecteur est largement utilisé avec la fibre optique monomode.
LC (Lucent Connector) : petit connecteur de plus en plus utilisé avec la fibre optique monomode et
prenant également en charge la fibre multimode.
Le raccordement et l’épissage de câblage en fibre optique exigent une formation et un matériel
spéciaux. Le raccordement incorrect de supports en fibre optique diminue les distances de signalisation ou
entraîne l’échec complet de la transmission.
Trois types courants d’erreurs de raccordement de fibre optique et d’épissage sont :
· Mauvais alignement : les supports en fibre optique ne sont pas alignés précisément lors de la
jonction.
· Écart à l’extrémité : les supports ne se touchent pas complètement à l’épissure ou la
connexion.
· Finition de l’extrémité : les extrémités des supports ne sont pas bien polies ou de la poussière
est présente au niveau du raccordement.
Il est conseillé de tester chaque segment de câble en fibre optique à l’aide d’un réflectomètre optique
(OTDR). Ce dispositif injecte une impulsion test de lumière dans le câble et mesure la rétrodiffusion et la
réflexion de lumière détectées en fonction du temps. Le réflectomètre optique calcule la distance
approximative à laquelle ces défauts sont détectés le long du câble.

5) Travaux pratiques : connecteurs de supports


Un dépannage efficace du réseau exige la possibilité de distinguer visuellement les câbles UTP
directs et de croisement, et de vérifier les raccordements de câbles corrects et défectueux.
Ces travaux pratiques permettent de pratiquer l’examen physique et le test des câbles UTP.
41
Réseaux informatiques Prof : ABAZINE Karima

IX. Ethernet
1) Présentation
Dans ce chapitre, nous nous intéresserons aux caractéristiques et au fonctionnement d’Ethernet en
suivant son évolution depuis la technologie de communication de données, basée sur des supports
partagés et sur la restriction de l’accès aux supports jusqu’à la technologie de large bande haut débit,
bidirectionnelle simultanée moderne.
Les normes Ethernet définissent à la fois les protocoles de la couche 2 et les technologies de la
couche 1.

2) Présentation d’Ethernet
1) Ethernet : couche 1 et couche 2
Ethernet permet, au niveau de la couche 2, de contourner ces limitations. Les sous-couches liaison de
données contribuent largement à la compatibilité technologique et à la communication entre
périphériques. La sous-couche MAC est associée aux composants physiques, qui seront utilisés pour
communiquer les informations et préparer les données pour qu’elles soient transmises sur les supports.
La sous-couche LLC (Logical Link Control) reste relativement indépendante de l’équipement
physique qui sera utilisée pour communiquer.

2) LLC : connexion aux couches supérieures


Pour Ethernet, la norme IEEE 802.2 décrit les fonctions de la sous-couche LLC et la norme 802.3
celles de la sous-couche MAC et de la couche physique. LLC gère la communication entre les couches
supérieures et les logiciels de mise en réseau et entre les couches inférieures et le matériel. La sous-
couche LLC extrait les données des protocoles réseau, en principe un paquet IPv4, et leur ajoute des
informations de contrôle pour faciliter la transmission du paquet jusqu’au nœud de destination. La
couche 2 communique avec les couches supérieures via LLC.
La mise en œuvre LLC se fait au niveau logiciel et est indépendante de l’équipement physique. Dans
un ordinateur, LLC est en quelque sorte le logiciel du pilote de la carte réseau. Le pilote de la carte réseau
est un programme qui interagit directement avec le matériel de la carte réseau pour transmettre les
données entre les supports et la sous-couche MAC.

42
Réseaux informatiques Prof : ABAZINE Karima

3) MAC : transmission des données jusqu’aux supports


MAC correspond à la sous-couche Ethernet inférieure de la couche liaison de données. MAC est mis
en œuvre au niveau du matériel, généralement sur la carte réseau.
La sous-couche MAC d’Ethernet a deux fonctions principales :
ü Encapsulation des données
ü Contrôle de l’accès aux supports
Encapsulation des données
Elle assure trois fonctions de base :
Ø la délimitation des trames : la couche MAC ajoute un en-tête et un code de fin à l’unité de
données de protocole de la couche 3
Ø l’adressage : Chaque en-tête Ethernet ajouté à la trame contient l’adresse physique (adresse
MAC)
Ø la détection d’erreurs : Chaque trame Ethernet contient un code de fin avec un contrôle de
redondance cyclique (CRC, Cyclic Redundancy Check) du contenu des trames. Après réception d’une
trame, le nœud récepteur crée un CRC pour le comparer à celui de la trame. Si ces deux calculs de CRC
correspondent, cela signifie probablement que la trame a été reçue sans erreur.
Contrôle de l’accès aux supports
La sous-couche MAC contrôle le placement des trames sur les supports, ainsi que leur retrait. Elle
gère le contrôle de l’accès aux supports. En particulier, elle initialise la transmission des trames et permet
leur restauration après un échec de transmission dû à des collisions.
Topologie logique
La topologie logique sous-jacente d’Ethernet est un bus prenant en charge un accès multiple. Cela
implique que tous les nœuds (périphériques) de ce segment de réseau partagent le même support. Les
nœuds reçoivent toutes les trames, chaque nœud doit déterminer si une trame doit être acceptée et traitée
par ce nœud. Cela nécessite l’examen de l’adressage de la trame fourni par l’adresse MAC.
4) Mises en œuvre physiques d’Ethernet
Le succès d’Ethernet est dû aux facteurs suivants :
ü Simplicité et facilité de maintenance
ü Possibilité d’incorporer de nouvelles technologies
ü Fiabilité
ü Coûts minimes d’installation et de mise à niveau
3) Ethernet : la communication via le réseau local (LAN)
1) L’histoire d’Ethernet
Ethernet a été développé dans l’objectif d’accueillir plusieurs ordinateurs interconnectés sur une
topologie de bus partagée.
La première version d’Ethernet incorporait une méthode de contrôle de l’accès aux supports appelée
CSMA/CD (Carrier Sense Multiple Access with Collision Detection). Cette méthode d’accès a permis de
résoudre les problèmes liés à la communication de plusieurs périphériques sur un support physique
partagé.
Les premiers supports Ethernet
Les premières versions d’Ethernet font appel aux câbles coaxiaux pour connecter les ordinateurs à
une topologie de bus.
Ces premières versions d’Ethernet s’appelaient Thicknet, (10BASE5) et Thinnet (10BASE2).
10BASE5 ou Thicknet reposait sur un câble coaxial épais prenant en charge des distances de câblage
de 500 mètres au maximum, avant que le signal ne nécessite un répéteur. 10BASE2 ou Thinnet utilise un
câble coaxial plus mince et plus souple que Thicknet et prend en charge des distances de câblage de
185 mètres.
Les câbles coaxiaux ont été remplacés par les premières catégories câbles à paires torsadées non
blindées. Comparés aux câbles coaxiaux, les câbles à paires torsadées non blindées sont plus maniables,
plus légers et moins chers.

43
Réseaux informatiques Prof : ABAZINE Karima

2) Gestion des collisions Ethernet


Ethernet hérité
En règle générale, dans les réseaux 10BASE-T, le point central du segment de réseau était le
concentrateur. Ce point servait donc de support partagé. Le support étant partagé, une seule station à la
fois pouvait effectuer une transmission. Cette transmission est dite bidirectionnelle non simultanée.
Ethernet moderne
L’introduction des commutateurs dans les réseaux Ethernet a supplanté l’utilisation des
concentrateurs et permis d’améliorer considérablement les performances LAN. Les commutateurs ont été
introduits en même temps qu’Ethernet 100BASE-TX. Ils permettent de contrôler le flux de données en
isolant chaque port et en envoyant une trame uniquement à sa destination (si elle est connue), plutôt qu’en
envoyant chaque trame à chaque périphérique.
Le commutateur réduit le nombre de périphériques recevant chaque trame, ce qui permet de
minimiser les risques de collisions. Par la suite, l’introduction des communications bidirectionnelles
simultanées, dont la connexion transporte à la fois des signaux transmis et reçus), a permis de développer
Gigabit Ethernet et de le dépasser.
4) Trame Ethernet
1) La trame : encapsulation du paquet
La structure de trame Ethernet ajoute des en-tête et des codes de fin à l’unité de données de protocole
de la couche 3 pour encapsuler le message envoyé.
L’en-tête et le code de fin Ethernet comportent plusieurs parties d’informations dont se sert le
protocole Ethernet. Chaque section de la trame est appelée un champ. On distingue deux types de tramage
Ethernet : la spécification IEEE 802.3 (d’origine) et IEEE 802.3 (Ethernet) révisée.
Les différences entre les deux types de tramage sont minimes. Il s’agit notamment de l’ajout d’un
délimiteur de début de trame (SFD) et d’une petite modification apportée au champ Type de manière à
inclure la longueur, comme l’indique la figure.
Taille d’une trame Ethernet
La norme Ethernet initiale prévoyait une taille de trame minimale de 64 octets et maximale de 1 518
octets. Cela comprenait tous les octets du champ Adresse MAC de destination jusqu’au champ Séquence
de contrôle de trame.

Champs Préambule et Délimiteur de début de trame


Les champs Préambule, de 7 octets, et Délimiteur de début de trame, de 1 octet, permettent une
synchronisation entre les périphériques d’envoi et de réception. Les huit premiers octets de la trame
préparent les nœuds de réception à recevoir. Les quelques premiers octets indiquent essentiellement aux
récepteurs de se préparer à recevoir une nouvelle trame.
Champ Adresse MAC de destination

44
Réseaux informatiques Prof : ABAZINE Karima

Ce champ de 6 octets identifie l’adresse de la destination. Cette adresse est utilisée par la couche 2
pour aider les périphériques à déterminer si une trame leur est adressée. L’adresse de la trame est
comparée à l’adresse MAC du périphérique. Si les deux correspondent, le périphérique accepte la trame.
Champ Adresse MAC source
Ce champ de 6 octets permet d’identifier l’interface ou la carte réseau émettrice de la trame. Les
commutateurs utilisent également cette adresse pour les ajouter à leurs tables de recherche.
Champ Longueur/Type
Ce champ de 2 octets définit la longueur exacte du champ de données de la trame. Cette longueur est
ensuite utilisée dans la séquence de contrôle de trame, pour garantir la réception du message. Une
longueur ou un type peut être entré dans ce champ. Toutefois, seul l’un ou l’autre peut être utilisé dans
une mise en œuvre donnée. Si le champ a pour objectif de désigner un type, le champ Type décrit le
protocole mis en œuvre.
Champs Données et Remplissage
Ces deux champs de 46 - 1 500 octets contiennent les données encapsulées d’une couche supérieure
qui est une unité de données de protocole de couche 3 c’est-à-dire un paquet IPv4. La longueur minimale
de la trame est fixée à 64 octets. Si un petit paquet est encapsulé, la taille de la trame est augmenté pour
qu’elle atteigne la valeur minimale.

Champ Séquence de contrôle de trame


Ce champ de 4 octets permet de détecter les erreurs d’une trame. Il utilise le contrôle de redondance
cyclique (CRC, Cyclic Redundancy Check). Le périphérique d’envoi inclut les résultats d’un CRC dans le
champ FCS de la trame.
Le périphérique de réception reçoit la trame et génère un CRC pour détecter les erreurs. Si les calculs
correspondent, aucune erreur ne se produit. Les calculs non rapprochés indiquent que les données ont
changé et que la trame est abandonnée. Si les données sont modifiées, cela peut perturber les signaux
électriques qui représentent les bits.
2) Adresse MAC Ethernet
Un identifiant unique appelé adresse MAC (Media Access Control) a été créé pour pouvoir
déterminer les adresses source et de destination sur un réseau Ethernet. Il est ajouté dans l’unité de
données de protocole de la couche 2. L’ adresse MAC Ethernet est une valeur binaire de 48 bits
exprimées sur 12 chiffres hexadécimaux.
Structure de l’adresse MAC
La valeur de l’adresse MAC est un résultat direct des règles mises en application par l’IEEE auprès
des revendeurs pour garantir l’attribution d’adresses uniques à chaque périphérique Ethernet, et ce, à
l’échelle mondiale. Les règles établies par l’IEEE exigent de chaque revendeur de périphérique Ethernet
qu’il s’enregistre auprès de l’IEEE. L’IEEE attribue au revendeur un code de 3 octets appelé OUI
(Organizationally Unique Identifier, Identifiant unique d’organisation).
L’IEEE demande aux revendeurs de suivre deux règles simples :
· Toutes les adresses MAC attribuées à une carte réseau ou à un autre périphérique Ethernet
doivent utiliser, comme 3 premiers octets, l’identifiant OUI attribué au revendeur
correspondant.
· Toutes les adresses MAC qui ont le même identifiant OUI doivent recevoir une valeur unique
(référence du revendeur ou numéro de série) dans les 3 derniers octets.
L’adresse MAC est souvent dite rémanente car elle est stockée dans la mémoire morte de la carte
réseau. Cela signifie que l’adresse est codée dans la puce de mémoire morte (ROM) de façon définitive et
qu’elle ne peut pas être modifiée à l’aide d’un logiciel.

45
Réseaux informatiques Prof : ABAZINE Karima

Toutefois, lorsque l’ordinateur démarre, la carte réseau


copie l’adresse dans la mémoire vive (RAM). Si l’on
examine les trames, c’est l’adresse stockée dans la mémoire
vive (RAM) qui est utilisée comme adresse source à
comparer à l’adresse de destination. L’adresse MAC est
utilisée par la carte réseau pour déterminer si un message
doit être transmis aux couches supérieures en vue de son
traitement.
Les fabricants de matériel et de logiciels peuvent
représenter l’adresse MAC dans des formats hexadécimaux
différents. Les formats d’adresse peuvent être similaires
à 00-05-9A-3C-78-00, 00:05:9A:3C:78:00 ou à 0005.9A3C.7800.
3) Numérotation hexadécimale et adressage
Numérotation hexadécimale
Ce type de numérotation est un moyen pratique de représenter des valeurs binaires. Le système de
numérotation décimale est en base dix, le système binaire en base deux et le système hexadécimal est en
base seize.
Comprendre le format binaire
Sachant que 8 bits (un octet) est un regroupement binaire courant, la plage binaire de 00000000 à
11111111 correspond, dans le format hexadécimal, à la plage 00 FF. Les zéros de gauche sont toujours
affichés pour compléter la représentation de 8 bits. Par exemple, la valeur binaire 0000 1010 correspond à
0A au format hexadécimal.
Représentation de valeurs hexadécimales
Le format hexadécimal est habituellement représenté avec du texte par la valeur précédée de 0x (par
exemple 0x73) ou un exposant 16. Moins souvent, il peut être suivi de la lettre H, par exemple 73H.
Conversions hexadécimales
Les conversions numériques entre des valeurs décimales et hexadécimales sont très simples, bien que
la division ou la multiplication par 16 ne soit pas toujours très commode. Lorsque de telles conversions
sont nécessaires, il est plus simple de convertir la valeur décimale ou hexadécimale en valeur binaire, puis
de convertir cette dernière en valeur décimale ou hexadécimale, selon le cas.
Affichage de l’adresse MAC
Pour visualiser l’adresse MAC de votre ordinateur, utilisez la commande ipconfig /all ou ifconfig.
Vous pouvez également rechercher l’identifiant OUI de l’adresse MAC pour déterminer le fabricant
de votre carte réseau.

4) Autre couche d’adressage


Couche liaison de données
L’adressage physique de la couche liaison de données OSI (couche 2), mis en œuvre sous la forme
d’une adresse MAC Ethernet, permet de transporter la trame sur les supports locaux. Bien que les
adresses d’hôte soient uniques, les adresses physiques ne sont pas organisées au sein d’une hiérarchie.
Elles sont associées à un périphérique particulier, quel que soit son emplacement ou le réseau auquel il est
connecté.
Les adresses de la couche 2 n’ont pas de signification en dehors des supports réseau locaux. Avant
d’atteindre sa destination, il arrive qu’un paquet doive traverser plusieurs technologies de liaison de
données dans les réseaux locaux et étendus. De ce fait, un périphérique source ne connaît pas la
technologie utilisée dans les réseaux intermédiaires et de destination ni dans les structures d’adressage et
de tramage de la couche 2.
Couche réseau

46
Réseaux informatiques Prof : ABAZINE Karima

Les adresses de la couche réseau (couche 3), telles que les adresses IPv4, fournissent un adressage
logique omniprésent, compris à la fois par la source et la destination. Pour atteindre sa destination finale,
un paquet transporte l’adresse de la couche 3 de destination depuis sa source. Toutefois, lorsqu’elle est
mise en trame par les différents protocoles de couche liaison de données rencontrés, l’adresse de la
couche 2 qu’il reçoit chaque fois s’applique uniquement à la partie locale du trajet et à ses supports.
En d’autres termes :
ü L’adresse de la couche réseau permet l’acheminement du paquet jusqu’à sa destination.
ü L’adresse de la couche liaison de données permet l’acheminement du paquet par les supports
locaux sur chaque segment du réseau.
5) Monodiffusion, multidiffusion et diffusion Ethernet
Avec Ethernet, des adresses MAC différentes sont utilisées pour la monodiffusion, la
multidiffusion et la diffusion sur la couche 2.
Monodiffusion
Adresse MAC de monodiffusion utilisée lorsqu’une trame est envoyée à partir d’un seul périphérique
de transmission, à un seul périphérique de destination.
Dans l’exemple de la figure, un hôte avec l’adresse IP 192.168.1.5 (source) demande une page Web
au serveur dont l’adresse IP est 192.168.1.200. Pour qu’un paquet monodiffusion soit envoyé et reçu, une
adresse IP de destination doit figurer dans l’en-tête du paquet IP. Une adresse MAC de destination
correspondante doit également être présente dans l’en-tête de la trame Ethernet. L’adresse IP et l’adresse
MAC sont combinées pour transmettre les données à un hôte de destination particulier.

Diffusion
Avec la diffusion, le paquet contient une adresse IP de destination qui ne contient que des uns (1)
dans la partie hôte. Cette numérotation implique que tous les hôtes sur le réseau local (domaine de
diffusion) recevront le paquet et le traiteront. De nombreux protocoles réseau dont DCHP et ARP utilisent
les diffusions. Sur les réseaux Ethernet, l’adresse MAC de diffusion comporte 48 uns (1), affichés au
format hexadécimal FF-FF-FF-FF-FF-FF.

47
Réseaux informatiques Prof : ABAZINE Karima

Multidiffusion
Rappelez-vous que les adresses multidiffusion permettent à un périphérique source d’envoyer un
paquet à un groupe de périphériques. Les périphériques qui font partie d’un groupe multidiffusion se
voient affecter une adresse IP de groupe multidiffusion. La plage d’adresses multidiffusion s’étend de
224.0.0.0 à 239.255.255.255. Dans la mesure où les adresses multidiffusion représentent un groupe
d’adresses (parfois appelé groupe d’hôtes), elles ne peuvent s’utiliser que dans la destination d’un paquet.
La source doit toujours avoir une adresse monodiffusion.
Comme avec les adresses monodiffusion et de diffusion, l’adresse IP multidiffusion nécessite une
adresse MAC multidiffusion correspondante pour remettre les trames sur un réseau local. L’adresse MAC
multidiffusion est une valeur spécifique, qui commence par 01-00-5E au format hexadécimal. La valeur
se termine en convertissant les 23 bits de droite de l’adresse du groupe multidiffusion IP en 6 caractères
hexadécimaux de l’adresse Ethernet. Le bit restant de l’adresse MAC est toujours un 0.
Le schéma illustre un exemple d’adresse hexadécimale 01-00-5E-00-00-0A. Chaque caractère
hexadécimal correspond à 4 bits.

5) Contrôle de l’accès aux supports Ethernet


1) CSMA/CD : processus
Détection de signal porteur
Avec la méthode d’accès CSMA/CD, tous les périphériques réseau qui ont des messages à envoyer
doivent les écouter avant de les transmettre.
Si un périphérique détecte un signal provenant d’un autre périphérique, il attend un certain temps
avant d’essayer de transmettre un message.
Si aucun trafic n’est détecté, le périphérique transmet son message. Lorsque la transmission a lieu, le
périphérique continue à écouter le trafic ou les collisions survenant sur le réseau local. Une fois le
message envoyé, le périphérique se remet en mode d’écoute par défaut.
Accès multiple
Si la distance entre les périphériques est telle que la latence des signaux de l’un des périphériques
implique que les signaux ne seront pas détectés par un deuxième périphérique, ce dernier peut, lui aussi,
commencer à transmettre son message. Les signaux se mélangent, et les messages sont détruits. Bien que
les messages soient endommagés, les signaux restants désordonnés continuent à se propager sur les
supports.
La détection d’une collision est rendue possible car tous les périphériques peuvent déterminer si
l’amplitude des signaux dépasse le niveau normal.
Signal de congestion et retransmission aléatoire
Dès qu’une collision est détectée par les périphériques transmetteurs, ils envoient un signal de
congestion. Ce signal permet de notifier les autres périphériques de la collision pour qu’ils invoquent un
algorithme d’interruption qui demande à tous les périphériques de cesser leur transmission pendant un
temps qui est aléatoire, ce qui permet aux signaux de collision de diminuer.
Exercice : Dans cet exercice Packet Tracer, vous allez créer d’importants domaines de collisions
pour examiner les effets des collisions sur la transmission des données et le fonctionnement du réseau.

48
Réseaux informatiques Prof : ABAZINE Karima

2) Synchronisation Ethernet
Le signal électrique qui est transmis met un certain temps (latence) pour se propager (traverser) le
long du câble. Chaque concentrateur, ou « répéteur », qui se trouve sur le trajet du signal ajoute de la
latence pour acheminer les bits d’un port à l’autre. Ce délai cumulé augmente la probabilité de survenance
de collisions.
Synchronisation
En communication bidirectionnelle simultanée, en partant du principe qu’aucune collision ne s’est
produite, le périphérique émetteur transmet 64 bits d’informations de synchronisation, appelées
« préambule ».
Le périphérique émetteur achemine ensuite l’intégralité de la trame.
Les mises en œuvre Ethernet à des débits de 10 Mbits/s et inférieurs, sont dites asynchrones. Dans ce
contexte, la communication asynchrone implique que chaque périphérique récepteur utilise les 8 octets
d’informations de synchronisation pour synchroniser le circuit de réception sur les données entrantes, puis
abandonne les 8 octets.
Les mises en œuvre Ethernet à des débits de 100 Mbits/s et supérieurs, sont dites synchrones. Dans ce
contexte, la communication synchrone implique qu’aucune information de synchronisation n’est
nécessaire. Toutefois, pour des raisons de compatibilité, les champs Preamble (Préambule) et SFD (Start
Frame Délimiter, Délimiteur de début de trame), sont tout de même présents.

Durée de bit
Pour chaque vitesse de support, le placement et la détection d’un bit sur le support peut prendre un
certain temps. Ce temps s’appelle la durée de bit. Sur Ethernet 10 Mbits/s, il faut 100 nanosecondes (ns)
pour transmettre un bit au niveau de la couche MAC. À 100 Mbits/s, il lui faut 10 ns pour procéder à la
transmission. À 1 000 Mbits/s, il lui faut seulement 1 ns pour procéder à la transmission. Selon une
estimation approximative, la valeur de 20,32 cm par nanoseconde est souvent utilisée pour calculer le
délai de propagation le long d’un câble UTP.
Fenêtre de collision

La fenêtre de collision pour Ethernet 10 et 100 Mbits/s est de 512 durées de bit, soit 64 octets. La
fenêtre de collision pour Ethernet 1 000 Mbits/s est 4 096 durées de bit, soit 512 octets.
La fenêtre de collision permet de garantir que si une collision est sur le point de se produire, elle sera
détectée dans les 512 premiers bits (4 096 pour Gigabit Ethernet) de la transmission de la trame. Cela
simplifie la gestion des retransmissions de trame suite à une collision.

3) Espacement intertrame et réémission


Espacement intertrame
Les normes Ethernet prévoient un espacement minimum entre deux trames n’entrant pas en collision.
Cela donne aux supports le temps de se stabiliser après la transmission de la trame précédente et aux
périphériques le temps de traiter la trame. Désigné sous le nom d’espacement intertrame, cet intervalle est
mesuré entre le dernier bit du champ FCS de la première trame et le premier bit du champ Preamble
49
Réseaux informatiques Prof : ABAZINE Karima

(Préambule) de la deuxième trame.


Lorsqu’une trame est envoyée, tous
les périphériques d’un réseau Ethernet 10
Mbits/s doivent attendre au minimum
une durée de 96 bits, soit 9,6 microsecondes,
avant qu’un autre périphérique ait le droit
de transmettre la trame suivante. Sur les
versions plus rapides d’Ethernet,
l’espacement reste le même, c’est-à-dire
96 durées de bit, mais le temps nécessaire
pour cet intervalle se réduit de façon
proportionnelle.
Signal de brouillage
Dès qu’une collision est détectée, les périphériques émetteurs transmettent un signal de brouillage sur
32 bits qui déclenchera la collision. Cela permet à tous les périphériques du réseau LAN de détecter la
collision.
Durée de réémission
Lorsqu’une collision se produit et que tous les périphériques rendent le câble inactif (en attente de
l’espacement intertrame complet), les périphériques à l’origine de la collision doivent observer un délai
supplémentaire qui peut s’allonger progressivement, avant de tenter de retransmettre la trame entrée en
collision. Le délai d’attente est intentionnellement aléatoire afin que les deux périphériques n’observent
pas le même délai avant de procéder à la
retransmission, ce qui entraînerait davantage
de collisions. Pour cela, on étend l’intervalle
de base à la sélection de la durée de retransmission
lors de chaque tentative de retransmission. La
période d’attente est mesurée par incréments de
la fenêtre de collision.
6) Couche physique Ethernet
1) Vue d’ensemble de la couche physique Ethernet
Les différences entre les normes Ethernet, Fast Ethernet, Gigabit Ethernet et 10 Gigabit Ethernet
apparaissent au niveau de la couche physique, souvent appelée PHY Ethernet.
Ethernet est régi par les normes IEEE 802.3. Quatre débits de données sont actuellement définis pour
fonctionner dans les câbles à fibres optiques et à paires torsadées, à savoir :
· 10 Mbits/s : 10Base-T Ethernet
· 100 Mbits/s : Fast Ethernet
· 1000 Mbits/s : Gigabit Ethernet
· 10 Gbits/s : 10 Gigabit Ethernet

50
Réseaux informatiques Prof : ABAZINE Karima

2) Ethernet 10 Mbits/s et 100 Mbits/s


Les principales mises en œuvre10 Mbits/s d’Ethernet sont les suivantes :
· 10BASE5 avec câble coaxial Thicknet : ne sont pas prises en charge par les normes 802.3.
· 10BASE2 avec câble coaxial Thinnet : ne sont pas prises en charge par les normes 802.3.
· 10BASE-T avec câble à paires torsadées non blindées de catégorie 3 ou 5
Ethernet 10 Mbits/s - 10BASE-T
10BASE-T utilise un codage Manchester sur deux câbles à paires torsadées non blindées. Les
premières mises en œuvres d’Ethernet, 10BASE-T faisaient appel à un câblage de catégorie 3. Toutefois,
la catégorie 5 ou supérieure est beaucoup plus répandue aujourd’hui.
Ethernet 10 Mbits/s correspond à Ethernet classique et repose sur une topologie physique en étoile.
Les liaisons Ethernet 10BASE-T peuvent atteindre jusqu’à 100 mètres avant de nécessiter un
concentrateur ou un répéteur.
10BASE-T utilise deux paires
de câble à 4 paires et des
connecteurs RJ-45 à 8 broches,
sertis à chaque extrémité. La paire
connectée aux broches 1 et 2 est
destinée à la transmission et celle
connectée aux broches 3 et 6 à la réception.
La figure illustre la brochage RJ45 utilisé dans
Ethernet 10BASE-T.
100 Mbits/s - Fast Ethernet
Ethernet 100 Mbits/s, également désigné sous le nom de Fast Ethernet, peut être mis en œuvre à
l’aide de câble en cuivre à paires torsadées ou de supports à fibres optiques. Les mises en œuvre de Fast
Ethernet les plus répandues sont les suivantes :
· 100BASE-TX avec câble UTP de catégorie 5 ou supérieure : 100BASE-TX a été conçu pour
prendre en charge les transmissions sur deux paires de câble UTP de catégorie 5 ou deux
brins de fibres optiques.
· 100BASE-FX avec un câble à fibres optiques : utilise la même procédure de signalement que
100BASE-TX, mais via un support à fibres optiques plutôt que via des câbles en cuivre UTP.
3) Ethernet 1000Mbits/s
1 000 Mbits/s - Gigabit Ethernet
L’établissement des normes Gigabit Ethernet a permis de créer des spécifications pour les supports
cuivre UTP, fibres multimodes et fibres monomodes.
1000BASE-T Ethernet
Ethernet 1000BASE-T fournit une transmission bidirectionnelle simultanée à l’aide de quatre paires
de câble à paires torsadées non blindées de catégorie 5 ou supérieure. Une connexion Gigabit Ethernet via
un câblage de cuivre permet de faire passer le débit de 100 Mbits/s par paire à 125 Mbits/s soit
500 Mbits/s pour les quatre paires. Chaque paire de câbles transporte les signaux en mode bidirectionnel
simultané, ce qui permet de doubler le débit (de 500 Mbits à 1 000 Mbits/s).
Dans le cas de la paire torsadée, on utilise du câble type téléphonique. Néanmoins, ces câbles sont repris
suivant leurs caractéristiques physiques (diamètre, isolant, longueur des torsades) dans différentes
catégories ci-dessous:
Type de câble Vitesse supportée Type de réseau
Catégorie 1 Téléphonie Téléphone
Catégorie 2 1 Mbps Token-ring et téléphone
Catégorie 3 16 Mbps Token-Ring et 10 base T
Catégorie 4 20 Mbps 10 Base T
Catégorie 5 100 Mbps 10BaseT et 100 Base TX
Catégorie 5e (catégorie 6) 1 Gbps Giga Ethernet
51
Réseaux informatiques Prof : ABAZINE Karima

7) Concentrateurs et commutateurs
1) Ethernet hérité : utilisation des concentrateurs
Ethernet classique utilise des concentrateurs pour interconnecter des nœuds sur le segment du LAN.
Les concentrateurs n’effectuent aucun type de filtrage du trafic. En fait, un concentrateur achemine
l’ensemble des bits à tous les périphériques qui y sont connectés. Cela oblige tous les périphériques du
LAN à partager la bande passante des supports.
2) Ethernet moderne : utilisation des commutateurs
Les commutateurs apportent une solution aux environnements basés sur des restrictions de partage de
supports d’Ethernet classique.
Les nœuds sont directement connectés
Dans un réseau local (LAN) où tous les nœuds sont connectés directement au commutateur, le débit
du réseau augmente considérablement. Les raisons de ce phénomène sont les suivantes :
ü Bande passante dédiée sur tous les ports
ü Environnement sans collision
ü Transmission bidirectionnelle simultanée
Ces topologies physiques en étoile ne sont autres que des liaisons de point à point.
Bande passante dédiée
Chaque nœud dispose de la bande passe totale du support pour sa connectivité au commutateur. Étant
donné qu’un concentrateur réplique les signaux qu’il reçoit, puis les envoie à tous les autres ports, les
concentrateurs d’Ethernet classique forment un bus logique. Cela implique que tous les nœuds doivent
partager la bande passante de ce bus. Avec les commutateurs, chaque périphérique bénéficie d’une
connectivité point à point au commutateur, sans restriction de partage d’accès aux supports.
Comparons par exemple deux réseaux locaux (LAN) de 100 Mbits/s, chacun comportant 10 nœuds.
Dans le segment de réseau A, ces 10 nœuds sont connectés à un concentrateur. Chaque nœud partage la
bande passante disponible de 100 Mbits/s. Ainsi, chaque nœud bénéficie d’un débit de 10 Mbits/s en
moyenne. Dans le segment de réseau B, les 10 nœuds sont connectés à un commutateur. Dans ce segment,
l’ensemble de nœuds dispose de toute la bande passante de 100 Mbits/s.
Environnement sans collision
Une connexion point à point à un commutateur permet également de partager les supports sans
restriction et de réduire, voire supprimer, le nombre de collisions rencontrées sur un nœud. Dans un
réseau Ethernet classique de taille moyenne utilisant des concentrateurs, environ 40 à 50 % de la bande
passante sont consommées par une reprise sur collision.
Transmission bidirectionnelle simultanée
L’utilisation de commutateurs permet à un réseau de fonctionner en tant qu’environnement Ethernet
de transmission bidirectionnelle simultanée. Avant que les commutateurs n’existent, Ethernet ne
fonctionnait qu’en mode bidirectionnel non simultané.
Par exemple, si la vitesse du réseau est de 100 Mbits/s, chaque nœud peut à la fois transmettre et
recevoir une trame à cette vitesse.
Utilisation des commutateurs à la place des concentrateurs
La plupart des réseaux Ethernet ont des commutateurs comme périphériques finaux et fonctionnent
en mode bidirectionnel simultané. Étant donné que les commutateurs offrent des débits beaucoup plus
élevés que les concentrateurs et améliorent considérablement les performances, pourquoi ne pas les
utiliser dans tous les réseaux locaux Ethernet ? Les concentrateurs sont encore utilisés, principalement
pour les trois raisons suivantes :
Ø La disponibilité : il a fallu attendre le début des années 90 pour voir apparaître les premiers
commutateurs LAN.
Ø Le coût : au départ les commutateurs étaient très chers.
Ø La configuration requise : un concentrateur de supports partagés peut suffire et ce type de
produit est toujours en vente.
Exercice : Dans cet exercice, nous utilisons un exemple de modèle pour comparer les collisions
survenant dans les réseaux de concentrateurs avec l’environnement sans collision qu’offrent les
commutateurs.
52
Réseaux informatiques Prof : ABAZINE Karima

3) Commutateurs : un réacheminement sélectif


Grâce à la commutation par stockage et retransmission, le commutateur reçoit la trame complète,
vérifie si la séquence de contrôle de trame (FSC) contient des erreurs, puis transmet la trame au port
approprié du nœud de destination. Les nœuds ne sont pas contraints d’attendre que le support soit inactif
et peuvent donc envoyer et recevoir des messages à la vitesse maximale des supports, sans risque de
pertes dues à des collisions ou à la logistique associée à la gestion des collisions.
La retransmission est basée sur l’adresse MAC de destination
Le commutateur gère une table, appelée table MAC qui mappe les adresses MAC de destination aux
ports utilisés pour la connexion aux nœuds. Pour chaque trame entrante, l’adresse MAC de destination
figurant dans l’en-tête de trame est comparée à la liste des adresses de la table MAC. Lorsqu’un numéro
de port répertorié dans la table est mappé à l’adresse MAC, il est utilisé comme port de sortie de la trame.
La table MAC peut porter différents noms : table de commutation, routage transparent, table de pont.
Fonctionnement des commutateurs
Pour accomplir leurs tâches, les commutateurs LAN Ethernet utilisent cinq fonctions de base :
o L’apprentissage
o L’horodatage
o L’inondation
o Le réacheminement sélectif
o Le filtrage
Apprentissage
La table MAC doit contenir des adresses MAC ainsi que les ports correspondants. Le processus
d’apprentissage permet l’acquisition dynamique de ces mappages en mode de fonctionnement normal.
Chaque fois qu’une trame entre dans le commutateur, celui-ci examine son adresse MAC source. Une
procédure de recherche permet au commutateur de déterminer si la table contient déjà une entrée pour
l’adresse MAC concernée. Si l’entrée n’existe pas, le commutateur en crée une nouvelle dans la table
MAC, à l’aide de l’adresse MAC source, et associe cette adresse au port d’arrivée de la trame.
Horodatage
Les entrées de la table MAC qui sont acquises à l’aide du processus d’apprentissage sont horodatées.
L’horodatage permet de supprimer les entrées les plus anciennes d’une table MAC. Après chaque entrée
dans la table MAC, un compte à rebours est lancé. Cette procédure utilise l’horodatage comme valeur de
début. Une fois la valeur 0 atteinte, l’entrée de la table sera actualisée la prochaine fois que le
commutateur recevra une trame en provenance de ce nœud sur le même port.
Inondation
Quand un commutateur ne sait pas sur quel port envoyer une trame parce que l’adresse MAC de
destination ne figure pas dans la table MAC, il envoie la trame à tous les ports, à l’exception du port
d’arrivée de la trame. Ce processus d’envoi de la trame à tous les segments s’appelle inondation.
Réacheminement sélectif
Le réacheminement sélectif est un processus permettant l’analyse de l’adresse MAC de destination
d’une trame et sa retransmission vers le port approprié. C’est la fonction principale du commutateur.
Filtrage
Dans certains cas, une trame n’est pas transmise. C’est ce que l’on appelle le filtrage de trame. L’une
des utilisations du filtrage a déjà été présentée : un commutateur ne réacheminera pas une trame vers son
port d’arrivée. En outre, il abandonnera également une trame si elle est endommagée. Si le contrôle de
redondance cyclique (CRC) échoue, la trame est abandonnée. Les trames sont également filtrées pour des
raisons de sécurité. Un commutateur possède des paramètres de sécurité qui permettent de bloquer les
trames à destination et/ou en provenance de certaines adresses MAC ou de ports spécifiques.
Exercice : Dans cet exercice, vous aurez la possibilité de visualiser et d’expérimenter le
comportement des commutateurs d’un réseau.
8) Protocole ARP (Address Resolution Protocol)
1) Processus ARP: mappage d’adresses IP à des adresses MAC
Le protocole ARP assure deux fonctions de base :
Ø la résolution des adresses IPv4 en adresses MAC,
Ø la conservation en mémoire cache des mappages.
53
Réseaux informatiques Prof : ABAZINE Karima

Résolution des adresses IPv4 en adresses MAC


À chaque trame placée sur un support LAN doit correspondre une adresse MAC de destination.
Quand un paquet est envoyé à la couche liaison de données pour être encapsulé dans une trame, le nœud
désigne une table dans sa mémoire pour y trouver l’adresse de couche liaison de données qui est mappée
à l’adresse IPv4 de destination. Cette table est appelée table ARP, ou cache ARP. La table ARP est
stockée dans la mémoire vive (RAM) du périphérique.
Chaque entrée ou ligne de la table ARP comporte deux valeurs : une adresse IP et une adresse MAC.
La relation entre les deux valeurs s’appelle une mise en correspondance
Mise à jour de la table ARP
La table ARP est mise à jour de manière dynamique. Un périphérique dispose de deux méthodes pour
obtenir des adresses MAC. La première consiste à surveiller le trafic sur le segment du réseau local.
Quand un nœud reçoit des trames en provenance du support, il enregistre les adresses IP source et MAC
dans la table ARP sous forme de mappage. Au fur et à mesure que les trames sont transmises sur le
réseau, le périphérique remplit la table ARP de paires d’adresses.
La seconde méthode permettant à un périphérique d’obtenir une paire d’adresse consiste à diffuser
une requête ARP. Le protocole ARP envoie un message de diffusion de couche 2 à tous les périphériques
du LAN Ethernet. La trame contient un paquet de requête ARP comportant l’adresse IP de l’hôte de
destination. Lorsqu’un nœud reçoit la trame et identifie sa propre adresse IP, il répond en envoyant un
paquet réponse ARP à l’expéditeur, sous la forme d’une trame monodiffusion (à une seule adresse MAC).
Cette réponse permet de créer une nouvelle entrée dans la table ARP.
Création de la trame
Que fait un nœud lorsqu’il doit créer une trame et que le cache ARP ne contient pas la
correspondance entre une adresse IP et l’adresse MAC de destination ? Quand le protocole ARP reçoit
une requête de mappage entre une adresse IPv4 et une adresse MAC, il recherche le mappage stocké en
mémoire cache dans sa table ARP. S’il ne trouve pas d’entrée, l’encapsulation du paquet IPv4 échoue, et
les processus de la couche 2 informent le protocole ARP qu’un mappage est nécessaire.
Les processus ARP envoient alors un paquet de requête ARP pour trouver l’adresse MAC du
périphérique de destination sur le réseau local. Si le périphérique qui reçoit la requête possède l’adresse IP
de destination, il répond à l’aide d’une réponse ARP. Une entrée est créée dans la table ARP. Les paquets
à destination de cette adresse IPv4 peuvent à présent être encapsulés dans des trames.
Si aucun périphérique ne répond à la requête ARP, le paquet est abandonné car il est impossible de
créer une trame. L’échec de l’encapsulation est signalé aux couches supérieures du périphérique. Dans le
cas d’un périphérique intermédiaire, comme un routeur, les couches supérieures peuvent choisir de
répondre à l’hôte source en générant une erreur dans un paquet ICMPv4.
2) Le processus ARP : destination externes au réseau local
Si l’hôte IPv4 de destination ne se trouve pas sur le réseau local, le nœud source doit livrer la trame à
l’interface du routeur qui sert de passerelle ou de saut suivant pour atteindre cette destination. Le nœud
source utilise l’adresse MAC de la passerelle comme adresse de destination, pour les trames contenant un
paquet IPv4 adressé à des hôtes situés sur d’autres réseaux.
Proxy ARP
Dans certains cas, un hôte peut envoyer une requête pour tenter de mapper une adresse IPv4 qui se
trouve en dehors de la plage d’adresses d’un réseau local. Dans ces cas, le périphérique envoie une
requête ARP pour rechercher les adresses IPv4 qui n’appartiennent pas au réseau local, au lieu de
demander l’adresse MAC associée à l’adresse IPv4 de la passerelle. Pour fournir l’adresse MAC de ces
hôtes, l’interface du routeur peut utiliser un proxy ARP pour répondre au nom de ces hôtes distants. Cela
signifie que le cache ARP du périphérique à l’origine de la requête contient l’adresse MAC de la
passerelle associée aux adresses IP externes au réseau local. Le proxy ARP permet à l’interface du routeur
de se comporter comme un hôte possédant l’adresse IPv4 demandée dans la requête ARP.
Cela peut s’avérer utile lorsqu’une mise en œuvre antérieure d’iPv4 ne parvient pas à déterminer si
l’hôte de destination est situé sur le même réseau logique que l’hôte source. Dans ce cas, le protocole
ARP envoie systématiquement des requêtes ARP pour rechercher l’adresse IPv4 de destination. Si le
proxy ARP est désactivé sur l’interface du routeur, les hôtes ne peuvent pas communiquer en
dehors du réseau local.

54
Réseaux informatiques Prof : ABAZINE Karima

Le proxy ARP est également utilisé lorsque l’hôte source se croit directement connecté au même
réseau logique que l’hôte de destination. Cela se produit généralement lorsqu’un hôte est configuré avec
un masque incorrect.
Un proxy ARP peut également être utilisé quand un hôte n’est pas configuré avec une passerelle par
défaut. Le proxy ARP peut aider les périphériques d’un réseau à atteindre des sous-réseaux distants, sans
qu’il soit nécessaire de configurer le routage ou une passerelle par défaut.
3) Processus ARP : suppression de mappages d’adresses
Pour chaque périphérique, un compteur de cache ARP supprime les entrées ARP qui n’ont pas été
utilisées pendant une période donnée. Cette période varie en fonction des périphériques et des systèmes
d’exploitation. Par exemple, certains systèmes d’exploitation Windows stockent les entrées du cache ARP
pendant 2 minutes. Si l’entrée est réutilisée pendant ce laps de temps, le compteur ARP de cette entrée
passe à 10 minutes.
Des commandes permettent aussi de supprimer manuellement les entrées de la table ARP totalement
ou partiellement. Lorsqu’une entrée est supprimée, le processus d’envoi d’une requête ARP et de
réception d’une réponse ARP doit être répété pour entrer le mappage dans la table ARP.
9) Travaux pratiques :
1) Travaux pratiques : protocole ARP
Ces travaux pratiques présentent la commande de l’utilitaire ARP de Windows, qui permet
d’examiner et de modifier les entrées du cache ARP sur un ordinateur hôte. Wireshark est ensuite utilisé
pour capturer et analyser les échanges ARP entre des périphériques réseau.
Exercice : Dans cet exercice, vous allez utiliser le Packet Tracer pour étudier et modifier les entrées
du cache ARP sur un ordinateur hôte.
2) Travaux pratiques : étude de la table MAC du commutateur Cisco
Au cours de ces travaux pratiques, vous allez vous connecter à un commutateur en ouvrant une
session Telnet, puis vous utiliserez les commandes du système d’exploitation pour afficher les adresses
MAC qui sont stockées et leur mappage aux ports des commutateurs.
Exercice : Dans cet exercice, vous aller utiliser le Packet Tracer pour afficher les adresses MAC qui
sont stockées et savoir comment elles sont mappées aux ports des commutateurs.
3) Travaux pratiques :périphérique intermédiaire en tant que périphérique final
Dans ces travaux pratiques, vous allez utiliser Wireshark pour capturer et analyser des trames afin de
déterminer les nœuds réseau qui les ont émises. Une session Telnet entre l’ordinateur hôte et le
commutateur est ensuite capturée, et le contenu de la trame analysée.
Exercice : Dans cet exercice, vous allez utiliser Packet Tracer pour analyser les trames provenant d’un
commutateur.

55

Vous aimerez peut-être aussi