Vous êtes sur la page 1sur 44

Chapitre 9 : Ethernet

9.0.1 Présentation du chapitre


Jusqu’à présent, chacun des chapitres du cours a porté sur les différentes fonctions des couches des
modèles de protocoles OSI et TCP/IP, ainsi que sur la façon dont ces protocoles sont utilisés pour prendre
en charge les communications réseau. Plusieurs protocoles importants, comme TCP, UDP et IP, sont
souvent évoqués dans le contenu du cours, car ils sont à la base du fonctionnement de tous les réseaux de
petite taille ou de grande taille, mais aussi d’Internet. Ces protocoles forment les piles de protocole
TCP/IP et, étant donné qu’Internet a été créé à partir de ces protocoles, Ethernet est désormais la
technologie LAN prédominante dans le monde.

L’IETF gère les protocoles et services fonctionnels de la suite de protocoles TCP/IP dans les couches
supérieures. Toutefois, les protocoles et services fonctionnels de la couche liaison de données et de la
couche physique OSI sont décrits par d’autres organismes (IEEE, ANSI, ITU) ou par des sociétés privées
(protocoles propriétaires). Puisque Ethernet est constitué de normes au niveau de ces couches inférieures,
on y fait généralement référence dans le contexte du modèle OSI. Le modèle OSI sépare les
fonctionnalités d’adressage, de tramage et d’accès aux supports entre la couche liaison de données et les
normes de la couche physique des supports. Les normes Ethernet définissent à la fois les protocoles de la
couche 2 et les technologies de la couche 1. Bien que les spécifications Ethernet prennent en charge
différents supports, bandes passantes et autres variantes de la couche 1 et de la couche 2, le format de
trame et le schéma d’adressage de base sont les mêmes pour toutes les versions d’Ethernet.

Dans ce chapitre, nous nous intéresserons aux caractéristiques et au fonctionnement d’Ethernet en suivant
son évolution depuis la technologie de communication de données, basée sur des supports partagés et sur
la restriction de l’accès aux supports jusqu’à la technologie de large bande haut débit, bidirectionnelle
simultanée moderne.

Objectifs pédagogiques

À l’issue de ce chapitre, vous serez en mesure d’effectuer les tâches suivantes :


 Décrire l’évolution d’Ethernet
 Expliquer les champs de la trame Ethernet
 Décrire la fonction et les caractéristiques de la méthode de contrôle d’accès aux supports utilisée
par le protocole Ethernet
 Décrire les fonctions de la couche physique et de la couche liaison de données Ethernet
 Comparer les concentrateurs et les commutateurs Ethernet
 Décrire le protocole ARP

Laboratoire CISCO - 52 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

9.1 Présentation d’Ethernet

9.1.1 Ethernet : normes et mise en œuvre

Normes IEEE

Le premier réseau local au monde a été la version originale d’Ethernet. Robert Metcalfe et ses
collaborateurs de Xerox l’ont conçu il y a plus de trente ans. La première norme Ethernet a été publiée en
1980 par un consortium de Digital Equipment Corporation, Intel et Xerox (DIX). Metcalfe souhaitant
qu’Ethernet soit une norme standard dont tout le monde puisse bénéficier, elle a été publiée en tant que
norme ouverte. Les premiers produits développés respectant la norme Ethernet ont été commercialisés au
début des années 80.

En 1985, le comité de normes de l’IEEE (Institute of Electrical and Electronics Engineers) pour les
réseaux locaux et métropolitains a publié des normes pour les réseaux locaux. Ces normes commencent
par le numéro 802. La norme Ethernet porte le numéro 802.3. LIEEE a voulu faire en sorte que ses
normes soient compatibles avec lISO (International Standards Organization) et le modèle OSI. Pour
garantir cette comptabilité, la norme IEEE 802.3 devait répondre aux besoins de la couche 1 et de la
partie inférieure de la couche 2 du modèle OSI. En conséquence, certaines modifications mineures de la
norme Ethernet originale ont été apportées à la 802.3.

Ethernet fonctionne au niveau des deux couches inférieures du modèle OSI, à savoir la couche liaison de
données et la couche physique.

9.1.2 Ethernet : couche 1 et couche2


Ethernet fonctionne au niveau des deux couches inférieures du modèle OSI. Le modèle fournit une
référence à laquelle Ethernet peut être associé, mais il est en fait mis en œuvre dans la moitié inférieure de
la couche liaison de données, désignée sous le nom de sous-couche MAC (Media Access Control) et de la
couche physique uniquement.

Au niveau de la couche 1, Ethernet est associé aux signaux, aux flux de bits qui traversent les supports,
aux composants physiques qui placent les signaux sur les supports et à diverses autres technologies. La
couche 1 Ethernet joue un rôle clé dans la mise en œuvre des communications entre les périphériques.
Toutefois, chacune des fonctions de cette couche présente des limitations.

Comme présenté dans la figure, au niveau de la couche 2, Ethernet permet de contourner ces limitations.
Les sous-couches liaison de données contribuent largement à la compatibilité technologique et à la
communication entre périphériques. La sous-couche MAC est associée aux composants physiques, qui
seront utilisés pour communiquer les informations et préparer les données pour qu’elles soient transmises
sur les supports.

Laboratoire CISCO - 53 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

La sous-couche LLC (Logical Link Control) reste relativement indépendante de l’équipement physique
qui sera utilisée pour communiquer.

9.1.3 LLC : connexion aux couches supérieures


Ethernet sépare les fonctions de la couche liaison de données en deux sous-couches distinctes : la sous-
couche LLC (Logical Link Control) et la sous-couche MAC (Media Access Control). Dans le modèle
OSI, les fonctions décrites pour la couche liaison de données sont attribuées aux sous-couches LLC et
MAC. L’utilisation de ces sous-couches contribue à garantir la compatibilité entre divers périphériques
finaux.

Pour Ethernet, la norme IEEE 802.2 décrit les fonctions de la sous-couche LLC et la norme 802.3 celles
de la sous-couche MAC et de la couche physique. LLC gère la communication entre les couches
supérieures et les logiciels de mise en réseau et entre les couches inférieures et le matériel. La sous-
couche LLC extrait les données des protocoles réseau, en principe un paquet IPv4, et leur ajoute des
informations de contrôle pour faciliter la transmission du paquet jusqu’au nœud de destination. La
couche 2 communique avec les couches supérieures via LLC.

La mise en œuvre LLC se fait au niveau logiciel et est indépendante de l’équipement physique. Dans un
ordinateur, LLC est en quelque sorte le logiciel du pilote de la carte réseau. Le pilote de la carte réseau est
un programme qui interagit directement avec le matériel de la carte réseau pour transmettre les données
entre les supports et la sous-couche MAC.

http://standards.ieee.org/getieee802/download/802.2-1998.pdf
http://standards.ieee.org/regauth/llc/llctutorial.html
http://www.wildpackets.com/support/compendium/reference/sap_numbers

Laboratoire CISCO - 54 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

9.1.4 MAC : transmission des données jusqu’aux supports


MAC correspond à la sous-couche Ethernet inférieure de la couche liaison de données. MAC est mis en
œuvre au niveau du matériel, généralement sur la carte réseau.

La sous-couche MAC d’Ethernet a deux fonctions principales :


 Encapsulation des données
 Contrôle de l’accès aux supports

Encapsulation des données

Elle assure trois fonctions de base :


 la délimitation des trames,
 l’adressage,
 la détection d’erreurs.

L’encapsulation des données consiste à assembler les trames avant de les transmettre et à les analyser
lorsqu’elles sont reçues. Lorsqu’elle assemble une trame, la couche MAC ajoute un en-tête et un code de
fin à l’unité de données de protocole de la couche 3. L’utilisation de trames facilite la transmission des
bits lors de leur placement sur le support et facilite le regroupement des bits sur le nœud récepteur.

Le processus de tramage fournit des délimiteurs importants utilisés pour identifier un groupe de bits qui
composent une trame. Ce processus permet la synchronisation entre les nœuds de transmission et ceux de
réception.

L’encapsulation fournit également un adressage pour la couche liaison de données. Chaque en-tête
Ethernet ajouté à la trame contient l’adresse physique (adresse MAC) qui permet à une trame d’être
remise au nœud de destination.

L’encapsulation de données permet également de détecter d’éventuelles erreurs. Chaque trame Ethernet
contient un code de fin avec un contrôle de redondance cyclique (CRC, Cyclic Redundancy Check) du
contenu des trames. Après réception d’une trame, le nœud récepteur crée un CRC pour le comparer à
celui de la trame. Si ces deux calculs de CRC correspondent, cela signifie probablement que la trame a été
reçue sans erreur.
Laboratoire CISCO - 55 - Alex Isis MANKAYA
Chapitre 9 : Ethernet

Contrôle de l’accès aux supports

La sous-couche MAC contrôle le placement des trames sur les supports, ainsi que leur retrait. Elle gère le
contrôle de l’accès aux supports. En particulier, elle initialise la transmission des trames et permet leur
restauration après un échec de transmission dû à des collisions.

Topologie logique

La topologie logique sous-jacente d’Ethernet est un bus prenant en charge un accès multiple. Cela
implique que tous les nœuds (périphériques) de ce segment de réseau partagent le même support. De plus,
tous ces nœuds reçoivent l’ensemble des trames transmises par n’importe quel nœud appartenant à ce
segment.

Dans la mesure où les nœuds reçoivent toutes les trames, chaque nœud doit déterminer si une trame doit
être acceptée et traitée par ce nœud. Cela nécessite l’examen de l’adressage de la trame fourni par
l’adresse MAC.

Ethernet détermine comment les nœuds se partagent l’accès au support. La méthode de contrôle de
l’accès aux supports, pour Ethernet classique, est un accès avec détection des collisions appelé
CSMA/CD (Carrier Sense Multiple Access with Collision Detection, détection de porteuse avec accès
multiple). Cette méthode sera décrite plus loin dans ce chapitre.

http://standards.ieee.org/regauth/groupmac/tutorial.html

9.1.5 Mises en œuvre physiques d’Ethernet


La plus grande partie du trafic sur Internet débute et aboutit sur des connexions Ethernet. Depuis son
introduction dans les années 70, Ethernet a dû évoluer pour pouvoir répondre à la demande grandissante
des réseaux LAN haut débit. Lorsque les supports à fibres optiques sont apparus, Ethernet s’est adapté à
cette nouvelle technologie pour tirer parti de la très large bande et du faible taux d’erreur offert par les
fibres. Aujourd’hui, le même protocole qui transportait des données à 3 Mbits/s peut le faire à 10 Gbits/s.

Le succès d’Ethernet est dû aux facteurs suivants :


 Simplicité et facilité de maintenance
 Possibilité d’incorporer de nouvelles technologies
 Fiabilité
 Coûts minimes d’installation et de mise à niveau

L’introduction de Gigabit Ethernet a amélioré la technologie LAN initiale pour atteindre des distances qui
font d’Ethernet une référence en matière de réseau métropolitain et de réseau étendu.

Laboratoire CISCO - 56 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

En tant que technologie associée à la couche physique, Ethernet définit et met en œuvre les schémas de
codage et de décodage qui permettent de transporter les bits de trame sous la forme de signaux, le long du
support. Les périphériques Ethernet utilisent différents types de câble et de connecteur.

Dans les réseaux modernes, Ethernet utilise les câbles de cuivre à paires torsadées non blindées et les
fibres optiques pour interconnecter les périphériques réseau via des périphériques intermédiaires tels que
les concentrateurs et les commutateurs. Avec tous les types de support qu’Ethernet prend en charge, la
structure de trame Ethernet reste la même, quelle que soit le type de mise en œuvre physique d’Ethernet.
C’est pour cette raison que cette technologie est très évolutive et permet de répondre aux besoins des
réseaux modernes.

9.2 Ethernet : la communication via le réseau local (LAN)

9.2.1 L’histoire d’Ethernet


Les bases de la technologie Ethernet sont apparues dans les années 70, avec un programme appelé
Alohanet. Il s’agissait d’un réseau radio numérique conçu pour transmettre les informations via une
fréquence radio partagée entre les îles hawaïennes.

Avec Alohanet, toutes les stations devaient suivre un protocole selon lequel une transmission sans reçu
devait être retransmise après un court délai. Des techniques similaires permettant d’utiliser un support
partagé ont été appliquées plus tard à la technologie filaire, sous la forme d’Ethernet.

Ethernet a été développé dans l’objectif d’accueillir plusieurs ordinateurs interconnectés sur une topologie
de bus partagée.

La première version d’Ethernet incorporait une méthode de contrôle de l’accès aux supports appelée
CSMA/CD (Carrier Sense Multiple Access with Collision Detection). Cette méthode d’accès a permis de
résoudre les problèmes liés à la communication de plusieurs périphériques sur un support physique
partagé.

Laboratoire CISCO - 57 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Les premiers supports Ethernet

Les premières versions d’Ethernet font appel aux câbles coaxiaux pour connecter les ordinateurs à une
topologie de bus. Chaque ordinateur est directement connecté au réseau fédérateur. Ces premières
versions d’Ethernet s’appelaient Thicknet, (10BASE5) et Thinnet (10BASE2).

10BASE5 ou Thicknet reposait sur un câble coaxial épais prenant en charge des distances de câblage de
500 mètres au maximum, avant que le signal ne nécessite un répéteur. 10BASE2 ou Thinnet utilise un
câble coaxial plus mince et plus souple que Thicknet et prend en charge des distances de câblage de
185 mètres.

La migration de la mise en œuvre initiale d’Ethernet vers des mises en œuvre actuelles et futures est
possible grâce à la structure quasiment inchangée du tramage de la couche 2. Les supports physiques,
l’accès aux supports et leur contrôle évoluent de façon permanente. En revanche, l’en-tête et le code de
fin Ethernet n’ont quasiment pas changé.

Les premières mises en œuvre d’Ethernet ont été déployées dans un environnement LAN à faible bande
passante, dans lequel l’accès aux supports partagés était géré par la méthode CSMA, et plus tard
CSMA/CD. Ethernet reposait non seulement sur une topologie de bus logique au niveau de la couche
liaison de données, mais aussi sur une topologie de bus physique. Cette dernière est devenue
problématique avec l’expansion des réseaux locaux et les demandes de services LAN, devenant de plus
en plus nombreuses sur l’infrastructure.

Les câbles coaxiaux épais et les supports coaxiaux fins ont été remplacés par les premières catégories
câbles à paires torsadées non blindées. Comparés aux câbles coaxiaux, les câbles à paires torsadées non
blindées sont plus maniables, plus légers et moins chers.

Une topologie en étoile avec des concentrateurs a supplanté la topologie initiale. Les concentrateurs
concentrent les connexions. En d’autres termes, ils rassemblent un groupe de nœuds et permettent au
réseau de les interpréter en tant qu’unité unique. Lorsqu’une trame parvient sur un port, elle est copiée sur
les autres ports pour que tous les segments du réseau LAN reçoivent cette trame. L’utilisation d’un
concentrateur dans cette topologie de bus a permis d’améliorer la fiabilité des réseaux car, même si l’un
des câbles est défectueux, le réseau continue à fonctionner. Toutefois, la répétition de la trame sur tous les

Laboratoire CISCO - 58 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

ports n’a pas résolu les problèmes de collisions. Plus loin dans ce chapitre, nous verrons comment les
problèmes de collisions dans les réseaux Ethernet sont gérés par l’introduction des commutateurs.

9.2.2 Gestion des collisions Ethernet

Ethernet hérité

En règle générale, dans les réseaux 10BASE-T, le point central du segment de réseau était le
concentrateur. Ce point servait donc de support partagé. Le support étant partagé, une seule station à la
fois pouvait effectuer une transmission. Cette transmission est dite bidirectionnelle non simultanée.

Au fur et à mesure que des périphériques étaient ajoutés à un réseau Ethernet, le nombre de collisions de
trame augmentait considérablement. Durant des périodes de faible activité de communication, les
quelques collisions qui surviennent sont gérées par CSMA/CD, sans conséquence majeure sur les
performances. En revanche, lorsque le nombre de périphériques et le trafic de données subséquent
augmentent, le nombre important de collisions peut avoir des effets négatifs pour les utilisateurs.

C’est un peu comme lorsque nous quittons la maison pour partir au travail tôt le matin, les routes sont
bien dégagées. Par contre, plus la circulation augmente sur les routes, plus il y a de risques d’accidents et
plus le trafic s’en trouve ralenti.

Laboratoire CISCO - 59 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Ethernet moderne

L’introduction des commutateurs dans les réseaux Ethernet a supplanté l’utilisation des concentrateurs et
permis d’améliorer considérablement les performances LAN. Les commutateurs ont été introduits en
même temps qu’Ethernet 100BASE-TX. Ils permettent de contrôler le flux de données en isolant chaque
port et en envoyant une trame uniquement à sa destination (si elle est connue), plutôt qu’en envoyant
chaque trame à chaque périphérique.

Le commutateur réduit le nombre de périphériques recevant chaque trame, ce qui permet de minimiser les
risques de collisions. Par la suite, l’introduction des communications bidirectionnelles simultanées, dont
la connexion transporte à la fois des signaux transmis et reçus), a permis de développer Gigabit Ethernet
et de le dépasser.

9.2.3 Gigabit Ethernet et ses suites


Les applications qui traversent quotidiennement les liaisons de réseau parviennent à surcharger les
réseaux les plus robustes. Par exemple, l’utilisation grandissante des services voix sur IP (VoIP) et
multimédia nécessite des connexions plus rapides qu’Ethernet 100 Mbits/s.

Gigabit Ethernet est utilisé pour décrire les mises en œuvre Ethernet qui fournissent une bande passante
de 1 000 Mbits/s (1 Gbit/s) ou d’un débit supérieur. Cette avancée repose sur les technologies de
transmission bidirectionnelle simultanée, ainsi que sur les technologies de support UTP et à fibres
optiques de l’Ethernet hérité.

L’amélioration des performances réseau est considérable lorsque le débit potentiel passe de 100 Mbits/s à
1 Gbit/s et plus.

La mise à niveau vers Gigabit Ethernet n’implique pas toujours le remplacement complet de
l’infrastructure réseau existante, en termes de câbles et de commutateurs. Certains des équipements et des
câbles installés dans les réseaux bien conçus existants peuvent fonctionner normalement avec des débits
plus élevés, en subissant une mise à niveau minimale. Cela présente l’avantage de réduire le coût total de
possession du réseau.

Laboratoire CISCO - 60 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Ethernet au-delà du LAN

Les distances de câblage plus grandes, rendues possibles grâce aux câbles à fibres optiques des réseaux
Ethernet, font qu’il est aujourd’hui difficile de distinguer un réseau local d’un réseau étendu. À l’origine,
la mise en œuvre d’Ethernet était limitée par les systèmes de câblage LAN à un bâtiment à la fois, puis
elle a été étendue entre plusieurs bâtiments. Aujourd’hui, cette mise en œuvre est possible pour toute une
ville, c’est ce que l’on appelle le réseau métropolitain ou MAN (Metropolitan Area Network).

9.3 Trame Ethernet

9.3.1 La trame : encapsulation du paquet


La structure de trame Ethernet ajoute des en-tête et des codes de fin à l’unité de données de protocole de
la couche 3 pour encapsuler le message envoyé.

L’en-tête et le code de fin Ethernet comportent plusieurs parties d’informations dont se sert le protocole
Ethernet. Chaque section de la trame est appelée un champ. On distingue deux types de tramage
Ethernet : la spécification IEEE 802.3 (d’origine) et IEEE 802.3 (Ethernet) révisée.

Laboratoire CISCO - 61 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Les différences entre les deux types de tramage sont minimes. Il s’agit notamment de l’ajout d’un
délimiteur de début de trame (SFD) et d’une petite modification apportée au champ Type de manière à
inclure la longueur, comme l’indique la figure.

Taille d’une trame Ethernet

La norme Ethernet initiale prévoyait une taille de trame minimale de 64 octets et maximale de 1 518
octets. Cela comprenait tous les octets du champ Adresse MAC de destination jusqu’au champ Séquence
de contrôle de trame. Les champs Préambule et Délimiteur de début de trame n’étaient pas inclus dans la
description de la taille d’une trame. La norme IEEE 802.3ac, publiée en 1998, a fixé la taille de trame
maximale autorisée à 1 522 octets. La taille de trame a évolué de manière à prendre en charge une
technologie appelée VLAN (Virtual Local Area Network, réseau local virtuel). Ces réseaux virtuels
privés, créés dans un réseau commuté, font l’objet d’un autre chapitre du cours.

Si la taille d’une trame transmise est inférieure à la taille minimale ou supérieure à la taille maximale, le
périphérique récepteur abandonne la trame. Les trames abandonnées sont souvent le résultat de collisions
ou d’autres signaux rejetés et donc traités comme étant non valides.

Champs Préambule et Délimiteur de début de trame

Les champs Préambule, de 7 octets, et Délimiteur de début de trame, de 1 octet, permettent une
synchronisation entre les périphériques d’envoi et de réception. Les huit premiers octets de la trame
préparent les nœuds de réception à recevoir. Les quelques premiers octets indiquent essentiellement aux
récepteurs de se préparer à recevoir une nouvelle trame.

Champ Adresse MAC de destination

Ce champ de 6 octets identifie l’adresse de la destination. Comme nous l’avons vu précédemment, cette
adresse est utilisée par la couche 2 pour aider les périphériques à déterminer si une trame leur est
adressée. L’adresse de la trame est comparée à l’adresse MAC du périphérique. Si les deux
correspondent, le périphérique accepte la trame.

Champ Adresse MAC source

Ce champ de 6 octets permet d’identifier l’interface ou la carte réseau émettrice de la trame. Les
commutateurs utilisent également cette adresse pour les ajouter à leurs tables de recherche. Ce chapitre
décrit le rôle des commutateurs dans l’une des sections suivantes.

Laboratoire CISCO - 62 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Champ Longueur/Type

Ce champ de 2 octets définit la longueur exacte du champ de données de la trame. Cette longueur est
ensuite utilisée dans la séquence de contrôle de trame, pour garantir la réception du message. Une
longueur ou un type peut être entré dans ce champ. Toutefois, seul l’un ou l’autre peut être utilisé dans
une mise en œuvre donnée. Si le champ a pour objectif de désigner un type, le champ Type décrit le
protocole mis en œuvre.

Le champ Longueur/Type comportait uniquement la longueur dans les premières versions d’IEEE et
uniquement le type dans la version DIX. Étant très courantes, ces deux utilisations du champ ont été
officiellement combinées dans l’une des dernières versions d’IEEE. Le champ Type d’Ethernet II est
incorporé dans la définition de trame 802.3 actuelle. Ethernet II est le format de trame Ethernet utilisé
dans les réseaux TCP/IP. Lorsqu’un nœud reçoit une trame, il doit examine le champ Longueur/Type
pour déterminer le protocole de couche supérieure présent. Si la valeur de deux octets est supérieure ou
égale à l’hexadécimal 0x600 ou au décimal 1 536, le contenu du champ de données est décodé selon le
protocole indiqué.

Champs Données et Remplissage

Ces deux champs de 46 - 1 500 octets contiennent les données encapsulées d’une couche supérieure qui
est une unité de données de protocole de couche 3 c’est-à-dire un paquet IPv4. La longueur minimale de
la trame est fixée à 64 octets. Si un petit paquet est encapsulé, le champ Pad est utilisé pour augmenter la
taille de la trame pour qu’elle atteigne la valeur minimale.

Champ Séquence de contrôle de trame

Ce champ de 4 octets permet de détecter les erreurs d’une trame. Il utilise le contrôle de redondance
cyclique (CRC, Cyclic Redundancy Check). Le périphérique d’envoi inclut les résultats d’un CRC dans le
champ FCS de la trame.

Le périphérique de réception reçoit la trame et génère un CRC pour détecter les erreurs. Si les calculs
correspondent, aucune erreur ne se produit. Les calculs non rapprochés indiquent que les données ont
changé et que la trame est abandonnée. Si les données sont modifiées, cela peut perturber les signaux
électriques qui représentent les bits.

Laboratoire CISCO - 63 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

9.3.2 Adresse MAC Ethernet


À l’origine, Ethernet a été mis en œuvre avec une topologie de bus. Chaque périphérique réseau se
connectait au même support partagé. Dans les réseaux de petite taille ou à faible trafic, il s’agissait d’un
déploiement acceptable. Néanmoins, il restait le problème de l’identification de chacun des périphériques.
Le signal pouvait être envoyé à chaque périphérique, mais comment identifier un périphérique s’il
constituait la destination du message ?

Un identifiant unique appelé adresse MAC (Media Access Control) a été créé pour pouvoir déterminer les
adresses source et de destination sur un réseau Ethernet. Indépendamment de la variante Ethernet utilisée,
la convention d’appellation fournissait une méthode pour identifier les périphériques à un niveau inférieur
du modèle OSI.

Si vous vous en souvenez, l’adressage MAC est ajouté dans l’unité de données de protocole de la
couche 2. Une adresse MAC Ethernet est une valeur binaire de 48 bits exprimées sur 12 chiffres
hexadécimaux.

Structure de l’adresse MAC

La valeur de l’adresse MAC est un résultat direct des règles mises en application par l’IEEE auprès des
revendeurs pour garantir l’attribution d’adresses uniques à chaque périphérique Ethernet, et ce, à l’échelle
mondiale. Les règles établies par l’IEEE exigent de chaque revendeur de périphérique Ethernet qu’il
s’enregistre auprès de l’IEEE. L’IEEE attribue au revendeur un code de 3 octets appelé OUI
(Organizationally Unique Identifier, Identifiant unique d’organisation).

L’IEEE demande aux revendeurs de suivre deux règles simples :


 Toutes les adresses MAC attribuées à une carte réseau ou à un autre périphérique Ethernet doivent
utiliser, comme 3 premiers octets, l’identifiant OUI attribué au revendeur correspondant.
 Toutes les adresses MAC qui ont le même identifiant OUI doivent recevoir une valeur unique
(référence du revendeur ou numéro de série) dans les 3 derniers octets.

L’adresse MAC est souvent dite rémanente car elle est stockée dans la mémoire morte de la carte réseau.
Cela signifie que l’adresse est codée dans la puce de mémoire morte (ROM) de façon définitive et qu’elle
ne peut pas être modifiée à l’aide d’un logiciel.

Toutefois, lorsque l’ordinateur démarre, la carte réseau copie l’adresse dans la mémoire vive (RAM). Si
l’on examine les trames, c’est l’adresse stockée dans la mémoire vive (RAM) qui est utilisée comme

Laboratoire CISCO - 64 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

adresse source à comparer à l’adresse de destination. L’adresse MAC est utilisée par la carte réseau pour
déterminer si un message doit être transmis aux couches supérieures en vue de son traitement.

Périphériques réseau

Lorsque le périphérique source transmet le message à un réseau Ethernet, les informations d’en-tête de
l’adresse MAC de destination y sont jointes. Le périphérique source envoie les données sur le réseau.
Chaque carte réseau du réseau accède aux informations pour déterminer si l’adresse MAC correspond à
son adresse physique. En l’absence de correspondance, la carte réseau ignore la trame. Lorsque la trame
atteint la destination dans laquelle l’adresse MAC de la carte réseau correspond à l’adresse MAC de
destination de la trame, la carte réseau transmet la trame jusqu’aux couches OSI, dans laquelle se produit
le décapsulage.

Tous les périphériques connectés à un réseau LAN Ethernet ont des interfaces comportant une adresse
MAC. Les fabricants de matériel et de logiciels peuvent représenter l’adresse MAC dans des formats
hexadécimaux différents. Les formats d’adresse peuvent être similaires à 00-05-9A-3C-78-00,
00:05:9A:3C:78:00 ou à 0005.9A3C.7800. Les adresses MAC sont attribuées à des postes de travail, des
serveurs, des imprimantes, des commutateurs et des routeurs. Tous ces périphériques doivent envoyer
et/ou recevoir des données sur le réseau.

9.3.3 Numérotation hexadécimale et adressage


Numérotation hexadécimale

Ce type de numérotation est un moyen pratique de représenter des valeurs binaires. Le système de
numérotation décimale est en base dix, le système binaire en base deux et le système hexadécimal est en
base seize.

Ce dernier utilise les chiffres compris entre 0 et 9 et les lettres de A à F. La figure présente les valeurs
hexadécimales, décimales et binaires équivalentes pour les nombres binaires de 0000 à 1111. Pour
l’utilisateur, il est plus facile d’exprimer une valeur sous la forme d’un seul chiffre hexadécimal plutôt
qu’avec quatre octets.

Comprendre le format binaire

Sachant que 8 bits (un octet) est un regroupement binaire courant, la plage binaire de 00000000 à
11111111 correspond, dans le format hexadécimal, à la plage 00 FF. Les zéros de gauche sont toujours

Laboratoire CISCO - 65 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

affichés pour compléter la représentation de 8 bits. Par exemple, la valeur binaire 0000 1010 correspond à
0A au format hexadécimal.

Représentation de valeurs hexadécimales

Remarque : il est important de distinguer les valeurs hexadécimales des valeurs décimales en ce qui
concerne les caractères 0 à 9, comme l’indique la figure.

Le format hexadécimal est habituellement représenté avec du texte par la valeur précédée de 0x (par
exemple 0x73) ou un exposant 16. Moins souvent, il peut être suivi de la lettre H, par exemple 73H.
Toutefois, dans la mesure où le texte sous forme d’exposant n’est pas reconnu dans les environnements de
ligne de commande ou de programmation, la représentation technique hexadécimale est précédée d’un 0x.
Par conséquent, les exemples ci-dessus doivent correspondre respectivement à 0x0A et 0x73.

Le format hexadécimal permet de représenter les adresses MAC Ethernet et les adresses IPv6. Vous avez
déjà rencontré le format hexadécimal dans le volet Packets Byte de Wireshark où il est utilisé pour
représenter les valeurs binaires des trames et des paquets.

Conversions hexadécimales

Les conversions numériques entre des valeurs décimales et hexadécimales sont très simples, bien que la
division ou la multiplication par 16 ne soit pas toujours très commode. Lorsque de telles conversions sont
nécessaires, il est habituellement plus simple de convertir la valeur décimale ou hexadécimale en valeur
binaire, puis de convertir cette dernière en valeur décimale ou hexadécimale, selon le cas.

Avec un peu de pratique, il est possible de reconnaître les configurations binaires qui correspondent aux
valeurs décimales et hexadécimales. La figure représente ces configurations pour des valeurs de 8 bits
données.

Affichage de l’adresse MAC

Pour visualiser l’adresse MAC de votre ordinateur, utilisez la commande ipconfig /all ou ifconfig. Dans le
schéma, vous pouvez voir l’adresse MAC de cet ordinateur. Si vous avez accès à la ligne de commande,
vous pouvez déterminer celle de votre propre ordinateur.

Laboratoire CISCO - 66 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Vous pouvez également rechercher l’identifiant OUI de l’adresse MAC pour déterminer le fabricant de
votre carte réseau.

9.3.4 Autre couche d’adressage

Couche liaison de données

L’adressage physique de la couche liaison de données OSI (couche 2), mis en œuvre sous la forme d’une
adresse MAC Ethernet, permet de transporter la trame sur les supports locaux. Bien que les adresses
d’hôte soient uniques, les adresses physiques ne sont pas organisées au sein d’une hiérarchie. Elles sont
associées à un périphérique particulier, quel que soit son emplacement ou le réseau auquel il est connecté.

Les adresses de la couche 2 n’ont pas de signification en dehors des supports réseau locaux. Avant
d’atteindre sa destination, il arrive qu’un paquet doive traverser plusieurs technologies de liaison de
données dans les réseaux locaux et étendus. De ce fait, un périphérique source ne connaît pas la
technologie utilisée dans les réseaux intermédiaires et de destination ni dans les structures d’adressage et
de tramage de la couche 2.

Couche réseau

Les adresses de la couche réseau (couche 3), telles que les adresses IPv4, fournissent un adressage
logique omniprésent, compris à la fois par la source et la destination. Pour atteindre sa destination finale,
un paquet transporte l’adresse de la couche 3 de destination depuis sa source. Toutefois, lorsqu’elle est
mise en trame par les différents protocoles de couche liaison de données rencontrés, l’adresse de la
couche 2 qu’il reçoit chaque fois s’applique uniquement à la partie locale du trajet et à ses supports.

En d’autres termes :
L’adresse de la couche réseau permet l’acheminement du paquet jusqu’à sa destination.
L’adresse de la couche liaison de données permet l’acheminement du paquet par les supports locaux sur
chaque segment du réseau.

Laboratoire CISCO - 67 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

9.3.5 Monodiffusion, multidiffusion et diffusion Ethernet


Avec la diffusion, le paquet contient une adresse IP de destination qui ne contient que des uns (1) dans la
partie hôte. Cette numérotation implique que tous les hôtes sur le réseau local (domaine de diffusion)
recevront le paquet et le traiteront. De nombreux protocoles réseau dont DCHP et ARP utilisent les
diffusions. La façon dont le protocole ARP utilise les diffusions pour mapper les adresses de la couche 2
et de la couche 3 est décrite plus loin dans ce chapitre.

Comme le montre la figure, l’adresse IP de diffusion d’un réseau requiert une adresse MAC de diffusion
correspondante dans la trame Ethernet. Sur les réseaux Ethernet, l’adresse MAC de diffusion comporte 48
uns (1), affichés au format hexadécimal FF-FF-FF-FF-FF-FF.

Multidiffusion

Rappelez-vous que les adresses multidiffusion permettent à un périphérique source d’envoyer un paquet à
un groupe de périphériques. Les périphériques qui font partie d’un groupe multidiffusion se voient
affecter une adresse IP de groupe multidiffusion. La plage d’adresses multidiffusion s’étend de 224.0.0.0
à 239.255.255.255. Dans la mesure où les adresses multidiffusion représentent un groupe d’adresses

Laboratoire CISCO - 68 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

(parfois appelé groupe d’hôtes), elles ne peuvent s’utiliser que dans la destination d’un paquet. La source
doit toujours avoir une adresse monodiffusion.

Les adresses multidiffusion conviennent, par exemple, dans des situations de jeu à distance où plusieurs
joueurs sont connectés à distance mais jouent au même jeu, et d’apprentissage à distance via des
conférences vidéo, où plusieurs participants sont connectés au même cours.

Comme avec les adresses monodiffusion et de diffusion, l’adresse IP multidiffusion nécessite une adresse
MAC multidiffusion correspondante pour remettre les trames sur un réseau local. L’adresse MAC
multidiffusion est une valeur spécifique, qui commence par 01-00-5E au format hexadécimal. La valeur
se termine en convertissant les 23 bits de droite de l’adresse du groupe multidiffusion IP en 6 caractères
hexadécimaux de l’adresse Ethernet. Le bit restant de l’adresse MAC est toujours un 0.

Le schéma illustre un exemple d’adresse hexadécimale 01-00-5E-00-00-0A. Chaque caractère


hexadécimal correspond à 4 bits.

http://www.iana.org/assignments/ethernet-numbers
http://www.cisco.com/en/US/docs/app_ntwk_services/waas/acns/v51/configuration/central/guide/51ipmu
l.html
http://www.cisco.com/en/US/docs/internetworking/technology/handbook/IP-Multi.html

9.4 Contrôle de l’accès aux supports Ethernet

9.4.1 Contrôle de l’accès aux supports avec Ethernet


Dans un environnement de supports partagés, tous les périphériques ont un accès garanti aux supports,
mais leurs droits correspondants ne sont pas prioritaires. Si plusieurs périphériques transmettent des
données simultanément, les signaux physiques entrent en collision, et le réseau doit reprendre pour que la
communication soit de nouveau possible.

Les collisions sont le prix que doit payer Ethernet pour la simplicité de chaque transmission.

Ethernet utilise la méthode d’accès CSMA/CD pour détecter et traiter les collisions, puis gérer la reprise
de la communication.

Laboratoire CISCO - 69 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Puisque tous les ordinateurs prenant en charge Ethernet envoient leurs messages via les mêmes supports,
un schéma de coordination distribuée est utilisé pour détecter l’activité électrique des câbles. Un
périphérique peut ensuite déterminer le moment auquel il peut transmettre les données. Lorsqu’un
périphérique ne détecte qu’aucun autre ordinateur n’envoie de trame ou de signal porteur, le périphérique
transmet les éventuelles données à envoyer.

9.4.2 CSMA/CD : processus

Détection de signal porteur

Avec la méthode d’accès CSMA/CD, tous les périphériques réseau qui ont des messages à envoyer
doivent les écouter avant de les transmettre.

Si un périphérique détecte un signal provenant d’un autre périphérique, il attend un certain temps avant
d’essayer de transmettre un message.

Si aucun trafic n’est détecté, le périphérique transmet son message. Lorsque la transmission a lieu, le
périphérique continue à écouter le trafic ou les collisions survenant sur le réseau local. Une fois le
message envoyé, le périphérique se remet en mode d’écoute par défaut.

Accès multiple

Si la distance entre les périphériques est telle que la latence des signaux de l’un des périphériques
implique que les signaux ne seront pas détectés par un deuxième périphérique, ce dernier peut, lui aussi,
commencer à transmettre son message. Le support a maintenant deux périphériques qui transmettent
simultanément leurs signaux. Leurs messages seront propagés via les supports, jusqu’à ce qu’ils se
rencontrent. À ce stade, les signaux se mélangent, et les messages sont détruits. Bien que les messages
soient endommagés, les signaux restants désordonnés continuent à se propager sur les supports.

Détection des collisions

Lorsqu’un périphérique est en mode d’écoute, il peut détecter la survenance d’une collision sur les
supports partagés. La détection d’une collision est rendue possible car tous les périphériques peuvent
déterminer si l’amplitude des signaux dépasse le niveau normal.

Une fois qu’une collision survient, les autres périphériques en mode d’écoute (ainsi que les périphériques
transmetteurs) détectent ce dépassement d’amplitude. Par la suite, tous les périphériques qui transmettent
Laboratoire CISCO - 70 - Alex Isis MANKAYA
Chapitre 9 : Ethernet

un message continuent à le transmettre pour s’assurer que tous les périphériques du réseau détectent la
collision.

Signal de congestion et retransmission aléatoire

Dès qu’une collision est détectée par les périphériques transmetteurs, ils envoient un signal de congestion.
Ce signal permet de notifier les autres périphériques de la collision pour qu’ils invoquent un algorithme
d’interruption. Cet algorithme demande à tous les périphériques de cesser leur transmission pendant un
temps qui est aléatoire, ce qui permet aux signaux de collision de diminuer.

Une fois le délai expiré sur un périphérique, ce dernier se remet en mode d’écoute avant transmission.
Une période de réémission aléatoire garantit que les périphériques impliqués dans la collision ne tentent
pas d’envoyer leur trafic en même temps, ce qui engendrerait une reproduction de l’ensemble du
processus. Toutefois, cela signifie également qu’un troisième périphérique puisse transmettre ses
messages avant que les deux impliqués dans la collision n’ait une chance de retransmettre leur trafic.

Concentrateurs et domaines de collision

En supposant que des collisions se produiront occasionnellement dans une topologie de supports partagés,
même en appliquant la méthode CSMA/CD, nous devons examiner les circonstances susceptibles
d’accroître le nombre de collisions. Suite à la croissance rapide d’Internet :
 Davantage de périphériques sont connectés au réseau.
 Les périphériques accèdent aux supports réseau plus souvent.
 Les distances entre les périphériques augmentent.

Souvenez-vous que les concentrateurs ont été créés pour servir de périphériques réseau intermédiaires,
qui permettent à un nombre plus important de nœuds de se connecter aux supports partagés. Également
appelés « répéteurs multiport », les concentrateurs retransmettent les signaux de données reçus à tous les
périphériques connectés, sauf à celui qui a émis les signaux. Les concentrateurs n’exécutent pas de
fonctions réseau, telles que la direction des données en fonction d’adresses.

Les concentrateurs et les répéteurs sont des périphériques intermédiaires qui permettent d’augmenter la
distance que les câbles Ethernet peuvent atteindre. Dans la mesure où les concentrateurs fonctionnent sur
la couche physique pour s’occuper des signaux traversant les supports, des collisions peuvent survenir
entre les périphériques qu’ils connectent et à l’intérieur des concentrateurs eux-mêmes.

De plus, l’utilisation de concentrateurs pour fournir un accès réseau à un plus grand nombre d’utilisateurs
réduit les performances pour chaque utilisateur, car la capacité fixe des supports doit être partagée entre
un nombre grandissant de périphériques.

Les périphériques connectés qui accèdent à un support partagé via un concentrateur ou une série de
concentrateurs directement connectés forment ce que l’on appelle un domaine de collision. Ce dernier est
Laboratoire CISCO - 71 - Alex Isis MANKAYA
Chapitre 9 : Ethernet

également désigné sous le nom de segment de réseau. Les concentrateurs et les répéteurs ont donc pour
effet d’augmenter la taille du domaine de collision.

Comme l’indique la figure, l’interconnexion de concentrateurs forment une topologie physique en forme
d'« étoile étendue ». L’étoile étendue peut créer un domaine de collision considérablement étendu.

Un nombre accru de collisions réduit l’efficacité et l’efficience d’un réseau, jusqu’à ce que les collisions
deviennent une nuisance pour l’utilisateur.

Bien que la méthode d’accès CSMA/CD soit un système de gestion des collisions de trames, il s’applique
à un nombre limité de périphériques et sur des réseaux dont le trafic est peu important. Ainsi, d’autres
mécanismes doivent être mis en œuvre lorsqu’un très grand nombre d’utilisateurs nécessitent un accès et
si les besoins en accès réseau actif sont plus importants.

Nous verrons que l’utilisation de commutateurs à la place de concentrateurs peut permettre de résoudre le
problème, du moins en partie.

http://standards.ieee.org/getieee802/802.3.html

9.4.3 Synchronisation Ethernet


Des mises en œuvre plus rapides de la couche physique d’Ethernet ont compliqué la gestion des
collisions.

Latence

Comme nous l’avons précisé, chaque périphérique qui doit transmettre du trafic doit d’abord « écouter »
pour vérifier la présence de transmissions. En l’absence de trafic, il entame immédiatement la
transmission. Le signal électrique qui est transmis met un certain temps (latence) pour se propager
(traverser) le long du câble. Chaque concentrateur, ou « répéteur », qui se trouve sur le trajet du signal
ajoute de la latence pour acheminer les bits d’un port à l’autre.

Ce délai cumulé augmente la probabilité de survenance de collisions, dans la mesure où un nœud écouteur
peut se mettre à transmettre des signaux alors que le concentrateur ou le répéteur est déjà en train de
traiter le message. Puisque le signal n’avait pas encore atteint ce nœud alors qu’il était en phase d’écoute,
il en a conclu que le support était disponible. C’est dans ce type de circonstance que des collisions
surviennent.
Laboratoire CISCO - 72 - Alex Isis MANKAYA
Chapitre 9 : Ethernet

Synchronisation

En communication bidirectionnelle simultanée, en partant du principe qu’aucune collision ne s’est


produite, le périphérique émetteur transmet 64 bits d’informations de synchronisation, appelées
« préambule ».

Le périphérique émetteur achemine ensuite l’intégralité de la trame.

Les mises en œuvre Ethernet à des débits de 10 Mbits/s et inférieurs, sont dites asynchrones. Dans ce
contexte, la communication asynchrone implique que chaque périphérique récepteur utilise les 8 octets
d’informations de synchronisation pour synchroniser le circuit de réception sur les données entrantes, puis
abandonne les 8 octets.

Les mises en œuvre Ethernet à des débits de 100 Mbits/s et supérieurs, sont dites synchrones. Dans ce
contexte, la communication synchrone implique qu’aucune information de synchronisation n’est
nécessaire. Toutefois, pour des raisons de compatibilité, les champs Preamble (Préambule) et SFD (Start
Frame Delimiter, Délimiteur de début de trame), sont tout de même présents.

Durée de bit

Pour chaque vitesse de support, le placement et la détection d’un bit sur le support peut prendre un certain
temps. Ce temps s’appelle la durée de bit. Sur Ethernet 10 Mbits/s, il faut 100 nanosecondes (ns) pour
transmettre un bit au niveau de la couche MAC. À 100 Mbits/s, il lui faut 10 ns pour procéder à la
transmission. À 1 000 Mbits/s, il lui faut seulement 1 ns pour procéder à la transmission. Selon une
estimation approximative, la valeur de 20,32 cm par nanoseconde est souvent utilisée pour calculer le
délai de propagation le long d’un câble UTP. Ainsi, pour cent mètres de câble à paires torsadées non
blindées, il faut 5 durées de bit à peine à un signal 10BASE-T pour parcourir la longueur du câble.

Laboratoire CISCO - 73 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Pour que la méthode d’accès Ethernet CSMA/CD puisse fonctionner, le périphérique émetteur doit avoir
connaissance d’une collision avant d’avoir terminé la transmission d’une trame de taille minimum. À
100 Mbits/s, l’émission des données de synchronisation des périphériques s’étale sur 100 mètres de câble.
À 1000 Mbits/s, des ajustements spéciaux sont nécessaires, du fait qu’environ une trame de taille
minimum serait transmise avant que le premier bit n’atteigne la fin des premiers 100 mètres de câble
UTP. C’est pour cette raison que la transmission bidirectionnelle non simultanée n’est pas autorisée dans
le 10-Gigabit Ethernet.

Ces paramètres de synchronisation doivent être appliqués à l’espacement intertrame et aux durées de
réémission (éléments présentés en détail dans la section suivante) pour s’assurer que lorsqu’un
périphérique transmet sa trame suivante, le risque de collision est réduit.

Fenêtre de collision

Dans la transmission Ethernet bidirectionnelle non simultanée, où les données ne voyagent que dans un
seul sens à la fois, la fenêtre de collision devient un facteur déterminant dans l’évaluation du nombre de
périphériques qui partagent un réseau. Pour toutes les vitesses de transmission Ethernet égales ou
inférieures à 1 000 Mbits/s, la norme détermine comment une transmission unique ne peut pas être
inférieure à la fenêtre de collision.

La définition de la fenêtre de collision est un compromis entre la nécessité d’alléger les conséquences
d’une reprise sur collision (durée de réémission et de retransmission) et la nécessité d’augmenter
suffisamment les distances réseau pour prendre en charge des tailles de réseau adéquates. Dans ce
compromis, il a fallu choisir un diamètre de réseau maximal (environ 2 500 mètres), puis fixer la longueur
maximale de trame de manière à pouvoir détecter les collisions les plus dangereuses.

La fenêtre de collision pour Ethernet 10 et 100 Mbits/s est de 512 durées de bit, soit 64 octets. La fenêtre
de collision pour Ethernet 1 000 Mbits/s est 4 096 durées de bit, soit 512 octets.

La fenêtre de collision permet de garantir que si une collision est sur le point de se produire, elle sera
détectée dans les 512 premiers bits (4 096 pour Gigabit Ethernet) de la transmission de la trame. Cela
simplifie la gestion des retransmissions de trame suite à une collision.

La fenêtre de collision est un paramètre important pour diverses raisons, qui sont les suivantes :
La fenêtre de collision de 512 bits fixe la taille minimale d’une trame Ethernet à 64 octets. Toute trame
inférieure à cette valeur est interprétée comme un fragment de collision ou une trame incomplète et est
automatiquement rejetée par les périphériques récepteurs.
La fenêtre de collision établit une limite pour la taille maximale des segments d’un réseau. Si le réseau
devient trop important, des collisions tardives peuvent s’ensuivre. Ces dernières sont considérées comme
une panne du réseau car elles sont détectées trop tard par les périphériques durant la transmission de la
trame qui doit être automatiquement gérée par CSMA/CD.

La fenêtre de collision est calculée en partant du principe que des longueurs de câble maximales sont
utilisées sur la plus grande architecture légale de réseau. Tous les délais de propagation sont fixés au
niveau maximum légal, et le signal de congestion 32 bits est utilisé lorsque des collisions sont détectées.

La fenêtre de collision réelle est à peine supérieure à la durée théorique requise pour qu’une trame
parcourt le chemin entre les points les plus éloignés du domaine de collision, puis entre en collision au
dernier moment avec une autre transmission, et que les fragments de collision retournent au périphérique
émetteur et soient détectés. Reportez-vous à la figure.
Pour que le système fonctionne, le premier périphérique doit détecter la collision avant d’avoir terminé
d’envoyer la plus petite taille de trame légale.

Laboratoire CISCO - 74 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Pour permettre à Ethernet 1 000 Mbits/s de fonctionner en mode bidirectionnel non simultané, le champ
d’extension a été ajouté aux seules fins d’occuper l’émetteur suffisamment longtemps pour le retour d’un
fragment de collision lors de l’envoi de petites trames. Ce champ n’est présent que sur les liaisons
1 000 Mbits/s en mode bidirectionnel non simultané et permet aux trames de taille minimale d’être assez
longues pour satisfaire les exigences des fenêtres de collision. Les bits d’extension sont abandonnés par le
périphérique récepteur.

9.4.4 Espacement intertrame et réémission


Espacement intertrame

Les normes Ethernet prévoient un espacement minimum entre deux trames n’entrant pas en collision.
Cela donne aux supports le temps de se stabiliser après la transmission de la trame précédente et aux
périphériques le temps de traiter la trame. Désigné sous le nom d’espacement intertrame, cet intervalle est
mesuré entre le dernier bit du champ FCS de la première trame et le premier bit du champ Preamble
(Préambule) de la deuxième trame.

Lorsqu’une trame est envoyée, tous les périphériques d’un réseau Ethernet 10 Mbits/s doivent attendre au
minimum une durée de 96 bits, soit 9,6 microsecondes, avant qu’un autre périphérique ait le droit de
transmettre la trame suivante. Sur les versions plus rapides d’Ethernet, l’espacement reste le même, c’est-
à-dire 96 durées de bit, mais le temps nécessaire pour cet intervalle se réduit de façon proportionnelle.

Les délais de synchronisation entre les périphériques peuvent entraîner la perte de quelques bits de
préambule de trame. Cela peut réduire sensiblement l’espacement intertrame lorsque les concentrateurs et
les répéteurs réémettent les 64 bits d’informations (champs Preamble et SFD) au début de chaque trame
transmise. À des débits Ethernet plus importants, certains périphériques sensibles aux délais risquent de
ne pas pouvoir reconnaître les trames individuelles et de devenir des points d’échec de communication.

Laboratoire CISCO - 75 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Signal de brouillage

Rappelez-vous qu’Ethernet permet aux périphériques de se faire concurrence en termes de durée de


transmission. Si deux périphériques transmettent du trafic en même temps, la fonction CSMA/CD du
réseau tentera automatiquement de résoudre le problème. N’oubliez pas, cependant, que lorsqu’un
nombre important de périphériques sont ajoutés au réseau, il est possible que les collisions soient de plus
en plus difficiles à résoudre.

Dès qu’une collision est détectée, les périphériques émetteurs transmettent un signal de brouillage sur
32 bits qui déclenchera la collision. Cela permet à tous les périphériques du réseau LAN de détecter la
collision.

Il est important que le signal de brouillage ne soit pas interprété comme une trame valide, sinon les
périphériques ne pourront pas identifier la collision. La configuration de données la plus courante pour un
signal de brouillage est simplement une configuration répétitive de 1, 0, 1, 0, comme dans le champ
Preamble (Préambule).

Les messages endommagés et partiellement transmis sont souvent appelés « fragments de collision » ou
« trames incomplètes ». Les collisions normales, dont la longueur est inférieure à 64 octets, et n’est donc
pas conforme à la longueur minimale et aux tests FCS, sont faciles à identifier.

Laboratoire CISCO - 76 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Durée de réémission

Lorsqu’une collision se produit et que tous les périphériques rendent le câble inactif (en attente de
l’espacement intertrame complet), les périphériques à l’origine de la collision doivent observer un délai
supplémentaire qui peut s’allonger progressivement, avant de tenter de retransmettre la trame entrée en
collision. Le délai d’attente est intentionnellement aléatoire afin que les deux périphériques n’observent
pas le même délai avant de procéder à la retransmission, ce qui entraînerait davantage de collisions. Pour
cela, on étend l’intervalle de base à la sélection de la durée de retransmission lors de chaque tentative de
retransmission. La période d’attente est mesurée par incréments de la fenêtre de collision.

Si la congestion des supports rend l’envoi de la trame impossible après seize tentatives par la couche
MAC, elle abandonne et génère une erreur sur la couche réseau. Une telle situation est assez rare et ne
peut se produire qu’en cas de surcharge extrême du réseau, ou lorsqu’il existe un problème physique.
Les méthodes décrites dans cette section permettent à Ethernet de fournir un service plus fiable dans une
topologie de supports partagés, basée sur l’utilisation de concentrateurs. Dans la section suivante,
consacrée aux commutateurs, nous verrons comment ils réduisent ou éliminent le besoin d’utiliser la
fonction CSMA/CD.

9.5 Couche physique Ethernet

9.5.1 Vue d’ensemble de la couche physique Ethernet


Les différences entre les normes Ethernet, Fast Ethernet, Gigabit Ethernet et 10 Gigabit Ethernet
apparaissent au niveau de la couche physique, souvent appelée PHY Ethernet.

Ethernet est régi par les normes IEEE 802.3. Quatre débits de données sont actuellement définis pour
fonctionner dans les câbles à fibres optiques et à paires torsadées, à savoir :
 10 Mbits/s : 10Base-T Ethernet
 100 Mbits/s : Fast Ethernet
 1000 Mbits/s : Gigabit Ethernet
 10 Gbits/s : 10 Gigabit Ethernet

Bien qu’il existe de nombreuses mises en œuvre d’Ethernet avec ces débits de données, nous ne
présenterons que la plus courante. La figure illustre certaines de caractéristiques de PHY Ethernet.

La partie d’Ethernet qui fonctionne sur la couche physique est décrite dans cette section, en commençant
par la variante 10Base-T jusqu’à 10 Gbits/s.

Laboratoire CISCO - 77 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

9.5.2 Ethernet 10 Mbits/s et 100 Mbits/s


Les principales mises en œuvre10 Mbits/s d’Ethernet sont les suivantes :
 10BASE5 avec câble coaxial Thicknet
 10BASE2 avec câble coaxial Thinnet
 10BASE-T avec câble à paires torsadées non blindées de catégorie 3 ou 5

Les premières mises en œuvres d’Ethernet, 10BASE5 et 10BASE2, faisaient appel à un câble coaxial
dans un bus physique. Elles ne sont plus appliquées et ne sont, par ailleurs, pas prises en charge par les
normes 802.3.

Ethernet 10 Mbits/s - 10BASE-T

10BASE-T utilise un codage Manchester sur deux câbles à paires torsadées non blindées. Les premières
mises en œuvres d’Ethernet, 10BASE-T faisaient appel à un câblage de catégorie 3. Toutefois, la
catégorie 5 ou supérieure est beaucoup plus répandue aujourd’hui.

Ethernet 10 Mbits/s correspond à Ethernet classique et repose sur une topologie physique en étoile. Les
liaisons Ethernet 10BASE-T peuvent atteindre jusqu’à 100 mètres avant de nécessiter un concentrateur ou
un répéteur.

10BASE-T utilise deux paires de câble à 4 paires et des connecteurs RJ-45 à 8 broches, sertis à chaque
extrémité. La paire connectée aux broches 1 et 2 est destinée à la transmission et celle connectée aux
broches 3 et 6 à la réception. La figure illustre la brochage RJ45 utilisé dans Ethernet 10BASE-T.

10BASE-T ne convient généralement pas à de nouvelles installations de réseaux LAN. Toutefois, de


nombreux réseaux Ethernet 10BASET-T sont fonctionnels aujourd’hui. Dans les réseaux 10BASE-T, le
remplacement des concentrateurs par des commutateurs a considérablement amélioré les débits
disponibles et a permis d’allonger la durée de vie d’Ethernet hérité. Les liaisons 10BASE-T connectées à
un commutateur peuvent prendre en charge les transmissions bidirectionnelles simultanées et non
simultanées.

Laboratoire CISCO - 78 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

100 Mbits/s - Fast Ethernet

Au milieu des années 90, plusieurs nouvelles normes 802.3 ont été établies pour décrire des méthodes de
transmission des données sur des supports Ethernet à 100 Mbits/s. Ces normes utilisaient différentes
configurations de codage pour pouvoir atteindre ces débits de données plus importants.

Ethernet 100 Mbits/s, également désigné sous le nom de Fast Ethernet, peut être mis en œuvre à l’aide de
câble en cuivre à paires torsadées ou de supports à fibres optiques. Les mises en œuvre de Fast Ethernet
les plus répandues sont les suivantes :
 100BASE-TX avec câble UTP de catégorie 5 ou supérieure
 100BASE-FX avec un câble à fibres optiques

Dans la mesure où les signaux de plus haute fréquence utilisés dans Fast Ethernet sont plus sensibles aux
interférences, deux étapes de codage distinctes sont appliquées par Fast Ethernet pour améliorer
l’intégrité des signaux.

100BASE-TX

100BASE-TX a été conçu pour prendre en charge les transmissions sur deux paires de câble UTP de
catégorie 5 ou deux brins de fibres optiques. La mise en œuvre 100BASE-TX utilise les deux mêmes
paires et brochages UTP que 10BASE-T. Toutefois, 100BASE-TX nécessite des câbles UTP de
catégorie 5 ou supérieure. Le codage 4B/5B est utilisé pour 100BASE-T Ethernet.

Comme avec 10BASE-TX, 100Base-TX est connecté selon une topologie physique en étoile. La figure
illustre un exemple de topologie en étoile. En revanche, contrairement aux réseaux 10BASE-T, les
réseaux 100BASE-TX utilisent généralement un commutateur au lieu d’un concentrateur au centre de
l’étoile. Quasiment au même moment, les technologies 100BASE-TX se sont répandues, les
commutateurs LAN étant également très largement déployés. Ces développements concourants ont
conduit à leur combinaison naturelle dans la conception des réseaux 100BASE-TX.

100BASE-FX

La norme 100BASE-FX utilise la même procédure de signalement que 100BASE-TX, mais via un
support à fibres optiques plutôt que via des câbles en cuivre UTP. Bien que le codage, le décodage et les
procédures de récupération d’horloge soient les mêmes pour les deux supports, la transmission des
signaux est différentes (impulsions électriques dans le cuivre et impulsion lumineuses dans les fibres

Laboratoire CISCO - 79 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

optiques). 100BASE-FX utilise des connecteurs d’interface à fibres bon marché (appelés connecteurs SC
duplex).

Les mises en œuvre d’Ethernet à fibres optiques sont des connexions de point à point, c’est-à-dire qu’elles
permettent la connexion de deux périphériques. Ces connexions peuvent être établies entre deux
ordinateurs, un ordinateur et un commutateur ou entre deux commutateurs.

9.5.3 Ethernet 1000 Mbits/s

1 000 Mbits/s - Gigabit Ethernet

L’établissement des normes Gigabit Ethernet a permis de créer des spécifications pour les supports cuivre
UTP, fibres multimodes et fibres monomodes. Sur des réseaux Gigabit Ethernet, les bits se déplacent en
une fraction de la durée qu’ils utiliseraient sur des réseaux 100 Mbits/s et 10 Mbits/s. La fréquence des
signaux étant plus élevée, les bits deviennent plus sensibles aux interférences. La synchronisation est
donc un facteur déterminant. Les performances dépendent de la rapidité avec laquelle la carte ou
l’interface réseau change de niveau de tension et du degré de fiabilité de la détection de ces changements,
dans un périmètre de 100 mètres, par la carte ou l’interface réseau réceptrice.

Avec des vitesses plus élevées, le codage et le décodage des données sont des processus plus complexes.
Gigabit Ethernet fait appel à deux étapes de codage distinctes. La transmission des données est plus
efficace lorsque les codes sont utilisés pour représenter le flux binaire. Le codage des données permet la
synchronisation, l’optimisation de l’utilisation de la bande passante et améliore également le rapport
signal/bruit.

1000BASE-T Ethernet

Ethernet 1000BASE-T fournit une transmission bidirectionnelle simultanée à l’aide de quatre paires de
câble à paires torsadées non blindées de catégorie 5 ou supérieure. Une connexion Gigabit Ethernet via un
câblage de cuivre permet de faire passer le débit de 100 Mbits/s par paire à 125 Mbits/s soit 500 Mbits/s
pour les quatre paires. Chaque paire de câbles transporte les signaux en mode bidirectionnel simultané, ce
qui permet de doubler le débit (de 500 Mbits à 1 000 Mbits/s).

1000BASE-T utilise un codage de lignes 4D-PAM5 pour obtenir un débit de données de 1 Gbits/s. Le
schéma de codage permet de transmettre simultanément des signaux sur quatre paires de câbles. Il
convertit un octet de données de 8 bits en une transmission simultanée de quatre symboles de code (4D)
Laboratoire CISCO - 80 - Alex Isis MANKAYA
Chapitre 9 : Ethernet

qui sont envoyés via les supports, un sur chaque paire, sous forme de signaux d’amplitude de niveau 5
appelés PAM5 (5-level Pulse Amplitude Modulated). Cela implique que chaque symbole correspond à
deux bits de données. Les informations étant transmises simultanément sur les quatre chemins, le circuit
doit diviser les trames au niveau de l’émetteur et les réunir au niveau du récepteur. La figure représente
l’ensemble des circuits utilisés par Ethernet 1000BASE-T.

1000BASE-T permet la transmission et la réception des données dans les deux sens, sur le même câblage
et en même temps. Ce flux de trafic crée des collisions permanentes sur les paires de câbles. Ces
collisions sont à l’origine de profils électriques complexes. Les circuits hybrides qui détectent les signaux
mettent en œuvre des techniques sophistiquées telles que l’annulation de l’écho, la correction des erreurs
de transmission sur la couche 1 ou encore la sélection prudente des niveaux de tension. Grâce à ces
techniques, le système peut atteindre un débit de 1 Gigabit.

Pour participer à la synchronisation, la couche physique encapsule chaque trame avec des délimiteurs de
début et de fin de flux. La synchronisation des boucles est gérée par des flux continus de symboles IDLE,
envoyés sur chaque paire de câbles, dans l’espacement intertrame.

Contrairement à la plupart des signaux numériques où l’on trouve en principe deux niveaux de tension
discrète, 1000BASE-T utilise plusieurs niveaux. Durant les périodes d’inactivité, neuf niveaux de voltage
sont utilisés dans le câblage. Durant les périodes de transmission de données, un maximum de 17 niveaux
de voltage est utilisé dans le câblage. Avec ce nombre important d’états et les effets de bruit, les signaux
semblent plus analogiques que numériques. À l’instar des signaux analogiques, le système risque de
générer davantage de bruit, en raison du câblage et des problèmes de raccordement.

Ethernet 1000BASE-SX et 1000BASE-LX avec câbles à fibres optiques

Les versions à fibres optiques de Gigabit Ethernet - 1000BASE-SX et 1000BASE-LX - offrent les
avantages suivants sur les connexions UTP : elles sont insensibles aux bruits électromagnétiques, leur
taille est réduite, elles permettent de disposer de bandes passantes plus larges et elles autorisent des
distances plus grandes sans répéteur.

Toutes les versions 1000BASE-SX et 1000BASE-LX prennent en charge une transmission binaire
bidirectionnelle simultanée à 1 250 Mbits/s, sur deux brins de fibre optique. Le codage de transmission
est basé sur le schéma de codage 8B/10B. En raison de l’importante logistique associée à ce codage, le
débit de transfert des données reste à 1 000 Mbits/s.

Laboratoire CISCO - 81 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Chaque trame de données est encapsulée au niveau de la couche physique avant sa transmission, et la
synchronisation des liaisons est gérée par l’envoi d’un flux continu de groupes de codes IDLE, dans
l’espacement intertrame.

Les différences majeures entre les versions fibres optiques 1000BASE-SX et 1000BASE-LX sont les
supports de liaison, les connecteurs et la longueur d’onde du signal optique. Elles sont illustrées dans la
figure.

9.5.4 Avenir et devenir Ethernet


La norme IEEE 802.3ae a été adaptée pour inclure la transmission en mode bidirectionnel simultané de 10
Gbits/s sur un câblage à fibres optiques. La norme 802.3ae et les normes 802.3 d’Ethernet initial sont très
similaires. 10-Gigabit Ethernet (10GbE) subit des améliorations non seulement dans le cadre d’une
utilisation pour les LAN, mais aussi pour les MAN et les WAN.

Avec un format de trame et d’autres spécifications de couche 2 d’Ethernet conformes aux normes
précédentes, 10GbE peut fournir une bande passante plus large, utilisable avec l’infrastructure réseau
existante.

10GbE peut être comparé à d’autres variantes d’Ethernet.


 Le format de trame identique permet une interopérabilité entre toutes les versions d’Ethernet :
héritées, Fast, Gigabit et 10 Gigabit, et évite un nouveau tramage et la conversion de protocoles.
 La durée d’un bit est désormais de 0,1 ns. Toutes les autres variables de temps s’adaptent en
conséquence.
 Puisque des connexions à fibres optiques bidirectionnelles simultanées sont utilisées, il n’y a pas
de conflit d’accès aux supports et la fonction d’accès CSMA/CD est inutile.
 Les sous-couches IEEE 802.3 des couches OSI 1 et 2 sont majoritairement préservées, avec
quelques ajouts pour permettre les liaisons à fibre optique sur 40 km et l’interopérabilité avec
d’autres technologies de fibres.

Avec Ethernet 10 Gbits/s, il est désormais possible de disposer de réseaux Ethernet de bout en bout
flexibles, efficaces, fiables et relativement peu onéreux.

Débits Ethernet à venir

Alors que la norme 1 Gigabit Ethernet est désormais largement commercialisée et que les produits
10Gigabit deviennent plus disponibles, l’IEEE et l’alliance 10 GEA étudient l’établissement de
normes 40, 100 et même 160 Gbits/s. Les technologies adoptées vont dépendre de plusieurs facteurs,
notamment de l’expérience acquise en matière de technologies et de normes, ou encore du taux
d’implantation sur les marchés et du coût des produits novateurs.

Laboratoire CISCO - 82 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

9.6 Concentrateur et commutateur

9.6.1 Ethernet hérité : utilisateur des concentrateurs


Dans les sections précédentes, nous avons vu qu’Ethernet classique utilisait des supports partagés et un
contrôle d’accès aux supports basés sur des restrictions. Ethernet classique utilise des concentrateurs pour
interconnecter des nœuds sur le segment du LAN. Les concentrateurs n’effectuent aucun type de filtrage
du trafic. En fait, un concentrateur achemine l’ensemble des bits à tous les périphériques qui y sont
connectés. Cela oblige tous les périphériques du LAN à partager la bande passante des supports.

De plus, cette mise en œuvre d’Ethernet classique génère souvent un nombre important de collisions sur
le LAN. En raison de ces problèmes de performances, ce type de LAN Ethernet n’est pas très répandu
dans les réseaux modernes. De nos jours, les mises en œuvre d’Ethernet utilisant des concentrateurs se
trouvent en principe dans les réseaux LAN de petite taille ou dont les besoins en bande passante sont
réduits.

Le partage de supports entre les périphériques crée de sérieux problèmes à mesure de l’évolution du
réseau. La figure illustre certains des problèmes abordés dans ce chapitre.

Évolutivité

Dans un réseau de concentrateurs, la quantité de bande passante que les périphériques peuvent partager
est limitée. Au fur et à mesure qu’un périphérique est ajouté aux supports partagés, la bande passante

Laboratoire CISCO - 83 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

moyenne disponible de chaque périphérique diminue. Chaque fois que le nombre de périphériques
augmente sur les supports, les performances décroissent.

Latence

La latence du réseau correspond au temps que met un signal pour atteindre toutes les destinations sur les
supports. Chaque nœud d’un réseau de concentrateurs doit attendre que l’occasion se présente pour
transmettre son signal afin d’éviter que des collisions surviennent. La latence peut augmenter
considérablement en cas d’augmentation de la distance entre les nœuds. La latence dépend également du
délai de transport des signaux le long des supports, ainsi que du délai ajouté par le traitement des signaux
qui traversent les concentrateurs et les répéteurs. Si la longueur des supports ou le nombre de
concentrateurs et de répéteurs connectés à un segment augmente, la latence augmente également. Plus la
latence est grande, plus il y a de risques que les nœuds ne reçoivent pas les signaux d’origine, plus les
risques de collisions augmentent sur le réseau.

Panne réseau

Dans la mesure où Ethernet classique partage les réseaux, tous les périphériques peuvent propager leur
problème à d’autres périphériques. Si l’un des périphériques connectés au concentrateur génère un trafic
qui peut être nuisible, la communication entre tous les périphériques sur les supports peut être bloquée.
Ce type de trafic préjudiciable peut provenir de paramètres de vitesse ou de transmission bidirectionnelle
simultanée mal définis sur une carte réseau.

Collisions

Avec la méthode d’accès CSMA/CD, un nœud doit toujours envoyer un paquet sauf si le réseau ne
présente pas de trafic. Si deux nœuds envoient des paquets simultanément, une collision se produit, ce qui
entraîne la perte de paquets. Ensuite, les deux nœuds envoient un signal de brouillage, observent un délai
aléatoire, puis retransmettent leurs paquets. Toute partie du réseau dans laquelle les trames de deux nœuds
ou plus peuvent entrer en conflit constitue un domaine de collision. Un réseau comportant un plus grand
Laboratoire CISCO - 84 - Alex Isis MANKAYA
Chapitre 9 : Ethernet

nombre de nœuds sur le même segment présentera un domaine de collision plus important, et
généralement plus de trafic. Au fur et à mesure que le trafic augmente sur le réseau, les risques de
collisions augmentent également.

Les commutateurs apportent une solution aux environnements basés sur des restrictions de partage de
supports d’Ethernet classique.

9.5.2 Ethernet moderne : utilisation des commutateurs


Ces dernières années, les commutateurs ont pris une place prépondérante dans de nombreux réseaux. Les
commutateurs permettent la segmentation du LAN en domaines de collisions distincts. Chaque port du
commutateur représente un domaine de collision à part et fournit la bande passante totale du support
jusqu’aux nœuds connectés sur ce port. Avec un plus petit nombre de nœuds dans chaque domaine de
collision, la bande passante moyenne disponible augmente pour chaque nœud, et le nombre de collisions
diminue.

Un réseau LAN peut avoir un commutateur centralisé connecté à des concentrateurs qui continuent à
fournir la connectivité aux nœuds. Par ailleurs, tous les nœuds d’un réseau local peuvent être connectés
directement à un commutateur. Ces topologies sont présentées dans la figure.

Dans un réseau local (LAN) où un concentrateur est connecté au port d’un commutateur, la bande
passante continue à être partagée, ce qui peut générer des collisions dans l’environnement partagé du
concentrateur. Toutefois, le commutateur isolera le segment de manière à limiter les collisions au trafic
entre les ports du commutateur.

Laboratoire CISCO - 85 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Les nœuds sont directement connectés

Dans un réseau local (LAN) où tous les nœuds sont connectés directement au commutateur, le débit du
réseau augmente considérablement. Les raisons de ce phénomène sont les suivantes :
 Bande passante dédiée sur tous les ports
 Environnement sans collision
 Transmission bidirectionnelle simultanée

Ces topologies physiques en étoile ne sont autres que des liaisons de point à point.

Bande passante dédiée

Chaque nœud dispose de la bande passe totale du support pour sa connectivité au commutateur. Étant
donné qu’un concentrateur réplique les signaux qu’il reçoit, puis les envoie à tous les autres ports, les
concentrateurs d’Ethernet classique forment un bus logique. Cela implique que tous les nœuds doivent
partager la bande passante de ce bus. Avec les commutateurs, chaque périphérique bénéficie d’une
connectivité point à point au commutateur, sans restriction de partage d’accès aux supports.

Comparons par exemple deux réseaux locaux (LAN) de 100 Mbits/s, chacun comportant 10 nœuds. Dans
le segment de réseau A, ces 10 nœuds sont connectés à un concentrateur. Chaque nœud partage la bande
passante disponible de 100 Mbits/s. Ainsi, chaque nœud bénéficie d’un débit de 10 Mbits/s en moyenne.
Dans le segment de réseau B, les 10 nœuds sont connectés à un commutateur. Dans ce segment,
l’ensemble de nœuds dispose de toute la bande passante de 100 Mbits/s.

Même dans cet exemple de réseau de petite taille, l’augmentation de la bande passante peut être
considérable. Au fur et à mesure que le nombre de nœuds augmente, l’écart entre les disponibilités de
bande passante dans les deux mises en œuvre se creuse.

Environnement sans collision

Une connexion point à point à un commutateur permet également de partager les supports sans restriction
et de réduire, voire supprimer, le nombre de collisions rencontrées sur un nœud. Dans un réseau Ethernet
classique de taille moyenne utilisant des concentrateurs, environ 40 à 50 % de la bande passante sont
consommées par une reprise sur collision. Dans un réseau Ethernet commuté où les collisions ne
surviennent quasiment jamais, la logistique associée à la reprise sur collision est inexistante. Cela permet
au réseau commuté d’atteindre des débits beaucoup plus élevés.

Laboratoire CISCO - 86 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Transmission bidirectionnelle simultanée

L’utilisation de commutateurs permet à un réseau de fonctionner en tant qu’environnement Ethernet de


transmission bidirectionnelle simultanée. Avant que les commutateurs n’existent, Ethernet ne fonctionnait
qu’en mode bidirectionnel non simultané. À tout moment, un nœud pouvait soit transmettre soit recevoir,
mais pas les deux à la fois. Avec la communication bidirectionnelle simultanée, les périphériques
connectés directement aux ports des commutateurs peuvent transmettre et recevoir simultanément des
données, en utilisant toute la bande passante.

La connectivité entre le périphérique et le commutateur est mise en œuvre sans collision. De ce fait, la
vitesse de transmission est doublée par rapport à la communication bidirectionnelle non simultanée. Par
exemple, si la vitesse du réseau est de 100 Mbits/s, chaque nœud peut à la fois transmettre et recevoir une
trame à cette vitesse.

Utilisation des commutateurs à la place des concentrateurs

La plupart des réseaux Ethernet ont des commutateurs comme périphériques finaux et fonctionnent en
mode bidirectionnel simultané. Étant donné que les commutateurs offrent des débits beaucoup plus élevés
que les concentrateurs et améliorent considérablement les performances, pourquoi ne pas les utiliser dans
tous les réseaux locaux Ethernet ? Les concentrateurs sont encore utilisés, principalement pour les trois
raisons suivantes :
 La disponibilité : il a fallu attendre le début des années 90 pour voir apparaître les premiers
commutateurs LAN qui n’ont été commercialisés que dans le milieu des années 90. Les premiers
réseaux Ethernet, qui utilisaient des concentrateurs UTP, les ont conservés jusqu’à aujourd’hui.
 Le coût : au départ les commutateurs étaient très chers. Plus les commutateurs sont accessibles en
termes de prix, puis les concentrateurs tendent à disparaître ; le coût devient donc un facteur
déterminant dans les décisions de déploiement.
 La configuration requise : les premiers réseaux LAN étaient de simples structures conçues pour
échanger des fichiers et des imprimantes. Dans la plupart des cas, ils ont laissé la place à des
Laboratoire CISCO - 87 - Alex Isis MANKAYA
Chapitre 9 : Ethernet

réseaux multiservices modernes, d’où la croissance des besoins utilisateurs en bande passante
disponible. Toutefois, dans certains cas, un concentrateur de supports partagés peut suffire et ce
type de produit est toujours en vente.

Dans la section suivante, nous nous intéresserons au fonctionnement de base des commutateurs et à la
façon dont ils permettent d’optimiser les performances dont nos réseaux dépendent tant aujourd’hui. L’un
des cours suivants présente les commutateurs et les technologies qui y sont associées.

9.6.3 Commutateur : un réacheminement sélectif


Les commutateurs Ethernet transfèrent de manière sélective des trames individuelles d’un port récepteur
au port sur lequel le nœud de destination est connecté. Ce processus de réacheminement sélectif peut se
comparer à la création d’une connexion point à point momentanée entre les nœuds de transmission et de
réception. Cette connexion ne dure que le temps d’envoyer une trame unique. Durant ce laps de temps, les
deux nœuds disposent de l’intégralité de la bande passante et représentent une connexion point à point
logique.

Pour être exact, cette connexion temporaire n’est pas simultanée entre les 2 nœuds. Par essence, c’est ce
qui fait de la connexion entre les hôtes une connexion point à point. En fait, chaque nœud qui fonctionne
en mode bidirectionnel simultané peut transmettre à chaque fois qu’il a une trame, sans tenir compte de la
disponibilité du nœud de réception. En effet, un commutateur LAN met en mémoire tampon une trame
entrante afin de l’envoyer au port correspondant une fois désactivé. Ce processus s’appelle stockage et
retransmission.

Grâce à la commutation par stockage et retransmission, le commutateur reçoit la trame complète, vérifie
si la séquence de contrôle de trame (FSC) contient des erreurs, puis transmet la trame au port approprié du
nœud de destination. Les nœuds ne sont pas contraints d’attendre que le support soit inactif et peuvent
donc envoyer et recevoir des messages à la vitesse maximale des supports, sans risque de pertes dues à
des collisions ou à la logistique associée à la gestion des collisions.

La retransmission est basée sur l’adresse MAC de destination

Le commutateur gère une table, appelée table MAC qui mappe les adresses MAC de destination aux ports
utilisés pour la connexion aux nœuds. Pour chaque trame entrante, l’adresse MAC de destination figurant
dans l’en-tête de trame est comparée à la liste des adresses de la table MAC. Lorsqu’un numéro de port
répertorié dans la table est mappé à l’adresse MAC, il est utilisé comme port de sortie de la trame.

La table MAC peut porter différents noms. Elle est souvent appelée table de commutation. La
commutation étant dérivée d’une ancienne technologie appelée routage transparent, on utilise parfois
l’expression table de pont. C’est la raison pour laquelle de nombreux processus exécutés par des
commutateurs LAN peuvent contenir des termes tels que pont ou routage dans leur nom.

Le pont était le moyen le plus fréquemment utilisé, au début de la technologie LAN, pour connecter deux
segments physiques d’un réseau. Les commutateurs permettent de réaliser cette opération. Ils permettent
également la connectivité des périphériques finaux au réseau local. De nombreuses autres technologies
ont été développées autour de la commutation LAN. La plupart seront présentées dans un prochain cours.
Les ponts sont particulièrement répandus dans les réseaux sans fil. Les ponts sans fil permettent
l’interconnexion de deux segments d’un réseau sans fil. Par conséquent, vous pouvez rencontrer les deux
termes : commutation et routage dans le domaine des réseaux.

Laboratoire CISCO - 88 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Fonctionnement des commutateurs

Pour accomplir leurs tâches, les commutateurs LAN Ethernet utilisent cinq fonctions de base :
 L’apprentissage
 L’horodatage
 L’inondation
 Le réacheminement sélectif
 Le filtrage

Apprentissage

La table MAC doit contenir des adresses MAC ainsi que les ports correspondants. Le processus
d’apprentissage permet l’acquisition dynamique de ces mappages en mode de fonctionnement normal.

Chaque fois qu’une trame entre dans le commutateur, celui-ci examine son adresse MAC source. Une
procédure de recherche permet au commutateur de déterminer si la table contient déjà une entrée pour
l’adresse MAC concernée. Si l’entrée n’existe pas, le commutateur en crée une nouvelle dans la table
MAC, à l’aide de l’adresse MAC source, et associe cette adresse au port d’arrivée de la trame. Par la
suite, le commutateur pourra utiliser ce mappage pour transmettre des trames à ce nœud.

Horodatage

Les entrées de la table MAC qui sont acquises à l’aide du processus d’apprentissage sont horodatées.
L’horodatage permet de supprimer les entrées les plus anciennes d’une table MAC. Après chaque entrée
dans la table MAC, un compte à rebours est lancé. Cette procédure utilise l’horodatage comme valeur de
début. Une fois la valeur 0 atteinte, l’entrée de la table sera actualisée la prochaine fois que le
commutateur recevra une trame en provenance de ce nœud sur le même port.

Inondation

Quand un commutateur ne sait pas sur quel port envoyer une trame parce que l’adresse MAC de
destination ne figure pas dans la table MAC, il envoie la trame à tous les ports, à l’exception du port
d’arrivée de la trame. Ce processus d’envoi de la trame à tous les segments s’appelle inondation. Le
commutateur ne transmet pas la trame au port d’arrivée de la trame car toutes les destinations sur ce
segment l’ont déjà reçue. L’inondation est également utilisée pour les trames envoyées à l’adresse MAC
de diffusion.

Laboratoire CISCO - 89 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Réacheminement sélectif

Le réacheminement sélectif est un processus permettant l’analyse de l’adresse MAC de destination d’une
trame et sa retransmission vers le port approprié. C’est la fonction principale du commutateur.
Lorsqu’une trame provenant d’un nœud arrive sur le commutateur et que ce dernier connaît déjà l’adresse
MAC, cette adresse est associée à une entrée figurant dans la table MAC, ce qui permet l’acheminement
de la trame au port correspondant. Au lieu d’inonder tous les ports, le commutateur envoie la trame au
nœud de destination via son port désigné. Cette action est appelée réacheminement.

Filtrage

Dans certains cas, une trame n’est pas transmise. C’est ce que l’on appelle le filtrage de trame. L’une des
utilisations du filtrage a déjà été présentée : un commutateur ne réacheminera pas une trame vers son port
d’arrivée. En outre, il abandonnera également une trame si elle est endommagée. Si le contrôle de
redondance cyclique (CRC) échoue, la trame est abandonnée. Les trames sont également filtrées pour des
raisons de sécurité. Un commutateur possède des paramètres de sécurité qui permettent de bloquer les
trames à destination et/ou en provenance de certaines adresses MAC ou de ports spécifiques.

9.7 Protocole ARP (Address Resolution Protocol)

9.7.1 Processus ARP : mappage d’adresses IP à des adresses MAC


Le protocole ARP assure deux fonctions de base :
 la résolution des adresses IPv4 en adresses MAC,
 la conservation en mémoire cache des mappages.

Résolution des adresses IPv4 en adresses MAC

À chaque trame placée sur un support LAN doit correspondre une adresse MAC de destination. Quand un
paquet est envoyé à la couche liaison de données pour être encapsulé dans une trame, le nœud désigne
une table dans sa mémoire pour y trouver l’adresse de couche liaison de données qui est mappée à
l’adresse IPv4 de destination. Cette table est appelée table ARP, ou cache ARP. La table ARP est stockée
dans la mémoire vive (RAM) du périphérique.

Chaque entrée ou ligne de la table ARP comporte deux valeurs : une adresse IP et une adresse MAC. La
relation entre les deux valeurs s’appelle une mise en correspondance : ce qui signifie simplement que si
vous choisissez une adresse IP dans la table vous y trouverez l’adresse MAC correspondante. La table
ARP garde en mémoire cache le mappage des périphériques du réseau local (LAN).

Pour lancer la procédure, un nœud émetteur tente de trouver l’adresse MAC associée à une adresse IPv4
de destination, dans la table ARP. Si ce mappage est dans la mémoire cache de la table, le nœud utilise
Laboratoire CISCO - 90 - Alex Isis MANKAYA
Chapitre 9 : Ethernet

l’adresse MAC comme destination MAC dans la trame qui encapsule le paquet IPv4. La trame est ensuite
codée sur le support réseau.

Mise à jour de la table ARP

La table ARP est mise à jour de manière dynamique. Un périphérique dispose de deux méthodes pour
obtenir des adresses MAC. La première consiste à surveiller le trafic sur le segment du réseau local.
Quand un nœud reçoit des trames en provenance du support, il enregistre les adresses IP source et MAC
dans la table ARP sous forme de mappage. Au fur et à mesure que les trames sont transmises sur le
réseau, le périphérique remplit la table ARP de paires d’adresses.

La seconde méthode permettant à un périphérique d’obtenir une paire d’adresse consiste à diffuser une
requête ARP. Le protocole ARP envoie un message de diffusion de couche 2 à tous les périphériques du
LAN Ethernet. La trame contient un paquet de requête ARP comportant l’adresse IP de l’hôte de
destination. Lorsqu’un nœud reçoit la trame et identifie sa propre adresse IP, il répond en envoyant un
paquet réponse ARP à l’expéditeur, sous la forme d’une trame monodiffusion (à une seule adresse MAC).
Cette réponse permet de créer une nouvelle entrée dans la table ARP.

Ces entrées dynamiques de la table MAC sont horodatées de la même façon que les entrées de la table
MAC sur les commutateurs. Si le périphérique ne reçoit de trame d’aucun périphérique avant expiration
de l’horodatage, l’entrée correspondante est supprimée de la table ARP.

Des entrées statiques de mappage peuvent également être ajoutées dans une table ARP, mais ceci ne se
produit que rarement. Les entrées statiques de la table ARP expirent avec le temps et elles doivent être
supprimées manuellement.

Création de la trame

Que fait un nœud lorsqu’il doit créer une trame et que le cache ARP ne contient pas la correspondance
entre une adresse IP et l’adresse MAC de destination ? Quand le protocole ARP reçoit une requête de
mappage entre une adresse IPv4 et une adresse MAC, il recherche le mappage stocké en mémoire cache
dans sa table ARP. S’il ne trouve pas d’entrée, l’encapsulation du paquet IPv4 échoue, et les processus de
la couche 2 informent le protocole ARP qu’un mappage est nécessaire.

Les processus ARP envoient alors un paquet de requête ARP pour trouver l’adresse MAC du
périphérique de destination sur le réseau local. Si le périphérique qui reçoit la requête possède l’adresse IP
de destination, il répond à l’aide d’une réponse ARP. Une entrée est créée dans la table ARP. Les paquets
à destination de cette adresse IPv4 peuvent à présent être encapsulés dans des trames.

Si aucun périphérique ne répond à la requête ARP, le paquet est abandonné car il est impossible de créer
une trame. L’échec de l’encapsulation est signalé aux couches supérieures du périphérique. Dans le cas
d’un périphérique intermédiaire, comme un routeur, les couches supérieures peuvent choisir de répondre à
l’hôte source en générant une erreur dans un paquet ICMPv4.

Laboratoire CISCO - 91 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Au cours des travaux pratiques, vous utiliserez Wireshark pour observer la transmission des requêtes et
des réponses ARP sur un réseau.

9.7.2 Le processus ARP : destinations externes au réseau local


Toutes les trames doivent être remises à un nœud sur un segment du réseau local. Si l’hôte IPv4 de
destination se trouve sur le réseau local, la trame utilise l’adresse MAC de ce périphérique comme adresse
MAC de destination.

Si l’hôte IPv4 de destination ne se trouve pas sur le réseau local, le nœud source doit livrer la trame à
l’interface du routeur qui sert de passerelle ou de saut suivant pour atteindre cette destination. Le nœud
source utilise l’adresse MAC de la passerelle comme adresse de destination, pour les trames contenant un
paquet IPv4 adressé à des hôtes situés sur d’autres réseaux.

L’adresse de passerelle de l’interface du routeur est stockée dans la configuration IPv4 des hôtes.
Lorsqu’un hôte crée un paquet pour une destination, il compare l’adresse IP de destination à sa propre
adresse IP pour déterminer si les deux adresses IP se situent sur le même réseau de la couche 3. Si l’hôte
destinataire ne se situe pas sur le même réseau, l’hôte source fait appel au processus ARP pour déterminer
l’adresse MAC de l’interface du routeur qui sert de passerelle.

Si l’entrée de la passerelle n’est pas dans la table, le processus ARP normal envoie une requête ARP pour
retrouver l’adresse MAC associée à l’adresse IP de l’interface du routeur.

Laboratoire CISCO - 92 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Proxy ARP

Dans certains cas, un hôte peut envoyer une requête pour tenter de mapper une adresse IPv4 qui se trouve
en dehors de la plage d’adresses d’un réseau local. Dans ces cas, le périphérique envoie une requête ARP
pour rechercher les adresses IPv4 qui n’appartiennent pas au réseau local, au lieu de demander l’adresse
MAC associée à l’adresse IPv4 de la passerelle. Pour fournir l’adresse MAC de ces hôtes, l’interface du
routeur peut utiliser un Proxy ARP pour répondre au nom de ces hôtes distants. Cela signifie que le cache
ARP du périphérique à l’origine de la requête contient l’adresse MAC de la passerelle associée aux
adresses IP externes au réseau local. Le Proxy ARP permet à l’interface du routeur de se comporter
comme un hôte possédant l’adresse IPv4 demandée dans la requête ARP. En « falsifiant » son identité, le
routeur accepte d’acheminer les paquets vers la destination « réelle ».

Cela peut s’avérer utile lorsqu’une mise en œuvre antérieure d’iPv4 ne parvient pas à déterminer si l’hôte
de destination est situé sur le même réseau logique que l’hôte source. Dans ce cas, le protocole ARP
envoie systématiquement des requêtes ARP pour rechercher l’adresse IPv4 de destination. Si le Proxy
ARP est désactivé sur l’interface du routeur, les hôtes ne peuvent pas communiquer en dehors du réseau
local.

Le Proxy ARP est également utilisé lorsque l’hôte source se croit directement connecté au même réseau
logique que l’hôte de destination. Cela se produit généralement lorsqu’un hôte est configuré avec un
masque incorrect.

Comme l’indique la figure, l'Hôte A est configuré avec un masque de sous réseau /16, ce qui est incorrect.
L’hôte pense être connecté directement à l’ensemble du réseau 172.16.0.0 /16, et non au sous réseau
172.16.10.0 /24.

Lorsqu’il tente de communiquer avec un hôte IPv4 dont l’adresse appartient à la plage allant de
172.16.0.1 à 172.16.255.254, l'Hôte A envoie une requête ARP pour rechercher cette adresse IPv4. Le
routeur peut utiliser un Proxy ARP pour répondre aux requêtes concernant l’adresse IPv4 de l'Hôte C
(172.16.20.100) et de l'Hôte D (172.16.20.200). Par la suite, l'Hôte A aura des entrées pour ces adresses
associées à l’adresse MAC de l’interface e0 du routeur (00-00-0c-94-36-ab).

Un Proxy ARP peut également être utilisé quand un hôte n’est pas configuré avec une passerelle par
défaut. Le Proxy ARP peut aider les périphériques d’un réseau à atteindre des sous réseaux distants, sans
qu’il soit nécessaire de configurer le routage ou une passerelle par défaut.

Par défaut, les routeurs Cisco prennent en charge le Proxy ARP sur des interfaces LAN.

http://www.cisco.com/en/US/tech/tk648/tk361/technologies_tech_note09186a0080094adb.shtml

Laboratoire CISCO - 93 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

9.7.3 Processus ARP : suppression de mappages d’adresses


Pour chaque périphérique, un compteur de cache ARP supprime les entrées ARP qui n’ont pas été
utilisées pendant une période donnée. Cette période varie en fonction des périphériques et des systèmes
d’exploitation. Par exemple, certains systèmes d’exploitation Windows stockent les entrées du cache ARP
pendant 2 minutes. Si l’entrée est réutilisée pendant ce laps de temps, le compteur ARP de cette entrée
passe à 10 minutes.

Des commandes permettent aussi de supprimer manuellement les entrées de la table ARP totalement ou
partiellement. Lorsqu’une entrée est supprimée, le processus d’envoi d’une requête ARP et de réception
d’une réponse ARP doit être répété pour entrer le mappage dans la table ARP.

Au cours des travaux pratiques correspondant à cette section, vous utiliserez la commande ARP pour
afficher le contenu du cache ARP d’un ordinateur. Notez que cette commande, malgré son nom, ne
permet pas d’appeler l’exécution du protocole ARP. Elle sert simplement à afficher, ajouter ou supprimer
des entrées de la table ARP. Le service ARP est intégré au protocole IPv4 et mis en œuvre par le
périphérique. Cette opération est transparente pour les utilisateurs et les applications des couches
supérieures.

9.7.4 Diffusion ARP et problèmes


Surcharge des supports

Comme les trames de diffusion, les requêtes ARP sont reçues et traitées par chaque périphérique du
réseau local. Sur un réseau d’entreprise type, ces diffusions auraient probablement une incidence minime
sur les performances du réseau. Toutefois, si un grand nombre de périphériques sont mis sous tension et
accèdent aux services du réseau au même moment, les performances du réseau peuvent s’en trouver
réduites, sur un court laps de temps. Par exemple, si tous les participants d’une salle de travaux pratiques
se connectent sur les ordinateurs et tentent d’accéder à Internet en même temps, cela peut engendrer des
délais d’attente.

En revanche, si les périphériques envoient les messages de diffusion ARP initiaux et disposent des
adresses MAC nécessaires, l’impact sur le réseau sera minime.

Laboratoire CISCO - 94 - Alex Isis MANKAYA


Chapitre 9 : Ethernet

Sécurité

Dans certains cas, l’utilisation du protocole ARP peut porter atteinte à la sécurité du réseau. L’usurpation
ARP ou empoisonnement ARP, est une technique d’attaque qui consiste à injecter un faux mappage
d’adresse MAC dans un réseau en émettant de fausses requêtes ARP. Si un pirate informatique usurpe
l’adresse MAC d’un périphérique, les trames risquent d’être envoyées à la mauvaise destination.

La configuration manuelle des associations ARP statiques permet d’éviter l’usurpation ARP. Les adresses
MAC autorisées peuvent être configurées sur certains périphériques du réseau pour limiter l’accès réseau
aux seuls périphériques listés.

9.8 Résumé du chapitre

9.8.1 Résumé et révision


Ethernet est un protocole TCP/IP d’accès au réseau efficace et très répandu. Sa structure de trame
commune a été mise en œuvre sur toute une gamme de technologies de support, en cuivre et en fibre, ce
qui en fait le protocole LAN le plus répandu de nos jours.

Conformément aux spécifications des normes IEEE 802.2/3, la trame Ethernet fournit un adressage MAC
et un contrôle des erreurs. Ethernet étant une technologie de supports partagés, les premières versions
devaient appliquer une méthode CSMA/CD pour gérer le partage des supports entre plusieurs
périphériques. Le remplacement des concentrateurs par des commutateurs sur le réseau local a permis de
réduire les risques de collision de trames dans les liaisons bidirectionnelles non simultanées. En revanche,
les versions d’Ethernet actuelles et à venir fonctionnent comme des liaisons de communication
bidirectionnelle simultanée et n’ont plus besoin de gérer les restrictions de partage de supports.

L’adressage de la couche 2 fourni par Ethernet prend en charge les différents types de communications :
monodiffusion, diffusion et multidiffusion. Ethernet utilise le protocole ARP pour déterminer les adresses
MAC de destination et les mapper à des adresses de couche de réseau connues.

9.8.2 Approfondissement des connaissances : questions de réflexion

Décrivez l’évolution d’Ethernet et son développement depuis la technologie LAN jusqu’aux technologies
MAN et WAN. Comment cela a-t-il été possible ?

Initialement conçu pour les réseaux de communication de données, Ethernet est à présent aussi utilisé
dans les réseaux de contrôle industriel en temps réel. Décrivez les défis techniques et opérationnels
qu’Ethernet devra relever avant de pouvoir être utilisé pleinement dans ce domaine.

Laboratoire CISCO - 95 - Alex Isis MANKAYA

Vous aimerez peut-être aussi