Vous êtes sur la page 1sur 16

LES RESEAUX LOCAUX ET LES STANDARDS IEEE

I. Les standards de IEEE


La couche Accès Réseau du modèle TCP/IP regroupe les couches physique et liaison de
données du modèle OSI. Mais les spécifications de cette couche au niveau du modèle TCP/IP
n’ont pas été vraiment définies. L'implémentation de cette couche est laissée libre de sorte
que chaque constructeur avait sa technologie, ses normes, spécifications et protocoles
propriétaires permettant d’encapsuler des paquets IP et de les sur le réseau.
Face à une telle situation qui ne permettait pas une interopérabilité des systèmes réseaux, plusieurs
organismes et structures ont décidé de travailler pour ajouter aux spécifications du modèle OSI, des
normes visant à standardiser les équipements et les communications réseaux. Au nombre de ces
organismes, nous avons l’IEEE.

L’IEEE (Institut of Electrical and Electronic Engineers) est un organisme professionnel


Américain regroupant Ingénieurs, Chercheurs et étudiants ; et ayant comme objectif de
mettre au point des normes dans le domaine de l'électricité et l'électronique pour assurer la
compatibilité entre les différents matériels produits par les fabricants.

L’IEEE est à l’origine de la normalisation des réseaux locaux. Pour se faire, il a mis en place
en février 1980 une commission qu’il a nommé Commission IEEE 802. Cette commission
d'experts fut donc constituée pour statuer sur une norme commune pour la constitution des
réseaux locaux (LAN) et métropolitains (MAN) afin d'éviter la mise sur le marché
d'innombrables systèmes disparates.

Les travaux de la commission IEEE 802 ont été axés sur la normalisation des deux couches
inférieures (couches 1 et 2) du modèle OSI pour faire communiquer des réseaux hétérogènes.

I.1. Redéfinition de la partie matérielle du modèle OSI


L’IEEE propose la division de toute la partie matérielle du modèle OSI (couches 1 et 2) en
deux parties à savoir :
• Une partie ne dépendant pas de la technologie du média utilisé
• Une partie composée des éléments spécifiques tributaires de la technologie
Cette division va séparer la couche Liaison de données en deux parties que sont :
• LLC : pour la transmission vers le haut jusqu’à la couche réseau
• MAC : transmission vers le bas jusqu’au média

I.2. Les normes 802


Pour atteindre ces objectifs, la commission IEEE 802 a mis en place des sous commissions pour faire
des travaux spécifiques sur des aspects ou des catégories de réseaux locaux et métropolitains.
Le tableau ci-dessous donne une idée des travaux et spécifications de normalisation effectués par
IEEE 802 à travers ses sous commissions.

54
Sous commission /
Travaux / Spécifications
Standard
IEEE 802.1 Interface de haut niveau / architecture générale
IEEE 802.2 Contrôle logique de la liaison (LLC) (OSI niveau 2)
IEEE 802.3 Ethernet CSMA/CD
IEEE 802.4 Jeton sur bus (Token bus)
IEEE 802.5 Jeton sur anneau (Token ring)
IEEE 802.6 Réseaux métropolitains (MAN)
IEEE 802.7 Groupe de conseil technique large bande
IEEE 802.8 Groupe de conseil technique fibre optique
IEEE 802.9 Réseaux à intégration voix et données
IEEE 802.10 Sécurité des réseaux
IEEE 802.11 Réseaux sans fil
IEEE 802.12 100 VGF AnyLAN
IEEE 802.14 Réseaux sur câble télévision CATV

Notons qu’un existe très souvent un lien entre une norme de l’IEEE et celle des
constructeurs. En effet, L’IEEE se base souvent sur la plupart des travaux et réalisations
brillants de certains constructeurs pour créer une norme.
Toutes ces normes permettent de choisir le type de réseaux à mettre en place.
Les standards IEEE 802 sont maintenus par le comité de normalisation LMSC (LAN/MAN
Standards Committee).
Les standards les plus largement répandus sont : Ethernet, Token Ring, WiFi, VLAN et très
récemment le WiMax.

Modèle OSI Standard IEEE

I.3. La couche LLC (IEEE 802.2)


La couche LLC (Logical Link Control) ne dépendant pas de la technologie du matériel utilisé,
est commune (compatible) à toutes les spécifications de protocoles MAC. Elle a pour mission
de gérer les communications entres couches et de contrôler les transmissions. Elle permet de
fiabiliser le protocole MAC.
Elle sert donc d’interface entre les couches supérieures (logiques) et les couches inférieures
(physiques) ; assurant ainsi l'indépendance des logiciels des couches supérieures vis à vis des
caractéristiques physiques du réseau.
La sous couche LLC contrôle la transmission de données à travers l’un de ses trois (3) types
de services que sont :
55
• Services LLC de type 1 : Service sans connexion ; Pas d'acquittement sur erreur ; Pas
de contrôle de flux de données.
Ce type de service implique qu'un contrôle d'intégrité du message soit fait dans l'une
des couches supérieures (généralement en couche transport). En fait, cette couche ne
fait pas grand chose d'autre que d'éliminer les trames erronées ou d’aiguiller les
données provenant de la couche inférieure vers la couche supérieure.
• Services LLC de type 2 : Service orienté connexion ; Acquittement (numérotation) des
trames ; Reprises sur erreur ; Contrôle de flux de données.
Ce service orienté connexion est synonyme de service fiable.

• Services LLC de type 3 : Protocole plus simple que LLC 2 ; Met en place un service avec
acquittements, mais sans connexion ; Moins fiable que LLC2 mais moins coûteux en
temps car moins de données à conserver en vue d'éventuels renvois de trames, etc.

I.4. La couche MAC


La sous couche MAC (Media Access Control) définit les méthodes d’accès au support de
transmission (média). Il s’agit d’une méthode qui permet à plusieurs ordinateurs de partager
un seul canal de communication en bande de base sans normalement interférer entre eux. La
gestion de l’accès au média se fait selon le principe CSMA/CD de la norme IEEE 802.3.
La couche MAC définit le format des trames et offre un ensemble de services à la sous
couche LLC.
La transmission en bande de base consiste à envoyer directement des suites de bits sur le
support à l'aide de signaux carrés constitués par un courant électrique pouvant prendre 2
valeurs (5 Volts ou 0 par exemple).

II. La norme IEEE 802.3 et Ethernet

II.1. Historique
En 1975, la société Xerox présente un système CSMA/CD à 2,94 Mbits/s, sur un câble coaxial
de 1000 mètres de longueur, qui permettait de connecter plus de cent ordinateurs. Ce
système fut appelé : Ethernet (ether pour câble passif et net pour network). Le réseau
Ethernet de Xerox rencontra un tel succès que Xerox, Intel corporation et Digital Equipment
Corporation élaborèrent une norme pour un réseau Ethernet à 10Mb/s appelé DIX Ethernet.
Ce fut la base de travail pour l’IEEE.
En 1985, l’IEEE sortit le standard 802.3 qui concerne les réseaux locaux à écoute de porteuse
et détection de collision.
En 1988, l’IEEE sortent des suppléments au standard 802.3.
A la base, le réseau Ethernet a été mis en œuvre pour une topologie bus avec comme support
de transmission du câble coaxial épais. Mais avec les évolutions du standard IEEE 802.3, il a
été proposé plusieurs autres topologies et supports de transmission dans l’implémentation d’un
réseau Ethernet.
Suppléments de
Désignation
IEEE 802.3
802.3 a 10 Base 2 (coax fin)
802.3 i 10 Base T (paire torsadé)
802.3 f Support fibre optique
802.3 u 100BaseT ou F (Fast Ethernet)
802.3 z 1000 Base T ou F
56
Topologie en bus : 10Base5 : câble coaxial épais.
10Base2 : coaxial fin (le plus simple et le moins cher)

Topologie physique en étoile : Paire torsadé 10BaseT ou 100BaseT


(mais du bus logique) Fibre optique 10BaseFL ,100BaseFL
et surtout 1000BaseFL

En Février 1989, l’ISO (International Standardization Organisation) adopta la norme sous


8802.3. L’ISO fut obligé de revoir son "modèle de référence OSI" pour pouvoir avoir une
correspondance avec la norme 802 de l’IEEE.

II.2. Caractéristiques des réseaux locaux


Un réseau est un dispositif qui permet d’interconnecter différents matériels informatiques
entre eux pour pouvoir échanger de l'information.
Le but premier d’un réseau local est économique : il permet de partager les ressources
matérielles et logicielles entre les différents postes et utilisateurs.

Les réseaux locaux ont les caractéristiques communes suivantes :


• liaison multipoint symétrique
• diffusion
• distance limitée
• haut débits.
Liaison multipoint symétrique : multipoint signifie qu’il y a plusieurs entrées sur la liaison
(média). Symétrique signifie que tous les équipements reliés doivent pouvoir discuter
directement et librement entre eux sans aucun privilège ou de gestion centralisée. Ce qui
implique donc d’établir des méthodes d’accès à la parole pour que chacun puisse parler.
Diffusion : lorsque qu’un poste émet, tous les autres peuvent recevoir. Naturellement, une
exception sera faite dans le cas de réseaux locaux commutés.
Distance limitée : on se limite à l'entité (société, bâtiment, …). Soit au maximum quelques
kilomètres (2 km). L’objectif étant de partager des équipements, cette distance est
suffisante.
Haut débit : Possibilité d’atteindre des débits élevés ; de 10 Mbits/s à 1 Gbits/s, avec des
taux d'erreurs très faibles.

II.3. Méthode d’accès : CSMA/CD

Une méthode d’accès est un ensemble de règles définissant la façon dont un ordinateur envoie
des données sur le canal de communication et récupère des données provenant de celui-ci. La
finalité étant de ne pas provoquer des interférences (collisions) entre les signaux en limitant
au maximum les possibilités de transmissions simultanées.

La norme 802.3 définie CSMA/CD comme méthode d'accès au support : Carrier Sense
Multiple Access with Collision Detection ou accès multiples avec écoute de porteuse et
détection de collision.
Cette norme a été très rapidement identifiée à Ethernet qui est en réalité un type de réseau
alors que la norme 802.3 décrit une méthode d'accès au support. Mais cela s’explique ; étant
donné que cette norme s’est inspirée de la méthode d'accès CSMA/CD sur un bus qui est
propre à Ethernet.

57
a) Principe de fonctionnement du CSMA/CD
• Une station souhaitant émettre une trame sur le bus, doit d'abord se mettre à
l'écoute de celui-ci grâce à un dispositif de mesure analogique situé dans la carte
réseau qui détecte si une trame passe en ce moment à hauteur de la prise réseau de la
station. Cette opération s'appelle "détection de porteuse" ou "écoute de porteuse" -
"carrier sense"

• Si une trame est détectée, l'émission est différée d’un temps et la station continue en
mode "carrier sense".

• Si aucune trame n'est détectée :


- la carte attend que la période d'absence de trame soit supérieure ou égale au
temps minimum devant exister entre les trames
- s'il n'y a toujours pas d'autres trames passantes, elle émet la sienne tout en
déclenchant un processus d'écoute d'une éventuelle collision. Ce processus
s'appelle en anglais "collision detection".
Soulignons que le processus de détection de collision dure autant que l'émission
de trame et prend fin en même temps qu’elle.

Station prête à Délai Backoff


émettre

Sonde Média occupé

Média libre

Collision
Transmission + Emission de jam
sondage collision

Pas de collision

Transmission
complète

b) Problème de collision
La méthode d’accès CSMA/CD n’est pas à l’abri de collision si certaines précautions ne sont
pas prises.
En effet, deux stations A et B ayant constaté dans les conditions précisées plus haut que le
média est libre, peuvent très bien commencer à émettre simultanément ou avec un léger
décalage.

58
Le signal émis par chacune des deux stations met toujours un certain temps pour parvenir à
l'autre. Ainsi, pendant tout le temps mis par la trame de A pour parvenir à B, la station B
n'entendra rien sur le média et décidera d’émettre aussi. Il s’en suivra une collision inévitable.

c) Détection et gestion de collision par les stations


Supposons qu’il y a eu collision et que les deux stations l’ont détecté (on reviendra par la suite
sur comment une collision est détectée par les stations émettrices).
Les stations émettrices :
- Suspendent leur émission.
- Génèrent une séquence de 32 bits appellée "séquence de brouillage" ou "jam sequence"
qui a pour but de créer un état de collision assez long pour qu'il puisse être détecté par
une autre station émettrice.
- Si la collision se produit au tout début de la trame, les stations émettrices doivent
d'abord terminer l'émission du préambule de trame (on y reviendra) avant de générer la
séquence "jam".
- Après constatation de la collision, la station émettrice génère aléatoirement un délai
d'attente - backoff delay - avant de procéder à un nouvel essai d'émission.
- Si des collisions se répètent souvent, un compteur existe dans chaque carte d'interface
et le backoff est automatiquement augmenté.
- Dès qu'une trame est reçue convenablement, le compteur de collisions est remis à zéro et
le backoff est rétabli à sa valeur nominale.

Nota : Après une collision, le temps est divisé en slots de 2ζ secondes (où ζ représente le
double du plus long temps de propagation). Avant de pouvoir retransmettre sa trame, chaque
station doit attendre un nombre aléatoire de slots compris entre 0 et 2i - 1 (bornes incluses),
où i est le nombre de collisions déjà enregistrés. L’algorithme de backoff est donc un
algorithme exponentiel.

c) Possibilité de non détection de collision : collision tardive


Dans CSMA/CD, le processus de détection de collision se passe pendant l’émission de trame
et dure autant qu’elle.
Supposons la situation extrême suivante : A et B sont deux stations assez éloignées l’une de
l’autre dans le réseau. Les deux stations constatent que le média est libre.
A envoie une trame à B. Alors que cette trame est presque arriver à B, celle-ci décide
d’envoyer à son tour une trame, n'ayant pas encore entendu la trame qui lui arrive de A.

Il se produit très vite une collision entre les deux trames. B entend presque aussitôt cette
collision puisque l'accident a eu lieu très près d'elle. Elle envoie alors une séquence jam sur le
réseau. Mais A n'entendra la collision que lorsque la séquence jam lui parviendra. Autrement,
lorsque cette séquence aura retraversée le réseau de B en A.

Si au moment où la collision arrive à A, la station A, a déjà fini depuis d'émettre sa trame,


elle n’écoute plus les collisions. Elle ne se rendra donc jamais compte que sa trame a fait une
collision et a été détruite. Elle ne va donc pas la réémettre.

59
Pour éviter de pareilles situations, il a été mis en place un certain nombre de règles et
principes à savoir :
1. L’émission d’une trame doit durer un temps au moins égal au double du délai de
propagation entre les stations les plus extrêmes. Se temps sera appelé slot time
2. Dans un réseau Ethernet, le slot time correspond à la durée d’émission de 512 bits à un
débit de 10 M bit/s ou 100 M bit/s ; ou 4096 bits en Ethernet Gigabit.
On déduit de ces contraintes que la longueur minimale d’une trame Ethernet doit être de 64
octets (i.e. 512 bits/8)
Connaissant la vitesse de propagation du signal sur le câble, on peut en déduire également le
Diamètre d’un réseau (distance entre les deux stations les plus éloignées).
Le temps mis par le signal pour parcourir cette distance est appelé temps de propagation et
est équivalent à la moitié du slot time.

Le slot time (donc le temps de propagation) peut être influencé par :


• Le délai de propagation du signal sur les câbles (200 000 km/s environ)
• des retards introduits par les raccordement (hubs, répéteurs, etc. )
• des retards dus à l'électronique des cartes réseau des stations.

Exemples pratiques

Situation n°1
En négligeant le retard introduit par les cartes, répéteurs, hubs, etc., calculer le diamètre du
réseau (en mètres) pour Ethernet 10Mbit/s, 100Mbit/s et 1Gbit/s.
Vitesse de déplacement dans le support : 200 000 km/s.

Réponses :
Ethernet 10 M bit/s :
512 bits passent en 51,2 microsecondes à 10 M bit/s
Pendant ce temps ils parcourent 200 * 51,2 = 10 240 m
Diamètre : 10 240 / 2 = 5 120 m : environs 5000 m maximum

Ethernet 100 M bit/s


Même raisonnement : environ 500 m (maximum).

Ethernet 1 G bit/s
4096 bits passent en 4,096 microsecondes à 1 G bit/s
Pendant ce temps ils parcourent 200 * 4,096 = 819,2 m
Diamètre : 819 / 2 = 410 m : environ 400 m (maximum).

Nota : Retenons qu’en général, on est largement en dessous de ces valeurs dans la réalité.

60
Situations n°2
Considérons deux stations A et B se trouvant sur un même segment Ethernet de débit c=
100Mbits/s. La distance séparant A et B est d = 800 mètres.
La vitesse de propagation du signal sur le lien est de v = 200 000 Km/s.
Les deux stations ayant constaté que le canal est libre, décident d’émettre.
A t=0s, A émet une trame de 400 bits.
A t’=2µs, B émet une trame de 300 bits
Il y aura-t-il collision ? quelle(s) station(s) s’en rendra (rendront) compte entre A et B ?
Solution
Connaissant c=100Mbits/s, on en déduit le temps, (la durée) nécessaire à chaque station pour
émettre sa trame.
DtA = 400 bits/c donc DtA = 400 x 10-8s = 4.10-6s DtA = 4 µs
-8 -6
DtB = 300 bits/c donc DtB = 300 x 10 s = 3.10 s DtB = 3 µs

La valeur 4 µs de DtA prouve effectivement que A continue d’émettre au moment où B a


décidé d’émettre (à t’=2µs). Donc il y aura donc collision sur le canal.

Il faudra maintenant voir si la collision est détectée par les stations.


A partir de la vitesse v de propagation du signal sur le média, nous allons calculer le temps de
propagation d’un bit entre A et B. Soit Tp ce temps, on a :
d=Tp x v d’où Tp=d/v
Tp=800/2. 10 = 4. 10-6s
8
donc Tp=4.10-6s = 4 µs

La station B ayant commencé d’émettre 2µs après la station A, le premier bit de A aura fait la
moitié du chemin (soit 400m) quand B va commencer à émettre.
Les signaux se propageant en sens inverse mais à la même vitesse ; la collision aura lieu à
200m de B et à 600m de A.

En ce moment, il serait se serait écoulé exactement:


600/2. 108 = 3µs depuis le début d’émission de trame par A
200/2. 108 = 1µs depuis le début d’émission de trame par B

Pour qu’une station constate la collision et faudra que la perturbation fasse le chemin inverse
jusqu’à elle. Donc 600m pour parvenir à A et 200m pour parvenir à B.

Ce qui fait au total :


pour A : 2 x 3 µs = 6 µs depuis le début d’émission de sa trame
pour B : 2 x 1 µs = 2 µs depuis le début d’émission de sa trame

6 µs < DtA alors lorsque la propagation parviendra à la station A, elle aura cessé d’émettre
depuis. Donc A ne détectera pas la collision

2 µs > DtB alors lorsque la propagation parviendra à la station A, elle aura cessé d’émettre
depuis. Donc A ne détectera pas la collision

Le diagramme spatio-temporel ci-dessous résume toute la situation

61
II.4. Temps inter-trame
Le temps inter-trame est appelé indifféremment Inter Frame Space ou Inter Frame Gap.
C’est le temps qui sépare l’émission du dernier bit d’une trame de celle du premier bit de la
trame suivante.
Une machine ne peut émettre toutes les trames qu'elle a à transmettre les unes à la suite des
autres. Le temps inter-trame correspond au temps minimum de retour au repos du média
(permet à garantir que le média est définitivement libre). Il permet de bien séparer les
trames successives et aux autres stations de prendre éventuellement la main.
Le temps inter-trame normalisé correspond au temps d’émission de 96 bits à 10Mbps. Soit 9,6
microsecondes à 10Mbps et 0,96 microsecondes à 100Mbps.

II.5. Format d’une trame


Au niveau des trames, la normalisation IEEE 802 définit un format de trame légèrement
différent de celui du véritable Ethernet. Ainsi, le RFC 894 définit les trames Ethernet et le
RFC 1042 définit celles des réseaux IEE 802.
Deux types de trames sont donc reconnus :
• les trames Ethernet II
• les trames Ethernet IEEE 802.3

62
Préambule : Le préambule est une suite de 0 et de 1 alternés. Il permet de repérer le début
de chaque trame et permet à l'horloge du récepteur de se synchroniser sur celle de
l'émetteur. Même si la norme IEEE 802.3 a spécifié un champ spécifique en fin de préambule
: SOF (Start of Frame) avec 2 bits à 1, il n'y a aucune différence avec le standard Ethernet
v2.0 pour lequel les 2 derniers bits du préambule sont aussi à 1.
7 fois 10101010 + une fois 10101011
Les adresses : adresses MAC identifiant le ou les destinataire(s) de la trame puis l'émetteur.
Elles sont constituées de 6 octets.
• Les 3 premiers octets font référence au constructeur de l'interface. Ils sont uniques
et sont attribués par l'IEEE.
• Les 3 octets suivants donnent le numéro d'interface chez ce constructeur.
L'adresse source est toujours celle d'une interface unique (unicast). La destination peut être
une adresse unique, de groupe (multicast) ou de diffusion générale (broadcast = FF-FF-FF-FF-
FF-FF).

longueur / type : Ce champ de 2 octets a été défini dans le standard Ethernet II pour
indiquer le type de protocole de niveau 3 employé pour transporter le message.
Avec la normalisation IEEE 802.3 ce champ a été redéfini pour contenir la longueur en octets
du champ des données.

Données : Avec la définition d'origine de Ethernet II, la couche 2 est complète avec ce
format. Les données sont directement transmises au niveau réseau identifié par le champ
type. Aucune «séquence de bourrage» n'est prévue bien que le nombre minimum de données
attendues soit de 46 octets.
Avec IEEE 802.3, le champ de données contient l'entête de la sous-couche LLC en plus des
données. Au niveau MAC ce champ est vu comme une suite de 46 à 1500 octets que l'on
n'interprète pas. Si le nombre de données n'atteint pas 46 octets, le champ est complété par
une séquence de bourrage (padding).

FCS : Frame Check Sequence est un champ de contrôle de 4 octets qui permet de valider
l'intégrité de la trame à 1 bit près. Il utilise un CRC (Cyclic Redundancy Check) qui englobe
tous les champs de la trame. Ainsi, la station réceptrice peut décider si la trame est correcte
et doit être transmise à la couche supérieure : LLC (Logical Link Control IEEE 802.2) ou
réseau.

Dans tous les cas, les données du niveau LLC sont présentées sous la forme d'un LPDU (LLC
Protocol Data Unit), dont le format est ci-dessous.

DSAP (Destination Service Access Point) : Identifie le protocole de niveau supérieur


concerné par les données LLC
SSAP (Source Service Access Point) : Identifie le protocole de niveau supérieur à l’origine de
l’émission des données LLC
CTRL (Control) : véhicule les informations de contrôle d’erreur

63
III. La norme IEEE 802.5 & Token Ring
L'Anneau à jeton, plus connu internationalement sous le terme de Token Ring, est un
protocole de réseau local qui fonctionne sur les couches Physique et Liaison du modèle OSI.
Ce protocole est issu des recherches du constructeur IBM et a été normalisé IEEE 802.5
Token Ring a été promu par IBM pour se démarquer d’Ethernet au niveau de la méthode
d’accès au média.
En effet, l’organisation de l’accès au niveau d’Ethernet est non déterministe pour ne pas dire
anarchique. Dès le média est libre, tout le monde a le droit de parler s’il veut avec ce que cela
comporte comme risque de collision. La méthode de détection des collisions est basée sur le
principe qu’on laisse se produire éventuellement des erreurs (collision) et qu’on les traite
quand elles arrivent.
IBM n’a pas apprécié cette philosophie et à inventé l’anneau (RING) à jeton (TOKEN) où
chacun ne parle que lorsqu’on lui donne la parole.

III.1. Principe
Il est basé sur une trame spéciale de trois octets, appelée jeton qui circule dans un même
sens en allant de station en station.
Lorsqu’une station veut parler il attend que le jeton arrive à son niveau. S’il est libre, il le
marque occupé et il prend la parole.
Lorsqu’un message arrive à destination, le destinataire marque la trame pour signaler qu’il l’a
lue et la laisse continuer. L’émetteur recevra donc à un moment donné sa propre trame et
constatera que le destinataire l’a lue. Il libère alors le jeton et le passe à son voisin.
Comme il n’y a qu’un jeton en circulation sur l’anneau, une seule station peut transmettre à un
instant donné. Ceci évite l’émission simultanée de plusieurs trames et résout le problème de
l’accès multiple.
Le droit d’émettre se déplace de station en station suivant l’ordre de connexion physique. Il
est plus lent sur de faibles charges qu’Ethernet mais plus rapide qu’Ethernet (même 100
Mbps) sur de lourdes charges car il ne s’écroule pas sous les collisions.

III.2. Topologie

L'architecture originelle du Token Ring imposait un anneau physique 'et' logique. Dans un telle
topologie, toute coupure de câble met tout l’anneau en panne. De même il n’est pas possible de
rajouter ou de supprimer à chaud un poste.
On a donc créé et adopté par la suite des coffrets de raccordement (MAU ou MSAU) équipés
de connexions réalisées de telle manière que le fait d'enlever ou d'arracher un câble n'a
aucune influence sur la continuité électro-physique de l'anneau. L'apparition des MAU a
permis de s'affranchir d'une topologie physique en anneau, puisque le câblage s'est alors
effectué en étoile (à travers un MAU = Medium Acces Unit). La topologie physique (qui était
un anneau) est plus souvent une étoile.

L’étoile permet en fait d’ajouter une station sur le réseau en fonctionnement (à chaud) et
d’assurer le bon fonctionnement de l’anneau en cas de panne d’une station.
Le MAU qui donne la configuration en étoile, se charge donc de reconstituer virtuellement un
réseau en anneau (anneau logique) et permet de détecter une coupure dans l’anneau et de la
réparer immédiatement. C’est aussi cet équipement qui permet d’ajouter une station à « chaud
».

64
Au niveau physique la norme recommande d’utiliser des paires torsadées blindées bien qu’en
théorie on puisse aussi utiliser du câble coaxial ou de la fibre optique.
Les signaux de transmission sont en Bande de Base et utilisent les règles du codage
Manchester Différentiel : un bit à 1 correspond à une transition en début de l’intervalle
temps du bit, un bit à 0 est caractérisé par l’absence de transition. Cette méthode de codage
est plus complexe mais offre une meilleure immunité aux bruits.
Nota : les cartes TR sont prévues pour pouvoir émettre en même temps qu’elles reçoivent. En
effet si l’anneau est court et que la trame est longue il se peut très bien que les premiers
octets de la trame reviennent avant que les derniers ne soient émis.

III.3. Trame 802.5

Délimiteur de Contrôle Type de la Adresse Adresse Data Contrôle Délimiteur de Statut de la trame
début (SD) d'accès (AC) trame (FC) destination source d'erreurs fin (ED) (FS)
1 octet 1 octet 1 octet 6 octets 6 octets N 4 octets 1 octet 1 octet

SD (Start Delimiter) Délimiteur de début de trame - Par violations de codage Manchester


ED (End Delimiter) Délimiteur de fin de trame - Par violations de codage Manchester
Ces deux marqueurs (début et fin) suivent un codage erroné du Manchester Différentiel en
oubliant la transition au milieu de l’intervalle temps bit.
Sur Token Ring des 0 et des 1 sont transmis en permanence, ainsi c’est l’absence de signal
cohérent pendant 2 bits puis un bit à 0, encore 2 bits incohérents et enfin 3 bits à 0 qui
signale le début d’une tramme. La fin d’une trame est signalée par 2 bits incohérents, un bit à
1, 2 bits incohérents puis 3 bits à 1.
AC (Acces Control) : Contrôle d'accès, est utilisé pour gérer le droit à la parole. Il est
composé de 3 bits de priorité PPP, 1 bit TK pour signifier si le jeton est libre ou non, 1 bit de
supervision M dit bit moniteur, et 3 bits de réservation RRR.
FC (Frame Control) : champs qui permet de déterminer le type de trame, c’est à dire de
distinguer les trames de données des trames diverses de contrôle du réseau.
Dest et Sce : adresses destination et source (MAC) ; sont par défaut celles inscrites par le
constructeur sur la carte (chacune est unique au monde), elles sont sur 6 octets.
Données : peut être aussi long que l’on veut. Cependant, étant donné que chaque station a un
temps maximum de maintient du jeton, la taille des données maximales sera limitée par le
nombre maximal de bits que peut émettre la station pendant ce temps.

65
CHK (Checksum) : Contrôle d'erreurs (CRC) ; détection d’erreurs de transmission.
FS (Frame State) : contient 2 informations fondamentales au niveau des bits A et C. A est
mis à 1 lorsqu’un MAU reconnaît l’adresse destinataire comme étant celle d’une des stations
lui étant reliées. C est mis à 1 lorsque la station destinataire effectue une copie de la trame.
La redondance des 2 champs est pour limiter le nombre d'erreurs possibles car ils échappent
tous 2 au CRC. Il faut bien sur que ces 2 champs (double) contiennent les mêmes informations.

On notera qu’il n’y a pas de préambule comme dans Ethernet. Ceci s’explique naturellement par
le fait que sur Token Ring on transmet en permanence des 1 et des 0, les horloges sont donc
en permanence synchronisées.

III.4. Fonctionnement
La base du protocole est la capture du jeton lorsque l’on veut transmettre.
Lorsque le jeton est capturé, la station peut le conserver pendant le «temps de maintient du
jeton» (THT : Token Holding Timer) dont la valeur est paramétrable. Par défaut elle est de
10ms. Pendant ce temps la station peut émettre une grande trame, plusieurs trames
moyennes ou petite, ou relâcher le jeton si elle n’a plus rien à émettre.

Le principe étant basé sur un jeton, il est important de le surveiller. Si le jeton est perdu,
par exemple à cause d’une perturbation électrique ou de la panne d’une station, plus personne
ne pourra émettre. Il se peut aussi qu’une trame tourne indéfiniment sur le réseau si
l’émetteur de cette trame tombe en panne avant de la retirer. Pour palier à toutes ces
perturbations possibles, il y a une station sur le réseau appelée moniteur.

Rôle du moniteur
Le moniteur a un rôle essentiel dans le réseau. Pour cette raison, aucun poste particulier n’est
dédié à ce rôle. En effet, une panne du câble ou du logiciel de ce poste aurait paralysé tout le
réseau.
Le principe choisi est donc que chaque station du réseau peu jouer le rôle du moniteur. La
première connectée au réseau se déclare moniteur. Si jamais cette station venait à défaillir,
elle est remplacée immédiatement par une autre station. Toutes les stations en ayant la
capacité, un protocole particulier permet de désigne l’une des stations comme nouveau
moniteur.

Détection de l’absence de moniteur


Le moniteur en fonction émet régulièrement une trame particulière AMP (Active Monitor
Present). Chaque station possède un timer qu’elle réinitialise au passage de la trame AMP. Si
le moniteur cesse d’émettre cette trame, les timers vont arriver au bout. La première station
dont le timer arrive à terme lance le protocole d’élection d’un nouveau moniteur.
Il reste néanmoins un risque : si le moniteur émet une trame AMP et meurt. La trame AMP va
tourner en boucle, personne ne s’apercevra qu’il n’y plus de moniteur. De plus, étant donné que
la trame AMP possède le jeton, plus personne ne parlera. Pour régler ce problème le moniteur
attend un temps minimum entre deux émissions d’AMP et chaque station possède un deuxième
timer réinitialisé au passage d’un AMP. Si la trame AMP arrive avant que ce timer n’arrive à
terme dans une station, cette dernière détruit la trame AMP et lance la procédure d’élection
d’un nouveau moniteur.

66
Election d’un nouveau moniteur
Pour l’élection d’un nouveau moniteur on va choisir la station ayant l’adresse la plus grande. La
première station qui détecte l’absence de moniteur actif, lance une trame particulière appelée
Claim Token qui contient son adresse. Lorsqu’une station reçoit un claim Token elle en émet
un autre avec comme adresse la plus grande entre celle reçue et la sienne. Cette procédure au
bout du compte arrive au fait que la station ayant l’adresse la plus grande reçoit un claim
Token avec sa propre adresse. A ce moment elle se déclare moniteur. Seulement, à cet
instant, elle est seule à savoir qu’elle est moniteur, elle émet alors une trame qui signale
qu’elle a prit le rôle de moniteur.

Moniteur multiple
Si la présence d’un moniteur est indispensable, il ne faut absolument pas qu’il y en ait
plusieurs. Cela provoquerait un retrait de trame non justifié. Par exemple le premier
moniteur, en voyant passer la trame mettrait le bit M à 1, le second croirait que la trame
vient de boucler et la supprimerait. Pour éviter cela, le moniteur va surveiller les trames AMP.
S’il lui en arrive une qu’il n’a pas émis, c’est qu’il y a un autre moniteur. Il lance alors la
procédure d’élection d’un nouveau moniteur.

L’autotest matériel
Dès qu'une trame boucle, le moniteur purge l’anneau avec une trame PRG. La purge est en fait
utilisée à chaque fois qu’un problème apparaît, cependant il arrive que la purge ne règle pas le
problème. Dans ce cas les stations du réseau, voyant qu’une trame PRG est passée mais que le
problème persiste, élisent un nouveau moniteur qui tente à son tour de purger l’anneau. Si le
problème persiste encore, on entre dans la phase d’autotest. C’est à dire que toute les
stations du réseau se déconnectent et se font un test matériel complet. Ensuite, seules les
stations s’étant reconnues comme saines se reconnectent et élisent un nouveau moniteur.

Notion de priorité
En plus du fait que le protocole de Token Ring soit déterministe au contraire d’Ethernet, il
est doté d’un mécanisme de gestion de la notion de priorité des trames.
Jusqu’à présent, on a décrit le fonctionnement en supposant que toutes les trames avaient la
même priorité, hors Token Ring prévoit 8 niveaux de priorité, de 0 (trame courante) à 7
(trames exceptionnelles et urgentes).
En fait, lorsqu’une station veut émettre une trame, soit il n’y a pas de trafic et elle va pouvoir
prendre immédiatement le jeton libre (dans ce cas le niveau de priorité désiré est sans
importance), soit il y a du trafic et elle va devoir voir passer plusieurs trames avant que le
jeton ne lui soit attribué.
Dans ce cas elle va utiliser le champ réservation de la trame qui passe devant elle, en lui
mettant son niveau de priorité (les 3 bits RRR permettent d’inscrire une priorité de 0 à 7). Si
une autre station veut aussi émettre une réservation, elle ne pourra le faire que si son niveau
de priorité est supérieur. Alors, elle remplace l’ancienne réservation par la sienne. Ainsi à
chaque tour d’une trame, c’est la plus prioritaire qui a inscrit son niveau de priorité. La station
qui a émis cette trame va relâcher à la fin un jeton libre tout en inscrivant (copiant) dans son
champ priorité (3 bits PPP) le niveau de réservation.

67
Les stations qui verront passer ce jeton libre ne pourront le prendre que si leur niveau de
priorité est égal ou supérieur à celui indiqué dans le jeton.
Bien sûr, ce n’est pas forcement celle qui avait effectué la plus forte réservation qui va
prendre le jeton puisque si une station pendant le tour du jeton est apparue avec une priorité
égale ou plus forte, elle prendra le jeton qu’elle ait effectué ou pas une réservation !

Localisation des coupures de câbles


Dans Token Ring si un câble est défaillant c’est tout le réseau qui est affecté. Il fallait donc
un mécanisme pour parer à cette éventualité. De même si une station s’arrête alors qu’elle
était connectée sur le réseau, il ne faut plus lui envoyer de trame car sinon, l’anneau serait
ouvert. Ces problèmes sont réglés par le MAU.
En effet, les stations sont le plus souvent connectées en étoile à un MAU qui simule l’anneau.
Celui-ci étant en liaison permanente avec les cartes Token Ring de chaque station, dès que
l’une d’elles ne répond plus, il la court-circuite pour fermer l’anneau. Il en est de même pour
des coupures de câbles : c’est le MAU qui va court-circuiter le câble défaillant.
Mais avant cela il faudra détecter l’endroit de la panne. Pour cela les stations ont un protocole
bien défini : quand un câble de l’anneau est sectionné, très vite, plus personne ne reçoit rien.
Les stations émettent alors des trames appelées BCN (Beacon) pour signaler qu’elles ne
reçoivent plus rien. Une Beacon contient au départ l’adresse de la station émettrice. Une
station qui reçoit une Beacon la retransmet et arrête d’émettre les siennes. Ainsi ne
circuleront très rapidement sur le réseau que les Beacons de la station qui se situe juste
après la coupure puisque ce sera la seule à ne rien recevoir. Le MAU sait alors où se situe la
coupure grâce à l’adresse située dans ces Beacons. Il l’isole en refermant l’anneau par un
autre chemin.

Un mécanisme complexe
Les erreurs qui sont susceptibles de détruire le fonctionnement de l’anneau sont nombreuses.
La méthode d’accès à la parole qui paraissait simple au départ et posant moins de problèmes
que CSMA/CD est en fait un vrai casse tête dû au fait que la moindre perturbation doit au
moins être suivie d’une purge de l’anneau.
Il faut donc tout prévoir et avoir du matériel très fiable.

III.5. Conclusion sur IEEE 802.5


Au niveau efficacité le Token Ring est une réussite puisque le débit effectif suit à peut près
le débit soumis et en tout cas ne s’écroule jamais. De plus il gère parfaitement les niveaux de
priorité, ce qui le rend conforme aux utilisations temps réels.
Cependant, il n’a pas réussi à s’imposer car sa technologie est trop chère et que la méthode
d’accès est finalement assez complexe. De plus son principe ne se prête pas à l’utilisation des
commutateurs (switch) comme sur Ethernet, qui permettent d’isoler les serveurs sur des
parties à hauts débits.
Il reste néanmoins d’actualité chez IBM et dans les applications temps réel et son principe
est toujours utilisé pour les réseaux fédérateurs FDDI (Fiber Distribued Data Interface,
Jeton sur boucle).

68
Récapitulatif du Standard IEEE 802

69

Vous aimerez peut-être aussi