Académique Documents
Professionnel Documents
Culture Documents
CHAPITRE I
I - Généralités
I - 1. Définitions
Réseau : C’est un ensemble d’ordinateurs (ou de périphériques) autonomes connectés entre eux
et qui sont situés dans un certain domaine géographique.
Suivant la distance qui sépare les ordinateurs, on distingue plusieurs catégories de réseaux :
Les LAN (Local Area Network) qui correspondent par leur taille à des réseaux intra- entreprises.
La distance de câblage est de quelques centaines de mètres. Ces réseaux ont des topologies
particulières (voir plus loin).
Les MAN (Metropolitan Area Network) : qui correspondent à une interconnexion de quelques
bâtiments se trouvant dans une ville (Campus).
Les WAN (Wide Area Network) destinés à transporter des données à l’échelle d’un pays. Ces
réseaux peuvent être terrestres (Utilisation d’infra - structure au niveau : câble, fibre, ...) ou
satellite (Mise en place d’engins spatiaux pour retransmettre les signaux vers la terre).
Téléinformatique = informatique à distance. C’est une science qui associe les problèmes liés au
traitement des données aux problèmes liés au transport de l’information.
I - 3. Vocabulaire de base
Station de travail : on appelle station de travail toute machine capable d’envoyer des données vers
les réseaux (PC, MAC, SUN Terminal X, ...). Chaque station de travail a sa propre carte interface
(carte réseau).
Nœud : c’est une station de travail, une imprimante, un serveur ou toute entité pouvant être
adressée par un numéro unique.
L’unicité de l’adresse est garantie par le constructeur d’une carte réseau qui donne un numéro
unique ne pouvant être changé par une personne.
Serveur : dépositaire centrale d’une fonction spécifique : serveur de base de donnée, de calcul, de
fichier, d’impression, de messagerie, ... .
internet
Paquet : C’est la plus petite unité d’information pouvant être envoyée sur le réseau. Un paquet
contient en général l’adresse de l’émetteur, l’adresse du récepteur et les données à transmettre.
Topologie : organisation physique et logique d’un réseau. L’organisation physique concerne la
façon dont les machines sont connectées (Bus, Anneau, Étoile, Maillé, Arborescence, ...). La
topologie logique montre comment les informations circulent sur le réseau (diffusion, point à point).
Définition : La commutation rassemble toutes les techniques qui réalisent la mise en relation de 2
abonnés quelconques.
Commutation de cellule : commutation de paquets particulière. Tous les paquets ont une longueur
fixe de 53 octets (1 paquet = 1 cellule de 53 octets).
C’est la technique utilisée dans les réseaux ATM où un chemin est déterminé pour la
transmission des cellules.
La deuxième est TCP / IP. Une 3 ème Architecture plus récente est UIT - T (Union Internationale des
Télécommunications).
Il s’agit de l’adaptation du modèle OSI pour prendre en compte les réseaux hauts - débits (ex : réseau
ATM).
Pour garder une certaine cohérence, une structure et une organisation dans le domaine des réseaux,
il faut des normes. Ces normes sont crées et approuvées par un certain nombre d’organismes de
normalisation. Pour n’en citer que quelques uns :
A ces organismes internationaux, s’ajoutent encore des organismes de différents continents comme
l’Europe ou les Etats-Unis:
Normes de l'IEEE
Nous allons nous concentrer sur les normes de l’IEEE qui est un des organismes les plus a ctifs dans
le domaine des réseaux locaux. Voici en résumé ces différentes normes.
802.1 Gestion de réseau décrit les relations entre les normes ci-dessous
802.2 Lien logique (LLC) définit la partie LLC (Logical Link Control) de la couche 2
802.3 Réseau CSMA/CD pour les réseaux à topologie bus et méthode d’accès CSMA/CD
802.4 Réseau token bus pour les réseaux à topologie bus avec méthode d’accès à jeton
802.5 Réseau token ring réseaux en anneau avec méthode d’accès à jeton
réseaux à l’échelle d’une ville. Il ne semble pas à l’heure actuelle
802.6 Metropolitan area network
qu’il y ait besoin de réseaux purement métropolitains
802.7 Transmission large bande c’est une norme qui se base sur les réseaux 802.3 et 802.4
Réseaux fibre optique Voix + concerne l’utilisation d’un seul support physique pour transporter lai
802.8
données voix et les données.
802.10 Sécurité des réseaux locaux étudie les problèmes de sécurité dans les réseaux
802.11 Réseaux locaux sans fil transmission infrarouges, micro-ondes, ondes hertziennes, etc
Niveau 4: la couche transport, gère la remise correcte des informations (gestion des erreurs). Elle
transporte des unités de données appelées messages.
Niveau 2: la couche liaison de données, définit l'interface avec la carte réseau: hubs, switch, … Cette
couche est responsable de l’acheminement d’unités de données appelées trames en assurant la
meilleure qualité de transmission possible. Une trame est une suite structurée de bits.
Niveau 1: la couche physique, gère les connections matérielles, définit la façon dont les données sont
converties en signaux numériques. Elle assure le transfert de bit. Ce niveau rassemble
les propriétés qui spécifient les caractéristiques mécaniques, électriques et fonctionnelles des circuits
de données.
TCP UDP
Mode connecté Mode non connecté
IP
PHYSIQUE
CHAPITRE II
I – Définition
Un réseau local est une architecture distribuée localisée géographiquement : LAN, MAN.
Caractéristique : faible distance géographique, différents équipements, topologie.
On distingue généralement deux types de réseaux bien différents, ayant tout de même des
similitudes.
Ces deux types de réseau ont des capacités différentes. Le type de réseau à installer dépend des
critères suivants :
Taille de l’entreprise
Niveau de sécurité nécessaire
Type d’activité
Niveau de compétence d’administration disponible
Volume du trafic sur le réseau
Besoins des utilisateurs du réseau
Budget alloué au fonctionnement du réseau (pas seulement l’achat mais aussi l’entretien et la
maintenance)
Dans une architecture d'égal à égal (où dans sa dénomination anglaise peer to peer), contrairement à
une architecture de réseau de type client/serveur, il n'y a pas de serveur dédié. Ainsi chaque
ordinateur dans un tel réseau est un peu serveur et un peu client. Cela signifie que chacun des
ordinateurs du réseau est libre de partager ses ressources. Un ordinateur relié à une imprimante
pourra donc éventuellement la partager afin que tous les autres ordinateurs puissent y accéder via le
réseau.
ce système n'est pas du tout centralisé, ce qui le rend très difficile à administrer
la sécurité est très peu présente
aucun maillon du système n'est fiable
Ainsi, les réseaux d'égal à égal ne sont valables que pour un petit nombre d'ordinateurs
(généralement une dizaine), et pour des applications ne nécessitant pas une grande sécurité (il est
donc déconseillé pour un réseau professionnel avec des données sensibles).
Les services sont exploités par des programmes, appelés programmes clients, s'exécutant sur les
machines clientes. On parle ainsi de client FTP, client de messagerie, ..., lorsque l'on désigne un
programme, tournant sur une machine cliente, capable de traiter des informations qu'il récupère
auprès du serveur (dans le cas du client FTP il s'agit de fichiers, tandis que pour le client messagerie il
s'agit de courrier électronique).
Dans un environnement purement Client/serveur, les ordinateurs du réseau (les clients) ne peuvent
voir que le serveur, c'est un des principaux atouts de ce modèle.
Le modèle client/serveur est particulièrement recommandé pour des réseaux nécessitant un grand
niveau de fiabilité, ses principaux atouts sont:
des ressources centralisées: étant donné que le serveur est au centre du réseau, il peut gérer
des ressources communes à tous les utilisateurs, comme par exemple une base de données
centralisée, afin d'éviter les problèmes de redondance et de contradiction
une meilleure sécurité: car le nombre de points d'entrée permettant l'accès aux données est
moins important
une administration au niveau serveur: les clients ayant peu d'importance dans ce modèle, ils
ont moins besoin d'être administrés
un réseau évolutif: grâce à cette architecture ont peu supprimer ou rajouter des clients sans
perturber le fonctionnement du réseau et sans modifications majeures
. Un serveur de fichier stocke et distribue les fichiers de programmes ou les données partageables
par les utilisateurs du réseau local. Il résulte d'une combinaison de matériel et de logiciel qui peut être
spécifique. Ils sont également utilisés comme serveurs d’impression.
. Un serveur d'application permet d'exploiter une application (un programme) sur un serveur à partir
de tous les clients. Ceci est typique aux applications basées sur des bases de données (gestion de
fabrication, gestion commerciale, comptabilité, ...). Elle permet par exemple de facturer, gérer les
stocks, ... à partir de plusieurs PC en même temps dans une gestion commerciale. Ces applications
doivent être dédiées à ce mécanisme de partage.
. Un serveur d'imprimante permet de partager des imprimantes connectés sur un seul PC. Certaines
imprimantes réseaux peuvent être directement connectés sur le réseau sans passer par un PC, des
boîtiers spécifiques peuvent également être utilisés.
Les réseaux locaux sont des infrastructures complexes et pas seulement des câbles entre stations de
travail:
* Le câblage constitue l'infrastructure physique, avec le choix entre paire téléphonique, câble coaxial
et fibre optique. Ce choix détermine le type de concentrateurs (switch, HUB) du réseau. Ceux-ci
constituent les nœuds internes dans le cas de réseaux en étoile.
* La méthode d'accès décrit la façon dont le réseau arbitre les communications des différentes
stations sur le câble : ordre, temps de parole, organisation des messages. Elle dépend étroitement de
la topologie et donc de l'organisation spatiale des stations les unes par rapport aux autres. La
méthode d'accès est essentiellement matérialisée dans les cartes d'interfaces, qui connectent les
stations au câble.
* Les protocoles de réseaux sont des logiciels qui "tournent" à la fois sur les différentes stations et
leurs cartes d'interfaces réseaux. C'est le langage de communication. Pour que deux structures
connectées sur le réseau, ils doivent "parler" le même protocole.
* Le système d'exploitation du serveur réseau (ou NOS pour Network Operating System), souvent
nommé gestionnaire du réseau, est installé sur les le ou les serveurs. Il gère les partages, droits
d'accès, ... Pour Microsoft, on retrouve Windows NT serveur, Windows 2000 serveur, Windows 2003
(.NET).
* Le système de sauvegarde est un élément indispensable qui fonctionne de diverses manières soit
en recopiant systématiquement tous les fichiers du ou des serveurs, soit en faisant des sauvegardes
régulières, éventuellement automatisées.
La topologie d'un réseau recouvre tout simplement la manière dont sont reliés entre eux ses
différents composants et dont ils interagissent. Nous ne séparerons pas les topologies physiques et
logiques à des fins de simplification. On distingue principalement 3 types: en bus, en anneau et en
étoile. Nous allons définir ces types et envisager leurs avantages et leurs inconvénients.
IMPORTANT: Il est bien évident que les définitions que nous donnerons ci-dessous
s'appliquent à de petits réseaux. Un grand réseau est en fait constitué d'une myriade de petits réseaux
interconnectés, chacun d'entre eux reposant sur une topologie particulière. Un grand réseau aura
donc en fait diverses composantes de topologies différentes, mais il aura également une topologie
générale qui sera soit en étoile, soit en bus, soit en anneau.
Le bus, un segment central où circulent les informations, s’étend sur toute la longueur du
réseau, et les machines viennent s’y accrocher. Lorsqu’une station émet des données, elles circulent
sur toute la longueur du bus et la station destinatrice peut les récupérer. Une seule station peut
émettre à la fois. En bout de bus, un « bouchon » permet de supprimer définitivement les informations
pour qu’une autre station puisse émettre.
Avantages :
La longueur de câble est moins importante que pour la topologie en étoile ou en anneau.
L’avantage du bus est qu’une station en panne ne perturbe pas le reste du réseau. Elle est, de plus,
très facile à mettre en place. Par contre, en cas de rupture du bus, le réseau devient inutilisable.
Notons également que le signal n’est jamais régénéré, ce qui limite la longueur des câbles.
Inconvénient :
Plusieurs machines sont reliées à un seul support -> d'où la nécessité d’un protocole d’accès qui gère
le tour de parole des stations afin d’éviter les conflits.
Développée par IBM, cette architecture est principalement utilisée par les réseaux Token Ring. Token
Ring utilise la technique d’accès par « jeton ». Les informations circulent de stations en stations, en
suivant l’anneau. Il s’agit de la topologie en bus que l’on a refermé sur elle- même. Le sens de
parcours du réseau est déterminé -> ce qui évite les conflits. Les stations sont actives : c'est à dire
qu'elles régénèrent le signal.
Avantages :
Le temps d’accès est déterminé (une machine sait à quel moment elle va pouvoir « parler »).
Inconvénient :
Si un nœud (une station par exemple) ne fonctionne plus, le réseau est coupé. Pour éviter ceci, on
remplace les stations par des MAU (Multistation Access Unit) : cela ressemble à un Hub mais le
dernier port est relié au premier, ce qui revient à un anneau. Dans ce cas, la topologie logique reste
en anneau mais la topologie physique est en étoile.
Ce type de réseau est facile à mettre en place et à surveiller. La panne d’une station ne met
pas en cause l’ensemble du réseau. Par contre, il faut plus de câbles que pour les autres topologies,
et si le concentrateur tombe en panne, tout le réseau est anéanti. De plus, le débit pratique est moins
bon que pour les autres topologies.
Dans ce cas on constate que chaque ordinateur ou imprimante... est relié au nœud central : hub ou
switch dans le cas d’un réseau Ethernet. Les performances du réseau vont alors dépendrent
principalement de ce nœud central. Un hub pratique de la diffusion : si un pc envoie un message à un
autre pc, l’information suit le parcours suivant : elle part du pc émetteur arrive au hub puis est diffusée
sur tous les ports du hub ; seul le pc à qui est destiné le message récupère les informations.
Un switch, en revanche, réalise de la commutation : lorsqu’un pc veut communiquer avec un autre,
l’information arrive au switch qui la commute uniquement sur le port où est relié le pc concerné par
l’information. (il s'agit du même exemple que pour le hub)
Pour ce type de réseau, les câbles en paires torsadées sont le plus souvent utilisés.
Avantages :
Chaque station possède sa propre ligne -> évite les conflits.
Administration du réseau facilitée (grâce au nœud central).
Inconvénient :
Longueur de câble importante.
Une topologie comme ci-dessus est malheureusement trop simpliste dans le cas de réseaux
importants. Si une topologie en étoile est parfaite dans le cas d'un réseau limité géographiquement,
un réseau mondial ne peut utiliser une liaison de ce type. La méthode utilisée est donc de relier des
réseaux en étoile (par bâtiments par exemple) via des liaisons en bus (téléphoniques par exemple).
Les réseaux maillés (ici représentés par des ordinateurs) sont reliés par des routeurs qui
choisissent la meilleure voie suivant plusieurs possibles. INTERNET est une topologie maillée, ceci
garantit le mieux la stabilité en cas de panne d'un noeud mais est difficile à mettre en oeuvre,
principalement au niveau du choix des routes à suivre pour transférer l'information. Ceci nécessite
l'utilisation de routeurs intelligents.
Cette topologie ne peut pas être utilisée dans les réseaux internes Ethernet.
CHAPITRE III
I. Introduction
Ethernet est le nom d’une technologie de réseau local (LAN) développée à Palto Alto dans les
laboratoires de la société Xerox qui travaillait sur des embryons de réseaux locaux et de systèmes
ouverts dans les années 70 (Metcalfe 1976). Ethernet est un nom déposé par Rank Xerox et ne
devrait donc être utilisé qu’à bon escient... Il fût conçu une version fonctionnant à 3Mbit/s, sur du
coaxial d’impédance 75 Ohms et pouvant couvrir jusqu’à un kilomètre. En collaboration avec Digital
Equipment Corporation (DEC) et Intel, Xerox publia le livre The Ethernet en septembre 1980. Il
s’agissait de la version 1.0, le nom étant la fusion de mots : l’éther (le câble passif dans le cas
présent) et le réseau (net ou Network). Les grandes lignes d’Ethernet étaient déjà présentes : la
méthode, le support physique, les principales contraintes.
En novembre 1982, ils publièrent la version 2.0 (AA-K759B-TK), qui était assez complète, mais
partiellement incompatible avec la précédente version (au niveau des transceivers par exemple). Ce
document abordait les aspects MAC et physiques de façon pragmatique à la différence des standards
IEEE ou des normes ISO. Un exemple fût la description des fonctionnalités de la couche MAC en
langage Pascal. Les médias envisageables étaient le coaxial 50 Ohms d’impédance caractéristique
et la fibre optique qui n’était désignée que comme liaison point à point entre deux répéteurs ce qui
correspond à 3 brins de 500 mètres, une liaison optique de 1km et 6 câbles AUI de 50 mètres chacun
D’un point de vue matériel le choix était restreint : peu de constructeurs étaient présents mais DEC et
Xerox proposaient des solutions satisfaisantes. Les appareils étaient encombrants, les performances
des cartes coupleurs encore modestes, et seuls existaient les éléments de base du jeu de
construction qu’est aujourd’hui le réseau, comme par exemple les transceivers pour le câble, coaxial
mono-port, et les répéteurs bi-port uniquement. Il n’y avait pas ou très peu de matériels de test,
d’analyse et d’observation et on se situait donc à une époque où l’on se satisfaisait d’un
fonctionnement sans pouvoir pour autant le qualifier précisément.
Le protocole d’accès au média est inspiré du système Aloha d’Abramson testé au début des années
70 sur un réseau radio reliant les îles d’Hawaii. Le principe de fonctionnement d’Aloha consiste en
l’émission de données dès qu’une trame est prête, ce qui présente l’inconvénient de l’apparition de
collisions entre deux transmissions simultanées et donc, la perte des données transmises. Une station
n’ayant pas reçu d’acquittement tente alors une retransmission de sa trame au bout d’un délai
aléatoire. L’absence de règles au support partagé conduit à de très mauvaises performances. Afin de
diminuer le taux de collisions, l’Aloha natif a été amélioré :
tout d’abord lorsqu’une station désire émettre, elle écoute le canal avant toute
transmission
Ce protocole d’accès a été normalisé par l’IEEE sous le nom CSMA/CD dans le 802.3 ce qui veut dire
accès multiples et détection de présence de porteuse avec détection de collision.
Couches hautes
LLC
Logical Link Control
MAC
Medium Access Control
Liaison
Physique PLS
Physical Layer Signalling
Média MDI
II.1 Définition
Cette spécification concerne :
1. L’équivalent de la couche physique de l’OSI qui prend le nom de PMA : Physical Medium
Access. Les fonctions de cette couche peuvent être réparties entre le dispositif de raccordement à la
paire coaxiale et la station proprement dite.
Avec les standards IEEE 802 une notation particulière apparaît consistant à désigner une technologie
par le débit maximum, le type de modulation et la longueur des brins. Ainsi un Ethernet fonctionnant à
10Mbit/s en bande de base avec des brins d’une longueur maximale de 500 mètres (5*100) est
dénommé 10Base5. Le support est du câble coaxial (câble épais) à 50 Ohms blindé de bonne qualité
(câble jaune de type RG11). Chaque segment de câble est terminé par un terminateur d’impédance
appelé bouchon, qui évite la réflexion du signal à son arrivé à l’extrémité du câble. Sur le coaxial le
codage des signaux se fait en bande de base (c’est-à-dire qu’il y a déplacement du spectre d’énergie
vers les hautes fréquences, que le nombre de transitions est garantie dans le signal pour permettre la
synchronisation du récepteur, enfin que la valeur moyenne est nulle pour permettre le passage dans
les transformateurs d’adaptation de ligne ou sur les câbles chargés).
Sur le coaxial, l’espacement entre deux stations adjacentes est un multiple de 2,5 m afin de s’assurer
que celles-ci ne soient pas en phases entre elles. Le nombre de stations connectées par brin de 100
mètres est de 30 sur le câble fin.
La longueur d’un réseau est limitée à 500 mètres. Cependant il est possible de l’étendre via des
répéteurs en interconnectant plusieurs réseaux. L’ensemble de ces deux réseaux se comportant
comme un seul et unique réseau. La limitation du nombre de répéteurs est de 4 ce qui fait une
distance de 2.5Km. Afin de rendre inter-opérables différents segments (10Base-T, 10Base2...) la
norme définit un certain nombre de grandeurs physiques, de spécifications communes à toutes les
normes.
La distance maximale entre deux répéteurs (IRL : Inter Repeater Link) dépend de l’atténuation du
signal et donc de la qualité du support.
Un RL peut bien sûr mélanger plusieurs de ces réseaux. On trouve souvent par exemple du 10Base5
qui relie plusieurs 10BaseT.
Dans 802.3 et Ethernet la méthode choisie est CSMA (Carrier Sens Method Acces). Son principe est
celui de la politesse : on ne parle que quand personne ne parle.
Lorsque la station veut émettre, elle écoute. Si personne d’autre n’émet, elle emet. Si une autre
station émet, elle attend. Ensuite soit elle réessaye plus tard (CSMA non persistant, la méthode n’est
plus utilisée), soit elle écoute et lorsque c’est libre elle émet (CSMA persistant).
Cette méthode a un inconvénient : lorsque deux stations attendent, elles vont émettre en même
temps. Les deux signaux vont se superposer et être incompréhensibles. On appelle cela une collision.
Pour résoudre ce problème on va effectuer une détection des collisions (CD : Collision Detection).
D’où le nom de CSMA/CD.
Pour reconnaître une collision l’émetteur écoute son echo, s’il correspond à ce qu’il émet c’est bon,
sinon c’est qu’il y a une collision. Il émet alors un « JAM » pour avertir tout le monde qu’il y a eu une
collision. Ensuite les stations qui voulaient parler calculent un nombre aléatoire et se mettent en veille
pendant un temps proportionnel à ce nombre. Et ainsi de suite jusqu’à ce qu’elles puissent parler.
II.4 Limitations
Malgré la méthode de détection des collisions, certaines pourraient passer inaperçues. Par exemple si
les stations A et B sont éloignés sur le RL, A peut émettre une trame très courte, écouter son écho et
penser que tout est bon. Cependant il est possible que de l’autre coté B écoute, que la trame de A ne
soit pas encore arrivée et donc B émette. Une collision va se produire alors que A aura cru que tout
s’était bien passé, sa trame serait perdue. Pour éviter cela, la norme impose une taille de trame
minimum de 512 bits (64 octets). Si le message n’est pas assez long, on rajoute des bits pour arriver à
cette taille. Cependant ce n’est pas suffisant : si la taille du réseau n’est pas limitée, le problème peut
toujours se produire.
On limite donc la taille du réseau en fonction du temps de retournement (Round Trip Delay) de la
trame minimum et du débit. C’est à dire en fonction du temps que mettent 512 bits à faire l’aller retour
entre les deux points les plus éloignés du réseau, puisqu’il faut pour détecter une collision qu’avant
que la station ait fini d’émettre ses 512 bits le signal du premier bit soit arrivé au bout et que si une
station du bout a émis un bit à ce moment, il ait eu le temps d’arriver. Donc, en résumé, il faut que le
temps d’émission de 512 bits soit supérieur au temps d’un aller-retour du signal sur le réseau (Round
Trip Delay).
Exemples :
En 10Base5
Temps d’émission de 512 bits à 10 Mbps = 512 / 107 = 51.2*10-6s
Le Round Trip Delay doit donc être inférieur à 51.2*10-6s.
Sur un gros coax, le signal se propage à environ 6*10 7m/s.
L’aller retour doit donc être inférieur à 6*107m/s * 51.2*10-6s, soit un peu plus de 3000m. Donc une
distance maximum de 1500 m.
En 10Base2
Temps d’émission de 512 bits à 10 Mbps = 512 / 107= 51.2*10-6s
Le Round Trip Delay doit donc être inférieur à 51.2*10-6s.
Sur un coax fin, le signal se propage à environ 2*10 7m/s.
L’aller retour doit donc être inférieur à 2*107m/s * 51.2*10-6s, soit un peu plus de 1000m. Donc une
distance maximum de 500 m.
En 10BaseF
Temps d’émission de 512 bits à 10 Mbps = 512 / 107= 51.2*10-6s
Le Round Trip Delay doit donc être inférieur à 51.2*10-6s.
La vitesse de la lumière dans une fibre optique est de 2*10 8m/s.
L’aller retour doit donc être inférieur à 2*108m/s * 51.2*10-6s, soit un peu plus de 10000m. Donc une
distance maximum de 5000 m.
Une autre limitation est imposée pour stabiliser les conditions électriques du support et pour
réinitialiser les processus liés aux couches 1 et 2. C’est le délai entre deux émissions de trame. Il est
fixé en bit time, qui signifie le temps d’émission d’un bit. Le bit time sur un 10Base5 est de 0,1 micro
seconde puisqu’en 1 seconde on émet 10 Mbits. Le délai étant fixé à 96 bits time, sur 10Base5 le
délai inter trame est de 9.6 micro seconde, sur un 100BaseF de 0.96 micro seconde, …
Il faut aussi remarquer qu’un réseau Ethernet ne supporte pas la charge : sur un 10Base5 si le débit
demandé par les stations est inférieur à 3Mbps, le réseau fonctionne bien et le débit effectif sera
d’environ 3 Mbps. Par contre si le débit demandé est supérieur à 3 Mbps, le nombre de collisions va
aller croissant et le réseau va saturer. Le débit effectif pourra alors avoisiner le 0 Mbps. Pour palier à
ce problème, si le réseau sature trop souvent l’administrateur devra ajouter des ponts pour limiter les
domaines de collisions. Les performances s’accroîtront encore plus si l’on utilise des switch qui limite
encore plus les domaines de collision.
Ceci dit Ethernet est quand même un réseau performant, rapide, peu coûteux et facile à mettre en
œuvre. C’est certainement pour cela qu’il est utilisé dans la plupart des RL.
Le préambule
L’adressage
La trame comporte deux adresses : celle du destinataire et celle de l’émetteur. Est d’abord transmise
l’adresse destination puis vient l’adresse source. Le but étant bien sûr de faire se reconnaître la
station concernée d’une part et d’autre part d’identifier la station ayant générée la trame circulant sur
le réseau. Les deux adresses ont des structures à peu près semblables :
Elles font 6 octets de long, avec pour l’IEEE 802.3 la possibilité d’employer
éventuellement un format réduit à 2 octets.
Ceci ne s’applique que lorsque l’on envoie une trame pour une seule machine, car il est
possible d’atteindre plusieurs cibles simultanément en faisant de la diffusion. On peut
émettre vers :
2. Vers un groupe de stations : diffusion multicast, le premier bit est à 1 et les autres
peuvent conserver leur numéro de constructeur : ainsi le groupe est nécessairement
celui des machines d’un même constructeur. Il faut noter qu’une adresse source
correspondant à l’adresse exacte de la carte coupleur qui émet, elle ne peut
logiquement pas avoir de bits de groupes à 1, et donc que son premier octet est
nécessairement pair.
Voici une liste des trois premiers octets attribués aux constructeurs :
00-00-0C Cisco
00-00-0E Fujitsu
00-00-1B Novell
00-30-8C 3Com
08-00-07 Apple
08-00-09 Hewlett-Packard
Et la liste est bien évidemment encore très longue on peur répertorier aux alentours de 190 préfixes
différents.
Ce champ défini dans le standard Ethernet indique le type de protocole de niveau 3 employés pour
transporter le message. Cette information peut servir à aiguiller la trame vers le logiciel adapté à son
décodage. Cependant son sens a changé avec la normalisation 802.3 et comporte selon la norme
(IEEE ou IS) une information de longueur sur le champ de données, laquelle n’est pas indispensable à
la fonction du récepteur puisque le début et la fin de la trame se déduisent respectivement de la fin du
préambule (deux bits consécutifs à 1) et de la chute de porteuse au dernier bit, et que l’on connaît par
ailleurs les longueurs des autres champs (adresse, type, FCS) qui sont fixes. Elle n’est utile que :
La question importante est de savoir comment les trames Ethernet peuvent être différenciées des
trames IEEE 802.3 sur le réseau. Les deux peuvent parfaitement coexister, ce qui est souvent le cas
dans la réalité. On sait que la longueur de champ de données est comprise entre 46 et 1500 octets, ce
qui fait 2E et 5DC en hexadécimal. On décide que si le contenu du champ suivant dépasse 5DC, il
s’agit d’un champ type et donc d’une trame Ethernet, dans le cas contraire il doit s’agir d’un champ
longueur et d’une trame IEEE 802.3.
Voici quelques exemples des types les plus courants, ce qui permet d’identifier le trafic auquel
appartiennent les trames qui circulent sur un réseau :
0101-01FF Expérimental
0800 protocole IP
0806 protocole ARP
0835 protocole RARP
8019 protocole DOMAIN
809B protocole Appletalk
0200 Xerox_PUP
8005 Hewlett-Packard
8008 AT&T
8069 AT&T
Les données
Le PAD
Le PAD ou séquence de bourrage ne sert qu’a remplir le champ de données pour obtenir au moins 46
octets. Il est donc indispensable pour générer une trame courte à partir d’un message de quelques
octets seulement. Il est constitué d’une suite de bits non significatifs placés après les données
proprement dites. Dans le cas d’Ethernet le niveau MAC de la trame ne véhiculait aucune information
sur le nombre d’octets de données. La différentiation entre les octets utiles et le remplissage devait
donc être réalisa par les couches supérieures. Avec IEEE 802.3, le champ longueur indique si le
champ de données contient un PAD ainsi que sa longueur.
C’est donc la séquence de vérification de trame. Il s’agit d’un champ de quatre octets placé en fin de
trame et permettant de valider l’intégrité de la trame après la réception, et ceci au bit près. Il utilise un
CRC (Cyclic Redundancy Check, c’est-à-dire un code de redondance cyclique) calculé à l’aide d’un
polynôme générateur de degré 32. Il englobe les deux champs adresses, le champ type longueur, et
les données PAD compris, et sert à la station réceptrice pour décider si la trame est parfaitement
correcte peut être transmise à la couche supérieure (LLC ou niveau 3). C’est le seul champ de la
trame à être transmit par le bit de poids fort en premier.
Préambule : 1010101010….1010
SOF : 10101011
Long : longueur du champs des données
Données : Dans les données sont intégrées les informations sur le service réseau à contacter.
PAD : Bourrage d’octet si la trame n’a pas assez de bits pour atteindre la taille minimale.
CRC : Calcul effectué sur les bits de la trame pour vérifier si la transmission s’est faite sans erreur.
Bien évidemment il existe des différences entre l’Ethernet natif V2.0 et la normalisation de l’IEEE.
1. La principale différence réside dans le fait que le troisième champ MAC de la trame,
le champ type, a changé de signification et est devenu un champ longueur.
2. Les adresses sont dotées d’un second bit particulier Individual/Universal, placé après
le bit Unicast/Multicast.
3. De plus les adresses peuvent avoir non plus seulement 48 bits mais 16 ou 48 bits.
4. Le brochage du câble s’est enrichi d’une paire supplémentaire : Control Out (rarement
utilisée) et d’un blindage individuel par paire.
6. Un signal de test de la paire de collision du câble AUI a été ajouté : le SQE test
circule du transceiver vers l’interface coupleur.
Avec un débit de 10 Mégabits par seconde, Ethernet 10 base X fait déjà partie des réseaux à hauts
débits. La version 100 Mégabits est une évolution du 10 base T idéal pour les réseaux locaux
d’entreprise.
Il existe deux classes de hubs différentes, les hubs de classe 1 qui régénèrent les signaux et les
diffusent sur les autres ports selon le type de port (100 base TX ou 100 base T4) et les hubs de classe
2 qui répètent immédiatement les signaux reçus et donc qui autorisent une connexion avec une et
uniquement une cascade avec une distance inter-hub de 5 mètres.
Le 100 base T4 utilise un codage de type 8B/6T (8 bits sur 3 temps d’horloge). Trois paires sont
utilisées pour la transmission de données, la quatrième pour la détection de collision.
Le 100 base TX et 100 base FX utilise la signalisation 4B/5B (16 symboles parmi 32) sur une paire ou
fibre d’émission et une paire ou fibre de réception.
Le Gigabit Ethernet fonctionne en full-duplex dans le mode switch-to-switch et dans le mode switch-to-
end-station (de commutateur à commutateur ou à station) et en half-duplex pour les stations
raccordées directement à un hub.
Pour maintenir un diamètre de réseau suffisant en half-duplex (200 mètres), la fenêtre de collision a
été modifiée, la trame minimale étant portée à 64 octets. L’IFG reste à 96 bits.
Le Gigabit Ethernet se présente comme une solution d’attente ou un complément plutôt qu’un
concurrent d’ATM.
Exemples d’architecture
Ces deux évolutions d’Ethernet sont généralement utilisées comme backbone sur les réseaux locaux.
Les machines ne travaillent pas nécessairement à 100 ou 1000 Mbps mais les commutateurs qui
forment la partie centrale du réseau l’utilisent.
CHAPITRE IV
1 Introduction
Token Ring est le protocole promu par IBM pour se démarquer d’Ethernet. Au départ ce réseau avait
un débit de 4 Mbps, aujourd’hui c’est du 16 Mbps. On a vu avec Ethernet que l’organisation pour
l’accès à la parole était assez anarchique : chacun parle quand il veut, sa méthode de détection des
collisions est basée sur le principe qu’on laisse se produire des erreurs et qu’on les traite quand elles
arrivent. IBM n’a pas apprécié cette philosophie et a inventé l’anneau (RING) à jeton (TOKEN) où
chacun parle quand on lui donne la parole.
2 Principe
Un jeton tourne, va de station en station. Lorsque l’on veut parler on attend que le jeton passe. S’il est
libre on le marque occupé et on parle. Lorsque l’on reçoit un message on marque la trame pour
signaler qu’on l’a lue et on la laisse continuer. L’émetteur reçoit donc la trame qu’il a émise en sachant
si le destinataire l’a lue. Il libère le jeton et le passe à son voisin. Comme il n’y a qu’un jeton en
circulation sur l’anneau une seule station peut transmettre à un instant donné. Ceci évite l’émission
simultanée de plusieurs trames et résout le problème de l’accès multiple.
Il est plus lent sur de faibles charges qu’Ethernet mais plus rapide qu’Ethernet (même 100 Mbps) sur
de lourdes charges car il ne s’écroule pas sous les collisions. Lorsque le trafic est faible, le jeton
passe la plupart de son temps à circuler sur l’anneau. De temps en temps une station en prend
possession et émet sa trame. Par contre lorsque le trafic s’intensifie de sorte que chaque station
possède des trames en attente d’émission, dès qu’une station libère le jeton, la suivante le prend
immédiatement. Le droit d’émettre se déplace de station en station suivant l’ordre de connexion
physique.
3 Topologie
En topologie logique c’est un anneau. C’est à dire que ce n’est pas un simple réseau à diffusion mais
une succession de liaisons point à point formant un cercle. Par contre sa topologie physique (qui peut
aussi être un anneau) est souvent une étoile. L’étoile permet en fait d’ajouter une station sur le réseau
en fonctionnement et d’assurer le bon fonctionnement de l’anneau en cas de panne d’une station.
Le TR était assez novateur pour le câblage car il utilise du matériel actif équivalent au HUB Ethernet
et ceci bien avant 10base T. Ce matériel qui donne la configuration en étoile est nommé MAU
(Medium Acces Unit) et c’est lui qui permet de détecter une coupure dans l’anneau et de la réparer
immédiatement. C’est aussi cet équipement qui permet d’ajouter une station à « chaud ». Il est
possible d’avoir un anneau d’étoiles en reliant plusieurs MAU ensemble. Le TR peut compter jusqu’à
256 stations.
4 Le niveau physique
Au niveau physique la norme recommande d’utiliser des paires torsadées blindées bien qu’en théorie
on puisse aussi utiliser du coax ou de la fibre optique. Les signaux de transmission sont en Bande de
Base et utilisent les règles du codage Manchester Différentiel : un bit à 1 correspond à une transition
en début de l’intervalle temps du bit, un bit à 0 est caractérisé par l’absence de transition. Cette
méthode de codage est plus complexe mais offre une meilleure immunité aux bruits.
Remarque : les cartes TR sont prévues pour pouvoir émettre en même temps qu’elles reçoivent. En
effet si l’anneau est court et que la trame est longue il se peut très bien que les premiers octets de la
trame reviennent avant que les derniers ne soient émis.
5 Trame
Marqueur début et fin : codage erroné du Manchester Différentiel en oubliant la transition au milieu
de l’intervalle temps bit. Sur TR des 0 et des 1 sont transmis en permanence, ainsi c’est l’absence de
signal cohérent pendant 2 bits puis un bit à 0, encore 2 bits incohérents et enfin 3 bits à 0 qui signale
le début. La fin d’une trame est signalée par 2 bits incohérents, un bit à 1, 2 bits incohérents puis 3
bits à 1.
On notera qu’il n’y a pas de préambule comme dans Ethernet. Ceci s’explique naturellement par le fait
que le préambule (suite de 1 et de 0) permet aux différentes stations de synchroniser leurs horloges
de lecture des bits. Or, sur TR on transmet en permanence des 1 et des 0, les horloges sont donc en
permanence synchronisées.
Le champ Control est utilisé pour gérer le droit à la parole. Il y a un bit pour signifier si le jeton est
libre ou non et 7 autres dont on verra l’utilité précise par la suite : 1 bit de supervision dit bit moniteur,
3 bits de priorité (de 0 à 7) et 3 bits de réservation.
Frame Control est le champs qui permet de déterminer le type de trame, c’est à dire de distinguer les
trames de données des trames diverses de commande du réseau.
Les adresses sont par défaut celles inscrites par le constructeur sur la carte (chacune est unique au
monde), elles sont sur 6 octets. En local on peut redéfinir les adresses sur uniquement 2 octets. Ceci
permet de gagner 4 octets par trame.
Le champ données peut être aussi long que l’on veut. Ceci dit étant donné que chaque station a un
temps maximum de maintient du jeton, la taille des données maximale sera limitée par le nombre
maximal de bits que peut émettre la station pendant ce temps.
Le champs frame status contient 2 informations : les bits A et C. A est mis à 1 lorsqu’un MAU
reconnaît l’adresse destinataire comme étant celle d’une des stations lui étant reliée. C est mis à 1
lorsque la station destinataire effectue une copie de la trame.
6 Le protocole
La base du protocole est la capture du jeton lorsque l’on veut transmettre. Lorsque le jeton est
capturé, la station peut le conserver pendant le « temps de maintient du jeton » (THT : Token Holding
Timer) dont la valeur est paramétrable. Par défaut elle est de 10 ms. Pendant ce temps la station doit
émettre une grande trame, plusieurs trames ou relâcher le jeton si elle n’a plus rien à émettre.
Le principe étant basé sur un jeton, il est important de le surveiller. Si le jeton est perdu, par exemple
à cause d’une perturbation électrique ou de la panne d’une station, plus personne ne pourra parler. Il
se peut aussi qu’une trame tourne indéfiniment sur le réseau si l’émetteur de cette trame tombe en
panne avant de la retirer.
Il y a donc une station sur le réseau appelée moniteur. Elle va surveiller et gérer les problèmes
susceptibles de se produire. Le moniteur vérifie notamment que la structure du jeton est correcte et
qu’une trame orpheline ne circule pas sur l’anneau. Lorsqu’une situation anormale est constatée, le
moniteur purge l’anneau et y injecte un nouveau jeton.
Méthode pour surveiller la présence du jeton : le moniteur réinitialise un timer à chaque passage du
jeton, si le timer arrive à bout avant que le moniteur ne voit passer le jeton, il émet une trame de purge
(PRG) qui fait le tour de l’anneau. Ensuite, il émet un jeton neuf.
Méthode pour surveiller une trame qui boucle : lorsqu’une trame passe devant le moniteur, il met le bit
moniteur de l’octet contrôle d’accès de la trame à 1. Ainsi si le moniteur voit arriver une trame avec ce
bit M à 1 c’est que la trame a déjà fait plus d’un tour. Le moniteur la supprime donc comme s’il en était
l’émetteur et émet un jeton vide.
7 Le moniteur
Le moniteur a donc un rôle essentiel dans le réseau. Il aurait donc été impensable de dédier un poste
à ce rôle : le réseau aurait entièrement dépendu du bon fonctionnement de ce poste. Une panne du
câble, du poste ou du logiciel du poste aurait paralysé tout le réseau. Le principe choisi a donc été que
chaque station du réseau puisse jouer le rôle du moniteur. La première connectée au réseau se
déclare moniteur, si cette station vient à défaillir, elle est remplacée immédiatement par une autre
station (toutes les stations en ayant la capacité). Puisqu’il y aura des candidatures multiples, un
protocole particulier désigne l’une des stations comme moniteur.
Il reste néanmoins un risque : si le moniteur émet une trame AMP et meurt. La trame AMP va tourner
en boucle, personne ne s’apercevra qu’il n’y ait plus de moniteur. De plus, étant donné que la trame
AMP possède le jeton, plus personne ne parlera. Pour régler ce problème le moniteur attend un temps
minimum entre deux émissions d’AMP et chaque station possède un deuxième timer réinitialisé au
passage d’un AMP. Si la trame AMP arrive avant que ce timer n’arrive à terme dans une station, cette
dernière détruit la trame AMP et lance la procédure d’élection d’un nouveau moniteur.
Protocole d’élection d’un nouveau moniteur : pour l’élection d’un nouveau moniteur on va choisir la
station ayant l’adresse la plus grande.
La première station qui détecte l’absence de moniteur actif, c’est à dire dont le premier timer arrive à
terme avant le passage de la trame AMP ou dont le deuxième timer n’est pas arrivé à terme au
passage de cette même trame, lance une trame particulière appelée Claim Token qui contient son
adresse. Lorsqu’une station reçoit un claim Token elle en émet un autre avec comme adresse la plus
grande entre celle reçue et la sienne. Cette procédure au bout du compte arrive au fait que la station
ayant l’adresse la plus grande reçoit un claim Token avec sa propre adresse. A ce moment elle se
déclare moniteur.
Seulement, à cet instant, elle est seule à savoir qu’elle est moniteur, elle émet alors une trame qui
signale qu’elle a pris le rôle de moniteur.
8 Moniteur multiple
Bien sûr, si la présence d’un moniteur est indispensable, il ne faut absolument pas qu’il y en ait
plusieurs. Cela provoquerait un retrait de trame non justifié. Par exemple le premier moniteur, en
voyant passer la trame mettrait le bit M à 1, le second croirait que la trame vient de boucler et la
supprimerait.
Pour éviter cela, le moniteur va surveiller les trames AMP, s’il lui en arrive une qu’il n’a pas émise,
c’est qu’il y a un autre moniteur. Il lance alors la procédure d’élection d’un nouveau moniteur.
9 L’autotest matériel
Nous avons vu qu’en cas de trame qui boucle le moniteur purge l’anneau avec une trame PRG. La
purge est en fait utilisée à chaque fois qu’un problème apparaît, cependant il arrive que la purge ne
règle pas le problème. Dans ce cas les stations du réseau, voyant qu’une trame PRG est passée mais
que le problème persiste, élisent un nouveau moniteur qui tente à son tour de purger l’anneau. Si le
problème persiste encore, on entre dans la phase d’autotest. C’est à dire que toutes les stations du
réseau se déconnectent et se font un test matériel complet. Ensuite, seules les stations s’étant
reconnues comme saines se reconnectent et élisent un nouveau moniteur.
10 Notion de priorité
En plus du fait que le protocole de TR soit déterministe au contraire d’Ethernet, il est doté d’un
mécanisme pour la notion de priorité des trames.
Jusqu’à présent, on a décrit le fonctionnement en supposant que toutes les trames avaient la même
priorité, hors TR prévoit 8 niveaux de priorité, de 0 (trame courante) à 7 (trames exceptionnelles et
urgentes).
En fait, lorsqu’une station veut émettre une trame, soit il n’y a pas de trafic et elle va pouvoir prendre
immédiatement le jeton libre (dans ce cas le niveau de priorité désiré est sans importance) soit il y a
du trafic et elle va voir passer plusieurs trames avant que le jeton ne lui revienne. Dans ce cas elle va
utiliser le champ réservation de la trame qui passe devant elle en lui mettant son niveau de priorité
Bien sûr, ce n’est pas forcement celle qui avait effectué la plus forte réservation qui va prendre le jeton
puisque si une station pendant le tour du jeton est apparue avec une priorité plus forte, elle prendra le
jeton qu’elle ait effectué ou pas une réservation !
Dans TR si un câble est défaillant c’est tout le réseau qui est affecté contrairement à Ethernet où ce
ne sont que les stations branchées sur ce câble qui sont coupées du réseau. Il fallait donc un
mécanisme pour parer à cette éventualité. De même si une station s’arrête alors qu’elle était
connectée sur le réseau, il ne faut plus lui envoyer de trame car sinon, l’anneau serait ouvert. C’est le
MAU qui règle tout cela. En fait les stations ne sont pas vraiment en étoile comme on l’a vu
précédemment, elles sont connectées à un MAU qui simule l’anneau.
Celui-ci étant en liaison permanente avec les cartes TR, dès que l’une d’elles ne répond plus, il l’a
court-circuite pour fermer l’anneau.
Il en est de même pour des coupures de câbles : c’est le MAU qui va court-circuiter le câble défaillant.
Avant cela il faut détecter l’endroit de la panne. Pour cela les stations ont un protocole bien défini :
quand un câble de l’anneau est sectionné, très vite, plus personne ne reçoit rien. Les stations
émettent alors des trames appelées BCN (Beacon) pour signaler qu’elles ne reçoivent plus rien. Une
Beacon contient au départ l’adresse de la station émettrice. Une station qui reçoit une Beacon la
retransmet et arrête d’émettre les siennes. Ainsi ne circuleront très rapidement sur le réseau que les
Beacons de la station qui se situe juste après la coupure puisque ce sera la seule à ne rien recevoir.
Le MAU sait alors où se situe la coupure grâce à l’adresse située dans ces Beacons. Il l’isole en
refermant l’anneau par un autre chemin.
12 Duplication d’adresse
Le TR étant prévu pour fonctionner avec des adresses sur 2 octets définies par l’administrateur, il est
possible que dû à une erreur humaine deux stations aient la même adresse.
Ceci est gênant donc, quand une station se connecte au réseau, elle commence par émettre une
trame DAT (Duplicate Adresse Test).
Cette trame a comme particularité d’avoir comme adresse destinataire l’adresse source.
Ainsi lorsque cette trame revient si le frame status indique que la trame a été lue, c’est qu’il y a une
autre station avec la même adresse.
13 Un mécanisme complexe
Les erreurs qui sont susceptibles de détruire le fonctionnement de l’anneau sont nombreuses.
Nous n’avons pas traité tous les cas prévus par la norme : nous n’avons pas parlé des émissions
continues, des pertes du signal, des erreurs de fréquence et de transmission, des pertes de trames,
des modifications du jeton, de la non reconnaissance des délimiteurs…
La méthode d’accès à la parole qui paraissait simple au départ et posant moins de problèmes que
CSMA/CD est en fait un vrai casse tête dû au fait que la moindre perturbation doit au moins être suivie
d’une purge de l’anneau.
14 Les ponts
Ces ponts ont les mêmes fonctionnalités que les ponts Ethernet mais utilisent un principe
fondamentalement différent.
Les ponts Ethernet sont dits transparents et le routage se fait de pont en pont.
Sur TR on parle de routage à la source et les stations ont parfaitement « conscience » de la présence
des ponts.
Les stations A, B, C et D peuvent être sur un même réseau physique. Le pont limite l’encombrement
en ne laissant passer que les trames nécessaires. Pour situer les stations, le pont observe les
adresses sources des trames et en cas de doute, il diffuse.
Lorsque la station A envoie une trame à la station D : A diffuse la trame et ne se soucie pas du travail
des ponts qui vont amener la trame à bon port. Pour régler le problème du chemin lorsqu’il y en a
plusieurs, les ponts Ethernet utilisent l’algorithme du Spanning Tree :
1 -- On choisit un pont racine, ce sera celui dont l’adresse est la plus petite.
2 – Sur chaque réseau on choisit un pont désigné qui le raccorde à la racine : on prend celui qui a le
plus court accès (en nombre de ponts) à la racine. Donc le pont racine est le pont désigné pour
chacun des réseaux auxquels il est raccordé. S’il y a des ex æquo on prend celui qui a la plus petite
adresse.
Les ponts TR :
Leur système est beaucoup plus simple : ils ne font rien ! En fait les stations ont « conscience » qu’il
peut y avoir des ponts et donc le gèrent.
Lorsqu’une station veut parler à une autre, elle va d’abord essayer de lui parler sur son anneau.
Si personne ne lit la trame, elle pense que la station est sur un autre anneau relié par un pont. Elle la
recherche en envoyant une trame discovering. Quand un pont voit passer une trame de ce type il se
note dedans et la renvoie de l’autre côté. Si un pont voit passer une trame discovering où il est déjà il
la jette. Quand le destinataire la reçoit, il la renvoie en suivant le chemin inverse. Ainsi la station de
départ connaît le chemin d’accès au destinataire et le notera dans chaque trame qu’elle lui enverra.
Il y a plusieurs politiques applicables : soit on prend le premier qui revient, soit celui qui a traversé le
moins de ponts,…
Le principe de noter le chemin dans chaque trame est appelé routage à la source.
15 Conclusion
Au niveau efficacité le TR est une réussite puisque le débit effectif suit à peu près le débit soumis et
en tout cas ne s’écroule jamais. De plus il gère parfaitement les niveaux de priorité, ce qui le rend
conforme aux utilisations temps réels.
Cependant, il n’a pas réussi à s’imposer car sa technologie est trop chère et que la
méthode d’accès est finalement assez complexe. De plus son principe ne se prête
pas à l’utilisation des switchs qui permettent d’isoler les serveurs sur des parties à
hauts débits.