Académique Documents
Professionnel Documents
Culture Documents
Architecture Des Reseaux Haut Debit Cours PDF
Architecture Des Reseaux Haut Debit Cours PDF
des
réseaux haut débit
cours, exercices et corrigés
Kim-Loan Thaï
Véronique Vèque
Simon Znaty
Architecture
des réseaux haut débit
Collection dirigée p a r Pierre Rolin
Architecture
des réseaux
haut débit
cours, exercices et corrigés
Kim-Loan Thai
Véronique Vèque
Simon Znaty
HERMES
© Hermès, Paris, 1995
Editions Hermès
14, rue Lantiez
75017 Paris
ISBN 2-86601-494-4
Catalogage Electre-Bibliographie
Thai, Kim Loan*Vèque, Véronique*Znaty, Simon
Architecture des réseaux haut débit : cours, exercices et corrigés. -
Paris : Hermès, 1995. - (Réseaux et télécommunications)
ISBN 2-86601-494-4
RAMEAU : ordinateurs, réseaux d': architectures : manuels d'enseignement supérieur
DEWEY : 621.62 : Physique appliquée. Systèmes, réseaux et services des
télécommunications
à Kim-Mai et Anh,
à Christophe,
à Marianne et Edouard.
Table des matières
Introduction 1
1.1. Introduction 5
1.2. Les réseaux 5
1.2.1. Classification 5
1.2.2. Applications 7
1.2.2.1. Applications des réseaux grande distance 7
1.2.2.2. Applications des réseaux locaux 8
1.2.2.3. Applications des réseaux métropolitains 8
1.2.3. Caractéristiques fonctionnelles 9
1.3. Les organismes de normalisation 10
1.3.1. Les organismes officiels internationaux 12
1.3.1.1. L'ISO 12
1.3.1.2. LUIT 13
1.3.2. Les organismes européens 13
1.3.3. Autres organismes 14
1.4. Le modèle de référence OSI 15
1.4.1. Concepts de base de la structuration en couches 16
1.4.1.1. Organisation des communications avec le modèle OSI. 16
1.4.1.2. Transfert de données 19
1.4.2. Définition des services 21
1.4.3. Description des couches 22
1.4.3.1. La couche physique 22
1.4.3.2. La couche liaison de données 23
1.4.3.3. La couche réseau 23
1.4.3.4. La couche transport 23
1.4.3.5. La couche session 23
VIII Architecture des réseaux haut débit
2.1. Introduction 37
2.2. L'architecture IEEE 38
2.3. Supports de transmission 40
2 . 3 . 1 . Caractéristiques 40
2.3.2. Les paires torsadées 42
2.3.3. Le câble coaxial 44
2.3.4. La fibre optique 45
2.3.5. Supports non guidés 46
2.4. Topologies 47
2.4.1. L'étoile 47
2.4.2. Le bus 48
2.4.3. L'anneau 49
2.5. Les familles de contrôle d'accès 51
2.5.1. L'accès statique 51
2.5.1.1. Accès multiple à répartition dans le temps 51
2.5.1.2. Accès multiple avec répartition en fréquence 52
2.5.2. L'accès déterministe 53
2.5.2.1. Le polling 53
2.5.2.2. Accès par jeton 53
2.5.3. L'accès aléatoire 56
2.5.3.1. Le protocole Aloha 56
2.5.3.2. CSMA (Carrier Sense Multiple Access) 57
2.5.3.3. CSMA/CD (CSMA with Collision Detection) 58
2.5.3.4. CSMA/CA (CSMA with Collision Avoidance) 59
Exercices 60
3 . 1 . Introduction 63
3.1.1. Historique 63
3.1.2. Le standard 802.3 64
3.2. Le protocole MAC 65
Table des matières IX
4 . 1 . Introduction 89
4.2. Token Ring 90
4.2.1. Principe de l'accès à jeton 90
4.2.2. Structure du standard 802.5 91
4.2.3. Le protocole MAC 802.5 92
4.2.3.1. Les trames MAC 92
4.2.3.2. Transmission d'une trame de données 95
4.2.3.3. Remise du jeton et retrait de la trame 95
4.2.3.4. Automate de transmission 96
4.2.3.5. Réception 97
4.2.3.6. Niveaux de priorité 97
4.2.3.7. Les temporisateurs et les drapeaux 98
X Architecture des réseaux haut débit
Corrigés 309
Chapitre 1 309
Chapitre 2 313
Chapitre 3 320
Chapitre 4 323
Chapitre 5 328
Chapitre 6 334
Chapitre 7 336
Chapitre 8 340
Chapitre 9 348
Bibliographie 363
Chapitre 1 363
Chapitre 2 365
Chapitre 3 367
Chapitre 4 368
Chapitre 5 368
Chapitre 6 369
Chapitre 7 370
Chapitre 8 370
Chapitre 9 372
Index 383
Introduction
Au fur et à mesure que les ordinateurs ont remplacé les êtres humains dans leurs
tâches les plus répétitives, il a aussi fallu permettre à ces ordinateurs de
c o m m u n i q u e r à d i s t a n c e , de manière a u t o m a t i q u e et r a p i d e . D e s
télécommunications humaines, on passait à l'ère de la téléinformatique et des
réseaux d'ordinateurs, avec leurs contraintes propres. En effet, l'ordinateur ne peut
comprendre qu'un nombre limité de commandes dans un cadre bien défini. La
moindre interférence sur la ligne trouble le comportement de la machine destinataire
car elle n'a pas la possibilité d'extrapoler. Aussi ont été développés les protocoles
de communication qui définissent les règles d'échange entre ordinateurs et
fiabilisent les échanges.
Les communications entre ordinateurs ont d'abord utilisé les infrastructures
existantes : sur de grandes distances, le réseau téléphonique analogique, et au sein
2 Architecture des réseaux haut débit
de l'entreprise, des lignes série reliant les terminaux à l'ordinateur de calcul. Très
vite, l'utilisation du téléphone a présenté de nombreux inconvénients : tarification
inadaptée, débits faibles, extrême sensibilité aux interférences électromagnétiques.
Dès les années 70, de nombreux travaux ont été menés tant par les industriels que
par les opérateurs de télécommunication pour développer des services publics
adaptés à la transmission de données : les réseaux à commutation de paquets. Ces
réseaux étaient révolutionnaires dans la mesure où ils structurent les données en
paquets facilitant ainsi reprise sur erreur et multiplexage temporel, avec des débits
nettement plus élevés et une tarification au volume tenant compte de l'activité
discontinue du trafic de données.
A la fin des années 80, est apparu un troisième type de réseau, les réseaux
métropolitains (MAN — Metropolitan Area Network) dont la taille est
intermédiaire, à mi-chemin entre le réseau local et le réseau grande distance. Leur
objectif est l'interconnexion à haut débit (au-delà de la centaine de Mbit/s) de
réseaux locaux, sur un site étendu, un campus par exemple, voire une ville. Ces
réseaux métropolitains ont profité de l'expérience acquise avec les réseaux locaux et
utilisent des techniques voisines. Toutefois, en plus du service de transfert de
données informatiques, ils permettent de nouveaux services tels le transfert
d'images ou le transfert de voix téléphonique numérisée.
Parallèlement, les réseaux grande distance ont eux aussi évolué. La numérisation
de la parole par un procédé d'échantillonnage périodique du signal a conduit à la
mise en place d'un nouveau réseau téléphonique complètement numérique offrant
un service de transfert plus fiable, plus efficace, plus riche en fonctionnalités et plus
rapide. La conséquence majeure est la possibilité d'intégrer sur un même réseau les
services de transmission des données et de voix téléphonique. Le réseau numérique
à intégration de services était né avec pour objectif d'offrir à terme un accès
uniforme quel que soit le type de service demandé. Dans sa version large bande, ce
concept sera généralisé puisqu'aux services de phonie et de données s'ajouteront les
Chapitre 1
1.1. Introduction
Comme nous allons le voir, il n'y pas un réseau mais des réseaux. Le paragraphe
1.2 relate succinctement les différences les plus marquantes entre les divers types de
réseaux. De même, ces derniers ne sont pas utilisés pour relier un seul type
d'équipements mais des équipements de nature diverse, provenant de constructeurs
différents, appartenant à des générations différentes et possédant également des
finalités différentes. Car quel est le point commun entre un ordinateur et un
scanner ? Tous deux communiquent via des réseaux de communication. Gérer cette
hétérogénéité a rapidement fait naître le besoin d'un cadre de normalisation. Le
paragraphe 1.3 présente les principaux organismes acteurs de cette normalisation.
Les principes du modèle de référence OSI définissant un cadre d'échange entre
systèmes communicants sont ensuite présentés au paragraphe 1.4. L'architecture
Internet du DoD est, quant à elle, décrite brièvement dans le paragraphe 1.5. Nous
présentons enfin les principes de l'administration des réseaux dans le paragraphe 1.6.
1.2.1. Classification
De nombreux collègues et amis, membres de notre famille nous ont permis de mener
à bien la rédaction de cet ouvrage.
Enfin, nous remercions nos proches et les membres de nos familles pour le soutien,
la compréhension et la patience dont ils ont fait preuve tout au long de la rédaction
de cet ouvrage.
1.1. Introduction
Comme nous allons le voir, il n'y pas un réseau mais des réseaux. Le paragraphe
1.2 relate succinctement les différences les plus marquantes entre les divers types de
réseaux. De même, ces derniers ne sont pas utilisés pour relier un seul type
d'équipements mais des équipements de nature diverse, provenant de constructeurs
différents, appartenant à des générations différentes et possédant également des
finalités différentes. Car quel est le point commun entre un ordinateur et un
scanner ? Tous deux communiquent via des réseaux de communication. Gérer cette
hétérogénéité a rapidement fait naître le besoin d'un cadre de normalisation. Le
paragraphe 1.3 présente les principaux organismes acteurs de cette normalisation.
Les principes du modèle de référence OSI définissant un cadre d'échange entre
systèmes communicants sont ensuite présentés au paragraphe 1.4. L'architecture
Internet du DoD est, quant à elle, décrite brièvement dans le paragraphe 1.5. Nous
présentons enfin les principes de l'administration des réseaux dans le paragraphe 1.6.
1.2.1. Classification
1 m un ordinateur multiprocesseur
1.2.2. Applications
Les réseaux locaux sont nés des besoins de communication au sein d'une
organisation (entreprise, administration, université, etc.) [Schatt 87]. Pour en
comprendre l'utilité, il suffit d'imaginer le cas d'une seule imprimante disponible
pour l'ensemble des ordinateurs d'un même service. La solution "réseau local"
s'impose car il est impensable que chacun établisse une liaison physique de son
ordinateur à l'imprimante ; de même, il serait aberrant de faire passer le document à
imprimer dans un réseau public pour le faire arriver à l'imprimante qui se trouve à
proximité. L'un des bénéfices majeurs offerts par le réseau local est le partage de
ressources onéreuses (imprimantes, disques, accès aux réseaux grande distance, etc.).
Le partage et l'échange d'informations entre systèmes est une raison supplémentaire
d'interconnecter des équipements informatiques via un réseau local. En effet, un
utilisateur travaille rarement seul et coupé de l'extérieur. Il a besoin de communiquer
avec le reste de son environnement (messagerie, forum, etc.) : le réseau local offre
un moyen de communication électronique entre les différents utilisateurs. Il peut
avoir besoin, à un moment donné, d'accéder à de l'information située en divers
endroits, tout comme plusieurs utilisateurs peuvent avoir besoin d'accéder au même
fichier : le réseau local offre un accès partagé à l'information.
A titre anecdotique, le tableau 1.2 donne la liste des objectifs ayant guidé la
c o n c e p t i o n du réseau local Ethernet [ D E C 8 0 ] . Il est intéressant de constater que
certains ont été aujourd'hui largement dépassés (débits, distances) et que d'autres
n'ont j a m a i s été atteints (stabilité à forte charge) !
o r g a n i s m e s d e
n o r m e s
n o r m a l i s a t i o n
d e b a s e
i n t e r n a t i o n a u x
g r o u p e m e n t s o r g a n i s m e s d e
d'utilisateurs profils n o r m a l i s a t i o n
f o n c t i o n n e l s r é g i o n a u x
g r o u p e m e n t s
d e c o n s t r u c t e u r s
o r g a n i s a t i o n s tests de
de test c o n f o r m i t é
1.3.1.1. L'ISO
L'ISO, fondée en 1946, est chargée de la normalisation dans un éventail très large
de secteurs, mais ne couvrant pas l'électronique, l'électricité et l'électrotechnique qui
sont prises en charge par le CEI. Elle regroupe des organisations nationales non
gouvernementales comme l'AFNOR (Association Française de Normalisation) pour
la France et l'ANSI (American National Standards Institute) pour les Etats-Unis,
ainsi que des organisations jouant le rôle d'observateurs et ne prenant pas part aux
votes (telle l'ECMA (European Computer Manufacturer Association), association
regroupant des constructeurs informatiques — à l'origine européens, mais
aujourd'hui pratiquement tous les grands internationaux).
L'ISO est organisée de façon hiérarchique avec des comités techniques (TC —
Technical Committee) au premier niveau, découpés en sous-comités (SC — Sub
Committee), eux-mêmes découpés en groupes de travail (WG — Working Group).
Ainsi les normes afférentes au modèle de référence OSI et à ses couches sont issues
du comité technique TC 97 travaillant sur les systèmes d'information. Un comité
technique joint, le JTC 1, a été créé en 1987 sur la technologie de l'information avec
le CEI, étant donné le recouvrement des centres d'intérêt. Les normes issues du
JTC 1 portent donc le double-logo de l'ISO et du CEI, y compris celles relatives au
modèle OSI. A noter que le membre représentatif d'un pays au CEI est souvent le
même qu'à l'ISO.
Le processus d'élaboration d'une norme est long (cinq ans, en moyenne) et passe
par plusieurs phases (WD — Working Document, CD — Committee Draft, DIS —
Draft International Standard) avant d'aboutir à un document définitif (IS —
International Standard).
Architecture en couches et normalisation 13
1.3.1.2. LUIT
L'UIT est l'organisation internationale intergouvernementale compétente en
télécommunications. Elle fonctionne sous l'égide de l'Organisation des Nations
Unies et ses membres représentent les Etats. Pour le secteur qui nous intéresse,
l'UIT-T (Telecommunication Standardization Sector, ex-CCITT) rassemble les
administrations des télécommunications des pays membres de I'UIT et des
exploitants (publics ou privés) mandatés, auxquels viennent d'ajouter des
organisations régionales ou sectorielles. Le représentant français est France Télécom,
le représentant américain le Département d'Etat.
- couche 1 : physique,
- couche 2 : liaison de données,
- couche 3 : réseau,
- couche 4 : transport,
- couche 5 : session,
- couche 6 : présentation,
- couche 7 : application.
16 Architecture des réseaux haut débit
Les normes OSI se séparent en deux familles, d'une part les normes d'usage
général qui servent à fixer une terminologie, à définir des concepts de base et à
établir des règles d'utilisation de ces concepts et d'autre part, les normes spécifiques
qui s'adressent à des points précis définis dans les normes d'usage général.
Chaque couche de rang N, dite couche (N), utilise les services (N-l) de la couche
immédiatement inférieure de rang N - l , pour offrir les services (N) à la couche
immédiatement supérieure de rang N+l (sauf, bien entendu, les couches d'extrémité).
La couche ( N - l ) est dite fournisseur des senices ( N - l ) alors que la couche (N) est
dite utilisateur des senices (N-l) (figure 1.2).
Une couche (N) peut comporter plusieurs sous-systèmes (N), chacun d'eux
pouvant à son tour se décomposer en plusieurs entités (N) (figure 1.3). Les entités
représentent les éléments actifs du sous-système ; ce sont elles qui réalisent les
fonctions du sous-système.
couche de plus
bas niveau
support physique d'interconnexion
Le service (N) est assuré par les entités (N), dites entités homologues. Les
entités (N) communiquent et coopèrent entre elles selon un protocole (N) au travers
de l'ensemble des services fournis par la couche (N-l). Les entités accèdent aux
services ( N - l ) à partir de points d'accès à des services ( N - l ) appelés ( N - l ) S A P
(Service Access Point) (figure 1.4). Chaque point d'accès (N) est identifié par une
adresse de (N)SAP. Chaque (N)SAP ne peut être servi que par une seule entité (N) et
ne peut servir qu'une seule entité (N+1). De façon dissymétrique, une entité (N) peut
servir plusieurs (N)SAP et peut être servie à partir de plusieurs (N-l)SAP.
(N)SAP
service (N)
service (N-l) •
(N-l)SAP
protocole (N+l)
couche (N+l) entité (N)+l entité (N+l)
service (N)
- (N)SAP N(CEP)'
couche (N)
connexion (N)
Le modèle OSI a été initialement conçu pour le mode connecté, c'est-à-dire pour
que la communication entre entités de même rang se fasse sous la forme de
connexion logique. Selon l'approche du mode connecté, pour que deux usagers
distants puissent communiquer, il faut commencer par établir une connexion au
niveau le plus bas, le niveau physique, puis établir une connexion au niveau
suivant, le niveau liaison de données, et ainsi de suite jusqu'au niveau le plus haut,
le niveau application. Cette phase d'établissement de connexion correspond en fait à
une négociation tripartite entre deux entités (N+l ) et le service (N), ce dernier devant
établir la connexion (N) souhaitée par les deux premières. Elle sert à fixer un certain
nombre de caractéristiques de la communication, telles que l'identité des
correspondants, le protocole (N) à suivre, les services optionnels à utiliser, ou
encore les paramètres de qualité de service. Après cette phase d'établissement, la
connexion entre dans la phase de transfert de données pendant laquelle est échangée
l'information utile entre les deux entités (N+l). Toute cette information, structurée
en blocs de données d'après le protocole (N), suit la route logique qui a été établie
lors de la phase d'établissement. La communication s'achève ensuite par une phase
de libération de connexion. Cette phase correspond à une libération des ressources
mobilisées par la communication et à une rupture du dialogue entre les deux entités
(N+l ) communicantes.
Architecture en couches et normalisation 19
C'est à la suite de ces considérations que l'ISO a entrepris des travaux sur les
communications en mode non connecté ou datagramme. Ils ont abouti à l'additif 1 de
la norme ISO 7498. Le modèle OSI en mode non connecté reprend les mêmes
principes que le modèle de base en mode connecté, pour ce qui est de la structuration
en couches et des fonctions de base. La principale différence repose sur le fait que les
blocs de données, au lieu d'être véhiculés dépendamment les uns des autres pendant la
phase de transfert, sont acheminés de façon tout à fait indépendante. Ils doivent par
conséquent comporter toute l'information de contrôle nécessaire à leur acheminement
vers leur destinataire. Par ailleurs, en mode non connecté, il n'y a ni établissement,
ni libération de connexion. Cela implique qu'une communication entre entités (N+l)
ne nécessite pas au préalable l'existence d'une communication entre entités (N). De
même, il n'y a pas de négociation tripartite entre les deux entités (N+l) et le service
(N). A la place, nous trouvons un type de négociation plus simple, bilatéral,
puisque ne mettant en cause que deux intervenants : une entité (N+l) et le service
(N), ou deux entités (N+l). En mode non connecté, les blocs de données étant
acheminés indépendamment les uns des autres, il n'est pas toujours possible de
fiabiliser le transfert de données ; en particulier, les pertes, les duplications et le
déséquencement des blocs de données sont possibles.
Nous avons vu que deux entités (N) peuvent communiquer en utilisant le service
(N-l) offert par la couche inférieure, l'échange de données étant régi par le protocole
(N). Ce dernier spécifie l'ensemble des règles et des formats utilisés pour la
communication.
20 Architecture des réseaux haut débit
(N)PDU (N)PDU
i 1
Une primitive de requête est envoyée par un utilisateur des services (N) à un
fournisseur des services (N) pour lui demander l'activation d'un service particulier
(par exemple, l'établissement d'une connexion (N)). Une primitive d'indication est
envoyée par un fournisseur des services (N) à un utilisateur des services (N) pour lui
signaler l'activation d'un service particulier, de sa propre initiative ou suite à une
demande faite à l'autre extrémité de la communication. Une primitive de réponse est
envoyée par un utilisateur des services (N) à un fournisseur des services (N), sur un
(N)SAP donné, en réponse à une primitive d'indication reçue sur ce même (N)SAP.
Une primitive de confirmation est envoyée par un fournisseur des services (N) à un
utilisateur des services (N), sur un (N)SAP donné, pour lui signaler que le service
dont il avait demandé l'activation par une primitive de demande sur ce même SAP a
été exécuté.
Les services évoqués peuvent être confirmés ou non confirmés. Dans le premier
cas, l'utilisateur ayant demandé l'activation du service reçoit une confirmation de la
part du fournisseur sollicité après l'exécution du service. Cela fait intervenir les
quatre types de primitives, selon l'enchaînement présenté en figure 1.8. Un exemple
est donné par le service d'établissement de connexion. Les services non confirmés ne
font intervenir qu'une primitive de requête et la primitive d'indication correspondante,
un exemple possible étant le service de libération de connexion.
requête
indication
^réponse
confirmation
Par convention, le nom d'une primitive est donné par l'initiale de la couche
concernée, suivie du nom de service demandé, lui-même suivi du type de la
primitive. Il est suivi par la liste des paramètres passés à la primitive. A titre
d'exemples, la primitive de demande de connexion de transport est de la forme
T_CONNECT.request (adresse de l'entité appelante, adresse de l'entité appelée,
option données exprès, qualité de service, données utilisateur du service de
transport) ; la primitive d'indication de données du niveau réseau est notée
N_DATA.indication (données utilisateur du service de réseau).
Nous décrivons ici chacune des sept couches constituant le modèle de référence
OSI (figure 1.9), en rappelant les principales fonctions réalisées.
En tant que couche la plus haute du modèle OSI, la couche application fournit à
l'usager l'ensemble des services qui lui permettent d'accéder à l'environnement OSI et
donc d'exploiter le système téléinformatique. Elle est responsable de la gestion des
c o m m u n i c a t i o n s entre applications. Parmi les services offerts, citons
l'authentification et l'identification des partenaires de la communication, les facilités
de synchronisation des partenaires, le choix des règles du dialogue. De plus, cette
couche comporte des fonctions de gestion des systèmes.
Cette architecture [Cerf 83] est antérieure au modèle OSI qui a puisé dans nombre
de ses concepts. Elle utilise un modèle hiérarchique, avec quatre couches
relativement indépendantes. La figure 1.10 montre la correspondance entre les
niveaux DoD et les couches OSI.
X-Window
niveau 3
SNMP
SMTP
R-cmd
Telnet
5-7
RPC
FTP
processus
Le niveau d'accès au réseau est le niveau le plus bas. L'idée sous-jacente ici est
qu'en isolant les fonctions propres à l'accès au sous-réseau, le restant du logiciel de
Architecture en couches et normalisation 25
- ICMP (Internet Control Message Protocol) [RFC 792] : alors que IP est
utilisé pour un service de datagramme dans un environnement d'interconnexion de
réseaux, ICMP permet à une passerelle ou à un hôte destinataire de communiquer de
façon occasionnelle avec un hôte source, notamment afin de lui signaler une erreur
ou un problème dans le traitement d'un datagramme (destination impossible à
atteindre, durée de vie maximum atteinte, congestion, etc.). ICMP utilise IP comme
s'il était un protocole de niveau supérieur, mais constitue en fait une partie
intégrante de IP et, en tant que telle, doit être implanté dans chaque module IP. Le
rôle des messages de contrôle d'ICMP est de fournir un retour d'information sur les
problèmes de l'environnement de communication et non pas de fiabiliser IP : il n'y
a donc aucune garantie sur la remise des datagrammes ;
Le niveau hôte-à-hôte est très similaire à la couche transport OSI. Son rôle est de
transférer les données de bout en bout entre les processus utilisateurs. Les deux
protocoles les plus usuels sont TCP (Transmission Control Protocol) [RFC 7 9 3 J et
UDP (User Datagram Protocol) [RFC 7 6 8 ] . Le premier est orienté connexion et
comporte tous les mécanismes nécessaires à un transfert de données fiable, sans
erreur, sans perte et sans duplication. Du point de vue de ses fonctionnalités, il est
considéré comme équivalent au protocole de transport ISO classe 4 , même si des
différences mineures existent. De même que TCP, UDP est bâti au-dessus d'IP.
Protocole en mode non connecté, il utilise les services d'IP pour transporter des
datagrammes d'un système d'extrémité à un autre. Il n'utilise aucun mécanisme de
contrôle, le seul service supplémentaire qu'il offre par rapport à IP étant
l'identification de processus à l'intérieur des hôtes (IP identifie des hôtes).
Le dernier niveau est le niveau processus. Il contient des protocoles support pour
différentes applications. Nous y trouvons des protocoles tels que FTP (File Transfer
Protocol) [RFC 9 5 9 ] pour le transfert de fichiers, SMTP (Simple Mail Transfer
Protocol) [RFC 8 2 1 ] pour la messagerie électronique, Telnet [RFC 8 5 4 ] pour
l'émulation de terminal virtuel, SNMP (Simple Network Management Protocol)
[RFC 1 1 5 7 ] pour la gestion de réseaux.
1.6.1. Définition
Cette définition montre principalement que les problèmes ne sont pas de même
nature. En effet, les approches méthodologiques à appliquer pour répondre à
"Quoi ?", "Qui ?" et "Comment ?" diffèrent. Afin de répondre à ces questions
portant sur des aspects différents, l'administration de réseaux peut être étudiée à
travers des modèles ou points de vue (figure 1 . 1 1 ) . Ils permettent de classer les
questions ou problèmes similaires par catégorie et de traiter chaque groupe
indépendamment. Pour répondre à la question "Quoi ?", il est nécessaire de
considérer le modèle informationnel qui fournit une représentation de réseaux par les
données ; un modèle fonctionnel est aussi requis puisqu'il définit les fonctions à
appliquer aux données afin d'atteindre les objectifs de gestion. Les entités de gestion
distribuées à travers le réseau de gestion répondent à la question "Qui ?". Elles
définissent principalement un modèle organisationnel. Enfin, les modèles de
Architecture en couches et normalisation 27
administration de réseaux
modèles modèles
modèle
informationnel e organisationnel de communication et
v fonctionnel V^^rchitectural^^^^
Nous présentons dans la suite les travaux menés dans les organismes de
normalisation et les modèles couvert par chacun d'eux.
1.6.2.1. L'ISO
Les normes de la gestion système peuvent être regroupées dans trois sous-
ensembles :
- l'ensemble des normes spécifiant les procédures pour réaliser les activités
d'administration (normes 10164 sur les fonctions de gestion spécifiques) [IS 10164-1
à 7];
parties des normes 10164 sur les fonctions de gestion spécifiant SMAE (System
Management Application Entity) et S M A P (System Management Application
Process)).
Le modèle architectural
Le modèle informationnel
Le SMI est fondé sur le concept d'objets stockés dans la MIB (Management
Information Base).
Les principes de conception du SMI sont basés sur une approche orientée objet.
Les objets présentant mêmes structure et comportement sont regroupés dans des
classes d'objet. Une classe possède une partie statique (structure) et une partie
dynamique (comportement). Des relations d'héritage peuvent exister entre classes.
Cela conduit donc à étendre les caractéristiques des superclasses. Une classe d'objet
peut aussi bien hériter des caractéristiques (attributs et méthodes) d'une superclasse
(héritage simple), que de plusieurs superclasses en même temps (héritage multiple).
Un autre concept, Yallomorphisme, permet à un objet de gestion de se comporter de
la même façon qu'un objet appartenant à une classe d'objet supérieure. Cela signifie
que toutes les caractéristiques (structure et comportement) ajoutées pendant la phase
de dérivation seront supprimées par l'objet de gestion ou par le système de gestion.
Cette option a pour but de prendre en compte différentes phases de développement
d'équipements ou différentes versions de logiciels.
Afin de manipuler les objets, deux types d'opérations ont été définies, les
premières applicables aux attributs de l'objet, les secondes à l'objet lui-même. Les
opérations sur les objets incluent la création et la suppression. De plus, une
opération "action" est possible. Elle est utilisée afin de définir des opérations
arbitraires. La définition de ces actions et l'information nécessaire afin de les exécuter
font partie de la spécification de la classe d'objet correspondante. Ce mécanisme est
prévu afin de réaliser des activités de gestion complexes. Les opérations sur les
attributs sont émises aux objets de gestion (MO — Managed Objects), afin de lire
ou de modifier les valeurs d'attributs. Selon leur structure, les attributs peuvent être
soit des attributs simples, soit des attributs multi-valués, soit des attributs de
groupe. Un attribut simple, possède une valeur unique, alors qu'un attribut multi-
valué est composé d'un ensemble de valeurs qui peuvent être manipulées
individuellement. Un attribut de groupe se réfère à un groupe d'attributs à l'intérieur
d'une classe d'objet. Une opération sur un groupe d'attributs est réalisée sur chaque
attribut de manière individuelle dans ce groupe. Différentes opérations sont
possibles, en fonction du type d'attribut à manipuler :
Le modèle de communication
Le service c o m m u n d'information d'administration C M I S ( C o m m o n
Management Information Service) permet la communication d'informations
d'administration. Ces services sont :
Le modèle organisationnel
La norme ISO 10040 fait reposer son modèle organisationnel sur les deux
concepts importants que sont le manager (gestionnaire). Les correspondants
administratifs (manager/ agent) sont représentés par des processus qui échangent des
32 Architecture des réseaux haut débit
objets ressources à
administrés administrer
1.6.2.2. L'U1T-T
SNMP, établis depuis 1990, sont axés autour de deux aspects, la définition des
protocoles d'échanges SNMP et la définition des informations d'administration des
MIB.
Le modèle de communication
Le modèle informationnel
Nous pouvons ainsi constater que les normes OSI de l'ISO couvrent les différents
aspects importants de l'administration. De son côté, l'UIT-T s'intéresse
principalement aux aspects fonctionnel et informationnel. Quant à SNMP, il permet
de répondre rapidement aux premières préoccupations de l'administrateur et traite
donc en priorité les modèles informationnel et de communication.
Architecture en couches et normalisation 35
Exercices
Exercice 1.1
Exercice 1.2
Dans le modèle OSI, est-ce les TPDU qui encapsulent les paquets, ou le
contraire ?
Exercice 1.3
Dans quel(s) type(s) de trame achemine-t-on des paquets d'acquittement ? Même
question pour les paquets d'établissement de connexion ?
Exercice 1.4
Rappelez les avantages et inconvénients respectifs du mode de communication
orienté connexion et du mode sans connexion.
Exercice 1.5
Quel(s) problème(s) peut-on rencontrer lorsque, dans une architecture mixte, on
superpose deux couches, l'une en mode connecté, l'autre en mode non connecté ?
Exercice 1.6
Dans quelle(s) couche(s) du modèle OSI un contrôle d'erreur est-il mis en place ?
Peut-il y avoir redondance ?
Exercice 1.7
Exercice 1.8
Un utilisateur du service de session situé sur une machine A souhaite établir une
connexion avec un autre utilisateur situé sur une machine B. On suppose que toutes
les couches de communication opèrent en mode connecté, qu'aucune connexion n'est
établie à quelque niveau que ce soit et qu'aucun incident ne se produit.
36 Architecture des réseaux haut débit
S. CONNECT.
confirmation
Caractéristiques générales
des réseaux locaux
et des réseaux métropolitains
2.1. Introduction
Comme nous l'avons défini au chapitre précédent, un réseau local est un réseau
de taille réduite couvrant un domaine privé. Cette évidence a eu en fait énormément
de conséquences sur les protocoles de communication d'un tel réseau. Un câble d'une
longueur d'un kilomètre présente un taux d'erreurs moindre qu'un câble similaire
d'une longueur de 100 km : cela permet d'utiliser des protocoles sans reprise sur
erreur et donc plus simples et plus rapides. De plus, le temps de propagation très
court permet d'envisager des techniques reposant sur la détection d'un signal en ligne
ou sur un tour de rôle entre les stations. Enfin, sur des distances courtes, le signal
peut être transféré à un débit plus important que sur de longues distances. Le
développement des réseaux d'entreprise a donc conduit à développer de nouveaux
protocoles adaptés à leurs besoins propres. De manière générale, on caractérise un
réseau local par :
l'on veut tout de même un accès aléatoire, la topologie sera alors l'étoile que l'on
qualifie souvent de "bus logique". Après avoir défini le cadre de développement des
réseaux locaux et métropolitains, nous décrivons dans ce chapitre les principaux
supports utilisés, les différentes topologies employées ainsi que les méthodes d'accès
qui permettent de gérer le partage de la bande passante du réseau.
Le besoin de normalisation au niveau des réseaux locaux s'étant très vite fait
ressentir dès la fin des années 70, le comité 802 de l'IEEE a été formé afin d'élaborer
et de proposer des spécifications relatives à un réseau local standard. L'approche
adoptée par le comité pour son modèle architectural est une approche en couches,
conforme au modèle de référence OSI de l'ISO. Le but visé étant de produire un
standard permettant à des équipements informatiques interconnectés par un support
physique unique, d'échanger des trames d'information, le comité 802 s'est restreint à
l'étude des niveaux physique et liaison. Les standards produits correspondent ainsi à
une implementation particulière des couches 1 et 2 du modèle OSI. La figure 2.1
illustre les relations entre le modèle OSI et le modèle IEEE.
application
présentation
session
transport
réseau
ainsi pour rôle d'assurer le partage du support entre tous les utilisateurs. Elle se situe
immédiatement au-dessus de la couche physique ;
- la sous-couche LLC (Logical Link Control) : sous-couche supérieure, elle a
pour rôle de gérer les communications — les liaisons logiques — entre stations.
Elle assure également l'interface avec les niveaux supérieurs.
Le comité 802 n'a en fait pas donné lieu à un standard unique, mais plutôt à une
série de standards visant à mieux couvrir l'ensemble des besoins. Plusieurs sous-
comités ont été créés, chacun traitant d'un sujet particulier pour lequel un standard
spécifique est élaboré. La figure 2.2 montre les relations entre ces différents
standards.
application
Architecture and Management
liaison
802.1 Bridging
MAC
:SMA/CE Token Token MAN IVD AnyLan Fast
Bus Rine Ethernet
802.3 802.6 802.9 802.12 802.14
PHY
802.4 802.5
802.7 Broadband T A G
2.3. S u p p o r t s de transmission
support de i l prise
transmission
adaptateur transmission électrique
2.3.1. Caractéristiques
- bande passante,
- technique de transmission,
- atténuation,
- poids et encombrement,
- fiabilité (insensibilité aux perturbations électromagnétiques, résistance méca-
nique et thermique, etc.),
Caractéristiques des réseaux locaux et métropolitains 41
où C est exprimé en bit/s, W est exprimé en Hz. S/B représente le rapport signal sur
bruit, S étant la puissance moyenne du signal et B celle du bruit ; ce rapport n'étant
pas quantifié, on choisit généralement de l'exprimer en décibels (dB) sous la forme
10 . log jo (S/B). Notons toutefois que C constitue une borne supérieure théorique et
qu'il est extrêmement difficile, dans la pratique, d'approcher cette limite.
horloge
signal .
binaire
code
Manchester 0
-a -
Dans les transmissions numériques, les bits de données sont véhiculés sur le
support de transmission sous la forme d'impulsions discrètes électriques. Au fur et à
mesure que les impulsions de données progressent sur le médium, le signal perd de
sa puissance et les impulsions se déforment ; c'est le phénomène d'atténuation.
Pour pallier ce problème, on utilise alors des répéteurs dont le rôle est de recevoir les
signaux numériques et de les retransmettre avec leurs puissances et leurs formes
originales. Les répéteurs régénèrent totalement les signaux et contribuent, de ce fait,
à résoudre le problème des bruits.
Une paire torsadée est constituée de deux brins de cuivre, de diamètre inférieur au
millimètre, isolés et agencés en spirale pour limiter les phénomènes d'interférences
électromagnétiques parasites dues à l'environnement (diaphonie). Plusieurs paires
sont groupées dans une même gaine protectrice pour former généralement un câble
de 2, 4 ou 8 paires (4 le plus souvent).
L'une des raisons pour lesquelles ce type de support est largement utilisé
provient du fait que la plupart des installations téléphoniques l'utilisaient déjà
(réutilisation de l'existant). Par ailleurs, il existe de nombreux produits de réseaux
locaux reposant sur un câble téléphonique ordinaire et qui offrent des vitesses de
transmission pouvant aller jusqu'à 10 Mbit/s. Les signaux véhiculés peuvent être
numériques ou analogiques.
- les paires blindées (STP — Shielded Twisted Pair) : le blindage est réalisé par
une partie métallique, tresse ou ruban, visant à protéger le ou les conducteurs du
câble des perturbations extérieures et à limiter le rayonnement du câble. Il est
efficace contre les interférences à fréquences basses (inférieures à 10 MHz). Le câble
blindé doit être relié à la masse, mais il peut apparaître comme une source
d'interférences dès lors que les masses ne donnent pas en permanence les mêmes
mesures ;
- les paires écrantées : l'écrantage est réalisé par une fine feuille d'aluminium qui
s'enroule autour du câble, le dispositif permettant de protéger le câble des
interférences à fréquences hautes (supérieures à 1 MHz) tout en assurant une
protection relative aux effets de masse. L'écrantage peut être utilisé en conjonction
avec le blindage.
affaiblissement (dB/km)
catégorie fréquence (MHz)
100 ohms 120 ohms 150 ohms
UTP3 16 131 68 45
UTP4 20 102 73 50,5
UTP5 100 220 180 125
Il y a deux types de câble coaxial qui diffèrent par leur impédance caractéristique
qui correspond à la résistance du support. Le câble 50 ohms est généralement utilisé
pour transmettre des signaux numériques en bande de base alors que le câble
75 ohms permet la transmission en large bande de signaux numériques ou
analogiques. En particulier, le câble 75 ohms est utilisé depuis de nombreuses
années dans l'industrie de la télévision câblée d'où son nom de câble CATV.
Caractéristiques d e s r é s e a u x l o c a u x et m é t r o p o l i t a i n s 45
Le câble 50 ohms est encore appelé câble « bande de base » (baseband) par
opposition avec le câble CATV qui est dédié à des services large bande. Sa bande
passante est de quelques centaines de MHz permettant des débits très élevés
(plusieurs centaines de Mbit/s) en point à point et de l'ordre de 10 Mbit/s en
multipoint pour former un bus passif. Il existe sous deux diamètres différents
appelés "thick" (diamètres de 2,6/9,5) et "thin" (diamètres de 1,2/4,4). Le câble fin,
plus souple et plus maniable, est désormais le plus utilisé. Ces propriétés en ont
fait le support privilégié des réseaux locaux en bus. Le connecteur le plus répandu
pour le câble épais est la prise vampire : le câble est percé avec le connecteur de
manière à réaliser directement la connexion physique et électrique. La connexion sur
câble fin utilise une prise en T, (appelée ainsi car elle ressemble à la lettre "T"),
l'une des branches permettant de relier la station, les deux autres étant connectées au
deux segments de câble.
La fibre optique peut être utilisée pour véhiculer des signaux de données sous
forme de signaux optiques modulés. Elle est constituée d'un cylindre de verre
extrêmement fin (le cœur) entouré d'une couche concentrique de verre (le revêtement)
et joue le rôle d'un guide d'ondes lumineuses pour des longueurs d'ondes dans la
gamme des infrarouges : 850 nm, 1 300 nm, 1 500 nm. L'index de réfraction du
revêtement étant plus faible que celui du cœur, le faisceau lumineux est réfléchi vers
le cœur dès qu'il heurte le revêtement. Une onde optique guidée par des réflexions
successives peut être représentée par des faisceaux de rayons que l'on appelle
"modes".
émetteur récepteur
•"t—
électrique décodeur codeur électrique
Les fibres optiques offrent des bandes passantes très importantes, de l'ordre du
GHz pour un débit théorique de 2 Gbit/s (mais seulement 600 Mbit/s en pratique).
Leur atténuation est très faible et, les signaux véhiculés n'étant, bien entendu, pas
sujets aux interférences électriques, le taux d'erreurs est également très faible (de
9
l'ordre de 1 0 ) . De plus, le câble optique est plus léger et moins encombrant qu'un
support à base de cuivre. Néanmoins, le prix d'une liaison en fibre optique reste
élevé, en raison des coupleurs optoélectroniques d'une part, et de l'installation de la
fibre proprement dite d'autre part. Notons également que les raccordements restent
délicats à effectuer et qu'ils posent des problèmes d'affaiblissement.
- la fibre monomode (diamètres : 2-8 p.m) qui est la plus fine. Elle ne transmet
qu'un seul mode et présente le plus grand potentiel de bande passante, de l'ordre de
100 GHz/km. Toutefois, sa mise en œuvre délicate et son coût élevé font qu'elle
n'est pratiquement employée que par les opérateurs de télécommunications pour les
très grandes distances.
2.4. Topologies
La topologie d'un réseau décrit la configuration selon laquelle ses stations sont
interconnectées via le support de transmission. On distingue principalement trois
types de topologies : l'étoile, le bus et l'anneau.
2.4.1. L'étoile
contrôleur
centraT\
2.4.2. Le bus
Dans une configuration en bus, chaque station est directement attachée au canal
de transmission commun. Suivant le type de support utilisé, le bus peut être
bidirectionnel (figure 2.8) ou unidirectionnel. La fibre optique ne permet que des bus
unidirectionnels.
terminateur terminateur
Le support unique étant partagé par l'ensemble des stations du réseau, si deux
stations ou davantage se mettent à transmettre en même temps (au temps d'émission
près), les signaux générés vont se superposer et se brouiller mutuellement. Ce
phénomène est comparable à ce qui se passe dans une assemblée lorsque plusieurs
personnes décident de prendre la parole en même temps, ce qui conduit à une
cacophonie. On parle ici de collision ou encore de contention d'accès. Il est alors
nécessaire de mettre en œuvre une politique de partage pour régler ces conflits : c'est
la technique d'accès au support.
Le signal transmis sur le support n'étant pas régénéré au passage de la prise, son
affaiblissement limite la longueur maximale d'un segment de support. Par exemple,
pour un câble de 50 ohms, le segment est limité à 500 m. Cette longueur peut être
augmentée en connectant plusieurs segments entre eux au moyen de répéteurs. Le
répéteur amplifie et régénère les signaux qu'il reçoit sur chacun des segments de
câble. En aucun cas, il ne mémorise des bits. On peut ainsi obtenir une topologie en
arbre (figure 2.9). Dans ce type de configuration, le canal de communication est
Caractéristiques des réseaux locaux et métropolitains 49
constitué d'un câble à branches multiples, les stations étant attachées comme des
feuilles aux branches. Là encore, toutes les stations reçoivent toutes les
informations transmises.
répéteur répéteur
Dans le cas d'un bus unidirectionnel, deux supports physiques sont nécessaires,
le premier pour permettre à une station d'émettre l'information vers les stations en
"aval" et le second pour permettre à la même station de recevoir l'information émise
par les stations en "amont". Par symétrie, chaque station est libre de communiquer
avec n'importe quelle autre station, en utilisant l'un ou l'autre des deux bus. La
figure 2.10 montre la topologie utilisée par le réseau métropolitain DQDB avec deux
bus unidirectionnels réalisés en fibre optique.
2.4.3. L anneau
Le câble forme ici une boucle, à laquelle vient s'attacher chacune des stations par
l'intermédiaire d'un répéteur. Les différents répéteurs sont reliés deux à deux par des
liens en point à point de manière à former la boucle (figure 2.11). Les liens sont
unidirectionnels et les répéteurs se contentent de recevoir bit à bit sur le lien d'entrée
et de retransmettre sur le lien de sortie. Par conséquent, les informations circulent
toujours dans le même sens. De façon similaire à ce qui se passe avec une topologie
en bus, une trame envoyée par une station est reçue par l'ensemble des stations et
c'est l'adresse qu'elle contient qui permet de déterminer si une station donnée doit en
50 Architecture des réseaux haut débit
F i g u r e 2 . 1 1 . Topologie en anneau
Le signal étant régénéré par chaque répéteur, contrairement au bus, l'anneau est
une structure active le rendant très sensible aux pannes, puisqu'une seule coupure
suffit à mettre fin à son bon fonctionnement. D'autre part, cela implique le retrait
explicite des informations (par l'émetteur, par le récepteur ou par une station de
supervision).
Le manque de fiabilité peut être pallié par un anneau doublé (figure 2.12). Les
deux anneaux peuvent transmettre dans le même sens ou en sens inverse. Dans les
deux cas, lorsqu'une coupure survient pour l'un des anneaux, l'autre peut prendre le
relais, garantissant ainsi le bon fonctionnement de l'anneau en cas de coupure
simple.
boucle primaire
boucle secondaire
F i g u r e 2 . 1 2 . Anneau doublé
Les topologies de base pour les réseaux locaux présentent des propriétés
identiques, telles que la diffusion et le partage du support entre toutes les stations
connectées. Ce partage sera arbitré, le plus souvent de manière distribuée, par ce
qu'on appelle le mécanisme ou encore le protocole d'accès au support.
Caractéristiques des réseaux locaux et métropolitains 51
- l'accès statique,
- l'accès déterministe,
- l'accès aléatoire.
Nous présentons par la suite les grands principes et quelques exemples pour
chacune de ces familles, la liste des techniques présentées étant loin d'être
exhaustive.
fréquence
capacité
du -
canal
temps
fréquence
capacité i
du i
canal
temps
Cette famille de protocoles d'accès se caractérise, entre autres, par une allocation
dynamique de la bande passante. En d'autres termes, la bande passante n'est allouée à
une station que si cette dernière en a réellement besoin. Une station doit donc
pouvoir solliciter l'utilisation du canal chaque fois qu'elle souhaite émettre. Un
mécanisme de décision permet d'élire parmi l'ensemble des stations celle qui sera
invitée à émettre tout en veillant à l'équité d'accès entre les stations (à tour de rôle).
A l'issue de la transmission ou si la station interrogée n'a rien à émettre, le même
scénario d'élection recommence. Sur ce principe de base, deux approches sont
possibles, selon la manière dont les demandes d'accès sont gérées :
2.5.2.1. Le polling
Bien que la plupart des techniques de contrôle centralisé soient associées aux
réseaux grande distance, il existe quelques réseaux locaux pour lesquels toutes les
fonctions de contrôle sont centralisées à l'intérieur d'un seul et même équipement.
Plus précisément, le polling constitue une méthode d'accès qui se prête
particulièrement bien aux topologies en étoile ou en bus.
Cette technique suppose l'existence d'une station dite "primaire" qui gère l'accès
au support. Elle invite les autres stations, dites "secondaires", à émettre en leur
envoyant un message de poil, selon un ordre établi dans une table de scrutation. Si
la station secondaire interrogée a un message à émettre, elle l'envoie. Dans le cas
d'une topologie en étoile, le message transite par la station primaire, qui se charge de
le relayer vers la ou les stations destinataires, selon l'adresse véhiculée dans le
message. Si la station interrogée n'a rien à envoyer, elle répond de manière négative
au poil. Lorsque la station primaire en a fini avec une station secondaire, elle
consulte la table de scrutation pour déterminer la prochaine station à interroger. La
complexité de l'approche tient essentiellement dans la station primaire : la fiabilité
et les possibilités d'extension du réseau reposent sur sa fiabilité et sa puissance. A
faible charge, le temps d'accès peut s'avérer long puisqu'il faut tout de même scruter
chaque station.
tout instant, seul son possesseur peut émettre. Le jeton passe de station en station
dans un ordre donné, distribuant ainsi le droit d'accès à toutes les stations. Le bon
déroulement du protocole exige la participation de toutes les stations. La nature
répartie de cette approche implique de prendre de nombreuses précautions ; en
particulier, il faut pouvoir éviter qu'une station ne monopolise le jeton et être
capable de détecter la perte ou la duplication du jeton.
La complexité réside dans chaque station, ce qui rend cette approche plus robuste
que celle centralisée du polling.
On distingue deux méthodes d'accès par jeton, selon la topologie du réseau :
Il peut se produire des erreurs qui vont, par exemple, altérer le jeton et donc
provoquer sa perte ou encore altérer l'adresse source d'une trame et donc empêcher la
station émettrice de la reconnaître et de la retirer de l'anneau. La gestion de ces
conditions d'exception est réalisée soit de manière centralisée par une station
moniteur désignée soit de manière distribuée par un protocole coopératif entre toutes
les stations.
1. lorsqu'elle a reçu sa trame dans son intégralité : cette solution permet de vérifier
des bits d'acquittements positionnés par le récepteur mais on limite le nombre de
trames en circulation sur l'anneau à une seule en même temps ;
2. dès qu'elle reçoit l'en-tête de sa trame : on obtient un gain de temps par rapport à
la première solution mais introduit une limitation sur la longueur de la trame ;
3. tout de suite après avoir transmis sa trame : le gain de temps est encore plus
appréciable. De plus, l'utilisation de la bande passante est optimisée puisque
plusieurs trames de sources différentes, peuvent être simultanément en circulation
sur l'anneau.
Par ailleurs, une trame circulant sur l'anneau peut en être retirée par l'un des deux
protagonistes de l'échange :
Le concept de passage de jeton peut également être utilisé sur un réseau ayant
une topologie en bus ou en arbre. La différence provient du fait que le jeton ne peut
plus circuler implicitement de station en station. Il faut par conséquent utiliser un
jeton adressé, qui sera envoyé explicitement à une station donnée selon une relation
d'ordre définie sur les adresses des stations. Bien que la topologie physique soit en
bus ou en arbre, la topologie logique est un anneau en ce qui concerne le passage du
jeton. L'anneau virtuel est défini indépendamment de la situation physique des
stations sur le câble. Chaque station connaît les adresses de son prédécesseur et de
son successeur sur l'anneau virtuel.
Sur la figure 2.15, les stations sont attachées au support de transmission selon
une séquence linéaire : A, B, C, D puis E. Toutefois, le jeton est passé selon la
séquence représentée par les pointillés, à savoir : A, C, D, E et B, avant de revenir à
A. On a ainsi un anneau logique, implanté sur la base d'adresses de stations
56 Architecture des réseaux haut débit
décroissantes. Le jeton est toujours passé à la station dont l'adresse est celle
immédiatement inférieure, jusqu'à ce que la station avec l'adresse la plus faible le
reçoive. Il est alors passé à la station avec l'adresse la plus grande, et ainsi de suite.
Cette technique a été retenue pour Token Bus.
Les mécanismes d'accès aléatoire mettent en jeu des concepts très simples, issus
des techniques utilisées sur les réseaux radio. Leur caractéristique commune est
qu'une station désirant émettre n'a pas besoin d'autorisation pour le faire : la
sollicitation est matérialisée par l'accès direct au canal. Il peut alors se produire des
conflits d'accès dès lors que le nombre de stations en compétition dépasse l'unité.
Différentes techniques de résolution ont été proposées pour qu'en cas de conflit, une
seule des stations en compétition soit autorisée à émettre. Ce type de mécanisme est
particulièrement bien adapté aux topologies en bus.
SI temporisation
collision
J
temps
S 2 temporisation
SI S3 temporisation
collision i
temps
temporisation
S2
Il faut également noter que pour les deux versions d'Aloha, le système devient
instable (on a un débit qui tend vers 0) lorsque le nombre de stations tend vers
l'infini.
Au début des années 70, R. Metcalfe eut l'idée de reprendre la technique Aloha
pour l'exploiter sur un réseau de micro-ordinateurs reliés par un seul câble coaxial
[Metcalfe 76] [Lam 80]. Un prototype de ce qui allait devenir Ethernet fut ensuite
construit au centre de recherche de Xerox de Palo Alto. Partant du constat que, pour
cet environnement, le temps de transmission des trames est largement supérieur au
temps de propagation et que, par conséquent, toute émission de trame peut être
détectée quasi instantanément par les différentes stations du réseau, R. Metcalfe
introduisit le principe d'écoute de la porteuse avant transmission : une station doit
écouter le canal avant de transmettre et elle ne peut transmettre sa trame que si le
canal est libre. Tout comme dans Aloha, la détection de la collision se fait par non-
58 Architecture des réseaux haut débit
Le taux d'utilisation obtenu est meilleur que pour les deux versions d'Aloha. Il
dépend en fait :
mécanisme est accrue grâce à une détection précoce des collisions. Dès qu'une
collision est détectée par une station émettrice, elle arrête sa transmission, elle émet
une séquence de bourrage qui sert à renforcer la collision et à la rendre détectable par
toutes les stations du réseau puis elle attend un délai aléatoire au bout duquel elle
tentera de nouveau d'émettre sa trame. Cette technique ainsi que la norme afférente
sont décrites dans le chapitre 3.
Le principe est le suivant : tout comme dans CSMA/CD, chaque station écoute
la porteuse lorsqu'une transmission est en cours. Lorsque la transmission prend fin,
chaque station attend un délai spécifique qui dépend de sa position à l'intérieur d'une
liste logique de stations. Si aucune autre station n'a commencé à émettre à
l'expiration de ce délai, la station peut commencer à émettre. Cette technique met
implicitement en place un système de priorités.
Différentes méthodes peuvent être utilisées pour gérer le cas où, à la fin du délai,
aucune station n'a de trame à émettre :
- la station de plus haute priorité (celle qui a la plus haute position dans la liste)
émet une trame non significative qui va déclencher un nouveau délai propre pour
chacune des stations ;
- une alternative consiste à entrer dans le mode "libre pour tous", où n'importe
quelle station peut alors transmettre et où l'on utilise alors les techniques de
détection de collision pour résoudre les éventuels conflits.
Exercices
E x e r c i c e 2.1
Dressez un tableau récapitulant les principaux avantages et inconvénients de
chaque type de topologie.
E x e r c i c e 2.2
Dressez un tableau récapitulant les principaux avantages et inconvénients de
chaque type de mécanisme d'accès.
E x e r c i c e 2.3
Donnez les paramètres permettant, dans le cas du jeton sur anneau, d'évaluer le
temps maximum entre deux possibilités d'accès au support pour une station donnée.
Exercice 2.4
Considérons le transfert d'un fichier de 1 Mo entre deux stations. Quels sont, s'il
y a lieu :
- le temps de propagation entre les deux stations (7>),
- le temps d'émission d'une trame (Te),
- le temps de transfert avec acquittement d'une trame (7),
- le temps total de transfert (T ),
lol
réseau
31UBJJ
IU3Ui3]]inb3e
2. Le réseau local est un bus et les deux stations sont éloignées d'une distance d. Le
capacité du support est de C bit/s et la taille d'une trame est de L bits dont
O = 80 bits d'en-tête. Chaque trame doit être acquittée par une trame
d'acquittement de longueur / égale à 88 bits avant de pouvoir transférer la trame
suivante. La vitesse de propagation V est de 100 000 km/s.
Donnez les équations de Te, T, T tot et D v en fonction de d, C, O et L .
Tracez les courbes de T e t de D pour :
v
3 . Le réseau local est un anneau d'une longueur totale 2*d km, les deux stations
étant éloignées de d km. L'acquittement par le destinataire est réalisé en marquant
un bit particulier de la trame qui retourne à l'émetteur. La taille d'une trame est de
L bits dont O = 80 bits d'en-tête. Il y a N répéteurs sur l'anneau ; chacun d'eux
introduit un retard de 1 temps-bit au passage d'une trame.
Donnez les équations de Te, T, T , et D t0 v en fonction de d, C, O, N et L.
Tracez les courbes de T et de D pour :
v
3.1. Introduction
3.1.1. Historique
Ethernet est un réseau local en bande de base développé dans les laboratoires de la
société Xerox à Palo Alto à la fin des années 70 [Metcalfe 76]. Le protocole d'accès
au support est inspiré du système Aloha d'Abramson, testé au début des années 70
sur un réseau radio reliant les îles d'Hawaï [Abramson 70]. En 1980, les sociétés
DEC et Intel rejoignent Xerox pour promouvoir ce réseau local [DEC 80]. En 1985,
le protocole est amélioré et donne naissance à Ethernet Version 2, qui servira de base
à la spécification par l'IEEE [IEEE 802.3].
Le principe de fonctionnement d'Aloha consiste à émettre dès qu'une donnée est
prête, ce qui présente comme inconvénient l'apparition de collision entre deux
transmissions simultanées et la perte des données transmises. Une station n'ayant
pas reçu d'acquittement tente alors une retransmission de sa trame au bout d'un délai
aléatoire. L'absence de règles d'accès au support partagé conduit à de très mauvaises
performances.
Le réseau Ethernet consistait en un réseau de micro-ordinateurs reliés par un
même câble coaxial passif (d'où le nom d'Ether) selon une topologie en bus. Le
principe d'Aloha a été amélioré de deux manières. Tout d'abord, une station désirant
émettre écoute le canal avant toute transmission, évitant ainsi de nombreuses
collisions. Ensuite, la détection d'une collision est accélérée car la station émettrice
64 Architecture des réseaux haut débit
écoute aussi sa propre transmission. Ce protocole d'accès a été normalisé par l'IEEE
dans le standard 802.3 sous le nom de CSMA/CD.
couches hantes
LLC
r liaison-
Le plan du chapitre s'articule autour des cinq points essentiels du standard IEEE
802.3 :
- le protocole MAC,
- les services MAC,
- le protocole PHY,
- les services PHY,
- les différents supports de transmission.
La dernière partie concerne les extensions d'Ethernet vers les hauts débits,
souvent dénommées "Ethernet 100 Mbit/s".
3.2. Le protocole M A C
La transmission d'une trame ne peut commencer que si le canal est libre. Avant
de transmettre, une station se met à l'écoute du canal. Si elle ne détecte aucune
porteuse sur le support, elle transmet (figure 3.2 (a)). Si elle détecte un signal en
ligne, elle attend que le canal devienne libre pour émettre sa trame (figure 3.2 (b)).
Avec cette technique, une station évite d'émettre lorsqu'une autre station est déjà en
cours d'émission, ce qui réduit le nombre de collisions, sans pour cela les supprimer
toutes !
66 Architecture des réseaux haut débit
S3 écoute
SI émet S2 émet SI émet
S3 émet
temps
temps
S2 émet
S2 écoute S2 écoute
(a) écoute avant transmission (b) collision de transmissions
La figure 3.2 illustre deux scénarios de transmission. Dans les deux cas, une
station SI écoute le support, le détecte libre et transmet. Une station S2 veut
émettre à son tour et détecte le canal occupé. Tout au long de la transmission de S1,
elle continue son écoute et transmet dès qu'elle détecte le canal libre. Dans le cas (a),
S2 émet à la fin de la transmission de S I , après avoir attendu un délai inter-trame
destiné à garantir un intervalle de silence minimum afin de faciliter la gestion du
niveau physique. Dans le cas (b), une station S3 s'était mise à l'écoute du canal
pendant la transmission de SI. A la fin de celle-ci, les stations S2 et S3
transmettent simultanément et entrent par conséquent en collision.
On définit :
- la période de vulnérabilité qui représente la durée pendant laquelle une station
éloignée peut détecter le canal libre et transmettre à son tour ; elle est au maximum
égale à un temps de propagation entre les deux stations les plus éloignées sur le
support ;
- la fenêtre de collision ou slot-time qui représente le délai maximum qui
s'écoule avant qu'une station détecte une collision ou encore, le délai après lequel
une station peut être certaine d'avoir réussi sa transmission ; elle est égale à deux
fois le temps de propagation d'un signal sur le support. C'est l'unité de temps du
protocole.
tO
SI S2
S1 commence sa transmission
tO + At - e
SI S2
S2 commence sa transmission
t 0 + At
SI
S2 détecte la collision, arrête sa transmission et émet la séquence de bourrage
tO + 2 At
SI
SI détecte la collision
Nous nous sommes placés dans le pire cas en considérant les stations les plus
éloignées. Si on considère une station émettrice quelconque, elle est assurée, au bout
de la fenêtre de collision, soit de la réussite de sa transmission, soit d'une collision
subie par sa trame.
La durée de la fenêtre de collision a une influence sur la taille minimale d'une
trame. En effet, pour que l'on puisse détecter la collision, il faut que la station
écoute et donc qu'elle soit encore en train d'émettre. Il faut, par conséquent, que le
temps d'émission d'une trame de longueur minimale soit supérieur au slot-time. Sur
un réseau Ethernet classique, à 10 Mbit/s, le slot-time dure 51,2 us et la taille
minimale d'une trame est de 64 octets.
68 Architecture des réseaux haut débit
la couche PHY par le niveau MAC. A l'intérieur de chacun de ces niveaux, il faudra
différencier les fonctions de transmission de trames et celles de réception de trames,
qui sont indépendantes les unes des autres. L'organisation de ces opérations est
décrite en figure 3.4.
MAC
TRANSMIT RECEIVE
MEDIA ACCESS MEDIA ACCESS
MANAGEMENT MANAGEMENT
lb3467 8 9 2a 5 10
PLS
PLS_SIGNAL.ind
+
PLS_DATA.cc.nf PLS.DATA.ind
PLS_DATA.req PLS_CARRIER.ind
Le format de la trame MAC défini dans le standard IEEE 802.3 est représenté en
figure 3.5. Du fait du protocole de détection des collisions qui impose à la station de
surveiller la bonne propagation de sa trame sur tout le réseau, il a été défini une
taille minimale de trame égale à 6 4 octets. Cette longueur correspond pour un débit
de 10 Mbits/s au temps de propagation maximum aller et retour sur un réseau de
2,5 km (spécification de base). Une taille maximale a également été définie, qui est
de 1 518 octets.
1 bit 15 bits
I/G adresse
normalisés. Les paramètres recommandés par le standard IEEE 802.3 sont donnés en
tableau 3 . 1 .
Le service MAC est utilisé par les entités de la couche LLC pour permettre
l'échange des données entre les couches MAC et LLC. Le protocole CSMA/CD
étant en mode non connecté, le service de la couche MAC ne concerne que le
transfert de données.
L'enchaînement de ces primitives est montré en figure 3.6. Dans cette figure, la
primitive de requête est considérée comme une fonction qui retourne un status. De
manière plus abstraite et moins dépendante des considérations d'implantation, on
aurait pu tout aussi bien considérer l'existence d'une troisième primitive,
MA_DATA.confirmation ou MA_DATA_STATUS.indication.
émetteur récepteur
MAJJATA.req
MA_DATA.ind
Elle permet de transférer des données d'une entité LLC émettrice vers une ou
plusieurs (en cas d'adresse de groupe) entités LLC réceptrices. Quand cette primitive
arrive au niveau MAC de la station émettrice, une trame est constituée à partir des
paramètres de cette primitive et des valeurs propres au niveau MAC, telles que
l'adresse source, la longueur des données et la séquence de contrôle qui sont
calculées.
La sémantique de la primitive est la suivante :
MA_DATA.request (dest_address, length_data, m_sdu, service_class) :
transmit_status ; où :
- le paramètre destination_address spécifie l'adresse de destination qui peut être
une adresse individuelle ou une adresse de groupe ;
- le paramètre length_data indique la longueur des données LLC ;
- le paramètre m_sdu contient l'unité de données du service MAC, c'est-à-dire la
trame LLC ;
- le paramètre service_class indique la qualité de service demandée par la couche
LLC ou un niveau supérieur. Il n'est pas utilisé dans la cas du protocole CSMA/CD
qui ne fournit qu'une seule classe de service.
Cette primitive indique à la couche LLC qu'une trame MAC vient d'arriver au
niveau MAC. Elle n'est envoyée vers le niveau supérieur que si son format et son
FCS sont corrects et qu'elle est réellement destinée à la station.
Sa sémantique est :
MA_DATA.indication (dest_address,source_address,m_sdu) : reception_status ;
où :
- destination_address définit l'adresse destination de la trame reçue, soit l'adresse
individuelle de la station, soit celle d'un groupe de stations auquel elle appartient ;
- le paramètre source_address désigne la station émettrice de la trame reçue ;
- le paramètre m_sdu contient les données de la trame MAC reçue.
74 Architecture des réseaux haut débit
L'AUI définit l'interface entre la station proprement dite et la MAU. Elle consiste
en un câble de 50 mètres au maximum avec un connecteur à chaque extrémité. Le
câble comporte cinq paires symétriques blindées individuellement. Si la MAU se
trouve physiquement sur la même carte que la fonction MAC, l'AUI n'est pas
physiquement présente. L'AUI comporte deux circuits de données {Data_In et
Data_Out) et deux circuits de contrôle pour commander la MAU {Control_Out) et
pour donner l'état de la MAU (Control_In) ; un dernier circuit permet l'alimentation
de la MAU.
Les signaux sont codés selon le procédé de codage Manchester. Le débit du câble
est le même que celui du support physique utilisé, aucun tampon n'est alors
nécessaire dans la MAU.
Ainsi, le support noté 10BASE5 indique que le débit est de 10 Mbit/s, que le
support est constitué de câble coaxial bande de base et qu'un segment de ce câble fait
au maximum 500 m.
Le débit est de 10 Mbit/s, ce qui n'est pas sans conséquences sur les paramètres
du protocole CSMA/CD (cf. 3.2.4).
Chaque segment de câble est terminé par un terminateur d'impédance,
communément appelé "bouchon", qui évite la réflexion du signal à son arrivée à
l'extrémité du câble.
Sur ce support, le codage des signaux se fait en bande de base. L'espacement
entre deux stations adjacentes est un multiple de 2,5 m, cela afin d'assurer que les
stations adjacentes ne sont pas en phase entre elles. Le nombre maximum de
stations connectées par segment est de 100 sur le câble blindé et de 30 sur le câble
fin.
La taille d'un segment est limitée à 500 mètres. Cependant, il est possible
d'étendre la longueur du réseau en interconnectant plusieurs segments par
l'intermédiaire de répéteurs (unités d'interconnexion permettant d'amplifier le signal),
l'ensemble de ces interconnexions se comportant comme un support physique
unique. Le standard limite à 4 le nombre de répéteurs sur un chemin de données entre
2 stations, ce qui a pour effet de limiter la longueur totale du réseau à 2,5 km.
La spécification 10BROAD36 [IEEE 802.3b] concerne la transmission des
services large bande (d'où son nom). Le câble utilisé est le câble CATV à 75 ohms.
La transmission se fait par modulation de fréquence sur des segments de 3.6 km
maximum.
Nous nous intéressons ici aux répéteurs utilisés pour le réseau 10BASE5 qui est
spécifié dans le standard [IEEE 802.3c]. Les répéteurs permettent d'étendre le réseau
en juxtaposant deux brins (figure 3.8). Ils sont constitués de deux MAU, chaque
MAU étant connectée à un segment différent. Le répéteur est transparent pour le
réseau, c'est-à-dire qu'il n'y a pas de mémorisation et que les deux brins ne sont pas
isolés l'un de l'autre. En conséquence :
- les signaux numériques sont transmis dans les deux directions entre les deux
segments ;
- au passage, les signaux sont amplifiés et régénérés ;
- si un répéteur détecte une collision sur un segment, il transmet des caractères
de bourrage sur l'autre segment ;
- si deux stations sur deux segments différents émettent en même temps, il y
aura collision.
station répéteur
câble
terminateur
transceiver
Il est aussi possible de raccorder via une fibre optique deux segments de câble
distants d'au plus 1 km (figure 3.9). La fibre est désignée par le terme de liaison
inter-répéteur. Le répéteur contient deux MAU de types différents, d'un côté, la MAU
pour câble coaxial et de l'autre, la FOMAU (Fiber Optic Medium Access Unit). Le
débit sur la fibre optique sera de 10 Mbit/s.
segment
réseau répéteur de répéteur réseau
10BASE5 fibre optique 10BASE5
ou *" ou
10BASE2 AUI AUI 10BASE2
FOMAU FOMAU
Les stations sont raccordées en étoile à un équipement appelé hub qui joue le rôle
de diffusion du bus passif. Le « hub » est un équipement de niveau physique comme
le montre la figure 3.10. Il possède une multitude de ports, un port par connexion à
une station. Son architecture comporte deux niveaux : le niveau MDI (Medium
Dependent Interface) avec une entité par port d'accès et le niveau PLS pour la
communication entre les ports.
80 Architecture des réseaux haut débit
HUB PLS
Chaque station est connectée en point à point au hub grâce à deux paires
torsadées, une pour chaque sens de transmission. La différence entre 1BASE5 et
10BASET vient du type de paires utilisées : 1BASE5 utilise des câbles UTP
catégorie 3 (qualité téléphonique) alors que 10BASET utilise généralement des câbles
UTP catégorie 5 (qualité données) et plus rarement des câbles UTP3 ou UTP4.
L'utilisation de câbles STP n'est pas définie dans la spécification quoique certains
produits les proposent. La longueur de ces paires est au maximum de 250 m pour
1BASE5 et de 100 m pour 10BASET (jusqu'à 150 m en fonction de l'atténuation du
signal sur le support qui doit être au maximum de 11,5 dB).
Le hub joue le rôle du bus passif : il retransmet les données qu'il reçoit d'une
station vers toutes les autres stations. Par ailleurs, si au moins deux stations
émettent simultanément vers le hub, il retransmet un signal de présence de collision
à toutes les stations.
Il est possible d'utiliser plus d'un hub dans un réseau de manière à former une
hiérarchie de hubs (figure 3.11). Dans ce cas, un hub de niveau intermédiaire
retransmet les données reçues d'une station vers le hub de niveau supérieur. Il
retransmet les données reçues d'un hub supérieur à tous les hubs inférieurs et toutes
les stations qui lui sont raccordées. Il est spécifié cinq niveaux de hubs au maximum
pour satisfaire la contrainte de durée maximale sur le slot-time. Les hubs assurent
également la fonction de répétition du signal.
hub
supérieur
hub hub
intermédiaire intermédiaire
stations stations
Trois types de supports à base de fibre optique ont été normalisés et sont
regroupés sous l'appellation 10BASEF ; chaque type correspondant à une topologie
différente [IS 8802-3-14]. La transmission de l'information se fait avec un débit de
10 Mbit/s en bande de base.
fibre optique
i répéteur répéteur
\FOIRL FOIRL/
3.6.5. Récapitulatif
- commutateur Ethernet,
- Ethernet Isochrone.
Ethernet et Ethernet 100 Mbit 83
Cette proposition est soutenue par 3COM et a conduit à la création d'un nouveau
groupe de travail à l'IEEE, le 802.14. La spécification est en cours de finition.
- 100BASETX utilise comme 10BASET des paires torsadées non blindées (UTP
catégorie 5) mais sur des longueurs de câble réduites (100 m au maximum) pour
permettre le débit de 100 Mbit/s. La couche physique est la même que celle de FDDI
avec paires torsadées.
3.7.2. lOOVGAnyLan
Ethernet Full Duplex est encore désigné sous les termes de "Switched Ethernet"
ou de "commutateur Ethernet". Dans cette solution, le hub d'une étoile 10BASET
est remplacé par un commutateur à très haut débit en vue d'améliorer l'utilisation
des équipements par rapport à 10BASET. En effet, lorsqu'un nœud transmet une
trame vers son hub de rattachement, ladite trame remonte la hiérarchie puis est
rediffusée par le hub racine vers tous ses nœuds et tous les hubs inférieurs et ce,
même si les deux nœuds sont connectés au même hub.
CPU
buffer de sortie buffer de sortie
O- 2
Mbit/s
serveur
| | - 2 Mbit/s
D-
Une autre proposition est actuellement à l'étude dans le groupe de travail IEEE
802.9. Elle est désignée sous le terme alléchant d"'Ethernet isochrone" bien que le
protocole utilisé n'ait rien à voir avec celui d'Ethernet. En effet, le protocole d'accès
est de type Slotted et se rapproche donc de celui de DQDB. La topologie est une
étoile et le support physique serait compatible avec 10BASET. L'avantage de ce
protocole est qu'il permet le transfert de données isochrones.
Ethernet et Ethernet 100 Mbit 87
Exercices
Exercice 3.1
Exercice 3.2
Le protocole CSMA/CD spécifie une longueur minimale de trame de 512 bits.
Quelle est la distance maximale d'un chemin de données entre 2 stations pour un
réseau à 100 Mbit/s et une vitesse de propagation de 100 000 km/s ? Déduisez la
longueur maximale d'un segment de paires torsadées sachant qu'un chemin de
données est composé de 2 segments de paires torsadées.
Exercice 3.3
backoff_limit = 10 ;
BEGIN
IF attempts = 1
THEN maxbackoff := 2
ELSE
THEN m a x b a c k o f f := maxbackoff * 2
1 0
ELSE {maxbackoff = 2 } ;
END;
88 Architecture des réseaux haut débit
r a n d o m est une fonction qui tire de manière aléatoire un nombre réel dans [0,1 [.
i n t est une fonction qui rend la partie entière par défaut d'un réel. Dans l'exercice,
on considérera que la fonction r a n d o m rend respectivement et successivement les
valeurs données par le tableau suivant :
stations B C D
1 er
tirage 1/4 1/2 3/4
e
2 tirage 3/5 1/4 1/4
e
3 tirage 1/3 1/2 1/8
A
x
slot occupé par A slol occupé par une collision slol inoccupé
slot : 0 1 2
A A A A A A
Exercice 3.4
cumulé pour l'accès au support pour une station lorsqu'elle a subi n collisions
successives pour une trame donnée.
Exercice 3.5
On considère un réseau métropolitain sur fibre optique de débit 100 Mbit/s et qui
couvre une distance de 100 km. Avec ces paramètres, quelles seraient les valeurs des
principaux paramètres du protocole CSMA/CD : temps de propagation, taille
minimale d'une trame, durée du slot-time ? Avec ces valeurs, montrez pourquoi le
protocole CSMA/CD n'a pas été retenu comme protocole de réseau métropolitain.
Exercice 3.6
4.1. Introduction
La technique Token Bus a été mise en place dans des produits pour pallier
l'indéterminisme d'Ethernet. Elle utilise le concept d'anneau logique pour la
circulation du jeton entre les stations. Ses spécifications sont données dans le
90 Architecture des réseaux haut débit
Les deux protocoles n'ont pas connu le même succès commercial. Token Bus a
été retenu dans le profil d'architecture défini par le groupement MAP [Minet 89]
mais n'est à ce jour mis en œuvre que dans un seul produit. De son côté, Token
Ring est le réseau local le plus répandu après Ethernet, avec de nombreux produits
disponibles sur le marché — IBM et non-IBM.
T : jeton
Fi : trame i
6/ la station A remet le
jeton sur l'anneau
Lorsque la trame revient à la station qui l'avait émise, cette dernière la retire de
l'anneau (son répéteur ne la répète pas) et rend le jeton. Le jeton circule alors sur
l'anneau jusqu'à ce qu'il soit de nouveau capturé par une station désirant émettre.
Le standard 802.5 spécifie non seulement les couches MAC (Medium Access
Control) et physique mais aussi une couche transversale aux deux premières qui
concerne la gestion de la station et de l'anneau, réalisée par le protocole SMT
(Station ManagemenT) (figure 4.3).
92 Architecture des réseaux haut débit
LLC
Logical Link Control
liaison
VJ
MAC
2
Medium Access Contre
H
PHY Station
Physical 4anagemenT
physique
support
SD - Starting Delimiter
SD AC ED AC - Access Control
ED - Ending Delimiter
F i g u r e 4 . 4 . Format du jeton
Le format de la trame est défini dans la figure 4.5. Une trame peut transmettre
des données ou des informations de contrôle de l'anneau. Par rapport aux standards
802.3 et 802.4, on remarque d'abord l'absence du champ "Préambule", rendu inutile
par le fait que toutes les stations sont actives, donc synchronisées en permanence.
SE AC FC DA SA RI INFO FCS ED FS
FF type de trame
1x non défini
01 trame LLC
00 trame MAC
Pour identifier facilement des fonctions d'administration, il est défini des adresses
fonctionnelles telles que '01' (en hexadécimal) pour le moniteur actif, '02' pour le
serveur de paramètre de l'anneau, '08' pour le moniteur d'erreur de l'anneau ou encore
'10' pour le serveur de rapport de configuration ;
8 bits de 2 à 30 octets
Le standard spécifie les différentes fonctions MAC sous forme de trois automates
d'états finis :
bits
r
0
fin ou
erreur
Répétition expiration de TRR
données
et jeton
Transmission expiration Retrait
de TRR
_ de trames y de trames
fin
" O K
Attente de retour
/
^V^d£jrames^-^
La machine d'états est initialement dans l'état 0 (Répétition). Dans cet état, la
station n ' a pas de trame à transmettre et se contente de répéter les bits entrants. Sur
réception d'une requête de transmission de données ou d'une trame SMT, elle cherche
à détecter le jeton. Dès réception du jeton, elle arme le temporisateur THT et passe
dans l'état 1. Dans l'état 1 (Transmission de trames), la station émet toutes les
trames de priorité supérieure ou égale à celle du jeton jusqu'à ce qu'il n'y ait plus de
PDU à transmettre ou que le temporisateur THT ait expiré. La station émet ensuite
une séquence de fin de trame (champs ED et FS) avec un bit I à 0 pour indiquer qu'il
s'agit de la dernière trame, arme le temporisateur TRR et passe dans l'état 2. Après
avoir détecté le jeton (Token Bit = 0), la station peut détecter des situations d'erreurs,
telles que l'absence du champ ED pour le jeton ou la réception d'une trame de
réinitialisation du réseau. La détection d'une anomalie provoque le retour à l'état 0.
Dans l'état 2 (Attente de retour de trames), la station attend le retour de sa propre
trame. Sur réception d'un champ SA (Source Address) contenant sa propre adresse, la
Accès à jeton : Token Ring et Token Bus 97
4.2.3.5. Réception
Chaque station, tout en répétant les bits entrants, vérifie si la trame répétée lui
est destinée, auquel cas, elle copie les bits en même temps qu'elle les répète. Deux
types de trames peuvent lui être destinés, des trames de contrôle de l'anneau en
provenance de la station moniteur ou des trames de données dont l'adresse de
destination correspond à celle de la station. La station vérifie également si la trame
répétée a subi des erreurs de transmission ; dans ce cas, elle positionne au vol le bit
E du champ ED de la trame à 1 afin de signaler une erreur détectée. De plus, la
station destinataire d'une trame positionne dans le champ FS de la trame les bits A
et C à 1, indiquant ce faisant qu'elle a reconnu son adresse et qu'elle a pu copier la
trame.
Une station qui désire augmenter la priorité d'un jeton commence par réserver la
priorité du prochain jeton lors du passage d'une trame. Tout en répétant les bits de la
trame, la station va alors positionner les bits de réservation (RRR stockés dans Pr)
avec sa propre priorité (Pm) dans le champ AC. Si celle-ci est plus grande
(Rr < Pm), alors la station sauvegarde Pm dans R, sinon R reste inchangé. Si c'est
98 Architecture des réseaux haut débit
Quand la station capture le jeton (Pm > Pr), elle transmet toutes ses PDU de
niveau de priorité supérieur ou égal à celui du jeton capturé (jusqu'à épuisement des
PDU ou expiration de THT). Ensuite, la station remet le jeton avec la même priorité
et une valeur de réservation égale au maximum de (Rr, Pm).
Chaque station gère un certain nombre de temporisateurs dont les valeurs sont
établies par défaut ou suite à un accord mutuel entre les utilisateurs du réseau local :
- TRR (Timer Return to Repeat) sert à s'assurer que la station peut retourner à
l'état de répétition (Repeat). Il est supérieur au temps de latence maximal de
l'anneau, soit le délai de propagation d'un signal autour d'un anneau de longueur
maximale augmenté des temps de latence de chaque station (par défaut, TRR =
4 ms) ;
- TQP (Timer Queue PDU) détermine le délai avant envoi d'une trame SMP
après réception d'une trame AMP ou SMP (par défaut, TQP = 20 ms) ;
- TVX (Timer Valid Transmission) est utilisé par le moniteur actif pour détecter
l'absence de transmission valide (par défaut, TVX = 10 ms) ;
- TNT (Timer No Token) est utilisé pour détecter la perte du jeton (par défaut,
TNT = 2,6 s) ;
- TAM (Timer Active Monitor) est utilisé par le moniteur actif pour déterminer
la période d'envoi d'une trame AMP (par défaut, TAM = 7 s) ;
- TSM (Timer Standby Monitor) est utilisé par les moniteurs en veille pour
vérifier qu'il y a bien un moniteur actif sur l'anneau et pour détecter si un jeton
circule en continu (par défaut, TSM = 15 s) ;
- TER (Timer Error Report) sert à reporter les valeurs des compteurs d'erreurs
dans des trames Report Error transmises au serveur d'erreurs (par défaut,
TER = 2 s) ;
Accès à jeton : Token Ring et Token Bus 99
- TBT (Timer Beacon Transmit) définit le temps pendant lequel une station émet
des trames Beacon avant de passer à l'état by-pass (par défaut, TBT= 16 s) ;
- TBR (Timer Beacon Receive) définit le temps pendant lequel une station peut
recevoir des trames Beacon de son voisin en aval avant de passer à l'état by-pass (par
défaut, TBR = 160 ms).
- I-FLAG est positionné sur réception d'un champ ED avec le bit I mis à 0 ;
La gestion est centralisée dans une station appelée moniteur actif (Active
Monitor). Les autres stations sont en veille (Standby Monitor), capables de détecter
à tout moment une défaillance du moniteur actif et de prendre la relève du contrôle.
Le moniteur actif reprend les erreurs portant sur le jeton et sur ce qui circule sur
l'anneau. Pour cela, il positionne le bit M (Monitor) à 1 sur toutes les trames qu'il
voit passer et réarme le temporisateur TVX à chaque nouveau passage de trame ou de
jeton. L'absence de jeton est détectée par l'expiration de TVX ; le compteur d'erreurs
est alors incrémenté et une purge de l'anneau est effectuée. Les trames non valides
(moins de 3 octets) ou orphelines (trames dont le bit M est déjà positionné à 1) sont
1 00 Architecture des réseaux haut débit
retirées de l'anneau et donnent également lieu à une purge pendant TRR. Un jeton
circulant de façon persistante avec une certaine priorité est retiré de l'anneau et
remplacé par un jeton de priorité la plus faible.
- le moniteur actif commence par diffuser une trame AMP (Active Monitor
Present) ;
Les services MAC spécifient deux interfaces différentes, la première étant celle
avec LLC et la seconde avec celle de l'entité de gestion SMT.
- MA_CONTROL.request,
- MA_STATUS.indication,
- MA_NMT_DATA.request,
- MA_NMT_DATA.indication,
- MA_NMT_DATA.confirmation.
Cette primitive est invoquée par la sous-couche MAC à la suite d'opérations des
moniteurs en veille, du moniteur actif ou de la machine opérationnelle.
LLC
Logical Link Control
MAC
Medium Access Control
PHY
Physical
PHY/MIC Cable
physique
Medium
Interface MIC Medium Interface Connector
Cable
MIC/TCU Cable
TCU
Trunk Cable
Trunk Coupling Unit
La figure 4.13 présente ses trois principaux états. Dans l'état By-Pass, la station
est inactive et la TCU répète les bits entrants de l'amont vers l'aval. Dans l'état
Listen, la station est active et la TCU copie chaque bit entrant vers la station tout en
retransmettant vers l'aval. Dans cet état, on peut modifier un bit au vol. Enfin, dans
l'état Transmission, la station transmet une trame et peut recevoir des bits depuis
l'amont de l'anneau ; lorsque ces derniers appartiennent à une autre transmission, la
station les stocke, le temps de sa transmission, avant de les retransmettre.
1 04 Architecture des réseaux haut débit
état By-Pass
vers la de la
station station
anneau anneaul
délai 1 bit
amont aval
vers la • de la vers la de la
station! station station A I station
Le tampon de latence est utilisé par le moniteur actif à deux fins. Tout d'abord,
lorsque toutes les stations sont dans l'état de répétition, le jeton ne doit pas revenir
trop vite et l'anneau doit donc avoir une certaine latence exprimée en nombre de
temps-bit (inverse du débit). Pour cela, un tampon de latence est inséré sur l'anneau,
au niveau du moniteur actif, afin de mémoriser temporairement les bits entrants. Sa
taille varie d'un système à l'autre mais un tampon d'au moins 24 bits paraît
convenable. Par ailleurs, le tampon de latence sert aussi à compenser les variations
de propagation du signal sur l'anneau (gigue), les stations étant synchronisées sur ce
signal. Suivant la déviation du signal (en avance ou en retard), le moniteur actif
insère ou retire des bits de l'anneau.
La solution de câblage la plus souvent retenue est celle spécifiée par IBM qui
définit une étoile physique. Chaque station est reliée en dérivation à un point de
concentration actif (AWC — Active Wiring Concentrator) ou lobe, via des paires
torsadées. La figure 4.14 montre une configuration de câblage avec trois
concentrateurs. Si la paire torsadée est de type téléphonique (catégorie 3), la distance
concentrateur-station ne peut excéder 45 m et une boucle ne peut contenir au total
A c c è s à j e t o n : T o k e n R i n g et T o k e n B u s 105
pas plus de 72 stations. Si la paire torsadée est blindée et de qualité donnée (STP 1),
la distance concentrateur-station est de 100 m maximum et la boucle peut contenir
jusqu'à 260 stations. Ce dernier type de câble est celui préconisé par IBM. Il permet
des débits de 4 ou 16 Mbit/s. Il est recommandé de l'utiliser pour des liaisons inter-
concentrateurs.
station
msm
station
concentrateur
AWC
station
Comme pour la couche MAC, la couche physique de Token Ring spécifie deux
types de service, l'un à l'interface PHY/MAC, l'autre à l'interface PHY/SMT.
L'interface PHY/MAC est composée des trois primitives de service,
PH_DATA.request, PH_DATA.indication et PH_DATA.confirmation. Chaque
primitive ne spécifie qu'un seul paramètre appelé symbole, dont les valeurs
possibles sont 0 (zéro binaire), 1 (un binaire), J (non_data_J) et K (non_data_K).
Le protocole d'accès n'est cependant pas le même que celui de Token Ring.
L'équité du protocole nécessite la mise en place d'un tour de rôle explicite entre les
stations pour l'accès au support ; ce tour de rôle était implicite avec l'anneau
physique. Le jeton est ici explicitement adressé à une station qui en sera le futur
détenteur. Enfin, la gestion des stations est réalisée de manière totalement
décentralisée entre toutes les stations, aucune n'ayant de rôle privilégié.
Le jeton est figuré par une trame MAC d'un type particulier. Il contient une
adresse destinataire et est passé explicitement de l'émetteur de la trame (détenteur
actuel du jeton) au récepteur (nouveau détenteur). On parle de jeton adressé.
Le tour de rôle entre les stations pour l'accès au jeton est réalisé grâce au
mécanisme d'anneau virtuel (ou anneau logique) qui détermine à qui une station doit
remettre le jeton après l'avoir utilisé. L'anneau virtuel définit en fait une relation
d'ordre sur les adresses des stations connectées au réseau et actives à un moment
Accès à jeton : Token Ring et Token Bus 107
donné. Cette relation correspond à l'ordre décroissant des adresses physiques des
stations sur le bus.
Chaque station connaît l'anneau virtuel grâce aux deux variables PS (Previous
Station) donnant l'adresse de la station précédente sur l'anneau et NS (Next Station)
donnant l'adresse de la station suivante sur l'anneau. Une troisième variable définit la
propre adresse de la station. L'anneau virtuel est défini indépendamment de la
situation physique des stations sur le câble. En figure 4.15, la station d'adresse 5 a
comme prédécesseur sur l'anneau la station d'adresse 9 et comme successeur, la
station d'adresse 3.
station 9 station 5
PS = 1 PS = 9
NS = 5 NS = 3
Le maintien de ces variables ne peut se faire dans un connecteur passif sur le bus
car il nécessite des mémoire vives ou des registres ; la station doit donc être active
c'est-à-dire sous tension. Elle peut alors faire partie de l'anneau à condition de
pouvoir y entrer.
L'ajout d'une nouvelle station active sur l'anneau se fait par la procédure dite de
réveil et d'ajout de stations dans l'anneau. Cette procédure est complètement
distribuée et elle est spécifiée dans le protocole.
La procédure de réveil est lancée à l'instigation du détenteur actuel du jeton, avec
pour but de faire entrer dans l'anneau un éventuel successeur. La station qui possède
le jeton lance périodiquement (tous les N passages du jeton, 16 < N < 255) la
procédure de réveil, juste avant de remettre le jeton à la station voisine et ce,
seulement si le temps écoulé depuis la dernière fois où elle a eu le jeton n'est pas
supérieur à un maximum appelé target_rotationjime (temps maximum de rotation
cible du jeton). Cette condition vise à borner le temps maximum de rotation du
jeton.
1 08 Architecture des réseaux haut débit
station 9 station 5
PS= 1 PS = 9
NS = 5 NS=4
I
station 1 station 3 sjation 4
PS =3 PS = 5 PS = 5
NS=9 NS= 1 Us =3
Nous avons décrit le cas où une seule station, à un instant donné et dans un
intervalle d'adresses donné, désirait s'insérer dans l'anneau. Prenons maintenant le cas
où deux stations satisfont la contrainte d'intervalle d'adresses. Toujours avec
l'exemple de la figure 4.15, supposons que les stations d'adresses 6 et 7 souhaitent
entrer sur l'anneau : elles ne le pourront que lorsque la station 9 lancera une
procédure de réveil. La station 9 envoie donc une trame solicit_successor spécifiant
un intervalle [5, 9]. Dans la même fenêtre de réponse, les stations 6 et 7 envoient
chacune une trame set_successor. La station 9 va donc détecter une collision de
trames au lieu d'une seule trame valide. Elle entame alors une reprise avec l'envoi
d'une trame resolve ^contention et attend cette fois quatre slots-time. Se déroule alors
entre les stations en compétition une procédure d'arbitrage réparti qui a pour objet de
les départager. L'arbitrage se fait sur la valeur des deux premiers bits de l'adresse de
chaque station candidate. Plus précisément, après réception de la trame
resolve contention, l'instant d'émission de la trame set_successor sera déterminé par
la valeur des deux premiers bits de l'adresse de chacune des stations en compétition :
- 00 : émission immédiate,
- 01 : début de la deuxième fenêtre,
- 10 : début de la troisième fenêtre,
- 11 : début de la quatrième fenêtre.
Si une station doit reporter son émission d'une ou de plusieurs fenêtres, elle
écoute pendant ce temps le canal. Si elle détecte une transmission, elle n'enverra pas
de trame set_successor pour cette procédure de réveil. De cette façon, une seule
station à la fois entre dans l'anneau. Ici, les adresses sont 7, de valeur binaire
"0111", et 6, de valeur "0110". Les deux premiers bits étant les mêmes, 6 et 7 vont
encore émettre en même temps, en début de la deuxième fenêtre. La station 9 va
retransmettre une trame resolve contention, mais l'arbitrage se fait cette fois-ci sur
la deuxième paire de bits de l'adresse et uniquement pour les stations ayant émis la
fois précédente. Dans notre exemple, les deux bits suivants sont respectivement "10"
pour la station 6 et "11" pour la station 7. C'est donc la station 6 qui enverra une
trame set_successor dans la troisième fenêtre, la station 7 se retirant. La station 9
mettra ensuite à jour ses variables et enverra le jeton à la station 6.
Un cas particulier est celui où la station de plus petite adresse lance une
procédure de réveil. Elle attend deux fenêtres de réponse et peut ainsi faire entrer deux
stations dans l'anneau car elle seule peut faire entrer des stations d'adresses plus
petites en plus de ses successeurs. Dans notre exemple, quand la station 1 envoie
1 10 Architecture des réseaux haut débit
Elle a lieu après une panne de la station qui possède le jeton ou lors de
l'installation du réseau. Chaque station arme un temporisateur de détection
d'inactivité. A expiration, chaque station envoie une trame Claim Token et attend un
slot-time. S'il se produit des collisions, on procède comme précédemment : une
station réémet au bout de 2, 4 ou 6 slots-time en fonction de ses deux premiers bits
d'adresse. Lorsque la station a épuisé chaque paire de bits de l'adresse sans entendre
d'autres transmissions que la sienne, elle considère qu'elle a réussi et qu'elle est
détentrice du jeton. Elle lance alors une procédure de réveil pour faire entrer les autres
stations dans l'anneau.
Une station souhaitant se retirer de l'anneau avant sa mise hors tension, attend de
recevoir le jeton et envoie alors une trame de contrôle de type set_successor à son
prédécesseur. Elle transmet ensuite le jeton à son successeur. La station quitte ainsi
l'anneau tout en maintenant la connexité de celui-ci.
LLC
-liaison- Logical Link Control
MAC
Medium Access Control
s
M
PHY T
Physical Station
ManagemenT
physique-
Drop
Cahle
TCU
Trunk Coupling Unit Trunk Cable
—couverture du FCS-
- le préambule est une séquence arbitraire d'au moins un octet qui précède toute
trame M A C ;
FF type de trame
11 non défini
10 trame de gestion
01 trame LLC
00 trame de contrôle MAC
Tableau 4 . 4 . Le champ FC
les autres types de réseaux locaux normalisés (cf. figure 4.7). Le bit I/G donne le
type d'adresse — individuelle (I/G = 0) ou de groupe (I/G = 1). Le bit U/L indique si
l'adresse a été allouée par une administration universelle (U/L = 0) ou locale
(U/L = 1) ;
- les trames de plus haute priorité sont transmises de toute façon dans la limite
d'un temps maximum défini pour toutes les stations par le protocole de gestion ;
- à chaque classe de priorité est associé un temps de rotation maximal du jeton ;
- pour chaque classe, la station mesure le temps mis par le jeton pour faire le
tour de l'anneau ;
- si le jeton revient avant son temps maximal, la station peut envoyer des
trames de cette classe jusqu'à expiration du temporisateur ;
- si le jeton arrive après son temps maximal, la station ne peut envoyer de
trames de ce niveau de priorité et elle relâche le jeton.
IEEE 802.4 n'offre que quatre niveaux de priorité numérotés dans l'ordre croissant
0, 2, 4 et 6. Le niveau de priorité souhaité est un paramètre de la primitive de
demande de transfert de données MA_DATA.request. La priorité intervient entre les
trafics issus d'une même station, découpant ainsi la bande passante disponible
lorsque la station possède le jeton en sous-bandes dédiées à chaque niveau de priorité.
1 14 Architecture des réseaux haut débit
La gestion des fautes liées au jeton est assurée par la station qui détient le jeton.
Ces fautes concernent la duplication du jeton, les erreurs sur le jeton, les pannes de
la station détentrice du jeton, les pannes du récepteur et enfin la perte du jeton.
passage
du
jeton
attente pendant
renvoi du jeton
4 slots-time
e
2 fois
who-follows
processus
renvoi solicit-successor
du jeton
succès aucune
renvoi réponse
du jeton
panne grave
Lorsque la station détentrice du jeton détecte une autre transmission sur le bus,
elle en déduit qu'une autre station possède aussi le jeton (ceci peut se produire
lorsque deux stations ont la même adresse). Dans ce cas, elle détruit son propre jeton
et retourne à l'état d'écoute. Les trois fautes suivantes (erreur sur le jeton, panne du
détenteur et panne du récepteur) apparaissent lors du passage du jeton. Aussi, après
avoir transmis le jeton, l'émetteur du jeton écoute le support pendant un slot-time
afin de détecter la transmission d'une trame ou d'un jeton par le nouveau détenteur du
jeton. Dans ce cas, il retourne à l'état d'écoute. S'il entend une collision, il écoute
de nouveau le support pendant quatre slot-times. S'il n'entend rien, il renvoie le
jeton à son successeur et écoute de nouveau. S'il n'entend toujours rien, il transmet
une trame who-follows qui demande l'identité de son successeur sur l'anneau
logique. Cette trame est acquittée par une trame set-successor en provenance de son
successeur. S'il ne reçoit rien, il entame une procédure de réveil qui va déterminer
son nouveau successeur. Si cette procédure ne donne aucun résultat, il cesse toute
transmission et lance une réinitialisation de l'anneau. La figure 4.20 résume les
différentes actions liées à la surveillance du jeton.
Le protocole Token Bus, comme les autres protocoles MAC, opérant en mode
non connecté, le service de la couche MAC ne concerne que le transfert de données.
Ce dernier peut s'effectuer en point à point ou point à multipoint, avec acquittement
ou sans acquittement.
Emetteur Récepteur
MA_DATA.request
MA_DATA.confirmation
MA DATA.indication
Emetteur Récepteur
MA_D ATA.request
(request_with_response)^
MA_DATA.indication
(request_with_response)
MA_DATA.request
(response)
MA_D ATA.indication
Le standard IEEE 802.4 a retenu trois types de supports à base de câble coaxial
75 ohms (tableau 4.6). Les deux premiers sont appelés "carrierband", ce qui signifie
que la bande passante du support est dédiée à une seule transmission analogique sur
une seule fréquence porteuse. Il en résulte une simplification et un coût moindre des
connexions sur le support. Les débits autorisés sont de 1, 5 ou 10 Mbit/s. Le
troisième type de support est dédié au système large bande et permet trois canaux de
données à des débits respectifs de 1, 5 et 10 Mbit/s avec des bandes passantes de
1,5 MHz, 6 MHz et 12 MHz ; il utilise un câble coaxial unique divisé en sous-
bandes de fréquences. Le support le plus récent est la fibre optique qui offre des
débits de 5, 10 ou 20 Mbit/s. Les caractéristiques de la transmission du signal
spécifient une bande passante de 270 nm et la longueur d'onde porteuse est située
entre 800 et 910 nm. Ce support peut être utilisé avec n'importe quelle topologie
logique en bus, c'est-à-dire possédant les propriétés de diffusion et de contention
d'accès. Il est recommandé l'utilisation d'étoile active ou passive.
Exercices
Exercice 4.1
Sur cet anneau, le temps de propagation entre chaque station est de 1 ms, le
temps de transmission d'une trame est de 4 ms, le temps de transmission du jeton
est de 1 ms.
Exercice 4.2
Le protocole Token Ring met en œuvre un mécanisme de priorités entre les
stations de l'anneau. Le champ AC de la trame contient deux sous-champs pour ce
faire :
- P : priorité actuelle du jeton.
- R : priorité réservée par une station pour le prochain jeton.
Exercice 4.3
Comparez les comportements de Token Bus et de CSMA/CD en fonction de la
charge.
Exercice 4.4
Un réseau local sur bus comporte quatre stations actives d'adresses respectives 2,
5, 6 et 7. On utilise le protocole Token Bus pour le partage du support. L'anneau
logique est formé par une relation décroissante sur les adresses de station. Une
station qui possède le jeton ne peut émettre exactement qu'une seule trame pendant
THT (Token Holding Time). On prendra les hypothèses suivantes :
Accès à jeton : Token Ring et Token Bus 121
1. Dessinez l'anneau logique en faisant figurer pour chaque station son adresse, la
valeur des variables P (Prédécesseur) et S (Successeur).
Exercice 4.5
On considère une station connectée sur un réseau Token Bus ayant un débit de
10 Mbit/s. Le protocole permet de découper la bande passante du support en
plusieurs sous-bandes, chaque sous-bande étant associée à un niveau de priorité de
trafic. Les différents niveaux sont notés 6, 4, 2 et 0, le niveau 6 étant le plus
prioritaire. Les valeurs utilisées pour les temporisateurs sont :
- TRT = TTRT6 = 2 ms
- TTRT4 = 1,8 ms
- TTRT2 = 1,6 ms
- TTRTO = 1 ms
Exercice 4.6
Sur un bus fonctionnant selon le protocole IEEE 802.4, quatre stations
deviennent actives en même temps (par exemple, suite au démarrage des équipements
d'une chaîne de montage). Que se passe-t-il ? Donnez l'ordre selon lequel les stations
s'insèrent dans l'anneau logique.
station 4 station 1
P= P=
S= S=
station 2 station 9
P = P=
S = S=
Chapitre 5
5.1. Introduction
A l'origine, les protocoles IEEE 802.3, IEEE 802.4 et IEEE 802.5 étaient
conçus pour fonctionner sur des supports "électriques", paires torsadées ou câbles
coaxiaux, dont les débits sont de l'ordre de quelques dizaines de Mbit/s. Le progrès
des technologies aidant, on peut désormais utiliser la fibre optique comme nouveau
support à haute performance pour les réseaux locaux. Grâce à elle, les débits de
l'ordre de la centaine de Mbit/s ne sont plus hors de portée. De plus, les propriétés
physiques du support lui-même permettent d'atteindre des distances de transmission
de l'ordre de la centaine de kilomètres. De nouvelles applications sont désormais
envisageables.
collision. Dans le cas d'un réseau en fibre optique à 100 Mbit/s et d'une longueur de
100 k m , le t e m p s de transmission de cette m ê m e trame est de
10 us, alors que le délai de propagation sur l'anneau est de 500 us. Pour de tels
débits de transmission, chaque trame n'occupe qu'une petite partie du support. Il
devient alors inefficace de lui réserver la totalité de l'anneau.
Pour cette raison et pour d'autres encore, il est rapidement apparu nécessaire de
faire évoluer les protocoles couramment utilisés dans le cadre des réseaux locaux afin
de les adapter aux fibres optiques et aux très hauts débits qu'elles permettent
d'atteindre. FDDI est une réponse à cette attente [Ross 89], [Ross 90].
L'ANSI a proposé en 1987 les spécifications de FDDI qui ont été ensuite
normalisées par l'ISO avec l'IS 9314. La norme spécifie les services et un protocole
pour un réseau local à haut débit (100 Mbit/s) utilisant la fibre optique comme
support. La topologie retenue est un anneau doublé contre-rotatif. Chaque station est
reliée à la précédente par deux fibres optiques en point à point. L'anneau primaire est
utilisé pour la transmission normale des données dans un sens, alors que l'anneau
secondaire sert de secours inactif dans l'autre sens ; il n'est utilisé qu'en cas de
coupure de l'anneau, suite à une reconfiguration automatique de l'anneau par
rebouclage. Si plusieurs défaillances apparaissent simultanément, le réseau se
scindera en plusieurs sous-anneaux indépendants.
FDDI offre des distances de raccordement pouvant aller jusqu'à 200 km (en
comptant les deux anneaux) et la possibilité d'interconnecter jusqu'à 1 000 stations.
La distance maximale entre deux stations est de 2 km. Ces caractéristiques
apparentent FDDI à la fois aux réseaux locaux et aux réseaux métropolitains.
Ethernet
Token FDDI
Ring
station de travail
pont ou routeur
Ethernet
On est en droit de se demander quelle est la réelle utilité d'un réseau local haut
débit comme FDDI. Le surplus de bande passante offert par la fibre optique peut bien
sûr servir à transmettre des données en temps réel, de la voix, du son ou encore des
images mais l'utilisation principalement visée est la fédération de réseaux locaux à
moyen débit. Un tel réseau fédérateur est souvent qualifié de réseau backbone car il
FDDI (Fiber Distributed Data Interface) 1 25
La figure 5.2 présente l'architecture générale d'une station FDDI. Nous verrons
plus loin qu'il n'y a pas que des stations à être rattachées à l'anneau ; c'est pourquoi,
d'une manière générale, on préfère le terme de nœud à celui de station.
\* Medium Access
S Control
M
PHY PHYsical
T
Station pim Physical Medium
ManagemenT rmu Dependent
SMT [IS 10608-14] (Station ManagemenT) est une entité de gestion présente au
sein de chacune des stations. Elle intervient à tous les niveaux de FDDI (PMD, PHY
et MAC) et elle est responsable de l'initialisation, de la configuration et
éventuellement de la reconfiguration de l'anneau (détection, isolation et reprise sur
erreur, actions à entreprendre en cas d'incidents sur l'anneau).
Deux classes de nœuds sont définies : les nœuds à attachement simple et les
nœuds à attachement double. Seuls les nœuds à attachement double sont directement
reliés au double anneau, également appelé anneau principal. Un attachement double
possède au minimum deux entités PHY et deux entités PMD alors qu'un
attachement simple possède au minimum une entité PHY et une entité PMD.
Un nœud est soit une station, soit un concentrateur. La différence est qu'une
station comporte au moins une entité MAC (deux si elle est à attachement double)
alors qu'un concentrateur n'en comporte pas. Une station à attachement double est
appelée station de classe A et est directement reliée à l'anneau principal. Une station
à attachement simple est dite de classe B et n'a pas par conséquent la possibilité de se
rattacher directement à l'anneau principal. Elle est alors reliée à l'anneau via un
concentrateur.
réseau FDDI
DAS DAC
SAS SAC
De la même manière que pour Token Ring et Token Bus, l'anneau FDDI est géré
au niveau MAC par la circulation d'un jeton de station en station. La possession de
celui-ci donne le droit d'émettre des données sur le support. En assurant la présence
d'un seul jeton sur l'anneau à un instant donné, il est assuré qu'il n'y aura pas deux
stations accédant au support au même moment.
Une station désirant émettre, capture le jeton, le retire de l'anneau, transmet ses
trames et retransmet le jeton. Chaque station régénère, répète et transmet les
informations à la station suivante. La station destinataire recopie la trame dans sa
mémoire tampon et la retransmet après avoir modifié les bits "adresse reconnue" et
"trame copiée" du champ d'état. Il est de la responsabilité de la station émettrice de
retirer de l'anneau les trames qu'elle y a placées. Cela est réalisé en plaçant à la suite
de l'adresse source des symboles particuliers (Idle). La figure 5.4 illustre le
fonctionnement de l'anneau : prise du jeton, émission, remise du jeton et retrait des
trames.
1 28 Architecture des réseaux haut débit
T : jeton
Fi : trame /'
classe asynchrone recouvre des flots de données plus sporadiques, en tout cas moins
prioritaires que les informations dites synchrones. Huit niveaux de priorités sont
dédiés à cette deuxième classe. De plus, toujours pour la classe asynchrone, il est
possible de limiter l'accès à un groupe de stations en utilisant un jeton de type
restreint. Par opposition, un jeton non restreint peut être capturé par n'importe quelle
station du réseau.
Quand une station est en possession du jeton, elle ne peut le garder indéfiniment.
En fait, elle ne le possède que pour une durée limitée, pendant laquelle les données
synchrones sont émises en premier, suivies éventuellement de données asynchrones
si le temps imparti ne s'est pas écoulé. On parle alors comme pour Token Bus, de
jeton temporisé. Ainsi, afin de pouvoir gérer l'anneau, le jeton et l'émission des
différents types de données, la norme FDDI spécifie l'emploi d'un certain nombre de
temporisateurs et de compteurs.
- TTRT (Target Token Rotation Time). Il indique le temps moyen permis au
jeton pour faire un tour complet de l'anneau. Sa valeur est négociée entre toutes les
stations lors de la phase d'initialisation de l'anneau. Chaque station propose une
valeur selon ses contraintes de temps de réponse. La valeur la plus faible parmi
toutes les propositions est retenue comme référence commune : le protocole prendra
en compte les conditions de la station la plus exigeante. La valeur opérationnelle du
TTRT est T_OPR. Des études ont montré qu'une valeur de 8 ms pour T_OPR
procure dans la majorité des cas une efficacité de 80 % tout en garantissant un temps
d'accès inférieur à 1 s [Jain 90].
- T_MAX. C'est la valeur maximum que peut prendre TTRT. Si l'initialisation
de l'anneau ne peut se faire pendant T_MAX, cela signifie que l'anneau présente un
problème. La valeur par défaut est 165 ms.
- T_MIN. C'est la valeur minimum que peut prendre TTRT. La valeur par défaut
est 4 ms.
- TRT (Token Rotation Timer). Chaque station mesure le temps de rotation réel
du jeton à l'aide de ce temporisateur. Il reflète le temps à attendre avant de voir arriver
le jeton ; il couvre donc le temps utilisé par les stations pour émettre des trames,
pour faire circuler le jeton et le temps de propagation de l'anneau. A chaque fois
qu'une station relâche le jeton, elle réarme ce temporisateur, sa valeur étant
initialisée à T_OPR. Lors de la prochaine réception du jeton, le temps restant dans
TRT permet de mesurer l'avance ou le retard du jeton. Si TRT expire avant le retour
du jeton, le compteur LATE_CT est incrémenté de 1 pour indiquer une arrivée
tardive du jeton.
- THT (Token Holding Timer). Quand le jeton arrive en avance, le temporisateur
THT est initialise avec son avance (soit TTRT - TRT). THT donne le temps qu'il
reste à une station pour émettre des trames d'information de type asynchrone. C'est
donc le temps restant avant que le temps maximum TTRT ne soit atteint pour la
circulation du jeton.
1 30 Architecture des réseaux haut débit
TRTj
TRT
THT
(ms) THT
Comme dans tous les protocoles de niveau MAC, les données sont envoyées sur
le support sous forme de trames. Il existe deux types de trames, les jetons et les
trames d'information ; ces dernières pouvant en fait contenir ou non des données
issues des couches supérieures.
FDDI ne fournit qu'un seul format de trame pour transmettre aussi bien des
trames LLC que des trames MAC ou encore des trames SMT (figure 5.6).
DA SA INFO ED FS
PA SD FC
EE
SFS - Start of Frame Sequence S D - Starting Delimiter INFO - Information
FCS - Frame Check Sequence FC - Frame Control ED - Ending
EFS - End of Frame Sequence DA - Destination Address Delimiter
PA - Préambule SA - Source Address FS - Frame Status
C L F F Z Z Z Z type de trame
0 L O 0 O 0 O O trame vide
1 0 0 0 0 0 0 0 jeton non restreint
1 1 0 0 0 0 0 0 jeton restreint
deO L O O O O O l trame SMT
à 0 L 0 0 1 1 1 1
de 1 L O O O O O l trame MAC
à 1 L 0 0 1 1 1 1
de C L 0 1 r 0 0 0 trame LLC
à C L 0 1 r 1 1 1
de C L 1 0 r 0 0 0 trame d'implantation
à C L 1 0 r 1 1 1
C L 1 1 r r r r réservé
L et C peuvent prendre les valeurs 0 ou 1
r est réservé et mis à 0
5.4.3.2. Le jeton
Le format du jeton est tout à fait similaire à celui d'une trame d'information
(figure 5.8). Bien entendu, on ne retrouve pas le champ INFO, mais simplement les
champs de préambule (16 symboles I minimum), de délimitation de début de trame
(symboles JK), de contrôle (2 symboles, 10 000 000 pour un jeton non restreint et
11 000 000 pour un jeton restreint) et de délimitation de fin de trame (2
symboles T).
1 PA SD FC ED
Pour cela, chaque station émet continuellement des trames dites de négociation
(Claim frame), contenant dans le champ t_req la valeur du TTRT qu'elle aimerait
voir appliquer. Bien entendu, plus une station a besoin d'émettre des données
urgentes, plus elle aura tendance à réclamer un TTRT de faible valeur. Chaque
station écoute également le support et analyse les trames de négociation qu'elle
reçoit. Si le TTRT reçu est plus élevé que le sien, la station rejette la trame et
continue de négocier pour sa propre valeur. En revanche, si le TTRT reçu est
inférieur à celui qu'elle réclame, elle se retire de la négociation et répète la trame
reçue. La première station qui reçoit une de ses propres trames Claim remporte la
négociation. Elle peut alors initialiser son compteur T_OPR avec le TTRT
finalement négocié et qui est celui qu'elle réclamait. Dans l'exemple proposé en
figure 5.9, c'est la station S3 qui remporte la négociation.
S3 FDD] SI
T_req = 3 T_req = 5
3, SA = 3 T_req = 3 S4 4/ SA = 3 T_req = 3
T_req = 5
F i g u r e 5 . 9 . Processus Claim
Sa première action est ensuite d'émettre un jeton. Dès réception du premier jeton,
les autres stations savent qu'une station a remporté la négociation. Elles initialisent,
elles aussi, leur compteur T_OPR à la valeur du TTRT négocié, mais aucune d'elles
n'a encore le droit d'émettre des données ; elles se contentent de répéter le jeton.
Lorsque ce dernier a effectué un tour complet de l'anneau et qu'il revient à la station
qui l'a généré, la station sait que l'anneau est prêt à fonctionner ; elle peut
commencer à émettre des données ou relâcher le jeton immédiatement.
F D D I (Fiber Distributed Data Interface) 13 5
Le but du protocole MAC de FDDI est d'éviter que des données moins urgentes
soient émises par une station alors qu'une autre aurait du trafic plus prioritaire à
émettre sur le support. Il faut que le temps d'accès au support soit équitablement
réparti entre toutes les stations et ce pour les différents niveaux de priorité.
Une première solution est de garantir un temps de rotation minimal pour le
jeton. Il ne faut pas qu'une station le monopolise, même si elle doit traiter du trafic
urgent.
L'émission des données asynchrones est conditionnée par l'arrivée en avance du
jeton. De plus, une station ne peut les émettre que durant le temps mesuré par THT,
c'est-à-dire pour une période équivalente à l'avance du jeton.
Par ailleurs, même si l'on peut émettre des données synchrones dès réception d'un
jeton en avance ou non, la durée d'émission ne peut excéder une borne fixée à
l'avance par la couche SMT. Celle-ci doit être calculée de telle sorte que la somme
des bornes pour toutes les stations n'excède pas le TTRT. Ainsi, pour un tour de
jeton, on est sûr que le temps d'émission synchrone global ne dépassera pas le TTRT
négocié. C'est ainsi que l'on peut montrer que le temps de rotation maximal pour un
jeton est en fait égal à 2 * T_OPR.
4/ SA = : Beacon 31 SA = 3 Beacon
11 S A = 2 Beacon
S3 FDDI SI
21 S A = 3 Beacon
D SA = 3 Beacon
S4
5/ SA = 2 Beacor SA = 2 Beacon
Nous nous intéressons ici aux services, en d'autres termes aux interactions inter-
couches L L C / M A C , MAC/PHY et PHY/PMD. La figure 5.11 montre les
différentes entités constituant une station FDDI ainsi que leurs interactions. Les
échanges de primitives réalisés entre ces entités sont expliqués ci-après.
MSDU MSDU
MAC
MPDU MPDU
s 2/^ ^ 5/
M
T PHY
3/j f 4/ !"
PMD
i
Le protocole Token Ring (cf. chapitre 4) utilise une station particulière, appelée
moniteur, ayant en charge la totalité de la gestion du réseau. Cependant, à la suite
d'un incident, l'anneau FDDI peut être partitionné en plusieurs sous-anneaux.
L'approche moniteur centralisé nécessiterait alors un gestionnaire par sous-anneau.
De plus, une station à double attachement peut, le cas échéant, constituer un anneau
à elle seule et elle doit par conséquent être en mesure de s'autogérer. C'est pourquoi il
a été décidé qu'une entité de gestion serait présente dans chacun des nœuds FDDI
— station ou concentrateur. Cette entité de gestion locale qui fait partie intégrale
d'une station FDDI est appelée SMT (Station ManagemenT) [IS 10608-14]. Chaque
station est gérée par un agent qui décide des actions à entreprendre. Il donne des ordres
ou demande des informations à la station et reçoit des notifications d'elle. Les
différents agents du réseau FDDI peuvent s'échanger des informations via des
protocoles prévus à cet effet. A titre d'exemple, l'un des protocoles permet à une
station d'obtenir l'adresse MAC de la station adjacente.
Chaque entité SMT gère sa propre MIB (Management Information Base) qu'elle
met à jour régulièrement grâce aux réponses aux requêtes qu'elle envoie et aux
notifications reçues lors de changements significatifs des paramètres opérationnels.
Un protocole offre la possibilité à une entité SMT de consulter, voire de modifier des
objets d'une entité SMT distante.
SMT contrôle le fonctionnement des couches MAC, PHY et PMD, fournit des
services au système de gestion du réseau NMS (Network Management System) et
FDDI (Fiber Distributed Data Interface) 139
communique avec d'autres agents SMT. Son rôle principal est la gestion de la
configuration du réseau, ce qui regroupe la gestion des connexions, du bypass, de
l'initialisation, de la détection d'erreurs ou de pannes, de la reconfiguration, de la
détection d'adresses dupliquées, etc. SMT doit initialiser la couche MAC en lui
transmettant les paramètres dont elle a besoin et peut à tout moment effectuer des
modifications selon le comportement du réseau. De façon plus générale, on a deux
types de communications :
RMT MAC
/ par MAC
pkrpo*
E CEM CCE
C
M / pkrpoM
PHY
/ par PCM
nœud
PMD
contrôle du
commutateur opt
CMT de dérivation port
mm
Figure 5.12. L'architecture de SMT
Les fonctions et services de trames SMT peuvent être utilisés par des fonctions
de gestion de plus haut niveau qui rassemblent des informations et exercent un
contrôle sur le réseau FDDI.
En effet, SMT sert d'interface entre les stations de l'anneau FDDI et le système de
gestion du réseau NMS (Network Management System). SMT transmet à NMS les
informations recueillies tout au long de l'acheminement des trames, comme par
exemple les taux d'erreurs ou le nombre de trames envoyées ou reçues. Des
protocoles de communication inter-stations permettent d'établir des statistiques sur le
réseau, de détecter, d'isoler et de résoudre les fautes survenues sur un anneau, de
surveiller la configuration du réseau et les paramètres opérationnels, tout cela pour
satisfaire les exigences de performance et de connectivité des applications :
1 42 Architecture des réseaux haut débit
Bien que SMT ait défini ses propres protocoles pour la gestion à distance de
stations FDDI, d'autres protocoles de gestion système peuvent être utilisés, tels que
SNMP d'Internet ou CMIP de l'ISO. De plus, la communauté Internet a développé
une MIB FDDI SNMP pouvant être manipulée par le protocole SNMP.
Il existe entre SMT et les différentes couches de FDDI (MAC, PHY et PMD) des
primitives de services permettant à SMT de contrôler et de gérer ces couches. Ces
primitives sont internes à la station :
chemins chemins
de données de données
en transmission •n réception
trames SMT
>pérations _
abjet(s)
RMT
lOtifications MAC
nnérntinns objet
agent de opérations
SMT objet(s)
gestion notifications
notifications D A TU
CMT
opérations
objet(s)
notifications PORT
station FDDI
5.7. L a c o u c h e physique
Comme nous l'avons vu en figure 5.2, la couche physique est divisée en deux
sous-couches, PMD (Physical Medium Dependent) et PHY.
1 1 1 1 1 1 1 1
(a) NRZI
1 1 i i î i ! i
(b) MLT-3
5.7.2.1. MMF-PMD
Initialement, PMD [IS 9314-3] spécifie les caractéristiques de la station et le
câblage sur la base de fibre multimode (à gradient d'indice 62,5/125 u m de
préférence) ou monomode (8-10 um). D'autres fibres multimodes peuvent être
utilisées, aussi la norme spécifie les paramètres de qualité du signal à respecter de
manière à assurer l'interopérabilité. Le choix de ce support a été motivé par sa
qualité, tant au niveau de sa bande passante (autorisant des débits élevés) que de sa
faible atténuation (autorisant des distances de transmission importantes) et que de son
immunité aux bruits (limitant le taux d'erreurs de transmission). PMD spécifie un
connecteur optique duplex à base de LED (cf. 2.3.4) transmettant sur une longueur
d'onde nominale de 1 300 nm sur des liens d'au plus 2 km.
FDDI (Fiber Distributed Data Interface) 147
5.7.2.2. SMF-PMD
Pour fédérer des réseaux locaux relativement distants, il a été proposé une
alternative au lien direct par câble privé en utilisant le système de transmission
public sur fibre optique, SONET (Synchronous Optical NET work) [ANSI Tl-105].
SONET est un système de transmission optique numérique utilisé dans les réseaux
publics qui définit une hiérarchie de débit ainsi qu'une structure d'enveloppe — il est
décrit en détail dans le chapitre 8. FDDI sur SONET (SPM — SONET Physical-
layer Mapping) utilise le niveau STS-3 à 155 Mbit/s.
5.7.2.4. TP-PMD
Malgré ses performances, la méthode d'accès FDDI est restée marginale, avec une
utilisation principalement confinée à la fédération de réseaux locaux classiques. Pour
basculer de la dizaine de Mbit/s offerte par Ethernet ou Token Ring à la centaine de
Mbit/s offerte par FDDI, il est nécessaire de procéder à un recâblage des locaux,
d'installer des concentrateurs FDDI, d'installer des cartes à composants optiques
onéreux, etc. En fait, le coût élevé des composants optiques s'est avéré être le
principal obstacle à un déploiement rapide de FDDI, même s'il a diminué de plus de
50 % dans ses quatre premières années. Tout cela a amené un bon nombre de
constructeurs à démarrer des développements de FDDI sur paires torsadées, avec des
appellations diverses : générique avec CDDI (Copper DDI) ou plus spécifiques avec
TP-DDI (Twisted Pair DDI) ou SDDI (Shielded twisted pair DDI). Parallèlement, un
projet de normalisation du protocole sur câblage en cuivre était lancé à l'ANSI et
devrait être validé sous le nom de TP-PMD (Twisted Pair — Physical Medium
Dependent) [ANSI 201].
Les supports retenus sont la paire torsadée blindée (STP) type 1 et la paire
torsadée non blindée (UTP) catégorie 5. Dans le cas du premier, le blindage présente
l'avantage de prévenir les interférences électromagnétiques et l'utilisation du codage
4B/5B NRZI reste possible. Dans le cas de la paire non blindée, la technique de
codage qui a été retenue est le MLT-3 (MultiLevel Transmission 3). Ce codage peut
être vu comme une extension du NRZI sur trois niveaux. Ces trois niveaux sont
représentés par +1, 0 et - 1 . Comme dans le NRZI, un bit à 0 est codé par l'absence
de transition, et un bit à 1 par la présence d'une transition. Les transitions
successives vont dans le même sens (elles sont soit ascendantes, soit descendantes)
mais changent de sens dès que le signal atteint le niveau +1 ou - 1 . La figure 5.14
donne l'exemple du codage d'une suite de huit bits à " 1 " dans le cas du NRZI à deux
niveaux et du MLT-3 à trois niveaux.
Après le codage 4B/5B, le signal FDDI a un débit binaire brut de 125 Mbit/s
(100 Mbit/s utiles * 5/4). Avec le codage NRZI, chaque période de signal consistant
en 2 bits, on obtient une fréquence de signal à 62,5 MHz. Avec le codage MLT-3, la
période est de 4 bits et conduit à une fréquence de 32,25 MHz. Pour renforcer la
protection contre les interférences électromagnétiques, l'ANSI a également adopté un
mécanisme d'embrouillage chargé de répartir uniformément l'énergie du signal sur
tout son spectre.
5.7.2.5. LCF-PMD
Toujours dans l'optique de diminuer les coûts de FDDI, l'ANSI, parallèlement à
ses travaux sur TP-PMD, a créé un comité appelé LCF-PMD (Low-Cost Fiber
— Physical Medium Dependent) [ANSI 237]. Comme le nom le suggère, le comité
s'était donné comme objectif de trouver une fibre moins chère que la fibre multimode
62,5/125 um spécifiée dans la norme FDDI. D'autres alternatives, telles que la fibre
plastique ou la fibre 200/300 um, ont été considérées avant d'être abandonnées dès
lors qu'il fut admis que le coût réel portait, non pas sur la fibre elle-même, mais sur
les équipements. La suite des travaux a donc porté sur la spécification d'émetteurs et
de récepteurs optiques à moindre coût. Ces derniers sont moins chers car d'une part,
la distance maximale entre deux équipements a été ramenée à 500 m et d'autre part,
les contraintes de qualité (puissance d'émission et de réception) ont été rendues moins
strictes.
FDDI (Fiber Distributed Data Interface) 149
5.8.1. FDDI II
FDDI II est une extension de FDDI qui lui reste compatible [IS 9314-5]. II
ajoute à F D D I la possibilité d'acheminer du trafic isochrone (véhiculé
traditionnellement grâce à une technique de commutation de circuits) en sus des
trafics asynchrone et synchrone (généralement véhiculés par commutation de
paquets). En effet, FDDI ne se prête pas à la transmission de flux continus à débit
constant. Même si la classe de service synchrone permet de garantir un débit
minimum, elle ne permet pas de traiter et de restituer un flux de données uniforme
sans aucune variation. Les services visés sont ceux qui nécessitent un accès
strictement périodique, tels que la voix, le son ou encore les images numériques.
La technique utilisée dans FDDI II pour rendre un service en mode circuit
consiste à imposer une structure de trame toutes les 125 us. Une connexion en mode
circuit repose alors sur un intervalle de temps donné dans la trame récurrente. Les
canaux sont établis par SMT.
MAC
IMAC
HMUX s
M
T
PHY
PMD
Quand des stations FDDI et FDDI II coexistent sur un même réseau, seul le
mode de base peut être utilisé.
Lorsque le mode de fonctionnement hybride est utilisé, une station primaire est
chargée de générer un cycle toutes les 125 u s . Un cycle est en fait une trame
circulant sur l'anneau et dont le contenu est visible par toutes les stations du réseau.
Il sera retiré de l'anneau par cette même station primaire. A 100 Mbit/s, la longueur
d'un cycle est de 12 500 bits. Sa structure est donnée en figure 5.16. On y trouve un
préambule de 5 symboles, soit 20 bits, servant à assurer la synchronisation, l'en-tête
de cycle, codé sur 12 octets et contenant des informations sur l'utilisation du reste du
cycle, 16 canaux à haut débit (WBC — Wide Band Channel) de 96 octets chacun et,
enfin, le DPG (Dedicated Packet Group) constitué de 12 octets dédiés uniquement au
trafic de type paquet et entrelacés avec les 16 WBC. A un instant donné, l'anneau
peut contenir plusieurs cycles.
DPG 0[
DPG 1
% rangées
WBC 14
WBC 13
WBC 12
WBC 10
WBC is
WBC 1 1
WBCO^
WBC 9
WBC 6
WBC 4
WBC 8
WBC 3
WBC 7
WBC 2
WBC 5
WBC 1
DPG 11L
• 16 octets ~
Chaque canal à haut débit offre une capacité de 6,144 Mbit/s et peut être utilisé
en mode circuit comme en mode paquet. En regroupant tous les canaux utilisés en
mode paquet avec le DPG, on obtient un canal de paquets de données, dont la
capacité varie alors de 768 kbit/s à 99,072 Mbit/s par pas de 6,144 Mbit/s et dont
l'accès est contrôlé par le mécanisme de jeton temporisé. La répartition des octets sur
les différents canaux est réalisée par le multiplexeur hybride HMUX. La sous-couche
IMAC peut diviser un canal WBC en sous-canaux. Le tableau 5.2 donne la
répartition de la capacité entre les différents canaux.
5.8.2. F FOL
Pour atteindre ces objectifs, la démarche qui a été choisie a été, non pas une mise
à niveau de FDDI, mais plutôt une refonte complète des protocoles et des services,
notamment pour des raisons de compatibilité avec les débits des transporteurs
internationaux (SDH) et les systèmes de transmission de cellules.
I 52 Architecture des réseaux haut débit
Les besoins qui ont été identifiés pour FFOL sont nombreux et portent sur
différents points :
- les services : FFOL doit présenter bien évidemment une compatibilité
ascendante avec ses prédécesseurs FDDI (services asynchrone et synchrone) et FDDI
II (service isochrone des canaux à large bande). Il doit permettre aisément
l'interconnexion de plusieurs réseaux FDDI, aussi bien que l'interconnexion avec
SMDS ou le BISDN. Enfin, l'éventail des applications à supporter est très large et
va des applications traditionnelles (transfert de fichiers, transactionnel) aux nouvelles
applications multimédias, en passant par les applications temps réel.
- les débits : 1,25 Gbit/s sur de la fibre optique multimode, les débits de charge
utile devant être conformes à ceux définis dans la hiérarchie SDH ;
- la topologie et les considérations de câblage : la topologie de câblage en
anneau double est à conserver pour pouvoir utiliser des réseaux FDDI existants ou
des pré-câblages d'immeubles en fibre optique ;
- le codage : il est sujet à discussion, un codage de type 4B/6B ou de type
8B/10B — qui autoriserait davantage de codes de contrôle — ou un autre procédé qui
permettrait d'augmenter le parallélisme sur l'interface électrique ?
- les modes d'accès au support : FFOL doit supporter le mode paquet pour les
services asynchrone et synchrone, le mode circuit pour le service isochrone et aussi
le mode asynchrone (type ATM) pour les services avec ou sans connexion ;
- les méthodes d'accès au support : les techniques envisagées sont l'anneau ou le
bus avec temps discrétisé, l'anneau ou le bus à insertion de registre ou encore
l'anneau ou le bus à jeton ;
- la topologie logique : l'anneau et le bus permettent un point de contrôle
centralisé pour générer des tranches de temps ou allouer des ressources. L'anneau
permet de plus un mécanisme de reprise réparti et de son côté, le bus ne pose pas de
problème de retrait de trames ;
- les propriétés de l'accès au support : il s'agit principalement de mécanismes de
réservations, de pré-allocations et de priorités, du mécanisme utilisé pour retirer les
trames dans le cas d'un anneau et du multicast (envois multi-destinataires) ;
- la reprise sur erreur et sur panne : elle est vue au travers d'un mécanisme de
redondance et de temps maximum pour la reprise et la reconfiguration.
Les travaux au sein de l'ANSI sont en cours mais ils ont été récemment ralentis
par la mise en concurrence avec d'autres standards visant le gigabit (ATM, HIPPI
(High Performance Parallel Interface), etc.) [Tolmie 92].
FDDI (Fiber Distributed Data Interface) 1 53
Exercices
Exercice 5.1
Comparez les réseaux FDDI et Token Ring en termes de débit, codage, taille
maximale de trame, format de trame, système de priorités, relâche du jeton,
topologie, distance inter-stations et de couverture géographique.
Exercice 5.2
Indiquez la signification des bits A, C et E situés dans le champ FS de la trame
FDDI et précisez leur rôle.
Exercice 5.3
Exercice 5.4
THT := . . . (1) . . . ;
si LATE_CT = . . . ( 2 ) . . . alors TRT := TTRT ;
émission synchrone ;
si LATE_CT = 0 et THT > 0
alors émission asynchrone pendant THT ;
LATE_CT : = . . . (3) . . . ;
LATE_CT : = . . . ( 4 ) . . . ;
TRT : = . . . (5) . . . ;
Exercice 5.5
Exercice 5.6
Exercice 5.7
Sachant que le surdébit d'une trame FDDI (préfixe et suffixe) est de 28 octets et
que le temps de possession du jeton (THT) est toujours de 50 us :
1. Quelles sont les valeurs respectives des temps de transmission pour chaque type
de trafic ?
Exercice 5.9
L'efficacité du réseau est définie comme étant le temps utile sur le temps d'un cycle
lorsque toutes les stations transmettent. En d'autres termes, c'est le ratio entre le
temps passé par les stations à transmettre des trames et le temps de rotation du jeton.
Exprimez l'efficacité du réseau en fonction de TTRT.
Exercice 5.10
Algorithme 1 :
TTRT : durée cible de rotation du jeton
TRT : temporisateur réarmé à chaque relâche de jeton et initialise à la valeur de
TTRT
THT : temporisateur armé à l'arrivée du jeton et initialise avec le reliquat de TRT
SA : durée de la transmission des données de haute priorité
1) à l'arrivée du jeton, THT = TRT
2) transmission du trafic de priorité 1 pendant SA
3) pour les niveaux de priorité /, i = 2, 3, 4, transmission des données de
niveau i jusqu'à épuisement des données à transmettre ou expiration de
THT
4) armer TRT
5) rendre le jeton
Algorithme 2 :
TTRT : durée cible de rotation du jeton (la même pour toutes les stations)
Chaque station définit 3 durées et utilise 4 temporisateurs :
TTRTj : durée limite de rotation du jeton pour la classe de priorité /, i = 2, 3, 4
TRT : temporisateur réarmé à chaque relâche de jeton et initialise à la valeur de
TTRT
TRTj : temporisateur de la classe de priorité i, i = 2, 3, 4, réarmé à chaque
relâche du jeton et initialise avec la valeur de TTRTj
1) arrivée du jeton
2) émission des trames de niveau 1 jusqu'à expiration de TRT ou épuisement
des données à transmettre
3) émission des trames de niveau 2 jusqu'à expiration de TRT 2
7) rendre le jeton
1. Dans l'algorithme 2, on désire garantir un temps de cycle d'au plus TTRT. Quelle
relation existe-t-il entre les durées TTRT, TTRT , TTRT, et TTRT ?
2 4
6.1. Introduction
DQDB (Distributed Queue Dual Bus) [IEEE 802.6] a été adopté par 1TEEE sous
le nom de protocole MAN (Metropolitan Area Network) dans le standard 802.6.
Rappelons que les caractéristiques des réseaux métropolitains sont proches de celles
des réseaux locaux, puisqu'ils permettent multi-accès et diffusion. Cependant, ils
couvrent des distances plus importantes, de plusieurs dizaines de kilomètres, et ont
pour objectif principal l'interconnexion à haut débit (de l'ordre de 100 Mbit/s) de
réseaux locaux. Le protocole DQDB est issu des travaux menés par Telecom
Australia dans le projet QPSX (Queued Packet and Synchronous Switch) [Newman
88]. Il a été retenu comme standard MAN car il présente une bonne stabilité de ses
performances sous forte charge et fournit un service isochrone orienté connexion
tout en permettant le transfert de trafic asynchrone en mode connecté ou non. Le
service isochrone s'appuie sur une trame de cellules répétée toutes les 125 us dans
laquelle certaines cellules sont réservées au transfert isochrone en fonction du débit
de la connexion. Le mode asynchrone utilise la bande passante restante.
FDDI est le principal concurrent de DQDB même si FDDI est de plus en plus
utilisé comme réseau local haut débit sur paires torsadées plutôt que comme réseau
fédérateur. DQDB en conjonction avec le service SMDS (cf. chapitre 9) s'est
développé principalement aux Etats-Unis mais n'a pas vraiment réussi à s'implanter
en Europe où le choix du réseau support pour l'interconnexion de réseaux locaux
s'est davantage orienté vers des liaisons haut débit et le relais de trames, puis à
moyen terme, vers le réseau large bande.
1 58 Architecture des réseaux haut débit
Les débits retenus pour DQDB sont de 45 Mbit/s, 155 Mbit/s et pourront
évoluer ultérieurement jusqu'à 600 Mbit/s.
bus A
i T
±1 ±1 ±1
bus B
J générateur de trames
^ terminateur de trames
Sur chaque bus, le temps est discrétisé en tranches de temps appelées slots ou
cellules. A l'extrémité amont de chacun des bus, un générateur émet une suite finie
de cellules contenue dans une trame ; cette trame est répétée toutes les 125 LIS pour
permettre le transfert de trafic isochrone. Le nombre de cellules dans la trame dépend
du débit physique sur le bus.
Le partage entre les stations se fait au moyen d'un tour de rôle réalisé de manière
distribuée et garantissant une équité d'accès entre les stations, un temps d'accès
déterministe et une bonne utilisation de la ressource de transmission. Les
performances du protocole de la file distribuée sont stables quelle que soit la charge.
Sous faible charge, le temps d'accès est négligeable. Sous forte charge, le taux
d'utilisation est proche de 100 % car toute la bande passante est utilisée et le surplus
de gestion du protocole est faible. N'utilisant pas de mécanisme de type jeton, le
protocole n'est pas sensible aux erreurs et nécessite peu de gestion des fautes. Pour
peu qu'un générateur de cellules puisse émettre périodiquement une trame de cellules,
le protocole fonctionne sur tous types de supports. Enfin, la structure de la cellule
DQDB est compatible avec celle du protocole ATM définie pour le réseau large
bande. On verra aussi que les mécanismes de fragmentation/réassemblage des entités
asynchrones ainsi que les mécanismes de stockage de l'entité isochrone sont
comparables avec les mécanismes fournis par les AAL (ATM Adaptation Layer)
pour ces mêmes services.
DQDB (Distributed Queue Dual Bus) 159
Comme les autres standards IEEE, le standard DQDB spécifie deux couches de
protocoles. Il s'agit ici de la couche physique et de la couche DQDB. L'architecture
fonctionnelle d'un nœud DQDB est présentée en figure 6.2.
La couche physique possède les fonctionnalités de la couche physique OSI et
spécifie la manière d'utiliser différents supports de transmission. L'entité PLCF
(Physical Layer Convergence Function) permet de présenter un service uniforme à la
couche DQDB et ce quel que soit le support utilisé. Contrairement à FDDI, la
couche physique n'est pas divisée en deux sous-couches.
LLC
Logical Link Control
M I
CF
Common Functions
LME
PLCF
Layer 3 S2
Physical Layer Convergence Function O
Management
Entity
medium 1 medium
bus A
bus B
Une cellule PA contient 48 octets de charge utile (cf. 6.4.4) qui peuvent être
partagés par des stations différentes. Lors de l'établissement d'une connexion
isochrone, une station se voit donc attribuer par la gestion du réseau une quantité
d'octets dans la cellule PA d'un certain VCI ainsi que la position de ces octets à
l'intérieur de la cellule (position relative par rapport au début du champ de données
du segment PA). La station mémorise alors VCI, position des octets et
l'identificateur (CEP — Connection End Point) de la connexion isochrone
correspondante dans une table. Pour accéder à une cellule PA, la station examine
tout d'abord son VCI puis écrit ou lit les octets à partir de la position indiquée dans
sa table. Ce multiplexage des connexions isochrones dans une même cellule évite la
gaspillage de bande passante ; en effet, une communication téléphonique ne
nécessite qu'un octet toutes les 125 u.s, il est alors possible de multiplexer 48
communications téléphoniques dans une même cellule. Une cellule PA dont le VCI
n'est pas défini dans la table de la station est ignorée par la station.
dans tous les segments constituant un même message évitant ainsi le transport de
l'adresse destinataire dans chaque segment. Le préfixe sert aussi à indiquer la position
du fragment dans la PDU (début, milieu, fin) ainsi que son numéro de séquence.
Enfin, la station place dans l'ordre d'arrivée des SDU et dans l'ordre de
fragmentation, les segments dans une file d'attente locale des segments à
transmettre.
La station qui a au moins un segment à transmettre prend alors part au protocole
de la file distribuée où toutes les stations désirant transmettre concourent pour
l'accès aux cellules QA vides. Ce protocole ne concerne que l'envoi du segment
placé en tête de la file d'attente de la station. Ce qui signifie que la station ne peut
émettre qu'un segment à la fois. Elle entrera de nouveau en compétition pour l'envoi
du segment suivant.
En réception, chaque station examine toutes les cellules QA qui passent. Si le
segment reçu est un segment de début de message, elle examine aussi l'adresse de
destination : si le segment lui est destiné, la station enregistre alors la valeur de
MID. Elle continue alors à scruter les cellules QA et copie tous les segments
contenant le MID enregistré jusqu'à réception d'un segment de fin de message.
L'accès aux cellules QA est contrôlé par deux bits du champ AC, le bit
d'occupation (busy bit) qui indique si la cellule est vide ou occupée et le bit RQ du
niveau de priorité considéré qui sert à signaler aux autres stations une requête de
transmission d'un segment et à prendre position dans la file distribuée.
La file distribuée est une fonction qui permet la formation et le fonctionnement
d'une file de segments QA distribuée à travers le réseau. La file distribuée détermine
l'instant d'émission d'une station en fonction de l'instant de sa requête et des
requêtes des autres stations ; elle évite le phénomène de famine où une station en
164 Architecture des réseaux haut débit
amont du bus utiliserait tous les slots disponibles. Ce protocole donne des
performances analogues à celles d'une file centralisée, avec la garantie d'un temps
d'accès borné.
La file distribuée est contrôlée par des compteurs dans chaque nœud. Une file
distribuée séparée fonctionne pour chacun des bus avec des compteurs propres à
l'intérieur du sous-système MAC de chaque nœud. Ces compteurs sont contrôlés
même si la station n'a aucun segment à envoyer.
Dans le même temps, toutes les stations gèrent une file des segments à
transmettre pour le bus A. Cette file est matérialisée par deux compteurs internes à
chaque station :
bus A. bus A
. slot vide slot vide
compteur compteur compteur
de requêtes de requêtes à rebours
RC RC CD
requête requête
busB bus B
cellule vide (bit d'occupation à 0) sur le bus A (figure 6.5 (b)). Lorsqu'il atteint
zéro, le tour de la station est arrivé et elle peut transmettre dans le prochain slot vide
qui passe sur A.
- décrémenter de 1 le compteur CD chaque fois qu'un slot vide passe sur le bus
A ;
- incrémenter de 1 le compteur RC chaque fois qu'une requête pour le bus A
passe sur le bus B. Le compteur RC contient donc le nombre de nouvelles requêtes
c'est-à-dire transmises après que le nœud ait fait la sienne ;
- si le compteur CD est égal à zéro, écrire le segment dans le prochain slot vide
qui passe sur A.
A noter qu'un nœud ne peut pas enregistrer une requête venant d'un nœud en
amont sur le bus A. La file distribuée garantit que les nœuds en amont auront accès
au moment approprié du fait de leur position sur le bus.
Considérons l'exemple de la figure 6.6 où un sous-réseau contient 4 nœuds en
attente de transmission. Les compteurs de requête (RQ) et à rebours (CD) sont
initialement à zéro et tous les slots passant sur le bus A sont occupés (par des
segments PA, par exemple). Les nœuds S4, S2 et S3 effectuent chacun une requête
dans cet ordre. Les figures (a), (b) et (c) montrent le déroulement de chaque requête et
la mise à jour des compteurs. Sur la figure (d), un slot vide passe sur le bus A
entraînant la décrémentation des compteurs et la transmission du nœud S4 dont le
compteur était déjà à zéro. Les prochains slots vides seront affectés au nœud S2 puis
au nœud S3, ce qui respecte l'ordre de leurs requêtes.
En outre, DQDB gère en option trois niveaux de priorité différents, chacun d'eux
étant associé à l'un des trois bits du sous-champ RQ du champ AC de la cellule. Le
mécanisme de priorité permet à un segment de priorité haute d'être émis avant un
segment de priorité plus faible. La station effectue donc une requête en fonction du
niveau de priorité de son segment dans le bit RQ adéquat. Chaque station ne gère
66 Architecture des réseaux haut débit
bus A
bus B
bus A -
bus B
bus A
bus B
bus A •
bus B -
(d) le nœud S4 transmet son segment
donc plus deux compteurs par bus, mais deux compteurs par niveau de priorité et par
bus soit trois files distribuées par bus et six files en tout. Le passage d'un slot vide
consistera à décrémenter d'abord le compteur de plus haute priorité. La priorité est
DQDB (Distributed Queue Dual Bus) 167
absolue en ce sens qu'un segment de priorité faible ne peut être transmis que s'il n'y
a pas de segment de priorité supérieure à transmettre par une station du réseau, même
si la requête pour le segment de haute priorité a été faite après celle du segment de
faible priorité.
De nombreuses études ont montré que cette méthode induit un partage de la bande
passante qui n'est pas équitable sous des conditions de forte charge et pour un réseau
très étendu. Le protocole n'est plus équitable car les nœuds situés près du générateur
de tranches ont accès plus facilement au canal de transmission. En effet, lorsque le
réseau est étendu, le temps de propagation sur le bus n'est plus négligeable et la
requête d'un nœud aval arrive après un délai au nœud le plus en amont. Ce délai
laisse à ce dernier le temps d'utiliser la première cellule QA vide puisqu'il ne fait
jamais de requête. Cette inéquité s'accentue avec la distance et le débit du réseau.
Dans les entités des services asynchrones (MCF et COCF), la SDU transmise à
la couche MAC subit des adaptations qui consistent tout d'abord à ajouter les
informations nécessaires à la gestion du protocole, puis à ajuster sa taille à celle de
la cellule (figure 6.7). Ainsi, la SDU est d'abord encapsulée dans une IM-PDU
(Initial MAC PDU) qui est ensuite fragmentée, chaque fragment étant encapsulé dans
une DM-PDU (Derived MAC PDU). Chaque DM-PDU est à son tour encapsulée
dans un segment qui correspond à la zone de données de la cellule.
1 6 8 A r c h i t e c t u r e d e sr é s e a u x h a u t d é b i t
SDU
IM-PDU
L'IM-PDU est utilisée par le mode de transfert asynchrone. Elle peut être
assimilée à une trame de niveau MAC. Une IM-PDU comprend un en-tête, une zone
de données, des octets de bourrage pour amener F IM-PDU à un multiple de 4 octets,
un champ de contrôle d'erreur ainsi qu'un suffixe (figure 6.8).
--
,.--'4 bits (60 - N) bits ATbits- 3 bits 1 bit 1 bit 3 bits
Address MSAP
Padding Delay Loss CIB HEL
Type Address
code signification
0100 adresse sur 16 bits
1000 adresse sur 48 bits
1100 adresse sur 60 bits, individuelle, publique
1101 adresse sur 60 bits, individuelle, privée
1110 adresse sur 60 bits, de groupe, publique
1111 adresse sur 60 bits, de groupe, privée
autre réservée
Tous les bits du champ Padding sont positionnés à 0. Prenons comme exemple
le cas d'une adresse de MSAP codée sur 48 bits. Le champ Padding est alors
constitué de 60 - 48 = 12 bits, tous égaux à 0. Le champ MSAP Address se
décompose, selon un schéma similaire à celui utilisé par les réseaux locaux, en un
bit I/G (égal à 0 lorsque l'adresse est individuelle et à 1 lorsqu'elle est de groupe), un
bit U/L (égal à 0 lorsque l'adresse est gérée globalement et à 1 lorsqu'elle l'est
localement), suivis des 46 bits proprement dits d'adresse.
1 70 Architecture des réseaux haut débit
- Loss (perte) est actuellement inutilisé et est positionné à 0. Son rôle vise à
définir une priorité à la perte des trames en cas de congestion ;
Le dernier champ du MCP Header, Bridging, est réservé pour une utilisation
future dans le cadre de l'interconnexion au niveau de la couche MAC. Il définirait
alors le nombre maximum de ponts que l'IM-PDU aurait le droit de traverser ;
décrémenté à chaque pont traversé, une valeur nulle provoquerait la destruction de
l'IM-PDU.
La taille de l'IM-PDU pouvant être trop longue pour être directement insérée dans
un slot pour sa transmission, elle est fragmentée en un ou plusieurs fragments d'au
plus 44 octets. Un préfixe (DM-PDU Header) et un suffixe (DM-PDU Trailer) de
2 octets chacun sont ajoutés à chaque fragment pour former une DM-PDU (figure
6.9).
égal à 44. Pour les DM-PDU de type BOM et COM, la valeur de ce champ est
toujours égale à 44. Les DM-PDU de type SSM ont une longueur comprise entre 28
et 44 octets, et les DM-PDU de type EOM, une longueur comprise entre 4 et
44 octets ;
6.4.4. Le segment
4 octets 48 octets
Segment
Data
Header
Payload Segment
VCI HCS
Type Priority
- le type des données transportées (Payload Type) : pour les données utilisateur,
ce champ est positionné à 00, les autres valeurs étant réservées ;
- le champ de priorité (Segment Priority) n'est pas utilisé pour l'instant et est
positionné à 00 ;
- le champ HCS (Header Check Sequence) permet de détecter les erreurs sur l'en-
tête de segment.
Ce bloc fonctionnel fournit à la couche LLC le service MAC DQDB pour les
services asynchrones.
IM-PDU
segmentation de l'IM-PDU
unité de segmentation
DM-PDU, VCI,
type de charge utile,
priorité de segment
extraction de MSDU
DM-PDU (SSM;
validation de 1'IM-PDl
IM-PDU
réassemblage de l'IM-PDl
D M - P D U , VUl,
type de charge utile,
priorité de segment
Chaque IM-PDU reconstituée est validée si elle vérifie les quatre critères
suivants :
- la valeur du sous-champ Length est égale au nombre d'octets reçus pour l'IM-
PDU moins 8 octets (ces derniers correspondent à la longueur des champs Common
PDU Header et Common PDU Trailer qui ne sont pas comptabilisés dans le champ
Length) ;
Si l'un des critères n'est pas vérifié, 1TM-PDU est rejetée. Si ces quatre
conditions sont vérifiées, la fonction d'extraction extrait le champ de données de
l'IM-PDU correspondant à la MSDU et initialise les paramètres de la primitive
MA_UNITDATA.indication à partir des autres champs de l'IM-PDU (adresses et
priorité). Ensuite, une primitive MA_UNITDATA.indication est transmise avec ses
paramètres vers la sous-couche LLC (figure 6.12).
Comme les connexions isochrones, les connexions asynchrones sont établies par
une procédure de signalisation qui retourne la valeur du VCI allouée à la connexion.
L'entité COCF (Connection Oriented Convergence Function) mémorise pour chaque
connexion établie son point d'extrémité de connexion (CEP) qui identifie
l'utilisateur, son VCI et le bus sur lequel elle émet ou reçoit des segments. Lors
d'une demande de transfert de données, les procédures de fragmentation et de
réassemblage sont les mêmes que pour le bloc MCF. Toute donnée émise par le
1 76 Architecture des réseaux haut débit
bloc COCF est une IM-PDU, avec quelques différences cependant, par rapport à
l'IM-PDU transférée par le bloc MCF :
- les champs réservés (Res) de l'en-tête d'IM-PDU (Common PDU Header) et du
délimiteur de fin de PDU (Common PDU Trailer) peuvent contenir des valeurs non
nulles ;
- le champ BAsize de l'en-tête d'IM-PDU peut contenir une valeur supérieure ou
égale à celle du champ Length du délimiteur de fin de PDU pour la même donnée à
transférer, pour des raisons d'allocation de tampons à la réception.
Autre différence, le champ de données des DM-PDU issues d'une telle IM-PDU,
de type BOM ou COM, peut être partiellement rempli. Comme l'accès aux cellules
vides est dynamique, c'est la station qui initialise le VCI dans la cellule au moment
où elle écrit le segment dans une cellule QA. Le VCI est donc utilisé comme
identificateur d'une communication entre stations alors que le MID identifie un
message particulier de cette communication.
La couche DQDB fournit trois types de services : le service MAC (ou service
asynchrone sans connexion), le service isochrone et le service asynchrone orienté
connexion. Il est donc défini différents ensembles de primitives de service
correspondant à chacun de ces services.
Trois primitives de services sont définies pour le service MAC fourni à la couche
LLC, Rappelons que la couche LLC est responsable de l'établissement de la
connexion logique entre stations. Ces primitives sont :
- MA_UNITDATA.request (adresse_source, adresse_destination, priorité,
données, classe_de_service) permet le transfert d'une unité de données MAC depuis
une entité LLC à une autre entité LLC ou plusieurs entités LLC dans le cas d'une
adresse de destination de groupe. Les paramètres adresse_source et adresse_destination
indiquent les adresses d'émission et de destination des données. Le paramètre priorité
DQDB (Distributed Queue Dual Bus) 177
indique la priorité souhaitée pour le transfert de données et peut prendre une valeur
parmi 8 possibles. Le paramètre données correspond à la SDU à transférer. Enfin, le
paramètre classe _de ^service indique la classe de service à utiliser pour le transfert de
données : synchrone, asynchrone avec connexion ou isochrone ;
MA_UNITDATA.request
fi.!. T. a r n n r h p nhvKÏnne
6 . 7 . 2 . Le service physique
Chaque station appartenant au réseau DQDB qui n'est pas en tête de bus (c'est-à-
dire générateur de slots) est reliée physiquement aux deux bus, A et B. Deux points
d'accès au service physique (PH-SAP) sont donc définis : PH-SAP_A permet de
recevoir sur le bus A et d'émettre sur le bus B, PH-SAP_B permet de recevoir sur le
bus B et d'émettre sur le bus A (figure 6.14).
DQDB (Distributed Queue Dual Bus) 179
couche DQDB
PH-SAP_A PH-SAP.B
couche physique
bus A bus A
busB busB
Les primitives fournies par la couche physique et utilisées par la couche DQDB
sont :
- PH_DATA.request (octet, type) demande le transfert d'un octet depuis la
couche DQDB locale à la couche DQDB distante. Le paramètre type indique le type
de l'octet, SLOT_START pour le premier octet d'une cellule, SLOT_DATA pour
un octet suivant dans la cellule et DQDB JvlANAGEMENT pour des données de
gestion ;
- PH_DATA.indication (octet, [status]) est générée par la couche physique afin
d'indiquer la réception d'un octet. Le paramètre status, facultatif, indique à la couche
physique que l'octet proposé pour le transfert est soit valide, soit invalide ;
Exercices
Exercice 6.1
A B C D E
bus B
bus A bus B A B c D
commentaires
temps émission requêtes
RQ CD RQ CD RQ CD RQ CD
0 X — 0 0 0 0 0 0 0 0
Remarque — Il est inutile de faire figurer les compteurs de la station E car ils
restent à zéro.
DQDB (Distributed Queue Dual Bus) 1 81
2. Pour chacune des stations, calculez le débit effectif (ou débit utile) de
transmission des slots. Commentez.
Exercice 6.2
160 200
taille réseau (km)
taille trame technologie
= FDDI
I »1« 64 octets 1 518 octets 4 000 octets
= DQDB
1 82 Architecture des réseaux haut débit
Exercice 6.3
Commentez les courbes ci-dessous qui représentent le comportement de DQDB
pour différentes stations situées à différentes positions sur le bus [Ahmad 92].
délai d'accès (us)
position de l'utilisateur
10 km 50 km 100 km 200 km j
Chapitre 7
7.1. Introduction
Dans l'architecture IEEE, la couche liaison de données est divisée en deux sous-
couches, MAC pour le niveau inférieur et LLC pour le niveau supérieur. Nous avons
pu voir à plusieurs reprises que les réseaux locaux et métropolitains se singularisent
par le partage du support de transmission. C'est le rôle de la sous-couche MAC que
de gérer et de contrôler l'accès des stations du réseau à ce support unique. Ses
fonctions ne vont pas au-delà. La sous-couche LLC intervient alors, au-dessus de
MAC, afin de rendre un service comparable à un service de liaison OSI. En
particulier, LLC est chargé de gérer les communications entre stations et d'assurer
l'interface avec les couches supérieures (couche réseau). Ses spécifications sont
données dans le standard IEEE 802.2 et sont reprises dans la norme internationale IS
8802-2 de l'ISO.
- aucun séquencement ;
- aucune forme d'acquittement de la part du destinataire (par conséquent, pas de
garantie de livraison, ni de notification en cas d'échec) ;
- aucun contrôle d'erreur.
Le service LLC 1 repose donc sur un protocole peu complexe et trouve son utilité
dans les contextes suivants :
- lorsque les couches supérieures fournissent déjà un service de détection et de
traitement d'erreur ainsi qu'un service de séquencement. Dans de nombreux réseaux
locaux, les systèmes d'extrémité implantent les couches 3 à 7 et utilisent un service
datagramme au niveau réseau et un service en mode connecté au niveau transport, par
exemple TCP/IP ou TP4/CLNP. Il est donc inutile de dupliquer ce service, avec
toute la lourdeur qui en découle, au niveau LLC ;
Le mode LLC2 est donc bien adapté aux applications qui nécessitent des échanges
de longue durée (transfert de fichiers, accès distant à un système fonctionnant en
temps partagé).
DL_CONNECT.conf DL_CONNECT.resp
( adresse source, ( adresse source,
adresse destination, adresse destination, priorité )
priorité )
Dans le cas d'un croisement de requêtes de connexion (figure 7.3), une seule
connexion est établie, les entités LLC fournissant une confirmation à chacun des
utilisateurs. La priorité la plus faible est la priorité reconnue.
LLC (Logical Link Control) 187
du service
DL_CONNECT.req DL_CONNECT.req
( adresse source, ( adresse source,
adresse destination, adresse destination, priorité )
priorité )
DL_CONNECT.conf DL_CONNECT.conf
( adresse source, ( adresse source,
adresse destination, adresse destination, priorité )
priorité )
F i g u r e 7 . 4 . Libération de connexion
1 8 8 Architecture des réseaux haut débit
Le fournisseur peut refuser d'établir une connexion (figure 7.5 (a)). Cela arrive par
exemple, lorsque :
- l'entité LLC locale n'est pas capable d'établir la connexion (manque de
ressources, mauvais fonctionnement local, etc.),
- l'entité LLC distante ne répond pas à la requête de connexion, malgré N
tentatives successives.
DL.CONNECT.conf
( adresse source,
adresse destination,
raison) (a) par le fournisseur
DL_CONNECT.conf DL_CONNECT.resp
( adresse source, ( adresse source,
adresse destination, adresse destination,)
priorité )
On peut se demander quelle peut être l'utilité d'un tel type de service. Considérons
le fait que le mode connecté oblige l'entité LLC à gérer une table pour chaque
connexion active. Si un utilisateur émet vers un grand nombre de destinataires et
qu'il souhaite une garantie sur la remise de ses données, le service en mode connecté
devient très difficilement gérable à cause du nombre de tables nécessaires. Un
exemple de ce type d'application est le contrôle de processus pour lequel un site
central doit communiquer avec de nombreux processeurs ou contrôleurs
programmables. Un autre intérêt du service LLC3 est de fournir un système de
polling avec garantie de réponse. Ici encore, dans le cas d'un contrôle de processus, il
peut être nécessaire d'acquérir des données de la part d'un capteur possédant une faible
capacité de calcul. Dans ce cas, l'implantation de ce service est plus simple et mieux
approprié que le service en mode connecté. Un dernier exemple concerne aussi
l'environnement industriel pour lequel certains signaux d'alarme ou de contrôle sont
très importants et possèdent des contraintes de temps. Un acquittement est alors
nécessaire pour garantir à l'expéditeur que son signal a été reçu mais le caractère
urgent du signal oblige l'expéditeur à ne pas perdre de temps avec l'établissement
préalable d'une connexion.
LLC3 est un service qui s'utilise en point à point uniquement. On peut le voir
comme étant constitué de deux services indépendants :
- DL_DATA_ACK : service avec remise garantie ;
- DL_REPLY : service de polling avec réponse garantie, qui permet à un
utilisateur de demander des données préalablement préparées par un autre utilisateur
ou d'échanger des données avec un autre utilisateur.
DL.DATA.ACKJ*-""""^
STATUS, ind
( adresse source,
adresse destination,
priorité, classe de service,
status )
(a) réussite
DL_DATA_ACK_
STATUS.ind
( adresse source,
adresse destination,
priorité, classe de service,
status )
(b) échec
paramètre status indiquant la nature de l'incident (figure 7.11 (b)). Sinon (figure 7.11
(a)), la requête est transmise à l'entité destinataire avec les résultats suivants :
Quand le message est reçu par l'entité LLC source, elle génère une DL_REPLY_
STATUS.indication. Si tout s'est bien passé, l'entité source délivre l'unité de
données provenant de l'entité LLC distante. Sinon, le paramètre status indique la
nature de l'incident comme par exemple, l'absence de réponse de l'entité destinataire
ou l'absence d'unité de données associée au SAP distant.
F i g u r e 7 . 1 1 . Service de polling
LLC (Logical Link Control) 195
Cette interface, spécifiée dans le standard 802.2, est totalement sans connexion.
Elle contient les primitives qui permettent à la sous-couche LLC d'accéder aux
services de la sous-couche MAC :
- MA_UNITDATA.request (adresse source, adresse destination, données, priorité,
classe_de_service),
- MA_UNITDATA.indication (adresse source, adresse destination, données,
status_réception, priorité, classe_de_service),
- MA_UNITDATA_STATUS.indication (adresse source, adresse destination,
status_transmission, priorité_utilisée, classe_service_utilisée).
Il y a en fait trois protocoles LLC, selon le type de service offert. Il est possible,
pour une station donnée, de supporter plus d'un type de service et donc d'implémenter
plus d'un protocole.
Les trois protocoles LLC utilisent le même format de trames, similaire au format
des trames HDLC (cf. figure 7.12).
Les deux champs d'adresse comportent chacun une adresse de 7 bits et un bit de
contrôle : dans le cas du DSAP, il indique s'il s'agit d'une adresse individuelle ou
d'une adresse de groupe (autorisée uniquement en LLC1) (bit I/G) ; dans le cas du
SSAP, il indique si la trame est une commande ou une réponse (bit C/R).
Le tableau 7.1 donne l'ensemble des trames employées par la sous-couche LLC.
Le standard n'impose pas une utilisation précise de la trame XID, mais suggère
plusieurs cas d'utilisation possibles, par exemple :
- une commande XID avec un LSAP nul peut être utilisé pour solliciter une
réponse d'une station quelconque ("Etes-vous là ?") ;
- une commande XID avec une adresse de DSAP de groupe peut servir à
déterminer l'appartenance à un groupe. En particulier, une adresse globale (diffusion)
peut servir à identifier toutes les stations actives ;
- un échange de XID avec des LSAP nuls peut servir à identifier les types de
protocoles LLC implémentés ;
- un échange de XID avec des LSAP différents peut servir à identifier les types de
service offerts à ces LSAP ;
- une entité LLC peut annoncer sa présence avec une adresse globale.
La commande TEST est utilisée pour forcer l'entité LLC distante à répondre par
une autre réponse TEST, afin de réaliser un test de base du chemin de transmission
entre deux entités LLC.
- les trames d'information (I) permettent de transférer les données utilisateur. Les
champs N(S) et N(R) servant au contrôle d'erreur et au contrôle de flux et véhiculent
respectivement un numéro de séquence en émission et un numéro de séquence en
réception (numéro d'acquittement) ;
- les trames non numérotées (U : SABME, DISC, UA, DM, FRMR) réalisent
principalement les fonctions d'établissement, de libération de connexion, ainsi que
d'autres fonctions de contrôle.
Chaque PDU transmise est acquittée. Le protocole utilise deux nouvelles PDU
(inexistantes dans HDLC) non numérotées : ACO (Acknowledged Connectionless,
Seq. 0) et AC1, leur codage ne différant que par un seul bit. Les données utilisateur
sont encapsulées dans une trame de commande AC et doivent être acquittées par une
LLC (Logical Link Control) 199
trame de réponse AC. Le contrôle de flux est de type send-and-wait (utilisation d'une
fenêtre d'émission de taille égale à 1 ) et le contrôle d'erreur de type ARQ (utilisation
d'acquittements positifs et de retransmissions sur temporisateur). Pour se prémunir
contre les pertes de PDU, un émetteur alternera l'utilisation de ACO et de AC1 dans
ses trames de commande ; le destinataire répondra avec une PDU ACn de numéro
opposé à celui contenu dans la commande.
Exercices
Exercice 7.1
Pour les différents types d'application énumérés ci-après, quelle est la classe de
procédure LLC qui convient le mieux ? Justifiez brièvement votre réponse.
Les types d'application sont :
- application transactionnelle,
- messagerie X.400,
- télécopie,
- transfert de fichiers,
- contrôle de processus.
Exercice 7.2
Sur un réseau local Ethernet, une station effectue la diffusion d'une trame à toutes
les autres stations. Au niveau LLC, indiquez comment est réalisée la reprise sur
erreur, le cas échéant, de cette trame si le protocole est de type :
- LLC1,
- LLC2,
- LLC 3.
Exercice 7.3
Exercice 7.4
Exercice 7.5
Exercice 7.6
Deux stations A et B sont connectées à un réseau local 802.3. L'échange se fait
avec le protocole LLC2. La station A souhaite transférer deux trames d'information à
la station B. Montrez sur un diagramme l'enchaînement des primitives aux interfaces
LLC et MAC ainsi que les LLC-PDU et MAC-PDU transmises, pendant les phases
d'établissement et de transfert.
Chapitre 8
8.1. Introduction
Pour s'imposer sur le marché, le réseau large bande devra proposer un vaste
éventail de services. Ces derniers sont classés dans la recommandation 1.211 en deux
grandes catégories :
Les contraintes de QoS des services du réseau large bande sont définies dans la
recommandation 1.356 par trois paramètres qui sont le taux de perte de cellules, le
délai de transfert de la cellule et la variation du délai de transfert (également appelée
gigue cellule ou encore CDV — Cell Delay Variation).
Le tableau 8.2 donne pour quelques exemples d'applications multimédias, des
valeurs indicatives pour les paramètres de QoS qui leur sont associés. MPEG1 et
M P E G 2 (Moving Picture Expert Group) sont des normes définissant la
numérisation du son et des images animées [IS 11172].
Dans ce tableau, on constate que les applications citées sont plus ou moins
sensibles aux pertes, les informations ayant subi une compression étant les plus
sensibles. Certaines sont aussi très sensibles au délai de transfert, telle la
distribution de programmes de télévision haute définition qui présente un caractère
temps réel excluant toute reprise sur erreur par retransmission.
206 Architecture des réseaux haut débit
Les trafics issus des services multimédias sont très différents. Ils se divisent en
deux familles : les trafics à débit constant ou continu (CBR — Constant Bit Rate)
et les trafics à débit variable (VBR — Variable Bit Rate) (figure 8.1). Le trafic CBR
peut être caractérisé simplement par son débit maximal encore appelé débit crête ;
par exemple le débit crête d'un transfert de voix numérisée est de 64 kbit/s [G.711].
Le tableau 8 . 3 donne des exemples de débit crête pour les principaux services CBR.
La gestion du trafic CBR est aisée pour le réseau. En général, elle consiste à allouer
la bande passante correspondante au débit crête de la source pendant toute la durée de
la communication, que celle-ci soit active ou pas.
8.3.1. Normalisation
T a b l e a u 8 . 4 . Recommandations RNIS-LB
A- - multiplex—
B M A B C D E : A B
lignes U
C
basse X ligne haute vitesse
D vitesse
E
A Al Bl B2 C2
premier ^ deuxième
cycle cycle
B
(a) multiplexage synchrone
en-tête bande passante gagnée
~C~
| \
5 Al Bl î B2 C2
~D~ - < - à t l - » - •—à t;
b) multiplexage asynchrone
dicte le débit d'émission et peut envoyer des débits qui varient de quelques kbit/s à
plusieurs dizaines de Mbit/s. Le mode asynchrone possède donc la propriété de
multidébit nécessaire aux services décrits en 8.2. Il assure donc l'indépendance entre
les terminaux et les équipements de multiplexage et de commutation ; on parle
d'anisochronisme à l'accès.
La deuxième motivation provient du fait que les applications multimédias
demandent, outre des débits élevés, des délais de transfert courts. Cette deuxième
contrainte a conduit à simplifier au maximum le protocole de transfert. Nous
présentons ses caractéristiques dans le paragraphe suivant.
8 7 6 5 4 3 2 1
1
2
en-tête 3
5 octets 4
5
6
information
48 octets 53
L'acheminement des cellules dans le réseau large bande se fait par établissement
préalable d'une connexion de voie virtuelle (VCC — Virtual Channel Connection)
de bout en bout entre les intervenants de la communication (source et destinataire).
Par abus de langage, nous appelons simplement connexion virtuelle, la connexion
de voie virtuelle. Une connexion virtuelle ATM est une concaténation de tronçons de
voie virtuelle (VCL — Virtual Channel Link) juxtaposés. Un tronçon de voie
virtuelle est défini sur un lien entre deux nœuds. Le protocole d'établissement
consiste à choisir le chemin que doit emprunter la connexion virtuelle dans le réseau
en fonction de ses besoins en bande passante, de sa destination finale et des
ressources disponibles. Une fois la connexion établie, les cellules transmises sont
transférées en séquence sur le chemin tracé.
La connexion virtuelle est identifiée sur chaque tronçon de voie virtuelle par un
identificateur de voie virtuelle appelé VCI (Virtual Channel Identifier). Cet
identificateur ainsi que le lien emprunté sont enregistrés au moment de
l'établissement, dans chaque nœud traversé par la connexion, dans une table de
translation.
Les valeurs des VCI en entrée et en sortie du commutateur sont enregistrées avec
les informations de routage dans une table de translation. Lors de la commutation
d'une cellule, le commutateur effectue la translation des valeurs de VCI en même
temps qu'il route la cellule sur le lien adéquat en sortie. En reprenant l'exemple de la
figure 8 . 5 , une connexion virtuelle provenant du lien de A et identifiée a sera
commutée vers le nœud L 2 et portera le VCI b sur ce lien (figure 8 . 6 ) . Le nouveau
VCI servira à la prochaine unité de commutation rencontrée par la cellule. A l'entrée
du nœud L l , la cellule arrive sur le port A avec le VCI a et sort sur le port L 2 avec
le VCI b.
e n t r é e sortie
a A V C I a b
p o r t A L 2
nœud Ll
L 2 b j
8 . 3 . 4 . 3 . Le conduit virtuel
v r VC
VP VP
couche
vr physique VC
VP VP
L'identification d'une connexion virtuelle se fait donc par deux champs de l'en-
tête de la cellule :
VCI
VPI
transmission
brasseur commutateur
F i g u r e 8 . 8 . Brasseur et commutateur
F i g u r e 8 . 9 . Exemple de RNIS-LB
2 1 4 Architecture des réseaux haut débit
Le réseau large bande est constitué de trois parties, le réseau de distribution qui
permet de relier les utilisateurs, le réseau de commutation qui réalise la commutation
à haut débit et le réseau de transmission qui a la charge du transport physique de
l'information.
La connexion de deux réseaux ATM est décrite quant à elle par la NNI (Network-
Node Interface). L'interface SNI (Subscriber-Network Interface) est définie pour un
réseau SMDS (Switched Multimegabit Data Service) (cf. chapitre 9).
216 Architecture des réseaux haut débit
UNI
I
NT2
NNI réseau réseau privé
public 1
réseau
public 2 SNI »SB
SMDS
V
R
TE2 —• B-TA-
SB TB
ou
B-TE2
• B-NT2
c
B-NTl
B-TE1
L'installation privée a d'abord été construite autour d'un PABX. Puis, avec
l'apparition de l'informatique décentralisée, les concepts de réseaux locaux et
récemment de réseaux métropolitains ont émergé et se sont imposés. Pour jouer son
rôle fédérateur, il est probable que l'installation privée devra s'orienter vers un mode
de transfert ATM. Ainsi, elle pourrait tirer profit de tous les avantages de l'ATM
(flexibilité, simplicité, rapidité, indépendance aux applications). De plus, la
compatibilité avec le RNIS-LB serait assurée. Si les souhaits des opérateurs
coïncident avec ceux des utilisateurs, la technique retenue doit alors être la même.
On parle dans ce cas de réseau local ATM ; ce dernier est organisé en un réseau de
VP.
-réseau de distributioi
-réseau d'accès- eseau de collecte
réseau
MUX
mmutatei
TLO
1KCJ
vers le
usager veis ie
brasseur
TRC
r ï
5 c:
-
\MUXI/E
-
EE
z
TRO
/
M U X I/E
F i g u r e 8 . 1 4 . Le réseau de distribution
2 1 8 Architecture des réseaux haut débit
- brasseur de collecte : son rôle est d'aiguiller les différents flux ATM du réseau
de collecte, essentiellement vers les nœuds du réseau de commutation.
reseau
d'accès
brasseui
réseau de collecte ^ers le réseau de
7
transport ATM
voie .commutateur/
virtuelh
reseau brasse
brasseur
F i g u r e 8 . 1 6 . Le réseau de commutation
analyse de l'en-tête
traduction commande de
de l'en-tête commutation
m
commutation
de cellules
contrôle ue
collision
L'ATM peut être utilisé sur n'importe quel système de transmission. L'UIT-T
propose trois systèmes de transmission du flux de cellules (figure 8.18) :
Les deux premiers sont des systèmes hiérarchiques issus de systèmes existants ;
le mode de transmission y est synchrone. PDH est le système de transmission
numérique actuellement en vigueur. SDH provient du système SONET proposé
antérieurement par Bellcore.
ATM (Asynchronous Transfer Mode) 2 21
système de transmission
et support physique
f PDH SDH
Synchronous
Plesiochronous Digital
Digital Hierarchy
Hierarchy
PDH repose sur deux hiérarchies différentes définies dans des recommandations de
l'UIT-T :
12 3 4 5 6 7 8 1 2 3 4 5 6 7 8 ^ 1 2 3 4 5 6 7 g'|'
(a) Multiplex G.733 (USA et Japon) bit 193
1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8 1 2 3 4 5 6 7
64 kbit/s
er 2 Mbit/s
1 ordre
e 8 Mbit/s
2 ordre
30 e
3 ordre 34 Mbit/s
4 ordre 140
e Mbit/s
5 ordre 1565
e Mbit/s
SONET fournit une hiérarchie des débits. Le premier niveau de la hiérarchie est
désigné par STS-1 (Synchronous Transport Signal level 1) en notation numérique
ou OC-1 (Optical Carrier level 1) en notation optique et fournit un débit de
51,84 Mbit/s. Les autres niveaux, notés STS-« ou OC-n, sont des multiples de n
fois STS-1 ou OC-1 (tableau 8.5). Le système de transmission est synchrone.
Les données sont transmises dans des trames, chaque trame étant vue comme un
tableau d'octets de 90 colonnes et 9 lignes d'octets (figure 8.21). SONET est un
système synchrone qui répète une trame toutes les 125 us, ce qui conduit au débit de
51,84 Mbit/s. L'en-tête SOH (Section OverHead) occupe les trois premières
colonnes et comprend les informations liées au transport et nécessaires aux fonctions
de contrôle et de gestion du réseau. La section de régénération est prise en compte à
chaque répéteur SONET. La section de multiplexage est prise en compte par les
multiplexeurs SONET. La quatrième ligne comporte des pointeurs.
1 2 3
î Regenerator Section
2 Overhead
3
4
pointers
• • ™
5
1
6 Multiplexor Section
7 Overhead
S O N STS-l
8
u
La règle est qu'une trame STS-H est construite avec n trames S T S - 1 , ce groupe
de n trames devenant ainsi l'unité de transmission du niveau n. Avec S T S - 1 , les
trames de données sont émises une à une. Avec S T S - 3 , elles sont émises par
groupes de trois.
S O N E T définit également une hiérarchie logique en termes de couches de
fonctionnalités et une hiérarchie physique en termes d'équipements utilisés. La
figure 8.22 montre les quatre couches utilisées dans la hiérarchie logique :
- la couche photonique ou couche physique proprement dite qui transfère le
signal optique modulé,
- la couche section qui convertit les signaux électriques en signaux lumineux,
- la couche ligne, responsable de la synchronisation et du multiplexage et qui
comporte les fonctions de maintenance et de protection,
- la couche conduit qui prend en charge le transport de bout en bout des données.
|services services]
<
enveloppe
conduit
bloc STS-n
ligne
trame T
section
lumière
photonique
terminal répéteur multiplexeur SONET terminal
multiplexeur multiplexeur
d'insertion et d'insertion et
d'extraction multiplexeur d'extraction
!•—~~ SONET
iCr-
répéteur
-o
section
(STE)
•- "ligne -
(LTE) - •
(PTE + LTE)
-conduit-
STE - Section Terminal Equipment
LTE - Line Terminal Equipment
PTE - Path Terminal Equipment
SDH est un dérivé de SONET, mais avec des normes et des débits différents. Les
débits de l'UIT-T commencent à 155,52 Mbit/s, débit désigné par STM-1
(Synchronous Transport Module level 1). La raison de ce choix est que STM-1 est le
premier signal à s'adapter au mieux aux signaux plésiochrones, en l'occurrence au
signal d'ordre 4 (139,264 Mbit/s). Chaque niveau de débit est noté STM-n. Le
premier niveau STM-1 est identique au niveau STS-3 de SONET. Le tableau 8.5
montre la relation entre les niveaux SONET et SDH.
ATM (Asynchronous Transfer Mode) 225
La trame SDH est composée d'un SOH (Section OverHead), d'un POH (Path
OverHead) et d'une zone de données (figure 8.24).
1 9 10 270
H S O H
1 P t r charge utile
HS O
STM-1
H
155,52 Mbit/s
F i g u r e 8 . 2 4 . La trame SDH
La trame STM-1 est le plus petit granule de la ligne SDH ; elle a un débit de
155,52 Mbit/s, une durée de 125 us et une fréquence de répétition de 8 kHz. La
trame comporte 19 440 bits (9 * 270 octets).
champ
^~~de données cellule vide
en-tête cellule de
Je cellule maintenance
plan de gestion
de couches
couches de
gestion
niveaux supérieurs
de plans
gestion
couche AAL
couche ATM
couche PHY |
- le plan de gestion illustre le fait que des liens entre couches sont
indispensables à la gestion et à l'exploitation d'un réseau. Il est scindé en deux sous-
ensembles, la gestion de plans et la gestion de couches. La gestion de plans est
responsable de la coordination de tous les plans et comprend, en conséquence, toutes
ATM (Asynchronous Transfer Mode) 227
les fonctions de gestion qui portent sur le système global. Elle n'est pas structurée
en couches, contrairement à la gestion de couches. Cette dernière réalise les
fonctions de gestion relatives aux ressources et aux paramètres résidant dans ses
entités de protocole. En particulier, elle gère les flux spécifiques d'information OAM
(Operation And Maintenance) pour chaque couche.
Actions Description
l'entité administrée est surveillée par des
gestion des performances fonctions de vérification continues ou périodiques
les défaillances présentes ou prévisibles sont
détection des pannes détectées par des vérifications continues ou
périodiques
la localisation de l'entité en panne est déterminée
localisation des défaillances par des systèmes de test internes ou externes si
l'information sur les pannes est insuffisante
Les fonctions OAM dans un environnement ATM coïncident avec les cinq
niveaux hiérarchiques associés à ATM et PHY (figure 8.27). Ces dernières sont
réalisées au moyen de flux de maintenance bidirectionnels composés de cellules
spécifiques : les cellules OAM. Elles sont insérées ou extraites aux différents points
de connexion des VCC : commutateur, brasseur, multiplexeur, répéteur. Elles
permettent de réaliser des mesures de qualité sur les équipements situés entre les
points d'insertion et d'extraction. Les cellules de maintenance sont véhiculées par la
228 Architecture des réseaux haut débit
connexion virtuelle et sont routées comme les données normales ; elles suivent
donc le même chemin physique. La distinction entre les cellules du flux de
maintenance et celles du flux de données normales est faite grâce au champ PTI
(Payload Type Identification) de l'en-tête de la cellule (cf. 8.5.5).
F5
virtuelle
Connexion de conduit virtuef
Tronçon de
Conduit .Conduit virtuel
F4 virtuel
Conduit de transmissio
Conduit de
F3
transmission
Couche physique
Section numérique
F2
Section de
Point de connexion des niveaux
répétition
Extrémité des niveaux
Fl
Il existe cinq types de flux de maintenance : F l , F2, F3, F4, et F5. L'ensemble
des cellules Fl constitue un flux pour l'exploitation et la maintenance des répéteurs.
Le flux F3 a le même rôle mais opère au niveau du conduit (cf. SONET). Le flux
F2 permet la gestion du multiplexage des cellules dans une structure de trame. Les
flux F4 et F5 se situent respectivement au niveau du chemin virtuel et de la
connexion virtuelle. Les cellules OAM sont identifiées par le champ PTI de la
cellule. La hiérarchie des flux ATM détermine une portée pour chaque flux OAM à
l'interface usager-réseau (UNI) (figure 8.28).
A T M ( A s y n c h r o n o u s Transfer M o d e ) 229
F3 F3
F4
F5
ET : Exchange Termination
LT : Line Termination
8.4. La coucne r n i
L'unité de données échangée entre les deux sous-couches est constituée d'un flot
d'octets associé à des informations de synchronisation (figure 8.29).
ATM
cellules valides
synchronisation
PHY
TC - Transmission Convergence
suite d octets
synchronisation
PM - Physical Medium
Quatre débits d'accès sont définis à l'interface UNI [ATM Forum 94] :
44,736 Mbit/s, 100 Mbit/s et deux interfaces à 155,52 Mbit/s (STS-3c et STM1).
D'autres débits et d'autres supports physiques pourront être ultérieurement définis.
8.4.3.1. Fonctionnalités
A ce niveau, les bits sont déjà reconnus puisqu'ils proviennent de la couche PM.
La sous-couche réalise cinq fonctions :
Le transport du flux des cellules ATM est fait par une projection dans un
conteneur appelé C-4. On lui ajoute un en-tête de conteneur de 9 octets, le Path
OverHead (POH), qui contient des informations de gestion de la sous-couche TC. Le
conteneur C-4 et le POH constituent un conteneur virtuel appelé VC-4 qui compose
la charge utile de la trame STM-1 (figure 8.30). Le champ POH est transmis de bout
en bout du conduit de transmission. Un de ses pointeurs (H4) est utilisé pour
déterminer le déplacement entre lui-même et la frontière de la cellule. Avec STM-1
(155,52 Mbit/s), le débit utilisable par les cellules est de 149,760 Mbit/s.
1 9 10 270
1
S O H
4 Ptr
STM-1
9
S O H
/ VC-4
VC-4 /
/
a. O
C-4
149,760 Mbit/s
I
debit de
CL
gestion conteneur
O I
ATM
conteneur
virtuel
CL
O X
réseau SDH
"D
I O
ATM
Une cellule de maintenance ou une cellule vide doit être insérée toutes les 26
cellules ATM car l'interface UNI reste la même quel que soit le système de
transmission (SDH ou mode cellule). Le débit utile doit donc rester le même : le
ratio 26/27 est égal au ratio 149,76/155,52.
Il s'agit ici de délimiter les cellules à l'intérieur du flux de bits ou d'octets délivré
par la sous-couche PM. Le mécanisme conventionnellement utilisé et qui consiste à
délimiter par des drapeaux de début et de fin n'est pas aisé à mettre en œuvre à des
vitesses élevées. Mais, comme les cellules ATM sont de longueur fixe, d'autres
mécanismes de délimitation sont par ailleurs possibles. La technique qui a été
retenue utilise le champ HEC (Header Error Control) de la cellule.
RECHERCHE
SYNC PRESYNC
n confirmations successives
ie délimiteurs de cellule corrects
Initialement, le récepteur est dans l'état RECHERCHE. Dans cet état, le système
scrute bit par bit la suite de bits entrants tout en recherchant un mot de code de 5
octets pour lequel le calcul du HEC est correct (c'est-à-dire un en-tête correct). Si
c'est le cas, il passe dans l'état PRESYNC où les délimiteurs sont vérifiés cellule
par cellule ; n'importe quel délimiteur faux fait retourner à l'état RECHERCHE. Si
/; délimiteurs de cellule corrects et consécutifs sont découverts, le système bascule
dans l'état SYNC. Le système considère qu'il a perdu la "délimitation de cellule" si
un délimiteur de cellule est manquant m fois consécutives. Les paramètres n et m
déterminent respectivement les vitesses à laquelle le système obtient la
synchronisation de cellules et à laquelle il détecte la perte de synchronisation de
cellules. Pour les valeurs de n = 6 et m = 7 (utilisées lorsque le système de
transmission est SDH), le temps de cadrage est de l'ordre de 30 us pour un débit de
155,52 Mbit/s.
234 Architecture des réseaux haut débit
Dans l'en-tête de chaque cellule, un champ d'un seul octet, le HEC (Header Error
Control), protège le transfert de l'en-tête de la cellule. Le champ HEC est calculé par
un polynôme générateur qui permet la correction d'une seule erreur bit et la détection
de plusieurs erreurs bit.
La couche physique ne doit transmettre que des cellules valides à la couche ATM.
Par conséquent, chaque en-tête de cellule est vérifié. Les cellules qui comportent des
erreurs multiples sont détruites alors que les cellules correctes ou corrigées sont
considérées comme valides et passées à la couche ATM. Pour minimiser les
fonctions des protocoles ATM et assurer l'indépendance sémantique d'ATM par
rapport aux informations véhiculées, le champ d'information n'est pas concerné par
cette vérification. La correction d'un seul bit en erreur (dans l'en-tête de la cellule)
n'est possible que si l'automate de délimitation des cellules est dans l'état SYNC.
pas d'erreur
mode (pas d'action) mode
correction détection
erreur simple
(erreur corrigée)
Le débit du flux utile ATM doit être adapté à celui du système de transmission.
Le flux de cellules ATM est complété par insertion de cellules vides (figure 8.35).
En réception, ces cellules sont supprimées. Cette justification permet au flux ATM
d'ignorer toutes les caractéristiques de la structure de transmission sous-jacente autre
que le débit mis à sa disposition ; on parle d'anisochronisme à la transmission. Un
multiplex A T M peut être alors transporté par n'importe quel système de
transmission. Les cellules vides sont distinguées des autres types de cellules par un
champ de l'en-tête, le champ Payload Type. Le débit inutilisé sur une artère est
ATM (Asynchronous Transfer Mode) 235
récupéré par le filtrage des cellules vides au passage d'un multiplexeur ou d'un nœud
de commutation ATM. De ce fait, le réseau ne transporte que les informations
utiles.
cellules ATM
ATM " (débit D l )
cellules vides
+ - - (débit D3)
T
L I
conduit de transmission
- les cellules du niveau physique qui ne sont pas remises à la couche ATM et
parmi lesquelles on trouve les cellules vides et les cellules de gestion (OAM) du
niveau physique.
8.5. L a c o u c h e ATM
La couche ATM est définie dans les recommandations 1.150 (B-1SDN ATM
Functional Characteristics) et 1.361 (B-ISDN ATM Layer Specification). La couche
ATM est totalement indépendante du support physique utilisé et par conséquent de la
couche PHY. Par ailleurs, afin de satisfaire sa vocation multiservice, la couche
ATM est indépendante de l'application. Quatre fonctions se dégagent de cette
couche :
en-tête 4 octets
ATM
protection 1 octet PHY
champ 48 octets
AAL et application
Information
Deux structures d'en-tête ont été définies, une par type d'interface. Ces interfaces
sont l'UNI (User-Network Interface) ou le NNI (Network-Node Interface) (figure
8.38).
8 7 6 5 4 3 2 1 8 7 6 5 4 3 2 1
3 VCI 3 VCI
5 HEC 5 HEC
- HEC (Header Error Control) contient la séquence de contrôle d'erreur sur l'en-
tête (calculée par la couche PHY).
- les pertes et les arrivées incorrectes de bits de la zone de données, suite à des
erreurs de transmission,
- les pertes et les arrivées incorrectes de cellules causées par un mauvais routage
de la cellule, lui-même dû à une erreur de transmission sur l'en-tête ou à une
mauvaise interprétation de l'en-tête par un commutateur,
Les erreurs ne sont pas reprises au niveau ATM mais laissées au soin des
couches supérieures.
8.5.4. Priorités
- la priorité spatiale : certaines cellules ont une probabilité de perte plus élevée
(en cas de congestion, il y a élimination des cellules de faible priorité) ;
valeur signification
000 données utilisateur, niveau 0. pas de congestion
001 données utilisateur, niveau 1, pas de congestion
010 données utilisateur, niveau 0, congestion
011 données utilisateur, niveau 1, congestion
100 cellule de gestion du flux OAM F5 de bout en bout
101 cellule de gestion du flux OAM F5 local
110 cellule de gestion des ressources
111 réservé
8.6.1. Rôle
- caractéristiques temporelles :
• indépendance du rythme terminal/réseau : la mise en cellules des
informations du terminal (source) se fait selon son activité et à sa propre cadence
(non pas à celle du réseau). Côté réseau, l'émission de ces cellules se fait lorsque
le réseau a des ressources disponibles. Tout lien de synchronisation entre
l'horloge du terminal et celle du réseau est donc supprimé : on parle
d'asynchronisme ou encore d'anisochronisme à l'accès ;
• respect de l'ordre de la séquence d'émission ;
• variation du délai de transfert des cellules (gigue de cellule ou CDV — Cell
Delay Variation) ;
• absence de contrôle de flux au niveau cellule ;
- caractéristiques sémantiques :
• transparence au réseau : il n'y a pas de relation entre les unités de service
(générées par les applications) et les unités de transfert (les cellules) ;
• absence de tout contrôle du réseau sur les données utilisateur transportées ;
• possibilité d'erreurs de transmission affectant l'information (puisque seules
les erreurs portant sur l'en-tête de cellule sont détectées par le HEC) ;
• pertes ou insertions (gains) de cellules.
On peut ainsi voir que le format fixe des cellules entraîne une conversion de
format, que l'indépendance temporelle application/réseau impose si nécessaire une
synchronisation du destinataire sur la source et que l'absence de contrôle d'intégrité
sur les informations transférées nécessite des mécanismes de contrôle d'erreur de bout
en bout. En fait, les mesures à prendre pour corriger ces effets dépendent des
contraintes posées par les applications : si l'application ne présente aucun caractère
temps réel, aucun mécanisme de récupération d'horloge n'est nécessaire (cas d'un
service de données par exemple) ; par ailleurs, si l'application n'a pas de contrainte
forte quant à l'intégrité des données, aucun mécanisme de contrôle d'erreur n'est
nécessaire (cas d'un service de vocal). Une série de mécanismes d'adaptation destinés
à répondre aux contraintes de format, de temps et de sémantique propres aux
différentes applications ont été définis. Le rôle de l'AAL est donc de restaurer la
qualité requise par l'application à partir de la qualité offerte par le réseau.
ATM (Asynchronous Transfer Mode) 241
Les services large bande qui sont fournis au-dessus de la couche ATM sont
répertoriés en quatre classes, chacune ayant ses propres exigences vis-à-vis de l'AAL.
La classification repose sur trois paramètres :
- le mode de connexion : les services peuvent être soit connectés soit non
connectés.
Parmi les huit combinaisons théoriquement possibles ont été retenues les quatre
classes suivantes (tableau 8.8) :
8.6.3.2. La sous-couche CS
La sous-couche CS est orientée service et elle est de loin la plus complexe des
deux sous-couches de l'AAL. Son rôle est de fournir le service AAL au niveau de
l'AAL-SAP. Elle comporte les fonctions spécifiques à la restauration des
caractéristiques du service considéré. Par conséquent, chaque service fait appel à une
CS dédiée et adaptée à ses exigences propres. Il faut donc définir des CS sur mesure
au cas par cas. En effet, il est difficilement envisageable de couvrir l'ensemble des
besoins des applications avec quelques CS génériques. De façon générale, les
fonctions couvertes par CS portent sur le multiplexage de connexions AAL sur une
connexion ATM, la reprise sur erreurs (pertes), la récupération d'horloge
(synchronisation de bout en bout) et l'absorption de la gigue de cellule.
Dans l'état actuel des travaux de normalisation, il n'y a pas de points d'accès au
service (SAP) définis entre ces sous-couches. Dans certaines applications, SAR
et/ou CS peuvent être vides. La recommandation 1.363 décrit les combinaisons de
protocoles SAR et CS à utiliser avec les différentes classes de service. Néanmoins,
d'autres combinaisons peuvent être utilisées et d'autres SAR et CS peuvent être
définies.
8.6.4.1. Segmentation
La gigue représente les variations des temps de transfert des cellules. Borner ces
variations revient à déterminer l'excursion maximale. Cette dernière représente la
différence entre le transfert le plus rapide et le transfert le plus lent. Une fois cette
excursion connue, il suffit alors de différer initialement la restitution au terminal
récepteur de la valeur de cette excursion (figure 8.40).
emission t ttt f
sortie du réseau
A\ A \k
La détection des pertes et des gains de cellules est faite grâce à une numérotation
en séquence des cellules émises. La numérotation est une fonction de la sous-couche
SAR. Elle est faite modulo 8 dans le champ SN (Sequence Number). Les cellules
insérées sont détruites. Les pertes de cellules sont signalées à la sous-couche CS qui
entreprend les actions spécifiques à chaque application, les alternatives possibles
étant de :
a) ne rien faire ;
b) s'accommoder de la perte en masquant le défaut : avec les informations déjà
reçues, le récepteur va chercher à imaginer les informations manquantes. Par
exemple, pour une application vidéo, il peut y avoir interpolation entre les points
adjacents ou recopie des points manquants à partir de l'image précédente ;
du réseau
max accélère
moyen H)
ralentit
min rythme
f d'extraction
vers les couches supérieures
Les contraintes de service ne sont pas les mêmes pour chacune des quatre classes
de service. Le service AAL est rendu avec des variantes qui donnent lieu à plusieurs
types de protocole AAL. L'UIT-T a choisi de développer un nombre limité de
protocoles AAL ; actuellement, quatre types d'AAL sont déjà définis ou en cours de
définition.
classes de services A B C D
Jusqu'en juin 92, les quatre types suivants d'AAL étaient définis :
Début 1994, les deux derniers types ont été regroupés en raison de leur grande
ressemblance dans un même type tandis que sous la poussée de certains constructeurs
on définissait un nouveau type également adapté au transfert de données :
AAL-SAP
SSCS
Service Specific CS
(éventuellement nulle)
CS-
primitives-
CPCS I
AAL
Common Part CS
-primitives—
SAR
SAR
ATM-SAP
8.6.6. AAL 1
L'AAL de type 1 est dédiée aux services de classe A . Son utilisation sert à rendre
un service d'émulation de circuit. Elle offre les services suivants :
8.6.6.2. Fonctions de la CS
8.6.7. AAL 2
L'AAL de type 2 est dédiée aux services de classe B. Les services qu'elle offre
sont :
L'AAL de type 3/4 est dédiée aux services de données orientés connexion ou sans
connexion (classes C et D). Les caractéristiques de service sont :
connexion A A L connexion A A l
AAL
ATM
connexion ATM connexion ATM
point-à-point multipoint
- le choix d'une qualité de service (QoS — Quality of Service) via le choix d'un
AAL-SAP pour le transfert de données (figure 8.45) ;
lATM^SAPl) IATM-SAP
ATM
AAL-SDU
- interface A A L — AAL-IDU
SSCS-PDU
AAL-SDU
SSCS-PDU
F i g u r e 8 . 4 6 . Modes de service
Le contrôle d'erreur est assuré grâce au champ CRC (Check Redundancy Control)
de la SAR-PDU. Les SAR-PDU erronées sont rejetées. Il est toutefois prévu de
fournir une option de remise de données altérées avec l'indication adéquate en mode
non assuré. Les pertes/insertions de SAR-PDU sont détectées grâce au champ SN
(Sequence Number). Les SAR-SDU avec pertes ou insertions de SAR-PDU sont
rejetées ou bien délivrées avec l'indication appropriée.
- une ou plusieurs connexions CPCS peuvent être établies entre deux entités
CPCS homologues,
en-tete • suffixe
- CPI (Common Part Indicator) permet d'interpréter les autres champs du préfixe
(header) et du suffixe (trailer) en indiquant, entre autres, les unités utilisées pour
BASize et Length ;
ATM (Asynchronous Transfer Mode) 25 1
8.6.9. AAL 5
L'AAL de type 5 traite également les services de données mais en mode non
connecté. L'utilisation visée est le transfert de données sur un réseau local ATM ou
l'interconnexion de réseaux locaux via un réseau ATM grande distance.
en-tête
~de cellule -
-SAR-PDU
;PTI; payload
5 octet; 48 octets
en-fin
Tout comme pour l'AAL 3/4, les fonctions de la CPCS dépendent du mode de
service de son utilisateur (message ou continu). Elles couvrent (la liste n'est pas
définitive) :
- la préservation des C P C S - S D U au niveau de leur délimitation et
transparence ;
- la préservation de l'information CPCS User-to-User par le transfert transparent
d'un octet d'utilisateur à utilisateur (champ CPCS-UU) ;
Elles sont à l'étude. Aux fonctions pressenties pour la SSCS pour l'AAL 3/4, il
faut ajouter le multiplexage. En effet, avec l'AAL 5, plusieurs connexions AAL
peuvent être associées à une même connexion ATM, le multiplexage devant être
réalisé au niveau SSCS.
Tout comme l'AAL de type 3/4, l'AAL de type 5 traite des données, mais d'une
façon qui se veut plus simple et plus efficace que l'AAL 3/4. Elle a été proposée à
l'origine par l'industrie informatique (SUN Microsystems, Xerox-Parc) en réaction à
la complexité des mécanismes de l'AAL 3/4. L'AAL 5 a été conçue dans un souci de
simplicité pour un environnement haut débit, principalement dans le cadre de
l'interconnexion de stations de travail. La simplicité de l'AAL 5 est à l'origine de
l'intérêt croissant qu'elle suscite et de fait, sa prédominance sur les autres types
d'AAL semble s'affirmer de jour en jour. Notons également que l'AAL 5 a été
retenue par l'ATM Forum pour le support de la signalisation du B-ISDN (SAAL) et
que l'UIT-T en fera probablement autant.
Les différences essentielles entre l'AAL 5 et l'AAL 3/4 portent sur le contrôle
d'erreur, la délimitation des trames et le multiplexage.
La délimitation des trames se fait dans la bande avec l'AAL 3/4 : les 48 octets du
payload de la cellule se répartissent en 44 octets de données utilisateur et 4 octets
d'en-tête SAR dont le champ ST qui indique le début, le milieu ou la fin d'un
datagramme. L'AAL 5 fait une délimitation hors bande, à savoir que les 48 octets de
payload sont entièrement utilisés pour véhiculer la CPCS-PDU. Il n'y a pas d'en-tête
SAR à proprement parler : la délimitation utilise directement un bit de l'en-tête de la
cellule ATM.
Pour ces deux types d'AAL, plusieurs connexions AAL peuvent être
multiplexées sur une même connexion ATM. En AAL 3/4, le multiplexage est
réalisé au niveau de la sous-couche SAR. alors qu'en AAL 5, il doit être réalisé par
la SSCS.
ATM (Asynchronous Transfer Mode) 255
'ATM Lan 1
ATM
Lan 2 ATM
Lan 3
Le réseau local ATM permet une segmentation plus souple car elle n'est que
virtuelle, c'est-à-dire qu'elle ne dépend pas de l'attachement physique d'une station à
un commutateur. Plus explicitement, des stations d'un même segment virtuel ne
sont pas forcément connectées au même commutateur ATM. La figure 8.51 montre
un réseau A T M comportant trois commutateurs ATM S I , S2 et S3 et trois
segments virtuels appelés respectivement ATM Lan 1, ATM Lan 2 et ATM Lan 3
dont les stations ne sont pas toutes reliées au même commutateur.
- chaque segment comporte un CRC individuel de 10 bits alors que dans l'AAL
5, le C R C (32 bits) porte sur l'intégralité de la trame et est donc plus performant,
- la fonction de multiplexage supportée par le champ MID n'est pas utile dans
un contexte de réseau local,
- la charge utile est seulement de 44 octets, au lieu de 48 pour l'AAL 5,
- le protocole est plus complexe.
8.7.3. Adressage
L'ATM Forum spécifie deux formats d'adresse ATM, l'un correspond à l'adresse
RNIS-BE E. 164 et l'autre a été défini à partir du format de l'adresse réseau OSI
(figure 8.52). Cette seconde structure d'adresse comporte un champ initial de 7 octets
alloué par les autorités nationales et internationales, suivi par un champ de 4 octets
pour le domaine de routage et la zone qui sont choisis par l'organisation. Vient
ATM (Asynchronous Transfer Mode) 257
octets 1 2 1 3 2 4 6 1
Une propriété intrinsèque des réseaux locaux classiques est la diffusion qui
provient du support physique multipoint. Par voie de conséquence, le service de
transfert de données est sans connexion : l'émetteur se contente d'ajouter l'adresse de
destination à sa trame qui est diffusée à toutes les stations, chacune d'elles ne
conservant que les trames qui lui sont adressées. Cette caractéristique permet une
diffusion aisée des trames à toutes les stations au moyen d'une adresse universelle
(broadcast) ou à un groupe de stations (multicast) défini par la gestion du réseau.
Dans un réseau local, la diffusion étant de toute façon effectuée au niveau physique,
c'est au niveau MAC que l'on prend la décision de conserver ou non la trame reçue
(selon que la station en est destinataire ou non).
Dans un réseau orienté connexion comme ATM, ces deux aspects ne sont pas
évidents à traiter. S'il est possible d'assurer un service sans connexion au-dessus
d'un service en mode connecté en masquant les phases d'établissement et de
libération de connexion à l'utilisateur, il est plus difficile de réaliser la diffusion dans
un réseau où elle n'est pas naturelle.
Plusieurs solutions ont été envisagées, certaines exploitant les possibilités du
VP, d'autres proposant un maillage complet de connexions entre toutes les stations.
Elles n'ont pas été retenues du fait que la signalisation qui en découlait ne permettait
pas l'utilisation de commutateurs standards. La méthode retenue utilise des serveurs
dédiés distincts des commutateurs et greffés au réseau ; on les appelle serveurs sans
connexion (connectionless server). Toutes les stations participant au service sans
connexion possèdent une connexion avec au moins un serveur tandis que les serveurs
sont connectés entre eux. Une station qui veut diffuser une trame la transmet au
serveur auquel elle est directement reliée et qui se charge de la diffuser à toutes les
stations ; la station n'a pas besoin ainsi d'établir une connexion avec toutes les
autres stations. Bien que le serveur puisse devenir le goulet d'étranglement du réseau,
cette méthode a été choisie car elle ne nécessitait aucune modification des
commutateurs et de leur signalisation.
258 Architecture des réseaux haut débit
L'architecture d'une station sur le réseau local émulé est présentée en figure 8.53.
Une nouvelle couche est insérée entre la pile des couches supérieures (par exemple
TCP/IP) et la pile ATM. Cette couche, appelée LAN Emulation Client (LEC),
assure la convergence entre le service ATM et le service MAC attendu par les
couches supérieures. Elle a également le rôle de gérer la signalisation et notamment
l'ouverture de connexions spécifiques au réseau local émulé.
couches supérieures
L A N Emulation Client
AAL 5 Signalisation
ATM
P H Y
Les composants du réseau local ATM sont les suivants (figure 8.54) :
LAN Emulation
Server
(LES)
A
Control
/
(S
A rfi'recf
Control
VCC
direct VCC l \
Control distribute VCC
LE Client * \
Direct VCC
X
site B
utilisateur
(LEC)
Multicast \1 / Multicast
\send VCC Multicast forward VCC Send VCC J
V k /
Broadcast/unkown
Server
(BUS)
Un LEC est identifié par deux adresses : une adresse MAC sur 48 bits et une
adresse ATM sur 20 octets. Sur réception d'un message d'une couche supérieure, un
LEC essaie d'abord d'envoyer directement le message au LEC destinataire sur une
connexion ATM directe et déjà établie ; les LEC directement joignables sont
enregistrés dans une table. Si le destinataire ne figure pas dans la table, le LEC
envoie une requête de résolution d'adresse au LES qui lui renvoie l'adresse ATM
correspondant à l'adresse MAC (ce mécanisme est similaire au mécanisme ARP
d'IP). Le LEC établit ensuite une VCC avec le LEC destinataire. Lorsque le
message est destiné à plusieurs destinataires (un groupe ou toutes les stations), le
LEC source envoie ce message au BUS qui se charge de la diffusion. En réception,
le LEC effectue un filtrage des trames reçues ne conservant que celles qui comportent
sa propre adresse MAC ou une adresse de groupe auquel il appartient.
Lorsque le réseau local ATM est segmenté, chaque segment virtuel possède ses
propres BUS et LES mais il n'y a toujours qu'un seul serveur de configuration. La
définition d'un segment virtuel est faite par les VCC ouvertes entre le LEC et ses
BUS et LES ainsi que par la table de correspondance des adresses située dans le LES.
La mobilité d'une station d'un réseau local émulé vers un autre consiste donc
simplement en changement de connexions et de table.
alloué par son LES à l'initialisation du segment virtuel ; permet au LEC de filtrer
les trames qui ne lui sont pas destinées. On trouve ensuite un champ spécifique à
Token Ring qui contient les octets AC et FC de sa trame MAC (cf. chapitre 4), puis
enfin l'adresse MAC sur 6 octets. La charge utile est constituée du reste de la trame
MAC. Le champ FCS est inutile sur le réseau local émulé puisque cette trame sera
encapsulée dans une PDU de l'AAL 5 qui calcule son propre CRC sur 32 bits.
octet octet
en-tête LE 2 en-tête LE
octet
adresse 2
AC/FC
destination
adresse
MAC
6 destination
MAC
Reste
Reste
de la trame
de la trame
MAC
MAC
(hors FCS)
(hors FCS)
(a) (b)
Format Ethernet Format Token Ring
802.3 802.5
fois celle-ci apparue. En général, les méthodes préventives ne suffisent pas à elles
seules et il est préférable de les associer à des méthodes réactives.
par rapport au temps d'émission, un grand nombre de cellules aura déjà pénétré dans
le réseau avant que le signal de congestion n'atteigne la source et par conséquent, de
nombreuses cellules seront perdues !
réseau 1 réseau 2
Sb Tb NNI
B-TE B-NT2 B-NT1 UPC NPC
-CAC -CAC
-NRM -NRM
. u n
-PC y
La notion de V P C joue un rôle clé dans cette gestion. Une VPC est une
connexion de conduit virtuel d'une capacité donnée qui est préétablie à l'intérieur du
réseau. Le multiplexage statistique de sources ayant les mêmes caractéristiques (en
termes de débit et de QoS) est plus performant, aussi une VPC peut-elle être dédiée à
l'acheminement d'un type de service particulier. L'acceptation d'une connexion
virtuelle consiste alors simplement à vérifier qu'il y a encore de la bande passante
disponible sur les VPC de ce type de service jusqu'à la destination finale.
L'allocation de ressources est donc liée de façon intrinsèque au routage de la
connexion virtuelle, les deux étant souvent confondus dans une même fonction.
L'établissement de VPC est fait grâce à une étude statistique à long terme des flux
circulant sur le réseau.
- le débit moyen qui correspond au débit calculé sur les périodes d'activité et
d'inactivité,
- la caractéristique du trafic, variable ou constant.
ATM (Asynchronous Transfer Mode) 265
- le descripteur de trafic,
- les paramètres de QoS pour cette connexion,
- la tolérance de gigue maximum,
- le positionnement de l'option "marquage des cellules" liée à la fonction de
contrôle d'entrée (cf. 8.7.5.1).
8.8.5.1. Objectifs
Le contrôle d'entrée du trafic vérifie la conformité du trafic de la connexion avec
le contrat passé à l'ouverture. L'objectif de ce contrôle est d'être capable de détecter
toute situation illégale de trafic, de pouvoir déterminer si le trafic est conforme, de
réagir rapidement à toute violation, d'être transparent au trafic conforme et enfin,
d'être simple à implanter.
Les performances d'un tel mécanisme (taux de perte de cellules, retard induit, etc.)
doivent être incluses dans les performances de bout en bout d'une connexion. Le
mécanisme ne peut être parfait ; il peut en fait se tromper de deux manières :
Ils sont alors associés à une politique de gestion du trafic en excès dans le réseau
(fonction de contrôle de priorité). Mais l'inconvénient est double : tout d'abord, le
flux de cellules autorisé peut être perturbé par celui des cellules en excès ; ensuite, il
faudra prévoir des tampons de grande taille pour limiter les pertes.
- une file d'entrée ou tampon d'entrée dans laquelle les cellules sont stockées
avant transmission ; un seuil K lui est associé ;
bac à jetons
/ b a c \ jeton
cellules s. oui.
à jetons
réseau
file d'entrée x y i d e 1/ seau
non U Mv Mr
jetons jetons
verts. rouges
taux fixes
jetons verts correspondent au trafic autorisé alors que les jetons rouges correspondent
au trafic en excès ;
- les jetons sont générés dans le bucket avec un taux constant y qui correspond
au débit moyen de la connexion ;
- un bac à jetons utilisé par le mécanisme d'espacement des cellules.
Si pour une connexion, les cellules arrivent à un rythme trop élevé incompatible
avec le gabarit de gigue et/ou la période d'émission crête, la capacité allouée à la
connexion déborde et les cellules en excès sont détruites. La fonction d'espacement
est réalisée par un algorithme d'espacement, lequel est intégré dans une puce et
partagé par toutes les connexions.
i
X := TRT + T
destruction oui
K >t + t X :=t
non
F i g u r e 8 . 5 8 . Algorithme du contrôleur-espaceur
+
- soit TRT n sa valeur juste après la décision d'acceptation ou de rejet de la
cellule.
ATM (Asynchronous Transfer Mode) 269
si T R T n
+ T - tn >X la cellule #n est rejetée cellule n+3
le gabarit de gigue et/ou la
période d'émission ne sont
pas respectés et
+
TRT=TRT n #n est ennretard et
si T R T n
+ T- tn <0 la cellule
elle doit être réémise le plus
cellule n
tôt possible
+
si T R T n + T tn < 1
TRTn =t
la cellule #n est n acceptée et cellules n+1 et n+2
stockée en mémoire
+
TRT = TRT +T
n
Tableau 8 . 1 0 . Fonctionnement du
n
contrôleur-espaceur
arrivée
suite
cellule
rlétniite TRT
suite ART
reemission
n n+1 n+2
L'une des rares techniques réactives à une situation de congestion consiste à gérer
les cellules en fonction de leur niveau de priorité marqué dans le bit CLP de l'en-tête
de cellule ; d'autres techniques sont encore à l'étude. Il existe deux manières
d'attribuer des priorités aux cellules :
- par l'application ; en effet, elle est à même de différencier des données
importantes de celles qui le sont moins dans le flux de données qu'elle crée ;
270 Architecture des réseaux haut débit
Lorsqu'un élément de réseau est dans un état de congestion, il peut envoyer une
notification explicite de congestion vers la source du flux dans l'en-tête d'une cellule
(bit du champ Payload Type). Il faut alors que la source soit capable de diminuer
automatiquement son débit d'émission.
272 Architecture des réseaux haut débit
Exercices
Exercice 8.1
Justifiez le fait que la taille de la cellule soit si petite.
Exercice 8.2
Quelles sont les caractéristiques d'ATM qui en font une technique indépendante de
toute référence temporelle ?
Exercice 8.3
Le futur RNIS-LB devra pouvoir interfonctionner avec le RNIS-BE et aussi avec
des terminaux d'usager dont une proportion non négligeable reste encore analogique.
L'écho engendré par la transformation 2 fils-4 fils qui intervient entre le monde
analogique et le monde numérique doit rester dans certaines limites de niveau et de
délai. Les impératifs de qualité fixés par l'UIT-T permettent un délai d'écho aller et
retour de 20 ms. Or, le temps de mise en cellule (numérisation + remplissage) est de
6 ms. Si l'on considère un temps de propagation de 5 ms pour 1 000 km, quelle est
la distance maximum pour ne pas avoir de problème d'écho ?
Exercice 8.4
Soit le réseau RNIS-LB ci-dessous, construire pour chaque nœud les tables de
routage correspondantes lorsque :
1. les nœuds sont des commutateurs de VP,
2. les nœuds sont des commutateurs de VC.
ATM (Asynchronous Transfer Mode) 273
Exercice 8.5
1. Les nœuds 3 et 5 sont des commutateurs de VP, les autres sont des
commutateurs de VC. Trois connexions sont ouvertes : A-2-3-5-7-C, A-2-3-1-B
et B-1-3-5-7-C. Donnez des tables de translation possibles pour chaque nœud.
Exercice 8.6
2. En fait, A et B possèdent des accès distincts sur le nœud 1, mais les deux VCC
sont multiplexées sur le même VP. Donnez un exemple des tables de translation
des nœuds 1, 2, 3 et 4.
Exercice 8.7
sur 3 bits du champ SN de la SAR-PDU et que ce numéro est protégé contre les
erreurs par le champ SNP. A partir des données initiales suivantes :
1 2 | 3 | 4 5 6 7 8 19 1i q i l 12 13 14 15 16 17 18 19 20 ^
Exercice 8.8
On souhaite envoyer la totalité de l'encyclopédie Universalis (soit 253 millions
de caractères). L'application utilise directement les services fournis par l'AAL de type
5.
("AAL-SAP*")
9 |
CPCS—»H— sscs-
9 9 T
? ^
9
J
<
7 ?
<
-CS
~* ? »
SAR-*
^ ? •
V
ATM-SAP^ T
9
S
H
? J ? <
« ?
ATM (Asynchronous Transfer Mode) 275
Exercice 8.9
Comme dans la technique ATM, le réseau DQDB transfère les données utilisateur
dans des PDU de 53 octets. Rappelez la structure de cellule utilisée dans ATM et
dans DQDB. La compatibilité est-elle assurée pour autant ? Comment l'obtenir ?
Exercice 8.10
Un réseau ATM est utilisé pour interconnecter deux réseaux locaux Token Ring
(IEEE 802.5) offrant chacun un débit brut de 16 Mbit/s. Sur chaque Token Ring, 6
stations sont connectées qui génèrent le même trafic. La longueur des données d'une
trame Token Ring est de 1 ko.
4. Quel sera le débit crête demandé dans le descripteur de trafic d'une connexion ?
Exercice 8.11
Le réseau ATM a été conçu pour accepter des débits différents, tant au niveau de
leurs valeurs que de leur nature (constant/variable). Montrez sur un schéma les
conséquences qu'ont sur le flux de cellules générées :
- un transfert de voix numérisée MIC,
- un transfert de vidéo numérisée MPEG.
Exercice 8.12
Exercice 8.13
Exercice 8.14
Trouvez les conditions sous lesquelles les mécanismes de Push-out et Partial
Buffer Sharing perdent des cellules de haute priorité.
Exercice 8.15
Un crédit maximal est défini de telle façon que l'instant d'envoi du dernier paquet
de la fenêtre d'émission corresponde à l'instant de réception de l'acquittement du
premier paquet. De cette manière, l'émetteur n'est jamais bloqué en attente
d'acquittement.
Calculez cette taille maximale de fenêtre pour un réseau ATM avec un débit de
155 Mbit/s dont le délai de traversée sur 500 km serait de 6,66 ms.
Quel est le nombre de cellules perdues si l'acquittement est une notification de
congestion ? Quelle est la taille de l'espace de numérotation nécessaire à un tel
mécanisme ?
Chapitre 9
Interconnexion
9.1. Introduction
L'interconnexion des réseaux est nécessaire dès que l'on veut accéder à des
ressources extérieures au réseau local. Dès lors, on se heurte à l'hétérogénéité des
protocoles développés dans des contextes différents et présentant donc des
caractéristiques différentes.
Le problème de l'interconnexion des réseaux se résume ainsi : comment faire
dialoguer deux architectures de réseau différentes, tant au niveau des supports que des
protocoles ? L'objectif de ce chapitre est de répondre à cette question en présentant
une méthodologie d'interconnexion ainsi qu'un panorama des équipements utilisés et
des services proposés. Parmi les équipements, nous décrirons en particulier les ponts
et les routeurs. Pour ces derniers, nous introduirons le protocole IP (Internet
Protocol). En termes de services, nous présenterons d'une part, SMDS (Switched
Multimegabit Data Service), service d'interconnexion de réseaux locaux à travers des
réseaux métropolitains ou publics pour le transfert de données à haut débit, et d'autre
part, le service de relais de trames, service d'interconnexion de réseaux locaux à
travers des réseaux publics, dédié également au transfert de données à haut débit.
278 Architecture des réseaux haut débit
ensemble
homogène
La conversion de protocoles travaille directement sur les PDU. Elle est par
conséquent plus complexe à mettre en œuvre que la conversion de services. En effet,
au niveau des coupleurs fournis par les constructeurs, on a plus facilement accès à
l'interface de service qu'aux unités de données du protocole.
Ce type d'UIF a été normalisé par l'IEEE pour l'interconnexion des réseaux
utilisant les protocoles IEEE d'accès au support [IEEE 802.ld] [IEEE 802.1g]. Le
pont utilise le plus souvent une technique de conversion de services. Selon la
complexité de la fonction de routage, trois types de pont sont identifiés :
- le pont simple effectue le routage soit par diffusion, soit selon une table de
routage statique chargée par l'opérateur lors de l'installation. Dans le premier cas,
toute trame reçue sur un port du pont est retransmise sur tous les autres ports de
sortie (sauf si elle est destinée à une station du même sous-réseau que la station
source) ;
- le pont intelligent (ou pont transparent) est capable de construire de par lui-
même sa table de routage et de la mettre à jour dynamiquement. La construction de
la table se fait par apprentissage dynamique des adresses source puis par filtrage des
trames selon leur destination ;
- le pont à routage contrôlé par l'émetteur est spécifié dans le standard IEEE
802.5 du Token Ring. Le chemin que doit suivre la trame est indiqué de façon
explicite dans un champ prévu à cet effet par la station source. Ce chemin est connu
de la station source après un apprentissage dynamique. Ce mécanisme n'est donc pas
transparent vis-à-vis des stations.
Interconnexion 281
La figure 9.2 donne l'exemple d'un pont connectant trois réseaux et possédant
donc trois ports de sortie : p l , p2 et p3. L'apprentissage des adresses par le pont
s'effectue de la manière suivante :
- étape 1 : le pont reçoit une PDU issue de la station A sur le port pl (figure
9.2 (a)) ; il la diffuse sur les ports pl et p2 et note que la station d'adresse A se
trouve sur le réseau 1 ;
- étape 2 : le pont reçoit une PDU issue de la station B sur le port p2 et
destinée à A (figure 9.2 (b)) ; le pont sait que la station A est sur le réseau 1 ; la
PDU n'est donc transmise que sur pl ; le pont mémorise que la station B se trouve
sur le réseau 2 ;
- étape 3 : une trame de A à B n'est retransmise que sur p2 (figure 9.2 (c)).
f réseau
reseau
F i g u r e 9 . 2 . Apprentissage du pont
Pour conserver une information valide, l'adresse source de chaque trame reçue est
comparée avec l'entrée correspondante de la table et éventuellement mise à jour.
Pour prévenir la saturation de la table et éliminer des entrées devenues obsolètes
(stations inactives, déplacées, etc.), un temporisateur est associé à chaque entrée.
Cette approche permet d'ajouter et d'enlever des équipements sur le réseau sans avoir
à reconfigurer les ponts qui s'y trouvent.
282 Architecture des réseaux haut débit
Lorsque la topologie des réseaux interconnectés par des ponts est complexe et
maillée — un ou plusieurs sous-réseaux connectés à plusieurs ponts — il se peut
qu'une station soit accessible par des chemins différents (figure 9.3). L'algorithme
d'apprentissage n'est alors plus efficace, en effet des chemins multiples associés aux
réseaux locaux à diffusion peuvent entraîner des duplications de trames. L'algorithme
de l'arbre couvrant minimal (Spanning Tree) permet d'assurer l'unicité des chemins.
L'ensemble des réseaux interconnectés est vu comme un graphe value où chaque
sous-réseau joue le rôle d'un nœud et chaque pont est représenté par un arc du
graphe ; la fonction de calcul d'un coût minimal permet de définir l'arbre couvrant.
Le coût d'un arc représente par exemple le nombre total de ponts sur le chemin entre
deux stations quelconques. S'il existe plusieurs chemins entre deux stations, celui de
coût minimal est retenu. La défaillance d'un sous-réseau ou d'un pont entraîne un
changement de topologie pris en compte par les ponts grâce aux informations qu'ils
échangent dans des unités de données particulières, des Bridge-PDU, qui permettent
de reconstruire l'arbre.
F i g u r e 9 . 3 . Chemins multiples
L'ensemble des sous-réseaux interconnectés par des ponts IEEE y est défini
comme étant le réseau local étendu (ELAN — Extended Local Area Network). Dans
le cas où les deux réseaux sont géographiquement proches, ils peuvent être
interconnectés directement par un pont local utilisant la conversion de services. Dans
le cas contraire, on peut avoir recours à un pont distant constitué par deux demi-
ponts reliés entre eux par une liaison intermédiaire. La technique alors utilisée est
l'encapsulation afin d'assurer la transparence vis-à-vis de la liaison intermédiaire.
Chaque port reçoit et transmet des trames du et vers le réseau local rattaché en
utilisant l'entité MAC associée. Chaque entité MAC manipule les fonctions
dépendantes de la méthode d'accès au support (protocole et procédures MAC). Une
architecture est spécifiée pour chaque type de pont, local (figure 9.4) et distant.
entités He couches
supérieures entité
entité entités de protoco le du pont, de gestion du pont entité
LLC A À
L
LLLC
C
T J entité de relais M A C w T
s e m c e
service j?. fonction indépenda ntes de i a ^ i
MAC r tec inique d'ac ces MAC
service de service de
sous-couche sous-couche
interne interne
entité M A C entité M A C
protocole et protocole et
procédures MAC procédures MAC
Les fonctions dédiées à l'interconnexion sont assurées par l'entité de relais MAC
qui coiffe les sous-couches internes M A C spécifiques à chaque sous-réseau.
Indépendamment de la méthode d'accès au support, l'entité de relais MAC effectue le
relais des trames entre ports, le filtrage de trames et l'apprentissage d'information de
filtrage. Elle utilise le service de chaque sous-couche interne fourni par chaque entité
MAC correspondant à un port donné.
Le pont offre un service MAC sans connexion avec deux primitives qui sont
MA_UNITDATA.request et MA_UNITDATA.indication. Le service MAC offert par
un ELAN est similaire à celui d'un réseau local isolé, en conséquence :
- un pont n'est pas directement adressé par les stations communicantes (sauf à
des fins de gestion), il est transparent vis-à-vis des stations ;
- toutes les adresses MAC sont uniques ;
- les adresses M A C des stations ne sont pas limitées par la topologie ni par la
configuration du réseau étendu.
h MAC
f(4) PHY
réseau 1 réseau 2
Figure 9.5. Enchaînement de requêtes pour la transmission d'une trame entre deux
stations interconnectées par un pont
Interconnexion 2 8 5
- le processus d'apprentissage "apprend" les adresses source des trames reçues sur
chaque port et met à jour la base de données de filtrage en fonction de l'état du port
récepteur ;
- le processus de relais de trames retransmet les trames reçues sur un autre port
en fonction des informations contenues dans la base de données de filtrage et de l'état
des ports. La trame est soit retransmise sur un seul port, si l'adresse est connue, soit
diffusée sur tous les autres ports du pont dans le cas contraire ;
base de données
de fdtrage
réception transmission
de trames de trames .
sous-couche sous-couche
interne MAC interne MAC
- la taille maximale de la SDU supportée par le réseau local sur lequel on doit
transmettre est respectée.
Après réception, une trame peut ne pas être relayée et être détruite dans deux
situations : lorsque le système destinataire se trouve sur le même sous-réseau que la
source ou sur occurrence d'une condition d'exception (erreur de transmission, trame
de contrôle, service de demande de réponse actif, filtrage sélectif, longueur excessive,
dépassement du temps de transit dans le pont).
En réception, l'entité MAC associée à un port donné examine les trames en
provenance du réseau local auquel le port est attaché. Les trames sont soumises au
processus d'apprentissage et au processus de relais par l'invocation de la primitive
M_UNITDATA.indication, après vérification de l'état des ports impliqués. En
émission, l'entité MAC transmet, si l'état du port auquel elle est associée le lui
permet, les trames qui lui ont été soumises par l'entité de relais MAC par une
primitive M_UNITDATA_request.
En ce qui concerne la base de données de filtrage, les informations peuvent
provenir de configuration d'administration ou de configuration dynamique. La base
peut contenir aussi bien des entrées statiques que dynamiques. Les entrées
dynamiques sont créées et mises à jour par le processus d'apprentissage. A chaque
opération sur une entrée, on arme un temporisateur associé à l'entrée. Si le
temporisateur expire, l'entrée est détruite, car considérée comme inutilisée depuis
trop longtemps. Une entrée dynamique comporte les informations {adresse MAC,
n° de port, temporisateur}. A contrario, les entrées statiques ne peuvent être ajoutées
ou détruites que par l'administration.
Les ponts locaux et les ponts distants ne doivent pas dégrader de façon excessive
la qualité de service de chaque sous-réseau local. Les ponts distants utilisant des liens
intermédiaires plus lents que les sous-réseaux (sauf dans le cas de réseaux fédérateurs
à haut débit), ils entraînent généralement une dégradation de service plus importante
que celle causée par un pont local. Dans tous les cas, un pont ne peut violer les
invariants du service MAC et doit respecter le séquencement des trames.
9.5.1. Introduction
chemin le plus court possible. Le gestionnaire du réseau peut influer sur cette
décision en modifiant le nombre de sauts associés à un chemin, ce qui donne la
préférence à un chemin plutôt qu'à un autre.
Le protocole Internet (IP — Internet Protocol) [RFC 791] a été spécifié par le
DoD (Department of Defense, USA) pour interconnecter ses nombreux réseaux (cf.
chapitre 1). Le service est sans connexion et le protocole permet le transfert de
datagrammes. Chaque datagramme est traité comme une entité indépendante des
autres datagrammes. IP réalise deux fonctions de base, l'adressage (d'hôtes) et la
fragmentation. Il est souvent couplé avec un protocole de transport très fiable, TCP
(Transmission Control Protocol) [RFC 793]. On parle souvent de TCP/IP ; ce
couple de protocoles est très répandu car il a été intégré dans le noyau d'UNIX à
partir de la version Berkeley 4.2.
Un nom désigne ce que l'on cherche ; une adresse indique sa localisation ; une
route indique comment y parvenir. Le protocole Internet traite des adresses : c'est
aux protocoles de niveaux supérieurs de mettre en correspondance des noms avec des
adresses, c'est à IP de mettre en correspondance des adresses IP avec des adresses de
sous-réseaux (ce que l'on a appelé adresses physiques) et c'est le rôle du niveau
inférieur que de mettre en correspondance les adresses de sous-réseaux avec des
routes.
Les adresses Internet sont des adresses hiérarchiques codées sur 32 bits et
composées de deux champs, <réseau> et <hôte>. Le champ <réseau> adresse un
réseau particulier : c'est une référence unique du réseau de par le monde, attribuée par
un organisme central. Le champ <hôte> désigne un hôte particulier ou une
connexion particulière sur le réseau considéré. Un hôte relié à deux réseaux possédera
donc deux adresses Internet, une par connexion réseau.
L'adressage Internet supporte trois classes d'adressage individuel, désignées par A,
B et C, qui permettent de couvrir aussi bien les réseaux locaux à quelques postes que
Interconnexion 289
les réseaux grande distance avec des milliers de postes raccordés. La classe D
supporte l'adressage multipoint. La figure 9.7 donne le format de l'adresse pour
chacune de ces classes. La notation habituelle d'une adresse Internet est le codage
décimal pour chacun des quatre octets la constituant (par exemple, 128.10.2.30 est
une adresse de réseau de classe B).
hôte A hôte B
TCP TCP
passerelle R
IP IP \ IP
réseau 2
réseau protocole protocole protocole protocole
d'accès 1 d'accès 1 d'accès 2 d'accès 2
rèsrao t réseau 2
encapsulation par
en-tête en-tête en-tête
s
le protocole d'accès du réseau 1
réseau 1 IP TCP " (émetteur)
désencapsulation par
en-tete en-tete le protocole d'accès du réseau 1
o n n e e s routage par IP vers le réseau 2
IP TCP " (passerelle)
encapsulation par
en-tête ;n-tete en-tete , le protocole d'accès du réseau 2
IP T C P données
réseau '* (passerelle)
L'exemple précédent supposait que le datagramme avait une longueur telle qu'il
pouvait être retransmis sans découpage sur le réseau 2. Ce n'est pas toujours le cas
et une passerelle peut être amenée à réaliser une fragmentation d'un datagramme. La
fragmentation est nécessaire lorsque le datagramme reçu a une longueur supérieure à
la longueur maximum tolérée par le réseau sur lequel il doit être retransmis. Le
datagramme est alors découpé en plusieurs fragments de longueur compatible avec le
maximum autorisé.
Le routage Internet se fait saut par saut à partir de l'adresse de l'hôte destinataire.
L'entité IP locale examine donc cette adresse et détermine si le routage est direct —
le préfixe <réseau> de l'adresse destinataire est le même que le sien — ou s'il est
indirect — le préfixe est différent. Dans le cas d'un routage indirect, l'entité locale IP
choisit le routeur le mieux adapté pour atteindre la destination finale et envoie le
paquet IP à ce dernier en l'encapsulant au passage dans une PDU du protocole d'accès
du réseau sous-jacent. A la réception du paquet, l'entité IP de la passerelle détermine
s'il s'agit d'un routage direct ou indirect, et dans ce dernier cas, vers quelle passerelle
router le paquet. Elle remet alors au réseau de sortie correspondant le datagramme à
transférer vers la nouvelle passerelle. Ce processus se répète jusqu'à ce que le
datagramme ait atteint sa destination finale.
Pour simplifier le routage dans Internet, il a été défini une hiérarchie de sous-
réseaux qualifiés d'autonomes. Un réseau autonome correspond souvent à un pays
particulier, les politiques de télécommunication étant différentes d'un pays à l'autre.
L'échange d'information de routage dans un réseau autonome se fait par le protocole
IGP [RFC 1371]. Dans chaque sous-réseau, une passerelle est reliée à une ou
plusieurs passerelles d'autres sous-réseaux, formant ainsi le réseau central. Le
protocole EGP [RFC 904] permet l'échange d'informations entre les réseaux
autonomes et le réseau central.
Interconnexion 291
9.5.5.4. La datagramme IP
Le protocole IP ne définit qu'un seul type de PDU appelé datagramme IP dont la
figure 9.9 donne la structure. Les différents champs sont :
0 8 16 31
Destination Address
Options
Padding
Data
- le champ ToS (Type of Service) fournit une indication des paramètres abstraits
de la qualité de service souhaitée. Ce champ est utilisé par les passerelles pour
sélectionner les paramètres de transmission réels d'un sous-réseau donné, le prochain
sous-réseau ou la prochaine passerelle à emprunter. Les 8 bits du champ sont
répartis en trois bits P pour la priorité, un bit D pour le délai, un bit T pour le
débit, un bit R pour la fiabilité et deux bits réservés mis à 0. Les trois bits de
priorité permettent de définir huit niveaux de priorité d'acheminement d'un
datagramme (la valeur 000 correspondant à la priorité la plus basse). Pour les bits D,
T et R, seuls deux niveaux sont possibles, normal (valeur 0) ou élevé (valeur 1). Le
type de service est important puisqu'il permet de définir plusieurs niveaux de services
en fonction du type d'information transportée et de différencier les informations de
contrôle des données. En particulier, il peut constituer un support pour des
algorithmes de contrôle de flux dans des protocoles de couches supérieures dont les
informations de contrôle peuvent être transmises indépendamment des restrictions de
flux imposées. Il faut remarquer que ce champ n'est significatif que dans la mesure
292 Architecture des réseaux haut débit
- Fragment Offset, codé sur 13 bits, indique la position relative (en unité de
8 octets) des données contenues dans ce datagramme par rapport au début des
données du datagramme initialement émis. Seuls un datagramme complet et un
premier fragment de datagramme peuvent avoir ce champ à 0 ;
données X X
Les concepteurs de TCP/IP étaient loin, au début des années 80, de se douter de
l'explosion à laquelle est confronté aujourd'hui le réseau Internet mondial. Des
estimations de 1987 prévoyaient le besoin d'adresser 100 000 réseaux dans un futur
assez vague. Il apparaît que ce seuil sera atteint dès 1996. D'autres estimations, cette
fois réalisées en 1994, projettent quelques millions de réseaux interconnectés dans un
futur pas trop lointain. Cette expansion constitue un véritable problème. En effet,
l'espace d'adressage offert par l'actuelle version d'IP devient complètement saturé.
Même si les 32 bits d'adresse permettent — en théorie — d'adresser 4 billions de
machines sur plus de 16 millions de réseaux, l'efficacité de la procédure d'attribution
d'adresses est telle qu'on est loin (très loin) de pouvoir approcher ces valeurs. La
granularité des adresses — répartition des adresses en trois classes, A, B et C —
n'arrange rien. De fait, la classe B est devenue, dès mars 1994, une ressource
extrêmement critique. D'autres facteurs contribuent également au besoin pressant
d'évolution d'IP. Ils sont pour la plupart liés à l'émergence de nouvelles
applications. Citons les applications multimédias, pour lesquelles les contraintes de
délais bornés imposent l'utilisation de mécanismes de gestion de qualité de service,
ou encore les applications sensibles qui exigent la mise en œuvre de mécanismes
d'authentification et de cryptage.
Face à cela, l'IETF (Internet Engineering Task Force) a mis en place, dès 1991,
des groupes de travail. Chercheurs, universitaires, constructeurs, équipementiers,
développeurs, fournisseurs venus de tous les horizons ont uni leurs efforts dans le
but de produire IPng, IP — The Next Generation. On peut aisément imaginer qu'un
consensus fut long à obtenir et que le choix d'un protocole parmi tous ceux proposés
ne fut pas chose aisée. Le lecteur intéressé pourra se référer au [RFC 1752] pour une
description des besoins exprimés pour IPng et des principales propositions.
Finalement, le protocole SIPP (Simple Internet Protocol Plus) [RFC 1710] a été
retenu comme base à la future version d'IP. Pour la distinguer de la version courante
(IPv4), la nouvelle version s'appellera IPv6 (le numéro de version 5 ayant été
attribué entre-temps au protocole ST).
IPv6 constitue une évolution d'IPv4. En tant que tel, il reprend bon nombre des
caractéristiques qui ont fait le succès de son prédécesseur : opération en mode non
connecté, fragmentation des datagrammes, possibilité de routage par la source, etc.
Ses principales caractéristiques résident dans :
La spécification détaillée du protocole IPv6, dans son état actuel, est donnée dans
[Deering 95].
9.6.1. Définition
La figure 9.10 décrit l'interconnexion de deux CPE (deux réseaux locaux Ethernet
et Token Ring dans l'exemple) à travers deux LEC (deux réseaux métropolitains
DQDB) et un IC (un réseau RNIS-LB). Nous détaillons à présent les composants
que nous venons d'introduire.
Les nœuds d'un réseau LEC sont appelés SS (Switching Systems). En fait, un
LEC peut être constitué d'un ou plusieurs nœuds. Dans ce dernier cas, la topologie
est maillée, ce qui permet des chemins multiples entre deux SS donnés. L'interface
entre deux SS est appelée ISSI (Inter-Switching System Interface) (figure 9.10). Le
service SMDS est assuré par les SS et grâce au protocole de dialogue entre SS, le
protocole ISSIP (Inter-Switching System Interface Protocol).
CP1
9.6.2.2. Le modèle SS
Les Switching Systems réalisent la commutation de paquets à haut débit. Un SS
est modélise comme étant un nœud du réseau LEC mais physiquement, il correspond
à un réseau métropolitain dont un ou plusieurs nœuds supportent SMDS. De ce fait,
un Switching System peut être centralisé — un seul nœud supportant SMDS — ou
réparti — plusieurs nœuds supportant SMDS. Dans ce dernier cas, chaque entité du
SS est appelée SS-NE (Switching System-Network Element).
Chaque SS pouvant gérer jusqu'à trois types d'interfaces différents (SNI, ISSI,
ICI) en fonction du type d'équipement connecté, un SS-NE (ou SS centralisé)
possède une architecture logique modulaire où chaque module est dédié à la gestion
d'une interface particulière (figure 9.11) :
-SS-NE- SS-NE-
CPE,
ressources ressources { CPE )
communes communes
CPE
;NIM SNIM
PIM \ PIM
SS—, SNIM I
ICIM I
aaim | IC
ISSIMj p
ss—
F i g u r e 9 . 1 1 . Le modèle Switching System
Les utilisateurs du service fourni par le protocole SMDS sont des groupes de
fonctions utilisant les services des protocoles SIP, ISSIP et ICIP. Ces fonctions
supportent le transport des paquets de données et de gestion entre une SNI et un
LEC, entre un IC et un LEC ou entre deux LEC. De plus, ces fonctions assurent
l'adressage de groupe ainsi que la gestion et les opérations internes à un SS (tests de
boucles, tests de routage et administration des notifications).
ISSIP niveau 3
interface indéDendante
de la technologie
9.6.3.3. Le routage
Chaque système SS n'étant pas connecté directement à tous les autres, un paquet
doit avancer par sauts successifs avant d'atteindre sa destination. Il faut donc
connaître le chemin que doit emprunter chaque donnée pour arriver à destination avec
un délai minimum. Cela constitue le rôle d'un protocole de routage qui est appelé
Interconnexion 299
SMDS est destiné à être utilisé sur des réseaux métropolitains comportant un
très grand nombre de SS. Ainsi, lorsque l'on observe un phénomène de congestion,
il est nécessaire de l'isoler et de le contrôler au plus vite afin de ne pas étendre le
problème aux nœuds voisins. La spécification de SMDS définit un mécanisme de
contrôle de congestion distribué pour répondre à ces impératifs. Le but est de
résoudre la congestion d'un nœud à partir des autres SS du réseau en mettant au point
un mécanisme de contrôle réactif. A noter également que l'on peut chercher à éviter
la congestion grâce à un contrôle préventif mis en œuvre par un algorithme de
partage de charge.
Chaque SS doit détecter s'il est dans un état de saturation en comparant ses
paramètres d'utilisation avec des valeurs seuils. Lorsqu'un seuil est franchi, il envoie
une notification de son état aux autres SS. Le même message de notification est
ensuite envoyé périodiquement jusqu'à ce qu'il y ait un changement du niveau de
congestion. Lorsque le SS congestionné constate qu'il est repassé en-dessous du
seuil, il le notifie aux autres SS qui arrêtent leurs procédures correspondantes.
Lorsqu'un SS reçoit l'un de ces messages de notification, il l'interprète afin de
savoir quel nœud est congestionné et à quel niveau, il arme un temporisateur, puis il
effectue des actions afin d'essayer d'enrayer le phénomène. Ces actions consistent à
supprimer certains des paquets qui doivent passer par le nœud congestionné. Si le
temporisateur armé lors de la réception du message de notification expire avant que
le SS n'ait reçu un nouveau message de notification en provenance du même nœud,
il stoppe ses procédures de rejet.
Par ailleurs, les plate-formes d'administration peuvent aussi réagir lorsqu'elles
détectent une congestion ; elles peuvent par exemple envoyer de leur propre chef des
notifications aux SS afin qu'ils activent les procédures de rejet ou de re-routage.
Etant donné la possibilité d'avoir plusieurs liens à travers les interfaces ISSI
entre deux SS, SMDS définit un algorithme de partage de charge qui détermine pour
un paquet donné quel chemin il doit choisir.
300 Architecture des réseaux haut débit
9.6.3.6. La gestion
U s'agit de l'ensemble des activités d'un LEC portant sur la gestion du réseau.
Cela comprend les fonctions et outils offerts par les plate-formes d'administration,
les fonctions des différents éléments de réseau et les fonctions qui permettent de
faciliter les communications à travers les interfaces entre plate-formes, entre
éléments de réseau ou encore entre plate-forme et élément de réseau.
Il est important de noter que le niveau 3 ne dépend pas du support utilisé. Cela
est possible grâce à l'interface mise en place avec le niveau 2 qui est indépendante de
la technologie du réseau.
Le déploiement de SMDS est prévu sur des réseaux de type DQDB (IEEE 802.6)
ou de type ATM. De toute évidence, la technologie employée dans le réseau
conditionne celle choisie pour le niveau 2 de SMDS.
9.7.1. Généralités
Le relais de trames (Frame Relay) [ANSI 90] est considéré comme la solution
intermédiaire à la demande de hauts débits. En effet, les réseaux X.25 existants ne
sont capables que d'offrir des débits de l'ordre du kbit/s et ne peuvent satisfaire les
contraintes de délai requises par les nouvelles applications qui émergent. D'autre
part, les liaisons spécialisées, bien qu'offrant des débits de l'ordre du Mbit/s, ne sont
pas suffisamment flexibles en termes d'offre de débits et se révèlent coûteuses. Si le
réseau ATM est la solution à long terme, le relais de trames constitue une solution à
court et moyen termes.
Le relais de trames consiste en un système de commutation de paquets
"dépouillé" dont le débit peut actuellement atteindre 2 Mbit/s ; des débits supérieurs
seront prochainement proposés. Le contrôle d'erreur et le contrôle de flux sont
reportés au niveau des équipements d'extrémité. Les nœuds intermédiaires n'assurant
plus qu'une fonction de relais de trames, leur temps de traversée est cinq à dix fois
plus court que celui d'un commutateur X.25. Les données sont transmises à l'aide
d'un noyau de base utilisant une enveloppe de trame HDLC, avec détection mais
sans signalisation ni correction d'erreur. Différentes sessions peuvent être ouvertes
simultanément grâce à l'utilisation de numéros de voies logiques. Le relais de trames
permet également la concentration de flux synchrones X.25 ou asynchrones X.28.
La voix, compressée dynamiquement jusqu'à 8 kbit/s, est proposée par certains
constructeurs mais n'est pas encore normalisée au sein de l'UIT-T.
La trame a le même format (figure 9.13) que celui défini dans le protocole de
liaison de données HDLC (High-level Data Link Control) [IS 3309]. Une trame est
considérée comme valide lorsqu'elle est délimitée par les drapeaux "01111110" et
qu'elle comporte au moins cinq octets, hors drapeaux, soit au moins un octet
302 Architecture des réseaux haut débit
0 1 1 1 1 1 1 0
DLCI (MSB) C/R EA
FE BE
DLCI (LSB) CN CN
C/R EA
user data
FCS (MSB)
FCS(LSB)
0 1 1 1 1 1 1 0
site A site B
utilisateur utilisateur
réseau
Frame Relay
site C site D
utilisateur utilisateur
Une fois la connexion établie, les données sont transférées à travers le réseau, de
l'application A à l'application B, en se servant du DLCI dans l'en-tête et en routant
304 Architecture des réseaux haut débit
application A application A
presentation presentation
commutateur
session session
RNIS
transport transport |
RNIS réseau réseau
reseau réjeau
réseau de
liaison signalisation liaison
transfert de données
commutateur ae
établissement de connexion relais de trames
Exercices
Exercice 9.1
Exercice 9.2
On considère les réseaux suivants : Ethernet, Token Bus, Token Ring, FDDI et
DQDB.
Exercice 9.3
2. Indiquez pour chacun des éléments ci-dessous les traitements éventuels dans le
cas d'un pont et dans le cas d'un routeur :
a. Longueur de PDU
b. Fragmentation et réassemblage d'une PDU
c. Temps de réassemblage d'une PDU
d. Durée de vie d'une PDU
e. Priorité d'une PDU
f. Nombre de paquets déséquencés
g. Nombre de paquets dupliqués
h. Vérification du champ de contrôle de la PDU
i. Adresse destination de la PDU
j . Adresse source de la PDU
Exercice 9.4
IP nnnf IP
Exercice 9.5
Un réseau métropolitain DQDB à 155 Mbit/s (IEEE 802.6) est utilisé comme
réseau fédérateur pour interconnecter deux réseaux locaux utilisant comme méthode
d'accès le protocole Token Ring spécifié dans le standard IEEE 802.5 et offrant
chacun un débit brut de 4 Mbit/s. Sur chaque Token Ring, 6 stations sont
connectées qui génèrent le même trafic. La longueur des données d'une trame Token
Ring est de 1 koctet.
générateur
de trames !
I Token Token
Ring DQDB Ring
passerelle passerelle
Exercice 9.6
Exercice 9.7
Comparez les critères de QoS fournis par les ponts et les routeurs en
considérant : le temps de transit, la taille de l'information, le taux de pertes, le taux
d'erreurs, la durée de vie de l'information, les priorités, la sécurité et la réaction après
mise hors service d'une route.
Exercice 9.8
2. Sur le réseau large bande, quel type d'AAL serait le mieux adapté ?
Exercice 9.9
Chapitre 1
Réponse 1.1
Réponse 1.2
Les TPDU sont les unités de données du protocole de transport (niveau 4). Les
paquets ou NPDU sont les unités de données du protocole de réseau (niveau 3). La
couche réseau étant immédiatement inférieure à la couche transport, ce sont les
paquets qui encapsulent les TPDU.
transport TPDU
reseau
NPCI NSDU
NPDU
Réponse 1.3
une entité homologue est soumise au niveau inférieur, ( N - l ) , sous la forme d'une
(N-l)SDU (en l'absence de concaténation) qui sera transférée de manière transparente
par l'entité ( N - l ) sous-jacente lors de la phase de transfert de données au niveau
(N-l).
Réponse 1.4
Réponse 1.5
Les (N-1 )SDU sont transférées de façon totalement indépendante entre elles et
sans aucune garantie de fiabilité. En conséquence, les (N)PDU qu'elles représentent
peuvent être altérées, perdues, dupliquées ou déséquencées. Si la couche (N) doit
rendre un service fiable, elle devra réaliser elle-même tous les contrôles qui
s'imposent (contrôle de flux, contrôle d'erreur — numérotation des (N)PDU,
acquittement des (N)PDU, calcul de séquences de contrôle, temporisations,
retransmission, etc.) avec la complexité protocolaire qui en découle.
Corrigés 3 1 1
Réponse 1.6
Un mécanisme de contrôle d'erreur est nécessaire dès lors que la couche considérée
se doit de rendre un service fiable et que le service qu'elle utilise ne l'est pas
forcément. Les couches concernées sont donc les couches liaison de données et
transport. Au niveau liaison, il s'agit principalement de reprendre les erreurs de
transmission sur une ligne reliant deux équipements donnés. Au niveau transport, il
s'agit de reprendre toutes les erreurs, signalées ou non, qui n'ont pas été récupérées
par les niveaux inférieurs (erreurs de transmission résiduelles, pertes et
déséquencements d'unités de données, etc.) et cela de bout en bout. En théorie, le seul
cas de redondance possible est celui où les deux systèmes d'extrémité sont
directement reliés par une seule liaison.
Réponse 1.7
1. On définit le service en premier. A partir des spécifications du service (par
exemple, transfert fiable en mode connecté), on peut déduire les fonctions de la
couche (par exemple, contrôle d'erreur), puis les mécanismes (éléments de protocole)
qui réalisent ces fonctions (par exemple, numérotation des PDU, PDU
d'acquittement, temporisation avant retransmission, etc.). Les règles auxquelles se
soumettent ces mécanismes — règles de codage, de structuration et d'échange (par
exemple, champ de numérotation codé sur n bits, envoi d'une PDU d'acquittement
pour toute PDU de données reçue correctement, etc.) — constituent un protocole.
3. Oui, à condition de l'avoir prévu dans la structure des PDU qu'il utilise. Tout
protocole opérant en mode connecté utilise généralement des PDU pour
l'établissement de connexion, des PDU pour la phase de transfert de données et des
PDU pour la libération de connexion. Pour que le protocole puisse rendre un service
en mode non connecté, une solution possible est de prévoir dans la PDU
d'établissement de connexion un champ d'information et un champ indiquant le type
de service utilisé (connecté ou non).
3 1 2 Architecture des réseaux haut débit
Réponse 1.8
L CONNECT.
•
confirmation
L DATA
request
N CONNECT. L DATA >
confirmation ^ indication
N DATA LDATA -
request request
T CONNECT. N DATA. L DATA,
confirmation indication indication •
^
T DATA N DATA L DATA
request request ^ request -
L CONNECT.
TVsnnrtSf:
L DATA, N CONNECT,
— indication indication
L DATA, N CONNECT,
request response
L_DÀTÀ. N DATA, T CONNECT,
*- indication indication indication
L DATA, N DATA. T CONNECT
request request — response
L DATA, N DATA. T DATA, SJTONNECT.
— • indication indication indication " — ^ indication
L DATA, N DATA. TJ3ATA: S.CONNECT.
request request request • response "
Corrigés 313
Chapitre 2
Réponse 2.1
Réponse 2.2
Réponse 2.3
Réponse 2.4
1. Il n'y a pas de structuration en trames donc il n'y a pas lieu de calculer T et
e
Du = 63,999 kbit/s
envoyées * T
Nous donnons ci-après quelques courbes pour le réseau sur bus qui montrent
l'évolution du débit utile et du temps total de transfert d'une trame en fonction soit
de la distance soit de la taille de la trame.
316 Architecture des réseaux haut débit
DU : débit utile (kbit/s)
C = 5 Mbit/s
d : distance (km)
C = 50 Mbit/s
d : distance (km)
d : distance (km)
d : distance (km)
Chapitre 3
Réponse 3.1
6
A.N. : T = 50.10" s et L = 500 bits comme la longueur de la trame doit être un
nombre entier d'octets, on arrondit L à 512 bits (64 octets), soit un slot-time de
6
51,2.10" s, ce qui correspond aux paramètres d'un Ethernet classique.
Réponse 3.2
Soit :
On a :
Sachant que la longueur minimale d'une trame est de 512 bits, la fenêtre de
8
collision T est de 512 temps-bit. Le débit étant de 100 Mbit/s : 1 temps-bit = 10" s
et T = 5,12 us.
D'où
Réponse 3.3
1. Le chronogramme est :
0 î 2 3 4 5 6 7 8 9 10 il 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
A A A A A A X B B B B B B X X D D D D D D C C C C C C
à t = 5 : B,C et D écoutent
à t = 6 : B, C et D émettent et entrent en collision pendant un slot
maxbackoff = 2, l'algorithme fait attendre 0 slot pour B, 1 slot pour C
etD
à t = 7 : B émet
à t = 8 : B et D écoutent
Corrigés 321
Réponse 3.4
1. A n'a subi qu'une collision donc M A = 0 ou 1
e I0 e
- 1 I collision : on attend ( 2 - 1 ) 7 7 2 avant la 1 1 retransmission
- idem pour n = 12, 13, 14 et 15
- donc :
Réponse 3.5
Soit T le temps de propagation : T = 100 / 100 000 s = 1 ms
p p
Les différentes valeurs des paramètres montrent bien qu'Ethernet n'est pas adapté
pour ces distances :
- la longueur minimale d'une trame est de 200 Mbit, ce qui est énorme ; lorsque
la trame n'est pas pleine, il faut la compléter avec des octets de bourrage ; une trame
longue a plus de risques de subir des erreurs de transmission ;
Réponse 3.6
Il est possible de transférer des images animées sur le réseau Ethernet si elles
sont codées grâce à MPEG 1 ou MPEG2 (Moving Picture Expert Group) (débits de
1,5 et 5 Mbit/s). Par contre, l'affichage en temps réel ne pourra se faire que dans la
mesure où l'on mémorise une grande quantité de données en réception pour masquer
les méfaits de F indéterminisme et de l'asynchronisme de CSMA/CD.
* Corrigés 323
Chapitre 4
Réponse 4.1
1. Le chronogramme est le suivant :
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
J J Bl Bl B I B I J J Dl D D Dl J Al Al A l A t J B2 B2 B2 B2 J CI CI CI CI J J
29 30 31 32 33 34
J J C2 C2 C2 C2
Le temps d'accès moyen est égal à la somme des temps d'accès que divise le
nombre de trames du scénario, soit 37/6 = 6,33 ms.
324 Architecture des réseaux haut débit
Réponse 4.2
liaison A-B
liaison B-C
liaison C-D
liaison D-A
Réponse 4.3
En fonctionnement normal, l'accès pour Token Bus se fait de façon déterministe.
Sous forte charge, il sera toujours possible d'émettre de manière certaine le trafic
prioritaire. Néanmoins, les trafics moins prioritaires connaîtront un temps d'attente
plus long. Les performances en cas de faible charge sont moins bonnes que celles de
CSMA/CD. En effet, une station active doit attendre l'arrivée du jeton pour pouvoir
utiliser le canal. Donc, même s'il n'y a qu'une station active, celle-ci doit attendre
que les autres stations lui passent le jeton, le délai minimal d'accès est donc non nul
pour Token Bus, contrairement au protocole CSMA/CD. Ce délai n'est pas
négligeable ; il dépend de la taille du réseau, car sa valeur moyenne correspond au
temps de passage du jeton parmi la moitié des stations connectées. Plus le réseau est
étendu, plus ce délai est grand. De plus, comme le jeton est adressé sous la forme
d'une trame, le temps de passage du jeton entre deux stations voisines est non
négligeable. Ses avantages par rapport à CSMA/CD résident d'une part, dans son
bon comportement à charge élevée et d'autre part, dans son caractère temps-réel (délai
d'accès borné) d'autre part.
326 Architecture des réseaux haut débit
Réponse 4.4
station 2 station 5
PS = 7 PS = 2
NS = 5 NS = 6
Réponse 4.5
Lorsque le jeton arrive, le reliquat est de 504 us, ce qui signifie que le jeton est
revenu au bout de 1,496 ms et que les reliquats de TTRT4, TTRT2 et TTRTO sont
respectivement de 304, 104 et 0 us. On ne peut donc pas envoyer de données de
niveau 0 car TTRTO a déjà expiré.
7
L'envoi des 50 octets de niveau 6 prend un temps égal à T6 = 50.8.10" = 40 |is
7 7
(un temps-bit = 10" ). L'envoi des 20 octets de niveau 4 prendra T4 = 20.8.10" =
16 (as. Il sera donc possible d'envoyer des données de niveau 2 pendant le temps
T2 = TTRT2 - T6 - T4, soit T2 = 104 - 40 -16 = 48 us. Pendant ce temps 72, il est
possible d'envoyer 480 bits de niveau 2, soit 60 octets.
Corrigés 327
Réponse 4.6
La procédure d'initialisation de l'anneau est activée dans les quatre stations,
chacune d'elles essayant de s'attribuer le jeton. A l'issue de cette procédure, l'anneau
logique ne comporte qu'une seule station, celle qui a gagné le jeton. Les trois autres
stations s'insèrent dans l'anneau au fur et à mesure du déroulement de la procédure de
réveil et d'ajout de stations.
Chaque station candidate envoie une trame Claim Token, dont le champ
d'information a une longueur multiple du slot-time. Le multiple est 0, 2, 4 ou 6, en
fonction d'une paire de bits de l'adresse de la station : d'abord, les deux bits de poids
fort, puis les deux bits suivants, etc.
- 00 : la longueur du champ est de 0 slot-time
- 01 : la longueur du champ est de 2 slots-time
- 10 : la longueur du champ est de 4 slots-time
- 11 : la longueur du champ est de 6 slots-time
Si une station candidate détecte une transmission pendant les slots-time où elle
attend, elle se retire de la compétition. Si une station candidate n'entend rien sur le
bus et qu'elle a utilisé toutes les paires de bits de son adresse, elle en déduit qu'elle
est la station initialisatrice et elle crée un jeton. Il s'agit ici de la station 9 (station de
plus grande adresse). C'est elle donc qui va lancer la procédure de réveil. Elle envoie
une trame solicit_successor, à laquelle répondent les stations 4, 2 et 1 par une trame
set_successor pendant le premier slot-time. La station 9 entame alors la procédure
d'arbitrage par l'envoi d'une trame resolve contention. L'arbitrage est fait sur la base
des paires de bits de l'adresse des stations en compétition. C'est la station 4 qui sera
insérée dans l'anneau. Quand la station 4 lancera la procédure de réveil, elle fera entrer
la station 2. Quand la station 2 lancera la procédure de réveil, elle fera entrer la
station 1. L'ordre est donc 9, 4, 2, puis 1.
328 Architecture des réseaux haut débit
Chapitre 5
Réponse 5.1
Réponse 5.2
Ces indicateurs, situés en fin de trame (champ Frame Status), précisent l'état de
la trame : erreur détectée (E), adresse reconnue (A), trame recopiée (C). D'autres
indicateurs peuvent être implémentés de manière optionnelle. Les trois indicateurs
sont initialises avec le symbole Reset. La première station qui détecte une erreur
rendant la trame invalide (erreur dans le FCS, champ de contrôle FC invalide,
longueur de trame invalide) positionne l'indicateur E de la trame correspondante à Set
et avertit la couche MAC. Une fois que l'indicateur E a été positionné, les autres
stations le transmettent tel quel et n'avertissent pas la couche MAC. A est
positionné par une station qui reconnaît l'adresse destination de la trame comme étant
la sienne. Les autres stations transmettent A tel qu'elles l'ont reçu. C est positionné
par une station qui reconnaît l'adresse destination de la trame comme étant sa propre
adresse et qui la copie de ce fait dans son tampon de réception. Les autres stations
transmettent C tel qu'elles l'ont reçu.
niveau de la station réceptrice. On n'est donc pas assuré que l'information contenue
dans la trame a été effectivement reçue par les couches hautes du destinataire, même
si les indicateurs A et C ont été positionnés. Ensuite, si l'adresse destination est une
adresse de groupe, le positionnement des indicateurs A et C indique seulement que
l'une des stations de ce groupe a reçu et copié la trame ;
- ils permettent de détecter et de localiser des erreurs. Si une station de l'anneau
reconnaît l'adresse destination d'une trame comme étant son adresse et que A a déjà
été positionné (sans qu'il s'agisse d'une adresse de groupe), c'est qu'il y a un
problème de duplication d'adresse. De même, si une trame arrive avec A positionné
sans que C le soit, c'est qu'il y a un engorgement du tampon de réception de la
station destinataire.
Réponse 5.3
Le codage Manchester impose une transition du signal pour chaque bit transmis,
ce qui implique l'utilisation d'une horloge à 200 MHz pour transmettre à un débit de
100 Mbit/s. Le codage 4B/5B n'assure qu'une transition du signal par symbole de
5 bits ; une horloge à 125 MHz (100 * 5/4) suffit alors pour assurer un débit de
100 Mbit/s. Ce codage est donc plus efficace.
Réponse 5.4
(1)... = TRT
(2)... = 0
(3)... = 0
(4)... = LATE_CT + 1
(5)... = TTRT
Réponse 5.5
Les types d'erreurs pouvant entraîner la duplication du jeton sont :
- erreur sur une trame due à un bruit sur le support qui crée un nouveau jeton
(probabilité très faible) ;
- une adresse identique pour deux stations distinctes ; ces dernières peuvent
gagner le droit d'émettre un jeton (à la suite d'un Claim). Ce type de situation
— duplication d'adresse — est détecté et résolu par SMT ;
- génération d'un nouveau jeton par un MAC en dysfonctionnement.
330 Architecture des réseaux haut débit
R é p o n s e 5.6
R é p o n s e 5.7
2
1. Le débit brut étant de 100 Mbit/s, un temps-bit est de 10" ms.
Soit T le temps de transmission des données synchrones et TRTj le temps de
sxnc
- TRT 0 = 0
3. 26 octets sont envoyés toutes les TRT ms. Il faut donc pour transférer l'image
de 1 Mo :
Réponse 5.8
Soit :
- 8j A l'instant auquel la station A reçoit le jeton la première fois,
- 9 J l'instant auquel la station A reçoit le jeton la deuxième fois,
A
- tj
A le temps de transmission d'une trame par A la première fois,
- tj A le temps de transmission d'une trame par A la deuxième fois,
- t / le temps de transmission d'une trame par B la première fois,
B
On a :
OBJ = 0 ,i+t
A A J + t p
6B,2 = 6A,2 + t .2 + p
A
l
d + t l = d G
&B.2 - ÛB.l = A.2 - OA.1 + <A,2 " ' / U p' P AJ " A,1 " '/t,/
Or, 0 j A -0 ,i<
A TTRT+ THT et t AJ > 0. Donc : 0 Bt2 ~ @B,l — 7Tflr+ 77/r
Une station reçoit donc le jeton à l'heure si la durée entre deux passages du jeton
est inférieure à TTRT+ THT. Nous avons montré que si une station reçoit le jeton à
l'heure, alors la station suivante sur l'anneau le reçoit également à l'heure.
3 3 2 A r c h i t e c t u r e d e s r é s e a u x h a u t d é b i t
Réponse 5 . 9
TTRT est le temps de rotation du jeton. Chaque nœud engendre un délai d et doit
retransmettre le jeton. Soit Tj „ le temps de transmission du jeton et A/ le nombre
eM
alors :
A.N. : E = 92,6 %
Réponse 5 . 1 0
1. Pour garantir ce temps de cycle et qu'un niveau plus prioritaire dispose de
davantage de bande passante qu'un niveau moins prioritaire, il faut que :
TTRT > TTRT 2 > TTRTj > TTRT 4
Algorithme
date d'arrivée
date de remise
du jeton du jeton
I
T R T! .SA
lonnées i
niveau
données de
niveau 3
I temps d'émission des
I trames de niveau / données de
niveau 4
T H T -
Algorithme 2
date d'arrivé late de remise
du j e t o n données du jeton
f d e niveau ] I
T R T
T T R T 2
T T R T 3
T T R T 4
- SA = TTRT
- TTRT = TTRT2 = TTRT 3 = TTRT4
334 Architecture des réseaux haut débit
Chapitre 6
Réponse 6.1
- une station ne peut pas faire de requête dans le même temps qu'elle émet ; le
slot sur B est déjà passé.
- la station commence par incrémenter son compteur avant de le décrémenter.
Remarquez qu'une station en amont fait toujours sa requête avant celle qui la
suit !
2. Le débit utile d'une station est défini comme étant le nombre de bits utiles
transmis par seconde, c'est-à-dire le rapport du nombre de slots transmis sur le délai
total subi par la station. Il est fonction de D, le débit nominal du réseau.
Corrigés 335
Le débit de A n'est pas très représentatif. E obtient le meilleur débit car il s'agit
de la station la plus en amont sur le bus B et donc la plus favorisée pour l'utilisation
des bits de requête. Les autres stations obtiennent des débits comparables.
Réponse 6.2
Dans le cas de DQDB, la longueur du réseau n'influe pas sur le débit maximum.
Pour FDDI, avec une longueur de trame donnée, le débit maximum décroît en
fonction de la distance.
Réponse 6.3
Le délai d'accès des stations à DQDB dépend de leur position sur le bus. En
revanche, ce délai est indépendant de la distance.
336 Architecture des réseaux haut débit
Chapitre 7
Réponse 7.1
Réponse 7.2
Réponse 7.3
Réponse 7.4
Réponse 7.5
DL_REPLY_UPDA TE.req
(..., données)
données prêtes
DL_REPLY_UPD/ kTE.ind
DL_ REPLY.req —
... requ est_wîth_response )
^construction
ACO M A _ D / TA.req
(. ., request_\ ith response)
—fc- transmission
MAC-PDU
MA D. VTA.ind
(. ., r e q u e s M /iuVresponse)
réception
ACO
DLJRE 'LY.ind
encapsulation
des données
AC1
M A _ D A 1 A.req
(.. , données, esponse)
MA_DAT A.conf
transmission — •
MAC-PDU
MA_DA" TA.conf
MA_DA TA.ind
. . . . données ,response)
réception •
AC1
DL_R EPLY _STATUS
., données
response, ...)
acquittement
ACO
Corrigés 3 3 9
Réponse 7.6
On suppose que les trames d'information sont acquittées collectivement par une
seule et même trame d'acquittement.
DL_C(DN.resp
envoi
UA
MA_DATA.req
MAC-PDU
MA DÀTA.ind
réception
UA
DL CCDN.conf
DL_D/ ^TA.req
envoi
100
DL_D; req . M A_D/ TA.req
»- envoi
MAC-PDU
110 MA DATA.ind
M A_D/ TAreq reception
MAC-PDU 100
MA_D4TA.ind DL_DA|TA.ind
réception
no
envoi DL DAfTA.ind
RR2
MA_DÀTA.req
MAC-PDU
MA_DATA.ind
reception
RR2
340 Architecture des réseaux haut débit
Chapitre 8
Réponse 8.1
Réponse 8.2
- anisochronisme à l'accès : aucune relation de temps entre le terminal et le
réseau,
- anisochronisme à la commutation : la commutation ATM fonctionne sans
aucune référence temporelle,
- anisochronisme à la transmission : aucune relation temporelle entre le flux du
système de transmission et le flux ATM.
Réponse 8.3
20 - 12 = 8 ms soit D max = 1 600 km
suppresseurs d'écho. Les Américains (vaste pays), quant à eux, sont déjà équipés de
suppresseurs d'écho et préféraient une taille de cellule de 64 octets (soit 6 ms pour la
mise en cellule).
Réponse 8.4
1. Les nœuds sont des commutateurs de VP (brasseurs) :
nœud 1 nœud 2 nreud 3
V P I J n VPI_out VPUn VPI_out V P I J n VPI_out
7 5 5 7 7 3
9 7
Corrigés 341
Réponse 8.5
Réponse 8.6
étant reconnue par un identificateur VCI/VPI différent. Dans ce cas, les utilisateurs A
et B peuvent ne pas être situés sur la même machine.
nœud 1 nœud 4
in out in out
1,2 3,3 5,3 6,1
2,1 3,1 5,1 7,2
Réponse 8.7
1.
Données initiales :
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Données transmises :
1 2 3 4 5 6 7 8 9 loj 11 12 13 14 15 16 17 18 19 20
Données reçues :
[ T 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
cellule perdue
Données restituées
12 3 4 5 6 7 8 13 14 15 16 17 18 19 20
Données initiales :
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Données reçues :
1 6 11 16 2 7 12 17 3 8 13 18 4 | 9 |l4[l9 5 10 15 20
cellule perdue
Corrigés 343
Données restituées :
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17|l8 19 20
L'erreur engendrée par la perte d'une cellule est dispersée dans le flux de données.
Les erreurs sont alors tolérables mais cela ne convient pas pour autant à tous les
types d'application. Pour la correction, il est possible, au niveau du récepteur,
d'insérer des cellules factices en lieu et place des cellules erronées/manquantes. Une
alternative consiste, pour les applications exigentes en termes d'erreurs, à associer au
mécanisme d'entrelacement un mécanisme d'autocorrection qui, ne se contentant pas
de détecter d'éventuelles erreurs, peut également les corriger (mais attention au
surdébit engendré !)
Réponse 8.8
1. Le schéma complété est le suivant :
AAL-SDU
AAL-SAP
AAL-IDU
sscs
-SSCS-PDU-
es
CPCS-SDU
AAL
CPCS
- CPCS-PDU -
capacité utile
SAR
^AR-PDU*
-ÇXTM-SAT>
ATM-SDU
-ATM-
en-tête information
ATM-PDU
(cellule)
On obtient donc un nombre total de 3 860 * 1 366 + 728 = 5 273 488 cellules.
Réponse 8.9
Les formats des cellules ATM et DQDB définissent tous deux un en-tête de
5 octets et une zone de données de 48 octets, il est donc possible de translater
directement la zone de données. Cependant les deux en-têtes de cellules diffèrent : la
cellule DQDB utilise un VCI de 20 bits pour l'identification de VCI, alors que la
cellule ATM utilise, quant à elle, un VPI de 8 bits et un VCI de 12 bits (à l'interface
UNI). Pour rendre les deux en-têtes compatibles, il faut allouer les VCI dans DQDB
avec les deux mêmes champs que dans ATM.
Réponse 8.10
1. Il est possible de considérer ATM comme un niveau MAC et AAL comme
une couche 2/3. On peut alors proposer deux architectures d'interconnexion : un
pont ou un routeur. Le routeur est cependant préférable du fait de sa généralité.
interconnexion interconnexion
de niveau MAC , . „ de niveau réseau
1 1 couches couches couches
couches p sup. routeur sup.
s u
sup. 1
IP
pont LLC H* IP
LLC ^ ^r-i ^ LLC AAL AAL
T o k entité
\ relaisde/ A M
S A L AAL LLC
Token e^' <* Token Token
nng nng ATM ATM ring ring ATM ATM
i i
réseau Token Ring réseau ATM réseau Token Ring réseau ATM
Corrigés 345
3. Etant donné les débits des réseaux Token Ring, une seule connexion ATM
suffit à les relier de manière transparente. A noter qu'une telle connexion doit être
bidirectionnelle. Si le niveau LLC fonctionne en mode connecté, on peut également
ouvrir une connexion ATM par connexion LLC.
4. Le débit crête demandé sera 16 Mbit/s qui est le débit physique sur le Token
Ring.
Réponse 8.11
La voix MIC constitue un trafic à débit constant avec 1 octet toutes les 125 us ;
plusieurs octets de voix numérisée sont mis dans une même cellule avant sa
transmission.
Le codage MPEG est un codage différentiel : la vidéo est codée par un écran
complet suivi d'écrans codés par rapport à celui-ci ; le débit est donc variable.
346 Architecture des réseaux haut débit
Réponse 8.12
Réponse 8.13
Réponse 8.14
Le mécanisme de Push-out perd des cellules de haute priorité lorsque le tampon
est plein et qu'il n'y a pas du tout de cellules de basse priorité.
Le mécanisme de Partial Buffer Sharing perd des cellules de haute priorité lorsque
le tampon est plein.
Corrigés 347
Réponse 8.15
6
Soit T le temps d'émission d'une cellule : T = (53 * 8) / 155.10 = 2,74 (is
e e
cellules.
Chapitre 9
Réponse 9.1
Avec la technique de routage par la source (Source Routing), la station source
spécifie le chemin que doit emprunter la trame en incluant dans le datagramme la
liste de passerelles à traverser. Le routage n'est donc pas transparent aux stations
mais les routeurs sont plus simples, n'ayant pas de décision à prendre. Au contraire,
avec l'algorithme du Spanning Tree, le routage est effectué par le pont ou le routeur
et ce, sans que la station ait à connaître la configuration des sous-réseaux. Cela
suppose un apprentissage de la localisation des stations grâce aux adresses source des
trames ou paquets reçus.
Réponse 9.2
1. Caractéristiques
2. Formats de trame
4. Opérations spécifiques
Réponse 9.3
1. Architectures d'interconnexion
couches couches
sup. routeur sup.
couches couches
sup. sup. IP IP IP
pont
LLC1 LLC1 LLC1 LLC1 LLC1 LLC1
^^^transfert^.^
MAC MACT^l " MAC MAC MAC MAC MAC MAC
2.
a. Le protocole IP pouvant se charger de la fragmentation et du réassemblage, la
longueur des paquets émis à la source n'est pas limitée en théorie (sauf s'il y a un
champ de longueur codé) avec une interconnexion par routeurs. Par contre, le pont
ne peut faire transiter une trame de longueur supérieure au maximum autorisé par le
réseau destinataire ; des destructions de trame sont donc possibles dans le sens
Token Ring-CSMA/CD.
b. Il peut y avoir fragmentation et réassemblage des paquets dans un routeur,
mais pas des trames dans un pont.
c. Le temps de réassemblage d'une PDU ne concerne que le routeur.
d. Le routeur doit surveiller la durée de vie des paquets qu'il fait transiter et
détruire ceux dont la durée de vie est dépassée. Le pont doit, de son côté, surveiller le
temps passé par une trame dans une file d'émission et détruire cette dernière si le
délai subi dépasse un certain seuil.
e. Le pont et le routeur gèrent la priorité des trames et paquets qu'ils ont à
traiter. Il s'agit donc pour eux de prendre en compte la priorité d'une PDU entrante et
de retransmettre la PDU en fonction de cette priorité.
f. Ni le pont ni le routeur ne tiennent compte des PDU déséquencées.
g. Ni le pont ni le routeur ne tiennent compte des PDU dupliquées.
h. Le pont et le routeur recalculent la séquence de contrôle de chaque PDU qu'ils
font transiter.
i. L'adresse destination est nécessaire dans les deux cas puisqu'elle permet, pour
le routeur, de déterminer le prochain nœud par lequel le paquet doit transiter et, pour
le pont, de déterminer si la trame est à retransmettre ou non.
j . La connaissance de l'adresse source n'est pas nécessaire au fonctionnement du
routeur. Néanmoins, le routeur peut en avoir besoin dans des conditions d'exception,
telles que la congestion, pour demander à un émetteur de réduire son débit
d'émission. Dans le cas du pont, l'adresse source est traitée pour permettre la mise à
jour éventuelle de la table de filtrage.
Réponse 9.4
La couche liaison fonctionnant en mode connecté, il faut commencer par établir
une liaison avant de pouvoir transférer des données. En considérant qu'il y a
2 800 octets de données de l'utilisateur du service de réseau à transférer, que les en-
têtes IP, LLC2 et MAC CSMA/CD sont respectivement de 22, 4 et 18 octets et que
la trame CSMA/CD a une longueur maximale de 1 518 octets, il y a fragmentation
par IP, avec deux datagrammes à envoyer. Pour simplifier le schéma, on supposera
que les deux trames I ne donnent lieu qu'à une seule trame RR.
La phase de libération de la liaison est similaire à la phase d'établissement, en
remplaçant les primitives DL-CONNECT par les primitives DL-DISCONNECT et
la trame SABME par une trame DISC.
ÏT£A? lïffe interface interface interface
LLG(A) enute MAC(A . , MAC(P) MAOP) MAC(B) LLC(B)
ent ité ( >
I JPMÂ, , i entité entité
l LLC(A) MAC (A) relais S MAC(B) LLC(B)
Réponse 9.5
DL-C(|Nreq f s
SABME| MA-UD.req | j
* | MAC-PDÛI MA-UD.ind 1. I MA Iri
—• MA-1 JD.req j
**j MAC-PDÙ] MAJuDind "
| j SABME| DLjCON.ind
f DL-CON.resp
I MA-Ub.recl UA |
352 Architecture des réseaux haut débit
MA-UDindj MAC-PPU) ^— 1
DL-CON.con^ UA |
100 j MA-UD.req S
DL-DAJA ™ ~*1 MAC-PDUj M^UD.ind MA _ UD
1 110
1 M^^req ~^[MAC-PDU| Nd-UD.ind
MAC PDU
machine A machine B
couches couches
sup. sup.
IP ponl poni IP
LLC relais relais LLC
\
Réponse 9.6
1. Le pont possède une seule table de filtrage pour l'ensemble des ports (version
proposée par le standard 802.1D). La table comporte trois champs :
- un champ adresse source correspondant à l'adresse source véhiculée par chaque
trame,
- un champ numéro de port correspondant au port par lequel une trame doit
transiter pour atteindre l'adresse source associée,
- un champ temporisateur initialise à une valeur T fixée par l'administrateur.
Lorsqu'une trame est reçue sur un port, le pont vérifie si l'adresse source
contenue dans la trame existe déjà dans sa table de filtrage. Si tel est le cas, il met à
jour le port de sortie de l'enregistrement correspondant — si le port courant est
différent du port de réception de la trame — et il réinitialise la valeur du
temporisateur à T. Si ce n'est pas le cas, une nouvelle entrée est créée avec le triplet
(adresse_source Jrame\ port_réceptionjrame, T). En procédant ainsi, le pont saura
que toute trame adressée à adresse_source jrame devra être retransmise sur le port
portjréception Jrame.
Une fois ce traitement sur l'adresse source de la trame effectué, le pont vérifie si
l'adresse destination de la trame figure dans sa table. Si tel est le cas, il vérifie si le
354 Architecture des réseaux haut débit
port de sortie correspondant coïncide avec le port de réception de la trame, auquel cas
la trame est rejetée — car appartenant à un trafic local ; si les ports sont différents,
la trame est retransmise sur le port de sortie indiqué après conversion. Dans le cas où
l'adresse destination de la trame ne se trouve pas dans la table, le pont retransmet la
trame sur l'ensemble de ses ports — sauf le port de réception — après la conversion
nécessaire pour chaque port.
Une scrutation périodique de la table permet de mettre à jour la valeur des
temporisateurs et de supprimer tous les enregistrements pour lequel le temporisateur
a expiré.
2. Dans le cadre d'une table de filtrage par port, aucune information de routage
n'est nécessaire : soit la trame est rejetée par le port sur lequel elle est arrivée, soit
elle est diffusée sur l'ensemble des autres ports du pont. Chaque port gère sa propre
table, cette dernière comportant deux champs :
- un champ adresse source,
- un champ temporisateur.
Lorsqu'une trame est reçue sur un port, celui-ci vérifie si l'adresse source est
contenue dans sa table. Dans le cas positif, le port réarme le temporisateur associé et
sinon un nouvelle entrée est créée dans la table avec (adresse_sourceJrame, T).
Réponse 9.7
Temps de transit
Taille de l'information
- pont : lorsque les réseaux interconnectés sont de types différents, un pont peut
être amené à détruire des trames si leur longueur excède le maximum autorisé par le
réseau de sortie
- routeur : la plupart des protocoles de niveau réseau intègrent un mécanisme de
fragmentation et de réassemblage des paquets en fonction des contraintes de la couche
liaison. Cela évite d'avoir à négocier la taille maximum des paquets et à supprimer
un grand nombre de paquets. On peut également noter que, ce faisant, la couche
réseau simplifie la mise en œuvre des protocoles des niveaux supérieurs et que
certaines applications fonctionnent plus efficacement avec des paquets de grande
taille.
Taux de pertes
- pont : le niveau MAC ne permet pas de garantir la remise des trames à
destination. Même dans le cas du Token Ring avec les bits A et C, l'acquittement
d'une trame étant produit par le pont, l'émetteur ne sera jamais assuré que sa trame a
bien été reçue par son destinataire.
- routeur : le niveau réseau permet de détecter les paquets dupliqués ou perdus.
Dans tous les cas, une retransmission s'impose (par exemple, au niveau transport).
Taux d'erreurs
- pont : le FCS de chaque trame reçue est vérifié. Les trames dont le FCS est
incorrect sont rejetées. Si le réseau destination n'est pas du même type que celui du
réseau émetteur, la trame est traitée et le FCS recalculé.
- routeur : deux contrôles d'erreur sont réalisés, l'un au niveau liaison (s'il
fonctionne en mode connecté) et l'autre au niveau réseau. Le taux d'erreurs résiduelles
est donc généralement plus faible avec un routeur.
Réponse 9.8
- les fonctions de l'élément doivent être transparentes aux stations des réseaux
interconnectés ;
- le délai passé dans l'élément d'interconnexion doit être le plus court possible ;
- les réseaux doivent être interconnectés au niveau le plus bas possible pour
minimiser les temps de traitements induits par les protocoles.
On retient donc le mode asynchrone non connecté avec l'utilisation des slots QA.
Cela se traduit, sur le réseau DQDB, par une diffusion de l'information à l'ensemble
des stations du réseau ; seules les stations concernées par le message (reconnaissance
à l'aide du champ MID) recopieront l'information à l'intention des couches
supérieures.
CLCP
ConnectionLess
IM Convergence Protocol
Initial CS
MAC
AAL-
Convergence Sublayer
-MAC-
DM SAR
Derived MAC Segmentation And Reassembly
SM
SegMent Layer ATM
STL
SloT Layer
Physical
physical
DQDB ATM
Cette première cellule/.v/o/ est de type BOM (Begining Of Message), les suivantes de
type C O M (Continuation Of Message) et la dernière de type EOM (End Of
Message). Ainsi, à la réception d'une cellule/s/of de type BOM, toutes les actions
permettant de réaliser l'interconnexion selon les souhaits de l'utilisateur pourront être
accomplies une fois pour toutes.
- En-têtes des PDU de niveaux supérieurs pour le trafic évoluant d'ATM vers
DQDB :
- aux cellules ATM d'une connexion donnée est associée une valeur de MID
(Message IDentifier). Bien que cette valeur soit unique sur cette connexion, rien ne
garantit son unicité au niveau du réseau DQDB. La passerelle doit donc tenir à jour
une liste des valeurs de MID disponibles sur le réseau. Elle effectue ainsi une
modification des valeurs de MID des cellules ATM en une valeur de MID DQDB.
Cette modification est réalisée à la réception de la première cellule ATM (BOM) et
enregistrée dans une table d'échange ;
- la qualité de service inhérente au délai de transit du message est aussi
examinée ; en effet, il est nécessaire de choisir un niveau de priorité d'accès au
réseau DQDB. Ce niveau sera ensuite assigné à toutes les cellules du même
message ;
- les CRC10 de la DM-PDU et de la SAR-PDU n'étant pas les mêmes, un
nouveau calcul est nécessaire ;
- étant donné qu'il n'y a pas examen de l'information d'adressage, la passerelle
doit diffuser l'information sur les deux bus, modifiant en cela la valeur du VCI
(Virtual Channel Identifier) qui devient la valeur par défaut associée aux slots QA en
mode asynchrone non connecté.
- En-têtes des PDU de niveaux supérieurs pour le trafic évoluant de DQDB vers
ATM :
- le champ VCI du segment DQDB est modifié de façon à obtenir l'en-tête
ATM adéquat ;
Corrigés 359
interface
STM
ATM
STL
physique
physique
Elle est composée des couches SM, STL et physique pour le réseau DQDB et des
couches ATM et physique pour le réseau ATM. L'interface réalise la conversion de
protocole indispensable à la transformation des cellules en slots et vice-versa.
passerelle
CLS AAL
ATM
DQDB AT
commutateur M
iceud PHY PHY
/ ATM\^
3 6 0 Architecture des réseaux haut débit
Le CLS fonctionne dans les deux sens de l'interconnexion : un trafic issu d'ATM
en direction de DQDB est d'abord dirigé vers le CLS (chaque station dispose de la
correspondance adresse MAC de destination/VPI). Le trafic issu de DQDB vers ATM
est d'abord envoyé à la passerelle (les stations DQDB spécifient une valeur
particulière de VCI) qui le dirige à son tour vers le CLS. Le CLS reconstitue et
traite les informations d'adressage qui, pour chaque SDU (Service Data Unit),
déterminent l'acheminement à adopter.
Réponse 9.9
Ces informations figurent dans la MIB II spécifié dans le RFC 1213. Il s'agit de
compteurs à valeur entière :
TCP UDP
tcpOutMsgs tcpInMsg udpOutDatagrams udpInDatagrams
egpInMsgs iplnDelivers
jcmpInMsgs
icmpOutMsgs egpQutMsgs
I
ipFragFails
ipOutDiscards,
ipReasmOKs
ii
ipReasmFails
ipReas n R e q d s
IF
ipInUnknownProtos
ipOutNoRoutes
i p F o r w Datagrams
ipInAddrErrors
inlnHdrErTors
ipInDiscards
pOutRequests plnReceives
interface IP/sous-réseau
Bibliographie
Chapitre 1
[Cerf 83] V.G. Cerf, E.A. Cain, "The DOD Internet architecture model". Computer
Networks and ISDN Systems. 7(10), pp. 307-318, octobre 1983.
[DEC 80] DEC, Intel, Xerox, The Ethernet — A Local Area Network ; Data Link Layer and
Physical Layer Specifications — Version 1.0, septembre 1980.
[IS 7498-1] ISO IS 7498-1, Basic Reference Model, 1993.
[IS 7498-2] ISO IS 7498-2, Security Architecture, 1989.
[IS 7498-3] ISO IS 7498-3. Naming and Addressing, 1989.
[IS 7498-4] ISO IS 7498-4, Management Framework, 1989.
[IS 8509] ISO TR 8509, 0 5 / Service Conventions, 1987.
[IS 8824] ISO IS 8824, Specification of Abstract Syntax Notation One (ASN.l), 1987.
[IS 9595] ISO IS 9595, Common Management Information Service (CMIS) Definition,
1991.
[IS 9596] ISO IS 9596, Common Management Information Protocol (CMIP)
Specification, 1991.
[IS 10040] ISO IS 10040. Systems Management Overview. 1992.
[IS 10164-1] ISO IS 10164-1, Systems Management. Part I : Object Management
Function. 1993.
[IS 10164-2] ISO IS 10164-2, Systems Management, Part 2: State Management
Function, 1993.
[IS 10164-3] ISO IS 10164-3, Systems Management, Part 3 : Attributes for Representing
Relationships, 1993.
[IS 10164-4] ISO IS 10164-4, Systems Management, Part 4 : Alarm Reporting Function,
1992.
364 Architecture des réseaux haut débit
[IS 10164-5] ISO IS 10164-5. Systems Management, Part 5 : Event Report Management
Function. 1993.
[IS 10164-6] ISO IS 10164-6, Systems Management. Part 6 : Log Control Function.
1994.
[IS 10164-7] ISO IS 10164-7, Systems Management, Part I : Security Alarm
Management Function, 1992.
[IS 10165-1] ISO IS 10165-1, Structure of Management Information, Part I :
Management Information Model, 93.
[IS 10165-2] ISO IS 10165-2. Structure of Management Information, Part 2 : Definition
of Management Information, 1994.
[IS 10165-4] ISO IS 10165-4, Structure of Management Information, Part 4 : Guidelines
for the Definition of Managed Objects, 1994.
[Klessig 86] R. Klessig, "Overview of Metropolitan Area Networks", IEEE
Communications Magazine, 24( 1), janvier 1986.
[Lepage 89] F. Lepage, F. Afila, P. Antoine, E. Bajic. J. Brun, T. Divoux, Les réseaux
locaux industriels, Hermès, 1989.
[M.3010] UIT-T M.3010, Principes pour un Réseau de Gestion des Télécommunications,
1993.
[M.3100] UIT-T M.3010, Modèle Générique d'Information de Réseau, 1993.
[Nussbaumer 87] H. Nussbaumer. Téléinformatique, Tome 1, Presses Polytechniques
Romandes, 1987.
[RFC 768] J. Postel. "User Datagram Protocol", RFC 768, août 1980.
[RFC 791] J. Postel, "Internet Protocol", RFC 791, septembre 1981.
[RFC 792] J. Postel, "Internet Control Message Protocol", RFC 792, septembre 1981.
|RFC 793] J. Postel, "Transmission Control Protocol", RFC 793, septembre 1981.
[RFC 821] J. Postel, "Simple Mail Transfer Protocol", RFC 821, août 1982.
[RFC 826] D. Plummer, "Ethernet Address Resolution Protocol", RFC 826, novembre
1982.
[RFC 854] J. Postel, "Telnet Protocol Specification", RFC 854, mai 1983.
[RFC 903] R. Finlayson, T. Mann, J. Mogul, M. Theimer, "A Reverse Address Resolution
Protocol", RFC 903, juin 1984.
[RFC 904] D. Mills, "Exterior Gateway Protocol Formal Specification". RFC 904, avril
1984.
(RFC 959] J. Postel, "File Transfer Protocol", RFC 959, octobre 1985.
[RFC 1028] J. Davin, J. Case, M. Fedor. M. Schoffstall, "Simple Gateway Monitoring
Protocol", RFC 1028, novembre 1987.
[RFC 1157] J. Case, M. Fedor, M. Schoffstall, J. Davin, "A Simple Network Management
Protocol". RFC 1157, mai 1990.
[RFC 1158] M. Rose, "Management Information Base for Network Management of
TCP/IP-based internets" RFC 1 158. mai 1990.
[RFC 1213] K. McCloghrie, M. Rose. "Management Information Base for Network
Management of TCP/IP-based internets : MIB-II". RFC 1213. mars 1991.
Bibliographie 365
Ouvrages de synthèse
S. Feit, TCP/IP : Architecture, Protocols and Implementation. Mac Graw Hill, 1993.
C. Lecerf, D. Chomel, Les normes de gestion à l'ISO, Collection Technique et Scientifique
des Télécommunications, Masson, 1993.
H. Nussbaumer, Téléinformatique, Tomes I, 2, 3 et 4. Presses Polytechniques Romandes.
G. Pujolle, Les réseaux. Eyrolles, 1995.
M. Rose, Gestion des réseaux ouverts — SNMPv2. InterEditions, 1995.
e
W. Stallings, Local and Metropolitan Area Networks, Mac Millan, 4 édition, 1990.
W. Stallings, SNMP, SNMPv2, and CMIP : the Practical Guide to Network-Management
Standards. Addison-Wesley, 1993
A. Tanenbaum, Réseaux : architectures, protocoles, applications. InterEditions, 1995.
J. Walrand, Communications Networks : a first course, Aksen Editors, 1993.
Chapitre 2
[Abramson 70] N. Abramson, "The ALOHA System — Another Alternative for Computer
Communications", Fall Joint Computer Conference, 1970.
[Bux 81a] W. Bux et al., "A Reliable Token-Ring System for Local Area
Communication", National Telecommunications Conference, New Orleans, 1981.
[Bux 81b] W. Bux, "Local Area Subnetworks : A Performance Comparison", IEEE
Transactions on Communications, 29(10). octobre 1981.
[IEEE 802.IB] Institute of Electrical and Electronics Engineers, L A N / M A N management,
service and protocol, IEEE/ANSI Std 802.IB, 1995.
[IEEE 802.ID] Institute of Electrical and Electronics Engineers, Media Access Control
(MAC) bridges, IEEE/ANSI Std 802.ID, 1993.
[IEEE 802.IE] Institute of Electrical and Electronics Engineers, System load protocols,
IEEE/ANSI Std 802.1E, 1994.
[IEEE 802.IF] Institute of Electrical and Electronics Engineers, Common Definitions and
Procedures for IEEE 802 Management Information, IEEE/ANSI Std 802. IF, 1993.
[IEEE 802.2] Institute of Electrical and Electronics Engineers, Logical Link Control
(LLC), ANSI/IEEE Std 802.2. 1994.
[IEEE 802.3] Institute of Electrical and Electronics Engineers, Carrier Sense Multiple
Access (CSMA/CD) and Physical Layer Specification, ANSI/IEEE Std 802.3, 1993.
366 Architecture des réseaux haut débit
[IEEE 802.4] Institute of Electrical and Electronics Engineers, Token-passing bus access
method and physical layer specifications, ANSI/IEEE Std 802.4, 1990.
[IEEE 802.5] Institute of Electrical and Electronics Engineers, Token Ring access method
and physical layer specifications, ANSI/IEEE Std 802.5, 1992.
[IEEE 802.6] Institute of Electrical and Electronics Engineers, Distributed Queue Dual Bus
{DQDB) access method and physical layer specifications, ANSI/IEEE Std 802.6,
1994.
[IEEE 802.7] Institute of Electrical and Electronics Engineers, IEEE Recommanded
Practices for Broadband Local Area Networks, IEEE Std 802.7, 1989.
[IEEE 802.9] Institute of Electrical and Electronics Engineers, Integrated Services {IS)
LAN Interface at the Medium Access Control {MAC) and Physical {PHY) Layers. IEEE
Std 802.9. décembre 1994.
[IEEE 802.10] Institute of Electrical and Electronics Engineers, Interoperable LAN/MAN
Security (SILS), ANSI/IEEE Std 802.10, 1992.
[IS 8802-1] ISO IS 8802-1, Local Area Networks, Part I : Overview of Local Area
Networks, non publié.
[IS 8802-2] ISO IS 8802-2, Local Area Networks, Part 2 : Logical Link Control, 1990.
[IS 8802-3] ISO IS 8802-3, Local Area Networks, Part 3 : CSMA/CD — Access Method
and Physical Layer Specifications, 1993.
[IS 8802-4] ISO IS 8802-4, Local Area Networks. Part 4 : Token passing Bus Access
Method and Physical Layer Specification, 1990.
[IS 8802-5] ISO IS 8802-5, Local Area Networks, Part 5 : Token Ring Access Method and
Physical Layer Specification. 1994.
[IS 8802-6] ISO IS 8802-6, Local Area Networks, Part 6 : Distributed Queue Dual Bus
(DQDB) Access Method and Physical Layer Specification, 1993.
[IS 8802-7] ISO IS 8802-1. Local Area Netn'orks, Part 7 : Slotted Ring Access Method
and Physical Layer Specification. 1993.
[IS 10039] ISO IS 10039, MAC Service Definition, 1991.
[Lam 75] S.S. Lam and L. Kleinrock, "Packet Switching in a Multi-access Broadcast
Channel : Dynamic Control Procedures", IEEE Transactions on Communications,
COM-23(9). pp. 891-904, septembre 1975.
[Lam 80] S.S. Lam, "A Carrier Sense Multiple Access Protocol for Local Networks",
Computer Networks, 4, pp. 21-32, avril 1980.
[MAN 93] Networks on the Metropolitan Area, Numéro spécial IEEE Journal on Selected
Areas in Communications, 11(8). octobre 1993.
[Metcalfe 76] R.M. Metcalfe. DR. Boggs. "Ethernet: Distributed Packet Switching for
Local Computer Networks", Communications of the ACM, 19(7), juillet 1976.
[Rubin 90] I. Rubin. J. Baker. "Media Access Control for High-Speed Local Area and
Metropolitan Area Communication Networks", Proceedings of the IEEE, 78(1),
Janvier 1990.
Bibliographie 367
Ouvrages de synthèse
Chapitre 3
[Abramson 70] N. Abramson, "The ALOHA System — Another Alternative for Computer
Communications", Fall Joint Computer Conference, 1970.
[DEC 80] DEC, Intel, Xerox, The Ethernet — A Local Area Network ; Data Link Layer and
Physical Layer Specifications — Version 1.0, septembre 80.
[IEEE 802.3] Institute of Electrical and Electronics Engineers. Carrier Sense Multiple
Access (CSMA/CD) and Physical Layer Specification, ANSI/IEEE Std 802.3, 1993.
[IEEE 802.3a] Institute of Electrical and Electronics Engineers, Medium Attachment Unit
and Baseband Medium Specifications, Type 10BASE2, Std 802.3a, 1988.
[IEEE 802.3b] Institute of Electrical and Electronics Engineers, Broadband Medium
Attachment Unit and Broadband Medium Specifications, Type 10BROAD36,
ANSI/IEEE Std 802.3b, 1985.
[IEEE 802.3c] Institute of Electrical and Electronics Engineers, Repeater Unit for 10 Mb/s
Baseband Networks, ANSI/IEEE Std 802.3c, 1985.
[IEEE 802.3d] Institute of Electrical and Electronics Engineers, Medium Attachment Unit
and Baseband Medium Specification for a Vendor Independent Fiber Optic Inter
Repeater Link. ANSI/IEEE Std 802.3d, 1987.
[IEEE 802.3e] Institute of Electrical and Electronics Engineers, Physical Signaling,
Medium Attachment, and Baseband Medium Specifications, Type IBASE5, ANSI/IEEE
Std 802.3e, 1987.
[IS 8802-3] ISO IS 8802-3, Local Area Networks, Part 3 : CSMA/CD — Access Method
and Physical Layer Specifications, 1993.
[IS 8802-3-14] ISO IS 8802-3-Amendment 14, Fiber Optics Media I0BASEF, 1993.
[Metcalfe 76] R.M. Metcalfe, D.R. Boggs, "Ethernet : Distributed Packet Switching for
Local Computer Networks", Communications of the ACM, 19(7), juillet 1976.
[Watson 95] G. Watson et al., "The Demand Priority Access Method", IEEE Networks,
9(1), Janvier 1995.
Ouvrages de synthèse
Chapitre 4
Ouvrages de synthèse
Chapitre 5
[ANSI 1841 ANSI X3.184-199x, Fiber Distributed Data Interface (FDDI) — Part 4 :
Single-Mode Fiber PMD (SMF-PMD), décembre 1992.
[ANSI T l - 1 0 5 ] ANSI Tl-105-1991, "Digital Hierarchy — Optical Interface Rates and
Formats Specifications (SONET) (FDDI and STS path signal level)". Supplement to
ANSI T l - 1 0 5 , 1991.
[ANSI 237] ANSI X3.237-199x. Fiber Distributed Data Interface Low-cost Fiber Physical
Medium Dependent (LCF-PMD), septembre 1992.
[ANSI 201] ANSI X3.201-1992, Fiber Distributed Data Interface Twisted Pair Physical
Medium Dependent (TP-PMD), février 1993.
[Fink 92] R. Fink, F. Ross. "FFOL and its relationship to the MAN/WAN environment".
Computer Communications. 15(9). novembre 1992.
[Hamstra 92] J. Hamstra, R. Fink, "FFOL transmission services — Issues for a PHY
physical layer protocol", Computer Communications. 15(5), juin 1992.
[IS 9314-1] ISO IS 9314-1, Fiber Distributed Data Interface (FDDI) — Part I : Physical
Layer Protocol (PHY), 1989.
[IS 9314-2] ISO IS 9314-2, Fiber Distributed Data Interface (FDDI) — Part 2 : Medium
Access Control (MAC), 1989.
[IS 9314-31 ISO IS 9314-3, Fiber Distributed Data Interface (FDDI) — Part 3 : Physical
Laver Medium Dependent Protocol (PMD), 1990.
[IS 9314-5] ISO IS 9314-5. Fiber Distributed Data Interface (FDDI) — Part 5 : Hybrid-
Ring Control (FDDI II), 1995.
[IS 10608-14] ISO ISP 10608-14. Fiber Distributed Data Interface (FDDI) — Part 6 :
Station Management, 1995.
Bibliographie 369
[Jain 90] R. Jain, "Performance and Analysis of the FDDI Token Ring Protocol
Networks : Effects of Parameters and Guidelines for setting TTRT". Proceedings ACM
SIGCOMM, 1990.
[Ross 89] F. Ross, "Overview of FDDI : the Fiber Distributed Data Interface", IEEE
Journal on Selected Areas in Communications, 7(7), juillet 1989.
[Ross 90] F. Ross, J. Hamstra, R. Fink, "FDDI - A LAN Among MANs", Computer
Communication Review, 20(3), juillet 1990.
[Ross 92] F. Ross, R. Fink, "Overview of FFOL — FDDI Follow-On LAN". Computer
Communications, 15( 1 ), janvier 1992.
e
[Stallings 93] W. Stallings, Local and Metropolitan Area Networks, 4 édition.
Macmillan Publishing Company. 1993.
[Tolmie 92] D. Tolmie, "Gigabit Networking", IEEE Lighwave Telecommunication
Systems, 3(2), mai 1992.
[Walrand 93] J. Walrand, Communications Networks : a first course, Aksen Editors,
1993.
Ouvrages de synthèse
B. Albert, A.P. Jayasumana, FDDI and FDDI II : Architecture, Protocols and Performance,
Artech House, 1994.
R. Jain. FDDI Handbook : High-Speed Networking Using Fiber and Other Media,
Addison-Wesley, 1993.
A. Shah, G. Ramakrishnan, FDDI - Réseau haut débit, Masson, 1995.
Chapitre 6
[Ahmad 92] R. Ahmad, F. Halshall. "A Comparison of DQDB and FDDI for the
interconnection of LANs", Proceedings EFOC/LAN'92, pp .43-47, 1992.
[Hahne 90] E. Hahne, A. Choudhury, N. Maxemchuck, "Improving the fairness of
Distributed-Queue-Dual-Bus Networks", Proceedings IEEE INFOCOM'90, juin 1990.
[IEEE 802.6] Institute of Electrical and Electronics Engineers, Distributed Queue Dual Bus
(DQDB) access method and physical layer specifications, ANSI/IEEE Standard 802.6,
1994.
[Newman 88] R. Newman, Z. Budrikis, J. Hullett. "The QPSX MAN", IEEE
Communications Magazine, pp. 20-28, 26(4), avril 1988.
[Sadiku 94] M. Sadiku, A. Arvind, "Annotated Bibliography on Distributed Queue Dual
Bus (DQDB)", Computer Communications Review, 24 (1), ACM, Janvier 1994.
[Sumita 92] M. Sumita, P.-C. Fetterolf. "Effect of Bandwidth Balancing Mechanism on
fairness and performance of DQDB MANs". Proceedings IEEE INFOCOM'92,
mai 1992.
370 Architecture des réseaux haut débit
Ouvrages de synthèse
D. Spohn, Data Network Design : Packet Switching, Frame Relay, 802.6/DQDB, Mac
Graw Hill, 1993.
M. Sadiku, A. Arvind, "Annotated Bibliography on Distributed Queue Dual Bus (DQDB)",
Computer Communications Review, 24 (1), ACM, janvier 1994.
Chapitre 7
[IEEE 802.2] Institute of Electrical and Electronics Engineers, Logical link control,
ANSI/IEEE Standard 802.2, 1994.
[IS 3309] ISO IS 3309, High-level Data Link Control (HDLC), juin 1991.
[IS 8802-2] ISO IS 8802-2, Local Area Networks, Part 2 : Logical Link Control, 1990.
Chapitre 8
[ATM Forum 94] ATM Forum, ATM User-Network Interface (UNI) Specification Version
3.1. juillet 1994.
[ATM Forum 95] ATM Forum. LAN Emulation SWG Drafting Group, LAN Emulation over
ATM Specification - Version 1.0, janvier 1995.
[Bae 91] J. Bae, T. Suda, "Survey of traffic control schemes and protocols in ATM
networks", Proceedings of the IEEE, 79 (2), février 1991.
[Bala 90] K. Bala, I. Cidon, K. Sohraby, "Congestion control for high speed packet
switched networks", Proceedings IEEE INFOCOM'90, 1990.
[Boyer 92] P. Boyer, D. Tranchier. "A reservation principle with applications to the ATM
traffic control". Computer Networks and ISDN Systems, 24, 1992.
[Doll 72] D.R. Doll, "Multiplexing and concentration", Proceedings of the IEEE, vol. 60,
pp. 1313-1321. novembre 1972.
[G.707] UIT-T G.707. Synchronous Digital Hierarchy bit rates, août 1993.
[G.708] UIT-T G.708, Network node interface for the Synchronous Digital Hierarchy,
novembre 1993.
[G.709] UIT-T G.709, Synchronous multiplexing structure, décembre 1993.
[G.731] UIT-T G.731, Primary PCM multiplex équipement for voice frequencies,
Bluebook III.4, juin 1990.
[G.732] UIT-T G.732, Characteristics of primary PCM multiplex équipement operating at
2048 kbit/s. Bluebook III.4. juin 1990.
[G.733] UIT-T G.733, Characteristics of primary PCM multiplex équipement operating at
1544 kbit/s, Bluebook III.4, juin 1990.
[Guillemin 92] F. Guillemin. Contrôle de congestion dans les réseaux temporels
asynchrones. Thèse de doctorat de l'université de Rennes I, juillet 1992.
[Gravey 91] A. Gravey, G. Hébuterne. "Mixing time and loss priorities in a single server
queue". Proceedings Workshop on ATM. 13th International Teletraffic Congress,
1991.
Bibliographie 371
[Hong 91] D. Hong, T. Suda. "On congestion control and prevention in an ATM
network", IEEE Network Magazine, juillet 1991.
[1.1 13] UIT-T 1.113, Vocabulary of Terms for Broadband Aspects of ISDN, novembre
1994.
[1.121] UIT-T 1.121, Broadband aspects of ISDN, juillet 1991.
[1.150] UIT-T 1.150, B-ISDN Asynchronous Transfer Mode Functional Characteristics,
novembre 1993.
[1.211] UIT-T 1.211, B-ISDN Service Aspects, novembre 1993.
[1.311] UIT-T 1.311, B-ISDN General Network Aspects, novembre 1993.
[1.320] UIT-T 1.320, ISDN Protocol Reference Model, novembre 1994.
[1.321] UIT-T 1.321, B-ISDN Protocol Reference Model and its Application, juillet 1991.
[1.327] UIT-T 1.327, B-ISDN Functional Architecture, novembre 1993.
[1.356] UIT-T 1.356, B-ISDN ATM Layer Cell Transfer Performance, février 1995.
[1.361] UIT-T 1.361, B-ISDN ATM Layer Specification, novembre 1993.
[1.362] UIT-T 1.362, B-ISDN ATM Adaptation Layer (AAL) Functional Description,
octobre 1993.
[1.363] UIT-T 1.363, B-ISDN ATM Adaptation Layer (AAL) Specification, février 1994.
[1.364] UIT-T 1.361, Support of Broadband Connectionless Data Service on B-ISDN,
octobre 1993.
[1.365] UIT-T 1.365.1, Frame Relaying Service Specific Convergence Sublayer (FR-
SSCS), novembre 1994.
[1.371] UIT-T 1.371, Traffic Control and Congestion Control in B-ISDN, novembre 1993.
[1.413] UIT-T 1.413, B-ISDN User-Network Interface, décembre 1993.
[1.432] UIT 1.432, B-ISDN User-Network Interface — Physical Layer Specification,
Janvier 1994.
[1.555] UIT-T 1.555, Frame Relaying Bearer Service Interworking, novembre 1994.
[1.610] UIT-T 1.610. B-ISDN Operation And Maintenance Principles and Functions,
Janvier 1994.
[IS 11172] ISO DIS 11172, Coding of Moving Pictures and Associated Audio (MPEG),
novembre 1992.
[Kroner 90] H. Kroner, "Comparative performance study of space priority mechanisms for
ATM networks", Proceedings IEEE INFOCOM90, juin 1990.
[Newman 94] P. Newman, "ATM Local Area Networks", IEEE Communications Magazine,
32(3), mars 1994.
[Q.2010] UIT-T Q.2010, Broadband integrated services digital networks overview
signalling capabilities set I, release I, juillet 1995.
[Q.2100] UIT-T Q.2100, B-ISDN signalling ATM adaptation layer (SAAL) overview-
description, février 1995.
[Q.2110] UIT-T Q.2110, B-ISDN ATM adaptation layer - Service specific connection
oriented protocol (SSCOP), avril 1995.
372 Architecture des réseaux haut débit
[Q.2130] UIT-T Q.2130, B-ISDN signalling ATM adaptation layer - Service specific
coordination function for support of signalling at the user-network interface (SSCF at
UNI), avril 1995.
[Q.2140] UIT-T Q.2140. B-ISDN signalling ATM adaptation layer - Service specific
coordination function for support of signalling at the network node interface (SSCF at
NNI), juillet 1995.
[Q.2931] UIT-T Q.2931, Broadband integrated services digital networks - Digital
subscriber signalling system N° 2 (SS 2) UNI layer 3 specification for basic
call/connection control, à paraître fin 1995.
[Rathgeb 91] E. Rathgeb, "Modeling and performance comparison of policing
mechanisms for ATM networks", IEEE Journal on Selected Areas in Communications,
9 (3), avril 1991.
[X.200] UIT-T X.200, Open Systems Interconnection — Basic Reference Model.
novembre 1994.
[Szuprowicz 95] B.O. Szuprowicz. Multimedia Networking, Mac Graw Hill, 1995.
[Truong 95] H.L.T. Truong, W.W. Ellington, J.Y. Le Boudec, A. Meier. J.W. Pace, "LAN
Emulation on an ATM Network", IEEE Communications Magazine, 33 (5), mai 1995.
Ouvrages de synthèse
e
L'Echo des Recherches, Numéro spécial sur ATM (I), 144, 2 trimestre 1991.
e
L'Echo des Recherches, Numéro spécial sur ATM (II), 145, 3 trimestre 1991.
M. Boisseau, M.Démange, J.-M.Munier, Réseaux ATM, Eyrolles, 1992.
e
M. DePrycker. Asynchronous Transfer Mode, 2 édition, Ellis Horwood Ltd, 1994.
R. Hândel, M. Huber, S. Schroder, ATM Networks : concepts, protocols, applications,
e
2 édition, Addison-Wesley, 1994.
D.E. McDysan, D.L. Spohn, ATM: Theory and Applications, Mac Graw Hill, 1994.
D. Minoli. Broadband Network Analysis and Design, Artech House, 1993.
R.O. Onvural. Asynchronous Transfer Mode Networks, Artech House, 1994.
M.J. Sexton, A.B.D. Reid, Transmission and the Synchronous Digital Hierarchy, Artech
House, 1992.
e
W. Stallings. ISDN and Broadband ISDN with Frame Relay and ATM, 3 édition, Mac
Millan, 1995.
Chapitre 9
[ANSI 90] ANSI T1.606, Frame Relaying Bearer Senice — Architecture Framework and
Service Description. 1990.
[Bellcore 92] Bellcore, Generic Requirements for SMDS Networking. Bellcore Technical
Reference, Issue 2, TA-TSV-001059. août 1992.
[Deering 95] S. Deering, R. Hinden. "Internet Protocol, Version 6 (IPv6) Specification",
draft-ietf-ipngwg-ipv6-spec02, 19 juin 1995.
Bibliographie 373
[IEEE 802.Id] Institute of Electrical and Electronics Engineers, Local MAC Bridging,
Contribution P802.1d/D9, 1989.
[IEEE 802.Ig] Institute of Electrical and Electronics Engineers, Remote MAC Bridging,
Contribution P802.1g, novembre 90.
[IS 3309] ISO IS 3309, High-level Data Link Control (HDLC), juin 1991.
[IS 8648] ISO IS 8648. Interconnexion des systèmes ouverts - Organisation interne de la
couche réseau, septembre 1990.
[Q.931] ITU-T Q.931, Rev-1, Digital subscriber Signalling System No.l (DSS I) — ISDN
user-network interface layer 3 specification for basic call control, octobre 1994.
[RFC 768] J. Postel, "User Datagram Protocol", RFC 768, août 1980.
[RFC 791] J. Postel, "Internet Protocol", RFC 791, septembre 1981.
[RFC 792] J. Postel, "Internet Control Message Protocol", RFC 792, septembre 1981.
[RFC 793] J. Postel, "Transmission Control Protocol", RFC 793, septembre 1981.
[RFC 904] D. Mills, "Exterior Gateway Protocol Formal Specification", RFC 904, avril
1984.
[RFC 1371] P. Gross, "Choosing a "Common IGP" for the IP Internet", RFC 1371,
octobre 1992.
[RFC 1710] R. Hinden, "Simple Internet Protocol Plus White Paper", RFC 1710, octobre
1994.
[RFC 1752] S. Bradner, A. Mankin, "The Recommendation for the IP Next Generation
Protocol", RFC 1752, janvier 1995.
[Sunshine 90] C. Sunshine, "Network interconnection and gateways", IEEE Journal on
Selected Areas in Communications, 8 (1), janvier 1990.
[X.200] UIT-T X.200. Information Technology - Open Systems Interconnection - Basic
Reference Model : the basic model, novembre 1994.
Ouvrages de synthèse
U. Black, Frame Relay Networks : Specifications and Implementations, Mac Graw Hill,
1994.
D. Comer, Internetworking with TCP/IP, Prentice Hall, 1988.
R.P. Davidson, N.J. Muller, Internetworking LANs, Artech House, 1992.
R. Klessig, SMDS -Wide-Area Data Networking with Switched Multimegabit Data
Service, Prentice-Hall, 1994.
Radia Perlman, Interconnexions, ponts et routeurs, Addison-Wesley, 1995.
D. Spohn, Data Network Design : Packet Switching, Frame Relay, 802.6/DQDB, Mac
Graw Hill, 1993.
Liste des acronymes