Vous êtes sur la page 1sur 412

Architecture

des
réseaux haut débit
cours, exercices et corrigés

Kim-Loan Thaï
Véronique Vèque
Simon Znaty
Architecture
des réseaux haut débit
Collection dirigée p a r Pierre Rolin

EXTRAIT DU CATALOGUE GÉNÉRAL

Michael GRIFFITHS et Michel VAYSSADE, Architecture des systèmes d'exploitation,


e
2 édition, 1 9 9 0 .
Habib ABDULRAB, de Common Lisp à la programmation objet, 1 9 9 0 .
E
Robert OGOR et Robert RANNOU, Langage ADA et algorithmique, 2 édition revue et
corrigée, 1 9 9 3 .
Ivan LAVALLÉE, Algorithmique parallèle et distribuée, 1 9 9 0 .
Jean-Pierre CHARDON et Dominique B l S S E Y , Télécommunications d'entreprise —
E
techniques et organisation, 2 édition revue et complétée, 1 9 9 2 .
Victor SANDOVAL, Technologie de l'EDI, 1 9 9 0 .
E
Xavier MARSAULT, Compression et cryptage des données multimédias, 2 édition
revue et a u g m e n t é e , 1 9 9 5 .
E
Christian PÉLISSIER, UNIX— utilisation, administration système et réseau, 2 édi-
tion revue et a u g m e n t é e , 1 9 9 5 .
Christian PÉLISSIER, Guide de sécurité des systèmes UNIX, 1 9 9 3 .
Jean-Louis JACQUEMIN, Informatique parallèle et systèmes multiprocesseurs, 1993.
Michel ADIBA et Christine COLLET, Objets et bases de données — le SGBDO2, 1 9 9 3 .
E
Radu HORAUD et Olivier MONGA, Vision par ordinateur, 2 édition revue et aug-
mentée, 1 9 9 5 .
Laurent TOUTAIN, Technique des réseaux locaux sous Unix — des protocoles à
l'interconnexion, 1994.
P a t r i c e BOURSIER et Pierre-Antoine TAUFOUR, La technologie multimédia,
E
2 édition revue et augmentée, 1 9 9 4 .
Christian VAN HOUCKE, Le multimédia en entreprise, 1994.
Gérard DUPOIRIER, Technologie de la CED — techniques et management des
E
documents électroniques, 2 édition revue et augmentée, 1 9 9 5 .
Jean-François JODOUIN, Réseaux neuromimétiques — modèles et applications,
1994.
Jean-François JODOUIN, Les réseaux de neurones — principes et définitions, 1994.
Victor SANDOVAL, SGML — un outil pour la gestion électronique de documents,
1994.
Daniel CALI et Gabriel ZANY, Technologie de l'interconnexion de réseaux —
méthodologies, marchés et évolutions, 1994.
Jean PELLAUMAIL, P i e r r e BOYER et Patrice LEGUESDRON, Réseaux ATM et
P-simulation, 1994.
P i e r r e ROLIN, Réseaux haut débit, 1 9 9 5 .
E
Pierre ROLIN, Réseaux locaux — normes et protocoles, 5 édition revue et aug-
mentée, 1 9 9 5 .
Xavier LAGRANGE, Philippe GODLEWSKJ, Sami TABBANE, Réseaux GSM, 1 9 9 5 .
Pierre LECOY, Technologie des télécoms, 1995.
réseaux et télécommunications

Architecture
des réseaux
haut débit
cours, exercices et corrigés

Kim-Loan Thai
Véronique Vèque
Simon Znaty

HERMES
© Hermès, Paris, 1995
Editions Hermès
14, rue Lantiez
75017 Paris
ISBN 2-86601-494-4

Catalogage Electre-Bibliographie
Thai, Kim Loan*Vèque, Véronique*Znaty, Simon
Architecture des réseaux haut débit : cours, exercices et corrigés. -
Paris : Hermès, 1995. - (Réseaux et télécommunications)
ISBN 2-86601-494-4
RAMEAU : ordinateurs, réseaux d': architectures : manuels d'enseignement supérieur
DEWEY : 621.62 : Physique appliquée. Systèmes, réseaux et services des
télécommunications

Le Code de la propriété intellectuelle n'autorisant, aux termes de l'article L. 122-5, d'une


part, que les « copies ou reproductions strictement réservées à l'usage privé du copiste et non
destinées à une utilisation collective » et, d'autre part, que les analyses et les courtes cita-
tions dans un but d'exemple et d'illustration, « toute représentation ou reproduction inté-
grale, ou partielle, faite sans le consentement de l'auteur ou de ses ayants droit ou ayants
cause, est illicite » (article L. 122-4).
Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc
une contrefaçon sanctionnée par les articles L. 335-2 et suivants du Code de la propriété
intellectuelle.
à nos parents,

à Kim-Mai et Anh,

à Christophe,

à Marianne et Edouard.
Table des matières

Introduction 1

Chapitre 1. Architecture en couches et normalisation 5

1.1. Introduction 5
1.2. Les réseaux 5
1.2.1. Classification 5
1.2.2. Applications 7
1.2.2.1. Applications des réseaux grande distance 7
1.2.2.2. Applications des réseaux locaux 8
1.2.2.3. Applications des réseaux métropolitains 8
1.2.3. Caractéristiques fonctionnelles 9
1.3. Les organismes de normalisation 10
1.3.1. Les organismes officiels internationaux 12
1.3.1.1. L'ISO 12
1.3.1.2. LUIT 13
1.3.2. Les organismes européens 13
1.3.3. Autres organismes 14
1.4. Le modèle de référence OSI 15
1.4.1. Concepts de base de la structuration en couches 16
1.4.1.1. Organisation des communications avec le modèle OSI. 16
1.4.1.2. Transfert de données 19
1.4.2. Définition des services 21
1.4.3. Description des couches 22
1.4.3.1. La couche physique 22
1.4.3.2. La couche liaison de données 23
1.4.3.3. La couche réseau 23
1.4.3.4. La couche transport 23
1.4.3.5. La couche session 23
VIII Architecture des réseaux haut débit

1.4.3.6. La couche présentation 24


1.4.3.7. La couche application 24
1.5. L'architecture DoD et ses protocoles 24
1.6. L'administration de réseaux 26
1.6.1. Définition 26
1.6.2. Les normes d'administration 27
1.6.2.1. L'ISO 27
1.6.2.2. L'UIT-T 32
1.6.2.3. Le monde TCP/IP 32
Exercices 35

Chapitre 2. Caractéristiques générales des réseaux locaux


et des réseaux métropolitains 37

2.1. Introduction 37
2.2. L'architecture IEEE 38
2.3. Supports de transmission 40
2 . 3 . 1 . Caractéristiques 40
2.3.2. Les paires torsadées 42
2.3.3. Le câble coaxial 44
2.3.4. La fibre optique 45
2.3.5. Supports non guidés 46
2.4. Topologies 47
2.4.1. L'étoile 47
2.4.2. Le bus 48
2.4.3. L'anneau 49
2.5. Les familles de contrôle d'accès 51
2.5.1. L'accès statique 51
2.5.1.1. Accès multiple à répartition dans le temps 51
2.5.1.2. Accès multiple avec répartition en fréquence 52
2.5.2. L'accès déterministe 53
2.5.2.1. Le polling 53
2.5.2.2. Accès par jeton 53
2.5.3. L'accès aléatoire 56
2.5.3.1. Le protocole Aloha 56
2.5.3.2. CSMA (Carrier Sense Multiple Access) 57
2.5.3.3. CSMA/CD (CSMA with Collision Detection) 58
2.5.3.4. CSMA/CA (CSMA with Collision Avoidance) 59
Exercices 60

Chapitre 3. Ethernet et Ethernet 100 Mbit 63

3 . 1 . Introduction 63
3.1.1. Historique 63
3.1.2. Le standard 802.3 64
3.2. Le protocole MAC 65
Table des matières IX

3.2.1. Principe de fonctionnement de CSMA/CD 65


3.2.1.1. Transmission d'une trame 65
3.2.1.2. Détection des collisions 66
3.2.1.3. Reprise après collision 68
3.2.1.4. Réception d'une trame 68
3.2.2. Modèle fonctionnel de la couche MAC 68
3.2.3. Structure de la trame 70
3.2.4. Paramètres du protocole MAC 71
3.3. Service MAC 72
3.3.1. La primitive MA_DATA.request 73
3.3.2. La primitive MA_DATA.indication 73
3.4. La couche physique 74
3.4.1. Sous-couche PLS 74
3.4.2. Interface AUI 75
3.4.3. Fonctions de la MAU 75
3.5. Service PHY 76
3.5.1. Les primitives de service 76
3.5.2. Génération et effets 76
3.6. Les supports 77
3.6.1. Supports à base de câble coaxial 77
3.6.2. Les répéteurs 78
3.6.3. Supports à base de paires torsadées 79
3.6.4. Supports à base de fibre optique 81
3.6.5. Récapitulatif 82
3.7. Ethernet 100 Mbit/s 82
3.7.1. Fast Ethernet 83
3.7.2. lOOVGAnyLan 83
3.7.3. Ethernet Full Duplex 85
3.7.4. Ethernet isochrone 86
Exercices 87

Chapitre 4. Accès par jeton : Token Ring et Token Bus 89

4 . 1 . Introduction 89
4.2. Token Ring 90
4.2.1. Principe de l'accès à jeton 90
4.2.2. Structure du standard 802.5 91
4.2.3. Le protocole MAC 802.5 92
4.2.3.1. Les trames MAC 92
4.2.3.2. Transmission d'une trame de données 95
4.2.3.3. Remise du jeton et retrait de la trame 95
4.2.3.4. Automate de transmission 96
4.2.3.5. Réception 97
4.2.3.6. Niveaux de priorité 97
4.2.3.7. Les temporisateurs et les drapeaux 98
X Architecture des réseaux haut débit

4.2.4. Protocole SMT et gestion des fautes 99


4.2.5. Services MAC 802.5 100
4.2.5.1. Service MAC pour la sous-couche LLC 100
4.2.5.2. Service MAC pour l'entité SMT 101
4.2.6. La couche physique 103
4.2.6.1. Composants de la couche physique 103
4.2.6.2. Rôle de la TCU 103
4.2.6.3. Le tampon de latence 104
4.2.6.4. Supports et câblage 104
4.2.6.5. Spécification des services PHY 105
4.3. Token Bus 106
4.3.1. Principe de l'accès à jeton sur bus 106
4 . 3 . 1 . 1 . Anneau logique 106
4.3.1.2. Procédure de réveil 107
4.3.1.3. Initialisation de l'anneau logique 110
4.3.1.4. Retrait d'une station de l'anneau 110
4.3.1.5. Réception d ' u n e trame 110
4.3.2. Structure du standard 802.4 110
4.3.3. Le protocole MAC 802.4 111
4.3.3.1. Les trames MAC 111
4.3.3.2. Temps maximum de rotation du jeton et priorités 113
4.3.3.3. Gestion des fautes 114
4.3.4. Services MAC 802.4 115
4.3.4.1. Service MAC pour la sous-couche LLC 115
4.3.4.2. Service MAC pour l'entité SMT 116
4.3.5. La couche physique 118
4.3.5.1. Les supports 118
4.3.5.2. Le service PHY 118
Exercices 119

Chapitre 5. FDDI (Fiber Distributed Data Interface) 123

5.1. Introduction 123


5.2. Architecture d'une station FDDI 125
5.3. Définition d'un nœud FDDI 126
5.4. Fonctionnement du protocole FDDI 127
5.4.1. Données synchrones et asynchrones 128
5.4.2. Le jeton temporisé 129
5.4.3. Format des trames 131
5.4.3.1. La trame FDDI 131
5.4.3.2. Le jeton 133
5.4.4. Processus Claim 133
5.4.5. Fonctionnement normal 135
5.4.6. Processus Beacon 135
5.5. Services FDDI 136
Table des matières XI

5.5.1 Service MAC 137


5.5.2 Services PHY et PMD 137
5.6. Administration de FDDI 138
5.6.1. Blocs et entités SMT 139
5.6.1.1. Le bloc CMT 139
5.6.1.2. Le bloc RMT 140
5.6.2. Les services SMT 141
5.6.3. La MIB SMT 144
5.7. La couche physique 145
5.7.1. Couches PHY et PMD 145
5.7.2. Couche PMD et supports de FDDI 146
5.7.2.1. MMF-PMD 146
5.7.2.2. SMF-PMD 147
5.7.2.3. FDDI sur SONET 147
5.7.2.4. TP-PMD 147
5.7.2.5. L C F - P M D 148
5.8. Les dérivés 149
5.8.1. FDDI II 149
5.8.1.1. Architecture de FDDI II 149
5.8.1.2. Mode de fonctionnement hybride 150
5.8.2. FFOL 151
Exercices 153

Chapitre 6 . DQDB (Distributed Queue Dual Bus) 157

6.1. Introduction 157


6.2. Architecture d'un nœud DQDB 159
6.3. Accès au support 160
6.3.1. Accès temporel synchrone 160
6.3.2. La cellule DQDB 161
6.3.3. Les trois classes de services 162
6.3.3.1. Le mode isochrone 162
6.3.3.2. Le mode asynchrone sans connexion 162
6.3.3.3. Le mode asynchrone avec connexion 163
6.3.4. Protocole de la file distribuée 163
6.3.5. Equilibrage de la charge (BandWidth Balancing) 167
6.4. Les unités de données du protocole DQDB 167
6.4.1. Fragmentation et encapsulations successives 167
6.4.2. L'IM-PDU (Initial MAC Protocol Data Unit) 168
6.4.3. La DM-PDU (Derived MAC Protocol Data Unit) 171
6.4.4. Le segment 172
6.5. Le protocole DQDB 172
6.5.1. Fonction de convergence MAC (MCF) 173
6.5.1.1. Processus d'émission 173
6.5.1.2. Processus de réception 173
XII Architecture des réseaux haut débit

6.5.2. Fonction de convergence isochrone (ICF) et entité


fonctionnelle PAF 175
6.5.3. Fonction de convergence orientée connexion (COCF) 175
6.5.4. Fonctions communes (CF) 176
6.6. Les services D Q Q B 176
6.6.1. Primitives du service MAC 176
6.6.2. Primitives du service isochrone DQDB 177
6.6.3. Primitives du service de données asynchrones orienté connexion.. 177
6.7. La couche physique 178
6.7.1. Les différents supports 178
6.7.2. Le service physique 178
Exercices 180

Chapitre 7. L L C (Logical Link Control) 183

7.1. Introduction 183


7.2. Services fournis à la couche réseau 184
7.2.1. Service sans connexion : LLC1 184
7.2.2. Service avec connexion : LLC2 185
7.2.2.1. Etablissement de connexion 186
7.2.2.2. Libération et refus de connexion 187
7.2.2.3. Transfert de données 188
7.2.2.4. Réinitialisation de connexion 189
7.2.2.5. Contrôle de flux 190
7.2.3. Service sans connexion avec acquittement : LLC3 191
7.2.3.1. Service avec remise garantie 191
7.2.3.2. Service de polling avec réponse garantie 192
7.3. Interface M A C / L L C 195
7.4. Protocoles LLC 196
7.4.1. Unités de données 196
7.4.2. Protocole LLC de type 1 197
7.4.3. Protocole LLC de type 2 198
7.4.4. Protocole LLC de type 3 198
Exercices 200

Chapitre 8. A T M (Asynchronous Transfer Mode) 203

8.1. Introduction 203


8.2. Nouveaux services et multimédia 203
8.2.1. Les services large bande 203
8.2.2. Caractéristiques des trafics multimédias 205
8.3. Le réseau large bande 207
8.3.1. Normalisation 207
8.3.2. Modes de transfert dans un réseau commuté 207
8.3.2.1. Le mode de transfert synchrone 208
8.3.2.2. Le mode de transfert asynchrone 208
Table des matières XIII

8.3.2.3. Choix de l'ATM 209


8.3.3. Principes fondamentaux du mode ATM 210
8.3.4. Connexions ATM 211
8.3.4.1. Principe de la connexion virtuelle 211
8.3.4.2. Translation des valeurs de VCI 211
8.3.4.3. Le conduit virtuel 212
8.3.4.4. Commutation à deux niveaux 213
8.3.4.5. Exemple d'allocation de VCI/VPI dans un réseau ATM .. 213
8.3.5. Architecture du réseau large bande 215
8.3.5.1. Interfaces du RNIS-LB 215
8.3.5.2. Configuration de référence à l'UNI 216
8.3.5.3. Réseau de distribution 217
8.3.5.4. Réseau de commutation ATM 219
8.3.5.5. Réseau de transmission 220
8.3.5.6. Le système de transmission PDH 221
8.3.5.7. Le système de transmission SONET 222
8.3.5.8. Le système de transmission SDH 224
8.3.5.9. Le système de transmission en mode cellule 225
8.3.6. Modèle de référence du RNIS-LB 225
8.3.7. La gestion du réseau large bande 227
8.4. La couche PHY 229
8.4.1. Structure de la couche PHY 229
8.4.2. La sous-couche Physical Medium (PM) 230
8.4.3. La sous-couche Transmission Convergence (TC) 230
8.4.3.1. Fonctionnalités 230
8.4.3.2. Adaptation au système SDH 231
8.4.3.3. Adaptation au système PDH 232
8.4.3.4. Adaptation au mode cellule 232
8.4.3.5. Délimitation de cellules 233
8.4.3.6. Calcul et vérification du champ HEC 234
8.4.3.7. Adaptation de débit 234
8.4.4. Services de la couche PHY 235
8.5. La couche ATM 236
8.5.1. Fonctions de la couche ATM 236
8.5.2. Structure de l'en-tête de la cellule 236
8.5.3. La gestion des erreurs 238
8.5.4. Priorités 238
8.5.5. Type du contenu 239
8.5.6. Services de la couche ATM 239
8.6. La couche AAL 240
8.6.1. Rôle 240
8.6.2. Classification des services 241
8.6.3. Structuration de la couche AAL 242
8.6.3.1. La sous-couche SAR 242
XIV Architecture des réseaux haul débit

8.6.3.2. La sous-couche CS 242


8.6.4. Mécanismes utilisés par l'AAL 242
8.6.4.1. Segmentation 243
8.6.4.2. Compensation de la gigue de cellule 243
8.6.4.3. Traitement des gains et pertes de cellules 244
8.6.4.4. Synchronisation des extrémités 244
8.6.5. Types d'AAL 245
8.6.6. AAL 1 246
8.6.6.1. Fonctions de la SAR 247
8.6.6.2. Fonctions de la CS 247
8.6.7. AAL 2 247
8.6.8. AAL 3/4 248
8.6.8.1. Fonctions de la SAR 249
8.6.8.2. Fonctions de la CPCS 250
8.6.8.3. Fonctions de la SSCS 251
8.6.9. AAL 5 252
8.6.9.1. Fonctions de la SAR 252
8.6.9.2. Fonctions de la CPCS 252
8.6.9.3. Fonctions de la SSCS 254
8.6.9.4. Comparaison AAL 3/4 et AAL 5 254
8.7. Réseau local A T M 255
8.7.1. Emulation de réseau local 255
8.7.2. Adaptation du format de la trame 256
8.7.3. Adressage 256
8.7.4. Service sans connexion et diffusion 257
8.7.5. Architecture et configuration du réseau local émulé 258
8.7.6. Format de la trame 260
8.8. Le contrôle de congestion 261
8.8.1. Les méthodes 261
8.8.1.1. Méthodes préventives 262
8.8.1.2. Méthodes réactives 262
8.8.2. Le contrôle de congestion dans le RNIS-LB 263
8.8.3. Gestion et réservation de ressources 264
8.8.4. Admission d'une nouvelle connexion 264
8.8.5. Contrôle d'entrée du trafic 265
8.8.5.1. Objectifs 265
8.8.5.2. Le mécanisme du seau percé (Leaky Bucket) 266
8.8.5.3. Le contrôleur-espaceur du CNET 267
8.8.6. Contrôle de priorité et destruction sélective des cellules 269
8.8.7. Gestion rapide de ressources 270
8.8.8. Notification de congestion 270
Exercices 272
Table des matières XV

Chapitre 9. Interconnexion 277

9.1. Introduction 277


9.2. Principes de l'interconnexion 278
9.2.1. Choix du niveau d'interconnexion 278
9.2.2. Techniques d'interconnexion 278
9.2.3. Classification des équipements d'interconnexion 279
9.3. Les répéteurs 279
9.4. Les ponts 280
9.4.1. Qu'est-ce qu'un pont ? 280
9.4.2. Apprentissage dynamique des adresses de routage 281
9.4.3. Les ponts MAC 802 282
9.4.3.1. Les standards IEEE 282
9.4.3.2. Architecture de pont 283
9.4.3.3. Service MAC du pont 284
9.4.3.4. Fonctionnement du pont 285
9.4.3.5. Préservation de la QoS 286
9.5. Les routeurs et l'interconnexion de niveau réseau 286
9.5.1. Introduction 286
9.5.2. Qu'est-ce qu'un routeur ? 287
9.5.3. Fonctionnement d'un routeur 287
9.5.4. Routeurs statiques et routeurs dynamiques 288
9.5.5. Le protocole Internet 288
9.5.5.1. L'adressage Internet 288
9.5.5.2. Encapsulations successives 289
9.5.5.3. Routage Internet 290
9.5.5.4. La datagramme IP 291
9.5.5.5. Service Internet 293
9.5.5.6. IPng et IPv6 294
9.6. SMDS (Switched Multimegabit Data Service) 295
9 . 6 . 1 . Définition 295
9.6.2. Le modèle d'interconnexion 295
9.6.2.1. Le modèle LEC 296
9.6.2.2. Le modèle SS 297
9.6.3. Fonctionnalités de SMDS 298
9.6.3.1. Les utilisateurs du service SMDS 298
9.6.3.2. Le transport de données 298
9.6.3.3. Le routage 298
9.6.3.4. Le contrôle de congestion 299
9.6.3.5. Le partage de charge 299
9.6.3.6. La gestion 300
9.6.4. Le protocole ISSIP 300
9.6.4.1. Niveau 3 du protocole ISSIP 300
9.6.4.2. Niveau 2 du protocole ISSIP 300
9.6.4.3. Niveau 1 du protocole ISSIP 301
XVI Architecture des réseaux haut débit

9.7. Le relais de trames 301


9.7.1. Généralités 301
9.7.2. La trame Frame Relay 301
9.7.3. Principe de l'adressage Relais de trames 303
9.7.4. Etablissement d'une connexion 303
Exercices 305

Corrigés 309

Chapitre 1 309
Chapitre 2 313
Chapitre 3 320
Chapitre 4 323
Chapitre 5 328
Chapitre 6 334
Chapitre 7 336
Chapitre 8 340
Chapitre 9 348

Bibliographie 363

Chapitre 1 363
Chapitre 2 365
Chapitre 3 367
Chapitre 4 368
Chapitre 5 368
Chapitre 6 369
Chapitre 7 370
Chapitre 8 370
Chapitre 9 372

Liste des a c r o n y m e s 375

Index 383
Introduction

Administrer un pays, une collectivité, faire du commerce, fabriquer une


automobile, réserver un voyage, importer des marchandises, gérer un compte
bancaire... Toutes ces tâches de la vie professionnelle ou quotidienne nécessitent
une collaboration entre de nombreux acteurs établis dans des entreprises, des
administrations, voire des pays distincts. Pour collaborer, ces acteurs peuvent
quelquefois se rencontrer mais communiquent le plus souvent à distance. Seule
solution au départ, le courrier postal sert désormais de trace légale de la transaction
une fois conclue tandis que pendant toute la phase de négociation et de mise au
point, on lui préfère des services de télécommunication, plus rapides et plus
interactifs. Le télégramme, le télex et bien sûr le téléphone consistent à envoyer des
impulsions électriques codées sur un support électrique ; l'infrastructure de ces
lignes couvrant toute la surface de la terre. Le téléphone a connu un succès énorme,
à tel point qu'il est depuis longtemps possible d'effectuer toutes sortes de
démarches sans bouger de chez soi.

Au fur et à mesure que les ordinateurs ont remplacé les êtres humains dans leurs
tâches les plus répétitives, il a aussi fallu permettre à ces ordinateurs de
c o m m u n i q u e r à d i s t a n c e , de manière a u t o m a t i q u e et r a p i d e . D e s
télécommunications humaines, on passait à l'ère de la téléinformatique et des
réseaux d'ordinateurs, avec leurs contraintes propres. En effet, l'ordinateur ne peut
comprendre qu'un nombre limité de commandes dans un cadre bien défini. La
moindre interférence sur la ligne trouble le comportement de la machine destinataire
car elle n'a pas la possibilité d'extrapoler. Aussi ont été développés les protocoles
de communication qui définissent les règles d'échange entre ordinateurs et
fiabilisent les échanges.
Les communications entre ordinateurs ont d'abord utilisé les infrastructures
existantes : sur de grandes distances, le réseau téléphonique analogique, et au sein
2 Architecture des réseaux haut débit

de l'entreprise, des lignes série reliant les terminaux à l'ordinateur de calcul. Très
vite, l'utilisation du téléphone a présenté de nombreux inconvénients : tarification
inadaptée, débits faibles, extrême sensibilité aux interférences électromagnétiques.
Dès les années 70, de nombreux travaux ont été menés tant par les industriels que
par les opérateurs de télécommunication pour développer des services publics
adaptés à la transmission de données : les réseaux à commutation de paquets. Ces
réseaux étaient révolutionnaires dans la mesure où ils structurent les données en
paquets facilitant ainsi reprise sur erreur et multiplexage temporel, avec des débits
nettement plus élevés et une tarification au volume tenant compte de l'activité
discontinue du trafic de données.

Un peu plus tard, l'essor de la micro-informatique, avec le remplacement


progressif des terminaux d'ordinateur par des micro-ordinateurs puis par des
stations de travail, a lui aussi révolutionné les réseaux d'entreprise. Par rapport à un
simple terminal, un micro-ordinateur dispose d'un microprocesseur, d'un système et
d'un disque, mais isolé, il perd certains avantages des réseaux centralisés où la
communication et le partage de ressources sont aisés. L'interconnexion des stations
de travail ou des micro-ordinateurs par un réseau local (LAN — Local Area
Network) vise donc à retrouver les avantages des réseaux centralisés. Le contexte
particulier des réseaux locaux a conduit à développer de nouvelles techniques. En
effet, sur de courtes distances, le risque d'interférences est plus faible, le débit
permis plus élevé, le raccordement en multipoint possible. Une autre caractéristique
importante de ce type de réseau est qu'il reste dans le domaine privé de l'entreprise ;
la notion de service n'est plus fondamentale comme dans le cas d'un opérateur. Les
protocoles des réseaux locaux ont donc suivi une philosophie différente de celle des
réseaux grande distance et sont souvent plus simples et plus efficaces.

A la fin des années 80, est apparu un troisième type de réseau, les réseaux
métropolitains (MAN — Metropolitan Area Network) dont la taille est
intermédiaire, à mi-chemin entre le réseau local et le réseau grande distance. Leur
objectif est l'interconnexion à haut débit (au-delà de la centaine de Mbit/s) de
réseaux locaux, sur un site étendu, un campus par exemple, voire une ville. Ces
réseaux métropolitains ont profité de l'expérience acquise avec les réseaux locaux et
utilisent des techniques voisines. Toutefois, en plus du service de transfert de
données informatiques, ils permettent de nouveaux services tels le transfert
d'images ou le transfert de voix téléphonique numérisée.

Parallèlement, les réseaux grande distance ont eux aussi évolué. La numérisation
de la parole par un procédé d'échantillonnage périodique du signal a conduit à la
mise en place d'un nouveau réseau téléphonique complètement numérique offrant
un service de transfert plus fiable, plus efficace, plus riche en fonctionnalités et plus
rapide. La conséquence majeure est la possibilité d'intégrer sur un même réseau les
services de transmission des données et de voix téléphonique. Le réseau numérique
à intégration de services était né avec pour objectif d'offrir à terme un accès
uniforme quel que soit le type de service demandé. Dans sa version large bande, ce
concept sera généralisé puisqu'aux services de phonie et de données s'ajouteront les
Chapitre 1

Architecture en couches et normalisation

1.1. Introduction

Comme nous allons le voir, il n'y pas un réseau mais des réseaux. Le paragraphe
1.2 relate succinctement les différences les plus marquantes entre les divers types de
réseaux. De même, ces derniers ne sont pas utilisés pour relier un seul type
d'équipements mais des équipements de nature diverse, provenant de constructeurs
différents, appartenant à des générations différentes et possédant également des
finalités différentes. Car quel est le point commun entre un ordinateur et un
scanner ? Tous deux communiquent via des réseaux de communication. Gérer cette
hétérogénéité a rapidement fait naître le besoin d'un cadre de normalisation. Le
paragraphe 1.3 présente les principaux organismes acteurs de cette normalisation.
Les principes du modèle de référence OSI définissant un cadre d'échange entre
systèmes communicants sont ensuite présentés au paragraphe 1.4. L'architecture
Internet du DoD est, quant à elle, décrite brièvement dans le paragraphe 1.5. Nous
présentons enfin les principes de l'administration des réseaux dans le paragraphe 1.6.

1.2. Les réseaux

1.2.1. Classification

La diversité des réseaux de communication est telle qu'une classification, aussi


grossière soit-elle, est nécessaire. Le caractère distinctif le plus souvent utilisé est la
Remerciements

De nombreux collègues et amis, membres de notre famille nous ont permis de mener
à bien la rédaction de cet ouvrage.

Nous remercions tout d'abord Pascal Anelli, maître de conférences à l'Université


Pierre et Marie Curie, pour sa disponibilité et ses conseils judicieux sur le
chapitre 8.

Nous tenons à exprimer toute notre gratitude à Guy Pujolle, professeur à


l'Université de Versailles, pour avoir su nous communiquer, par son enseignement
et ses divers ouvrages, le goût des réseaux, et pour nous avoir encouragé dans les
moments difficiles.

Nous témoignons une reconnaissance toute particulière à Pierre Rolin, professeur à


l'ENST-Bretagne, pour sa confiance et son efficace travail de relecture.

Eric Horlait, professeur à l'Université Pierre et Marie Curie, et Ahmed Serhrouchni,


maître de conférences à l'ENST, ont également accepté de nous relire. Qu'ils
trouvent ici la marque de notre amitié.

Nous remercions également Bruno Bouton, chercheur à l'Université de Versailles,


pour ses remarques pertinentes sur les exercices corrigés.

Enfin, nous remercions nos proches et les membres de nos familles pour le soutien,
la compréhension et la patience dont ils ont fait preuve tout au long de la rédaction
de cet ouvrage.

Kim-Loan THAI, Université Pierre et Marie Curie, Paris VI


Véronique VÈQUE, Université Paris-Sud, Paris XI
Simon ZNATY, Ecole Polytechnique Fédérale de Lausanne
Chapitre 1

Architecture en couches et normalisation

1.1. Introduction

Comme nous allons le voir, il n'y pas un réseau mais des réseaux. Le paragraphe
1.2 relate succinctement les différences les plus marquantes entre les divers types de
réseaux. De même, ces derniers ne sont pas utilisés pour relier un seul type
d'équipements mais des équipements de nature diverse, provenant de constructeurs
différents, appartenant à des générations différentes et possédant également des
finalités différentes. Car quel est le point commun entre un ordinateur et un
scanner ? Tous deux communiquent via des réseaux de communication. Gérer cette
hétérogénéité a rapidement fait naître le besoin d'un cadre de normalisation. Le
paragraphe 1.3 présente les principaux organismes acteurs de cette normalisation.
Les principes du modèle de référence OSI définissant un cadre d'échange entre
systèmes communicants sont ensuite présentés au paragraphe 1.4. L'architecture
Internet du DoD est, quant à elle, décrite brièvement dans le paragraphe 1.5. Nous
présentons enfin les principes de l'administration des réseaux dans le paragraphe 1.6.

1.2. Les réseaux

1.2.1. Classification

La diversité des réseaux de communication est telle qu'une classification, aussi


grossière soit-elle, est nécessaire. Le caractère distinctif le plus souvent utilisé est la
6 Architecture des réseaux haut débit

couverture géographique du réseau. On distingue ainsi trois types de réseaux. Dans


leur ordre d'apparition, ce sont :

- les réseaux grande distance (WAN — Wide Area Network),


- les réseaux locaux (LAN — Local Area Network),
- les réseaux métropolitains (MAN — Metropolitan Area Network).

Les réseaux grande distance ont un diamètre supérieur à 50 km et desservent des


régions ou des pays entiers. Les réseaux téléphoniques commutés et les réseaux à
commutation de paquets en sont des exemples. Historiquement, les réseaux grande
distance sont apparus en premier. Ils répondent individuellement à un type de
service. Leurs composants appartiennent à plusieurs organisations : les exploitants
de réseaux publics (ou assimilés) et/ou les exploitants privés reconnus possèdent les
moyens de transmission, tandis que les utilisateurs privés possèdent les équipements
terminaux. La facturation des communications se fait généralement au volume de
données transmises ou à la durée. Pour maintenir la connectivité sur une grande
distance, ils utilisent une structure maillée composée de nœuds de commutation
reliés entre eux par des liaisons. Les débits offerts sont généralement inférieurs au
Mbit/s. Ces inconvénients disparaîtront avec le déploiement du futur réseau large
bande.

Les réseaux locaux ne desservent qu'une seule organisation située dans un


domaine privé dont la couverture géographique n'excède guère quelques kilomètres.
Privés et gérés par l'organisation propriétaire, ils échappent donc aux contraintes
d'un éventuel monopole des télécommunications comme à celles de la facturation.
Apparus après les réseaux grande distance, ils ont profité de l'expérience acquise et
du cadre particulier de la transmission sur de très courtes distances. Ainsi, le débit
binaire nominal est au minimum de quelques Mbit/s et les équipements réseau se
limitent au contrôleur de communication et au support de transmission. Les
technologies utilisées permettent des taux d'erreurs beaucoup plus faibles que dans le
cas des réseaux grande distance et une diffusion aisée de l'information.

Les réseaux métropolitains [Klessig 86] se situent, en termes d'étendue, à mi-


chemin entre les réseaux locaux et les réseaux grande distance : ils desservent une
zone de la taille d'une ville, de diamètre supérieur à 5 km mais inférieur à 50 km.
L'objectif initialement visé est l'interconnexion de réseaux locaux ; pour cette
raison, les débits supportés sont souvent de l'ordre de la centaine de Mbit/s. Les
équipements réseau peuvent appartenir à plusieurs organisations, privées
(interconnexion d'un campus) et/ou publiques (s'ils traversent des voies publiques).
Les réseaux métropolitains utilisent des technologies voisines de celles des réseaux
locaux. Ils utilisent néanmoins de façon quasi systématique de la fibre optique pour
augmenter les distances de transmission tout en maintenant un débit élevé. De plus,
la fibre permet des taux d'erreurs encore plus faibles que ceux présentés par les
réseaux locaux.
Architecture en couches et normalisation 7

Le tableau 1.1 indique le type de réseau utilisé en fonction de la distance et de la


localisation des processeurs ou des machines.

distance entre les localisation des


type de réseau
processeurs processeurs

0,1 m un circuit imprimé machine à flot de données

1 m un ordinateur multiprocesseur

10 m une salle réseau local

100 m un immeuble réseau local

1 km un campus réseau métropolitain

10 km une ville réseau métropolitain

100 km une région réseau grande distance

1 0 0 0 km un continent réseau grande distance

réseau grande distance


1 0 0 0 0 km la planète
satellite et câbles sous-marins

Tableau 1.1. Distances et types de réseaux

1.2.2. Applications

1 . 2 . 2 . 1 . Applications des réseaux grande distance

Au départ, les premiers réseaux avaient pour but de permettre la communication


entre personnes grâce au télégraphe, au téléphone et à la télédiffusion. Avec le
développement de l'informatique, le besoin de communication entre les ordinateurs
s'est fait sentir. Quel était l'intérêt de machines capables de traiter des millions
d'informations mais de manière isolée, sans possibilité de recoupements ou de
partage avec d'autres applications ? Il est d'autre part rapidement apparu que la saisie
de données est l'opération la plus coûteuse d'un traitement informatique. Elle a donc
été déportée au plus près de sa source : on parle de télésaisie. Par exemple, une
agence bancaire saisit les opérations de ses clients qui sont traitées par les serveurs
de la caisse régionale évitant ainsi le remplissage de formulaires saisis de nouveau
dans le site central. La télésaisie s'est enrichie pour devenir un traitement à part
entière avec l'interrogation à distance d'une base de données et la mise à jour de cette
base. Le client de la banque a-t-il suffisamment d'argent sur son compte ? Oui : le
compte est immédiatement débité du montant de son retrait. Le temps de réponse est
primordial dans ce type d'application.

Le transfert de fichiers ou de grandes masses d'information est aussi une


application classique des réseaux de télécommunication. Il n'a pas de caractère temps
réel mais permet de traiter ultérieurement les données transférées ou encore de les
sauvegarder sur un autre site. On privilégie ici la fiabilité du transfert.
8 Architecture des réseaux haut débit

La communication entre utilisateurs d'un système informatique s'est développée


sous forme de messagerie électronique rendant le même service qu'un courrier postal
avec la rapidité en plus.

1.2.2.2. Applications des réseaux locaux

Les réseaux locaux sont nés des besoins de communication au sein d'une
organisation (entreprise, administration, université, etc.) [Schatt 87]. Pour en
comprendre l'utilité, il suffit d'imaginer le cas d'une seule imprimante disponible
pour l'ensemble des ordinateurs d'un même service. La solution "réseau local"
s'impose car il est impensable que chacun établisse une liaison physique de son
ordinateur à l'imprimante ; de même, il serait aberrant de faire passer le document à
imprimer dans un réseau public pour le faire arriver à l'imprimante qui se trouve à
proximité. L'un des bénéfices majeurs offerts par le réseau local est le partage de
ressources onéreuses (imprimantes, disques, accès aux réseaux grande distance, etc.).
Le partage et l'échange d'informations entre systèmes est une raison supplémentaire
d'interconnecter des équipements informatiques via un réseau local. En effet, un
utilisateur travaille rarement seul et coupé de l'extérieur. Il a besoin de communiquer
avec le reste de son environnement (messagerie, forum, etc.) : le réseau local offre
un moyen de communication électronique entre les différents utilisateurs. Il peut
avoir besoin, à un moment donné, d'accéder à de l'information située en divers
endroits, tout comme plusieurs utilisateurs peuvent avoir besoin d'accéder au même
fichier : le réseau local offre un accès partagé à l'information.

En environnement industriel, le réseau local constitue également un élément clé


[Lepage 8 9 ] . Il y est surtout utilisé pour interconnecter divers équipements de
contrôle et de mesure (capteurs, automates programmables industriels, robots,
consoles de zone, etc.). Contrairement aux environnements bureautiques, l'exigence
temps réel est forte, dans la mesure où les commandes et les mesures doivent être
transmises dans un temps borné.

1.2.2.3. Applications des réseaux métropolitains

Un réseau métropolitain peut rendre les mêmes fonctionnalités qu'un réseau


local. Par ailleurs, étant donné sa bande passante élevée et sa couverture
géographique étendue, il peut être utilisé pour rendre d'autres types de services. Ses
principales applications sont ainsi l'interconnexion de réseaux locaux, l'intégration
des applications de voix et données et les communications multimédias.

Le réseau métropolitain peut interconnecter des réseaux locaux distants situés


dans une aire métropolitaine, c'est-à-dire dans une aire dont le diamètre n'excède pas
la centaine de kilomètres.

La large bande passante du réseau métropolitain et les fonctionnalités des


protocoles mis en œuvre dans son architecture permettent de supporter aussi bien des
applications classiques (données interactives, par exemple) que des applications
sensibles au temps (voix ou vidéo, par exemple). De ce fait, le réseau métropolitain
Architecture en couches et normalisation 9

peut interconnecter des réseaux locaux voix/données au réseau numérique à


intégration de services (RNIS) ou des PABX entre eux.
Pour ce qui est des applications multimédias — réputées pour être gourmandes
en bande passante —, le RNIS intègre la voix, les données et les images, mais les
débits offerts sont limités à 1,544 ou 2,048 Mbit/s. Le RNIS large bande (RNIS-
LB) opère à des débits de 34, 155 ou 622 Mbit/s. Le réseau métropolitain est l'un
des premiers réseaux à fournir l'infrastructure sous-jacente pour les services et
réseaux large bande.

1.2.3. Caractéristiques fonctionnelles

Les réseaux de communication informatiques sont parfois désignés sous le terme


de systèmes téléinformatiques. Un système téléinformatique est composé de
plusieurs ordinateurs reliés entre eux par des moyens de télécommunication de
manière à recueillir, traiter et diffuser l'information en temps réel et à tout endroit
[Nussbaumer 87]. Les moyens de télécommunication, nous l'avons vu, sont de
plusieurs types — réseau local, grande distance ou métropolitain — mais tous
possèdent les mêmes caractéristiques fonctionnelles.

Lorsqu'une organisation se dote d'un système téléinformatique, ce dernier est


généralement supposé satisfaire un certain nombre d'objectifs, tels que :
- améliorer la productivité du personnel par une automatisation de tâches
routinières ;
- faciliter la manipulation de l'information, la rendre plus accessible et éviter sa
duplication ;
- améliorer les interactions au sein du personnel, par le partage de
l'information ;
- réduire et contrôler les coûts, grâce à l'utilisation de méthodes de
communication efficaces.
Tous ces objectifs, joints à leur définition de base, permettent de définir les
caractéristiques fonctionnelles des réseaux. Lesquels sont principalement :
- le partage et la diffusion aisés d'informations qui sont les objectifs
primordiaux des réseaux ;
- la capacité, qui se définit par le débit que peut fournir le réseau de
télécommunication et le type d'information qu'il est capable de transporter (données,
voix, images, voix téléphonique, etc.) ;
- la connectivité, qui mesure la facilité de raccordement physique des
équipements au support de transmission ;
- le coût qui est fonction des l'infrastructure déployée, des communications de
l'utilisateur (distance, durée et volume) et de la politique commerciale des
opérateurs ;
10 Architecture des réseaux haut débit

- la configuration, qui représente l'aptitude du réseau local à s'adapter aux


besoins de son propriétaire (déplacements, ajouts, retraits d'équipements) ;
- la fiabilité, qui d é p e n d à la fois de l ' e n v i r o n n e m e n t d'utilisation, des
équipements utilisés et des protocoles mis en œuvre ;
- la c o n f i d e n t i a l i t é d e s d o n n é e s transportées, assurée par des protocoles
adéquats ;
- la disponibilité qui mesure l'adéquation entre les équipements ou ressources
mis en œuvre par rapport à leur utilisation ;
- l ' i n t e r c o n n e x i o n de réseaux de types différents : l o c a l / g r a n d e distance,
public/privé, de pays différents.

A titre anecdotique, le tableau 1.2 donne la liste des objectifs ayant guidé la
c o n c e p t i o n du réseau local Ethernet [ D E C 8 0 ] . Il est intéressant de constater que
certains ont été aujourd'hui largement dépassés (débits, distances) et que d'autres
n'ont j a m a i s été atteints (stabilité à forte charge) !

simplicité utilisation des mécanismes les plus


simples possibles
coût modéré du raccordement au réseau
compatibilité de toutes les implantations pour ce qui
est du transfert de données au niveau
liaison

flexibilité de l'adressage pour supporter les envois de trame en


point-à-point ou en point-à-multipoint
(multicast et broadcast)
équitabilité de l'accès pour tous les équipements
débit 10 Mbit/s
délai de transfert aussi faible que possible
stabilité sous forte charge
maintenance, reconfiguration facilitées
architecture en couches pour séparer les aspects physiques des
aspects logiques
distances géographiques couvrant au plus 1 km
nombre d'équipements supportés plusieurs centaines

T a b l e a u 1.2. Objectifs initiaux d'Ethernet

1.3. Les o r g a n i s m e s de normalisation

Les télécommunications constituent un secteur industriel dont l'ampleur ne cesse


de croître, tant au niveau du revenu généré annuellement qu'au niveau de son impact
Architecture en couches et normalisation 1 1

sur tous les aspects de la vie professionnelle et domestique. La normalisation dans


les télécommunications est devenue très vite indispensable, si l'on veut pouvoir :

- faciliter l'interconnexion et la communication entre différents utilisateurs ;


- faciliter la portabilité d'équipements fonctionnellement — dans des
applications différentes — et géographiquement — dans des régions différentes. Là,
le fournisseur est directement concerné puisque la taille du marché augmentant, elle
donne lieu à un coût moindre du fait des économies d'échelle ;
- assurer qu'un équipement d'un vendeur A soit à même d'interopérer avec un
équipement d'un vendeur B. Cela profite directement à l'utilisateur, qui peut ainsi
mettre en place des environnements compétitifs.

Le chemin vers la production de normes globales n'est pas aisé. Aujourd'hui


encore, il est difficile de se retrouver dans la multitude d'organismes dits "de
normalisation". Aux côtés des organismes officiels, sont apparues des organisations
de nature diverse qui concourent, plus ou moins directement à ce processus de
normalisation, avec la production de "standards", de "recommandations", de "profils",
etc. Afin de gérer au mieux les conflits d'intérêt qui se dessinent en toile de fond, les
organismes de normalisation officiels se concentrent essentiellement sur la
production de normes de base. Ces normes autorisent la mise en œuvre de variantes
et d'alternatives dont le choix relève de l'implémenteur. Ceci a pour conséquence que
la réalisation, bien que conforme à la norme, n'est pas assurée de pouvoir
interfonctionner avec une réalisation issue d'un autre choix. Le problème de
l'interfonctionnement est généralement traité par des organismes régionaux, bien
souvent des groupements d'utilisateurs ou de constructeurs. Ceux-ci adaptent les
normes internationales de base selon des besoins propres et produisent des profils
fonctionnels qui ne contiennent qu'un sous-ensemble limité des variantes autorisées.
En aval de ce processus, d'autres organisations réalisent des tests de conformité et
d'interfonctionnement visant à garantir qu'un équipement est conforme à un profil
fonctionnel et qu'il est capable d'interfonctionnement (figure 1.1).

o r g a n i s m e s d e
n o r m e s
n o r m a l i s a t i o n
d e b a s e
i n t e r n a t i o n a u x

g r o u p e m e n t s o r g a n i s m e s d e
d'utilisateurs profils n o r m a l i s a t i o n
f o n c t i o n n e l s r é g i o n a u x

g r o u p e m e n t s
d e c o n s t r u c t e u r s
o r g a n i s a t i o n s tests de
de test c o n f o r m i t é

F i g u r e 1.1. Normalisation et acteurs


12 Architecture des réseaux haut débit

Le processus de normalisation n'est pas sans poser de problèmes. Pour ne citer


que le principal, l'élaboration d'une norme demande un certain temps — pour ne pas
dire un temps certain (plusieurs années), nécessaire pour obtenir un consensus des
différents acteurs. Des techniques plus efficaces peuvent apparaître entre temps. Des
standards de facto, reposant sur des solutions propriétaires, voient alors le jour bien
avant les normes internationales, d'où une coexistence qui n'est pas toujours
harmonieuse pour l'utilisateur.

1.3.1. Les organismes officiels internationaux

Ils sont au nombre de trois et sont :

- l'ISO (International Organization for Standardization),


- le CEI (Comité Electrotechnique International),
- l'UIT (Union Internationale des Télécommunications).

1.3.1.1. L'ISO

L'ISO, fondée en 1946, est chargée de la normalisation dans un éventail très large
de secteurs, mais ne couvrant pas l'électronique, l'électricité et l'électrotechnique qui
sont prises en charge par le CEI. Elle regroupe des organisations nationales non
gouvernementales comme l'AFNOR (Association Française de Normalisation) pour
la France et l'ANSI (American National Standards Institute) pour les Etats-Unis,
ainsi que des organisations jouant le rôle d'observateurs et ne prenant pas part aux
votes (telle l'ECMA (European Computer Manufacturer Association), association
regroupant des constructeurs informatiques — à l'origine européens, mais
aujourd'hui pratiquement tous les grands internationaux).

L'ISO est organisée de façon hiérarchique avec des comités techniques (TC —
Technical Committee) au premier niveau, découpés en sous-comités (SC — Sub
Committee), eux-mêmes découpés en groupes de travail (WG — Working Group).
Ainsi les normes afférentes au modèle de référence OSI et à ses couches sont issues
du comité technique TC 97 travaillant sur les systèmes d'information. Un comité
technique joint, le JTC 1, a été créé en 1987 sur la technologie de l'information avec
le CEI, étant donné le recouvrement des centres d'intérêt. Les normes issues du
JTC 1 portent donc le double-logo de l'ISO et du CEI, y compris celles relatives au
modèle OSI. A noter que le membre représentatif d'un pays au CEI est souvent le
même qu'à l'ISO.

Le processus d'élaboration d'une norme est long (cinq ans, en moyenne) et passe
par plusieurs phases (WD — Working Document, CD — Committee Draft, DIS —
Draft International Standard) avant d'aboutir à un document définitif (IS —
International Standard).
Architecture en couches et normalisation 13

1.3.1.2. LUIT
L'UIT est l'organisation internationale intergouvernementale compétente en
télécommunications. Elle fonctionne sous l'égide de l'Organisation des Nations
Unies et ses membres représentent les Etats. Pour le secteur qui nous intéresse,
l'UIT-T (Telecommunication Standardization Sector, ex-CCITT) rassemble les
administrations des télécommunications des pays membres de I'UIT et des
exploitants (publics ou privés) mandatés, auxquels viennent d'ajouter des
organisations régionales ou sectorielles. Le représentant français est France Télécom,
le représentant américain le Département d'Etat.

L'UIT-T est organisée en groupes de travail (SG — Study Group). Lors


d'assemblées plénières qui se tiennent tous les quatre ans, les différents groupes
soumettent les "questions" posées par leurs membres. Ces questions sont évaluées et
affectées aux groupes adéquats. Cela permet de planifier le travail de normalisation
pour les quatre années à venir. Chaque groupe prépare ensuite une proposition d'avis,
qui sera votée lors de la prochaine assemblée. Cette procédure d'adoption a donné lieu
à la parution, tous les quatre ans, d'un Livre (jaune en 1980, rouge en 1984, bleu en
1988) regroupant tous les avis promulgués. A ce cycle de quatre ans est venue
s'ajouter en 1988 une seconde procédure d'adoption, plus souple et plus rapide, qui
permet d'adopter un avis avec 70% de votes favorables et sans devoir attendre
l'assemblée plénière.

1.3.2. Les organismes européens

A l'échelle européenne, plusieurs organisations traitent de la normalisation dans


les domaines du traitement et de la technologie de l'information. On peut citer :
- le CEN (Comité Européen de Normalisation) regroupe l'ensemble des pays
européens (CEE et AELE). De même nature que l'ISO, il prépare et harmonise la
normalisation au niveau européen pour tous les domaines techniques, exceptés ceux
de l'électrotechnique et des télécommunications ;
- le CENELEC (Comité Européen de Normalisation Electrotechnique) traite,
comme le CEI, d'électrotechnique, mais au niveau européen. Il rassemble les
comités nationaux d'électrotechnique des pays de la CEE et de l'AELE. Le C E N et le
CENELEC se sont rapprochés dans le secteur de la technologie de l'information pour
former le CEN/CENELEC (de la même façon que l'on a le JTC 1 de l'ISO/CEI) ;
- la CEPT (Conférence Européenne des Postes et des Télécommunications)
regroupe les administrations des télécommunications des pays européens. Elle établit
les normes européennes et unifie les positions de ses membres auprès de l'UIT-T ;
- l'ETSI (European Telecommunications Standard Institute) est un organisme
permanent, créé à l'initiative des administrations de télécommunications
européennes. Il est principalement chargé de produire des spécifications techniques
pour les réseaux publics.
14 Architecture des réseaux haut débit

1.3.3. Autres organismes

Outre les organisations officielles — internationales, continentales ou


nationales —, il convient de mentionner les organismes ou associations qui jouent
un rôle également important en matière de normalisation, tout aussi bien en amont
du processus de normalisation, en élaborant des spécifications qui sont susceptibles
de constituer des standards de facto, voire même d'être reprises par les organismes
officiels, qu'en aval, en promouvant les normes. Il est difficile d'en dresser une liste
complète, et nous nous limiterons donc à ne citer que les plus significatifs, pour ce
qui concerne le thème de l'ouvrage :

- l'IEEE (Institute of Electrical and Electronic Engineers) est une organisation


professionnelle, dont les membres (principalement américains et d'origine
industrielle aussi bien qu'académique) le sont à titre privé. C'est un forum d'échange
et de réflexion qui constitue également un organisme de proposition ayant élaboré
bon nombre de standards universellement utilisés : notamment, son comité 802 est
à l'origine de la plupart des normes aujourd'hui officielles quant aux réseaux locaux
et étendus ;

- l'EIA (Electronic Industries Association) est une association professionnelle


américaine qui se distingue par l'élaboration de standards dans le secteur du matériel
et des composants électriques et électroniques (la célèbre "prise" RS-232C !) ;

- ATM Forum est une organisation internationale, créée en 1991 et regroupant


des opérateurs de télécommunications, des constructeurs, des fournisseurs, ainsi que
des utilisateurs. Son but est d'accélérer le déploiement des services et produits ATM,
en essayant d'obtenir rapidement une convergence des spécifications d'inter-
opérabilité ;

- M A P (Manufacturing Automation Protocol) et TOP (Technical and Office


Protocol) sont des groupements d'utilisateurs, le premier initié par General Motors,
le second par Boeing, qui ont pour principal objectif d'établir des profils fonctionnels
respectivement en environnement industriel et en environnement bureautique ;

- SPAG (Standards Promotion and Application Group) est un groupement de


constructeurs européens ayant pour vocation de produire des profils fonctionnels
autour du modèle OSI qui seront observés par les membres du groupe ;

- COS (Corporation for Open Systems) s'est monté en 1986. C'est un


groupement de constructeurs et d'utilisateurs du monde entier qui s'est donné pour
objectif de promouvoir les produits multi-vendeurs conformes aux normes
internationales relatives à l'OSI et au RNIS. Une activité importante est dédiée au
développement d'un ensemble cohérent de méthodes de test et de certification.
Architecture en couches et normalisation 15

1.4. Le modèle de référence OSI

Le modèle de référence pour l'interconnexion des systèmes ouverts, plus connu


sous le nom de modèle OSI (Open Systems Interconnection), est le fruit de travaux
entrepris par l'ISO pour répondre au problème de l'interconnexion de systèmes
hétérogènes. Les architectures de communication existantes jusqu'alors étaient
principalement des architectures dites "constructeur", qui, si elles permettaient à des
systèmes informatiques provenant d'un même constructeur de communiquer entre
eux, pouvaient créer des barrières entre systèmes de familles différentes. Dans la
terminologie OSI, un système est dit ouvert lorsqu'il permet la communication entre
équipements et logiciels de types différents, du moment que ces derniers sont
conformes à l'ensemble des normes définies dans le cadre du modèle OSI.

L'objectif de la normalisation OSI est de permettre la constitution de réseaux


téléinformatiques dans lesquels peut venir s'intégrer tout système informatique
capable d'effectuer des traitements et/ou des transferts d'information. Les normes
OSI, contrôlées à un niveau international, ont pour rôle de simplifier
l'interconnexion des systèmes tout en préservant l'indépendance des échanges
d'information vis-à-vis du milieu de transmission utilisé. Ainsi, elles se limitent à
spécifier les fonctions à réaliser par chaque système et les protocoles à mettre en
œuvre entre les systèmes à interconnecter. Elles n'imposent en aucune façon une
technologie particulière ou un mode de réalisation donné pour ces mêmes fonctions
et protocoles : seul est spécifié le comportement des systèmes lors d'échanges avec
d'autres systèmes ouverts, et non pas leur fonctionnement interne (langages de
programmation, systèmes d'exploitation, interfaces d'application, interfaces
utilisateur, etc.).
Le modèle OSI définit l'architecture en sept couches conjointement adoptée par
l'ISO et le CCITT en 1983. Cette décomposition en sept couches résulte d'un
compromis : une première contrainte était d'éviter la prolifération de couches, une
seconde était de limiter les fonctions à réaliser dans une couche aux fonctions
possédant le même niveau d'abstraction ou s'appliquant à un même contexte. Cette
structuration en couches a donc l'avantage non seulement de simplifier la
compréhension globale de l'architecture de communication, mais également de
simplifier sa mise en œuvre : les interfaces entre couches ont été choisies aussi
simples que possible et de façon à ce qu'une modification portant sur une fonction
ou un protocole d'une couche donnée n'affecte pas les autres couches. Les sept
couches du modèle OSI sont les suivantes :

- couche 1 : physique,
- couche 2 : liaison de données,
- couche 3 : réseau,
- couche 4 : transport,
- couche 5 : session,
- couche 6 : présentation,
- couche 7 : application.
16 Architecture des réseaux haut débit

Les normes OSI se séparent en deux familles, d'une part les normes d'usage
général qui servent à fixer une terminologie, à définir des concepts de base et à
établir des règles d'utilisation de ces concepts et d'autre part, les normes spécifiques
qui s'adressent à des points précis définis dans les normes d'usage général.

Le modèle de référence OSI de base est décrit dans la recommandation X.200 du


CCITT et dans la norme internationale IS 7498, composée de quatre parties
auxquelles sont adjoints deux addendums :

- IS 7498-1 : Modèle de référence OSI [IS 7498-1]


- IS 7498-2 : Architecture de sécurité [IS 7498-2]
- IS 7498-3 : Dénomination et adressage [IS 7498-3]
- IS 7498-4 : Gestion OSI — Administration de réseau [IS 7498-4]
- Ad 1 : Transmission de données en mode sans connexion
- Ad 2 : Transmission de données en multipoint (diffusion)

Nous présentons dans la suite les concepts généraux de la structuration en


couches et donnons par la même occasion quelques définitions propres à la
terminologie OSI. Nous présenterons ensuite la notion de service, avant de donner
une description des sept couches.

1.4.1. Concepts de base de la structuration en couches

Les concepts de la structuration en couches du modèle OSI peuvent être classés


en deux catégories : ceux portant sur l'organisation des communications et ceux
portant sur le transfert de données.

1.4.1.1. Organisation des communications avec le modèle OSI

Chaque couche de rang N, dite couche (N), utilise les services (N-l) de la couche
immédiatement inférieure de rang N - l , pour offrir les services (N) à la couche
immédiatement supérieure de rang N+l (sauf, bien entendu, les couches d'extrémité).
La couche ( N - l ) est dite fournisseur des senices ( N - l ) alors que la couche (N) est
dite utilisateur des senices (N-l) (figure 1.2).

couche (N+1 ) utilisateur du


?
s e r v i e (N)
fournisseur du
couche(N)
utilisateur du -
service ( N - l )
couche (N-1 ) fournisseur du *

Figure 1.2. Modèle de service en couches


Architecture en couches et normalisation 17

Une couche (N) peut comporter plusieurs sous-systèmes (N), chacun d'eux
pouvant à son tour se décomposer en plusieurs entités (N) (figure 1.3). Les entités
représentent les éléments actifs du sous-système ; ce sont elles qui réalisent les
fonctions du sous-système.

système ouvert système ouvert système ouvert


A B Ç
couche de plus
haut niveau

sous-système sous-système sous-système


couche (N+1 ) (N+1) de C
(N+1) de A (N+1) de B
sous-système sous-système sous-système
couche (N)
(N) de A (N) de B (N) de C
sous-système sous-système sous-système
couche(N-l) (N-l) de C
(N-l) de A (N-l) de B

couche de plus
bas niveau
support physique d'interconnexion

Figure 1.3. Systèmes ouverts, sous-systèmes et couches

Le service (N) est assuré par les entités (N), dites entités homologues. Les
entités (N) communiquent et coopèrent entre elles selon un protocole (N) au travers
de l'ensemble des services fournis par la couche (N-l). Les entités accèdent aux
services ( N - l ) à partir de points d'accès à des services ( N - l ) appelés ( N - l ) S A P
(Service Access Point) (figure 1.4). Chaque point d'accès (N) est identifié par une
adresse de (N)SAP. Chaque (N)SAP ne peut être servi que par une seule entité (N) et
ne peut servir qu'une seule entité (N+1). De façon dissymétrique, une entité (N) peut
servir plusieurs (N)SAP et peut être servie à partir de plusieurs (N-l)SAP.

(N)SAP
service (N)

couche(N) entité (N) entité (N)

service (N-l) •

(N-l)SAP

Figure 1.4. Modèle général d'une couche


I8 Architecture des réseaux haut débit

Il est important de bien faire la distinction entre service et protocole. La notion


de service correspond à une vision "verticale" du modèle OSI. dans le sens où elle
met en jeu deux couches adjacentes, la couche inférieure fournissant le service et la
couche supérieure l'utilisant. La notion de protocole, par contre, correspond à une
vision "horizontale" du modèle de référence, puisqu'elle ne s'applique qu'aux
échanges entre entités de même couche. Il y a découplage entre service et protocole.

Les entités ( N + l ) peuvent communiquer en établissant une connexion (N),


terminée par des points d'extrémité de connexion (N) appelés (N)CEP (Connection
End-Point) et qui sont situés chacun dans un (N)SAP. L'échange d'information entre
ces entités ( N + l ) est régi par un protocole ( N + l ) et la communication est dite en
mode connecté (figure 1.5).

protocole (N+l)
couche (N+l) entité (N)+l entité (N+l)

service (N)
- (N)SAP N(CEP)'
couche (N)
connexion (N)

Figure 1.5. Communication en mode connecté

Le modèle OSI a été initialement conçu pour le mode connecté, c'est-à-dire pour
que la communication entre entités de même rang se fasse sous la forme de
connexion logique. Selon l'approche du mode connecté, pour que deux usagers
distants puissent communiquer, il faut commencer par établir une connexion au
niveau le plus bas, le niveau physique, puis établir une connexion au niveau
suivant, le niveau liaison de données, et ainsi de suite jusqu'au niveau le plus haut,
le niveau application. Cette phase d'établissement de connexion correspond en fait à
une négociation tripartite entre deux entités (N+l ) et le service (N), ce dernier devant
établir la connexion (N) souhaitée par les deux premières. Elle sert à fixer un certain
nombre de caractéristiques de la communication, telles que l'identité des
correspondants, le protocole (N) à suivre, les services optionnels à utiliser, ou
encore les paramètres de qualité de service. Après cette phase d'établissement, la
connexion entre dans la phase de transfert de données pendant laquelle est échangée
l'information utile entre les deux entités (N+l). Toute cette information, structurée
en blocs de données d'après le protocole (N), suit la route logique qui a été établie
lors de la phase d'établissement. La communication s'achève ensuite par une phase
de libération de connexion. Cette phase correspond à une libération des ressources
mobilisées par la communication et à une rupture du dialogue entre les deux entités
(N+l ) communicantes.
Architecture en couches et normalisation 19

Ce mode de communication comportant les trois phases d'établissement de


connexion, de transfert de données et de libération de connexion possède plusieurs
-
avantages : citons, entre autres, le fait d'offrir une négociation entre les trois acteurs
au moment de l'établissement de la connexion ou également le fait d'assurer un
transfert de données fiable, dans la mesure où ce mode offre la possibilité de réguler
le flux d'information échangé, de détecter les blocs de données manquants, en double
ou déséquencés. Ce mode permet, de plus, de minimiser le volume d'information de
contrôle à échanger pendant la phase de transfert de données. Si le mode connecté
possède des avantages, il n'en présente pas moins des inconvénients. Tout d'abord, il
nécessite la mise en œuvre de procédures très lourdes pour l'établissement et la
libération des connexions, ainsi que la présence simultanée des correspondants. Il ne
s'avère donc pas adéquat pour le transfert de messages isolés dans le temps. Par
ailleurs, la notion de connexion, très bien adaptée aux communications en bipoint
avec deux entités communicantes, convient mal dès qu'il s'agit de faire communiquer
plus de deux entités.

C'est à la suite de ces considérations que l'ISO a entrepris des travaux sur les
communications en mode non connecté ou datagramme. Ils ont abouti à l'additif 1 de
la norme ISO 7498. Le modèle OSI en mode non connecté reprend les mêmes
principes que le modèle de base en mode connecté, pour ce qui est de la structuration
en couches et des fonctions de base. La principale différence repose sur le fait que les
blocs de données, au lieu d'être véhiculés dépendamment les uns des autres pendant la
phase de transfert, sont acheminés de façon tout à fait indépendante. Ils doivent par
conséquent comporter toute l'information de contrôle nécessaire à leur acheminement
vers leur destinataire. Par ailleurs, en mode non connecté, il n'y a ni établissement,
ni libération de connexion. Cela implique qu'une communication entre entités (N+l)
ne nécessite pas au préalable l'existence d'une communication entre entités (N). De
même, il n'y a pas de négociation tripartite entre les deux entités (N+l) et le service
(N). A la place, nous trouvons un type de négociation plus simple, bilatéral,
puisque ne mettant en cause que deux intervenants : une entité (N+l) et le service
(N), ou deux entités (N+l). En mode non connecté, les blocs de données étant
acheminés indépendamment les uns des autres, il n'est pas toujours possible de
fiabiliser le transfert de données ; en particulier, les pertes, les duplications et le
déséquencement des blocs de données sont possibles.

Pour terminer sur les deux modes de communication, on notera qu'une


architecture mixte est souvent utilisée, dans laquelle par exemple un service non
connecté (N) est construit au-dessus d'un service connecté (N-l), ou l'inverse.

1.4.1.2. Transfert de données

Nous avons vu que deux entités (N) peuvent communiquer en utilisant le service
(N-l) offert par la couche inférieure, l'échange de données étant régi par le protocole
(N). Ce dernier spécifie l'ensemble des règles et des formats utilisés pour la
communication.
20 Architecture des réseaux haut débit

Le service (N-1 ) assure le transfert d'unités de données de service (N-1 ), appelées


(N-l)SDU (Service Data Unit), entre des (N-l)SAP. Les entités (N) peuvent alors
s'échanger des unités de données de protocole (N), appelées (N)PDU (Protocol Data
Unit), en les plaçant dans des (N-l)SDU. Chaque (N)PDU contient, d'une part, les
informations de contrôle du protocole (N), appelées (N)PCI (Protocol Control
Information), et d'autre part, les données utilisateur (N)UD (User Data) provenant des
(N)SDU soumises par les entités (N+l) (figure 1.6).

service (N) (N)SDU (N)SDU

couche(N) N(PCI) (N)UD N(PCI) N)UD

(N)PDU (N)PDU

service (N-l) (N-l)SDU (N-l)SDU

F i g u r e 1.6. Les unités de données

Le schéma de la figure 1.6 est un schéma simplifié dans la mesure où les


relations entre (N)SDU et (N)PDU ou entre (N)PDU et (N-l)SDU ne sont pas
forcément biunivoques. Plus précisément, plusieurs fonctions sont possibles sur les
unités de données (figure 1.7). La fonction de segmentation permet d'engendrer
plusieurs (N)PDU à partir d'une même (N)SDU ; en réception, la fonction inverse
de réassemblage permettra de reconstituer la (N)SDU d'origine à partir des différentes
(N)PDU reçues. La fonction de groupage permet le groupage de plusieurs (N)SDU
dans une même (N)PDU ; la fonction inverse de dégroupage permettra de récupérer
les différentes (N)SDU véhiculées dans une même (N)PDU. Enfin, la fonction de
concaténation permet de concaténer plusieurs (N)PDU dans une même (N-l)SDU ;
la fonction inverse de séparation permettra de séparer les différentes (N)PDU
contenues dans une même (N-1 )SDU.

(N)SD (Nvsn (N)SD (N)PDU (N)PDU


(N)PCI (N)PC1 M)PCI r

i 1

(N)PDU (N)PDU (N)PDU (N-l)SDU


Segmentation Groupage Concaténation

F i g u r e 1.7. Opérations sur les unités de données


Architecture e n c o u c h e s et n o r m a l i s a t i o n 21

1.4.2. Définition des services

Nous avons pu voir à plusieurs reprises qu'à l'intérieur du modèle OSI,


l'interaction entre couches adjacentes est représentée sous forme de services (N)
offerts par la couche (N) à la couche (N+l) à partir des (N)SAP. De façon plus
précise, l'ISO et le CCITT ont développé, respectivement dans la norme 8509 [IS
8509] et dans la recommandation X.210, un modèle conceptuel dans lequel
fournisseurs et utilisateurs de services interagissent au moyen de primitives de quatre
types, les requêtes, les indications, les réponses et les confirmations.

Une primitive de requête est envoyée par un utilisateur des services (N) à un
fournisseur des services (N) pour lui demander l'activation d'un service particulier
(par exemple, l'établissement d'une connexion (N)). Une primitive d'indication est
envoyée par un fournisseur des services (N) à un utilisateur des services (N) pour lui
signaler l'activation d'un service particulier, de sa propre initiative ou suite à une
demande faite à l'autre extrémité de la communication. Une primitive de réponse est
envoyée par un utilisateur des services (N) à un fournisseur des services (N), sur un
(N)SAP donné, en réponse à une primitive d'indication reçue sur ce même (N)SAP.
Une primitive de confirmation est envoyée par un fournisseur des services (N) à un
utilisateur des services (N), sur un (N)SAP donné, pour lui signaler que le service
dont il avait demandé l'activation par une primitive de demande sur ce même SAP a
été exécuté.
Les services évoqués peuvent être confirmés ou non confirmés. Dans le premier
cas, l'utilisateur ayant demandé l'activation du service reçoit une confirmation de la
part du fournisseur sollicité après l'exécution du service. Cela fait intervenir les
quatre types de primitives, selon l'enchaînement présenté en figure 1.8. Un exemple
est donné par le service d'établissement de connexion. Les services non confirmés ne
font intervenir qu'une primitive de requête et la primitive d'indication correspondante,
un exemple possible étant le service de libération de connexion.

utilisateur fournisseur utilisateur


du service (N) du service (N) du service (N)

requête

indication

^réponse

confirmation

Figure 1.8. Séquence des échanges de primitives de service confirmé


22 Architecture des réseaux haut débit

Par convention, le nom d'une primitive est donné par l'initiale de la couche
concernée, suivie du nom de service demandé, lui-même suivi du type de la
primitive. Il est suivi par la liste des paramètres passés à la primitive. A titre
d'exemples, la primitive de demande de connexion de transport est de la forme
T_CONNECT.request (adresse de l'entité appelante, adresse de l'entité appelée,
option données exprès, qualité de service, données utilisateur du service de
transport) ; la primitive d'indication de données du niveau réseau est notée
N_DATA.indication (données utilisateur du service de réseau).

1.4.3. Description des couches

Nous décrivons ici chacune des sept couches constituant le modèle de référence
OSI (figure 1.9), en rappelant les principales fonctions réalisées.

système protocoles système


d'extrémité entre homologues d'extrémité
^APDU ^
application application
PPDU
IJ 6 présentation présentation
^SPDU
session session
^TPDU
transport transport
système relais
^ NPDU^
•S l 3 réseau réseau reseau
§1
u
^ LPDU
liaison de données
2 liaison de données liaison de données
bil
V 1 physique physique ^ • physique
support de transmission

Figure 1.9. Les sept couches du modèle OSI

1.4.3.1. La couche physique

La couche physique assure l'interface entre les systèmes et le support physique de


transmission ainsi que le transport de l'information sous forme de bits sur le
support, l'unité de données étant ici le bit. A ce titre, elle est responsable de
l'interface électromécanique au support de communication. Elle fournit donc les
moyens mécaniques, électriques, fonctionnels et procéduraux nécessaires à
l'activation, au maintien et à la désactivation des connexions physiques entre entités
de liaison de données. Elle peut correspondre, par exemple, à un circuit physique
constitué d'une ligne et de deux modems, et définit dans ce cas les caractéristiques des
jonctions modem-terminal, les caractéristiques des connecteurs, ou encore le
protocole d'établissement, de maintien et de libération du circuit.
Architecture en couches et normalisation 23

1.4.3.2. La couche liaison de données

La couche liaison de données fournit les moyens nécessaires à l'établissement, au


maintien et à la libération des connexions de liaison de données, ainsi qu'au transfert
de LSDU (SDU de niveau liaison) entre entités de réseau. Elle est responsable de la
transmission, de la structuration en trames (LPDU) et du contrôle d'erreur sur une
seule ligne de communication. Elle utilise pour ce faire les services offerts par la
couche physique. Les circuits disponibles au niveau physique présentant
généralement des taux d'erreurs inacceptables, la couche liaison est chargée de
détecter et de corriger ces erreurs, dans la mesure du possible, afin de présenter à la
couche supérieure un taux d'erreurs résiduelles acceptable. Par ailleurs, elle réalise
une fonction de contrôle de flux afin d'éviter tout engorgement des systèmes
d'extrémité de connexions.

1.4.3.3. La couche réseau

La couche réseau fournit les moyens d'établir, de maintenir et de libérer des


connexions de réseau entre entités de transport, ainsi que les moyens d'échanger des
NSDU (SDU de niveau réseau) entre ces entités. Elle est responsable du transfert de
données à travers le réseau de communication, indépendamment du médium et de la
topologie du ou des sous-réseaux empruntés. Ses trois principales fonctionnalités
sont l'adressage, le contrôle de congestion et le routage des paquets (NPDU). Elle
assure alors à la couche transport son indépendance vis-à-vis des problèmes de
routage et de relais dans le ou les sous-réseaux utilisés et lui masque la façon dont
les ressources des couches inférieures sont utilisées pour obtenir des connexions de
réseau.

1.4.3.4. La couche transport

La fonction essentielle de la couche transport est d'assurer un transport de


l'information de bout en bout, fiable, transparent, efficace, selon un niveau de qualité
demandé par l'utilisateur. C'est la première couche à ne concerner que la source et la
destination finale de l'information véhiculée. Elle doit décharger les couches
supérieures de tout détail concernant les moyens mis en œuvre pour la transmission
de données. La couche transport assure en particulier des fonctions de reprise sur
erreur, de contrôle de flux, de multiplexage ou d'éclatement de connexions pour
rendre le transport fiable et efficace.

1.4.3.5. La couche session

La couche session fournit aux entités de présentation coopérantes les moyens


nécessaires pour organiser et synchroniser leur dialogue et gérer leur échange de
données. A cet effet, elle fournit les services nécessaires à l'établissement, au
maintien et à la libération de connexions de session entre entités de présentation et à
la prise en charge des interactions ordonnées d'échange de données. De plus, les
24 Architecture des réseaux haut débit

services de la session assurent la délimitation, le groupement logique et la


synchronisation des données.

1.4.3.6. La couche présentation

La couche présentation se charge de la représentation des informations que les


entités d'application se communiquent ou auxquelles elles se réfèrent au cours de leur
communication. Elle ne traite que de la syntaxe des données, et non pas de leur
sémantique, et comporte des fonctions qui permettent de traduire les données
échangées. Cette couche peut également assurer des fonctions de compression de
données et de chiffrement.

1.4.3.7. La couche application

En tant que couche la plus haute du modèle OSI, la couche application fournit à
l'usager l'ensemble des services qui lui permettent d'accéder à l'environnement OSI et
donc d'exploiter le système téléinformatique. Elle est responsable de la gestion des
c o m m u n i c a t i o n s entre applications. Parmi les services offerts, citons
l'authentification et l'identification des partenaires de la communication, les facilités
de synchronisation des partenaires, le choix des règles du dialogue. De plus, cette
couche comporte des fonctions de gestion des systèmes.

1.5. L'architecture D o D et s e s protocoles

Cette architecture [Cerf 83] est antérieure au modèle OSI qui a puisé dans nombre
de ses concepts. Elle utilise un modèle hiérarchique, avec quatre couches
relativement indépendantes. La figure 1.10 montre la correspondance entre les
niveaux DoD et les couches OSI.
X-Window

niveau 3
SNMP
SMTP

R-cmd
Telnet

5-7
RPC
FTP

processus

niveau 2 TCP UDP 4


hôte-à-hôte
niveau 1 1CMP EGP IGP
IP 3
internet ARP RARP|
niveau 0 FDDI X.25 autres
Ethernet Arpanet 1-2
accès réseau
Architecture du DoD Architecture OSI

F i g u r e 1 . 1 0 . Architecture DoD et ses relations avec le modèle OSI

Le niveau d'accès au réseau est le niveau le plus bas. L'idée sous-jacente ici est
qu'en isolant les fonctions propres à l'accès au sous-réseau, le restant du logiciel de
Architecture en couches et normalisation 25

communication n'a pas à tenir compte de ses caractéristiques spécifiques. Ce niveau


va donc traiter les échanges de données entre un hôte et le réseau auquel il est
attaché. En particulier, il se charge du routage des données entre deux équipements
rattachés au même réseau. Pour cela, l'émetteur sur ce sous-réseau doit fournir
l'adresse physique du destinataire sur ce même sous-réseau et certaines informations
quant aux services devant être fournis par le sous-réseau (comme la priorité, par
exemple). Le protocole utilisé dépend du type de réseau utilisé : il peut s'agir de
X.25 pour un réseau à commutation de paquets, de X.21 pour un réseau à
commutation de circuits, d'un protocole 802.X pour un réseau local, etc.

Le niveau suivant, appelé niveau Internet, est chargé de l'interconnexion de


réseaux et permet donc l'échange de données entre deux machines raccordées à des
réseaux distincts. Le protocole d'interconnexion est utilisé pour le routage à travers
plusieurs sous-réseaux. Par conséquent, il est implanté non seulement dans les
systèmes d'extrémité mais également dans les passerelles (routeurs). Outre le
protocole Internet [RFC 791], il comprend entre autres les protocoles suivants :

- ICMP (Internet Control Message Protocol) [RFC 792] : alors que IP est
utilisé pour un service de datagramme dans un environnement d'interconnexion de
réseaux, ICMP permet à une passerelle ou à un hôte destinataire de communiquer de
façon occasionnelle avec un hôte source, notamment afin de lui signaler une erreur
ou un problème dans le traitement d'un datagramme (destination impossible à
atteindre, durée de vie maximum atteinte, congestion, etc.). ICMP utilise IP comme
s'il était un protocole de niveau supérieur, mais constitue en fait une partie
intégrante de IP et, en tant que telle, doit être implanté dans chaque module IP. Le
rôle des messages de contrôle d'ICMP est de fournir un retour d'information sur les
problèmes de l'environnement de communication et non pas de fiabiliser IP : il n'y
a donc aucune garantie sur la remise des datagrammes ;

- IGP (Interior Gateway Protocol) [RFC 1371] et EGP (Exterior Gateway


Protocol) [RFC 904] : ce sont les protocoles utilisés pour l'échange d'information
d'accessibilité et de routage entre passerelles ;

- ARP (Address Resolution Protocol) [RFC 826] et RARP (Reverse Address


Resolution Protocol) [RFC 903] : le protocole ARP permet d'obtenir l'adresse
physique d'une station à partir de son adresse IP. Inversement, RARP permet à une
station d'obtenir son adresse IP à partir de son adresse physique.

Le protocole IP, dans sa version courante — version 4 —, utilise un format


d'adressage organisé sur 32 bits. Du fait de l'expansion mondiale du réseau Internet,
l'espace d'adressage est à l'heure actuelle une ressource extrêmement critique et des
travaux sont en cours pour spécifier la nouvelle mouture du protocole, IPv6. Cette
dernière utilise des adresses codées sur 128 bits, un en-tête simplifié afin d'augmenter
les performances des routeurs et offre de nouvelles fonctionnalités, telles
l'identification des flots de données ou l'authentification et la protection des données.
26 Architecture des réseaux haut débit

Le niveau hôte-à-hôte est très similaire à la couche transport OSI. Son rôle est de
transférer les données de bout en bout entre les processus utilisateurs. Les deux
protocoles les plus usuels sont TCP (Transmission Control Protocol) [RFC 7 9 3 J et
UDP (User Datagram Protocol) [RFC 7 6 8 ] . Le premier est orienté connexion et
comporte tous les mécanismes nécessaires à un transfert de données fiable, sans
erreur, sans perte et sans duplication. Du point de vue de ses fonctionnalités, il est
considéré comme équivalent au protocole de transport ISO classe 4 , même si des
différences mineures existent. De même que TCP, UDP est bâti au-dessus d'IP.
Protocole en mode non connecté, il utilise les services d'IP pour transporter des
datagrammes d'un système d'extrémité à un autre. Il n'utilise aucun mécanisme de
contrôle, le seul service supplémentaire qu'il offre par rapport à IP étant
l'identification de processus à l'intérieur des hôtes (IP identifie des hôtes).

Le dernier niveau est le niveau processus. Il contient des protocoles support pour
différentes applications. Nous y trouvons des protocoles tels que FTP (File Transfer
Protocol) [RFC 9 5 9 ] pour le transfert de fichiers, SMTP (Simple Mail Transfer
Protocol) [RFC 8 2 1 ] pour la messagerie électronique, Telnet [RFC 8 5 4 ] pour
l'émulation de terminal virtuel, SNMP (Simple Network Management Protocol)
[RFC 1 1 5 7 ] pour la gestion de réseaux.

1.6. L'administration de réseaux

1.6.1. Définition

L'administration de réseaux recouvre l'ensemble des activités de surveillance,


d'analyse, de contrôle et de planification du fonctionnement des ressources d'un
réseau de télécommunications dans le but de fournir des services de
télécommunications à des usagers avec un certain niveau de qualité. Cette première
définition amène son flot de questions. Que doit-on surveiller ? Qui doit surveiller ?
Comment surveiller ? Quelles sont les connaissances nécessaires au diagnostic ?
Comment contrôler ?

Cette définition montre principalement que les problèmes ne sont pas de même
nature. En effet, les approches méthodologiques à appliquer pour répondre à
"Quoi ?", "Qui ?" et "Comment ?" diffèrent. Afin de répondre à ces questions
portant sur des aspects différents, l'administration de réseaux peut être étudiée à
travers des modèles ou points de vue (figure 1 . 1 1 ) . Ils permettent de classer les
questions ou problèmes similaires par catégorie et de traiter chaque groupe
indépendamment. Pour répondre à la question "Quoi ?", il est nécessaire de
considérer le modèle informationnel qui fournit une représentation de réseaux par les
données ; un modèle fonctionnel est aussi requis puisqu'il définit les fonctions à
appliquer aux données afin d'atteindre les objectifs de gestion. Les entités de gestion
distribuées à travers le réseau de gestion répondent à la question "Qui ?". Elles
définissent principalement un modèle organisationnel. Enfin, les modèles de
Architecture en couches et normalisation 27

communication et architectural permettent de répondre à la question "Comment ?",


pour le premier, en permettant l'échange d'information de gestion entre les
gestionnaires et les agents et pour le second, en décrivant la structure générale des
entités de gestion qui réalisent les activités de gestion ainsi que leurs interfaces.

administration de réseaux

Quoi gérer ? Qui gère ? Comment gérer ?

modèles modèles
modèle
informationnel e organisationnel de communication et
v fonctionnel V^^rchitectural^^^^

F i g u r e 1 . 1 1 . Les modèles de l'administration de réseaux

Nous présentons dans la suite les travaux menés dans les organismes de
normalisation et les modèles couvert par chacun d'eux.

1.6.2. Les normes d'administration

1.6.2.1. L'ISO

La première norme de gestion OSI à avoir vu le jour est le cadre architectural


pour la gestion OSI, présenté dans la partie 4 du modèle de référence pour
l'interconnexion de systèmes ouverts [IS 7498-4]. Une deuxième norme définit les
concepts architecturaux relatifs à la gestion système [IS 10040]. Celle-ci constitue le
modèle de la gestion système dans un environnement de communication ouvert et de
traitements distribués.

Les normes de la gestion système peuvent être regroupées dans trois sous-
ensembles :

- l'ensemble des normes spécifiant les procédures pour réaliser les activités
d'administration (normes 10164 sur les fonctions de gestion spécifiques) [IS 10164-1
à 7];

- l'ensemble des normes spécifiant les objets de gestion concernés par


l'administration et les opérations qui sont réalisables sur chacun d'eux (normes
10165 sur la structure des informations de gestion) [IS 10165-1] [IS 10165-2] [IS
10165-4] ;

- l'ensemble des normes spécifiant les services et les protocoles de la couche


application pour échanger des informations en relation avec les procédures de gestion
([IS 9595] et [IS 9596] définissant respectivement CMIS et CMIP ainsi que les
28 Architecture des réseaux haut débit

parties des normes 10164 sur les fonctions de gestion spécifiant SMAE (System
Management Application Entity) et S M A P (System Management Application
Process)).

La figure 1.12 récapitule l'ensemble des normes d'administration afférentes au


modèle de référence OSI.

Modèle de Référence OSI


ISO/IEC IS 7498

Cadre Architectural pour la Gestion OSI


ISO/IEC IS 7498-4

Aperçu général de la Gestion des Systèmes


ISO/IEC IS 10040

Structure de l'Information de Gestion


CM1S/CMIP
Modélisation de Définition de Guides pour la
ISO/1EC IS 9595
l'Information de l'Information de Définition de l'Info, de
ISO/IEC IS 9596
Gestion Gestion Gestion
ISO/IEC IS 10165-1 ISO/IEC IS 10165-2 ISO/IEC 10165-4

Fonctions de Gestion de Systèmes


ISO/IEC IS 10164-1 .. 19

Figure 1.12. Les normes d'administration OSI

Le modèle fonctionnel de la gestion OSI

Afin d'exercer son activité, l'administration de réseaux s'appuie sur un certain


nombre de fonctions, qui peuvent être regroupées en cinq aires fonctionnelles
(SMFA — Specific Management Functional Area). Ce sont :
- la gestion de la -configuration,
- la gestion des fautes,
- la gestion des performances,
- la gestion de la sécurité,
- la gestion de la comptabilité.

Par gestion de la configuration, il faut entendre les procédures permettant de


contrôler, d'identifier, de collecter et de fournir des données sur les objets de gestion,
c'est-à-dire les entités du réseau gérées dans un système de communication OSI.
L'objectif ici est de veiller au fonctionnement continu des services d'interconnexion.
Pour cela, des outils fonctionnels s'imposent qui permettent de :
- démarrer, initialiser et arrêter le système,
Architecture en couches et normalisation 29

- positionner les paramètres du système ouvert,


- recueillir des informations sur l'état d'un système et agir sur ces états.
- modifier la configuration du système ouvert,
- associer des noms aux objets gérés.

La gestion des fautes recouvre l'ensemble des fonctionnalités qui permettent la


détection, l'isolation et la correction des anomalies dans un système. Les fautes
proviennent des pannes de composants matériels ou logiciels et se manifestent par
des événements particuliers (erreurs) dans le fonctionnement du système. Elles
peuvent être passagères ou persistantes. Lorsqu'une erreur est détectée, une analyse
des informations de l'état du système doit permettre de la localiser et de diagnostiquer
sa cause. Une action "curative" doit s'ensuivre, pour permettre la reprise du
fonctionnement du système. La gestion des fautes est une fonction d'administration
vitale pour assurer aux utilisateurs un niveau de service satisfaisant du système.
La gestion des performances doit s'accompagner de fonctionnalités permettant de
mesurer le niveau de performance du système (évaluation quantitative du
comportement des objets administrés et de l'efficacité de la communication). Ici, des
fonctions spécifiques doivent permettre le relevé de données statistiques comme de
tenir un journal de bord journalier, dans un but de planification et d'analyse.
La gestion de la sécurité est la collection des fonctions relatives à
l'administration de réseaux et requises pour supporter les politiques de sécurité dans
un réseau de télécommunication. Les fonctions essentielles de la gestion de sécurité
comprennent la distribution des informations relatives à la sécurité, telles que les
clés de cryptage et les privilèges d'accès, et le compte rendu des événements relatifs à
la sécurité, tels que les intrusions dans un réseau, les tentatives d'accès à des
informations ou à des services privilégiés par des processus non autorisés ou encore
l'accès à des données et à des services protégés.
La gestion de la comptabilité réalise un tri et des statistiques sur les informations
de configuration. Elle n'a, de façon instantanée, aucune influence sur le maintien de
la qualité de service et l'obtention de bonnes performances. Elle permet en particulier
d'établir des relevés de taxation et de surveiller l'évolution de l'utilisation du réseau et
prévoir les développements nécessaires.

Le modèle architectural

Le modèle architectural décrit la structure générale des entités accomplissant la


tâche de gestion, leurs interfaces et les mécanismes de communication utilisés.

Le modèle informationnel

En association avec la normalisation des services et protocoles pour l'échange


d'information entre deux systèmes, il est nécessaire d'obtenir la compréhension des
objets, attributs et opérations associés à cette information. C'est pourquoi, un
modèle d'information, le SMI (Structure of Managed Information), a été établi par
l'ISO, définissant la structure logique et la sémantique de l'information de gestion.
30 Architecture des réseaux haut débit

Le SMI est fondé sur le concept d'objets stockés dans la MIB (Management
Information Base).
Les principes de conception du SMI sont basés sur une approche orientée objet.
Les objets présentant mêmes structure et comportement sont regroupés dans des
classes d'objet. Une classe possède une partie statique (structure) et une partie
dynamique (comportement). Des relations d'héritage peuvent exister entre classes.
Cela conduit donc à étendre les caractéristiques des superclasses. Une classe d'objet
peut aussi bien hériter des caractéristiques (attributs et méthodes) d'une superclasse
(héritage simple), que de plusieurs superclasses en même temps (héritage multiple).
Un autre concept, Yallomorphisme, permet à un objet de gestion de se comporter de
la même façon qu'un objet appartenant à une classe d'objet supérieure. Cela signifie
que toutes les caractéristiques (structure et comportement) ajoutées pendant la phase
de dérivation seront supprimées par l'objet de gestion ou par le système de gestion.
Cette option a pour but de prendre en compte différentes phases de développement
d'équipements ou différentes versions de logiciels.

Afin de manipuler les objets, deux types d'opérations ont été définies, les
premières applicables aux attributs de l'objet, les secondes à l'objet lui-même. Les
opérations sur les objets incluent la création et la suppression. De plus, une
opération "action" est possible. Elle est utilisée afin de définir des opérations
arbitraires. La définition de ces actions et l'information nécessaire afin de les exécuter
font partie de la spécification de la classe d'objet correspondante. Ce mécanisme est
prévu afin de réaliser des activités de gestion complexes. Les opérations sur les
attributs sont émises aux objets de gestion (MO — Managed Objects), afin de lire
ou de modifier les valeurs d'attributs. Selon leur structure, les attributs peuvent être
soit des attributs simples, soit des attributs multi-valués, soit des attributs de
groupe. Un attribut simple, possède une valeur unique, alors qu'un attribut multi-
valué est composé d'un ensemble de valeurs qui peuvent être manipulées
individuellement. Un attribut de groupe se réfère à un groupe d'attributs à l'intérieur
d'une classe d'objet. Une opération sur un groupe d'attributs est réalisée sur chaque
attribut de manière individuelle dans ce groupe. Différentes opérations sont
possibles, en fonction du type d'attribut à manipuler :

- get attribute value,


- set-to-default value,
- replace attribute value,
- add member,
- remove member.
Les deux dernières opérations ne sont applicables qu'à des attributs multi-valués,
alors que les deux premières sont les seules à pouvoir s'appliquer sur des attributs de
groupe.
Afin d'indiquer les objets sur lesquels appliquer une opération, un mécanisme de
filtre peut être utilisé. Il sélectionne les MO souhaités à partir d'un ensemble de
MO, en vérifiant la présence de certaines valeurs d'attributs. L'opération est
Architecture en couches et normalisation 31

appliquée si l'évaluation a réussi. Les M O sont structurés selon une relation de


contenance. Une structure hiérarchique, appelée arbre de contenance, est déduite à
partir de cette relation entre objets. Les MO sont nommés sur la base de cet arbre :
un objet doit être nommé de façon à être identifié et référencé sans ambiguïté. Le
nommage se fait en fonction de la position de ce MO dans l'arbre de contenance,
grâce à une séquence de noms appelés noms de distinction relative (RDN — Relative
Distinguished Name).
Les informations d'administration sont décrites à l'aide de formulaires appelés
"Templates" décrivant chacun un type d'information. Des formulaires ont été définis
pour les types suivants : classe, package, paramètre, lien de nommage, attribut,
groupe d'attributs, comportement, action et notification.

Le modèle de communication
Le service c o m m u n d'information d'administration C M I S ( C o m m o n
Management Information Service) permet la communication d'informations
d'administration. Ces services sont :

- les services d'opérations :


• opérations sur les attributs : M-GET qui permet à un gestionnaire de
demander à un agent la lecture d'informations concernant ses objets administrés ;
M-SET qui permet à un gestionnaire de demander à un agent la mise à jour
d'informations concernant ses objets administrés ;
• opérations sur les objets : M-CREATE qui permet à un gestionnaire de
demander à un agent la création d'un objet administré ; M-DELETE qui permet à
un gestionnaire de demander à un agent la destruction d'un de ses objets
administrés ; M-ACTION qui permet à un gestionnaire de demander à un
système l'exécution d'une action spécifique plus complexe qu'une consultation,
création ou suppression ;
- le service de notification, M-EVENT-REPORT qui permet à un agent de
signaler à un gestionnaire l'occurrence d'un événement concernant ses objets
administrés.

Le protocole commun d'administration C M I P (Common Management


Information Protocol) fournit le support nécessaire à la communication entre entités
d'applications utilisatrices du service CMIS. La syntaxe utilisée pour spécifier les
éléments de protocole CMIP, ainsi que les informations qu'il transporte, est la
syntaxe abstraite normalisée ASN.l (Abstract Syntax Notation One) [IS 8824].

Le modèle organisationnel
La norme ISO 10040 fait reposer son modèle organisationnel sur les deux
concepts importants que sont le manager (gestionnaire). Les correspondants
administratifs (manager/ agent) sont représentés par des processus qui échangent des
32 Architecture des réseaux haut débit

informations selon un protocole. L'échange entre agent (administré) et manager


(administrateur) se fait soit par un mécanisme de demande du manager et réponse de
l'agent, soit par un compte rendu spontané de l'administré à l'administrateur lors d'un
événement. Chaque agent gère sa propre MIB sur laquelle le manager peut travailler
Nous obtenons ainsi le modèle de la gestion système de la figure 1.13.

système ouvert 1 système ouvert 2


-manager
- a g e n t
-SMAP- opérations
!>MAr-
SMAE SMAE
notifications
(CMIS) (CMIS)

objets ressources à
administrés administrer

SMAP - System Management Application Protocol


S M A E - System Management Application Entity

F i g u r e 1.13. Le modèle de gestion système

1.6.2.2. L'U1T-T

L'UIT-T (ex-CCITT) a élaboré le concept de Réseau de Gestion des


Télécommunications ( R G T ou T M N pour Telecommunications Management
Network) IM.3010] pour définir une architecture fonctionnelle d'un système de
gestion de réseaux souple, complet et évolutif. La notion de RGT est purement
fonctionnelle. Elle ne préjuge en rien de la taille et des particularités des
implantations physiques la réalisant. Il s'agit d'une architecture modulaire constituée
de groupements fonctionnels dédiés à la réalisation de tâches particulières relatives au
transport et au traitement des informations de gestion. Aussi, des points de référence
ont été définis qui constituent des points de passage d'informations entre des
groupements fonctionnels. L'UIT-T traite aussi de l'aspect informationnel avec la
définition d'un modèle informationnel générique [M.3100].

1.6.2.3. Le monde TCP/IP

Le nombre important de réseaux TCP/IP ainsi que le besoin crucial de leur


gestion a entraîné le développement d'un premier protocole de gestion, le protocole
SGMP (Simple Gateway Monitoring Protocol) [RFC 1028], conçu à l'origine pour
gérer les passerelles Internet des réseaux grande distance. Le protocole actuel SNMP
(Simple Network Management Protocol) [RFC 1157] y trouve ses bases tout en
intégrant certains concepts de gestion développés à l'ISO. En fait, les standards
Architecture en couches et normalisation 33

SNMP, établis depuis 1990, sont axés autour de deux aspects, la définition des
protocoles d'échanges SNMP et la définition des informations d'administration des
MIB.

Le modèle de communication

SNMP définit essentiellement les protocoles permettant l'envoi de messages


d'administration entre des managers et des agents. Un agent est un logiciel opérant à
l'intérieur d'un équipement à gérer (terminal, serveur de terminaux, passerelle, pont,
routeur, unité centrale, etc.) alors qu'un manager est un logiciel résidant dans une
station de gestion de réseaux ayant la possibilité d'adresser des requêtes vers des
agents.
Le protocole S N M P fournit aux applications un ensemble très simple de
commandes, qui sont :
- GetRequest et GetNextRequest qui permettent à un manager de demander à un
agent la lecture des informations concernant ses objets administrés ;
- SetRequest qui permet à un manager de demander à un agent la mise à jour
d'informations concernant ses objets administrés ;
- GetResponse qui permet à un agent de renvoyer des informations à un manager
lui ayant adressé un GetRequest, un GetNextRequest ou un SetRequest ;
- Trap qui permet à un agent de signaler à un manager qu'une condition a été
détectée localement dans son équipement.

Chaque message SNMP, autre que les "traps", contient un identificateur de


requête, une liste de variables (nom et valeur), un champ pour les types d'erreur
(tooBig, noSuchName, badValue, readOnly, genErr) et un index d'erreur (indiquant le
numéro de la variable en erreur). A travers un message SNMP, on ne peut adresser
qu'une seule instance d'un objet spécifique. La répartition des rôles agent/manager
n'est pas dynamique comme dans le modèle OSI.
Une des principales faiblesses du protocole SNMP réside dans son manque de
sécurité. Cet aspect a été amélioré avec la seconde version du protocole, SNMPv2
[RFC 1441].

Le modèle informationnel

SNMP définit une collection d'objets "standards" à administrer à travers la


spécification des MIB-I [RFC 1158] et MIB-II [RFC 1213] et récemment de la
RMON MIB (Remote MONitoring MIB) [RFC 1271]. Les objets définis par
SNMP ont une structure particulièrement simple. En effet, la définition d'un objet
est limitée à un type simple ou à une table d'objets de types simples.
La MIB-I correspond au premier lot de définitions d'objets SNMP. Elle contient
une centaine d'objets, rangés par groupes fonctionnels au nombre de huit :
"System", "Interfaces", "Address translation", "Internet Protocol (IP)", "Internet
34 Architecture des réseaux haut débit

Control Message Protocol (ICMP)", "Transmission Control Protocol (TCP)", "User


Datagram Protocol (UDP)", "External Gateway Protocol (EGP)". Ces huit groupes
permettent de gérer uniquement un réseau TCP/IP.
Dernièrement, l'horizon des MIB-I et MIB-II s'est élargi avec l'introduction de la
RMON MIB, dans laquelle neuf nouveaux groupes ont été définis ("Statistics",
"History", "Alarms", "Hosts", "Host top N", "Traffic matrix", "Filters", "Packet
capture" et "Events") afin d'apporter de nouvelles fonctionnalités (statistiques,
historiques, détection de seuils d'alarme, gestion des hosts, estimation de flux,
filtrage de capture de paquets, gestion des notifications d'événements, etc.). Cela
confère un rôle plus important à l'agent qui exécute des tâches plus complètes afin de
décharger le manager.

Nous pouvons ainsi constater que les normes OSI de l'ISO couvrent les différents
aspects importants de l'administration. De son côté, l'UIT-T s'intéresse
principalement aux aspects fonctionnel et informationnel. Quant à SNMP, il permet
de répondre rapidement aux premières préoccupations de l'administrateur et traite
donc en priorité les modèles informationnel et de communication.
Architecture en couches et normalisation 35

Exercices

Exercice 1.1

A quels types de besoins essaie de répondre le modèle OSI ?

Exercice 1.2
Dans le modèle OSI, est-ce les TPDU qui encapsulent les paquets, ou le
contraire ?
Exercice 1.3
Dans quel(s) type(s) de trame achemine-t-on des paquets d'acquittement ? Même
question pour les paquets d'établissement de connexion ?

Exercice 1.4
Rappelez les avantages et inconvénients respectifs du mode de communication
orienté connexion et du mode sans connexion.

Exercice 1.5
Quel(s) problème(s) peut-on rencontrer lorsque, dans une architecture mixte, on
superpose deux couches, l'une en mode connecté, l'autre en mode non connecté ?

Exercice 1.6
Dans quelle(s) couche(s) du modèle OSI un contrôle d'erreur est-il mis en place ?
Peut-il y avoir redondance ?

Exercice 1.7

1. Que faut-il définir en premier, le protocole (N) ou le service (N) ?

2. Deux protocoles différents peuvent-ils rendre le même service ?

3 . Un protocole en mode connecté peut-il rendre un service en mode non connecté ?


Si non, pourquoi ? Si oui, comment ?

Exercice 1.8
Un utilisateur du service de session situé sur une machine A souhaite établir une
connexion avec un autre utilisateur situé sur une machine B. On suppose que toutes
les couches de communication opèrent en mode connecté, qu'aucune connexion n'est
établie à quelque niveau que ce soit et qu'aucun incident ne se produit.
36 Architecture des réseaux haut débit

1 . Complétez le schéma suivant en indiquant les primitives de service invoquées sur


la machine A.

interface 6/5 interface 5/4 interface 4/3 interface 3/2


S CONNECT.
request

S. CONNECT.
confirmation

2 . D o n n e z les primitives invoquées sur la machine B.


Chapitre 2

Caractéristiques générales
des réseaux locaux
et des réseaux métropolitains

2.1. Introduction

Comme nous l'avons défini au chapitre précédent, un réseau local est un réseau
de taille réduite couvrant un domaine privé. Cette évidence a eu en fait énormément
de conséquences sur les protocoles de communication d'un tel réseau. Un câble d'une
longueur d'un kilomètre présente un taux d'erreurs moindre qu'un câble similaire
d'une longueur de 100 km : cela permet d'utiliser des protocoles sans reprise sur
erreur et donc plus simples et plus rapides. De plus, le temps de propagation très
court permet d'envisager des techniques reposant sur la détection d'un signal en ligne
ou sur un tour de rôle entre les stations. Enfin, sur des distances courtes, le signal
peut être transféré à un débit plus important que sur de longues distances. Le
développement des réseaux d'entreprise a donc conduit à développer de nouveaux
protocoles adaptés à leurs besoins propres. De manière générale, on caractérise un
réseau local par :

- son support de transmission,


- sa topologie,
- sa méthode de contrôle d'accès au support.

Il est important de définir précisément ces caractéristiques car chacune est


étroitement dépendante des autres. Prenons l'exemple d'un réseau qui utilise la fibre
optique, la topologie en bus multipoint et l'accès aléatoire y sont impossibles ; si
38 Architecture des réseaux haut débit

l'on veut tout de même un accès aléatoire, la topologie sera alors l'étoile que l'on
qualifie souvent de "bus logique". Après avoir défini le cadre de développement des
réseaux locaux et métropolitains, nous décrivons dans ce chapitre les principaux
supports utilisés, les différentes topologies employées ainsi que les méthodes d'accès
qui permettent de gérer le partage de la bande passante du réseau.

2.2. L'architecture IEEE

Le besoin de normalisation au niveau des réseaux locaux s'étant très vite fait
ressentir dès la fin des années 70, le comité 802 de l'IEEE a été formé afin d'élaborer
et de proposer des spécifications relatives à un réseau local standard. L'approche
adoptée par le comité pour son modèle architectural est une approche en couches,
conforme au modèle de référence OSI de l'ISO. Le but visé étant de produire un
standard permettant à des équipements informatiques interconnectés par un support
physique unique, d'échanger des trames d'information, le comité 802 s'est restreint à
l'étude des niveaux physique et liaison. Les standards produits correspondent ainsi à
une implementation particulière des couches 1 et 2 du modèle OSI. La figure 2.1
illustre les relations entre le modèle OSI et le modèle IEEE.

application
présentation
session
transport
réseau

liaison de donnée; contrôle de liaison logique (LLC)


contrôle d'accès au support (MAC)
physique physique
Modèle OSI Modèle IEEE

F i g u r e 2 . 1 . Modèle OSI et modèle IEEE

La couche physique est fonctionnellement la même que son équivalent dans le


modèle OSI et traite essentiellement de la transmission de bits entre deux
équipements informatiques. Sa particularité est qu'il est défini une couche physique
par technique d'accès au support.

La couche liaison de données est divisée en deux sous-couches :

- la sous-couche MAC (Medium Access Control) : à la différence d'un réseau


grande distance où les communications s'effectuent généralement sur des lignes point
à point, les stations d'un réseau local partagent un seul et unique support de
transmission, ce qui rend nécessaire un contrôle d'accès. La sous-couche MAC a
Caractéristiques des réseaux locaux et métropolitains 39

ainsi pour rôle d'assurer le partage du support entre tous les utilisateurs. Elle se situe
immédiatement au-dessus de la couche physique ;
- la sous-couche LLC (Logical Link Control) : sous-couche supérieure, elle a
pour rôle de gérer les communications — les liaisons logiques — entre stations.
Elle assure également l'interface avec les niveaux supérieurs.

Le comité 802 n'a en fait pas donné lieu à un standard unique, mais plutôt à une
série de standards visant à mieux couvrir l'ensemble des besoins. Plusieurs sous-
comités ont été créés, chacun traitant d'un sujet particulier pour lequel un standard
spécifique est élaboré. La figure 2.2 montre les relations entre ces différents
standards.

application
Architecture and Management

802.10 Security and Privacy

802.2 Logical Link Control


802.1 Overview

liaison
802.1 Bridging

802.10 Secure Data Exchange

MAC
:SMA/CE Token Token MAN IVD AnyLan Fast
Bus Rine Ethernet
802.3 802.6 802.9 802.12 802.14

PHY
802.4 802.5

802.7 Broadband T A G

802.8 Fiber Optic T A G

F i g u r e 2 . 2 . Les standards IEEE

Le groupe 802.1 a été chargé de définir le cadre général de l'architecture. Ses


travaux ont permis, dans le standard 802.1, la définition d'un glossaire, la définition
des interfaces avec les niveaux supérieurs (la couche réseau), la spécification des
outils de gestion de réseau et la spécification des règles d'interconnexion. Le service
MAC est spécifié dans la norme ISO IS 10039. Le document 802.2 définit la sous-
couche LLC, tant au niveau des services fournis que des protocoles à utiliser. Les
standards 802.3, 802.4, 802.5 et 802.6 définissent la sous-couche MAC et la couche
physique des réseaux C S M A / C D , Token Bus et Token Ring et du réseau
métropolitain DQDB respectivement. La méthode d'accès au support y est décrite et
des recommandations sont données pour sa mise en œuvre. L'activité des groupes
(TAG — Technical Advisory Groups), 802.7 et 802.8 sort du cadre initial des
réseaux locaux : ils ne spécifient pas de standards mais donnent des conseils
pratiques sur l'utilisation des supports large bande ou de la fibre optique. Les
groupes 802.9, 802.12 et 802.14 ont été créés récemment. Le premier traite de
40 Architecture des réseaux haut débit

l'intégration de la voix et des données (IVD — Integrated Voice/Data) et de l'accès au


réseau RNIS, les deux derniers travaillent sur de nouvelles spécifications d'Ethernet à
100 Mbit/s.

Comme dans le modèle OSI, les transferts de l'information entre couches


adjacentes d'un même système ou de même niveau sur des systèmes différents
s'effectuent à l'aide de primitives de service. Pour chaque standard, on trouvera des
spécifications relatives au service offert aux travers des primitives et des
spécifications relatives au protocole. Les travaux ayant abouti au sein des sous-
comités 802.x de l'IEEE ont été adoptés par l'ISO en tant que normes de la série
8802-x [IS 8802-2, 8802-3, 8802-4, 8802-6, 8802-7J.

2.3. S u p p o r t s de transmission

L'élément de base d'un réseau local est le support physique de transmission. On y


connecte les différents équipements terminaux au travers d'une prise qui est elle-
même reliée à un adaptateur (figure 2.3). Ce dernier est responsable de l'interface
équipement/réseau. A ce titre, il réalise le codage/décodage des signaux électriques.
De plus, il gère le mécanisme d'accès au support et le mécanisme de détection
d'erreurs de transmission.

support de i l prise
transmission
adaptateur transmission électrique

COmmunicateUT protocole d'accès

traitement source ou puits de données

Figure 2.3. Les composants d'accès

2.3.1. Caractéristiques

Chaque type de support possède ses propres caractéristiques, ces dernières


s'exprimant essentiellement en termes de :

- bande passante,
- technique de transmission,
- atténuation,
- poids et encombrement,
- fiabilité (insensibilité aux perturbations électromagnétiques, résistance méca-
nique et thermique, etc.),
Caractéristiques des réseaux locaux et métropolitains 41

- coût (du support et des équipements nécessaires au transfert, de l'installation, de


la maintenance, etc.).

La bande passante, également appelée largeur de bande, représente la gamme de


fréquences que peut transmettre le support. Si cette gamme correspond à l'intervalle
[f], f i ] , la bande passante est alors définie par W = ij - f]. La caractérisation d'un
support en bande passante est très importante, car d'elle dépend directement le débit
binaire maximum ou capacité de transmission maximale. La relation est donnée par
la formule de Shannon :
C = W . l o g ( 1 + S/B)
2

où C est exprimé en bit/s, W est exprimé en Hz. S/B représente le rapport signal sur
bruit, S étant la puissance moyenne du signal et B celle du bruit ; ce rapport n'étant
pas quantifié, on choisit généralement de l'exprimer en décibels (dB) sous la forme
10 . log jo (S/B). Notons toutefois que C constitue une borne supérieure théorique et
qu'il est extrêmement difficile, dans la pratique, d'approcher cette limite.

La technique de transmission détermine la manière dont le support de


transmission est employé pour véhiculer l'information. Les techniques les plus
couramment utilisées pour les réseaux locaux sont la transmission en bande de base
(numérique) et la transmission par modulation d'une porteuse (analogique).
A titre d'exemple, le codage bande de base le plus utilisé dans les réseaux locaux
est le codage Manchester ou biphase. Le codage consiste à représenter un bit de
valeur binaire " 1 " par une transition montante au milieu de l'intervalle tandis qu'un
bit de valeur binaire "0" est représenté par le symbole inverse (figure 2.4). L'intérêt
de ce codage est qu'il assure au moins une transition du signal par symbole,
permettant ainsi une bonne synchronisation de l'horloge du récepteur.

horloge

signal .
binaire

code
Manchester 0
-a -

Figure 2.4. Exemple de codage Manchester


42 Architecture des réseaux haut débit

Dans les transmissions numériques, les bits de données sont véhiculés sur le
support de transmission sous la forme d'impulsions discrètes électriques. Au fur et à
mesure que les impulsions de données progressent sur le médium, le signal perd de
sa puissance et les impulsions se déforment ; c'est le phénomène d'atténuation.
Pour pallier ce problème, on utilise alors des répéteurs dont le rôle est de recevoir les
signaux numériques et de les retransmettre avec leurs puissances et leurs formes
originales. Les répéteurs régénèrent totalement les signaux et contribuent, de ce fait,
à résoudre le problème des bruits.

La transmission analogique requiert une bande passante plus importante que la


transmission en bande de base. Le signal employé est de type analogique : il est
continu et non discret. En fait, il se propage sur le médium sous la forme d'onde
électromagnétique, caractérisée par son amplitude (niveau de voltage pour un support
électrique, intensité du faisceau lumineux pour une fibre optique), sa fréquence et sa
phase. Le signal de données est superposé à une porteuse en faisant varier (en
modulant) l'une de ses trois caractéristiques. De la même façon qu'en codage bande de
base, le signal électrique est atténué au cours de sa propagation sur le support,
rendant nécessaire l'utilisation d'amplificateurs, dont le rôle est de recevoir les
signaux et de les retransmettre à leur puissance originale. Malheureusement, si des
bruits sont venus altérer ces signaux, ils seront eux aussi amplifiés. C'est pour cette
raison qu'en transmission analogique, la qualité du signal tend à se dégrader avec la
distance, même en utilisant des amplificateurs.

Nous présentons dans la suite de ce paragraphe les différents supports de


transmission. Bien que la plupart des supports employés dans l'industrie des
télécommunications conventionnelles pourraient l'être dans le domaine des réseaux
locaux et métropolitains, trois supports sont principalement retenus : les paires
torsadées, le câble coaxial et la fibre optique. Même si l'utilisation systématique des
supports métalliques a pu être remise en cause avec l'apparition de la fibre optique et
les progrès faits en la matière, ils demeurent des supports d'avenir.

2.3.2. Les paires torsadées

Une paire torsadée est constituée de deux brins de cuivre, de diamètre inférieur au
millimètre, isolés et agencés en spirale pour limiter les phénomènes d'interférences
électromagnétiques parasites dues à l'environnement (diaphonie). Plusieurs paires
sont groupées dans une même gaine protectrice pour former généralement un câble
de 2, 4 ou 8 paires (4 le plus souvent).

De façon générale, ce type de support possède une bande passante de quelques


centaines de kHz permettant le transfert d'un signal modulé à un débit d'environ
10 kbit/s sur des distances de 5 à 6 km. Il est aussi possible de transférer
directement un signal numérique à des débits allant jusqu'à 100 Mbit/s sur des
distances courtes. 100 m au maximum. La connexion des équipements peut se fait
soit en point à point soit en multipoint.
Caractéristiques des réseaux locaux et métropolitains 43

L'une des raisons pour lesquelles ce type de support est largement utilisé
provient du fait que la plupart des installations téléphoniques l'utilisaient déjà
(réutilisation de l'existant). Par ailleurs, il existe de nombreux produits de réseaux
locaux reposant sur un câble téléphonique ordinaire et qui offrent des vitesses de
transmission pouvant aller jusqu'à 10 Mbit/s. Les signaux véhiculés peuvent être
numériques ou analogiques.

Il s'agit donc d'un support simple et économique. En fait, ses principaux


avantages résident, d'une part, dans un coût intéressant par rapport à celui du câble
coaxial ou de la fibre optique et, d'autre part, dans la possibilité d'utiliser le pré-
câblage téléphonique des immeubles diminuant ainsi de près de 40 % le coût total du
réseau. Ses principaux inconvénients résident dans sa sensibilité aux perturbations
électromagnétiques de l'environnement et dans une atténuation très importante du
signal, proportionnelle à sa longueur. Les paires torsadées sont de ce fait souvent
caractérisées par leur produit bande passante * longueur. Elles se distinguent entre
elles par leur impédance (100, 120 ou 150 ohms), ainsi que par leur nature :

- les paires non blindées (UTP — Unshielded Twisted Pair) ;

- les paires blindées (STP — Shielded Twisted Pair) : le blindage est réalisé par
une partie métallique, tresse ou ruban, visant à protéger le ou les conducteurs du
câble des perturbations extérieures et à limiter le rayonnement du câble. Il est
efficace contre les interférences à fréquences basses (inférieures à 10 MHz). Le câble
blindé doit être relié à la masse, mais il peut apparaître comme une source
d'interférences dès lors que les masses ne donnent pas en permanence les mêmes
mesures ;

- les paires écrantées : l'écrantage est réalisé par une fine feuille d'aluminium qui
s'enroule autour du câble, le dispositif permettant de protéger le câble des
interférences à fréquences hautes (supérieures à 1 MHz) tout en assurant une
protection relative aux effets de masse. L'écrantage peut être utilisé en conjonction
avec le blindage.

Depuis l'explosion des réseaux et en l'absence de normalisation, le câblage a


souvent été développé de façon anarchique à l'intérieur des bâtiments. Plusieurs
années ont été nécessaires aux associations américaines EIA et TIA (Electronic
Industries Association, Telephony Industries Association) avant d'obtenir en 1991
une première mouture de la norme EIA/TIA-568. Ce standard spécifie les minimums
requis pour les câblages de télécommunication dans des environnements
bureautiques. En particulier, elle définit la bande passante garantie et
l'affaiblissement maximum (en fonction de l'impédance) pour chaque catégorie de
câble de paires torsadées (tableau 2.1 ).
44 Architecture des réseaux haut débit

affaiblissement (dB/km)
catégorie fréquence (MHz)
100 ohms 120 ohms 150 ohms
UTP3 16 131 68 45
UTP4 20 102 73 50,5
UTP5 100 220 180 125

Tableau 2.1. Niveau de performances par catégorie de câble UTP

L'EIA/TIA recommande un connecteur de type RJ-45 (spécifié dans la norme


ISO 8877) pour les paires UTP. Cette prise comporte huit broches, une par lien
physique. L'utilisation des différentes broches est donnée dans le tableau 2.2 pour les
deux versions du standard EIA/TIA-568. A titre d'exemple, Token Ring utilise les
paires 1 et 3 alors qu'Ethernet 10BASET utilise les paires 2 et 4.

paires 568A paires 568B broche signal


paire 3 paire 2 1 émission donnée +
paire 3 paire 2 2 émission donnée -
paire 2 paire 3 3 réception donnée +
paire 1 paire 1 4 non utilisée
paire 1 paire 1 5 non utilisée
paire 2 paire 3 6 réception donnée -
paire 4 paire 4 7 non utilisée
paire 4 paire 4 8 non utilisée

Tableau 2.2. Utilisation des différentes paires dans EIA/TIA-568

2.3.3. Le câble coaxial

Un câble coaxial est constitué de deux conducteurs cylindriques de même axe


séparés par un isolant diélectrique. Différentes études ont permis de montrer que le
rapport des diamètres des deux conducteurs devait être de 3,6 : on trouvera donc des
câbles 2,6/9,5 ou 1,2/4,4 mm. Moins sensible que les paires torsadées aux
phénomènes électriques (atténuation, interférences et autres), le câble coaxial offre
des débits potentiels beaucoup plus importants (jusqu'à 150 Mbit/s). Mais là aussi,
comme pour les paires torsadées, la bande passante est fonction de la qualité des
conducteurs, de celle des isolants et de la longueur.

Il y a deux types de câble coaxial qui diffèrent par leur impédance caractéristique
qui correspond à la résistance du support. Le câble 50 ohms est généralement utilisé
pour transmettre des signaux numériques en bande de base alors que le câble
75 ohms permet la transmission en large bande de signaux numériques ou
analogiques. En particulier, le câble 75 ohms est utilisé depuis de nombreuses
années dans l'industrie de la télévision câblée d'où son nom de câble CATV.
Caractéristiques d e s r é s e a u x l o c a u x et m é t r o p o l i t a i n s 45

Le câble 50 ohms est encore appelé câble « bande de base » (baseband) par
opposition avec le câble CATV qui est dédié à des services large bande. Sa bande
passante est de quelques centaines de MHz permettant des débits très élevés
(plusieurs centaines de Mbit/s) en point à point et de l'ordre de 10 Mbit/s en
multipoint pour former un bus passif. Il existe sous deux diamètres différents
appelés "thick" (diamètres de 2,6/9,5) et "thin" (diamètres de 1,2/4,4). Le câble fin,
plus souple et plus maniable, est désormais le plus utilisé. Ces propriétés en ont
fait le support privilégié des réseaux locaux en bus. Le connecteur le plus répandu
pour le câble épais est la prise vampire : le câble est percé avec le connecteur de
manière à réaliser directement la connexion physique et électrique. La connexion sur
câble fin utilise une prise en T, (appelée ainsi car elle ressemble à la lettre "T"),
l'une des branches permettant de relier la station, les deux autres étant connectées au
deux segments de câble.

2.3.4. La fibre optique

La fibre optique peut être utilisée pour véhiculer des signaux de données sous
forme de signaux optiques modulés. Elle est constituée d'un cylindre de verre
extrêmement fin (le cœur) entouré d'une couche concentrique de verre (le revêtement)
et joue le rôle d'un guide d'ondes lumineuses pour des longueurs d'ondes dans la
gamme des infrarouges : 850 nm, 1 300 nm, 1 500 nm. L'index de réfraction du
revêtement étant plus faible que celui du cœur, le faisceau lumineux est réfléchi vers
le cœur dès qu'il heurte le revêtement. Une onde optique guidée par des réflexions
successives peut être représentée par des faisceaux de rayons que l'on appelle
"modes".

En pratique, on réunit souvent plusieurs fibres au sein d'une même gaine


protectrice pour former un câble. Outre la fibre elle-même, une liaison optique
comporte une source de lumière, diode électroluminescente, diode laser ou rayon
laser modulé qui convertit le signal électrique à transmettre en signal optique, et un
détecteur de lumière, photodiode ou phototransistor qui restitue le signal électrique à
partir du signal optique reçu (figure 2.5). La diffusion du signal sur la liaison
optique n'est pas bidirectionnelle. Il n'est d'autre part pas possible de connecter de
manière passive des prises sur une fibre, aussi la connexion est-elle forcément point
à point.

émetteur récepteur

•"t—
électrique décodeur codeur électrique

Figure 2 . 5 . Connexion à une fibre optique


46 Architecture des réseaux haut débit

Les fibres optiques offrent des bandes passantes très importantes, de l'ordre du
GHz pour un débit théorique de 2 Gbit/s (mais seulement 600 Mbit/s en pratique).
Leur atténuation est très faible et, les signaux véhiculés n'étant, bien entendu, pas
sujets aux interférences électriques, le taux d'erreurs est également très faible (de
9
l'ordre de 1 0 ) . De plus, le câble optique est plus léger et moins encombrant qu'un
support à base de cuivre. Néanmoins, le prix d'une liaison en fibre optique reste
élevé, en raison des coupleurs optoélectroniques d'une part, et de l'installation de la
fibre proprement dite d'autre part. Notons également que les raccordements restent
délicats à effectuer et qu'ils posent des problèmes d'affaiblissement.

Il existe plusieurs types de fibre optique :

- la fibre multimode à saut d'indice (diamètres : 50-125 um) dont la bande


passante est de 40 MHz sur 1 km,

- la fibre multimode à gradient d'indice (mêmes diamètres) dont la bande


passante atteint 500 MHz sur 1 km,

- la fibre monomode (diamètres : 2-8 p.m) qui est la plus fine. Elle ne transmet
qu'un seul mode et présente le plus grand potentiel de bande passante, de l'ordre de
100 GHz/km. Toutefois, sa mise en œuvre délicate et son coût élevé font qu'elle
n'est pratiquement employée que par les opérateurs de télécommunications pour les
très grandes distances.

Pour réaliser des liaisons multipoint, on relie de multiples fibres à un coupleur


particulier qui est qualifié d'étoile passive ou d'étoile active. Une étoile passive
permet de fusionner plusieurs fibres optiques : tout signal venant d'une fibre est
divisé et retransmis sur toutes les fibres de sortie. L'étoile active en diffère par le fait
que le coupleur central est un répéteur actif qui convertit donc le signal optique en
signal électrique pour le diffuser en sortie ; on évite ainsi les pertes induites par la
division du signal dans l'étoile passive.

2.3.5. Supports non guidés

Les supports présentés jusqu'ici ont la caractéristique commune d'être des


supports à guide physique. Des supports immatériels, dits « non guidés », peuvent
être également utilisés, notamment lorsque la pose d'un câble physique est source de
problèmes. Les transmissions par ondes radio-électromagnétiques, par rayons
infrarouges, par rayons lasers, par faisceaux hertziens ou par satellites évitent le
creusage de canalisations — et ce parfois à travers le domaine public —, l'utilisation
de répéteurs, — nécessaires dès lors que la longueur des câbles devient importante —
et tout risque de rupture accidentelle des câbles. Le principal inconvénient de ces
systèmes de transmission réside dans leur sensibilité aux conditions atmosphériques.
Caractéristiques des réseaux locaux et métropolitains 47

2.4. Topologies

La topologie d'un réseau décrit la configuration selon laquelle ses stations sont
interconnectées via le support de transmission. On distingue principalement trois
types de topologies : l'étoile, le bus et l'anneau.

2.4.1. L'étoile

Dans une topologie en étoile, un contrôleur central raccorde directement toutes


les stations du réseau (figure 2.6). Toutes les communications entre deux stations
quelconques passent par le nœud central, qui est alors chargé de les gérer et de les
contrôler.

contrôleur
centraT\

F i g u r e 2.6. Topologie en étoile

Le nœud central joue souvent le rôle d'un dispositif de commutation. Lorsqu'une


station désire communiquer avec une autre station, le contrôleur établit un circuit
entre elles ; les deux stations peuvent alors communiquer et les données être
échangées entre elles exactement comme si elles étaient reliées par une liaison dédiée
en point à point. Ce type de topologie est en fait employé depuis de nombreuses
années pour les systèmes téléphoniques où les postes téléphoniques représentent les
stations et le PABX (Private Auto-Branch eXchange) joue le rôle du contrôleur
central. C'est une topologie simple, mais qui pose le problème de la fiabilité et de la
puissance du nœud central.
Il est possible d'étendre la notion d'étoile à plusieurs niveaux : on obtient alors
une configuration en « flocon de neige » (figure 2.7).

F i g u r e 2 . 7 . Topologie en flocon de neige


48 Architecture des réseaux haut débit

2.4.2. Le bus

Dans une configuration en bus, chaque station est directement attachée au canal
de transmission commun. Suivant le type de support utilisé, le bus peut être
bidirectionnel (figure 2.8) ou unidirectionnel. La fibre optique ne permet que des bus
unidirectionnels.

terminateur terminateur

Figure 2.8. Bus bidirectionnel

Le bus bidirectionnel est utilisé principalement avec le câble coaxial et constitue


une structure passive, qui présente l'avantage de ne nécessiter que des terminateurs
aux extrémités du câble. Le terminateur est une résistance électrique d'impédance
égale à celle du câble et qui évite les problèmes de réflexion du signal électrique qui
arrive à l'extrémité du support. Les stations sont connectées via une prise (en T ou
vampire) et envoient des informations grâce à une MAU (Medium Attachment
Unit). Cette unité d'accès au support émet et reçoit des signaux électriques ; elle est
passive et ne régénère pas le signal. Suivant le protocole d'accès, elle peut avoir
d'autres fonctions.

Le support unique étant partagé par l'ensemble des stations du réseau, si deux
stations ou davantage se mettent à transmettre en même temps (au temps d'émission
près), les signaux générés vont se superposer et se brouiller mutuellement. Ce
phénomène est comparable à ce qui se passe dans une assemblée lorsque plusieurs
personnes décident de prendre la parole en même temps, ce qui conduit à une
cacophonie. On parle ici de collision ou encore de contention d'accès. Il est alors
nécessaire de mettre en œuvre une politique de partage pour régler ces conflits : c'est
la technique d'accès au support.

Les stations étant connectées en multipoint à un support unique, lorsqu'une


trame d'information est émise sur le support, elle est reçue par l'ensemble des
stations ; il s'agit de la propriété naturelle de diffusion. Chaque station doit alors
vérifier, d'après l'information d'adressage contenue dans la trame, si elle doit garder la
copie de la trame et la traiter ou tout simplement l'ignorer.

Le signal transmis sur le support n'étant pas régénéré au passage de la prise, son
affaiblissement limite la longueur maximale d'un segment de support. Par exemple,
pour un câble de 50 ohms, le segment est limité à 500 m. Cette longueur peut être
augmentée en connectant plusieurs segments entre eux au moyen de répéteurs. Le
répéteur amplifie et régénère les signaux qu'il reçoit sur chacun des segments de
câble. En aucun cas, il ne mémorise des bits. On peut ainsi obtenir une topologie en
arbre (figure 2.9). Dans ce type de configuration, le canal de communication est
Caractéristiques des réseaux locaux et métropolitains 49

constitué d'un câble à branches multiples, les stations étant attachées comme des
feuilles aux branches. Là encore, toutes les stations reçoivent toutes les
informations transmises.

répéteur répéteur

F i g u r e 2 . 9 . Utilisation de répéteurs sur un bus

Dans le cas d'un bus unidirectionnel, deux supports physiques sont nécessaires,
le premier pour permettre à une station d'émettre l'information vers les stations en
"aval" et le second pour permettre à la même station de recevoir l'information émise
par les stations en "amont". Par symétrie, chaque station est libre de communiquer
avec n'importe quelle autre station, en utilisant l'un ou l'autre des deux bus. La
figure 2.10 montre la topologie utilisée par le réseau métropolitain DQDB avec deux
bus unidirectionnels réalisés en fibre optique.

F i g u r e 2 . 1 0 . Topologie utilisant deux bus unidirectionnels

2.4.3. L anneau

Le câble forme ici une boucle, à laquelle vient s'attacher chacune des stations par
l'intermédiaire d'un répéteur. Les différents répéteurs sont reliés deux à deux par des
liens en point à point de manière à former la boucle (figure 2.11). Les liens sont
unidirectionnels et les répéteurs se contentent de recevoir bit à bit sur le lien d'entrée
et de retransmettre sur le lien de sortie. Par conséquent, les informations circulent
toujours dans le même sens. De façon similaire à ce qui se passe avec une topologie
en bus, une trame envoyée par une station est reçue par l'ensemble des stations et
c'est l'adresse qu'elle contient qui permet de déterminer si une station donnée doit en
50 Architecture des réseaux haut débit

tenir compte ou non. La diffusion d'information est ainsi supportée de façon


naturelle. Il est également nécessaire de prévoir une politique de partage du support
de transmission.

F i g u r e 2 . 1 1 . Topologie en anneau

Le signal étant régénéré par chaque répéteur, contrairement au bus, l'anneau est
une structure active le rendant très sensible aux pannes, puisqu'une seule coupure
suffit à mettre fin à son bon fonctionnement. D'autre part, cela implique le retrait
explicite des informations (par l'émetteur, par le récepteur ou par une station de
supervision).

Le manque de fiabilité peut être pallié par un anneau doublé (figure 2.12). Les
deux anneaux peuvent transmettre dans le même sens ou en sens inverse. Dans les
deux cas, lorsqu'une coupure survient pour l'un des anneaux, l'autre peut prendre le
relais, garantissant ainsi le bon fonctionnement de l'anneau en cas de coupure
simple.

boucle primaire

boucle secondaire

F i g u r e 2 . 1 2 . Anneau doublé

Les topologies de base pour les réseaux locaux présentent des propriétés
identiques, telles que la diffusion et le partage du support entre toutes les stations
connectées. Ce partage sera arbitré, le plus souvent de manière distribuée, par ce
qu'on appelle le mécanisme ou encore le protocole d'accès au support.
Caractéristiques des réseaux locaux et métropolitains 51

2.5. Les familles de contrôle d'accès

L'une des principales particularités des réseaux locaux et métropolitains est le


partage d'un support de transmission unique entre les différents utilisateurs du réseau.
La méthode de contrôle d'accès décrit comment les stations raccordées au réseau
contrôlent leur accès au support de transmission, afin de prévenir ou de régler tout
conflit possible [Rubin 90]. De nombreuses techniques, plus ou moins
sophistiquées, ont été proposées (et continuent de l'être). Elles peuvent être
centralisées, avec l'existence d'une station primaire chargée de régler les conflits
d'accès, ou distribuées, avec une répartition du contrôle sur l'ensemble des stations.
Elles peuvent être statiques ou dynamiques, déterministes ou non, équitables ou non
(vis-à-vis des possibilités d'accès au support données à chacune des stations), avec ou
sans contention d'accès. La technique d'accès retenue a des répercussions sur les
caractéristiques du niveau physique. Inversement, une topologie particulière impose
les composants d'accès et va donc plus ou moins bien s'adapter à une technique
d'accès donnée.

Un classement possible des différents mécanismes d'accès est le suivant, avec


trois grandes familles :

- l'accès statique,
- l'accès déterministe,
- l'accès aléatoire.

Nous présentons par la suite les grands principes et quelques exemples pour
chacune de ces familles, la liste des techniques présentées étant loin d'être
exhaustive.

2.5.1. L'accès statique

Cette famille de protocoles d'accès se caractérise par l'allocation statique de la


bande passante. En d'autres termes, la bande passante est répartie de façon définitive
entre les stations, soit temporellement, soit fréquentiellement.

2.5.1.1. Accès multiple à répartition dans le temps

Cette méthode, appelée l'AMRT (Accès Multiple à Répartition dans le Temps)


ou TDMA (Time Division Multiple Access), consiste à découper le temps en
périodes 7", elles-mêmes découpées en n tranches de temps IT. Une unité spécifique
est chargée de fournir la synchronisation et de générer périodiquement des trames de
durée T. n étant le nombre total de stations, chaque station se voit allouer
nominativement une tranche de temps à l'intérieur de chaque trame ou intervalle T.
Elle obtient ainsi un droit d'accès périodique et exclusif au canal. La figure 2.13
illustre cette technique appliquée au cas d'un réseau avec quatre stations.
52 Architecture des réseaux haut débit

fréquence

capacité
du -
canal

temps

Figure 2.13. La technique AMRT

Le terme de "multiplexage temporel" est parfois utilisé pour désigner cette


méthode. Elle est surtout utilisée dans le cadre des applications téléphoniques pour le
transfert de la voix numérique.

2.5.1.2. Accès multiple avec repartition en fréquence

Cette méthode, appelée l'AMRF (Accès Multiple à Répartition en Fréquence) ou


FDMA (Frequency Division Multiple Access), consiste à découper la bande passante
en sous-bandes, chacune étant affectée à une seule station qui en possède l'usage
exclusif et qui ne peut en aucun cas utiliser les autres sous-bandes. Cette technique
est également connue sous le nom de "multiplexage fréquentiel". La figure 2.14
illustre le cas d'un réseau avec quatre stations. Cette technique est principalement
utilisée dans les réseaux large bande, comme par exemple, pour la distribution de
programmes de télévision sur câbles.

fréquence
capacité i
du i
canal

temps

F i g u r e 2.14. La technique AMRF

Les techniques statiques de partage du support sont bien adaptées à des


environnements où les ajouts/retraits de stations sont rares (comme dans les réseaux
satellites) mais ne conviennent pas à des environnements aussi vivants que les
réseaux locaux. En effet, les ajouts/retraits de stations y sont fréquents (parfois
toutes les semaines) et nécessiteraient avec de telles techniques d'accès de redéfinir à
chaque fois soit la structure de la trame soit la répartition en fréquence, opérations
non aisées. Leur deuxième inconvénient est la perte de bande passante lorsqu'une
station est inactive. On leur préfère donc des techniques dynamiques, qu'elles soient
déterministes ou aléatoires.
Caractéristiques des réseaux locaux et métropolitains 53

2.5.2. L'accès déterministe

Cette famille de protocoles d'accès se caractérise, entre autres, par une allocation
dynamique de la bande passante. En d'autres termes, la bande passante n'est allouée à
une station que si cette dernière en a réellement besoin. Une station doit donc
pouvoir solliciter l'utilisation du canal chaque fois qu'elle souhaite émettre. Un
mécanisme de décision permet d'élire parmi l'ensemble des stations celle qui sera
invitée à émettre tout en veillant à l'équité d'accès entre les stations (à tour de rôle).
A l'issue de la transmission ou si la station interrogée n'a rien à émettre, le même
scénario d'élection recommence. Sur ce principe de base, deux approches sont
possibles, selon la manière dont les demandes d'accès sont gérées :

- le contrôle centralisé, par polling,


- le contrôle décentralisé, par jeton.

2.5.2.1. Le polling

Bien que la plupart des techniques de contrôle centralisé soient associées aux
réseaux grande distance, il existe quelques réseaux locaux pour lesquels toutes les
fonctions de contrôle sont centralisées à l'intérieur d'un seul et même équipement.
Plus précisément, le polling constitue une méthode d'accès qui se prête
particulièrement bien aux topologies en étoile ou en bus.

Cette technique suppose l'existence d'une station dite "primaire" qui gère l'accès
au support. Elle invite les autres stations, dites "secondaires", à émettre en leur
envoyant un message de poil, selon un ordre établi dans une table de scrutation. Si
la station secondaire interrogée a un message à émettre, elle l'envoie. Dans le cas
d'une topologie en étoile, le message transite par la station primaire, qui se charge de
le relayer vers la ou les stations destinataires, selon l'adresse véhiculée dans le
message. Si la station interrogée n'a rien à envoyer, elle répond de manière négative
au poil. Lorsque la station primaire en a fini avec une station secondaire, elle
consulte la table de scrutation pour déterminer la prochaine station à interroger. La
complexité de l'approche tient essentiellement dans la station primaire : la fiabilité
et les possibilités d'extension du réseau reposent sur sa fiabilité et sa puissance. A
faible charge, le temps d'accès peut s'avérer long puisqu'il faut tout de même scruter
chaque station.

On peut améliorer ce protocole de la façon suivante : après l'émission d'une


trame ou lorsqu'elle n'a rien à émettre, une station secondaire passe la main à la
station secondaire suivante. En cas de panne de la station primaire (détectable par un
silence prolongé), une autre station peut prendre le relais et le réseau peut ainsi
continuer à fonctionner. Cette variante est très proche des techniques à jeton.

2.5.2.2. Accès par jeton

Selon cette technique, le contrôle d'accès s'effectue de manière répartie au moyen


d'une trame particulière appelée jeton. Ce jeton matérialise le droit à la parole : à
54 Architecture des réseaux haut débit

tout instant, seul son possesseur peut émettre. Le jeton passe de station en station
dans un ordre donné, distribuant ainsi le droit d'accès à toutes les stations. Le bon
déroulement du protocole exige la participation de toutes les stations. La nature
répartie de cette approche implique de prendre de nombreuses précautions ; en
particulier, il faut pouvoir éviter qu'une station ne monopolise le jeton et être
capable de détecter la perte ou la duplication du jeton.

La complexité réside dans chaque station, ce qui rend cette approche plus robuste
que celle centralisée du polling.
On distingue deux méthodes d'accès par jeton, selon la topologie du réseau :

- le jeton non adressé,


- le jeton adressé.

Jeton non adressé sur anneau

Lorsque le réseau local a une configuration en anneau, la méthode d'accès


généralement employée est le passage de jeton entre les stations de proche en proche
suivant le sens de transmission de l'anneau [Bux 81a].

Le fonctionnement de base est le suivant : le jeton, représenté par une


configuration binaire particulière, circule en permanence sur l'anneau. Il représente le
droit à émettre. Une station qui souhaite émettre doit attendre que le jeton marqué
libre passe au niveau de son répéteur et s'en saisir. Une fois en possession du jeton,
la station peut émettre ; elle marque le jeton occupé et l'insère dans la trame
d'information. La trame circule ensuite le long de l'anneau, allant de station en
station. Chaque station qui en est destinataire la recopie au vol et positionne des bits
dans la trame pour indiquer le statut de réception. Lorsque la trame revient à la
station qui l'avait émise, cette dernière la retire de l'anneau (le répéteur associé ne
répète pas la trame) et rend le jeton en le marquant libre. Le jeton est alors émis sur
l'anneau à destination de la station voisine en aval et ainsi de suite, jusqu'à ce qu'il
soit de nouveau capturé par une station désirant émettre. Le jeton étant passé entre
les différentes stations de l'anneau de proche en proche, il n'y a pas lieu de lui
associer une adresse de destination ; c'est pourquoi on parle de jeton non adressé.

Il peut se produire des erreurs qui vont, par exemple, altérer le jeton et donc
provoquer sa perte ou encore altérer l'adresse source d'une trame et donc empêcher la
station émettrice de la reconnaître et de la retirer de l'anneau. La gestion de ces
conditions d'exception est réalisée soit de manière centralisée par une station
moniteur désignée soit de manière distribuée par un protocole coopératif entre toutes
les stations.

Plusieurs variantes du protocole peuvent être mises en œuvre quant à l'instant de


relâche du jeton et quant à la station chargée de retirer la trame d'information de
l'anneau.
Caractéristiques des réseaux locaux et métropolitains 55

La station émettrice peut libérer le jeton :

1. lorsqu'elle a reçu sa trame dans son intégralité : cette solution permet de vérifier
des bits d'acquittements positionnés par le récepteur mais on limite le nombre de
trames en circulation sur l'anneau à une seule en même temps ;
2. dès qu'elle reçoit l'en-tête de sa trame : on obtient un gain de temps par rapport à
la première solution mais introduit une limitation sur la longueur de la trame ;
3. tout de suite après avoir transmis sa trame : le gain de temps est encore plus
appréciable. De plus, l'utilisation de la bande passante est optimisée puisque
plusieurs trames de sources différentes, peuvent être simultanément en circulation
sur l'anneau.

Par ailleurs, une trame circulant sur l'anneau peut en être retirée par l'un des deux
protagonistes de l'échange :

a. soit l'émetteur, sur reconnaissance de sa propre adresse (soit après réception


complète de la trame, soit après réception de l'en-tête de trame seulement) ;
b. soit le récepteur, auquel cas les acquittements au vol ne sont bien évidemment
plus possibles. Cela n'est pas possible si le récepteur est multiple.

A titre d'exemple, le Token Ring utilise la combinaison 2a et FDDI la


combinaison 3a.

Jeton adressé sur bus

Le concept de passage de jeton peut également être utilisé sur un réseau ayant
une topologie en bus ou en arbre. La différence provient du fait que le jeton ne peut
plus circuler implicitement de station en station. Il faut par conséquent utiliser un
jeton adressé, qui sera envoyé explicitement à une station donnée selon une relation
d'ordre définie sur les adresses des stations. Bien que la topologie physique soit en
bus ou en arbre, la topologie logique est un anneau en ce qui concerne le passage du
jeton. L'anneau virtuel est défini indépendamment de la situation physique des
stations sur le câble. Chaque station connaît les adresses de son prédécesseur et de
son successeur sur l'anneau virtuel.

Figure 2.15. Bus physique et anneau virtuel

Sur la figure 2.15, les stations sont attachées au support de transmission selon
une séquence linéaire : A, B, C, D puis E. Toutefois, le jeton est passé selon la
séquence représentée par les pointillés, à savoir : A, C, D, E et B, avant de revenir à
A. On a ainsi un anneau logique, implanté sur la base d'adresses de stations
56 Architecture des réseaux haut débit

décroissantes. Le jeton est toujours passé à la station dont l'adresse est celle
immédiatement inférieure, jusqu'à ce que la station avec l'adresse la plus faible le
reçoive. Il est alors passé à la station avec l'adresse la plus grande, et ainsi de suite.
Cette technique a été retenue pour Token Bus.

2.5.3. L'accès aléatoire

Les mécanismes d'accès aléatoire mettent en jeu des concepts très simples, issus
des techniques utilisées sur les réseaux radio. Leur caractéristique commune est
qu'une station désirant émettre n'a pas besoin d'autorisation pour le faire : la
sollicitation est matérialisée par l'accès direct au canal. Il peut alors se produire des
conflits d'accès dès lors que le nombre de stations en compétition dépasse l'unité.
Différentes techniques de résolution ont été proposées pour qu'en cas de conflit, une
seule des stations en compétition soit autorisée à émettre. Ce type de mécanisme est
particulièrement bien adapté aux topologies en bus.

2.5.3.1. Le protocole Aloha

A l'origine de la famille de mécanismes d'accès aléatoire se trouve le protocole


Aloha, initialement développé en 1970 pour relier les îles d'Hawaï par faisceaux
hertziens [Abramson 70]. Dans Aloha, une station émet dès qu'elle a de
l'information à envoyer. A l'émission de la trame, un temporisateur est armé avec
une durée correspondant au délai de transfert aller et retour pris entre les deux stations
les plus éloignées du réseau. Si le temporisateur parvient à expiration sans qu'aucun
acquittement n'ait été reçu pour la trame, cette dernière est retransmise. Au bout de n
retransmissions restées sans réponse, la station abandonne. A la réception de la
trame, la station destinataire effectue une vérification du champ total de contrôle afin
de vérifier que la trame n'a subi ni erreurs de transmission ni collision et renvoie un
acquittement à la station émettrice si la trame est correcte.
Ce principe est extrêmement simple à mettre en œuvre, totalement décentralisé et
ne nécessite aucune synchronisation entre les stations. L'inconvénient est qu'il se
produit des collisions dès que plusieurs stations émettent en même temps. Les
stations impliquées dans la collision doivent alors retransmettre après une
temporisation aléatoire (figure 2.16).

SI temporisation
collision
J
temps

S 2 temporisation

F i g u r e 2 . 1 6 . Collision avec Aloha


Caractéristiques des réseaux locaux et métropolitains 57

Intuitivement, on peut voir que cette anarchie totale au niveau de l'utilisation du


support ne permet pas d'obtenir de bonnes performances. En fait, des analyses
mathématiques ont montré que seules 18 % des trames candidates à la transmission
pouvaient être émises avec succès [Schwartz 87]. Ce manque d'efficacité s'explique
en partie par le fait qu'il suffit que le dernier bit d'une trame se superpose avec le
premier bit d'une autre trame pour qu'il y ait collision et donc retransmission de deux
trames ; de plus, la transmission des trames en collision n'est pas interrompue.

Une version améliorée, dite « Aloha en tranches », consiste à découper le temps


en tranches et à n'autoriser l'émission de trame qu'en début de tranche. Une
conséquence immédiate est que, s'il se produit une collision, elle se produit sur
l'ensemble de la tranche et des trames impliquées (figure 2.17).

SI S3 temporisation
collision i

temps

temporisation
S2

F i g u r e 2.17. Collision avec Aloha en tranches

Cette discrétisation du temps permet de doubler le taux de réussite en l'amenant à


36 % [Lam 75]. Cette amélioration du débit a été obtenue en réduisant le nombre de
collisions en les regroupant sur une tranche, ce qui évite de perturber les
transmissions proches de cette tranche. Par contre, cette technique présente
l'inconvénient de nécessiter une synchronisation au niveau de toutes les stations.

Il faut également noter que pour les deux versions d'Aloha, le système devient
instable (on a un débit qui tend vers 0) lorsque le nombre de stations tend vers
l'infini.

2.5.3.2. CSMA (Carrier Sense Multiple Access)

Au début des années 70, R. Metcalfe eut l'idée de reprendre la technique Aloha
pour l'exploiter sur un réseau de micro-ordinateurs reliés par un seul câble coaxial
[Metcalfe 76] [Lam 80]. Un prototype de ce qui allait devenir Ethernet fut ensuite
construit au centre de recherche de Xerox de Palo Alto. Partant du constat que, pour
cet environnement, le temps de transmission des trames est largement supérieur au
temps de propagation et que, par conséquent, toute émission de trame peut être
détectée quasi instantanément par les différentes stations du réseau, R. Metcalfe
introduisit le principe d'écoute de la porteuse avant transmission : une station doit
écouter le canal avant de transmettre et elle ne peut transmettre sa trame que si le
canal est libre. Tout comme dans Aloha, la détection de la collision se fait par non-
58 Architecture des réseaux haut débit

retour d'acquittement. Ce principe d'écoute de la porteuse, connu sous le nom de


CSMA (Carrier Sense Multiple Access), permet de réduire sensiblement le nombre
de collisions de trames. Néanmoins et malgré l'écoute au préalable, des collisions
peuvent encore se produire et ce, à cause du délai de propagation.

Le taux d'utilisation obtenu est meilleur que pour les deux versions d'Aloha. Il
dépend en fait :

- du temps de propagation du signal : plus il est faible, plus c'est efficace ;


- de la longueur de la trame : une station qui a réussi à transmettre une trame a
tout intérêt à l'envoyer la plus longue possible car la probabilité de collision est la
même pour une trame longue que pour une trame courte.

Il existe plusieurs variantes de la technique CSMA, selon le type de décision


prise lorsque le canal est détecté occupé par une station souhaitant émettre :

- CSMA non persistant : lorsque la station détecte un signal, elle attend un


délai aléatoire avant de réitérer la procédure (écoute de la porteuse, et ainsi de
suite...) ; ce temps choisi au hasard permet de réduire le nombre de collisions mais
il diminue aussi le taux d'utilisation du canal ;
- CSMA persistant : la station "persiste" à écouter le canal jusqu'à ce que celui-
ci devienne libre et elle émet alors (c'est la variante de base retenue au niveau de la
normalisation IEEE 802.3) ; cette méthode permet un gain de temps par rapport à la
précédente, mais augmente malheureusement la probabilité de collision puisque les
trames qui se sont accumulées pendant cette phase d'attente active vont toutes être
transmises en même temps ;
- CSMA p-persistant : lorsque le canal devient libre, la station émet avec une
probabilité p et diffère son émission avec une probabilité (l-p) ; ceci permet de
diminuer la probabilité de collision par rapport au CSMA persistant. L'efficacité de
cette variante dépend de la valeur de p : si n stations attendent pour transmettre et
que np > 1, il y aura certainement des transmissions multiples et des collisions. Les
stations retransmettront alors avec le risque d'entrer de nouveau en collision ; il faut
donc estimer n (la charge) et faire en sorte que np < 1. Si p est petit, les stations
attendent plus longtemps mais les collisions sont réduites. A faible charge, le canal
est mal utilisé.

Ces variantes donnent des performances plus ou moins bonne, selon


l'environnement d'utilisation de la technique (nombre de stations, répartition
géographique des stations, répartition de la charge soumise entre les différentes
stations, valeur de p , etc.).

2.5.3.3. CSMA/CD (CSMA with Collision Detection)

Il s'agit d'une amélioration de la technique CSMA persistant, où une station qui


émet continue à écouter le canal pendant sa propre transmission. L'efficacité du
Caractéristiques des réseaux locaux et métropolitains 59

mécanisme est accrue grâce à une détection précoce des collisions. Dès qu'une
collision est détectée par une station émettrice, elle arrête sa transmission, elle émet
une séquence de bourrage qui sert à renforcer la collision et à la rendre détectable par
toutes les stations du réseau puis elle attend un délai aléatoire au bout duquel elle
tentera de nouveau d'émettre sa trame. Cette technique ainsi que la norme afférente
sont décrites dans le chapitre 3.

Les principaux inconvénients du protocole CSMA/CD résident dans son


instabilité à forte charge (le débit tend vers 0) et dans son indéterminisme : un délai
maximum d'accès au support ne peut être garanti, la probabilité de subir une
collision n'étant jamais nulle.

2.5.3.4. CSMA/CA (CSMA with Collision Avoidance)

Le principe est le suivant : tout comme dans CSMA/CD, chaque station écoute
la porteuse lorsqu'une transmission est en cours. Lorsque la transmission prend fin,
chaque station attend un délai spécifique qui dépend de sa position à l'intérieur d'une
liste logique de stations. Si aucune autre station n'a commencé à émettre à
l'expiration de ce délai, la station peut commencer à émettre. Cette technique met
implicitement en place un système de priorités.

Différentes méthodes peuvent être utilisées pour gérer le cas où, à la fin du délai,
aucune station n'a de trame à émettre :

- la station de plus haute priorité (celle qui a la plus haute position dans la liste)
émet une trame non significative qui va déclencher un nouveau délai propre pour
chacune des stations ;

- une alternative consiste à entrer dans le mode "libre pour tous", où n'importe
quelle station peut alors transmettre et où l'on utilise alors les techniques de
détection de collision pour résoudre les éventuels conflits.

Cette technique permet de distribuer totalement le contrôle d'accès entre les


différentes stations du réseau. C'est une particularité qu'elle partage avec les
techniques à jeton.
60 Architecture des réseaux haut débit

Exercices

E x e r c i c e 2.1
Dressez un tableau récapitulant les principaux avantages et inconvénients de
chaque type de topologie.

E x e r c i c e 2.2
Dressez un tableau récapitulant les principaux avantages et inconvénients de
chaque type de mécanisme d'accès.

E x e r c i c e 2.3
Donnez les paramètres permettant, dans le cas du jeton sur anneau, d'évaluer le
temps maximum entre deux possibilités d'accès au support pour une station donnée.

Exercice 2.4
Considérons le transfert d'un fichier de 1 Mo entre deux stations. Quels sont, s'il
y a lieu :
- le temps de propagation entre les deux stations (7>),
- le temps d'émission d'une trame (Te),
- le temps de transfert avec acquittement d'une trame (7),
- le temps total de transfert (T ),
lol

- le débit utile (Du).

réseau
31UBJJ

IU3Ui3]]inb3e

dans les cas suivants :

1. Le réseau local est en étoile et utilise la commutation de circuits. Le temps


d'établissement est négligeable et la vitesse sur le support est de 64 kbit/s.
Les deux stations sont distantes de 10 km et la vitesse de propagation est de
100 000 km/s. Il n'y a pas de protocole de transfert ni d'acquittement.
Caractéristiques des réseaux locaux et métropolitains 61

2. Le réseau local est un bus et les deux stations sont éloignées d'une distance d. Le
capacité du support est de C bit/s et la taille d'une trame est de L bits dont
O = 80 bits d'en-tête. Chaque trame doit être acquittée par une trame
d'acquittement de longueur / égale à 88 bits avant de pouvoir transférer la trame
suivante. La vitesse de propagation V est de 100 000 km/s.
Donnez les équations de Te, T, T tot et D v en fonction de d, C, O et L .
Tracez les courbes de T e t de D pour :
v

- d variant de 1 km à 10 km avec C = 1, 5, 10, 50 Mbit/s et L = 2 000


bits ;
- L variant de 500 bits à 10 000 bits (par incrément de 500 bits) avec
C = 1, 5, 10, 50 Mbit/s et d = 2 km ;

3 . Le réseau local est un anneau d'une longueur totale 2*d km, les deux stations
étant éloignées de d km. L'acquittement par le destinataire est réalisé en marquant
un bit particulier de la trame qui retourne à l'émetteur. La taille d'une trame est de
L bits dont O = 80 bits d'en-tête. Il y a N répéteurs sur l'anneau ; chacun d'eux
introduit un retard de 1 temps-bit au passage d'une trame.
Donnez les équations de Te, T, T , et D t0 v en fonction de d, C, O, N et L.
Tracez les courbes de T et de D pour :
v

- d variant de 1 km à 10 km avec C = 1, 5, 10, 50 Mbit/s, N = 30 stations


et L = 2 000 bits ;
- N variant de 10 à 100 stations (par incrément de 10) avec d = 2 km,
C = 1, 5, 10, 50 Mbit/s et L = 2 000 bits ;
- L variant de 500 bits à 10 000 bits (par incrément de 500 bits) avec
C = 1,5, 10, 50 Mbit/s, N = 30 stations et d = 2 km ;

Résolvez pour les mêmes valeurs de d, C et L que précédemment avec N = 10,


100, 1 000.
Chapitre 3

Ethernet et Ethernet 100 Mbit

3.1. Introduction

3.1.1. Historique

Ethernet est un réseau local en bande de base développé dans les laboratoires de la
société Xerox à Palo Alto à la fin des années 70 [Metcalfe 76]. Le protocole d'accès
au support est inspiré du système Aloha d'Abramson, testé au début des années 70
sur un réseau radio reliant les îles d'Hawaï [Abramson 70]. En 1980, les sociétés
DEC et Intel rejoignent Xerox pour promouvoir ce réseau local [DEC 80]. En 1985,
le protocole est amélioré et donne naissance à Ethernet Version 2, qui servira de base
à la spécification par l'IEEE [IEEE 802.3].
Le principe de fonctionnement d'Aloha consiste à émettre dès qu'une donnée est
prête, ce qui présente comme inconvénient l'apparition de collision entre deux
transmissions simultanées et la perte des données transmises. Une station n'ayant
pas reçu d'acquittement tente alors une retransmission de sa trame au bout d'un délai
aléatoire. L'absence de règles d'accès au support partagé conduit à de très mauvaises
performances.
Le réseau Ethernet consistait en un réseau de micro-ordinateurs reliés par un
même câble coaxial passif (d'où le nom d'Ether) selon une topologie en bus. Le
principe d'Aloha a été amélioré de deux manières. Tout d'abord, une station désirant
émettre écoute le canal avant toute transmission, évitant ainsi de nombreuses
collisions. Ensuite, la détection d'une collision est accélérée car la station émettrice
64 Architecture des réseaux haut débit

écoute aussi sa propre transmission. Ce protocole d'accès a été normalisé par l'IEEE
dans le standard 802.3 sous le nom de CSMA/CD.

L'abréviation C S M A / C D signifie "Carrier Sense Multiple Access with


Collision Detection", traduit littéralement par "accès multiple avec détection de
présence de porteuse et détection de collision". Par abus de langage, Ethernet désigne
un réseau local, c'est-à-dire un ensemble {support, services, protocoles} utilisé pour
la mise en place d'un réseau local. La confusion entre le protocole CSMA/CD et
Ethernet est souvent faite alors que des différences, même minimes, existent.

3.1.2. Le standard 802.3

Cette spécification concerne :


- l'équivalent de la couche physique de l'OSI qui prend ici le nom de "accès au
support physique" (PMA — Physical Medium Access). De par les contraintes
techniques imposées par la détection des collisions, les fonctions de cette couche
peuvent être réparties entre le dispositif de raccordement à la paire coaxiale et la
station proprement dite ;

- la partie inférieure de la couche liaison de données prenant le nom de "contrôle


de l'accès physique" (MAC — Medium Access Control). Cette sous-couche permet à
la station de chercher à acquérir le droit à émettre et résout par conséquent les
situations de contention. De plus, elle dirige les échanges avec la couche "accès au
support physique".

La figure 3.1 détaille l'architecture de ce standard.

couches hantes
LLC
r liaison-

Logical Link Control


MAC DTE
Medium Access Control
FLS DTE - DataTerminal Equipment

Physical Layer Signalling AUI - Attachmenl Unit Interface


physique-

M A U - Medium Attachment Unit

AUI MDI - Medium Dependent Interface

PMA - Physical Medium Attachment


PMA MAU
MDI
médium

F i g u r e 3 . 1 . Situation de la couche MAC


Ethernet et Ethernet 100 Mbit 65

La couche physique se compose d'une sous-couche PLS (Physical Layer


Signalling) qui effectue l'interface entre les sous-couches MAC et physique et de
deux composants, une interface d'attachement (AUI — Attachment Unit Interface) et
une unité d'accès au support (MAU — Medium Attachment Unit). L'AUI définit
l'interface entre la station proprement dite et la MAU. Elle consiste en un câble et
des connecteurs. La MAU est un équipement destiné à relier une station à un support
donné et à gérer toutes les fonctions dépendantes du support. Une station donnée
peut alors être utilisée avec un autre support, en changeant uniquement de MAU.

Le plan du chapitre s'articule autour des cinq points essentiels du standard IEEE
802.3 :
- le protocole MAC,
- les services MAC,
- le protocole PHY,
- les services PHY,
- les différents supports de transmission.

La dernière partie concerne les extensions d'Ethernet vers les hauts débits,
souvent dénommées "Ethernet 100 Mbit/s".

3.2. Le protocole M A C

3.2.1. Principe de fonctionnement de CSMA/CD

Le protocole CSMA/CD est un protocole aléatoire où les stations peuvent


émettre à tout instant, ce qui donne lieu à des contentions d'accès. Pour diminuer les
risques de contention, le protocole impose des règles minimales avant la
transmission d'une trame, pendant sa transmission et en cas de contention.

3.2.1.1. Transmission d'une trame

La transmission d'une trame ne peut commencer que si le canal est libre. Avant
de transmettre, une station se met à l'écoute du canal. Si elle ne détecte aucune
porteuse sur le support, elle transmet (figure 3.2 (a)). Si elle détecte un signal en
ligne, elle attend que le canal devienne libre pour émettre sa trame (figure 3.2 (b)).
Avec cette technique, une station évite d'émettre lorsqu'une autre station est déjà en
cours d'émission, ce qui réduit le nombre de collisions, sans pour cela les supprimer
toutes !
66 Architecture des réseaux haut débit

S3 écoute
SI émet S2 émet SI émet
S3 émet

temps
temps

S2 émet
S2 écoute S2 écoute
(a) écoute avant transmission (b) collision de transmissions

Figure 3.2. Principe du CSMA

La figure 3.2 illustre deux scénarios de transmission. Dans les deux cas, une
station SI écoute le support, le détecte libre et transmet. Une station S2 veut
émettre à son tour et détecte le canal occupé. Tout au long de la transmission de S1,
elle continue son écoute et transmet dès qu'elle détecte le canal libre. Dans le cas (a),
S2 émet à la fin de la transmission de S I , après avoir attendu un délai inter-trame
destiné à garantir un intervalle de silence minimum afin de faciliter la gestion du
niveau physique. Dans le cas (b), une station S3 s'était mise à l'écoute du canal
pendant la transmission de SI. A la fin de celle-ci, les stations S2 et S3
transmettent simultanément et entrent par conséquent en collision.

3.2.1.2. Détection des collisions

La collision se produit lorsqu'au moins deux stations constatent en même temps


que le support de transmission est disponible et transmettent simultanément.
Physiquement, une collision est donc un signal brouillé violant les règles du codage
en bande de base. Pour pouvoir détecter une éventuelle collision, la station écoute
aussi le canal pendant sa propre transmission. Si elle détecte un signal non conforme
(i.e. une collision), elle stoppe immédiatement sa transmission et transmet une
séquence de bourrage (Jamming Signal), pour avertir les autres stations. Cette
séquence doit être suffisamment longue pour être notée par les autres stations du
réseau ; le paramètre JamSize définit sa taille minimale.

La figure 3.3 illustre le cas extrême où deux stations transmettent simultanément


malgré l'écoute préalable. Nous définissons At le temps de propagation d'un signal
entre les deux stations SI et S2, situées à chaque extrémité du support. Le scénario
est le suivant :

- à to, la station SI commence à émettre une trame.


- à to + At - e, la station S2, à l'autre extrémité, détecte le canal libre et émet sa
propre trame.
- à to + At, la station S2 détecte la collision, elle stoppe sa transmission et
envoie une séquence de bourrage,
- à to + 2 At, S1 détecte la collision à son tour.
Ethernet et Ethernet 100 Mbit 67

On définit :
- la période de vulnérabilité qui représente la durée pendant laquelle une station
éloignée peut détecter le canal libre et transmettre à son tour ; elle est au maximum
égale à un temps de propagation entre les deux stations les plus éloignées sur le
support ;
- la fenêtre de collision ou slot-time qui représente le délai maximum qui
s'écoule avant qu'une station détecte une collision ou encore, le délai après lequel
une station peut être certaine d'avoir réussi sa transmission ; elle est égale à deux
fois le temps de propagation d'un signal sur le support. C'est l'unité de temps du
protocole.

tO
SI S2
S1 commence sa transmission

tO + At - e
SI S2
S2 commence sa transmission

t 0 + At
SI
S2 détecte la collision, arrête sa transmission et émet la séquence de bourrage

tO + 2 At
SI
SI détecte la collision

F i g u r e 3.3. Période de vulnérabilité et fenêtre de collision

Nous nous sommes placés dans le pire cas en considérant les stations les plus
éloignées. Si on considère une station émettrice quelconque, elle est assurée, au bout
de la fenêtre de collision, soit de la réussite de sa transmission, soit d'une collision
subie par sa trame.
La durée de la fenêtre de collision a une influence sur la taille minimale d'une
trame. En effet, pour que l'on puisse détecter la collision, il faut que la station
écoute et donc qu'elle soit encore en train d'émettre. Il faut, par conséquent, que le
temps d'émission d'une trame de longueur minimale soit supérieur au slot-time. Sur
un réseau Ethernet classique, à 10 Mbit/s, le slot-time dure 51,2 us et la taille
minimale d'une trame est de 64 octets.
68 Architecture des réseaux haut débit

3.2.1.3. Reprise après collision

Après avoir détecté la collision, la station doit retransmettre la même trame au


bout d'un temps aléatoire qui dépend à la fois du slot-time et du nombre n de
collisions successives déjà subies pour cette trame.
L'algorithme qui calcule ce délai aléatoire, l'algorithme Binary Exponential
Backoff, a été conçu de façon à minimiser le temps d'attente en cas de faible trafic et
à minimiser le nombre de collisions successives en cas de trafic important. Il
k
consiste à tirer une variable aléatoire entière M : 0 < M < 2 , où k = min (n, 10) et
où n est le nombre total de collisions subies par la station pour la trame considérée.
Le délai d'attente avant de tenter une nouvelle transmission est alors pris égal à M
fois la fenêtre de collision. Lorsque n atteint 16, il y a abandon de la transmission.
La technique CSMA/CD ne permet pas de garantir un délai maximum d'attente
avant transmission. Ce n'est pas un protocole déterministe.

Nous résumons les étapes d'une transmission de trame :


0. Le nombre de collisions est remis à zéro.
1. Si le support est libre, alors étape 3, sinon étape 2.
2. Ecouter en continu le canal jusqu'à ce qu'il se libère, puis étape 3.
3. Transmettre la trame et écouter le canal. Si une collision est détectée pendant
la transmission, arrêter la transmission, diffuser une trame de signal de collision sur
le réseau, puis étape 4. Sinon, étape 0.
4. Incrémenter le nombre de collisions subies, dérouler l'algorithme de backoff,
attendre le temps tiré et retourner à l'étape 1.

3.2.1.4. Réception d'une trame

La topologie du réseau sous-jacent est équivalente à un support à diffusion où


toutes les stations reçoivent tous les signaux transportés. La station est toujours à
l'écoute du support ; dès qu'elle détecte un signal de porteuse, elle recopie les bits
jusqu'à reconnaissance du délimiteur de fin de trame. Le champ de contrôle d'erreur
est ensuite vérifié, puis l'adresse de destination comparée à celle de la station. Si la
trame est correcte et qu'elle est bien destinée à la station, elle est remise au niveau
supérieur (LLC normalement) ; dans le cas contraire, elle est simplement détruite.

3.2.2. Modèle fonctionnel de la couche MAC

Ce modèle décrit les principales opérations de transmission et de réception entre


les couches MAC et PHY ainsi qu'entre les couches MAC et LLC. Ces opérations
nous donnent les idées de base pour réaliser l'implantation des fonctions du niveau
MAC. Il faut considérer deux niveaux au sein de la couche MAC pour que celle-ci
soit performante. Le niveau supérieur est dédié à l'encapsulation/désencapsulation des
trames entre les couches M A C et LLC et le niveau inférieur à la gestion de l'accès à
Ethernet et Ethernet 100 Mbit 69

la couche PHY par le niveau MAC. A l'intérieur de chacun de ces niveaux, il faudra
différencier les fonctions de transmission de trames et celles de réception de trames,
qui sont indépendantes les unes des autres. L'organisation de ces opérations est
décrite en figure 3.4.

MA DATA.req MA_DATA.conf MA.DATA.ind


LLC
— 4
TRANSMIT RECEIVE
DATA ENCAPSULATION DATA DECAPSULATION
la 11 2b 2c 12

MAC
TRANSMIT RECEIVE
MEDIA ACCESS MEDIA ACCESS
MANAGEMENT MANAGEMENT
lb3467 8 9 2a 5 10

PLS
PLS_SIGNAL.ind
+
PLS_DATA.cc.nf PLS.DATA.ind

PLS_DATA.req PLS_CARRIER.ind

Figure 3.4. Modèle fonctionnel de la couche MAC

Nous examinons maintenant les différentes fonctionnalités conduisant à la


réalisation du service de cette sous-couche.

1) Transmission d'une trame


a) elle accepte les données de la sous-couche LLC
b) elle présente une série de bits à la couche physique pour transmission sur
le support
2) Réception de la trame
a) elle reçoit une série de bits provenant de la couche physique
b) elle présente à la couche LLC les trames reçues soit avec une adresse de
groupe/diffusion soit avec l'adresse de la station
c) elle élimine les trames qui ne portent pas l'adresse de la station
3) Attente avant transmission si le support est occupé

4) Ajout du FCS aux trames sortantes


5) Vérification des trames entrantes : FCS, longueur des différents champs de la
trame et cohérence entre la valeur du champ longueur des données et la longueur
effective des données au sein de la trame reçue

6) Attente de la fin du délai inter-trame avant transmission

7) Arrêt de la transmission dès qu'une collision est détectée


70 Architecture des réseaux haut débit

8) Tentative de retransmission après une collision au bout du délai calculé par


l'algorithme de reprise (backoff)

9) Envoi de caractères de bourrage pour renforcer la collision et assurer sa


propagation dans tout le réseau

10) Destruction des trames trop courtes


11 ) Construction de la trame

12) Extraction de la partie données des trames reçues

3.2.3. Structure de la trame

Le format de la trame MAC défini dans le standard IEEE 802.3 est représenté en
figure 3.5. Du fait du protocole de détection des collisions qui impose à la station de
surveiller la bonne propagation de sa trame sur tout le réseau, il a été défini une
taille minimale de trame égale à 6 4 octets. Cette longueur correspond pour un débit
de 10 Mbits/s au temps de propagation maximum aller et retour sur un réseau de
2,5 km (spécification de base). Une taille maximale a également été définie, qui est
de 1 518 octets.

7 octets 1 octet 2 ou 6 octets 2 ou 6 octets 2 octets 4 octets


marqueur adresse adresse octets de
amorce de début destination source longueur données FCS
bourrage

Figure 3.5. Format de la trame MAC

La signification des différents champs est la suivante :

- Amorce : elle est présente au début de chaque trame et comporte 7 octets


initialises à 10101010. L'amorce permet de synchroniser les horloges des stations
réceptrices.

- Marqueur de début de trame (Start Frame Delimiter) : l'octet a la valeur


10101011 pour indiquer le début de la trame. Il permet la synchronisation par
caractère.

- Adresse destination (Destination Address) et Adresse source (Source Address) :


ce sont des adresses physiques du réseau codées sur 2 ou 6 octets (figure 3.6). Les
adresses de 16 bits ne sont administrées que localement, tandis que celles de 48 bits
peuvent l'être soit localement soit globalement (adresse universelle normalisée par
l'IEEE). Dans le champ destination, le bit de plus haut rang indique s'il s'agit d'une
adresse individuelle ou d'une adresse de groupe :
Ethernet et Ethernet 100 Mbit 71

1 bit 15 bits

I/G adresse

adresse sur 16 bits


1 bit 1 bit 46 bits

I/G U/L adresse

adresse sur 48 bits l/G = 0 - adresse individuelle


I/G = 1 - adresse de groupe
U/L = 0 - adresse administrée
globalement
U/L = 1 - adresse administrée
localement

Figure 3.6. Format des adresses

L'utilisation d'une adresse de groupe permet à plusieurs stations de recevoir la


même trame, on parle alors d'adressage multicast. Si la diffusion est faite sur tout le
réseau, le champ destination ne comporte que des bits à 1, l'adressage est de type
broadcast.

- Longueur du champ d'information (Length) : sur 2 octets, ce champ indique la


longueur effective des données LLC en nombre d'octets, compris entre 0 et 1 500. Il
permet de distinguer les données des éventuels octets de bourrage.
- Données (Data) : champ de données LLC.
- Bourrage (Pad) : des octets de bourrage sont ajoutés par la sous-couche MAC
lorsque la taille des données est inférieure à 46 octets de données, ce afin de satisfaire
la contrainte sur la taille minimale des trames.
- FCS (Frame Control Sequence) : constitué d'un mot de 32 bits, ce champ
contient la séquence de contrôle de redondance longitudinale, calculée sur tous les
champs exceptés le préambule, le délimiteur de début de trame et le champ de
contrôle lui-même. Ce contrôle permet de détecter les erreurs apparues lors de la
transmission, dues généralement à des parasites.

Le standard IEEE 802.3, bien qu'issu d'Ethernet, présente quelques différences ;


ainsi la trame Ethernet ne comporte pas de champ Length, mais un champ Type qui
sert à indiquer par quel point d'accès (SAP) passer pour que les données arrivent au
niveau supérieur. Pour la trame 802.3, cette information est véhiculée dans le
premier octet du champ information. D'autre part, la trame Ethernet ne propose que
des adresses sur 6 octets.

3.2.4. Paramètres du protocole MAC

Le paramétrage est destiné à obtenir, de toutes les stations raccordées, un


comportement identique qui est indispensable au bon enchaînement du protocole
résolvant les collisions inévitables par nature. Il est le même pour tous les supports
72 Architecture des réseaux haut débit

normalisés. Les paramètres recommandés par le standard IEEE 802.3 sont donnés en
tableau 3 . 1 .

paramètre signification valeur


SLOT TIME fenêtre de collision 512 temps-bit
INTERFRAME GAP attente entre deux transmissions 9,6 fis
ATTEMPT LIMIT nombre maximal de retransmissions 16
BACKOFF LIMIT limite maximale de l'intervalle de tirage 10
JAM SIZE taille de la séquence de bourrage 4 octets
MAX FRAME SIZE longueur maximale de trame 1518 octets
MIN FRAME SIZE longueur minimale de trame 64 octets
ADDRESS SIZE longueur du champ d'adresse 48 bits

Tableau 3 . 1 . Paramètres CSMA/CD

3.3. Service MAC

Le service MAC est utilisé par les entités de la couche LLC pour permettre
l'échange des données entre les couches MAC et LLC. Le protocole CSMA/CD
étant en mode non connecté, le service de la couche MAC ne concerne que le
transfert de données.

Les primitives de service de la sous-couche MAC sont au nombre de deux :


- MA_DATA.request,
- MAJDATA.indication.

L'enchaînement de ces primitives est montré en figure 3.6. Dans cette figure, la
primitive de requête est considérée comme une fonction qui retourne un status. De
manière plus abstraite et moins dépendante des considérations d'implantation, on
aurait pu tout aussi bien considérer l'existence d'une troisième primitive,
MA_DATA.confirmation ou MA_DATA_STATUS.indication.

émetteur récepteur
MAJJATA.req

MA_DATA.ind

F i g u r e 3.7. Enchaînement des primitives du service MAC


Ethernet et Ethernet 100 Mbit 73

3.3.1. La primitive MA_DATA.request

Elle permet de transférer des données d'une entité LLC émettrice vers une ou
plusieurs (en cas d'adresse de groupe) entités LLC réceptrices. Quand cette primitive
arrive au niveau MAC de la station émettrice, une trame est constituée à partir des
paramètres de cette primitive et des valeurs propres au niveau MAC, telles que
l'adresse source, la longueur des données et la séquence de contrôle qui sont
calculées.
La sémantique de la primitive est la suivante :
MA_DATA.request (dest_address, length_data, m_sdu, service_class) :
transmit_status ; où :
- le paramètre destination_address spécifie l'adresse de destination qui peut être
une adresse individuelle ou une adresse de groupe ;
- le paramètre length_data indique la longueur des données LLC ;
- le paramètre m_sdu contient l'unité de données du service MAC, c'est-à-dire la
trame LLC ;
- le paramètre service_class indique la qualité de service demandée par la couche
LLC ou un niveau supérieur. Il n'est pas utilisé dans la cas du protocole CSMA/CD
qui ne fournit qu'une seule classe de service.

La fonction retourne un compte-rendu sur le déroulement de la transmission dans


transmit _status qui peut prendre deux valeurs, transmitOK pour signaler que la
transmission s'est correctement déroulée et excessive jcollisionjerror pour signaler
que la trame a subi un nombre excessif de collisions et que la transmission a été
abandonnée.

3.3.2. La primitive MA _D AT A.indication

Cette primitive indique à la couche LLC qu'une trame MAC vient d'arriver au
niveau MAC. Elle n'est envoyée vers le niveau supérieur que si son format et son
FCS sont corrects et qu'elle est réellement destinée à la station.

Sa sémantique est :
MA_DATA.indication (dest_address,source_address,m_sdu) : reception_status ;
où :
- destination_address définit l'adresse destination de la trame reçue, soit l'adresse
individuelle de la station, soit celle d'un groupe de stations auquel elle appartient ;
- le paramètre source_address désigne la station émettrice de la trame reçue ;
- le paramètre m_sdu contient les données de la trame MAC reçue.
74 Architecture des réseaux haut débit

Le paramètre de retour Reception_status est utilisé pour communiquer au


récepteur l'état de l'information après sa transmission. La valeur ReceiveOK permet
d'indiquer que la trame ne comporte pas d'erreur et les données sont transmises au
niveau LLC dans le paramètre m_sdu. LengthError signale que la valeur du champ
longueur (Length) de la trame n'est pas cohérente avec la longueur des données
réellement reçues. FrameCheckError indique qu'il n'y a pas égalité entre la valeur du
champ FCS de la trame et le mot de contrôle calculé à la réception de la trame.
Enfin, AlignmentError signale que la trame reçue est erronée : non seulement le
champ de contrôle (FCS) n'est pas valide mais de plus, la longueur de la trame ne
correspond pas à un nombre entier d'octets.

3.4. La couche physique

Le niveau physique est essentiellement divisé en trois parties (figure 3.1) :

- la sous-couche PLS (Physical Layer Signalling) gère l'interface avec la couche


MAC, permet de générer les signaux électriques pour les bits issus de la sous-couche
MAC et inversement de coder les signaux physiques du support en signaux logiques
pour la sous-couche MAC ;

- 1'AUI (Attachment Unit Interface) n'est pas forcément physiquement présente


et permet à la station d'être éloignée du support ;

- la MAU (Medium Attachment Unit) réalise les principales fonctions du niveau


physique et diffère selon le support de transmission utilisé.

Cette configuration permet ainsi d'attribuer un minimum d'éléments


électroniques au point d'accès au support physique et tous les aspects matériels et
logiciels à la station (carte de contrôleur). Une station peut être alors distante du
point d'accès au support.

La transmission est le plus souvent en bande de base sur un câble coaxial


(10BASE5, 10BASE2).

3.4.1. Sous-couche PLS

La sous-couche PLS a pour tâche principale de transformer la suite de bits de la


trame MAC en signaux électriques qui vont être véhiculés sur le support physique.
En même temps, elle surveille le support et peut générer un signal de détection de
collision.
Ethernet et Ethernet 100 Mbit 75

3.4.2. Interface AUI

L'AUI définit l'interface entre la station proprement dite et la MAU. Elle consiste
en un câble de 50 mètres au maximum avec un connecteur à chaque extrémité. Le
câble comporte cinq paires symétriques blindées individuellement. Si la MAU se
trouve physiquement sur la même carte que la fonction MAC, l'AUI n'est pas
physiquement présente. L'AUI comporte deux circuits de données {Data_In et
Data_Out) et deux circuits de contrôle pour commander la MAU {Control_Out) et
pour donner l'état de la MAU (Control_In) ; un dernier circuit permet l'alimentation
de la MAU.

Le circuit Control_In véhicule l'un de ces trois messages :


- mau-available : la MAU est prête à envoyer une donnée sur le support et le
canal est libre ;
- mau-not-available (optionnel) : la MAU n'est pas prête à envoyer une donnée
sur le support ;
- signal-quality-error : il est envoyé en réponse à l'une de ces trois causes : un
signal impropre, une collision ou l'achèvement d'un envoi de données pour
confirmer que la signalisation de collision fonctionne correctement.

Le circuit ControljOut véhicule l'un de ces trois messages :


- normal : met la MAU en mode normal, la transmission et la réception sont
possibles ;
- mau-request : demande à la MAU d'être disponible, la station souhaitant
émettre des données ;
- isolate : met la MAU en mode de surveillance, la MAU est isolée du support
et la station peut ainsi observer le support en exécutant ses fonctions locales.

Les signaux sont codés selon le procédé de codage Manchester. Le débit du câble
est le même que celui du support physique utilisé, aucun tampon n'est alors
nécessaire dans la MAU.

3.4.3. Fonctions de la MAU

La MAU est un équipement destiné à relier une station à un support donné et à


gérer toutes les fonctions dépendantes du support. Une station donnée peut alors être
utilisée avec un autre support, en changeant uniquement de MAU.
La MAU est une unité d'accès au support qui assure les fonctions suivantes :

- transmission d'un signal sur le support,


- réception d'un signal en provenance du support,
76 Architecture des réseaux haut débit

- reconnaissance de la présence d'un signal sur le support physique,


- reconnaissance d'une collision,
- interruption automatique d'une trame anormalement longue.

Physiquement, c'est un "boîtier d'accès" rattaché au câble ou encore un circuit sur


une carte en fond de panier directement connecté aux bus de la machine.

3.5. Service PHY

3.5.1. Les primitives de service

Deux catégories de primitives sont présentes dans la couche physique :

- deux primitives pour le transfert de données entre l'utilisateur MAC et le


fournisseur de service PLS :
• PLS_DATA.request (output_unit),
• PLS_DATA.indication (input_unit) ;

- deux primitives qui n'ont qu'une signification locale à l'interface MAC-PLS :


• PLS_CARRIER.indication (carrier_status),
• PLS_SIGNAL.indication (signal_status).

Il est à noter qu'il n'y a pas de primitive de confirmation de transfert de données


vers l'entité MAC émettrice.

Les paramètres output_unit et input_unit représentent un seul élément binaire


qui peut prendre l'une de ces valeurs :
- ONE, ZERO : valeur binaire de la donnée,
- DATA_COMPLETE : transmission terminée (seulement pour output_unit).
Le paramètre carrier_status peut prendre les valeurs suivantes :
- CARRIER_ON : signal de porteuse détecté par la MAU,
- CARRIER_OFF : aucun signal de porteuse détecté par la MAU.

Le paramètre signal_status peut prendre les valeurs suivantes :


- SIGNAL_ERROR : la MAU a détecté une collision,
- NO_SIGNAL_ERROR : la MAU n'a détecté aucune collision.

3.5.2. Génération et effets

La primitive PLS_DATA.request est générée par la sous-couche MAC lorsque


celle-ci demande à transmettre un bit de données sur le support physique ou à arrêter
la transmission. A la réception de cette primitive, l'entité de la sous-couche PLS
encode et transmet un seul bit de données ou indique la fin de la transmission, selon
le cas.
Ethernet et Ethernet 100 Mbit 77

La primitive PLS_DATA.indication est générée par la sous-couche PLS à


destination de toutes les entités MAC du réseau après qu'une primitive de service
PLS_DATA.request ait été reçue.

La primitive PLS_CARRIER.indication rend compte de l'activité sur le support


à la sous-couche MAC. Elle est générée par la sous-couche PLS à chaque
changement de valeur du paramètre carrierjstatus.

La primitive PLS_SIGNAL.indication indique l'état de la couche physique. Elle


est générée par la sous-couche PLS dès qu'il y a un changement de la valeur du
paramètre signal_status.

3.6. Les supports

Ces dernières années ont vu la multiplication des supports CSMA/CD. La


plupart des supports sont utilisés en respectant le protocole CSMA/CD tel qu'il est
spécifié dans le standard 802.3. Cependant pour augmenter le débit j u s q u ' à
100 Mbit/s, de nouveaux protocoles d'accès ont été développés et qui sont appelés
abusivement "Ethernet 100 Mbit". Nous détaillons d'abord le support de base de la
spécification — le câble coaxial à 50 ohms ainsi que les répéteurs — et ensuite le
support à base de paires torsadées. Nous récapitulons ensuite dans un tableau les
principales caractéristiques des autres supports. Dans le paragraphe 3.7, nous
présentons les propositions concurrentes pour un réseau Ethernet à 100 Mbit/s.

Les différents supports adoptent une notation en trois parties :

- débit du support en Mbit/s,


- type de support,
- longueur maximale d'un segment (unité = 100 m).

Ainsi, le support noté 10BASE5 indique que le débit est de 10 Mbit/s, que le
support est constitué de câble coaxial bande de base et qu'un segment de ce câble fait
au maximum 500 m.

3.6.1. Supports à base de câble coaxial

Trois spécifications à base de câble coaxial ont été définies : 10BASE5,


10BASE2 [IEEE 802.3a] et 10BROAD36. La spécification du support physique de
type 10BASE5 (câble épais), basée sur Ethernet, fut la première spécification
introduite dans le standard IEEE 802.3. Le support est donc le câble coaxial à
50 ohms blindé de bonne qualité (câble jaune de type RG11). Le support de type
10BASE2 utilise un câble coaxial fin et non blindé (câble noir RG 58), plus souple
et plus simple à manipuler [IEEE 802.3a].
78 Architecture des réseaux haut débit

Le débit est de 10 Mbit/s, ce qui n'est pas sans conséquences sur les paramètres
du protocole CSMA/CD (cf. 3.2.4).
Chaque segment de câble est terminé par un terminateur d'impédance,
communément appelé "bouchon", qui évite la réflexion du signal à son arrivée à
l'extrémité du câble.
Sur ce support, le codage des signaux se fait en bande de base. L'espacement
entre deux stations adjacentes est un multiple de 2,5 m, cela afin d'assurer que les
stations adjacentes ne sont pas en phase entre elles. Le nombre maximum de
stations connectées par segment est de 100 sur le câble blindé et de 30 sur le câble
fin.
La taille d'un segment est limitée à 500 mètres. Cependant, il est possible
d'étendre la longueur du réseau en interconnectant plusieurs segments par
l'intermédiaire de répéteurs (unités d'interconnexion permettant d'amplifier le signal),
l'ensemble de ces interconnexions se comportant comme un support physique
unique. Le standard limite à 4 le nombre de répéteurs sur un chemin de données entre
2 stations, ce qui a pour effet de limiter la longueur totale du réseau à 2,5 km.
La spécification 10BROAD36 [IEEE 802.3b] concerne la transmission des
services large bande (d'où son nom). Le câble utilisé est le câble CATV à 75 ohms.
La transmission se fait par modulation de fréquence sur des segments de 3.6 km
maximum.

3.6.2. Les répéteurs

Nous nous intéressons ici aux répéteurs utilisés pour le réseau 10BASE5 qui est
spécifié dans le standard [IEEE 802.3c]. Les répéteurs permettent d'étendre le réseau
en juxtaposant deux brins (figure 3.8). Ils sont constitués de deux MAU, chaque
MAU étant connectée à un segment différent. Le répéteur est transparent pour le
réseau, c'est-à-dire qu'il n'y a pas de mémorisation et que les deux brins ne sont pas
isolés l'un de l'autre. En conséquence :

- les signaux numériques sont transmis dans les deux directions entre les deux
segments ;
- au passage, les signaux sont amplifiés et régénérés ;
- si un répéteur détecte une collision sur un segment, il transmet des caractères
de bourrage sur l'autre segment ;
- si deux stations sur deux segments différents émettent en même temps, il y
aura collision.

Le débit maximum fournit par le réseau est de 10 Mbits/s.

Un répéteur permet aussi de connecter des supports de types différents, par


exemple : câble épais et câble fin ou câble coaxial et fibre optique. Cependant, les
débits doivent être identiques puisqu'il n'y a aucune mémorisation dans un répéteur.
Ethernet et Ethernet 100 Mbit 79

station répéteur

câble
terminateur
transceiver

Figure 3 . 8 . Réseau comportant trois segments de câble

Il est aussi possible de raccorder via une fibre optique deux segments de câble
distants d'au plus 1 km (figure 3.9). La fibre est désignée par le terme de liaison
inter-répéteur. Le répéteur contient deux MAU de types différents, d'un côté, la MAU
pour câble coaxial et de l'autre, la FOMAU (Fiber Optic Medium Access Unit). Le
débit sur la fibre optique sera de 10 Mbit/s.

segment
réseau répéteur de répéteur réseau
10BASE5 fibre optique 10BASE5
ou *" ou
10BASE2 AUI AUI 10BASE2

FOMAU FOMAU

Figure 3 . 9 . Raccordement de deux câbles distants par une fibre optique

3.6.3. Supports à base de paires torsadées

L'utilisation du câble coaxial entraîne un coût non négligeable, de par le support


lui-même et l'installation du câblage. L'utilisation de la paire torsadée remédie à ces
inconvénients du fait de son coût et du pré-câblage téléphonique des immeubles.
Deux spécifications ont vu le jour : 1BASE5 [IEEE 802.3e] et 10BASET (où T
signifie Twisted Pair).

Les stations sont raccordées en étoile à un équipement appelé hub qui joue le rôle
de diffusion du bus passif. Le « hub » est un équipement de niveau physique comme
le montre la figure 3.10. Il possède une multitude de ports, un port par connexion à
une station. Son architecture comporte deux niveaux : le niveau MDI (Medium
Dependent Interface) avec une entité par port d'accès et le niveau PLS pour la
communication entre les ports.
80 Architecture des réseaux haut débit

HUB PLS

MDI MDI MDI


station station hub
supérieur

vers les stations vers un hub de


niveau supérieur

Figure 3.10. Architecture simplifiée d'un hub

Chaque station est connectée en point à point au hub grâce à deux paires
torsadées, une pour chaque sens de transmission. La différence entre 1BASE5 et
10BASET vient du type de paires utilisées : 1BASE5 utilise des câbles UTP
catégorie 3 (qualité téléphonique) alors que 10BASET utilise généralement des câbles
UTP catégorie 5 (qualité données) et plus rarement des câbles UTP3 ou UTP4.
L'utilisation de câbles STP n'est pas définie dans la spécification quoique certains
produits les proposent. La longueur de ces paires est au maximum de 250 m pour
1BASE5 et de 100 m pour 10BASET (jusqu'à 150 m en fonction de l'atténuation du
signal sur le support qui doit être au maximum de 11,5 dB).
Le hub joue le rôle du bus passif : il retransmet les données qu'il reçoit d'une
station vers toutes les autres stations. Par ailleurs, si au moins deux stations
émettent simultanément vers le hub, il retransmet un signal de présence de collision
à toutes les stations.
Il est possible d'utiliser plus d'un hub dans un réseau de manière à former une
hiérarchie de hubs (figure 3.11). Dans ce cas, un hub de niveau intermédiaire
retransmet les données reçues d'une station vers le hub de niveau supérieur. Il
retransmet les données reçues d'un hub supérieur à tous les hubs inférieurs et toutes
les stations qui lui sont raccordées. Il est spécifié cinq niveaux de hubs au maximum
pour satisfaire la contrainte de durée maximale sur le slot-time. Les hubs assurent
également la fonction de répétition du signal.

hub
supérieur

hub hub
intermédiaire intermédiaire

stations stations

F i g u r e 3 . 1 1 . Réseau comportant une hiérarchie de hubs


Ethernet et Ethernet 100 Mbit 81

3.6.4. Supports à base de fibre optique

Trois types de supports à base de fibre optique ont été normalisés et sont
regroupés sous l'appellation 10BASEF ; chaque type correspondant à une topologie
différente [IS 8802-3-14]. La transmission de l'information se fait avec un débit de
10 Mbit/s en bande de base.

La spécification 10BASEFP (P pour Passive Star) définit une topologie en étoile


passive qui fusionne les fibres optiques s'y raccordant et permet l'éclatement du
signal lumineux. Le cœur de l'étoile ne comporte aucun composant électronique et
son temps de traversée est quasi nul. La distance transmetteur-étoile ne doit pas
dépasser 500 m.

Le support 10BASEFL (L pour Link) spécifie un type particulier de répéteurs,


les répéteurs FOIRL (Fiber Optic Inter Repeater Link) qui permettent
l'interconnexion de deux segments de câble ou de fibre optique à distance (figure
3.12). Cette liaison inter-répéteurs est de 1 km dans la première spécification et peut
aller jusqu'à 2 km avec la nouvelle. Elle peut aussi servir à bâtir une topologie en
étoile autour d'un répéteur multi-port.

réseau 10Base5 réseau 10Base5

fibre optique

i répéteur répéteur
\FOIRL FOIRL/

Figure 3.12. Interconnexion de deux câbles par une fibre optique

Le support 10BASEFB (B pour Backbone) définit une topologie en étoile active


permettant la mise en œuvre d'un réseau fédérateur. Il utilise des transmetteurs
optiques FOMAU (Fiber Optic Medium Access Unit). La distance étoile-
transmetteur peut aller jusqu'à 2 km.
82 Architecture des réseaux haut débit

3.6.5. Récapitulatif

normes 10BASE5 10BASE2 10BROAD36 10BASET 10BASEF


support coaxial 50 coaxial fin câble CATV paires fibre optique
torsadées
débit 10 Mbit/s 10Mbit/s 10Mbit/s 10 Mbit/s 10 Mbit/s
longueur 500 m 185 m 1 800 m 100 m 1 km
segment
taille réseau 2 500 m 925 m 3 600 m 5 hubs en —
cascade
inter- 2,5 m min 0,5 m min — 250 m max —
stations
nb stations 100 30 — — —
par segment
codage Manchester Manchester modulation Manchester —
remarque MAU pour les utilise un utilise un
intégrée sur services hub hub
carte large bande
contrôleur,
compatible
10BASE5
topologie bus bus bus étoile étoile

Tableau 3.2. Récapitulatif des différents supports

3.7. Ethernet 100 Mbit/s

Les nouveaux services multimédias sont gourmands en bande passante et le


réseau local devient le goulot d'étranglement du système. Pour cette raison, tant les
constructeurs que les utilisateurs ont la volonté de faire évoluer le réseau Ethernet
vers les hauts débits, c'est-à-dire les 100 Mbit/s.

Issues des travaux du comité 802.3, deux propositions d'évolution d'Ethernet


s'affrontent et ont eu pour résultat la création de deux nouveaux comités : les
comités 802.12 et 802.14. Ces deux propositions sont :

- Fast Ethernet qui est l'évolution de la spécification 10BASET, définie par le


comité 802.14 ;
- lOOVGAnyLan utilise un nouveau protocole MAC, défini par le comité
802.12.

Parallèlement à ces travaux, des approches totalement différentes mais toutes


aussi opérationnelles voient le jour :

- commutateur Ethernet,
- Ethernet Isochrone.
Ethernet et Ethernet 100 Mbit 83

3.7.1. Fast Ethernet

Cette proposition est soutenue par 3COM et a conduit à la création d'un nouveau
groupe de travail à l'IEEE, le 802.14. La spécification est en cours de finition.

Encore appelé 100BASET, Fast Ethernet est l'évolution naturelle de 10BASET.


Le protocole reste identique à CSMA/CD et la topologie est en étoile.

Fast Ethernet spécifie en fait trois supports différents :

- 100BASETX utilise comme 10BASET des paires torsadées non blindées (UTP
catégorie 5) mais sur des longueurs de câble réduites (100 m au maximum) pour
permettre le débit de 100 Mbit/s. La couche physique est la même que celle de FDDI
avec paires torsadées.

- 100BASEFX utilise la fibre optique multimode sur des longueurs de plus de


200 m. La couche physique est la même que FDDI pour ce type de fibre.

- 100BASET4 (anciennement 4T+) utilise des câbles comprenant 4 paires


torsadées catégories 3, 4 ou 5. Trois paires sont utilisées pour les données et une
paire pour détecter la collision. La longueur d'un tel câble ne devrait pas dépasser
100 m. Le codage utilisé est cette fois-ci, le codage 8B/6T qui code 8 bits dans 6
"trits" qui est un code à 3 états et permet une fréquence de transmission des
symboles de seulement 25 MHz.

Le point fort de ces propositions est de rendre possible la migration de 10BASET


vers 100BASET en utilisant le même câblage mais avec cependant, de nouveaux
composants d'accès. Le codage et le mode de transmission étant le même qu'en
10BASET. il est cependant possible de procéder à une migration progressive du
réseau : équiper d'abord les serveurs en cartes 100 Mbit/s puis les stations de travail
au fur et à mesure de leur renouvellement.

3.7.2. lOOVGAnyLan

Cette proposition est supportée par Hewlett-Packard, IBM et A T & T


Microelectronics. Elle est à l'étude au sein d'un nouveau groupe de travail, le groupe
IEEE 802.12.

Son nom « 100VG » provient de "Voice Grade" c'est-à-dire l'utilisation de paires


torsadées de qualité téléphonique. Son objectif est, tout comme pour Fast Ethernet,
d'augmenter le débit binaire des réseaux 10BASET sans devoir tout recâbler mais
aussi d'améliorer l'accès au réseau.

La compatibilité avec 10 BASET est assurée pour les points suivants :

- topologie en étoile-arbre : hub et liens point à point,


- hiérarchie d'au maximum 5 hubs,
84 Architecture des réseaux haut débit

- câblage identique (soit qualité données soit qualité téléphonique), spécifications


de pose, de faisceaux et de connecteurs,
- même format des trames Ethernet,
- même fréquence de transmission (15-16 MHz).

Les différences sont :


- transmission et signalisation sur les 4 paires au lieu de 2 pour 10BASET,
- signalisation Quartet pour la transmission sur les 4 paires à une fréquence
faible (30 MHz),
- codage plus efficace (5B/6B au lieu du codage Manchester),
- un nouveau protocole d'accès au support, le protocole DPAM,
- hub intelligent réglant les conflits d'accès grâce au protocole DPAM.

Le protocole D P A M (Demand Priority Access Method) vise à améliorer


l'utilisation du support qui est très faible avec CSMA/CD (moins de 50 % ) . Il
appartient à la famille de protocoles de type polling [Watson 95]. Le partage d'accès
au réseau est maintenant centralisé et concentré dans le hub. Une station qui désire
transmettre une trame fait une requête vers le hub indiquant son niveau de service. Le
niveau de service dépend du type de trafic : synchrone ou asynchrone. Si le réseau
est libre, le hub acquitte la requête de la station et celle-ci peut envoyer sa trame vers
le hub. Le hub retransmet directement cette trame vers la station destinataire avec
une latence et un délai minimaux ; il n'y a pas diffusion.

Si plus de deux requêtes arrivent simultanément au hub, il sert d'abord la requête


de plus haute priorité. Si elles ont le même niveau de priorité, le hub sert ces
requêtes à tour de rôle en allouant la bande passante de manière équitable.

Ce protocole ne présente pas de dégradation de ses performances même lorsque la


charge augmente. Simplement, le hub retransmet des trames en continu. La bande
passante est donc garantie pour les applications de nature critique.

Les supports préconisés sont de deux types :

- le câble de 4 paires torsadées blindées (STP) avec une longueur maximale de


segment limitée à 100 m,
- la fibre optique multimode avec une longueur maximale de segment limitée à
1 km.

Quoique utilisant un câblage identique à celui de 10BASET, la transmission sur


les 4 paires ne permet pas de conserver les équipements de connexion aux paires.
Ethernet et Ethernet 100 Mbit 85

3.7.3. Ethernet Full Duplex

Ethernet Full Duplex est encore désigné sous les termes de "Switched Ethernet"
ou de "commutateur Ethernet". Dans cette solution, le hub d'une étoile 10BASET
est remplacé par un commutateur à très haut débit en vue d'améliorer l'utilisation
des équipements par rapport à 10BASET. En effet, lorsqu'un nœud transmet une
trame vers son hub de rattachement, ladite trame remonte la hiérarchie puis est
rediffusée par le hub racine vers tous ses nœuds et tous les hubs inférieurs et ce,
même si les deux nœuds sont connectés au même hub.

Le commutateur évite ces transferts inutiles en agissant comme un pont multi-


port ; il ne retransmet une trame que sur son port de destination et effectue ainsi un
routage de la trame. Il est toutefois beaucoup plus rapide qu'un pont car il utilise
une technologie de commutation rapide permettant le décodage des adresses au vol
sans avoir reçu l'intégralité de la trame puis sa propagation immédiate. Cette
technique prend les noms de "retransmission rapide" (fast forward) ou de "routage au
vol" (routing on the fly) et diffère donc de la commutation de paquets classique qui
utilise le "stockage avant retransmission" (store-and-forward). L'apprentissage des
adresses est comparable à celui d'un pont intelligent. Le commutateur améliore
encore l'utilisation des équipements, d'une part, en évitant les collisions, chaque
station étant connectée à un port différent et d'autre part, en permettant la
commutation en parallèle de plusieurs communications. Cette dernière fonctionnalité
est liée à l'architecture du commutateur (figure 3.13).

bulfer de sortie buffer de sortie


port 5 interface Ethernet port 1
interface Ethernet
buffer d'entrée buffer d'entrée

traitement lié butter de sortie


à une interface i oiurrutUiiuiii
décodage adresse au vol interface Ethernet port 2
apprentissage adresse
source routage buffer d'entrée

CPU
buffer de sortie buffer de sortie

port 4 table de routage


interface Ethernet interface Ethernet port i
adresse port
buffer d'entrée buffer d'entrée

F i g u r e 3 . 1 3 . Architecture interne d'un commutateur Ethernet


86 Architecture des réseaux haut débit

Les paires torsadées raccordées au commutateur sont utilisées en full duplex


(bidirectionnel simultané) avec le même débit d'accès dans chaque sens pouvant aller
de 2 Mbit/s à 20 Mbit/s, voire 100 Mbit/s sur certaines implantations (figure 3.14).

Par rapport à un pont, un commutateur Ethernet est moins cher mais il ne


permet pour l'instant de connecter que des réseaux ou des équipements utilisant le
même protocole d'accès. Tout comme les propositions d'Ethernet 100 Mbit/s, il
permet de conserver le câblage 10BASET. Les performances varient d'un
commutateur à l'autre et dépendent de sa puissance ; celle-ci est définie par sa
rapidité de commutation et également par le nombre de communications qu'il peut
traiter en parallèle.

station 16 ports commutés e r v e u r


\— 10 Mbit/s 0 Mbit/s -
1
station serveur
J I
1 0
Mbit/s

O- 2
Mbit/s
serveur
| | - 2 Mbit/s

D-

Figure 3 . 1 4 . Schéma simplifié d'un commutateur Ethernet

3.7.4. Ethernet isochrone

Une autre proposition est actuellement à l'étude dans le groupe de travail IEEE
802.9. Elle est désignée sous le terme alléchant d"'Ethernet isochrone" bien que le
protocole utilisé n'ait rien à voir avec celui d'Ethernet. En effet, le protocole d'accès
est de type Slotted et se rapproche donc de celui de DQDB. La topologie est une
étoile et le support physique serait compatible avec 10BASET. L'avantage de ce
protocole est qu'il permet le transfert de données isochrones.
Ethernet et Ethernet 100 Mbit 87

Exercices

Exercice 3.1

Soit un réseau local en bus de longueur D km. La vitesse de propagation du


signal sur le support est de V km/s. La capacité de transfert du support est de C
bit/s. Donnez la forme de L, longueur minimale d'une trame pour que le protocole
CSMA/CD fonctionne.

A. N. : C = 10 Mbit/s, D = 2,5 km, V = 100 000 km/s

Exercice 3.2
Le protocole CSMA/CD spécifie une longueur minimale de trame de 512 bits.
Quelle est la distance maximale d'un chemin de données entre 2 stations pour un
réseau à 100 Mbit/s et une vitesse de propagation de 100 000 km/s ? Déduisez la
longueur maximale d'un segment de paires torsadées sachant qu'un chemin de
données est composé de 2 segments de paires torsadées.

Exercice 3.3

Soit un réseau local en bus utilisant un protocole de type CSMA/CD et


comportant 4 stations notées A, B, C et D. A l'instant t = 0, la station A commence
à transmettre une trame dont le temps d'émission dure 6 slots. A t = 5, les stations
B, C et D décident chacune de transmettre une trame de durée 6 slots.

L'algorithme de reprise après collision est le suivant :


PROCEDURE backoff (attempts : INTEGER ;

VAR maxbackoff : INTEGER) ;

{attempts : compteur de t e n t a t i v e s de transmission }


{maxbackoff : borne sup. de l ' i n t e r v a l l e de tirage}

CONST slot_time = 51,2 ; {micro-secondes}

backoff_limit = 10 ;

VAR delay : integer ; {attente avant retransmission}

BEGIN

IF attempts = 1

THEN maxbackoff := 2

ELSE

IF attempts <= backoff_limit

THEN m a x b a c k o f f := maxbackoff * 2
1 0
ELSE {maxbackoff = 2 } ;

delay := int (random * maxbackoff) ;

wait (delay * slot_time) ;

END;
88 Architecture des réseaux haut débit

r a n d o m est une fonction qui tire de manière aléatoire un nombre réel dans [0,1 [.
i n t est une fonction qui rend la partie entière par défaut d'un réel. Dans l'exercice,
on considérera que la fonction r a n d o m rend respectivement et successivement les
valeurs données par le tableau suivant :

stations B C D
1 er
tirage 1/4 1/2 3/4
e
2 tirage 3/5 1/4 1/4
e
3 tirage 1/3 1/2 1/8

1. Dessinez un diagramme des temps gradué en slots décrivant le déroulement des


différentes transmissions de trames, en adoptant la légende suivante :

A
x
slot occupé par A slol occupé par une collision slol inoccupé

slot : 0 1 2

A A A A A A

2. Calculez sur la période allant de t = 0 à la fin de la transmission de la dernière


trame le taux d'utilisation du canal pour la transmission effective de trames.

Exercice 3.4

1. Deux stations entrent en collision. Pour A, il s'agit d'une première collision,


alors que pour B, il s'agit de la seconde collision. Quelle est la probabilité qu'il y
ait une nouvelle collision ?
2. En vous basant sur l'algorithme de Backoff, calculez le temps moyen D d'attente n

cumulé pour l'accès au support pour une station lorsqu'elle a subi n collisions
successives pour une trame donnée.

Exercice 3.5
On considère un réseau métropolitain sur fibre optique de débit 100 Mbit/s et qui
couvre une distance de 100 km. Avec ces paramètres, quelles seraient les valeurs des
principaux paramètres du protocole CSMA/CD : temps de propagation, taille
minimale d'une trame, durée du slot-time ? Avec ces valeurs, montrez pourquoi le
protocole CSMA/CD n'a pas été retenu comme protocole de réseau métropolitain.

Exercice 3.6

Un réseau Ethernet à 10 Mbit/s vous paraît-il apte à transférer :


- des images numérisées fixes (une photo satellite, par exemple),
- des images animées (un film, par exemple) ?

Justifiez votre réponse.


Chapitre 4

Accès à jeton : Token Ring et Token Bus

4.1. Introduction

Contrairement aux méthodes d'accès aléatoire, les méthodes d'accès à base de


jeton évitent toute contention d'accès au support en garantissant qu'une seule station
à la fois peut émettre sur le support. Deux protocoles normalisés par l'IEEE
utilisent cette technique de partage du support et diffèrent par la topologie du
réseau : Token Ring (anneau à jeton) et Token Bus (bus à jeton). Dans ces deux
approches, le droit à émettre est matérialisé par une trame particulière appelée jeton
(token) qui est transmise de station en station, garantissant ainsi un accès équitable
au support. La distribution d'un droit à émettre est héritée de la méthode de polling
(cf. chapitre 2) mais contrairement à celle-ci, le passage du droit à émettre est ici
complètement décentralisé.

La solution Token Ring a été initialement commercialisée par la compagnie


IBM, avec un plan de câblage original [Bux 83]. Le protocole a d'abord été spécifié
dans le standard IEEE 802.5, puis repris tel quel dans la norme internationale IS
8802-5. Il s'agit d'un protocole d'accès sur un anneau unidirectionnel. Il utilise
complètement les propriétés de la topologie physique du réseau : sachant que le
jeton est une trame unique qui circule sur le réseau tant qu'aucune station ne s'en est
saisie, l'équité est garantie par la structure d'anneau unidirectionnel qui implique le
passage du jeton à tour de rôle au niveau de chaque station.

La technique Token Bus a été mise en place dans des produits pour pallier
l'indéterminisme d'Ethernet. Elle utilise le concept d'anneau logique pour la
circulation du jeton entre les stations. Ses spécifications sont données dans le
90 Architecture des réseaux haut débit

standard IEEE 802.4 et la norme internationale IS 8802-4. Il faut également noter


que cette technique a été retenue pour la couche MAC dans le profil d'architecture
MAP (Manufacturing Automation Protocol). Le protocole Token Bus, bien que
reposant sur le même principe d'accès que le Token Ring, utilise une topologie plus
générale, le bus bidirectionnel. Pour conserver la propriété d'équité du protocole,
l'accès au jeton par les stations est toujours fait à tour de rôle, au moyen d'un
anneau logique.

Les deux protocoles n'ont pas connu le même succès commercial. Token Bus a
été retenu dans le profil d'architecture défini par le groupement MAP [Minet 89]
mais n'est à ce jour mis en œuvre que dans un seul produit. De son côté, Token
Ring est le réseau local le plus répandu après Ethernet, avec de nombreux produits
disponibles sur le marché — IBM et non-IBM.

4.2. Token Ring

4.2.1. Principe de l'accès à jeton

Un anneau à jeton consiste en un ensemble de stations connectées en série par un


support de transmission (figure 4.1). L'information est transférée séquentiellement,
bit à bit, d'une station active à la suivante et toujours dans le même sens. Une
station peut être active et donc connectée à l'anneau (les stations A, C, D, E, F, G
et H de la figure 4.1) ou inactive (station B) et ne participant pas aux échanges ; on
dit que la station est dans l'état by-pass.

Figure 4.1. Configuration physique de l'anneau

Une trame particulière, appelée jeton, circule en permanence sur l'anneau. Le


jeton représente le droit à émettre. Pour émettre, la station doit obtenir le jeton ; en
d'autres termes, le jeton doit passer au niveau de son répéteur pour que la station s'en
saisisse. Une seule station possède le jeton à un instant donné, évitant ainsi tout
risque de collision (figure 4.2). La station détentrice du jeton émet alors une ou
plusieurs trames et ce, pendant un temps limité. La trame émise circule le long de
l'anneau, allant de station en station. Chaque station qui en est destinataire la recopie
et positionne au vol un ou plusieurs bits de son suffixe pour indiquer sa bonne ou sa
mauvaise réception.
Accès à jeton : Token Ring et Token Bus 91

T : jeton
Fi : trame i

les stations sont dans la station A souhaite


l'état Idle (repos) ; émettre : elle retire le
seul le jeton circule jeton de l'anneau et
sur l'anneau commence à émettre
sa trame Fl

3/ la station A finit sa 4/ la station C recopie au


transmission vol la trame Fl qui lui
est adressée

6/ la station A remet le
jeton sur l'anneau

F i g u r e 4 . 2 . Accès à l'anneau à jeton

Lorsque la trame revient à la station qui l'avait émise, cette dernière la retire de
l'anneau (son répéteur ne la répète pas) et rend le jeton. Le jeton circule alors sur
l'anneau jusqu'à ce qu'il soit de nouveau capturé par une station désirant émettre.

4.2.2. Structure du standard 802.5

Le standard 802.5 spécifie non seulement les couches MAC (Medium Access
Control) et physique mais aussi une couche transversale aux deux premières qui
concerne la gestion de la station et de l'anneau, réalisée par le protocole SMT
(Station ManagemenT) (figure 4.3).
92 Architecture des réseaux haut débit

LLC
Logical Link Control
liaison

VJ
MAC

2
Medium Access Contre

H
PHY Station
Physical 4anagemenT
physique

support

F i g u r e 4 . 3 . Architecture Token Ring

4.2.3. Le protocole MAC 802.5

4.2.3.1. Les trames MAC

Deux formats de trame différents sont utilisés par le protocole : le jeton et la


trame.
Le format du jeton est défini en figure 4.4. Chaque champ ne comporte qu'un
seul octet. Cette trame représente le droit à transmettre sur l'anneau. Les champs du
jeton ont la même signification que pour la trame mais ne sont pas positionnés de la
même façon.

SD - Starting Delimiter
SD AC ED AC - Access Control
ED - Ending Delimiter

F i g u r e 4 . 4 . Format du jeton

Le format de la trame est défini dans la figure 4.5. Une trame peut transmettre
des données ou des informations de contrôle de l'anneau. Par rapport aux standards
802.3 et 802.4, on remarque d'abord l'absence du champ "Préambule", rendu inutile
par le fait que toutes les stations sont actives, donc synchronisées en permanence.

-SFS -couverture du FCS— EFS-

SE AC FC DA SA RI INFO FCS ED FS

SFS - Start of Frame Sequence AC - Access Control RI - Routing Information


FCS - Frame Check Sequence FC - Frame Control INFO - Information
EFS - End of Frame Sequence DA - Destination Address ED - Ending Delimiter
S D - Starting Delimiter SA - Source Address FS - Frame Status

F i g u r e 4 . 5 . Format d'une trame


Accès à jeton : Token Ring et Token Bus 93

Les champs constituant la trame sont les suivants :

- SD (Starting Delimiter), champ codé sur 1 octet, sert à délimiter le début


d'une trame ou d'un jeton. Il a un format de type "JK0JK000", où J et K sont des
symboles non binaires (ni 0, ni 1) ne pouvant apparaître ainsi dans le champ de
données de la trame ;

- l'octet AC (Access Control) permet l'accès au support car il contient le Token


Bit qui est le discriminant entre les deux types de trame (positionné à 0 dans un
jeton et à 1 dans toutes les autres trames) (figure 4.6). AC permet d'autre part de
mettre en place la surveillance du retrait des trames grâce au bit M (monitor bit). Les
bits P de priorité indiquent la priorité du jeton courant. Les bits R de réservation
permettent à une station de plus grande priorité d'augmenter la priorité du prochain
jeton (cf. 4.2.3.6) ;

PPP - priority bits


T - token bit
P P P TM R RR M - monitor bit
RRR - reservation bits

Figure 4.6. Le champ AC

- FC (Frame Control) décrit le type de trame et ses particularités. Les deux


premiers bits, FF, définissent le type de trame (tableau 4.1). Les six bits suivants
permettent de différencier les différents types de trame MAC (tableau 4.2). Dans une
trame de données (trame LLC), on peut indiquer la priorité de la transmission dans
les trois derniers bits du champ FC (ce qui donne un codage du type "01000PPP") ;

FF type de trame
1x non défini
01 trame LLC
00 trame MAC

Tableau 4.1. Les bits FF du champ FC

champ FC type de trame MAC


00000000 Test Address Double
00000001 Express Buffer
00000010 Beacon
00000011 Claim Token
00000100 Ring Purge
00000101 Active Monitor Present (AMP)
00000110 Standby Monitor Present (SMP)

Tableau 4.2. Le champ FC


94 Architecture des réseaux haut débit

- les adresses de destination (DA — Destination Address) et de source (SA —


Source Address) sont des champs de 2 ou 6 octets. Elles ont la même signification
que pour les autres types de réseaux locaux normalisés (figure 4.7). Le bit I/G donne
le type d'adresse, individuelle (I/G = 0) ou de groupe (I/G = 1 ). Le bit U/L indique si
l'adresse a été allouée par une administration universelle (U/L = 0) ou locale
( U / L = 1).

1 bit 1 bit 46 bits

I/G U/L adresse de la station

adresse sur 48 bits


1 bii 15 bits

I/G adresse de la station

adresse sur 16 bits

Figure 4.7. Structure des champs d'adresse

Pour identifier facilement des fonctions d'administration, il est défini des adresses
fonctionnelles telles que '01' (en hexadécimal) pour le moniteur actif, '02' pour le
serveur de paramètre de l'anneau, '08' pour le moniteur d'erreur de l'anneau ou encore
'10' pour le serveur de rapport de configuration ;

- le champ d'information de routage (RI — Routing Information) n'était pas


présent dans les spécifications initiales de 1985. Il permet le routage de la trame par
la station source, notamment lorsque la trame est appelée à traverser une succession
de ponts. La longueur de l'information de routage étant variable (mais néanmoins
comprise entre 2 et 30 octets), cinq des bits du premier octet permettent de la
représenter (figure 4.8) ;

8 bits de 2 à 30 octets

000 longueur Routing Information

Figure 4.8. Format du champ RI

- le champ de données (INFO) peut être vide ou contenir un ou plusieurs octets.


Bien qu'aucune taille maximale ne soit définie, le temps de transmission d'une trame
ne doit pas dépasser le temps maximum de détention du jeton de la station. La
sémantique de ce champ est déterminée grâce au champ FC : les trames de données
contiennent une trame LLC tandis que pour les trames MAC, le format de ce champ
dépend du type précis de la trame ;

- le champ de vérification (FCS — Frame Control Check), codé sur 4 octets,


permet de vérifier l'intégrité de transmission de la trame ;
Accès à jeton : Token Ring et Token Bus 95

- le délimiteur de fin (ED — Ending Delimiter) est une séquence particulière,


tout comme le délimiteur de début de trame, qui contient des symboles non binaires
(J et K) (figure 4.9). De plus, le bit I positionné à 1 indique qu'il s'agit d'une trame
intermédiaire dans une transmission multiple ; il est à 0 dans une trame unique ou
sur la dernière trame d'une transmission multiple. Le bit E est transmis initialement
à 0, il est positionné à 1 par la première station qui détecte une erreur lors du
passage de la trame et n'est plus modifié par les autres stations ;

I 1 — 1 — I J, K - symboles non binaires


T fC M If I i p 1-élément binaire 1
J
' I - bit de trame intermédiaire
E - bit d'erreur détectée

Figure 4.9. Le champ ED

- le status de la trame (FS — Frame Status) rend compte des conditions de


réception de la trame. Deux indicateurs sont définis, A (adresse du destinataire
reconnue) et C (trame copiée par le destinataire). Ces indicateurs sont répétés afin de
sécuriser leur transmission.
A - bit d'adresse reconnue
A C r r A C r r C - bit de trame copiée
r - réservé

Figure 4.10. Le champ FS

Une trame de moins de trois octets est invalide.

4.2.3.2. Transmission d'une trame de données

Le jeton circule de station en station et représente le droit à émettre. Une station


qui ne désire pas émettre se contente de répéter les bits entrants en aval de l'anneau.
Pour se saisir du jeton, la station arrête de répéter le signal entrant : elle modifie
le Token Bit du champ AC et transmet ensuite les champs nécessaires à une trame :
FC, adresses, données, FCS, etc. Pour pouvoir être pris, le jeton doit avoir un
niveau de priorité inférieur ou égal à celui de la transmission en cours. Un
temporisateur THT (Timer Holding Token) contrôle le temps maximum de détention
du jeton par une station.

4.2.3.3. Remise du jeton et retrait de la trame

Après avoir transmis ses trames de données, la station attend l'en-tête de sa


première trame ; elle vérifie que le champ SA (Source Address) est égal à sa propre
adresse (My_Address) et retransmet le jeton dès qu'elle a fini de transmettre. Après
avoir remis le jeton, la station continue à retirer de l'anneau toutes les trames qu'elle
y avait émises.
96 Architecture des réseaux haut débit

4.2.3.4. Automate de transmission

Le standard spécifie les différentes fonctions MAC sous forme de trois automates
d'états finis :

- automate de fonctionnement (operational machine),


- automate du moniteur en veille (standby monitor machine),
- automate du moniteur actif (active monitor machine).

Nous donnons ici une version simplifiée (sans le mécanisme de priorités) de la


machine opérationnelle (figure 4.11). Elle correspond à la partie "transmission"
d'une station et inclut donc les deux points décrits précédemment. Deux
temporisateurs sont utilisés. Le premier, TRR (Timer Return to Repeat), définit le
temps maximum de propagation sur l'anneau ; le second, THT (Timer Holding
Token) définit le temps maximum de possession du jeton par la station.

bits
r

0
fin ou
erreur
Répétition expiration de TRR

données
et jeton
Transmission expiration Retrait
de TRR
_ de trames y de trames

fin
" O K
Attente de retour
/
^V^d£jrames^-^

Figure 4.11. Automate de transmission

La machine d'états est initialement dans l'état 0 (Répétition). Dans cet état, la
station n ' a pas de trame à transmettre et se contente de répéter les bits entrants. Sur
réception d'une requête de transmission de données ou d'une trame SMT, elle cherche
à détecter le jeton. Dès réception du jeton, elle arme le temporisateur THT et passe
dans l'état 1. Dans l'état 1 (Transmission de trames), la station émet toutes les
trames de priorité supérieure ou égale à celle du jeton jusqu'à ce qu'il n'y ait plus de
PDU à transmettre ou que le temporisateur THT ait expiré. La station émet ensuite
une séquence de fin de trame (champs ED et FS) avec un bit I à 0 pour indiquer qu'il
s'agit de la dernière trame, arme le temporisateur TRR et passe dans l'état 2. Après
avoir détecté le jeton (Token Bit = 0), la station peut détecter des situations d'erreurs,
telles que l'absence du champ ED pour le jeton ou la réception d'une trame de
réinitialisation du réseau. La détection d'une anomalie provoque le retour à l'état 0.
Dans l'état 2 (Attente de retour de trames), la station attend le retour de sa propre
trame. Sur réception d'un champ SA (Source Address) contenant sa propre adresse, la
Accès à jeton : Token Ring et Token Bus 97

station réémet le jeton sur l'anneau et passe à l'état 3. Si le temporisateur TRR


expire sans qu'elle n'ait reçu de trame portant son adresse, le compteur de trames
perdues est incrémenté et la station retourne à l'état 0. Dans l'état 3 (Retrait de
trames) : la station retire les trames émises jusqu'à réception de sa dernière trame
(bit I positionné à 0) et retourne à l'état 0. Si elle ne reçoit pas la dernière trame,
elle s'arrête lorsque TRR expire et retourne à l'état 0.

4.2.3.5. Réception
Chaque station, tout en répétant les bits entrants, vérifie si la trame répétée lui
est destinée, auquel cas, elle copie les bits en même temps qu'elle les répète. Deux
types de trames peuvent lui être destinés, des trames de contrôle de l'anneau en
provenance de la station moniteur ou des trames de données dont l'adresse de
destination correspond à celle de la station. La station vérifie également si la trame
répétée a subi des erreurs de transmission ; dans ce cas, elle positionne au vol le bit
E du champ ED de la trame à 1 afin de signaler une erreur détectée. De plus, la
station destinataire d'une trame positionne dans le champ FS de la trame les bits A
et C à 1, indiquant ce faisant qu'elle a reconnu son adresse et qu'elle a pu copier la
trame.

4.2.3.6. Niveaux de priorité


IEEE 802.5 permet huit niveaux de priorité différents. Le mécanisme de priorités
intervient entre les stations, certaines stations étant plus prioritaires que d'autres ; il
permet, par exemple, à un pont d'écouler plus de trafic qu'une station ordinaire. A
l'intérieur d'un niveau de priorité donné, l'accès au jeton est équitable entre les
stations. La priorité d'un transfert est définie dans un des paramètres de la primitive
de demande de transfert de données MA_DATA.request. Une station ne peut se saisir
du jeton que si la priorité de ses PDU prêtes à être transmises est supérieure ou égale
à celle du jeton.

Chaque station gère un certain nombre de variables :


- Pm : priorité du message (PDU) qui doit être transmis par la station,
- Pr et Rr : registres qui contiennent respectivement la valeur des bits de
priorités (PPP) et celle des bits de réservation (RRR) du champ AC de la dernière
trame reçue,
- Sr et Sx : piles utilisées pour stocker respectivement l'ancienne et la nouvelle
valeur de priorité d'un jeton,
- R : niveau de réservation transmis par une trame.

Une station qui désire augmenter la priorité d'un jeton commence par réserver la
priorité du prochain jeton lors du passage d'une trame. Tout en répétant les bits de la
trame, la station va alors positionner les bits de réservation (RRR stockés dans Pr)
avec sa propre priorité (Pm) dans le champ AC. Si celle-ci est plus grande
(Rr < Pm), alors la station sauvegarde Pm dans R, sinon R reste inchangé. Si c'est
98 Architecture des réseaux haut débit

un jeton qui passe, la station peut modifier le champ de réservation du jeton


uniquement si Rr < Pm < Pr.

Quand la station capture le jeton (Pm > Pr), elle transmet toutes ses PDU de
niveau de priorité supérieur ou égal à celui du jeton capturé (jusqu'à épuisement des
PDU ou expiration de THT). Ensuite, la station remet le jeton avec la même priorité
et une valeur de réservation égale au maximum de (Rr, Pm).

Une station qui augmente le niveau de priorité du jeton a la responsabilité de


restituer cette priorité au niveau précédent. Pour cela, elle gère deux piles Sx et Sr
qui lui permettent de restituer cette priorité le moment venu. Un exemple de ce
mécanisme de priorités est traité dans l'exercice 4.2.

4.2.3.7. Les temporisateurs et les drapeaux

Chaque station gère un certain nombre de temporisateurs dont les valeurs sont
établies par défaut ou suite à un accord mutuel entre les utilisateurs du réseau local :

- TRR (Timer Return to Repeat) sert à s'assurer que la station peut retourner à
l'état de répétition (Repeat). Il est supérieur au temps de latence maximal de
l'anneau, soit le délai de propagation d'un signal autour d'un anneau de longueur
maximale augmenté des temps de latence de chaque station (par défaut, TRR =
4 ms) ;

- THT (Timer Holding Token) sert à contrôler la période maximale pendant


laquelle la station peut transmettre des trames après avoir pris le jeton. La
transmission d'une trame ne peut commencer que si la station est "sûre" qu'elle peut
être terminée avant l'expiration du THT (par défaut, THT = 8,9 ms) ;

- TQP (Timer Queue PDU) détermine le délai avant envoi d'une trame SMP
après réception d'une trame AMP ou SMP (par défaut, TQP = 20 ms) ;

- TVX (Timer Valid Transmission) est utilisé par le moniteur actif pour détecter
l'absence de transmission valide (par défaut, TVX = 10 ms) ;

- TNT (Timer No Token) est utilisé pour détecter la perte du jeton (par défaut,
TNT = 2,6 s) ;

- TAM (Timer Active Monitor) est utilisé par le moniteur actif pour déterminer
la période d'envoi d'une trame AMP (par défaut, TAM = 7 s) ;

- TSM (Timer Standby Monitor) est utilisé par les moniteurs en veille pour
vérifier qu'il y a bien un moniteur actif sur l'anneau et pour détecter si un jeton
circule en continu (par défaut, TSM = 15 s) ;

- TER (Timer Error Report) sert à reporter les valeurs des compteurs d'erreurs
dans des trames Report Error transmises au serveur d'erreurs (par défaut,
TER = 2 s) ;
Accès à jeton : Token Ring et Token Bus 99

- TBT (Timer Beacon Transmit) définit le temps pendant lequel une station émet
des trames Beacon avant de passer à l'état by-pass (par défaut, TBT= 16 s) ;
- TBR (Timer Beacon Receive) définit le temps pendant lequel une station peut
recevoir des trames Beacon de son voisin en aval avant de passer à l'état by-pass (par
défaut, TBR = 160 ms).

Les drapeaux sont utilisés pour mémoriser un événement particulier :

- I-FLAG est positionné sur réception d'un champ ED avec le bit I mis à 0 ;

- SFS-FLAG est positionné sur réception d'une séquence SFS ;


- MA-FLAG est positionné sur réception d'un champ Source Address (SA) égal
à l'adresse de la station ;
- SMP-FLAG est positionné par les moniteurs en veille sur réception d'une
trame SMP ou AMP avec les bits A et C à 0 ;
- NN-FLAG est positionné par le moniteur actif sur réception d'une trame SMP
ou AMP avec les bits A et C à 0 signifiant que le processus de notification est
complet ;
- BR-FLAG est positionné sur réception d'une trame Beacon et remis à zéro dès
réception de toute autre trame.

4.2.4. Protocole SMT et gestion des fautes

La gestion est centralisée dans une station appelée moniteur actif (Active
Monitor). Les autres stations sont en veille (Standby Monitor), capables de détecter
à tout moment une défaillance du moniteur actif et de prendre la relève du contrôle.

Le moniteur actif est la station qui a gagné le processus d'appel du jeton


(Claiming Token) lors de l'initialisation de l'anneau. Pendant cette phase, chaque
station arme son temporisateur TVX. S'il arrive à expiration, elle arme alors le
temporisateur TNT. S'il expire aussi, elle peut transmettre une trame de contrôle de
recherche de jeton (trame Claim Token). Si cette trame effectue une rotation de
l'anneau sans que la station ait reçu de trames similaires en provenance d'autres
stations (pour le vérifier, elle examine l'adresse source des trames MAC qu'elle reçoit
et la compare à sa propre adresse), elle devient alors le moniteur actif et génère un
nouveau jeton. Les autres stations deviennent moniteurs en veille et sont à l'écoute.

Le moniteur actif reprend les erreurs portant sur le jeton et sur ce qui circule sur
l'anneau. Pour cela, il positionne le bit M (Monitor) à 1 sur toutes les trames qu'il
voit passer et réarme le temporisateur TVX à chaque nouveau passage de trame ou de
jeton. L'absence de jeton est détectée par l'expiration de TVX ; le compteur d'erreurs
est alors incrémenté et une purge de l'anneau est effectuée. Les trames non valides
(moins de 3 octets) ou orphelines (trames dont le bit M est déjà positionné à 1) sont
1 00 Architecture des réseaux haut débit

retirées de l'anneau et donnent également lieu à une purge pendant TRR. Un jeton
circulant de façon persistante avec une certaine priorité est retiré de l'anneau et
remplacé par un jeton de priorité la plus faible.

Les moniteurs en veille ont un rôle plus limité. A l'initialisation de l'anneau,


chacun s'assure que son adresse de station est unique et qu'elle est connue de son
voisin, chaque moniteur notant l'adresse de son voisin direct en amont. A l'état de
veille, les moniteurs vérifient qu'il y a toujours un moniteur actif et signalent leur
présence à leurs voisins grâce à un protocole coopératif appelé procédure de
notification à ses voisins (Neighbor Notification). Cette procédure permet de vérifier
la connexité de l'anneau. Elle se déroule de la façon suivante :

- le moniteur actif commence par diffuser une trame AMP (Active Monitor
Present) ;

• la station immédiatement en aval effectue les opérations suivantes :


• armement de TSM,
• copie de la trame AMP et stockage de l'adresse de cette station (voisin en
amont),
• positionnement à 1 des bits A et C de la trame AMP,
• armement du temporisateur TQP,
• à expiration de TQP, transmission de sa trame SMP (Standby Monitor
Present) ;

- la station voisine effectue le même travail sur réception de la trame SMP et


ainsi de suite.

Si son temporisateur TSM expire, un moniteur en veille commence à


transmettre une trame Claim Token pour reprendre le rôle du moniteur actif. Si TNT
expire ensuite, la station transmet une trame Beacon qui a pour objet de signaler une
panne grave conduisant à une réinitalisation de l'anneau.

4.2.5. Services MAC 802.5

Les services MAC spécifient deux interfaces différentes, la première étant celle
avec LLC et la seconde avec celle de l'entité de gestion SMT.

4.2.5.1. Service MAC pour la sous-couche LLC

L'interface MAC/LLC est définie au moyen de trois primitives de service,


MA_DATA.request, MA_DATA.indication et MA_DATA.confirmation. Elle est
spécifiée dans la norme IS 10039.

La primitive MA_DATA.request permet de demander un transfert de trame LLC à


l'entité sous-jacente MAC. Elle possède les paramètres suivants :
Accès à jeton : Token Ring et Token Bus 101

- contrôle_de_trame : il donne la valeur de l'octet FC à utiliser pour la trame


MAC ;
- adresse_destination : elle peut être individuelle ou de groupe ;
- m_sdu : c'est la trame LLC à émettre ;
- classe_de_ser\ice_demandée : il s'agit du niveau de priorité Pm à utiliser pour
le transfert.

MA_DATA.indication indique qu'une trame de format valide et à destination de


la station a été reçue par la sous-couche M A C . Elle comporte les paramètres
suivants :
- contrôle_de_trame : il donne la valeur de l'octet FC de la trame reçue ;
- adresse_destination : elle peut être individuelle ou de groupe ;
- adresse_source : elle identifie l'émetteur de la trame ;
- m_sdu : c'est la trame LLC reçue et délivrée ;
- état_de_réception : il indique le succès ou l'échec de la réception, le compte
rendu portant sur l'état de la trame reçue (FR_GOOD ou FR_WITH_ERROR (la
raison de cette erreur est signalée)), la valeur du bit E (zéro, un ou invalide), les
valeurs des bits A et C (zéro_zéro, un_zéro, un_un ou invalide) ;
- classe _de ^service Journie : c'est le niveau de priorité qui a été utilisé pour le
transfert.

MA_DATA_confirmation n'a qu'une signification locale. Elle constitue pour


l'entité LLC émettrice une réponse à la primitive MA_DATA_request, indiquant le
succès ou l'échec de la transmission (mais pas de la réception). Ses paramètres
sont :
- état_de_transmission : il indique le succès ou l'échec de la transmission après
le retour de la trame à l'émetteur, avec l'état de la trame (FR_GOOD ou
FR_WITH_ERROR (la raison de cette erreur est signalée)), la valeur du bit E (zéro,
un ou invalide) et les valeurs des bits A et C (zéro_zéro, un_zéro, un_un ou
invalide) ;
- classe_de_servicefournie : c'est le niveau de priorité Pm effectivement utilisé
pour le transfert.

4.2.5.2. Service MAC pour l'entité SMT

L'interface entre la sous-couche MAC et l'entité SMT est purement locale à la


station. Elle est utilisée par le moniteur pour contrôler les opérations de la sous-
couche MAC d'une ou de plusieurs stations. Les primitives de ce service sont les
suivantes :
-MA_INITIALIZE_PROTOCOL.request,
- MA_INITIALIZE_PROTOCOL.confirmation,
1 02 Architecture des réseaux haut débit

- MA_CONTROL.request,
- MA_STATUS.indication,
- MA_NMT_DATA.request,
- MA_NMT_DATA.indication,
- MA_NMT_DATA.confirmation.

M A J N I T I A L I Z E _ P R O T O C O L . r e q u e s t est utilisée par l'entité SMT pour


initialiser ou modifier les paramètres opérationnels de la sous-couche MAC chaque
fois qu'il y a réinitialisation de celle-ci. Les paramètres fournissent une adresse de
station (individuelle, de groupe ou de diffusion) et une ou plusieurs valeurs de
paramètres MAC (temporisateurs, priorité de la trame AMP, etc.). La réception de
cette primitive oblige la sous-couche MAC de la station réceptrice à modifier les
valeurs de ses paramètres.

MA_INITIALIZE_PROTOCOL.confirmation est utilisée par la sous-couche


MAC pour informer le SMT que la requête précédente est acceptée. Son paramètre
status rend compte du succès ou de l'échec de la requête.

MA_CONTROL.request est utilisée par le SMT pour contrôler les opérations de


la sous-couche MAC définies dans le paramètre action_de_contrôle.

MA_STATUS.indication est utilisée par la sous-couche MAC pour informer le


SMT des erreurs et des changements d'états survenus. Son paramètre rapport_état
peut prendre l'une des valeurs suivantes :
- FRAME_CONDITION,
- TX_CLAIM_TOKEN_STATE,
- TX_BEACON_STATE,
- RECEIVE_FRAME_BEACON,
- ENTER_ACTIVE_STATE,
- ENTER_STANDBY_STATE,
- DUPLICATE_AND_DETECTED.

Cette primitive est invoquée par la sous-couche MAC à la suite d'opérations des
moniteurs en veille, du moniteur actif ou de la machine opérationnelle.

MA_NMT_DATA.request, MA_NMT_DATA.indication, MA_DATA.


confirmation ont les mêmes rôles respectivement que les primitives
MA_DATA.request, MA_DATA.indication et MA_DATA.confirmation de
l'interface LLC/MAC, si ce n'est qu'elles portent, non pas sur des trames LLC, mais
sur des trames de contrôle MAC. Elles permettent donc l'envoi, la réception et la
confirmation d'envoi de trames de contrôle MAC.
Accès à jeton : Token Ring et Token Bus 103

4.2.6. La couche physique

4.2.6.1. Composants de la couche physique

La couche physique est divisée en plusieurs fonctions (figure 4.12).


-^-liaison-^

LLC
Logical Link Control
MAC
Medium Access Control
PHY
Physical

PHY/MIC Cable
physique

Medium
Interface MIC Medium Interface Connector
Cable
MIC/TCU Cable

TCU
Trunk Cable
Trunk Coupling Unit

Figure 4.12. Structure de la couche physique

La sous-couche PHY (physical) est responsable de l'interface avec la couche


MAC. Le support (Trunk Cable) permet de transférer un signal en bande de base
codé selon le procédé Manchester. La TCU (Trunk Coupling Unit) relie la station
via un connecteur (Medium Interface Connector) au support qui peut être
physiquement éloigné ou non de la station.

4.2.6.2. Rôle de la TCU


La connexion effective de la station au support est assurée par la TCU que l'on
appelle quelquefois répéteur, sa fonction essentielle consistant à répéter les bits
entrants. En tant que point d'attache à l'anneau, la TCU assure l'insertion de données,
la réception de données, la destruction de données et l'amplification des signaux.

La figure 4.13 présente ses trois principaux états. Dans l'état By-Pass, la station
est inactive et la TCU répète les bits entrants de l'amont vers l'aval. Dans l'état
Listen, la station est active et la TCU copie chaque bit entrant vers la station tout en
retransmettant vers l'aval. Dans cet état, on peut modifier un bit au vol. Enfin, dans
l'état Transmission, la station transmet une trame et peut recevoir des bits depuis
l'amont de l'anneau ; lorsque ces derniers appartiennent à une autre transmission, la
station les stocke, le temps de sa transmission, avant de les retransmettre.
1 04 Architecture des réseaux haut débit

état By-Pass

vers la de la
station station

anneau anneaul
délai 1 bit
amont aval

état Listen état Transmission

vers la • de la vers la de la
station! station station A I station

anneau| anneau anneau I ai


anneau|
délai 1 bit délai 1 bit
amont aval amont aval

Figure 4.13. Fonctionnement de la TCU

4.2.6.3. Le tampon de latence

Le tampon de latence est utilisé par le moniteur actif à deux fins. Tout d'abord,
lorsque toutes les stations sont dans l'état de répétition, le jeton ne doit pas revenir
trop vite et l'anneau doit donc avoir une certaine latence exprimée en nombre de
temps-bit (inverse du débit). Pour cela, un tampon de latence est inséré sur l'anneau,
au niveau du moniteur actif, afin de mémoriser temporairement les bits entrants. Sa
taille varie d'un système à l'autre mais un tampon d'au moins 24 bits paraît
convenable. Par ailleurs, le tampon de latence sert aussi à compenser les variations
de propagation du signal sur l'anneau (gigue), les stations étant synchronisées sur ce
signal. Suivant la déviation du signal (en avance ou en retard), le moniteur actif
insère ou retire des bits de l'anneau.

4.2.6.4. Supports et câblage

La solution de câblage la plus souvent retenue est celle spécifiée par IBM qui
définit une étoile physique. Chaque station est reliée en dérivation à un point de
concentration actif (AWC — Active Wiring Concentrator) ou lobe, via des paires
torsadées. La figure 4.14 montre une configuration de câblage avec trois
concentrateurs. Si la paire torsadée est de type téléphonique (catégorie 3), la distance
concentrateur-station ne peut excéder 45 m et une boucle ne peut contenir au total
A c c è s à j e t o n : T o k e n R i n g et T o k e n B u s 105

pas plus de 72 stations. Si la paire torsadée est blindée et de qualité donnée (STP 1),
la distance concentrateur-station est de 100 m maximum et la boucle peut contenir
jusqu'à 260 stations. Ce dernier type de câble est celui préconisé par IBM. Il permet
des débits de 4 ou 16 Mbit/s. Il est recommandé de l'utiliser pour des liaisons inter-
concentrateurs.

station
msm

station

concentrateur
AWC

station

Figure 4.14. Plan de câblage IBM

4.2.6.5. Spécification des sen'ices PHY

Comme pour la couche MAC, la couche physique de Token Ring spécifie deux
types de service, l'un à l'interface PHY/MAC, l'autre à l'interface PHY/SMT.
L'interface PHY/MAC est composée des trois primitives de service,
PH_DATA.request, PH_DATA.indication et PH_DATA.confirmation. Chaque
primitive ne spécifie qu'un seul paramètre appelé symbole, dont les valeurs
possibles sont 0 (zéro binaire), 1 (un binaire), J (non_data_J) et K (non_data_K).

La primitive PH_DATA.request permet le transfert d'un symbole de données de


l'entité MAC vers la couche physique chaque fois que l'entité MAC a des signaux à
émettre. La couche physique fournit un service de type synchrone, dans le sens où
l'entité MAC ne peut soumettre de nouvelle primitive de requête tant qu'elle n'a pas
reçu la confirmation associée à la requête précédente. Sur activation d'une demande de
transfert, l'entité physique encode et transmet le symbole. Quand l'entité physique
est de nouveau prête à accepter une autre requête de transmission, elle retourne à la
sous-couche MAC une PH_DATA_confirmation lui signifiant la fin de la
transmission du symbole. Le but de PH_DADA.confirmation est de synchroniser les
envois de données de la sous-couche MAC avec le taux de réception de la couche
physique. La primitive PH_DATA.indication représente le transfert de données de la
couche physique vers l'entité réceptrice de la sous-couche MAC chaque fois que
l'entité physique a décodé un symbole.
106 Architecture des réseaux haut débit

Le service de la couche physique défini à l'interface SMT permet à l'entité SMT


de contrôler le fonctionnement de la couche physique. Il est défini au moyen de deux
primitives, PH_CONTROL.request et PH_STATUS.indication. La première sert à
demander à l'entité physique soit une insertion dans l'anneau (état insert), soit un
détachement de l'anneau (état by-pass). La seconde est utilisée par la couche physique
pour informer le SMT des erreurs éventuelles et des changements d'états significatifs
qui se sont produits (détection de silence sur le support, tampon de latence trop grand
ou trop petit, etc.).

4.3. Token Bus

Pour les applications à caractère temps réel, le déterminisme de l'accès au


support est impératif. Cependant, la topologie en anneau implique un surcroît de
fonctions de gestion — retrait des trames, vérification de la connexité de l'anneau,
etc. — qui ne sont pas nécessaires avec une topologie en bus. La raison d'être du
protocole Token Bus est donc de cumuler les avantages d'un protocole déterministe
avec ceux d'une topologie simple à mettre en œuvre, d'où l'idée d'un accès avec
jeton sur bus.

Le protocole d'accès n'est cependant pas le même que celui de Token Ring.
L'équité du protocole nécessite la mise en place d'un tour de rôle explicite entre les
stations pour l'accès au support ; ce tour de rôle était implicite avec l'anneau
physique. Le jeton est ici explicitement adressé à une station qui en sera le futur
détenteur. Enfin, la gestion des stations est réalisée de manière totalement
décentralisée entre toutes les stations, aucune n'ayant de rôle privilégié.

4.3.1. Principe de l'accès à jeton sur bus

Comme dans le Token Ring, la station détentrice du jeton conserve le jeton au


maximum jusqu'à expiration d'un temporisateur THT (Token Holding Timer) et peut
transmettre une ou plusieurs trames. De plus, elle peut demander des réponses à ces
trames (poil) de la part des récepteurs. Les récepteurs peuvent donc, sur invitation,
envoyer des trames au détenteur du jeton.

Le jeton est figuré par une trame MAC d'un type particulier. Il contient une
adresse destinataire et est passé explicitement de l'émetteur de la trame (détenteur
actuel du jeton) au récepteur (nouveau détenteur). On parle de jeton adressé.

4.3.1.1. Anneau logique

Le tour de rôle entre les stations pour l'accès au jeton est réalisé grâce au
mécanisme d'anneau virtuel (ou anneau logique) qui détermine à qui une station doit
remettre le jeton après l'avoir utilisé. L'anneau virtuel définit en fait une relation
d'ordre sur les adresses des stations connectées au réseau et actives à un moment
Accès à jeton : Token Ring et Token Bus 107

donné. Cette relation correspond à l'ordre décroissant des adresses physiques des
stations sur le bus.
Chaque station connaît l'anneau virtuel grâce aux deux variables PS (Previous
Station) donnant l'adresse de la station précédente sur l'anneau et NS (Next Station)
donnant l'adresse de la station suivante sur l'anneau. Une troisième variable définit la
propre adresse de la station. L'anneau virtuel est défini indépendamment de la
situation physique des stations sur le câble. En figure 4.15, la station d'adresse 5 a
comme prédécesseur sur l'anneau la station d'adresse 9 et comme successeur, la
station d'adresse 3.

station 9 station 5
PS = 1 PS = 9
NS = 5 NS = 3

station 1 stjation 3 station 4


PS = 3 PS = 5 PS = ...
NS = 9 NS = 1 NS = ...

F i g u r e 4 . 1 5 . Exemple d'anneau virtuel sur un bus

Le maintien de ces variables ne peut se faire dans un connecteur passif sur le bus
car il nécessite des mémoire vives ou des registres ; la station doit donc être active
c'est-à-dire sous tension. Elle peut alors faire partie de l'anneau à condition de
pouvoir y entrer.

4.3.1.2. Procédure de réveil

L'ajout d'une nouvelle station active sur l'anneau se fait par la procédure dite de
réveil et d'ajout de stations dans l'anneau. Cette procédure est complètement
distribuée et elle est spécifiée dans le protocole.
La procédure de réveil est lancée à l'instigation du détenteur actuel du jeton, avec
pour but de faire entrer dans l'anneau un éventuel successeur. La station qui possède
le jeton lance périodiquement (tous les N passages du jeton, 16 < N < 255) la
procédure de réveil, juste avant de remettre le jeton à la station voisine et ce,
seulement si le temps écoulé depuis la dernière fois où elle a eu le jeton n'est pas
supérieur à un maximum appelé target_rotationjime (temps maximum de rotation
cible du jeton). Cette condition vise à borner le temps maximum de rotation du
jeton.
1 08 Architecture des réseaux haut débit

La procédure de réveil utilise les objets suivants :

- la fenêtre de réponse ou slot-time est l'intervalle de temps pendant lequel une


station peut entendre le début d'une réponse provenant d'une autre station. Sa durée
est égale au temps d'émission d'une trame augmenté du temps maximum de
propagation aller et retour d'une trame sur le bus ;

- la trame solicit_successor communique à des stations désirant entrer dans


l'anneau l'intervalle dans lequel doivent se trouver leurs adresses (délimité par
l'adresse source et l'adresse successeur de cette source) ;

- la trame set_successor constitue la réponse à la trame précédente et donne


l'adresse du nouveau successeur de celui qui l'a sollicitée ;

- le temporisateur TRT (Token Rotation Timer) définit le temps maximum de


rotation du jeton.

Pour illustrer le fonctionnement de la procédure de réveil, nous nous situons dans


la configuration donnée en figure 4.15 pour laquelle nous supposerons que la station
4 est de nouveau active et qu'elle désire entrer sur l'anneau. Elle ne pourra le faire
effectivement que lorsqu'une station la sollicitera et que cette station aura pour
adresse celle de son prédécesseur naturel. Autrement dit, la station 4 devra attendre
que la station 5 lance la procédure de réveil. Avant de remettre le jeton, la station 5
envoie donc une trame solicit_successor d'adresse source égale à 5 et d'adresse
destinataire 3, ce qui définit un intervalle d'adresses [3, 5]. Elle attend ensuite une
fenêtre de réponse ou slot-time. La station 4 se reconnaît et répond à la station 5 par
une trame set_successor qui donne son adresse ; elle met à jour ses variables PS et
NS (PS = 5, NS = 3). La station 5 reçoit alors la trame set_successor et met à jour
sa variable NS (NS = 4). La station 5 transmet le jeton à la station 4. La station 4
est maintenant insérée sur l'anneau (figure 4.16).

station 9 station 5
PS= 1 PS = 9
NS = 5 NS=4

I
station 1 station 3 sjation 4
PS =3 PS = 5 PS = 5
NS=9 NS= 1 Us =3

F i g u r e 4 . 1 6 . L'anneau virtuel après insertion d'une nouvelle station


Accès à jeton : Token Ring et Token Bus 109

Nous avons décrit le cas où une seule station, à un instant donné et dans un
intervalle d'adresses donné, désirait s'insérer dans l'anneau. Prenons maintenant le cas
où deux stations satisfont la contrainte d'intervalle d'adresses. Toujours avec
l'exemple de la figure 4.15, supposons que les stations d'adresses 6 et 7 souhaitent
entrer sur l'anneau : elles ne le pourront que lorsque la station 9 lancera une
procédure de réveil. La station 9 envoie donc une trame solicit_successor spécifiant
un intervalle [5, 9]. Dans la même fenêtre de réponse, les stations 6 et 7 envoient
chacune une trame set_successor. La station 9 va donc détecter une collision de
trames au lieu d'une seule trame valide. Elle entame alors une reprise avec l'envoi
d'une trame resolve ^contention et attend cette fois quatre slots-time. Se déroule alors
entre les stations en compétition une procédure d'arbitrage réparti qui a pour objet de
les départager. L'arbitrage se fait sur la valeur des deux premiers bits de l'adresse de
chaque station candidate. Plus précisément, après réception de la trame
resolve contention, l'instant d'émission de la trame set_successor sera déterminé par
la valeur des deux premiers bits de l'adresse de chacune des stations en compétition :

- 00 : émission immédiate,
- 01 : début de la deuxième fenêtre,
- 10 : début de la troisième fenêtre,
- 11 : début de la quatrième fenêtre.

Si une station doit reporter son émission d'une ou de plusieurs fenêtres, elle
écoute pendant ce temps le canal. Si elle détecte une transmission, elle n'enverra pas
de trame set_successor pour cette procédure de réveil. De cette façon, une seule
station à la fois entre dans l'anneau. Ici, les adresses sont 7, de valeur binaire
"0111", et 6, de valeur "0110". Les deux premiers bits étant les mêmes, 6 et 7 vont
encore émettre en même temps, en début de la deuxième fenêtre. La station 9 va
retransmettre une trame resolve contention, mais l'arbitrage se fait cette fois-ci sur
la deuxième paire de bits de l'adresse et uniquement pour les stations ayant émis la
fois précédente. Dans notre exemple, les deux bits suivants sont respectivement "10"
pour la station 6 et "11" pour la station 7. C'est donc la station 6 qui enverra une
trame set_successor dans la troisième fenêtre, la station 7 se retirant. La station 9
mettra ensuite à jour ses variables et enverra le jeton à la station 6.

Le protocole utilise des adresses représentées sur 48 bits ; par conséquent, le


processus peut être répété au pire 24 fois. Néanmoins, les temps de propagation
étant très courts, la durée de cette procédure n'est pas pénalisante. Le processus
d'arbitrage et d'envoi de trames set_successor est tenté jusqu'à ce qu'une trame
set_successor arrive bien ou jusqu'à ce qu'il n'y ait aucune réponse pendant quatre
fenêtres ou encore jusqu'à ce qu'on ait épuisé tous les bits de l'adresse. Il est
important de noter que cet arbitrage suppose l'unicité des adresses.

Un cas particulier est celui où la station de plus petite adresse lance une
procédure de réveil. Elle attend deux fenêtres de réponse et peut ainsi faire entrer deux
stations dans l'anneau car elle seule peut faire entrer des stations d'adresses plus
petites en plus de ses successeurs. Dans notre exemple, quand la station 1 envoie
1 10 Architecture des réseaux haut débit

une trame solicit_successor, la première fenêtre sert à faire entrer la station 0


(d'adresse inférieure à 1 ) et la deuxième fenêtre sert à faire entrer la station 10(1 > 9
> 10) si évidemment elle ne détecte aucune autre transmission. La suite du processus
est la même.

4.3.1.3. Initialisation de l'anneau logique

Elle a lieu après une panne de la station qui possède le jeton ou lors de
l'installation du réseau. Chaque station arme un temporisateur de détection
d'inactivité. A expiration, chaque station envoie une trame Claim Token et attend un
slot-time. S'il se produit des collisions, on procède comme précédemment : une
station réémet au bout de 2, 4 ou 6 slots-time en fonction de ses deux premiers bits
d'adresse. Lorsque la station a épuisé chaque paire de bits de l'adresse sans entendre
d'autres transmissions que la sienne, elle considère qu'elle a réussi et qu'elle est
détentrice du jeton. Elle lance alors une procédure de réveil pour faire entrer les autres
stations dans l'anneau.

4.3.1.4. Retrait d'une station de l'anneau

Une station souhaitant se retirer de l'anneau avant sa mise hors tension, attend de
recevoir le jeton et envoie alors une trame de contrôle de type set_successor à son
prédécesseur. Elle transmet ensuite le jeton à son successeur. La station quitte ainsi
l'anneau tout en maintenant la connexité de celui-ci.

4.3.1.5. Réception d'une trame

Le récepteur ne reçoit que les trames dont il est destinataire. L'émetteur a la


possibilité d'activer le service d'interrogation du récepteur (Request with Response).
A la réception d'une telle trame, le récepteur peut alors envoyer une trame de
réponse, bien qu'il ne possède pas le jeton.

4.3.2. Structure du standard 802.4

L'architecture du standard 802.4 est similaire à celle de 802.5. Le protocole


spécifie donc le protocole MAC qui décrit la gestion de l'anneau logique et l'accès
par jeton, la couche PHY avec son interface avec la couche MAC, la TCU, les
supports ainsi que l'entité de gestion SMT transversale aux deux couches MAC et
PHY.
Accès à jeton : Token Ring et Token Bus 1 11

LLC
-liaison- Logical Link Control

MAC
Medium Access Control
s
M
PHY T
Physical Station
ManagemenT
physique-

Drop
Cahle

TCU
Trunk Coupling Unit Trunk Cable

F i g u r e 4 . 1 7 . Architecture Token Bus

4.3.3. Le protocole MAC 802.4

Les principales fonctions du protocole MAC sont :

- la constitution de l'anneau logique à l'aide de "tronçons virtuels",


- l'ajout et le retrait individuels de stations,
- la mise à jour des variables des stations,
- la supervision et la maintenance du "jeton logique" (Logical Token) via :
• le transfert du jeton de tronçon en tronçon,
• la détection de jetons multiples ou de jeton perdu,
• la vérification de l'adressage.

Ces différentes fonctions sont mises en œuvre au travers de trames échangées «


le bus, entre les entités MAC des différentes stations de l'anneau.

4.3.3.1. Les trames MAC

Le format général de la trame MAC est donné en figure 4.18.

—couverture du FCS-

Preamble SD FC DA SA INFO FCS ED

SD - Starting Delimiter DA Destination Address INFO - Information


FC - Frame Control SA - Source Address ED - Ending Delimiter

F i g u r e 4 . 1 8 . Format de la trame Token Bus


11 2 Architecture des réseaux haut débit

Les champs constituant la trame sont les suivants :

- le préambule est une séquence arbitraire d'au moins un octet qui précède toute
trame M A C ;

- le délimiteur de début de trame SD (Starting Delimiter) de 1 octet sert à


délimiter le début d'une trame. Il a le format "NN0NN000", où N est un symbole
non binaire (ni 0 ni 1 ) ;

- le contrôle de trame FC (Frame Control) décrit le type de trame et ses


particularités. Les deux premiers bits, FF, définissent le type de trame : trame de
données (LLC), trame de contrôle MAC ou trame de gestion de la station (tableau
4.3). Les six bits suivants permettent de différencier les différents types de trame
MAC (tableau 4.4) ;

FF type de trame
11 non défini
10 trame de gestion
01 trame LLC
00 trame de contrôle MAC

Tableau 4.3. Les bits FF du champ FC

champ FC type de trame MAC


00000000 Claim token
OOOOOOOl solicit_successor_ 1
00000010 solicit_successor_2
00000011 who_follows
00000100 resolve_contention
OOOOIOOO token
00011000 set_successor

Tableau 4 . 4 . Le champ FC

Le champ FC des trames LLC suit un codage du type "01MMMPPP", où les


bits M M M permettent d'identifier le type de service demandé : un transfert de
données sans réponse, un transfert de données avec réponse (polling du récepteur) ou
encore une réponse à une requête. Les bits PPP permettent de définir le niveau de
priorité du transfert de données ; huit niveaux sont théoriquement possibles mais
seuls quatre sont utilisés ;

- les adresses de destination DA (Destination Address) et de source SA (Source


Address) sont des champs de 2 ou 6 octets. Ils ont la même signification que pour
Accès à jeton : Token Ring et Token Bus 1 13

les autres types de réseaux locaux normalisés (cf. figure 4.7). Le bit I/G donne le
type d'adresse — individuelle (I/G = 0) ou de groupe (I/G = 1). Le bit U/L indique si
l'adresse a été allouée par une administration universelle (U/L = 0) ou locale
(U/L = 1) ;

- le champ de données (INFO) peut être vide ou contenir un ou plusieurs octets.


La sémantique de ce champ est déterminée grâce au champ FC ;

- le champ de vérification FCS (Frame Control Sequence) permet de vérifier


l'intégrité de transmission de la trame. Il représente 4 octets ;

- le délimiteur de fin ED (Ending Delimiter) est une séquence particulière, tout


comme le délimiteur de début de trame, qui contient des symboles non binaires
(symboles N). Le bit I qu'il contient indique, lorsqu'il est positionné à 1, qu'il s'agit
d'une trame intermédiaire dans une transmission multiple ; il est donc à 0 dans une
trame unique ou sur la dernière trame d'une transmission multiple. Le bit E est
transmis initialement à 0, il est positionné à 1 par la première station qui détecte
une erreur lors du passage de cette trame et n'est plus modifié par les autres stations.

N - symbole non binaire


1 - élément binaire 1
NN1NN 1 I E I - bit de trame intermédiaire
E - bit d'erreur détectée

Figure 4.19. Le champ ED

4.3.3.2. Temps maximum de rotation du jeton et priorités

La bande passante du réseau est allouée en utilisant un jeton temporisé. Les


principes en sont les suivants :

- les trames de plus haute priorité sont transmises de toute façon dans la limite
d'un temps maximum défini pour toutes les stations par le protocole de gestion ;
- à chaque classe de priorité est associé un temps de rotation maximal du jeton ;
- pour chaque classe, la station mesure le temps mis par le jeton pour faire le
tour de l'anneau ;
- si le jeton revient avant son temps maximal, la station peut envoyer des
trames de cette classe jusqu'à expiration du temporisateur ;
- si le jeton arrive après son temps maximal, la station ne peut envoyer de
trames de ce niveau de priorité et elle relâche le jeton.

IEEE 802.4 n'offre que quatre niveaux de priorité numérotés dans l'ordre croissant
0, 2, 4 et 6. Le niveau de priorité souhaité est un paramètre de la primitive de
demande de transfert de données MA_DATA.request. La priorité intervient entre les
trafics issus d'une même station, découpant ainsi la bande passante disponible
lorsque la station possède le jeton en sous-bandes dédiées à chaque niveau de priorité.
1 14 Architecture des réseaux haut débit

Pour mettre en œuvre ce mécanisme de priorités, chaque station utilise quatre


temporisateurs. Le temporisateur THT (Token Holding Timer) définit le temps
maximal de possession du jeton pour envoyer des données de niveau 6. Les
temporisateurs TRT4, TRT2 et TRTO (Token Rotation Timer for class 4, 2 and 0)
définissent le temps maximum qu'un jeton peut mettre pour effectuer une rotation
pour la transmission respectivement en classe 4, 2 et 0. La classe 6 est utilisée pour
le trafic temps réel, puisqu'un accès est garanti tous les n* THT (n étant le nombre
de stations). Lorsqu'il n'y a pas de données synchrones à transmettre, on peut
transférer des données asynchrones. »

4.3.3.3. Gestion des fautes

La gestion des fautes liées au jeton est assurée par la station qui détient le jeton.
Ces fautes concernent la duplication du jeton, les erreurs sur le jeton, les pannes de
la station détentrice du jeton, les pannes du récepteur et enfin la perte du jeton.

passage
du
jeton

écoute pendant 1 slot-time

trame valide collision aucune transmission

attente pendant
renvoi du jeton
4 slots-time

e
2 fois
who-follows

réception aucune réponse


de
set-successor

processus
renvoi solicit-successor
du jeton
succès aucune
renvoi réponse
du jeton

panne grave

F i g u r e 4 . 2 0 . Surveillance du jeton par la station qui le possédait


Accès à jeton : Token Ring et Token Bus 1 15

Lorsque la station détentrice du jeton détecte une autre transmission sur le bus,
elle en déduit qu'une autre station possède aussi le jeton (ceci peut se produire
lorsque deux stations ont la même adresse). Dans ce cas, elle détruit son propre jeton
et retourne à l'état d'écoute. Les trois fautes suivantes (erreur sur le jeton, panne du
détenteur et panne du récepteur) apparaissent lors du passage du jeton. Aussi, après
avoir transmis le jeton, l'émetteur du jeton écoute le support pendant un slot-time
afin de détecter la transmission d'une trame ou d'un jeton par le nouveau détenteur du
jeton. Dans ce cas, il retourne à l'état d'écoute. S'il entend une collision, il écoute
de nouveau le support pendant quatre slot-times. S'il n'entend rien, il renvoie le
jeton à son successeur et écoute de nouveau. S'il n'entend toujours rien, il transmet
une trame who-follows qui demande l'identité de son successeur sur l'anneau
logique. Cette trame est acquittée par une trame set-successor en provenance de son
successeur. S'il ne reçoit rien, il entame une procédure de réveil qui va déterminer
son nouveau successeur. Si cette procédure ne donne aucun résultat, il cesse toute
transmission et lance une réinitialisation de l'anneau. La figure 4.20 résume les
différentes actions liées à la surveillance du jeton.

Il faut également prévoir le cas où le jeton se perd. Pour pouvoir détecter ce


problème, chaque station qui passe le jeton arme un temporisateur bus Jdle Jimer.
Si celui-ci arrive à échéance sans que la station n'ait détecté d'activité sur le canal,
elle en conclut que le jeton a été perdu et entame alors un processus de régénération
du jeton.

4.3.4. Services MAC 802.4

4.3.4.1. Service MAC pour la sous-couche LLC

Le protocole Token Bus, comme les autres protocoles MAC, opérant en mode
non connecté, le service de la couche MAC ne concerne que le transfert de données.
Ce dernier peut s'effectuer en point à point ou point à multipoint, avec acquittement
ou sans acquittement.

Les primitives de service de la sous-couche MAC sont au nombre de trois.


Il s'agit de MA_DATA.request, de MA_DATA.indication et de MA_DATA.
confirmation. Leur sémantique est identique à celle des primitives de service du
Token Ring (cf. 4.2.5). L'enchaînement de ces primitives est montré en figure 4.21.
Le standard IEEE les définit sous forme de procédures. La primitive de confirmation
donne à l'entité LLC émettrice un compte rendu à signification purement locale.
1 1 6 Architecture des réseaux haut débit

Emetteur Récepteur

MA_DATA.request

MA_DATA.confirmation
MA DATA.indication

Figure 4.21. Enchaînement des primitives du service MAC

L'activation du service de confirmation autorise le récepteur de la trame de


données à envoyer lui aussi une trame de données en réponse, même si l'entité MAC
de celui-ci ne possède pas le jeton (figure 4.22). Ceci se fait grâce à la primitive
MA_DATA.request pour laquelle le paramètre service_class indique et le niveau de
priorité demandé par la couche supérieure et le service de confirmation de remise. Ce
dernier peut prendre l'une de ces trois valeurs : request_with_no_response,
request_with_response et response.

Emetteur Récepteur

MA_D ATA.request
(request_with_response)^

MA_DATA.indication
(request_with_response)

MA_DATA.request
(response)

MA_D ATA.confirmation MA_DATA.confirmation

MA_D ATA.indication

Figure 4.22. Service de confirmation de remise

La primitive MA_DATA.indication possède un paramètre quality qui définit le


niveau de priorité du transfert et qui peut aussi indiquer l'activation du service de
remise garantie. Dans ce cas, l'entité LLC peut transmettre une MA_DATA.request
en réponse avec le paramètre senice_class positionné à la valeur response.

4.3.4.2. Sen'ice MAC pour l'entité SMT

Les primitives de service MAC offertes à l'entité de gestion de la station (Station


ManagemenT) sont décrites dans le tableau 4.5. Le passage de ces primitives est
seulement local à l'entité MAC.
Accès à jeton : Token Ring et Token Bus 117

Ces services permettent :

- de réinitialiser l'entité MAC,


- de sélectionner la longueur des adresses MAC dans le réseau,
- de spécifier les valeurs des temporisateurs et des temps utiles au protocole
MAC,
- de lire les valeurs des paramètres courants de l'entité MAC,
- de notifier des changements dans ces valeurs,
- de spécifier à quel(s) groupe(s) d'adresses la station appartient,
- d'envoyer et de recevoir des trames de contrôle.

Primitives Paramètres Effet


MA INIT PROTOCOL.request protocole désiré, requête et confirmation
MA_INIT_PROTOCOL.confirmation status qui indique la pour réinitialiser la
réussite de la sous-couche MAC
réinitialisation
MA_SET_VALUE.request nom_de_ vari able permet de modifier la
MA_SET_VALUE.indication (adresse de la station, valeur d'une variable du
slot_time, protocole
temporisateurs de
chaque niveau de
priorité, TRT),
sa valeur
MA_EVENT.indication événements indique l'arrivée d'un
(changement d'adresse événement
du successeur, ... )
MA_READ_VALUE.request variables (adresse du permet de lire la valeur
MA_READ_VALUE.indication successeur, adresse d'une variable du
du prédécesseur, protocole
nombre de stations
dans l'anneau,
temps de rotation du
jeton mesuré, nombre
de trames correctes
reçues, nombre de
trames erronées
reçues, ...)
MA_GROUP_ADDRESS request adresse de groupe définit une nouvelle
MA_GROUP_ADDRESS.indication adresse de groupe
MA_FAULT_REPORT.indication type de faute (adresse indique une faute au
dupliquée, émetteur en niveau MAC suite à une
panne, ...) collision ou à un
comportement
incorrect
MA_CDATA.request paramètres habituels permet à l'entité SMT
MA_CDATA.indication pour un transfert de de transférer des
MA_CDATA. confirmation données trames SMT

Tableau 4.5. Récapitulatif des primitives MAC/SMT


1 1 8 Architecture des réseaux haut débit

4.3.5. La couche physique

4.3.5.1. Les supports

Le standard IEEE 802.4 a retenu trois types de supports à base de câble coaxial
75 ohms (tableau 4.6). Les deux premiers sont appelés "carrierband", ce qui signifie
que la bande passante du support est dédiée à une seule transmission analogique sur
une seule fréquence porteuse. Il en résulte une simplification et un coût moindre des
connexions sur le support. Les débits autorisés sont de 1, 5 ou 10 Mbit/s. Le
troisième type de support est dédié au système large bande et permet trois canaux de
données à des débits respectifs de 1, 5 et 10 Mbit/s avec des bandes passantes de
1,5 MHz, 6 MHz et 12 MHz ; il utilise un câble coaxial unique divisé en sous-
bandes de fréquences. Le support le plus récent est la fibre optique qui offre des
débits de 5, 10 ou 20 Mbit/s. Les caractéristiques de la transmission du signal
spécifient une bande passante de 270 nm et la longueur d'onde porteuse est située
entre 800 et 910 nm. Ce support peut être utilisé avec n'importe quelle topologie
logique en bus, c'est-à-dire possédant les propriétés de diffusion et de contention
d'accès. Il est recommandé l'utilisation d'étoile active ou passive.

Carrierband Carrierband Broadband Fibre optique


débit (Mbit/s) 1 5 - 10 1-5-10 5-10-20
bande passante — — 1 , 5 - 6 - 12 270 nm
MHz
modulation Manchester Phase coherent/ AM/PSK on-off
Phase continue FSK
topologie bus bus arbre étoile passive
bidirectionnel bidirectionnel ou active
support câble 75 ohms câble 75 ohms câble 75 ohms fibre optique

Tableau 4.6. Les supports Token Bus

4.3.5.2. Le service PHY


Les primitives de service qui définissent l'interface PHY/MAC sont au nombre
de quatre :
- PHY_DATA.request,
- PHY_DATA.indication,
- PHY_MODE.request,
- PHY_NOTIFY.request.
Les deux premières permettent respectivement d'émettre et de recevoir un
symbole (0, 1 ou N) vers/de la couche physique. La primitive PHY_MODE.request
permet de mettre l'entité physique dans l'un des modes émetteur (la station émet
elle-même des symboles) ou répéteur (l'entité MAC de la station répète les bits d'un
segment sur un autre). La primitive PHY_NOTIFY.request permet de notifier à la
couche physique la fin de la transmission en cours.
A c c è s à j e t o n : T o k e n R i n g et T o k e n B u s 11 9

Exercices

Exercice 4.1

On considère le réseau local de la figure suivante, comportant quatre stations


désignées par A, B, C, et D. Chaque station accède au support en utilisant le
protocole Token Ring. Lorsqu'une station possède le jeton, elle peut transmettre au
plus une trame de données.

Sur cet anneau, le temps de propagation entre chaque station est de 1 ms, le
temps de transmission d'une trame est de 4 ms, le temps de transmission du jeton
est de 1 ms.

1. Dessinez un diagramme des temps gradué en milliseconde décrivant le


déroulement des différentes transmissions de trames selon le scénario suivant :
- à t = 0, la station D possède le jeton
- à t = 0, B veut transmettre 2 trames
- à t = 4, A veut transmettre 1 trame
- à t = 8, D veut transmettre 1 trame

- à t = 23, C veut transmettre 2 trames

2. Quelle est la durée totale de l'exécution de ce scénario ?

3. Quel est le temps d'accès moyen au support ?

Exercice 4.2
Le protocole Token Ring met en œuvre un mécanisme de priorités entre les
stations de l'anneau. Le champ AC de la trame contient deux sous-champs pour ce
faire :
- P : priorité actuelle du jeton.
- R : priorité réservée par une station pour le prochain jeton.

A l'initialisation, P cl R ont pour valeur 1 (priorité la plus basse).

Chaque station ;' gère 2 variables :


- pj : priorité de la station i,
1 20 Architecture des réseaux haut débit

- Sj : priorité sauvegardée et à restituer.

La modification de la priorité du jeton et la prise du jeton suivent les règles des


trois algorithmes suivants :
Algorithme de résen'ation de la priorité : la station / examine les champs P el R
de la trame de données qui passe au niveau de son répéteur :
si p ; > R alors s, := R ;
R := p, ;

Algorithme de remise du jeton : lorsqu'une station reçoit sa propre trame avec


R * 1, elle remet le jeton sur l'anneau avec une nouvelle priorité telle que P := R
Algorithme de prise du jeton : une station / ne peut prendre qu'un jeton tel que
p , = P et elle émet alors une trame telle que :
P •= Pi ;
R ••= Sj ;

la station / positionne alors s, := 1 ;

On considère l'anneau représenté dans l'exercice 4.1 et comportant quatre stations


désignées par A, B, C et D ; les priorités p respectives de chacune des station sont :
:

p = 1, p = 2, p = 3 et p = 1. Lorsqu'elle possède le jeton, une station ne peut


A B c D

transmettre qu'une seule trame.


Les stations A, B et C désirent envoyer chacune trois trames à D. D n'émet rien.
Le temps d'émission est nul et le temps de propagation est de 1 ms entre deux
stations voisines. A t = 0, la station A possède le jeton et transmet une trame avec
les valeurs P = 1 et R = 1.

1. Tracez un diagramme des temps où chaque axe des temps représente la


transmission d'une station à sa voisine sur l'anneau. Indiquez l'ordre de réception
des trames par D.

2. Donnez le temps total de transmission de toutes les trames.

Exercice 4.3
Comparez les comportements de Token Bus et de CSMA/CD en fonction de la
charge.

Exercice 4.4
Un réseau local sur bus comporte quatre stations actives d'adresses respectives 2,
5, 6 et 7. On utilise le protocole Token Bus pour le partage du support. L'anneau
logique est formé par une relation décroissante sur les adresses de station. Une
station qui possède le jeton ne peut émettre exactement qu'une seule trame pendant
THT (Token Holding Time). On prendra les hypothèses suivantes :
Accès à jeton : Token Ring et Token Bus 121

- les trames et le jeton ont la même taille,


- un slot-time correspond au temps de transmission d'une trame ou du jeton,
- le temps de traitement du jeton est négligeable.

1. Dessinez l'anneau logique en faisant figurer pour chaque station son adresse, la
valeur des variables P (Prédécesseur) et S (Successeur).

2. Dessinez un diagramme des temps gradué en secondes (une seconde = un slot-


time) décrivant le déroulement des différentes transmissions de trames selon le
scénario suivant :

- le jeton est possédé par la station 7


- à t = 0, la station 5 a une trame à envoyer à la station 6 et autorise 6 à
répondre ; cette dernière répond par une trame de réponse
- à t = 1, la station 5 a une trame à émettre
- à t = 6, la station 7 a deux trames à émettre et la station 2 aussi.

3. A quel moment la station d'adresse 4 pourra-t-elle entrer dans l'anneau logique ?

Exercice 4.5

On considère une station connectée sur un réseau Token Bus ayant un débit de
10 Mbit/s. Le protocole permet de découper la bande passante du support en
plusieurs sous-bandes, chaque sous-bande étant associée à un niveau de priorité de
trafic. Les différents niveaux sont notés 6, 4, 2 et 0, le niveau 6 étant le plus
prioritaire. Les valeurs utilisées pour les temporisateurs sont :
- TRT = TTRT6 = 2 ms
- TTRT4 = 1,8 ms
- TTRT2 = 1,6 ms
- TTRTO = 1 ms

Lorsque le jeton arrive de nouveau à la station, le temporisateur TRT a un


reliquat de 504 us. Quelle est la quantité de données que l'on peut transférer pour les
niveaux de priorité 2 et 0, sachant que le trafic de niveau 6 nécessite l'envoi de 50
octets et celui de niveau 4 20 octets ?
1 22 Architecture des réseaux haut débit

Exercice 4.6
Sur un bus fonctionnant selon le protocole IEEE 802.4, quatre stations
deviennent actives en même temps (par exemple, suite au démarrage des équipements
d'une chaîne de montage). Que se passe-t-il ? Donnez l'ordre selon lequel les stations
s'insèrent dans l'anneau logique.

station 4 station 1
P= P=
S= S=

station 2 station 9
P = P=
S = S=
Chapitre 5

FDDI (Fiber Distributed Data Interface)

5.1. Introduction

A l'origine, les protocoles IEEE 802.3, IEEE 802.4 et IEEE 802.5 étaient
conçus pour fonctionner sur des supports "électriques", paires torsadées ou câbles
coaxiaux, dont les débits sont de l'ordre de quelques dizaines de Mbit/s. Le progrès
des technologies aidant, on peut désormais utiliser la fibre optique comme nouveau
support à haute performance pour les réseaux locaux. Grâce à elle, les débits de
l'ordre de la centaine de Mbit/s ne sont plus hors de portée. De plus, les propriétés
physiques du support lui-même permettent d'atteindre des distances de transmission
de l'ordre de la centaine de kilomètres. De nouvelles applications sont désormais
envisageables.

La solution la plus simple pour intégrer cette nouvelle technologie consiste à


remplacer purement et simplement, au niveau physique, les anciens supports
électriques par des câbles de fibre optique. Token Ring se prête particulièrement bien
à cette opération, puisqu'il utilise des liaisons point à point. Malheureusement, si
l'adaptation du nouveau médium permet d'atteindre de plus hauts débits, le protocole
IEEE 802.5 ne permet plus d'optimiser la bande passante. En effet, sur un réseau de
type Token Ring à 10 Mbit/s, le temps de transmission d'une trame de
1 000 bits est de 100 us. Sur un réseau de 20 km, pour un taux de propagation de
5 us/km, la trame va occuper l'ensemble de l'anneau durant sa transmission. C'est la
raison pour laquelle le protocole IEEE 802.5 oblige une station émettant une trame à
l'ôter elle-même de l'anneau avant de redonner un jeton, afin d'éviter tout risque de
1 2 4 Architecture des réseaux haut débit

collision. Dans le cas d'un réseau en fibre optique à 100 Mbit/s et d'une longueur de
100 k m , le t e m p s de transmission de cette m ê m e trame est de
10 us, alors que le délai de propagation sur l'anneau est de 500 us. Pour de tels
débits de transmission, chaque trame n'occupe qu'une petite partie du support. Il
devient alors inefficace de lui réserver la totalité de l'anneau.

Pour cette raison et pour d'autres encore, il est rapidement apparu nécessaire de
faire évoluer les protocoles couramment utilisés dans le cadre des réseaux locaux afin
de les adapter aux fibres optiques et aux très hauts débits qu'elles permettent
d'atteindre. FDDI est une réponse à cette attente [Ross 89], [Ross 90].

L'ANSI a proposé en 1987 les spécifications de FDDI qui ont été ensuite
normalisées par l'ISO avec l'IS 9314. La norme spécifie les services et un protocole
pour un réseau local à haut débit (100 Mbit/s) utilisant la fibre optique comme
support. La topologie retenue est un anneau doublé contre-rotatif. Chaque station est
reliée à la précédente par deux fibres optiques en point à point. L'anneau primaire est
utilisé pour la transmission normale des données dans un sens, alors que l'anneau
secondaire sert de secours inactif dans l'autre sens ; il n'est utilisé qu'en cas de
coupure de l'anneau, suite à une reconfiguration automatique de l'anneau par
rebouclage. Si plusieurs défaillances apparaissent simultanément, le réseau se
scindera en plusieurs sous-anneaux indépendants.

FDDI offre des distances de raccordement pouvant aller jusqu'à 200 km (en
comptant les deux anneaux) et la possibilité d'interconnecter jusqu'à 1 000 stations.
La distance maximale entre deux stations est de 2 km. Ces caractéristiques
apparentent FDDI à la fois aux réseaux locaux et aux réseaux métropolitains.

Ethernet

Token FDDI
Ring

station de travail

pont ou routeur
Ethernet

F i g u r e 5.1. Utilisation de FDDI comme réseau fédérateur

On est en droit de se demander quelle est la réelle utilité d'un réseau local haut
débit comme FDDI. Le surplus de bande passante offert par la fibre optique peut bien
sûr servir à transmettre des données en temps réel, de la voix, du son ou encore des
images mais l'utilisation principalement visée est la fédération de réseaux locaux à
moyen débit. Un tel réseau fédérateur est souvent qualifié de réseau backbone car il
FDDI (Fiber Distributed Data Interface) 1 25

constitue l'épine dorsale du système de communication (figure 5.1). La capacité


importante de transmission rend ainsi "transparent" à l'utilisateur le passage par le
réseau fédérateur.

5.2. Architecture d'une station FDDI

La figure 5.2 présente l'architecture générale d'une station FDDI. Nous verrons
plus loin qu'il n'y a pas que des stations à être rattachées à l'anneau ; c'est pourquoi,
d'une manière générale, on préfère le terme de nœud à celui de station.

[,p Logical Link


L L U
Control

\* Medium Access
S Control
M
PHY PHYsical
T
Station pim Physical Medium
ManagemenT rmu Dependent

Figure 5.2. Architecture d'une station FDDI

La couche physique est divisée en deux sous-couches, PMD (Physical Medium


Dependent) [IS 9314-3] et PHY [IS 9314-1]. Elle a pour rôle la transmission de bits
sur le support physique. Plus précisément, PMD spécifie toutes les caractéristiques
optiques et physiques des équipements employés pour assurer une connexion entre
deux stations adjacentes de l'anneau (câbles, connecteurs, commutateurs, émetteurs et
récepteurs optiques) ; elle offre tous les services nécessaires aux communications
numériques point à point entre les stations et permet surtout d'assurer l'indépendance
du reste de l'architecture vis-à-vis des caractéristiques physiques du support.

La sous-couche PHY (physique) assure l'interface entre la sous-couche MAC et


la couche PMD. Elle est responsable du codage/décodage et de la synchronisation.

La sous-couche MAC [IS 9314-2] (Medium Access Control) définit la méthode


d'accès au support. Le protocole utilisé est très proche de celui spécifié pour l'IEEE
802.5 et pour le Token Ring. L'information, transmise sous forme de trames, est
acheminée séquentiellement et unidirectionnellement comme un flot de symboles
d'une station à la suivante. Pour transmettre des données, une station doit être en
possession du jeton — le droit à émettre.
1 26 Architecture des réseaux haut débit

SMT [IS 10608-14] (Station ManagemenT) est une entité de gestion présente au
sein de chacune des stations. Elle intervient à tous les niveaux de FDDI (PMD, PHY
et MAC) et elle est responsable de l'initialisation, de la configuration et
éventuellement de la reconfiguration de l'anneau (détection, isolation et reprise sur
erreur, actions à entreprendre en cas d'incidents sur l'anneau).

5.3. Définition d'un nœud FDDI

Il existe différentes configurations internes pour un nœud FDDI. Chaque nœud ne


comporte qu'une entité SMT mais peut posséder différentes instances de MAC, PHY
et PMD.

Deux classes de nœuds sont définies : les nœuds à attachement simple et les
nœuds à attachement double. Seuls les nœuds à attachement double sont directement
reliés au double anneau, également appelé anneau principal. Un attachement double
possède au minimum deux entités PHY et deux entités PMD alors qu'un
attachement simple possède au minimum une entité PHY et une entité PMD.

Un nœud est soit une station, soit un concentrateur. La différence est qu'une
station comporte au moins une entité MAC (deux si elle est à attachement double)
alors qu'un concentrateur n'en comporte pas. Une station à attachement double est
appelée station de classe A et est directement reliée à l'anneau principal. Une station
à attachement simple est dite de classe B et n'a pas par conséquent la possibilité de se
rattacher directement à l'anneau principal. Elle est alors reliée à l'anneau via un
concentrateur.

Un concentrateur peut lui aussi avoir un attachement double ou simple. Un


concentrateur à attachement double se trouve par conséquent sur le double anneau et
offre à des nœuds à attachement simple la possibilité d'y être reliés. Ces nœuds sont
alors les "esclaves" de ce concentrateur. Un concentrateur à attachement simple n'est
pas rattaché au double anneau mais à un concentrateur à double attachement ou bien
à un de ses homologues. Il est aussi le père d'une ou de plusieurs stations de classe
B ; de cette manière, des arbres de concentrateurs sont créés tout autour de l'anneau
principal et ce dans le but de relier les stations de classe B à ce dernier. Enfin, des
concentrateurs à attachement nul sont également envisageables.

Nous obtenons finalement les différents types de nœuds suivants :

- station à double attachement (DAS — Dual Attachment Station)


- station à simple attachement (SAS — Single Attachment Station)
- concentrateur à double attachement (DAC — Dual Attachment Concentrator)
- concentrateur à simple attachement (SAC — Single Attachment Concentrator)
- concentrateur à attachement nul (NAC — Null Attachment Concentrator)
FDDI (Fiber Distributed Data Interface) 1 27

Un exemple de topologie de réseau FDDI comportant les principaux types de


nœuds décrits précédemment est présenté en figure 5.3.

réseau FDDI

DAS DAC

SAS SAC

F i g u r e 5.3. Exemple de topologie de réseau FDDI

Les DAS sont divisées en DAS à simple MAC et DAS à double M A C . Un


concentrateur doit avoir une entité PHY et une entité PMD supplémentaire pour
chacune des connexions qu'il offre aux nœuds à simple attachement ou bien pour la
connexion le reliant à son père (s'il n'est pas la racine de l'arbre de concentrateurs). Il
possède une entité MAC pour les connexions avec ses esclaves. Leur présence
n'étant pas systématique, un concentrateur pourra ne pas avoir d'entité MAC.

5.4. Fonctionnement du protocole FDDI

De la même manière que pour Token Ring et Token Bus, l'anneau FDDI est géré
au niveau MAC par la circulation d'un jeton de station en station. La possession de
celui-ci donne le droit d'émettre des données sur le support. En assurant la présence
d'un seul jeton sur l'anneau à un instant donné, il est assuré qu'il n'y aura pas deux
stations accédant au support au même moment.
Une station désirant émettre, capture le jeton, le retire de l'anneau, transmet ses
trames et retransmet le jeton. Chaque station régénère, répète et transmet les
informations à la station suivante. La station destinataire recopie la trame dans sa
mémoire tampon et la retransmet après avoir modifié les bits "adresse reconnue" et
"trame copiée" du champ d'état. Il est de la responsabilité de la station émettrice de
retirer de l'anneau les trames qu'elle y a placées. Cela est réalisé en plaçant à la suite
de l'adresse source des symboles particuliers (Idle). La figure 5.4 illustre le
fonctionnement de l'anneau : prise du jeton, émission, remise du jeton et retrait des
trames.
1 28 Architecture des réseaux haut débit

T : jeton
Fi : trame /'

1/ les stations sont dans './ la station A souhaite


l'état Idle (repos) ; émettre : elle retire le
seul le jeton circule jeton de l'anneau et
sur l'anneau commence à émettre
x sa trame Fl

3/ la station A génère et 4/ la station C recopie au


émet un nouveau jeton vol Fl qui lui est
après la transmission adressée
de sa trame Fl

5/ la station B récupère le la station A retire de


jeton et émet une trame l'anneau sa trame
F2 Fl et recopie F2 qui
lui est adressée

Il la station B retire la 8/ les stations sont de


trame F2 de l'anneau nouveau dans l'état
Idle

F i g u r e 5 . 4 . Fonctionnement de l'anneau FDDI

5.4.1. Données synchrones et asynchrones

La couche M A C FDDI supporte deux classes de transmission de données : les


données synchrones et les données asynchrones. La classe de transmission synchrone
correspond à des données pour lesquelles le temps de transit doit être aussi bref que
possible. Il s'agit dans la plupart des cas de données temps réel. Par opposition, la
FDDI (Fiber Distributed Data Interface) 129

classe asynchrone recouvre des flots de données plus sporadiques, en tout cas moins
prioritaires que les informations dites synchrones. Huit niveaux de priorités sont
dédiés à cette deuxième classe. De plus, toujours pour la classe asynchrone, il est
possible de limiter l'accès à un groupe de stations en utilisant un jeton de type
restreint. Par opposition, un jeton non restreint peut être capturé par n'importe quelle
station du réseau.

5.4.2. Le jeton temporisé

Quand une station est en possession du jeton, elle ne peut le garder indéfiniment.
En fait, elle ne le possède que pour une durée limitée, pendant laquelle les données
synchrones sont émises en premier, suivies éventuellement de données asynchrones
si le temps imparti ne s'est pas écoulé. On parle alors comme pour Token Bus, de
jeton temporisé. Ainsi, afin de pouvoir gérer l'anneau, le jeton et l'émission des
différents types de données, la norme FDDI spécifie l'emploi d'un certain nombre de
temporisateurs et de compteurs.
- TTRT (Target Token Rotation Time). Il indique le temps moyen permis au
jeton pour faire un tour complet de l'anneau. Sa valeur est négociée entre toutes les
stations lors de la phase d'initialisation de l'anneau. Chaque station propose une
valeur selon ses contraintes de temps de réponse. La valeur la plus faible parmi
toutes les propositions est retenue comme référence commune : le protocole prendra
en compte les conditions de la station la plus exigeante. La valeur opérationnelle du
TTRT est T_OPR. Des études ont montré qu'une valeur de 8 ms pour T_OPR
procure dans la majorité des cas une efficacité de 80 % tout en garantissant un temps
d'accès inférieur à 1 s [Jain 90].
- T_MAX. C'est la valeur maximum que peut prendre TTRT. Si l'initialisation
de l'anneau ne peut se faire pendant T_MAX, cela signifie que l'anneau présente un
problème. La valeur par défaut est 165 ms.
- T_MIN. C'est la valeur minimum que peut prendre TTRT. La valeur par défaut
est 4 ms.
- TRT (Token Rotation Timer). Chaque station mesure le temps de rotation réel
du jeton à l'aide de ce temporisateur. Il reflète le temps à attendre avant de voir arriver
le jeton ; il couvre donc le temps utilisé par les stations pour émettre des trames,
pour faire circuler le jeton et le temps de propagation de l'anneau. A chaque fois
qu'une station relâche le jeton, elle réarme ce temporisateur, sa valeur étant
initialisée à T_OPR. Lors de la prochaine réception du jeton, le temps restant dans
TRT permet de mesurer l'avance ou le retard du jeton. Si TRT expire avant le retour
du jeton, le compteur LATE_CT est incrémenté de 1 pour indiquer une arrivée
tardive du jeton.
- THT (Token Holding Timer). Quand le jeton arrive en avance, le temporisateur
THT est initialise avec son avance (soit TTRT - TRT). THT donne le temps qu'il
reste à une station pour émettre des trames d'information de type asynchrone. C'est
donc le temps restant avant que le temps maximum TTRT ne soit atteint pour la
circulation du jeton.
1 30 Architecture des réseaux haut débit

- LATE_CT (Late Counter). Ce compteur enregistre le nombre d'expirations de


TRT depuis la dernière réception du jeton. Sa valeur ne doit pas dépasser 1 en
condition normale. Si le jeton revient avant que TRT n'expire et que LATE_CT = 0,
cela signifie que le jeton est en avance sur sa date de retour attendue et il est alors
possible de transmettre en mode synchrone et en mode asynchrone. D'un autre côté,
si TRT expire alors que LATE_CT = 1 (le jeton a par conséquent un retard d'au
moins 2 * T_OPR), la station déclenche une réinitialisation de l'anneau (via un
processus Claim). Lorsque le jeton est en avance, LATE_CT est remis à zéro.

- TVX (Timer Valid Transmission). Ce temporisateur est initialise à chaque


réception d'un jeton (non restreint) ou d'une trame valide. Il permet de s'assurer que
l'anneau reste opérationnel. L'expiration du TVX d'une des stations déclenche une
reconfiguration de l'anneau. On peut s'interroger sur l'utilité de TVX, puisque,
comme nous l'avons vu, tout retard du jeton de 2 * T_OPR déclenche
automatiquement une réinitialisation de l'anneau. La réponse est très simple : si la
valeur de TVX est plus petite que celle de T_OPR, TVX détecte plus rapidement les
problèmes de transmission, ce qui améliore d'autant l'efficacité du réseau. De plus,
TVX permet de détecter un problème que TRT n'est pas en mesure de repérer. Quand
les stations ont terminé d'utiliser un jeton restreint (bande passante asynchrone
réservée à un nombre limité de stations), la dernière station doit réémettre un jeton
non restreint (bande passante asynchrone répartie de manière équitable entre toutes les
stations de l'anneau). Si elle émet par erreur un jeton restreint, l'expiration de TVX
évitera que ce jeton circule sur l'anneau indéfiniment, en bloquant tout autre trafic.
La valeur à laquelle est initialise TVX doit cependant être suffisamment importante
pour que son expiration soit synonyme de problème important. La norme FDDI
spécifie que la valeur par défaut de TVX doit être supérieure à 2,35 ms. Cette valeur
correspond au temps maximum autorisé de parcours sur l'anneau pour une trame de
longueur maximale.
La figure 5.5 illustre l'utilisation des variables THT et TRT au niveau d'une
station FDDI [Stallings 93]. On suppose que TTRT = 100 ms et que le temps alloué
aux émissions de trames synchrones est égal à 30 ms.

TRTj
TRT
THT
(ms) THT

F i g u r e 5.5. Utilisation des temporisateurs et compteurs FDDI


F D D I (Fiber Distributed Data Interface) 131

A Un jeton arrive à la station. La station n'a aucune trame à envoyer. La station


laisse passer le jeton.
B Le jeton revient à la station. A cet instant, TRT = 40 et LATE_CT = 0. Le
jeton est donc en avance. THT est initialise avec la valeur de TRT soit 4 0 ms et
TRT est réinitialisé à la valeur de TTRT soit 100 ms.
C 30 ms après l'événement B, la station a épuisé son temps d'émission synchrone.
Elle a des données asynchrones à transmettre. Elle déclenche donc THT et
commence à émettre.
D 40 ms après l'événement C, THT expire, (à C, THT valait 40 ms). La station
est alors dans l'obligation de stopper ses émissions de trames asynchrones. Elle
génère un jeton qu'elle transmet sur l'anneau.
E TRT expire sans que le jeton ne soit de retour. La valeur du temporisateur TRT
est positionnée à 100 (TRT= TTRT = 100 ms) et LATEjCT = 1.

F Le jeton réapparaît. Puisque LATE_CT = 1, il n'est pas possible d'émettre de


données asynchrones.

5.4.3. Format des trames

Comme dans tous les protocoles de niveau MAC, les données sont envoyées sur
le support sous forme de trames. Il existe deux types de trames, les jetons et les
trames d'information ; ces dernières pouvant en fait contenir ou non des données
issues des couches supérieures.

5.4.3.1. La trame FDDI

FDDI ne fournit qu'un seul format de trame pour transmettre aussi bien des
trames LLC que des trames MAC ou encore des trames SMT (figure 5.6).

SFS- - couverture du FCS- EFS

DA SA INFO ED FS
PA SD FC
EE
SFS - Start of Frame Sequence S D - Starting Delimiter INFO - Information
FCS - Frame Check Sequence FC - Frame Control ED - Ending
EFS - End of Frame Sequence DA - Destination Address Delimiter
PA - Préambule SA - Source Address FS - Frame Status

Figure 5 . 6 . Format de trame FDDI


1 32 Architecture des réseaux haut débit

Les champs constituant la trame sont les suivants :

- le préambule (PA) est constitué d'au moins 16 symboles I (Idle). Il permet


l'acquisition de la synchronisation-bit. Par rapport à l'émetteur, les stations en aval
qui répètent la trame ou le jeton avec leur propre horloge peuvent modifier la taille
de ce champ ;

- le délimiteur de début (SD) est constitué de deux symboles, J et K ;

- le contrôle de trame (FC) décrit le type de trame et ses particularités. Le bit C,


bit de classe, indique si le service est asynchrone (C = 0) ou synchrone (C = 1). Le
bit L, bit de longueur d'adresse, indique si les adresses MAC sont codées sur 16 bits
(L = 0) ou 48 bits (L = 1). Les bits FF, bits de format de trame, permettent,
conjointement avec les bits ZZZZ de caractériser le jeton et de distinguer les trames
MAC, LLC et SMT. Les bits ZZZZ permettent, quant à eux, d'associer à la trame
un éventuel niveau de priorité. Le tableau 5.1 donne la signification des différents
codages possibles du champ FC ;

C L F F Z Z Z Z type de trame
0 L O 0 O 0 O O trame vide
1 0 0 0 0 0 0 0 jeton non restreint
1 1 0 0 0 0 0 0 jeton restreint
deO L O O O O O l trame SMT
à 0 L 0 0 1 1 1 1
de 1 L O O O O O l trame MAC
à 1 L 0 0 1 1 1 1
de C L 0 1 r 0 0 0 trame LLC
à C L 0 1 r 1 1 1
de C L 1 0 r 0 0 0 trame d'implantation
à C L 1 0 r 1 1 1
C L 1 1 r r r r réservé
L et C peuvent prendre les valeurs 0 ou 1
r est réservé et mis à 0

Tableau 5.1. Le champ FC

- les adresses de destination (DA) et de source (SA) ont la même signification


que pour les autres types de réseaux locaux normalisés (figure 5.7). Le bit I/G donne
le type d'adresse, individuelle (I/G = 0) ou de groupe (I/G = 1). Le bit U/L indique si
l'adresse a été allouée par une administration universelle (U/L = 0) ou locale
( U / L = 1) ;
FDDI (Fiber Distributed Data Interface) 13 3

1 bit 1 bit Mbits 32 bits

I/G U/L N° anneau sous-adresse de station

adresse sur 48 bits


1 bit 7 bits 8 bits
sous-adresse
VG N° anneau de station

adresse sur lo Dits

Figure 5.7. Structure des champs d adresse

- le champ de données (INFO) peut être vide ou contenir un nombre pair de


symboles. Sa taille est limitée à 9 000 symboles (4 500 octets). La sémantique de ce
champ est déterminée grâce au champ FC ;
- le champ de vérification (FCS), codé sur 32 bits, permet de vérifier l'intégrité
de transmission de la trame ;
- le délimiteur de fin (ED) est constitué d'un symbole T (Terminate) ;
- le status de la trame (FS) contient les indicateurs de contrôle qui reflètent la
validité de la trame et ses conditions de réception et qui utilisent les symboles R
(Reset) et S (Set). Trois indicateurs sont définis : E (erreur détectée), A (adresse
reconnue), C (trame copiée). D'autres indicateurs peuvent être ajoutés,
éventuellement suivis d'un symbole T.

5.4.3.2. Le jeton
Le format du jeton est tout à fait similaire à celui d'une trame d'information
(figure 5.8). Bien entendu, on ne retrouve pas le champ INFO, mais simplement les
champs de préambule (16 symboles I minimum), de délimitation de début de trame
(symboles JK), de contrôle (2 symboles, 10 000 000 pour un jeton non restreint et
11 000 000 pour un jeton restreint) et de délimitation de fin de trame (2
symboles T).

1 PA SD FC ED

PA - Préambule FC - Frame Control


S D - Starting Delimiter ED - Ending Delimiter

Figure 5.8. Format du jeton FDDI

5.4.4. Processus Claim

Contrairement à Token Ring, FDDI ne donne pas de privilèges à une station


particulière qui deviendrait ainsi "monitrice de l'anneau". Chaque station surveille
l'anneau en permanence afin de détecter des conditions d'anomalie qui nécessiteraient
1 34 Architecture des réseaux haut débit

une (ré)initialisation de l'anneau. Lorsque cette éventualité se produit, la station entre


dans une phase appelée processus Claim. Cette phase permet de négocier la valeur du
TTRT et de déterminer la station qui engendrera le premier jeton.

Pour cela, chaque station émet continuellement des trames dites de négociation
(Claim frame), contenant dans le champ t_req la valeur du TTRT qu'elle aimerait
voir appliquer. Bien entendu, plus une station a besoin d'émettre des données
urgentes, plus elle aura tendance à réclamer un TTRT de faible valeur. Chaque
station écoute également le support et analyse les trames de négociation qu'elle
reçoit. Si le TTRT reçu est plus élevé que le sien, la station rejette la trame et
continue de négocier pour sa propre valeur. En revanche, si le TTRT reçu est
inférieur à celui qu'elle réclame, elle se retire de la négociation et répète la trame
reçue. La première station qui reçoit une de ses propres trames Claim remporte la
négociation. Elle peut alors initialiser son compteur T_OPR avec le TTRT
finalement négocié et qui est celui qu'elle réclamait. Dans l'exemple proposé en
figure 5.9, c'est la station S3 qui remporte la négociation.

2/ SA = 2 T_req = 4 T reo. = 4 S A = 1 T_req = 5


S2
6/ SA = 3 r_req = 3 5/ SA = 3
n
_req = 3

S3 FDD] SI
T_req = 3 T_req = 5

3, SA = 3 T_req = 3 S4 4/ SA = 3 T_req = 3
T_req = 5

F i g u r e 5 . 9 . Processus Claim

Sa première action est ensuite d'émettre un jeton. Dès réception du premier jeton,
les autres stations savent qu'une station a remporté la négociation. Elles initialisent,
elles aussi, leur compteur T_OPR à la valeur du TTRT négocié, mais aucune d'elles
n'a encore le droit d'émettre des données ; elles se contentent de répéter le jeton.
Lorsque ce dernier a effectué un tour complet de l'anneau et qu'il revient à la station
qui l'a généré, la station sait que l'anneau est prêt à fonctionner ; elle peut
commencer à émettre des données ou relâcher le jeton immédiatement.
F D D I (Fiber Distributed Data Interface) 13 5

5.4.5. Fonctionnement normal

Le but du protocole MAC de FDDI est d'éviter que des données moins urgentes
soient émises par une station alors qu'une autre aurait du trafic plus prioritaire à
émettre sur le support. Il faut que le temps d'accès au support soit équitablement
réparti entre toutes les stations et ce pour les différents niveaux de priorité.
Une première solution est de garantir un temps de rotation minimal pour le
jeton. Il ne faut pas qu'une station le monopolise, même si elle doit traiter du trafic
urgent.
L'émission des données asynchrones est conditionnée par l'arrivée en avance du
jeton. De plus, une station ne peut les émettre que durant le temps mesuré par THT,
c'est-à-dire pour une période équivalente à l'avance du jeton.
Par ailleurs, même si l'on peut émettre des données synchrones dès réception d'un
jeton en avance ou non, la durée d'émission ne peut excéder une borne fixée à
l'avance par la couche SMT. Celle-ci doit être calculée de telle sorte que la somme
des bornes pour toutes les stations n'excède pas le TTRT. Ainsi, pour un tour de
jeton, on est sûr que le temps d'émission synchrone global ne dépassera pas le TTRT
négocié. C'est ainsi que l'on peut montrer que le temps de rotation maximal pour un
jeton est en fait égal à 2 * T_OPR.

5.4.6. Processus Beacon

Quand une station détecte que le processus de négociation initial a échoué ou


alors sur simple requête de la couche SMT, elle met en place un processus Beacon.
C'est le cas lors d'une coupure physique de l'anneau. Le processus Beacon a pour
objet de localiser la panne afin d'entamer les actions de recouvrement qui s'imposent.

4/ SA = : Beacon 31 SA = 3 Beacon

11 S A = 2 Beacon

S3 FDDI SI

21 S A = 3 Beacon
D SA = 3 Beacon
S4

5/ SA = 2 Beacor SA = 2 Beacon

F i g u r e 5.10. Processus Beacon


1 36 Architecture des réseaux haut débit

Durant ce processus, chaque station émet continuellement des trames Beacon. Si


elle reçoit d'autres trames Beacon, elle cesse d'émettre les siennes et recopie celles en
provenance de l'amont. Ainsi, la station suivant immédiatement la liaison
défectueuse va remplir l'anneau avec ses propres trames, identifiées par l'adresse
source. Par ailleurs, s'il y a coupure, aucune autre station ne va recevoir les trames
Beacon qu'elle avait émises. De cette manière, le problème est localisé précisément
sur la liaison en amont de la station remplissant l'anneau de ses trames Beacon. Les
actions nécessaires au recouvrement de l'erreur peuvent alors être entamées, grâce à la
couche SMT. Dans l'exemple de la figure 5.10, la station S3 est la première à
détecter une anomalie de fonctionnement de l'anneau. Elle commence à envoyer des
trames Beacon. Chaque station répète les trames Beacon reçues. La trame Beacon
reçue et répétée par la station SI est perdue. La station S2 est la seule à ne pas
recevoir de trames Beacon. On a donc isolé le segment défaillant.

5.5. Services FDDI

Nous nous intéressons ici aux services, en d'autres termes aux interactions inter-
couches L L C / M A C , MAC/PHY et PHY/PMD. La figure 5.11 montre les
différentes entités constituant une station FDDI ainsi que leurs interactions. Les
échanges de primitives réalisés entre ces entités sont expliqués ci-après.

LPDU LLC LPDU

MSDU MSDU
MAC
MPDU MPDU
s 2/^ ^ 5/
M
T PHY

3/j f 4/ !"
PMD
i

I/ MA_UNITDATA.request (FC[ 1 ]. DA[ 1 ], MSDU[ 1 ], classe_service[ 1 ], suite! ']>•••


FC[n], DA[n], MSDU[n]. classe_service|n], 0. classe jeton)
2/ PH_UNITDATA.request (ph_request(symbole))
3/ PM_UNITDATA.request (bit)
4/ PIvLSIGNAL.indication (status_transmission)
.V PH_UNITDATA_STATUS.indication (status_transmission)
6/ MA_UNITDATA_STATUS.indication (nb_SDU. status^transmission. classe_service)
7/ PM.UNITDATA.indication (bit)
8/ PH_UNITDATA.indication (ph_indication(symbole))
9/ MAJJNITDATA.indication (FC. DA. SA. MSDU. statusjéceplion)

F i g u r e 5 . 1 1 . Utilisation des primitives de service


FDDI (Fiber Distributed Data Interface) 13 7

5.5.1 Service MAC

L'originalité du service MAC est que la primitive d'émission de données,


MA_UNITDATA.request, permet de demander le transfert de plusieurs SDU dans un
même appel pour rentabiliser le haut débit du canal. Pour la transmission d'une ou
plusieurs SDU d'une sous-couche LLC à une autre sous-couche LLC (voire plusieurs
LLC), la sous-couche MAC construit par encapsulation la ou les trames (MPDU
— MAC Protocol Data Units) à émettre, à partir de la ou des MSDU (MAC Service
Data Units) passées en paramètres de la primitive MA_UNITDATA.request. Chaque
sous-ensemble de paramètres {FC, adresse_destination, MSDU, classe_service,
suite} caractérise une trame et est en fait traité comme une sous-requête. L'ensemble
des paramètres de la primitive permet de créer les MPDU correspondantes aux
différentes MSDU. A la réception et capture d'un jeton approprié, la station
commence à émettre ses trames dans l'ordre précisé par la primitive et en accord avec
les règles de temps de maintien du jeton (THT) et de temps de rotation du jeton
(TRT). Lors de la transmission, une séquence de contrôle (FCS) est calculée pour
chaque trame et est insérée en fin de trame. Si TRT ou THT expire ou qu'une trame
ne peut être émise du fait de son paramètre classe_service (si TRT a expiré ou
THT = 0 seules les trames synchrones peuvent être émises), alors la transmission
cesse et un jeton est généré, en fonction du paramètre classejeton (restreint ou non).

La primitive MA_UNITDATA_STATUS.indication fournit une réponse locale à


la primitive MA_UNITDATA.request précédemment invoquée, signifiant le succès
ou l'échec de cette dernière via le paramètre status_transmission. Elle est équivalente
à la primitive de confirmation des protocoles IEEE. Le paramètre nb_SDU détermine
le nombre de MSDU transmises. Si la requête portait sur plus d'une MSDU,
status_transmission s'applique à toutes les MSDU transmises ; il indique en fait si
les indicateurs A et C de la trame MAC ont été correctement positionnés par l'entité
distante MAC. Le paramètre classe_service indique la classe de service qui a été
fournie pour le transfert (synchrone ou asynchrone).

La primitive MA_UNITDATA.indication indique le transfert de données de la


sous-couche MAC à la sous-couche LLC au niveau des entités réceptrices. Il y a une
indication générée pour chaque trame reçue. Ses paramètres sont FC — la valeur du
champ FC de la trame MAC, DA — l'adresse du destinataire, MSDU — le champ
d'information de la trame — et le paramètre status_réception qui indique si la trame
reçue par la couche MAC est correcte ou non.

5.5.2 Services PHY et PMD

La primitive PH_UNITDATA.request définit le transfert de données d'une sous-


couche MAC à l'entité physique locale. Le symbole spécifié par le paramètre
ph_request (symbole) est l'un des suivants : J, K, T, R, S, I ou alors l'un des
symboles de données appartenant à {0..9, A, B, C, D, E, F } .
138 Architecture des réseaux haut débit

L'entité physique envoie à son entité M A C utilisatrice une primitive


PH_UNITDATA.indication chaque fois que la couche physique décode un symbole.

La primitive PH_UNITDATA_STATUS.indication fournit un acquittement local


à la primitive PH-UNITDATA.request. Le paramètre status_transmission indique le
succès ou l'échec de la requête.

La primitive PM_UNIDATA.request permet à une entité PHY de transmettre un


code-bit NRZI à une entité PMD.

Inversement, l'indication correspondante, PM_UNITDATA.indication, est


utilisée par une entité PMD pour transmettre un code-bit NRZI à une entité PHY.

La primitive PM_SIGNAL.indication permet à une entité PMD d'indiquer à une


entité PHY le niveau du signal optique reçu par cette même entité PMD. Le status
est correct si le niveau du signal est en dessus d'une valeur seuil minimum.

5.6. Administration de FDDI

Toute la difficulté du protocole FDDI réside dans la gestion de l'anneau. Il faut


qu'en cas de problème, la continuité de l'anneau soit préservée, que l'allocation des
ressources reste équitable, que la prise du jeton soit renégociée, les erreurs détectées
et corrigées, etc.

Le protocole Token Ring (cf. chapitre 4) utilise une station particulière, appelée
moniteur, ayant en charge la totalité de la gestion du réseau. Cependant, à la suite
d'un incident, l'anneau FDDI peut être partitionné en plusieurs sous-anneaux.
L'approche moniteur centralisé nécessiterait alors un gestionnaire par sous-anneau.
De plus, une station à double attachement peut, le cas échéant, constituer un anneau
à elle seule et elle doit par conséquent être en mesure de s'autogérer. C'est pourquoi il
a été décidé qu'une entité de gestion serait présente dans chacun des nœuds FDDI
— station ou concentrateur. Cette entité de gestion locale qui fait partie intégrale
d'une station FDDI est appelée SMT (Station ManagemenT) [IS 10608-14]. Chaque
station est gérée par un agent qui décide des actions à entreprendre. Il donne des ordres
ou demande des informations à la station et reçoit des notifications d'elle. Les
différents agents du réseau FDDI peuvent s'échanger des informations via des
protocoles prévus à cet effet. A titre d'exemple, l'un des protocoles permet à une
station d'obtenir l'adresse MAC de la station adjacente.

Chaque entité SMT gère sa propre MIB (Management Information Base) qu'elle
met à jour régulièrement grâce aux réponses aux requêtes qu'elle envoie et aux
notifications reçues lors de changements significatifs des paramètres opérationnels.
Un protocole offre la possibilité à une entité SMT de consulter, voire de modifier des
objets d'une entité SMT distante.

SMT contrôle le fonctionnement des couches MAC, PHY et PMD, fournit des
services au système de gestion du réseau NMS (Network Management System) et
FDDI (Fiber Distributed Data Interface) 139

communique avec d'autres agents SMT. Son rôle principal est la gestion de la
configuration du réseau, ce qui regroupe la gestion des connexions, du bypass, de
l'initialisation, de la détection d'erreurs ou de pannes, de la reconfiguration, de la
détection d'adresses dupliquées, etc. SMT doit initialiser la couche MAC en lui
transmettant les paramètres dont elle a besoin et peut à tout moment effectuer des
modifications selon le comportement du réseau. De façon plus générale, on a deux
types de communications :

- les communications inter-stations : elles utilisent des protocoles de gestion


distante (cf. 5.6.2) ;
- les communications intra-station qui concernent l'ensemble des informations
échangées entre SMT et les différentes couches composant une station FDDI ainsi
que les échanges mis en œuvre pour le fonctionnement et la synchronisation des
automates constituant l'entité SMT. Le travail à effectuer par SMT est décomposé et
réalisé par des sous-entités. Il n'est en effet pas concevable qu'une entité de gestion
s'occupe de l'attachement au lien, de la connexion des différents ports, de la
configuration et de la couche MAC. SMT est donc découpé en plusieurs entités
auxquelles sont associés des automates décrivant leur fonctionnement.

5.6.1. Blocs et entités SMT

SMT est composé de deux grands blocs : CMT (Connection ManagemenT) et


RMT (Ring ManagemenT).

5.6.1.1. Lé- bloc CMT


CMT est responsable de la gestion des composants de la couche physique et de
leurs interconnexions ainsi que de la configuration des entités MAC et PHY à
l'intérieur d'une station pour réaliser l'attachement logique de cette station au réseau
FDDI. Un attachement physique à FDDI comprend un ou plusieurs ports, une entité
PHY et une entité PMD par port ainsi qu'une ou plusieurs entités MAC. Une entité
port implémente les sous-couches PHY et PMD et garantit le codage et décodage des
symboles ainsi que leur transmission à travers le support optique. C M T réalise
l'insertion et le retrait de port, la connexion des entités de port PHY aux entités
MAC. Il contrôle et dirige l'établissement de l'attachement du média au réseau FDDI
et les connexions physiques avec les ports des autres stations et concentrateurs.

Les fonctions de CMT sont :


- l'établissement et l'initialisation des connexions physiques :
• lancement du test du chemin,
• contrôle du commutateur optique de dérivation (bypass),
• test de continuité de la connexion,
• refus des connexions illégales ou indésirables,
• signaux sur la topologie physique,
140 Architecture des réseaux haut débit

• boucle locale de configuration avec le MAC voisin ;


- le contrôle de la configuration de la station :
• placement des entités MAC valides ;

- la détection des fautes au niveau physique :


• surveillance de la continuité du lien,
• reconfiguration sur faute de niveau physique ;

- le support des fonctions de traçage des fautes ;

- le test de fiabilité des liens ;

- le contrôle de la qualité des liens ;

- le support des états de maintenance de ligne ;

- l'indication de disponibilité de connexion.

C M T est composé de trois entités :

- l'ECM (Entity Coordination Management) porte sur l'interface entre le média


et le réseau FDDI (coordination de tous les ports associés avec cet attachement
physique et contrôle de la fonction de dérivation de la couche PMD). Elle avertit
l'entité PCM lorsque le médium est disponible et lance le test du chemin pour
localiser les fautes (MAC local et MAC amont). Il n'y a qu'une seule instance
d'ECM présente dans une station ou un concentrateur FDDI ;

- l'entité PCM (Physical Connection Management) gère la connexion physique


entre un port local et un port d'une autre station. Elle initialise la connexion des
ports voisins et gère les signaux entre ces ports. Elle fournit les signaux nécessaires
à l'initialisation d'une connexion, au refus d'une mauvaise connexion et à la
maintenance. Il n'y à qu'une instance de PCM par port d'attachement ;

- l'entité CEM (Configuration Element Management) gère la configuration des


entités MAC et des ports à l'intérieur d'une station ou d'un concentrateur. Elle
réalise l'interconnexion des entités PHY et MAC pour configurer les ports et les
entités M A C dans un nœud. Afin de réaliser ces interconnexions, des
"commutateurs", appelés CCE (Configuration Control Element), sont nécessaires.
On peut les voir comme des aiguillages qui relient des ports et des entités MAC à
l'intérieur d'une station. Les commutateurs réalisent donc la notion de chemin (path),
un chemin étant l'interconnexion entre une entité port et une entité MAC. CEM
connecte et déconnecte les ports selon les drapeaux de PCM. Il y a une instance de
CEM par port.

5.6.1.2. Le bloc RMT

RMT est responsable de la gestion de la couche MAC. Il reçoit des informations


d'état en provenance de MAC et CMT et rapporte l'état de MAC. Il y a une instance
de RMT par entité MAC.
F D D I (Fiber Distributed Data Interface) 141

Les fonctions de RMT sont :

- la détection des fautes dans la couche MAC :


• identification d'un échec de Beacon,
• détection des duplications d'adresses qui empêchent l'anneau de devenir
opérationnel,
• résolution des duplications d'adresses pour rendre l'anneau opérationnel ;
- l'initialisation des fonctions de traçage d'erreurs ;
- la notification de la disponibilité de MAC pour l'envoi de données.

La figure 5.12 résume l'architecture de SMT au niveau d'une station FDDI.


autres entités de gestion de station

RMT MAC
/ par MAC

pkrpo*
E CEM CCE
C
M / pkrpoM
PHY
/ par PCM
nœud
PMD
contrôle du
commutateur opt
CMT de dérivation port

mm
Figure 5.12. L'architecture de SMT

5.6.2. Les services SMT

Les fonctions et services de trames SMT peuvent être utilisés par des fonctions
de gestion de plus haut niveau qui rassemblent des informations et exercent un
contrôle sur le réseau FDDI.
En effet, SMT sert d'interface entre les stations de l'anneau FDDI et le système de
gestion du réseau NMS (Network Management System). SMT transmet à NMS les
informations recueillies tout au long de l'acheminement des trames, comme par
exemple les taux d'erreurs ou le nombre de trames envoyées ou reçues. Des
protocoles de communication inter-stations permettent d'établir des statistiques sur le
réseau, de détecter, d'isoler et de résoudre les fautes survenues sur un anneau, de
surveiller la configuration du réseau et les paramètres opérationnels, tout cela pour
satisfaire les exigences de performance et de connectivité des applications :
1 42 Architecture des réseaux haut débit

- Neighbor Notification Protocol permet :


• à MAC de déterminer l'adresse logique de la station en amont et celle de la
station en aval,
• de détecter les duplications d'adresses MAC SMT sur un anneau
opérationnel,
• de vérifier périodiquement les opérations du MAC local (chemins
d'émission et de réception).
Ces fonctions sont réalisées périodiquement en échangeant des trames NIF
(Neighbor Information Frame) entre MAC et son voisin en aval le plus proche ;

- Status Report Protocol permet à une station d'annoncer périodiquement son


état. Lorsque des compteurs ont dépassé des seuils donnés, des conditions sont
signalées à l'aide de trames SRF (Status Report Frame). Par exemple, une condition
d'erreur de trame MAC est activée si le taux d'erreurs des trames MAC excède un
seuil prédéfini ou, encore, une condition de duplication d'adresse est signalée si une
entité MAC détecte qu'elle ou sa voisine en amont possède une adresse dupliquée ;

- Parameter Management Protocol permet une gestion à distance des stations en


agissant sur l'ensemble des attributs de la MIB FDDI d'une station par l'intermédiaire
d'opérations Get, Add, Change et Remove. Les trames PMF (Parameter Management
Frame) permettent de réaliser ces opérations.

Bien que SMT ait défini ses propres protocoles pour la gestion à distance de
stations FDDI, d'autres protocoles de gestion système peuvent être utilisés, tels que
SNMP d'Internet ou CMIP de l'ISO. De plus, la communauté Internet a développé
une MIB FDDI SNMP pouvant être manipulée par le protocole SNMP.

Il existe entre SMT et les différentes couches de FDDI (MAC, PHY et PMD) des
primitives de services permettant à SMT de contrôler et de gérer ces couches. Ces
primitives sont internes à la station :

- entre SMT et MAC :


• SM_MA_INITIALIZE_PROTOCOL.request est utilisée pour une demande
de reconfiguration de la couche MAC acquittée par une indication qui indique
le succès ou l'échec de la primitive ;
• SM_MA_UNITDATA.request permet le transfert de données vers une ou
plusieurs entités SMT homologues acquittée par une indication qui indique le
succès ou l'échec de la primitive ;
• SM_MA_TOKEN.request est utilisée par SMT pour demander le jeton
lorsque des données doivent être transférées alors qu'elles présentent des
contraintes de temps ;
FDDI (Fiber Distributed Data Interface) 143

- entre RMT et MAC :


• SM_MA_CONTROL.request permet de contrôler des opérations de l'entité
MAC locale. Une indication permet alors à MAC d'informer SMT des
changements d'états significatifs étant survenus ;

- entre CMT et PHY :


• SM_PH_LINE_STATE.request correspond à une demande d'émission pour
un flot continu de symboles identiques (lors de l'insertion ou du retrait d'une
station) ;
• SM_PH_CONTROL.request permet le contrôle des opérations de PHY.
Une indication permet ensuite à PHY d'avertir CMT des changements
d'états ;

- entre SMT et PMD :


• SM_PM_Signal.Indication permet à PMD de renseigner SMT sur l'état du
niveau du signal optique entrant ;
- entre CMT et PMD :
• SM_PM_CONTROL.request permet l'activation/désactivation de l'émetteur
optique par SMT ;
• SM_PM_BYPASS.request permet l'insertion ou le retrait de SMT de
l'anneau ;
- entre SMT et RMT :
• SM_RM_CONTROL.request permet à SMT de contrôler RMT. Une
indication permet alors à RMT d'informer une entité SMT locale de
changements significatifs (machine à états, MAC_Avail, Loop_Avail,
Trace_started, DA_Flag, NO_Flag) ;
- entre SMT et CMT :
• SM_CM_CONNECT.request : SMT, par cette primitive, demande à CMT
d'entamer une séquence de connexion ou de déconnexion ;
• SM_CM_CONTROL.request permet à SMT de contrôler C M T . Une
indication émise par CMT notifie SMT de changements d'états significatifs
(machine de ECM ou CFM, Path_test, etc.).

D'un point de vue administration de réseaux (modèle organisationnel), MAC est


un Agent pour RMT et RMT est un Manager pour MAC. Aussi, PHY et PMD sont
des Agents pour CMT et CMT est un Manager pour PHY et PMD. De la même
façon, RMT et CMT sont des Agents pour SMT et SMT est un Manager pour RMT
et CMT.
144 Architecture des réseaux haut débit

5.6.3. La MIB SMT

Dans la spécification de SMT, un certain nombre d'objets de gestion sont définis,


avec leurs attributs, les actions qu'ils supportent et les notifications qu'ils émettent,
dans le but de faciliter l'administration d'un réseau FDDI dans un environnement
OSI. La figure 5.13 décrit le modèle de gestion de FDDI. Elle montre les relations
entre les objets de gestion d'un réseau FDDI et les composants de SMT. Les objets
de gestion dans S M T sont ceux de la station (ou du concentrateur), de ses entités
MAC, de ses chemins et de ses ports.

chemins chemins
de données de données
en transmission •n réception

trames SMT

>pérations _
abjet(s)
RMT
lOtifications MAC
nnérntinns objet
agent de opérations
SMT objet(s)
gestion notifications
notifications D A TU

CMT
opérations
objet(s)
notifications PORT

station FDDI

Figure 5.13. Le modèle de gestion de SMT

La classe d'objets SMT modélise l'ensemble des informations nécessaires à la


gestion d'un nœud FDDI. Une seule entité SMT y est présente. La classe d'objets
SMT contient des attributs (identificateur de la station, numéro de version, nombre
de MAC dans la station, chemins disponibles dans la station, possibilités de
configuration, états des automates ECM et CFM, etc.), des opérations (actions sur
SMT) et des notifications.

La classe d'objets MAC modélise l'ensemble des informations nécessaires à la


gestion d'entités MAC à l'intérieur d'un nœud FDDI. Plusieurs entités MAC peuvent
y être présentes (jusqu'à 255). A chaque entité MAC est associée une instance de la
classe d'objets MAC. La classe d'objets MAC contient des attributs (nombre de
trames reçues ou transmises, valeurs maximales pour T_MAX et TVX, état de
l'automate de RMT, etc.), des opérations (actions sur MAC) et des notifications.
FDDI (Fiber Distributed Data Interface) 145

La classe d'objets PORT modélise l'ensemble des informations nécessaires à la


gestion d'entités PORT à l'intérieur d'un nœud FDDI. Plusieurs entités PORT
peuvent y être présentes (jusqu'à 255). A chaque entité PORT est associée une
instance de la classe d'objets PORT. La classe d'objets PORT contient des attributs
(type du port, état des automates de CEM et de PCM, taux d'erreurs sur le lien,
raison du refus de la connexion, etc.), des opérations (actions sur PORT) et des
notifications.

La classe d'objets PATH modélise l'ensemble des informations nécessaires à la


gestion d'entités PATH à l'intérieur d'une station — les chemins. A chaque entité
PATH est associée une instance de la classe d'objets PATH. Un PATH permet
d'interconnecter les PORT et les MAC. La classe d'objets PATH contient des
attributs (status du chemin, configuration du chemin, allocation de la bande passante
synchrone pour ce chemin, valeurs maximales de T_MAX et TVX pour le chemin,
etc.), des opérations (actions sur PATH) et des notifications.

5.7. L a c o u c h e physique

Comme nous l'avons vu en figure 5.2, la couche physique est divisée en deux
sous-couches, PMD (Physical Medium Dependent) et PHY.

5.7.1. Couches PHY et PMD

La sous-couche PHY a pour principal objectif d'offrir une interface identique à la


sous-couche MAC quelle que soit la PMD sous-jacente c'est-à-dire quel que soit le
support. Elle est responsable de la transmission de bits sur le support physique, du
codage/décodage et de la synchronisation.

La technique de codage adoptée, pour des raisons d'efficacité, est le codage


4B/5B NRZI qui consiste à associer à tout groupe de 4 bits un mot de code de 5 bits
appelé symbole. L'intérêt de ce type de codage est d'éliminer les longues suites de 0
(qui pourraient empêcher le récepteur de se synchroniser sur l'horloge de l'émetteur)
et de permettre l'introduction de symboles supplémentaires utiles au protocole. Les
symboles de 5 bits sont ensuite codés selon le procédé NRZI (Non Return to Zero
Inverted) qui consiste à produire une transition du signal sur la ligne chaque fois et
uniquement lorsqu'un bit à 1 est transmis, afin de maintenir la synchronisation du
récepteur sur l'émetteur. La figure 5.14 (a) montre un exemple de codage NRZI.
1 46 Architecture des réseaux haut débit

1 1 1 1 1 1 1 1

— p é r i o d e — 2 bits par période (62,5 Mhz)

(a) NRZI
1 1 i i î i ! i

- période- 4 bits par période (32,25 Mhz)

(b) MLT-3

Figure 5.14. Codage d'une suite de "I"

5.7.2. Couche PMD et supports de FDDI

La couche PMD spécifie toutes les caractéristiques optiques et physiques des


équipements employés pour assurer une connexion entre deux stations adjacentes de
l'anneau (câbles, connecteurs, commutateurs, émetteurs et récepteurs optiques). Au
départ, une seule PMD a été normalisée, basée sur une fibre multi mode. Du fait du
coût de son raccordement, des propositions plus économiques ont été faites utilisant
soit une fibre moins chère (Low-Cost Fiber) ou la paire torsadée.

Ces propositions sont conçues par l'ANSI et en cours de normalisation à l'ISO.


Cependant des produits sont d'ores et déjà disponibles sur le marché.

5.7.2.1. MMF-PMD
Initialement, PMD [IS 9314-3] spécifie les caractéristiques de la station et le
câblage sur la base de fibre multimode (à gradient d'indice 62,5/125 u m de
préférence) ou monomode (8-10 um). D'autres fibres multimodes peuvent être
utilisées, aussi la norme spécifie les paramètres de qualité du signal à respecter de
manière à assurer l'interopérabilité. Le choix de ce support a été motivé par sa
qualité, tant au niveau de sa bande passante (autorisant des débits élevés) que de sa
faible atténuation (autorisant des distances de transmission importantes) et que de son
immunité aux bruits (limitant le taux d'erreurs de transmission). PMD spécifie un
connecteur optique duplex à base de LED (cf. 2.3.4) transmettant sur une longueur
d'onde nominale de 1 300 nm sur des liens d'au plus 2 km.
FDDI (Fiber Distributed Data Interface) 147

5.7.2.2. SMF-PMD

Certains réseaux FDDI nécessitent des connexions inter-stations supérieures à


2 km c'est pourquoi il a été spécifié une couche SMF-PMD (Single Mode Fiber-
PMD) [ANSI 184]. Sur fibre optique monomode, l'émission se fait grâce à des
diodes lasers permettant l'extension de la distance inter-stations jusqu'à 60 km sur
des réseaux privés.

5.7.2.3. FDDI sur SONET

Pour fédérer des réseaux locaux relativement distants, il a été proposé une
alternative au lien direct par câble privé en utilisant le système de transmission
public sur fibre optique, SONET (Synchronous Optical NET work) [ANSI Tl-105].
SONET est un système de transmission optique numérique utilisé dans les réseaux
publics qui définit une hiérarchie de débit ainsi qu'une structure d'enveloppe — il est
décrit en détail dans le chapitre 8. FDDI sur SONET (SPM — SONET Physical-
layer Mapping) utilise le niveau STS-3 à 155 Mbit/s.

5.7.2.4. TP-PMD

Malgré ses performances, la méthode d'accès FDDI est restée marginale, avec une
utilisation principalement confinée à la fédération de réseaux locaux classiques. Pour
basculer de la dizaine de Mbit/s offerte par Ethernet ou Token Ring à la centaine de
Mbit/s offerte par FDDI, il est nécessaire de procéder à un recâblage des locaux,
d'installer des concentrateurs FDDI, d'installer des cartes à composants optiques
onéreux, etc. En fait, le coût élevé des composants optiques s'est avéré être le
principal obstacle à un déploiement rapide de FDDI, même s'il a diminué de plus de
50 % dans ses quatre premières années. Tout cela a amené un bon nombre de
constructeurs à démarrer des développements de FDDI sur paires torsadées, avec des
appellations diverses : générique avec CDDI (Copper DDI) ou plus spécifiques avec
TP-DDI (Twisted Pair DDI) ou SDDI (Shielded twisted pair DDI). Parallèlement, un
projet de normalisation du protocole sur câblage en cuivre était lancé à l'ANSI et
devrait être validé sous le nom de TP-PMD (Twisted Pair — Physical Medium
Dependent) [ANSI 201].

Les principaux problèmes engendrés par l'utilisation de supports métalliques sont


liés à la puissance du signal et aux interférences électromagnétiques. En effet,
l'atténuation augmente avec l'élévation de la fréquence du signal et, pour maintenir
un bon rapport signal sur bruit, il faut soit augmenter le niveau de signal (davantage
de puissance), soit avoir recours à des techniques de codage qui produisent des
signaux à fréquence plus faible. L'augmentation de puissance entraînant une
augmentation des interférences, il est alors préférable d'utiliser des techniques de
codages adaptées.
1 48 Architecture des réseaux haut débit

Les supports retenus sont la paire torsadée blindée (STP) type 1 et la paire
torsadée non blindée (UTP) catégorie 5. Dans le cas du premier, le blindage présente
l'avantage de prévenir les interférences électromagnétiques et l'utilisation du codage
4B/5B NRZI reste possible. Dans le cas de la paire non blindée, la technique de
codage qui a été retenue est le MLT-3 (MultiLevel Transmission 3). Ce codage peut
être vu comme une extension du NRZI sur trois niveaux. Ces trois niveaux sont
représentés par +1, 0 et - 1 . Comme dans le NRZI, un bit à 0 est codé par l'absence
de transition, et un bit à 1 par la présence d'une transition. Les transitions
successives vont dans le même sens (elles sont soit ascendantes, soit descendantes)
mais changent de sens dès que le signal atteint le niveau +1 ou - 1 . La figure 5.14
donne l'exemple du codage d'une suite de huit bits à " 1 " dans le cas du NRZI à deux
niveaux et du MLT-3 à trois niveaux.

Après le codage 4B/5B, le signal FDDI a un débit binaire brut de 125 Mbit/s
(100 Mbit/s utiles * 5/4). Avec le codage NRZI, chaque période de signal consistant
en 2 bits, on obtient une fréquence de signal à 62,5 MHz. Avec le codage MLT-3, la
période est de 4 bits et conduit à une fréquence de 32,25 MHz. Pour renforcer la
protection contre les interférences électromagnétiques, l'ANSI a également adopté un
mécanisme d'embrouillage chargé de répartir uniformément l'énergie du signal sur
tout son spectre.

Depuis la mi-93, les annonces de produits TP-PMD sont nombreuses.


Malheureusement, le standard n'étant pas définitivement figé, ces offres restent plus
ou moins propriétaires (attention à l'inter-opérabilité !). Par ailleurs, la baisse
continuelle du prix de la fibre et des composants optiques ainsi que la limitation en
distances (100 m au lieu de 2 km pour FDDI) expliquent en partie le peu d'intérêt
porté à cette technologie par les constructeurs et les utilisateurs.

5.7.2.5. LCF-PMD
Toujours dans l'optique de diminuer les coûts de FDDI, l'ANSI, parallèlement à
ses travaux sur TP-PMD, a créé un comité appelé LCF-PMD (Low-Cost Fiber
— Physical Medium Dependent) [ANSI 237]. Comme le nom le suggère, le comité
s'était donné comme objectif de trouver une fibre moins chère que la fibre multimode
62,5/125 um spécifiée dans la norme FDDI. D'autres alternatives, telles que la fibre
plastique ou la fibre 200/300 um, ont été considérées avant d'être abandonnées dès
lors qu'il fut admis que le coût réel portait, non pas sur la fibre elle-même, mais sur
les équipements. La suite des travaux a donc porté sur la spécification d'émetteurs et
de récepteurs optiques à moindre coût. Ces derniers sont moins chers car d'une part,
la distance maximale entre deux équipements a été ramenée à 500 m et d'autre part,
les contraintes de qualité (puissance d'émission et de réception) ont été rendues moins
strictes.
FDDI (Fiber Distributed Data Interface) 149

5.8. Les dérivés

5.8.1. FDDI II

FDDI II est une extension de FDDI qui lui reste compatible [IS 9314-5]. II
ajoute à F D D I la possibilité d'acheminer du trafic isochrone (véhiculé
traditionnellement grâce à une technique de commutation de circuits) en sus des
trafics asynchrone et synchrone (généralement véhiculés par commutation de
paquets). En effet, FDDI ne se prête pas à la transmission de flux continus à débit
constant. Même si la classe de service synchrone permet de garantir un débit
minimum, elle ne permet pas de traiter et de restituer un flux de données uniforme
sans aucune variation. Les services visés sont ceux qui nécessitent un accès
strictement périodique, tels que la voix, le son ou encore les images numériques.
La technique utilisée dans FDDI II pour rendre un service en mode circuit
consiste à imposer une structure de trame toutes les 125 us. Une connexion en mode
circuit repose alors sur un intervalle de temps donné dans la trame récurrente. Les
canaux sont établis par SMT.

5.8.1.1. Architecture de FDDI II

La couche physique et SMT sont semblables à ceux de FDDI. La différence porte


sur la sous-couche MAC. Deux nouveaux composants y sont introduits (figure
5.15) :
- HMUX (Hybrid Multiplexer) se charge de multiplexer les trames MAC et les
données isochrones soumises par IMAC,
- IMAC (Isochronous MAC) fournit une interface entre FDDI et le service
isochrone (représenté par le multiplexeur de circuits commutés).
multiplexeur
LLC de circuits
commutés

MAC
IMAC

HMUX s
M
T

PHY

PMD

Figure 5.15. Architecture de FDDI II


1 5 0 Architecture des réseaux haut débit

5.8.1.2. Mode de fonctionnement hybride

Un réseau FDDI II peut fonctionner selon deux modes :

- en mode de base : seul le service en mode paquet est disponible et on retrouve


alors un fonctionnement strictement identique à celui de FDDI ;
- en mode hybride : les services en mode paquet et en mode circuit sont
simultanément offerts.

Quand des stations FDDI et FDDI II coexistent sur un même réseau, seul le
mode de base peut être utilisé.
Lorsque le mode de fonctionnement hybride est utilisé, une station primaire est
chargée de générer un cycle toutes les 125 u s . Un cycle est en fait une trame
circulant sur l'anneau et dont le contenu est visible par toutes les stations du réseau.
Il sera retiré de l'anneau par cette même station primaire. A 100 Mbit/s, la longueur
d'un cycle est de 12 500 bits. Sa structure est donnée en figure 5.16. On y trouve un
préambule de 5 symboles, soit 20 bits, servant à assurer la synchronisation, l'en-tête
de cycle, codé sur 12 octets et contenant des informations sur l'utilisation du reste du
cycle, 16 canaux à haut débit (WBC — Wide Band Channel) de 96 octets chacun et,
enfin, le DPG (Dedicated Packet Group) constitué de 12 octets dédiés uniquement au
trafic de type paquet et entrelacés avec les 16 WBC. A un instant donné, l'anneau
peut contenir plusieurs cycles.

préambule en-tête de cycle

DPG 0[

DPG 1
% rangées
WBC 14
WBC 13
WBC 12
WBC 10

WBC is
WBC 1 1
WBCO^

WBC 9
WBC 6
WBC 4

WBC 8
WBC 3

WBC 7
WBC 2

WBC 5
WBC 1

DPG 11L

• 16 octets ~

F i g u r e 5 . 1 6 . Structure d'un cycle FDDI II


FDDI (Fiber Distributed Data Interface) 15 1

Chaque canal à haut débit offre une capacité de 6,144 Mbit/s et peut être utilisé
en mode circuit comme en mode paquet. En regroupant tous les canaux utilisés en
mode paquet avec le DPG, on obtient un canal de paquets de données, dont la
capacité varie alors de 768 kbit/s à 99,072 Mbit/s par pas de 6,144 Mbit/s et dont
l'accès est contrôlé par le mécanisme de jeton temporisé. La répartition des octets sur
les différents canaux est réalisée par le multiplexeur hybride HMUX. La sous-couche
IMAC peut diviser un canal WBC en sous-canaux. Le tableau 5.2 donne la
répartition de la capacité entre les différents canaux.

nombre de bits par cycle débit (Mbit/s)


surdébit (préambule + en-tête) 116 0,928
N canaux en mode circuit N*768 N * 6,144
canal de paquets de données 96 + ( 1 6 - N ) * 768 0.768 + ( 1 6 - N ) * 6,144
total 12 500 100

Tableau 5.2. Répartition de la capacité entre les canaux

5.8.2. F FOL

FDDI et FDDI II fonctionnent tous deux à 100 Mbit/s et il faudrait un réseau


fédérateur offrant un débit encore plus élevé pour interconnecter plusieurs réseaux
FDDI. Aussi a-t-il été ressenti, au sein de l'ANSI, le besoin d'une suite au réseau
FDDI qui serait à FDDI ce que FDDI est aux réseaux tels que Token Ring. Le projet
FFOL (FDDI Follow-On Lan) a ainsi démarré sur une nouvelle génération de
réseaux à hauts débits [Ross 92], [Hamstra 92], [Fink 92].

Les objectifs visés initialement étaient de :

- servir de réseau fédérateur, de la même façon que FDDI, dans un premier


temps ;
- servir de réseau local d'attachement de stations, dans un deuxième temps, ce
pour répondre aux besoins d'interconnexion de stations de travail à très hautes
performances ;
- tirer profit de l'expérience acquise avec FDDI ;
- anticiper le besoin (FDDI a mis 8 ans pour être complètement spécifié) ;
- être prêt pour 1995 (!!!).

Pour atteindre ces objectifs, la démarche qui a été choisie a été, non pas une mise
à niveau de FDDI, mais plutôt une refonte complète des protocoles et des services,
notamment pour des raisons de compatibilité avec les débits des transporteurs
internationaux (SDH) et les systèmes de transmission de cellules.
I 52 Architecture des réseaux haut débit

Les besoins qui ont été identifiés pour FFOL sont nombreux et portent sur
différents points :
- les services : FFOL doit présenter bien évidemment une compatibilité
ascendante avec ses prédécesseurs FDDI (services asynchrone et synchrone) et FDDI
II (service isochrone des canaux à large bande). Il doit permettre aisément
l'interconnexion de plusieurs réseaux FDDI, aussi bien que l'interconnexion avec
SMDS ou le BISDN. Enfin, l'éventail des applications à supporter est très large et
va des applications traditionnelles (transfert de fichiers, transactionnel) aux nouvelles
applications multimédias, en passant par les applications temps réel.
- les débits : 1,25 Gbit/s sur de la fibre optique multimode, les débits de charge
utile devant être conformes à ceux définis dans la hiérarchie SDH ;
- la topologie et les considérations de câblage : la topologie de câblage en
anneau double est à conserver pour pouvoir utiliser des réseaux FDDI existants ou
des pré-câblages d'immeubles en fibre optique ;
- le codage : il est sujet à discussion, un codage de type 4B/6B ou de type
8B/10B — qui autoriserait davantage de codes de contrôle — ou un autre procédé qui
permettrait d'augmenter le parallélisme sur l'interface électrique ?
- les modes d'accès au support : FFOL doit supporter le mode paquet pour les
services asynchrone et synchrone, le mode circuit pour le service isochrone et aussi
le mode asynchrone (type ATM) pour les services avec ou sans connexion ;
- les méthodes d'accès au support : les techniques envisagées sont l'anneau ou le
bus avec temps discrétisé, l'anneau ou le bus à insertion de registre ou encore
l'anneau ou le bus à jeton ;
- la topologie logique : l'anneau et le bus permettent un point de contrôle
centralisé pour générer des tranches de temps ou allouer des ressources. L'anneau
permet de plus un mécanisme de reprise réparti et de son côté, le bus ne pose pas de
problème de retrait de trames ;
- les propriétés de l'accès au support : il s'agit principalement de mécanismes de
réservations, de pré-allocations et de priorités, du mécanisme utilisé pour retirer les
trames dans le cas d'un anneau et du multicast (envois multi-destinataires) ;
- la reprise sur erreur et sur panne : elle est vue au travers d'un mécanisme de
redondance et de temps maximum pour la reprise et la reconfiguration.

Les travaux au sein de l'ANSI sont en cours mais ils ont été récemment ralentis
par la mise en concurrence avec d'autres standards visant le gigabit (ATM, HIPPI
(High Performance Parallel Interface), etc.) [Tolmie 92].
FDDI (Fiber Distributed Data Interface) 1 53

Exercices

Exercice 5.1

Comparez les réseaux FDDI et Token Ring en termes de débit, codage, taille
maximale de trame, format de trame, système de priorités, relâche du jeton,
topologie, distance inter-stations et de couverture géographique.

Exercice 5.2
Indiquez la signification des bits A, C et E situés dans le champ FS de la trame
FDDI et précisez leur rôle.

Exercice 5.3

La couche physique du protocole FDDI utilise le codage 4B/5B NRZI, chaque


symbole étant codé sur 5 bits. Comme le codage Manchester, il assure suffisamment
de transitions pour éviter une dérive de phase entre les horloges de la station
émettrice et de la station réceptrice. Quel est donc l'avantage d'un tel codage par
rapport au codage Manchester habituellement utilisé ?

Exercice 5.4

Remplacez les ... par les mots manquants :

Lorsque le jeton arrive et T R T o 0:

THT := . . . (1) . . . ;
si LATE_CT = . . . ( 2 ) . . . alors TRT := TTRT ;
émission synchrone ;
si LATE_CT = 0 et THT > 0
alors émission asynchrone pendant THT ;
LATE_CT : = . . . (3) . . . ;

Lorsque le jeton arrive et TRT = 0 :

LATE_CT : = . . . ( 4 ) . . . ;
TRT : = . . . (5) . . . ;

Exercice 5.5

Quels types d'erreurs peuvent entraîner la circulation de plusieurs jetons sur


l'anneau ?

Exercice 5.6

Des données isochrones peuvent-elles être transmises grâce à la classe de service


synchrone de FDDI ?
1 54 Architecture des réseaux haut débit

Exercice 5.7

On considère une station connectée à un réseau FDDI de débit 100 Mbit/s. Le


temps de rotation du jeton sur l'anneau est de 2 ms. Dans l'implantation considérée,
seuls trois niveaux de priorités sont possibles pour les données asynchrones, notés
0. 2 et 4, où 4 représente la priorité la plus élevée. La station génère plusieurs types
de trafic, répartis comme suit :
- t r a f i c synchrone : 10 connexions synchrones transférant 25 octets à chaque
passage de jeton ;
- trafic asynchrone de priorité 4 : 1 3 Mo de données temps réel ;
- trafic asynchrone de priorité 2 : transfert d'une image de 1 Mo ;
- pas de trafic de niveau 0.

Sachant que le surdébit d'une trame FDDI (préfixe et suffixe) est de 28 octets et
que le temps de possession du jeton (THT) est toujours de 50 us :

1. Quelles sont les valeurs respectives des temps de transmission pour chaque type
de trafic ?

2. Combien d'octets de l'image seront envoyés à chaque passage du jeton ?

3. Quel sera le temps total de transfert de l'image ?

4. Combien de stations au maximum peuvent être actives simultanément ?

Exercice 5.8 [Walrand 93]

Montrez qu'en l'absence de trafic synchrone à transmettre, la durée entre deux


passages du jeton est inférieure à TTRT + THT. On considérera pour cela deux
stations A et B sur un anneau FDDI, où A est le prédécesseur de B et on notera t le p

temps de propagation de A à B. En supposant que l'assertion est vraie pour A, on


montrera qu'elle est vraie pour B.

Exercice 5.9

On considère un réseau FDDI à 100 Mbit/s et comportant 300 nœuds. Chaque


nœud introduit un délai d de 16 temps-bit lors du passage d'une trame. Le jeton a une
4
longueur de 100 bits. Le temps de propagation sur la fibre est de t = 3 , 9 . 1 0 s.
p

L'efficacité du réseau est définie comme étant le temps utile sur le temps d'un cycle
lorsque toutes les stations transmettent. En d'autres termes, c'est le ratio entre le
temps passé par les stations à transmettre des trames et le temps de rotation du jeton.
Exprimez l'efficacité du réseau en fonction de TTRT.

A.N. : TTRT = 10 ms.


FDDI (Fiber Distributed Data Interface) 1 55

Exercice 5.10

On désire comparer deux mécanismes de priorités entre plusieurs types de trafic


d'une même station utilisant un protocole de jeton temporisé. On considère 4
niveaux de priorité : 1 > 2 > 3 > 4. Les deux algorithmes sont :

Algorithme 1 :
TTRT : durée cible de rotation du jeton
TRT : temporisateur réarmé à chaque relâche de jeton et initialise à la valeur de
TTRT
THT : temporisateur armé à l'arrivée du jeton et initialise avec le reliquat de TRT
SA : durée de la transmission des données de haute priorité
1) à l'arrivée du jeton, THT = TRT
2) transmission du trafic de priorité 1 pendant SA
3) pour les niveaux de priorité /, i = 2, 3, 4, transmission des données de
niveau i jusqu'à épuisement des données à transmettre ou expiration de
THT
4) armer TRT
5) rendre le jeton

Algorithme 2 :
TTRT : durée cible de rotation du jeton (la même pour toutes les stations)
Chaque station définit 3 durées et utilise 4 temporisateurs :
TTRTj : durée limite de rotation du jeton pour la classe de priorité /, i = 2, 3, 4
TRT : temporisateur réarmé à chaque relâche de jeton et initialise à la valeur de
TTRT
TRTj : temporisateur de la classe de priorité i, i = 2, 3, 4, réarmé à chaque
relâche du jeton et initialise avec la valeur de TTRTj
1) arrivée du jeton
2) émission des trames de niveau 1 jusqu'à expiration de TRT ou épuisement
des données à transmettre
3) émission des trames de niveau 2 jusqu'à expiration de TRT 2

4) émission des trames de niveau 3 jusqu'à expiration de TRT 3

5) émission des trames de niveau 4 jusqu'à expiration de TRT 4

6) armer les temporisateurs 77? 7\ TRT , TRT


2 3 et TRT4

7) rendre le jeton

1. Dans l'algorithme 2, on désire garantir un temps de cycle d'au plus TTRT. Quelle
relation existe-t-il entre les durées TTRT, TTRT , TTRT, et TTRT ?
2 4

2. Sur un diagramme des temps, montrez le fonctionnement des deux algorithmes,


en expliquant les conditions de votre exemple.

3. Ces deux mécanismes sont-ils équivalents ? Si oui, pourquoi ? Si non, donnez


les conditions pour avoir une équivalence.
Chapitre 6

DQDB (Distributed Queue Dual Bus)

6.1. Introduction

DQDB (Distributed Queue Dual Bus) [IEEE 802.6] a été adopté par 1TEEE sous
le nom de protocole MAN (Metropolitan Area Network) dans le standard 802.6.
Rappelons que les caractéristiques des réseaux métropolitains sont proches de celles
des réseaux locaux, puisqu'ils permettent multi-accès et diffusion. Cependant, ils
couvrent des distances plus importantes, de plusieurs dizaines de kilomètres, et ont
pour objectif principal l'interconnexion à haut débit (de l'ordre de 100 Mbit/s) de
réseaux locaux. Le protocole DQDB est issu des travaux menés par Telecom
Australia dans le projet QPSX (Queued Packet and Synchronous Switch) [Newman
88]. Il a été retenu comme standard MAN car il présente une bonne stabilité de ses
performances sous forte charge et fournit un service isochrone orienté connexion
tout en permettant le transfert de trafic asynchrone en mode connecté ou non. Le
service isochrone s'appuie sur une trame de cellules répétée toutes les 125 us dans
laquelle certaines cellules sont réservées au transfert isochrone en fonction du débit
de la connexion. Le mode asynchrone utilise la bande passante restante.

FDDI est le principal concurrent de DQDB même si FDDI est de plus en plus
utilisé comme réseau local haut débit sur paires torsadées plutôt que comme réseau
fédérateur. DQDB en conjonction avec le service SMDS (cf. chapitre 9) s'est
développé principalement aux Etats-Unis mais n'a pas vraiment réussi à s'implanter
en Europe où le choix du réseau support pour l'interconnexion de réseaux locaux
s'est davantage orienté vers des liaisons haut débit et le relais de trames, puis à
moyen terme, vers le réseau large bande.
1 58 Architecture des réseaux haut débit

Les débits retenus pour DQDB sont de 45 Mbit/s, 155 Mbit/s et pourront
évoluer ultérieurement jusqu'à 600 Mbit/s.

La topologie du réseau DQDB est constituée d'une paire de bus unidirectionnels


de sens inverse. Pour pouvoir émettre et recevoir vers/de l'ensemble des stations du
réseau, chaque station est connectée en émission et en réception sur chaque bus. La
figure 6.1 montre la configuration logique d'une telle topologie. Par convention, le
bus supérieur est noté bus A et le bus inférieur est noté bus B.

bus A

i T

nœud nœud nœud

±1 ±1 ±1
bus B
J générateur de trames

^ terminateur de trames

Figure 6.1. Topologie du réseau DQDB

Sur chaque bus, le temps est discrétisé en tranches de temps appelées slots ou
cellules. A l'extrémité amont de chacun des bus, un générateur émet une suite finie
de cellules contenue dans une trame ; cette trame est répétée toutes les 125 LIS pour
permettre le transfert de trafic isochrone. Le nombre de cellules dans la trame dépend
du débit physique sur le bus.

Le partage entre les stations se fait au moyen d'un tour de rôle réalisé de manière
distribuée et garantissant une équité d'accès entre les stations, un temps d'accès
déterministe et une bonne utilisation de la ressource de transmission. Les
performances du protocole de la file distribuée sont stables quelle que soit la charge.
Sous faible charge, le temps d'accès est négligeable. Sous forte charge, le taux
d'utilisation est proche de 100 % car toute la bande passante est utilisée et le surplus
de gestion du protocole est faible. N'utilisant pas de mécanisme de type jeton, le
protocole n'est pas sensible aux erreurs et nécessite peu de gestion des fautes. Pour
peu qu'un générateur de cellules puisse émettre périodiquement une trame de cellules,
le protocole fonctionne sur tous types de supports. Enfin, la structure de la cellule
DQDB est compatible avec celle du protocole ATM définie pour le réseau large
bande. On verra aussi que les mécanismes de fragmentation/réassemblage des entités
asynchrones ainsi que les mécanismes de stockage de l'entité isochrone sont
comparables avec les mécanismes fournis par les AAL (ATM Adaptation Layer)
pour ces mêmes services.
DQDB (Distributed Queue Dual Bus) 159

6.2. Architecture d'un nœud D Q D B

Comme les autres standards IEEE, le standard DQDB spécifie deux couches de
protocoles. Il s'agit ici de la couche physique et de la couche DQDB. L'architecture
fonctionnelle d'un nœud DQDB est présentée en figure 6.2.
La couche physique possède les fonctionnalités de la couche physique OSI et
spécifie la manière d'utiliser différents supports de transmission. L'entité PLCF
(Physical Layer Convergence Function) permet de présenter un service uniforme à la
couche DQDB et ce quel que soit le support utilisé. Contrairement à FDDI, la
couche physique n'est pas divisée en deux sous-couches.

LLC
Logical Link Control
M I

MCF COCF ICF


MAC Connection Isochronous
Convergence Oriented Convergence
LME Function Convergence Function
Layer Function
Management -5 o
QAF PAF o U
Entity
Queue Arbitrated Pre-Arbitrated
Functions Functions

CF
Common Functions

LME
PLCF
Layer 3 S2
Physical Layer Convergence Function O
Management
Entity

medium 1 medium

Figure 6.2. Architecture fonctionnelle d'un nœud DQDB

La couche DQDB assure les différents modes d'accès au support et correspond à


la sous-couche MAC définie dans les autres standards de réseaux locaux.
Contrairement à ces derniers, elle fournit en plus du service sans connexion habituel,
deux services supplémentaires à la sous-couche LLC, soit les trois services
suivants :
- un service asynchrone sans connexion qui permet le transfert de données
n'ayant pas de contraintes temporelles,
16 0 A r c h i t e c t u r e d e sr é s e a u x h a u t d é b i t

- un service asynchrone orienté connexion qui permet le transfert de données


sporadiques,
- un service isochrone orienté connexion qui permet le transfert de trafic ayant de
fortes contraintes temporelles.

Les entités MCF (MAC Convergence Function), COCF (Connection Oriented


Convergence Function) et ICF (Isochronous Convergence Function) permettent de
présenter le service attendu par les couches supérieures indépendamment de la
méthode d'accès utilisée. Pour les services asynchrones, DQDB met en œuvre la
méthode de la "file d'attente distribuée", réalisée dans l'entité fonctionnelle QAF
(Queued Arbitrated Functions). Pour le service isochrone, DQDB emploie une
méthode d'accès avec réservation préalable, réalisée par l'entité fonctionnelle PAF
(Pre-Arbitrated Functions)(cf. 6.3). Enfin, les entités LME (Layer Management
Entity) fournissent les fonctions de gestion propres à chaque couche.

6.3. Accès au support

6.3.1. Accès temporel synchrone

L'accès à la transmission se fait par l'intermédiaire d'un train continu de cellules


ou slots de taille fixe qui circule sur chaque bus. En réception, les stations lisent et
copient les données depuis les cellules. En émission, les stations écrivent dans les
cellules sous le contrôle du protocole d'accès, la SDU étant fragmentée puis
transmise dans autant de cellules que nécessaire. Comme les bus A et B sont
unidirectionnels et fonctionnent en sens inverse, les stations du réseau effectuent un
routage en fonction de la destination de leur émission ; par exemple, dans la
configuration de la figure 6.3, la station j écrit dans une cellule du bus A pour
transmettre vers la station k et inversement, dans une cellule du bus B pour
transmettre vers la station i. Pour diffuser de l'information, la station émet sur les
deux bus simultanément.

bus A

station station station

bus B

Figure 6.3. Train de cellules


DQDB (Distributed Queue Dual Bus) 161

Les générateurs placés à l'extrémité de chacun des bus émettent le train de


cellules (encore appelé trame de synchronisation) toutes les 125 u s ce qui
correspond à une trame de 2 430 octets maximum pour un débit normalisé de
155 Mbit/s. De la longueur de la trame de synchronisation dépend le nombre de
cellules transportées.

6.3.2. La cellule DQDB

La cellule DQDB a une taille fixe de 53 octets. Notons que la longueur et la


structure des cellules DQDB sont compatibles avec celles des cellules utilisées dans
la technique ATM. La figure 6.4 donne le format général de la cellule DQDB. Le
premier octet véhicule le champ de contrôle d'accès à la cellule (AC — Access
Control) ; celui-ci se décompose en cinq sous-champs :

- le bit BB (Busy Bit) indique l'état d'occupation de la cellule ; une valeur à 1


signifie que la cellule est occupée par un transfert de données, une valeur à 0 signifie
qu'elle est libre ;
- le bit Type indique le type de la cellule et par conséquent le type de service
autorisé à l'utiliser : il est positionné à 0 pour les cellules QA (Queued Arbitrated)
utilisables par le service asynchrone et à 1 pour les cellules PA (Pre-Arbitrated)
utilisables par le service isochrone ;
- le bit PSR (Previous Slot Reserved) vise à permettre la réutilisation de la
même cellule grâce au retrait du segment par le précédent récepteur. Il n'est pas
encore utilisé pour le moment ;
- les deux bits Res (Reserved) sont inutilisés et réservés pour un usage ultérieur.
Ils sont positionnés à 00 par défaut ;
- les trois bits RQ, de requête, servent à mettre en œuvre le protocole de la file
d'attente distribuée. Ce dernier utilise trois niveaux de priorité possibles pour le
trafic asynchrone. A chaque niveau de priorité est associé un bit de requête (request
bit) de poids compris entre 0 (basse priorité) et 2 (haute priorité).

1 bit 1 bit 1 bi 2 bits 3 bit:

AC (Access Control) BI Res RO


1 octet type
BB • Busy Bit
mm
PSR - Previous Slot
Reserved
Res - Reserved
52 octets segment RQ - Request Bits

Figure 6.4. Format de la cellule DQDB


1 6 2 Architecture des réseaux haut débit

6.3.3. Les t r o i s classes de s e r v i c e s

La trame de synchronisation contient différents types de cellules (PA ou QA)


utilisables par l'un ou l'autre des services offerts par la couche DQDB. Dans la
suite, nous décrivons l'utilisation des cellules par les trois classes de service, à
savoir isochrone, asynchrone avec ou sans connexion.

6.3.3.1. Le mode isochrone

Le mode isochrone est orienté connexion. Préalablement à tout transfert de


données, un protocole de signalisation permet d'établir une connexion isochrone ou
circuit. La connexion peut être point à point ou point à multipoint. La demande
d'établissement de la station définit le débit moyen désiré, ce qui est traduit par
l'entité de gestion par une périodicité de transfert associée à un nombre d'octets
isochrones transférés à chaque période. La connexion isochrone est identifiée par un
identificateur appelé VCI (Virtual Channel Identifier) transporté dans l'en-tête du
segment de la cellule. Le générateur de cellules a la charge de réserver suffisamment
de cellules pour satisfaire aux contraintes de la connexion (période) ; elles sont
forcément de type PA (Pre-Arbitrated) et le champ VCI de leur segment est initialise
avec celui de la connexion isochrone.

Une cellule PA contient 48 octets de charge utile (cf. 6.4.4) qui peuvent être
partagés par des stations différentes. Lors de l'établissement d'une connexion
isochrone, une station se voit donc attribuer par la gestion du réseau une quantité
d'octets dans la cellule PA d'un certain VCI ainsi que la position de ces octets à
l'intérieur de la cellule (position relative par rapport au début du champ de données
du segment PA). La station mémorise alors VCI, position des octets et
l'identificateur (CEP — Connection End Point) de la connexion isochrone
correspondante dans une table. Pour accéder à une cellule PA, la station examine
tout d'abord son VCI puis écrit ou lit les octets à partir de la position indiquée dans
sa table. Ce multiplexage des connexions isochrones dans une même cellule évite la
gaspillage de bande passante ; en effet, une communication téléphonique ne
nécessite qu'un octet toutes les 125 u.s, il est alors possible de multiplexer 48
communications téléphoniques dans une même cellule. Une cellule PA dont le VCI
n'est pas défini dans la table de la station est ignorée par la station.

6.3.3.2. Le mode asynchrone sans connexion

Le mode asynchrone sans connexion utilise les cellules de type QA (Queued


Arbitrated). Etant sans connexion, le champ VCI n'est pas utilisé et tous ses bits
sont positionnés à 1. Sur réception d'une requête de transmission LLC, l'entité
MCF encapsule la SDU dans une IM-PDU (Initial MAC PDU). Ensuite, elle la
fragmente en blocs de 44 octets pour l'adapter à la taille réduite de la cellule. Elle
ajoute un préfixe et un suffixe aux fragments qui deviennent ainsi des segments. Le
préfixe permet notamment d'associer un segment à une IM-PDU au moyen du
champ MID (Message IDentifier). Le MID est unique sur le réseau et se retrouve
DQDB (Distributed Queue Dual Bus) 16 3

dans tous les segments constituant un même message évitant ainsi le transport de
l'adresse destinataire dans chaque segment. Le préfixe sert aussi à indiquer la position
du fragment dans la PDU (début, milieu, fin) ainsi que son numéro de séquence.
Enfin, la station place dans l'ordre d'arrivée des SDU et dans l'ordre de
fragmentation, les segments dans une file d'attente locale des segments à
transmettre.
La station qui a au moins un segment à transmettre prend alors part au protocole
de la file distribuée où toutes les stations désirant transmettre concourent pour
l'accès aux cellules QA vides. Ce protocole ne concerne que l'envoi du segment
placé en tête de la file d'attente de la station. Ce qui signifie que la station ne peut
émettre qu'un segment à la fois. Elle entrera de nouveau en compétition pour l'envoi
du segment suivant.
En réception, chaque station examine toutes les cellules QA qui passent. Si le
segment reçu est un segment de début de message, elle examine aussi l'adresse de
destination : si le segment lui est destiné, la station enregistre alors la valeur de
MID. Elle continue alors à scruter les cellules QA et copie tous les segments
contenant le MID enregistré jusqu'à réception d'un segment de fin de message.

6.3.3.3. Le mode asynchrone avec connexion

Le mode asynchrone avec connexion utilise, à l'instar du mode précédent, les


cellules de type QA. Ce mode orienté connexion permet de transférer des données sur
des canaux virtuels. La procédure de segmentation et réassemblage est la même que
celle utilisée par le mode asynchrone sans connexion.
Les connexions établies après une procédure de signalisation sont caractérisées
par leurs valeurs de VCI contenues dans l'en-tête de segment. L'accès aux cellules
vides se fait aussi grâce au protocole de la file distribuée que nous décrivons dans le
paragraphe suivant. A la différence du mode isochrone, c'est la station qui initialise
le VCI dans la cellule au moment où elle écrit le segment dans une cellule QA. Le
VCI est donc utilisé comme identificateur d'une communication entre stations alors
que le MID identifie un message particulier de cette communication.

6.3.4. Protocole de la file distribuée

L'accès aux cellules QA est contrôlé par deux bits du champ AC, le bit
d'occupation (busy bit) qui indique si la cellule est vide ou occupée et le bit RQ du
niveau de priorité considéré qui sert à signaler aux autres stations une requête de
transmission d'un segment et à prendre position dans la file distribuée.
La file distribuée est une fonction qui permet la formation et le fonctionnement
d'une file de segments QA distribuée à travers le réseau. La file distribuée détermine
l'instant d'émission d'une station en fonction de l'instant de sa requête et des
requêtes des autres stations ; elle évite le phénomène de famine où une station en
164 Architecture des réseaux haut débit

amont du bus utiliserait tous les slots disponibles. Ce protocole donne des
performances analogues à celles d'une file centralisée, avec la garantie d'un temps
d'accès borné.

La file distribuée est contrôlée par des compteurs dans chaque nœud. Une file
distribuée séparée fonctionne pour chacun des bus avec des compteurs propres à
l'intérieur du sous-système MAC de chaque nœud. Ces compteurs sont contrôlés
même si la station n'a aucun segment à envoyer.

Voyons maintenant le fonctionnement de la file distribuée. Dans un souci de


simplicité, nous ne considérerons qu'un seul niveau de priorité. Lorsqu'elle a un
segment à transmettre, une station doit d'abord le signaler aux autres stations en
envoyant une requête aux stations placées en amont du bus sur lequel elle désire
transmettre. Si la station veut émettre sur le bus A, elle prévient alors les stations
en amont d'elle-même (sur le bus A) grâce à une requête sur le bus B. Elle modifie
alors le bit RQ du premier slot qui passe sur le bus B si celui-ci était initialement
à 0. Pour gérer la formation d'une file sur le bus A, il faudra alors gérer d'une part,
le bit d'occupation BB sur le bus A et d'autre part, le bit de requête RQ sur le bus B.

Dans le même temps, toutes les stations gèrent une file des segments à
transmettre pour le bus A. Cette file est matérialisée par deux compteurs internes à
chaque station :

- le compteur de requêtes RC (Request Counter) est incrémenté à chaque


nouvelle demande d'émission d'une station située en aval sur le bus A, c'est-à-dire à
chaque passage d'un bit RQ positionné à 1 sur le bus B. Il est décrémenté à chaque
passage d'une cellule vide (bit d'occupation à 0) sur le bus A car cela signifie qu'une
requête pour un nœud en aval va être satisfaite (figure 6.5 (a)) ;

- le compteur d'émission CD (CountDown counter) indique le nombre de


requêtes d'émission faites par les stations en aval à satisfaire avant que la station
puisse transmettre ses propres informations. Il est décrémenté à chaque passage d'une

bus A. bus A
. slot vide slot vide
compteur compteur compteur
de requêtes de requêtes à rebours
RC RC CD
requête requête
busB bus B

(a) comptage des requêtes (b) attente avant transmission

Figure 6.5. Gestion des compteurs de la file distribuée


DQDB (Distributed Queue Dual Bus) 165

cellule vide (bit d'occupation à 0) sur le bus A (figure 6.5 (b)). Lorsqu'il atteint
zéro, le tour de la station est arrivé et elle peut transmettre dans le prochain slot vide
qui passe sur A.

Le compteur RC est géré en continu, que la station ait ou non un segment à


transmettre. Le compteur CD n'est utilisé que lorsque la station a un segment à
transmettre.

Récapitulons les opérations exécutées par un nœud qui désire envoyer un


segment sur le bus A :
- envoyer une requête sur le bus B ;
- transférer la valeur courante du compteur de requêtes RC dans le compteur à
rebours CD et remettre le compteur RC à 0. Le compteur CD contient donc le
nombre de requêtes à satisfaire avant que le nœud puisse transmettre ;

- décrémenter de 1 le compteur CD chaque fois qu'un slot vide passe sur le bus
A ;
- incrémenter de 1 le compteur RC chaque fois qu'une requête pour le bus A
passe sur le bus B. Le compteur RC contient donc le nombre de nouvelles requêtes
c'est-à-dire transmises après que le nœud ait fait la sienne ;
- si le compteur CD est égal à zéro, écrire le segment dans le prochain slot vide
qui passe sur A.

A noter qu'un nœud ne peut pas enregistrer une requête venant d'un nœud en
amont sur le bus A. La file distribuée garantit que les nœuds en amont auront accès
au moment approprié du fait de leur position sur le bus.
Considérons l'exemple de la figure 6.6 où un sous-réseau contient 4 nœuds en
attente de transmission. Les compteurs de requête (RQ) et à rebours (CD) sont
initialement à zéro et tous les slots passant sur le bus A sont occupés (par des
segments PA, par exemple). Les nœuds S4, S2 et S3 effectuent chacun une requête
dans cet ordre. Les figures (a), (b) et (c) montrent le déroulement de chaque requête et
la mise à jour des compteurs. Sur la figure (d), un slot vide passe sur le bus A
entraînant la décrémentation des compteurs et la transmission du nœud S4 dont le
compteur était déjà à zéro. Les prochains slots vides seront affectés au nœud S2 puis
au nœud S3, ce qui respecte l'ordre de leurs requêtes.

En outre, DQDB gère en option trois niveaux de priorité différents, chacun d'eux
étant associé à l'un des trois bits du sous-champ RQ du champ AC de la cellule. Le
mécanisme de priorité permet à un segment de priorité haute d'être émis avant un
segment de priorité plus faible. La station effectue donc une requête en fonction du
niveau de priorité de son segment dans le bit RQ adéquat. Chaque station ne gère
66 Architecture des réseaux haut débit

bus A

bus B

(a) le nœud S4 effectue une requête

bus A -

bus B

(b) le nœud S2 effectue une requête

bus A

bus B

(c) le nœud S3 effectue une requête

bus A •

bus B -
(d) le nœud S4 transmet son segment

F i g u r e 6 . 6 . Fonctionnement de la file distribuée

donc plus deux compteurs par bus, mais deux compteurs par niveau de priorité et par
bus soit trois files distribuées par bus et six files en tout. Le passage d'un slot vide
consistera à décrémenter d'abord le compteur de plus haute priorité. La priorité est
DQDB (Distributed Queue Dual Bus) 167

absolue en ce sens qu'un segment de priorité faible ne peut être transmis que s'il n'y
a pas de segment de priorité supérieure à transmettre par une station du réseau, même
si la requête pour le segment de haute priorité a été faite après celle du segment de
faible priorité.

6.3.5. Equilibrage de la charge (BandWidth Balancing)

De nombreuses études ont montré que cette méthode induit un partage de la bande
passante qui n'est pas équitable sous des conditions de forte charge et pour un réseau
très étendu. Le protocole n'est plus équitable car les nœuds situés près du générateur
de tranches ont accès plus facilement au canal de transmission. En effet, lorsque le
réseau est étendu, le temps de propagation sur le bus n'est plus négligeable et la
requête d'un nœud aval arrive après un délai au nœud le plus en amont. Ce délai
laisse à ce dernier le temps d'utiliser la première cellule QA vide puisqu'il ne fait
jamais de requête. Cette inéquité s'accentue avec la distance et le débit du réseau.

Proposé par AT&T et adopté par 1TEEE, le mécanisme de Bandwidth Balancing


permet de contourner ce problème [Hahne 90], [Sumita 92). Il consiste, pour chaque
station qui a transmis successivement n segments, à laisser passer une cellule vide
bien que son compteur CD soit à zéro. Un compteur supplémentaire (BWB_CNT)
est alors nécessaire pour compter le nombre de cellules vides successives utilisées
par la station. Dès que ce compteur atteint un seuil, la station laisse passer la cellule
vide suivante et remet ce compteur à zéro. Une station n'utilisera donc qu'un
pourcentage de la bande passante qu'elle aurait pu utiliser (90 % pour n = 9).

De nombreuses autres variantes ont été proposées pour pallier le problème de


I'inéquité de DQDB [Sadiku 94].

6.4. Les unités de données du protocole DQDB

6.4.1. Fragmentation et encapsulations successives

Dans les entités des services asynchrones (MCF et COCF), la SDU transmise à
la couche MAC subit des adaptations qui consistent tout d'abord à ajouter les
informations nécessaires à la gestion du protocole, puis à ajuster sa taille à celle de
la cellule (figure 6.7). Ainsi, la SDU est d'abord encapsulée dans une IM-PDU
(Initial MAC PDU) qui est ensuite fragmentée, chaque fragment étant encapsulé dans
une DM-PDU (Derived MAC PDU). Chaque DM-PDU est à son tour encapsulée
dans un segment qui correspond à la zone de données de la cellule.
1 6 8 A r c h i t e c t u r e d e sr é s e a u x h a u t d é b i t

SDU

IM-PDU

fragment 1 fragment 2 fragment 3 fragment 4


--• V"-

DM-PDU DM-PDU DM-PDU DM-PDU
BOM COM ; COM EOM

segment segment segment segment


BOM - Beginning Of Message
COM - Continuation Of Message
EOM - End Of Message

Figure 6.7. Fragmentation et encapsulations de la SDU

6.4.2. L'IM-PDU (Initial MAC Protocol Data Unit)

L'IM-PDU est utilisée par le mode de transfert asynchrone. Elle peut être
assimilée à une trame de niveau MAC. Une IM-PDU comprend un en-tête, une zone
de données, des octets de bourrage pour amener F IM-PDU à un multiple de 4 octets,
un champ de contrôle d'erreur ainsi qu'un suffixe (figure 6.8).

24 octets Oà 9188 octets 0 à 3 octets 0 ou 4 octets 4 octets


IM-PDU Common
Data PAD CRC32
Header PDU Trailer
-
4 octets 20 octets " 0 à 20 octets 1 octet 1 octet 2 octets
Common MCP Header
Res BEtag Length
PDU Header Header Extension

1 octet 1 octet 2 octets 8 octets 8 octets 6 bits 2 bits f octet - - • 2 octets

Res BEtag BAsize DA SA PI PL QoS/HEL Bridging

--
,.--'4 bits (60 - N) bits ATbits- 3 bits 1 bit 1 bit 3 bits
Address MSAP
Padding Delay Loss CIB HEL
Type Address

Figure 6.8. Format de l'IM-PDU

L'en-tête de l'IM-PDU comprend un champ de 4 octets, commun aux deux


services asynchrones, et un champ de 20 octets, spécifique au service sans
connexion, le champ MCP (MAC Convergence Protocol) ainsi qu'un champ Header
Extension qui n'est pas encore défini à ce jour.
D Q D B (Distributed Queue Dual B u s ) 16 y

Le champ commun contient un octet réservé à une utilisation future et


positionné à zéro. Le champ BEtag (Beginning-End Tag) est un numéro de séquence
de IM-PDU incrémenté de 1 à chaque émission, modulo 256, qui permet de contrôler
les opérations de segmentation et de réassemblage effectuées sur la SDU. Le champ
BAsize (Buffer Allocation size) indique la taille minimale du tampon nécessaire à la
réception de la SDU.
Le champ MCP Header ne concerne que le mode sans connexion et fournit donc
tous les renseignements nécessaires à la transmission d'une telle PDU. Ainsi, on
trouve les adresses de destination (DA — Destination Address) et de source (SA
— Source Address) ainsi que des indications concernant le service de transfert désiré.
Le format des adresses est différent de celui utilisé par les réseaux locaux car la
longueur de l'adresse peut aller jusqu'à 60 bits, permettant ainsi d'adresser un plus
grand nombre de stations. Les champs adresses peuvent contenir trois types d'adresse
de MSAP (MAC Service Access Point) qui diffèrent de par leur longueur ( 16, 48 ou
60 bits). Sur 60 bits, il est permis des adresses au format E.164 qui définit le plan
d'adressage RNIS sur 15 digits. Si l'adresse est gérée par une administration
publique, les trois premiers chiffres désignent le pays (défini par l'UIT) et les deux
champs suivants, de longueur variable, désignent respectivement le réseau public et
le numéro d'abonné à ce réseau. Les quatre premiers bits précisent le type et la
longueur d'adresse. Les différents codes du champ Address Type sont donnés dans le
tableau 6.1.

code signification
0100 adresse sur 16 bits
1000 adresse sur 48 bits
1100 adresse sur 60 bits, individuelle, publique
1101 adresse sur 60 bits, individuelle, privée
1110 adresse sur 60 bits, de groupe, publique
1111 adresse sur 60 bits, de groupe, privée
autre réservée

T a b l e a u 6 . 1 . Le champ Address type

Tous les bits du champ Padding sont positionnés à 0. Prenons comme exemple
le cas d'une adresse de MSAP codée sur 48 bits. Le champ Padding est alors
constitué de 60 - 48 = 12 bits, tous égaux à 0. Le champ MSAP Address se
décompose, selon un schéma similaire à celui utilisé par les réseaux locaux, en un
bit I/G (égal à 0 lorsque l'adresse est individuelle et à 1 lorsqu'elle est de groupe), un
bit U/L (égal à 0 lorsque l'adresse est gérée globalement et à 1 lorsqu'elle l'est
localement), suivis des 46 bits proprement dits d'adresse.
1 70 Architecture des réseaux haut débit

Le champ PI (Protocol Identifier) identifie l'utilisateur du service MAC (LLC ou


entités de gestion). Le champ PL (Pad Length) indique la longueur du champ de
bourrage de l'IM-PDU qui est de 0,1,2 ou 3 octets, de telle sorte que la longueur
totale des champs données et bourrage soit un multiple de 4 octets. Le champ
QoS/HEL de MCP Header est divisé en quatre sous-champs dont la sémantique est la
suivante :

- Delay (délai) permet d'activer le service de transfert avec priorité au délai


court ;

- Loss (perte) est actuellement inutilisé et est positionné à 0. Son rôle vise à
définir une priorité à la perte des trames en cas de congestion ;

- CIB (CRC32 Indicator Bit) indique la présence (CIB = 1 ) ou l'absence


(CIB = 0) du champ CRC32 dans l'IM-PDU ;

- HEL (Header Extension Length) indique la longueur en unité de 32 bits du


futur champ Header Extension.

Le dernier champ du MCP Header, Bridging, est réservé pour une utilisation
future dans le cadre de l'interconnexion au niveau de la couche MAC. Il définirait
alors le nombre maximum de ponts que l'IM-PDU aurait le droit de traverser ;
décrémenté à chaque pont traversé, une valeur nulle provoquerait la destruction de
l'IM-PDU.

Le champ de données (Data) contient l'unité de données MAC, la SDU. Sa


longueur est comprise entre 0 et 9 188 octets inclus.

Le champ PAD possède une longueur égale à 0, 1, 2 ou 3 octets. Sa longueur


exacte est telle que : nb_octets(PAD) = 3 - modulo (3 + nb_octets(Data) +
nb_octets(MCP Header) + nb_octets(Header Extension), 4). La longueur d'une IM-
PDU doit être multiple de 4. Le champ PAD permet donc de rajouter des octets de
b o u r r a g e afin d'obtenir cette condition nécessaire à la fonction de
fragmentation/réassemblage de l'IM-PDU en DM-PDU.

Le champ CRC32 permet de détecter les éventuelles erreurs de transmission. Il


est optionnel.

Le champ de suffixe, Common PDU Trailer, répète le champ BEtag d'en-tête


afin de fournir une sécurité supplémentaire. Une condition nécessaire mais non
suffisante de validité de l'IM-PDU est que les deux champs BEtag présentent la
même valeur. Le champ Length contient la longueur totale en octets des champs
Data, MCP Header, Header Extension et CRC32. La valeur de ce champ permettra
de contrôler la longueur de L'IM-PDU après fragmentation et réassemblage.
DQDB (Distributed Queue Dual Bus) 171

6.4.3. La DM-PDU (Derived MAC Protocol Data Unit)

La taille de l'IM-PDU pouvant être trop longue pour être directement insérée dans
un slot pour sa transmission, elle est fragmentée en un ou plusieurs fragments d'au
plus 44 octets. Un préfixe (DM-PDU Header) et un suffixe (DM-PDU Trailer) de
2 octets chacun sont ajoutés à chaque fragment pour former une DM-PDU (figure
6.9).

2 octets 44 octets 2 octets

DM-PDU Header Segmentation Unit DM-PDU Trailer

2 bits 4 bits 1 Obits - - 6 bits 10 bits

Segment Sequence CRC


MID Length
Type Number

Figure 6.9. Format de la DM-PDU

L'en-tête contient l'information nécessaire au réassemblage dune IM-PDU et


représentée dans trois champs : le type de segment (Segment_Type), le numéro de
séquence (Sequence Number) et l'identificateur de message (MID) :
- le champ SegmentJType est codé en fonction de la longueur de l'IM-PDU et de
la position du fragment dans celle-ci (tableau 6.2) ;

longueur de l'IM-PDU position du fragment Segment Type


< 44 octets un fragment unique SSM (Single Segment Message)
premier fragment BOM (Beginning Of Message)
> 44 octets fragment intermédiaire COM (Continuation Of Message)
dernier fragment EOM (End Of Message)

Tableau 6.2. Type de DM-PDU

- le champ Sequence Number contient un numéro de séquence incrémenté


modulo 16 qui permet au moment du réassemblage de l'IM-PDU de vérifier l'ordre et
la réception effective de toutes les DM-PDU ;
- le champ MID permet au récepteur de reconnaître à quelle IM-PDU appartient
chaque DM-PDU reçue.

Le suffixe de la DM-PDU (DM-PDU Trailer) contient les informations


nécessaires à la détection d'erreurs au niveau de cette DM-PDU :
- le champ Length indique le nombre d'octets qui occupent le champ
Segmentation Unit de la DM-PDU. Ce nombre est un multiple de 4 et inférieur ou
1 72 Architecture des réseaux haut débit

égal à 44. Pour les DM-PDU de type BOM et COM, la valeur de ce champ est
toujours égale à 44. Les DM-PDU de type SSM ont une longueur comprise entre 28
et 44 octets, et les DM-PDU de type EOM, une longueur comprise entre 4 et
44 octets ;

- le champ CRC permet de détecter les erreurs apparues lors de la transmission.

6.4.4. Le segment

Le segment constitue la charge utile (payload) de la cellule DQDB. Un segment


QA inséré dans un slot QA transporte des données QA, alors qu'un segment PA
encapsulé dans un slot PA, transporte des données PA. Chaque segment est composé
d'un en-tête de 4 octets et d'un champ de données de 48 octets (figure 6.10).

4 octets 48 octets

Segment
Data
Header

20 bits 2 bits ~ '2 bits - - - - 8 bits

Payload Segment
VCI HCS
Type Priority

F i g u r e 6 . 1 0 . Format d'un segment

L'en-tête du segment est composé des champs suivants :

- l'identificateur de canal virtuel (VCI) auquel appartient la cellule, utilisé


uniquement en mode connecté ;

- le type des données transportées (Payload Type) : pour les données utilisateur,
ce champ est positionné à 00, les autres valeurs étant réservées ;

- le champ de priorité (Segment Priority) n'est pas utilisé pour l'instant et est
positionné à 00 ;

- le champ HCS (Header Check Sequence) permet de détecter les erreurs sur l'en-
tête de segment.

6.5. Le protocole DQDB

La couche DQDB comprend un ensemble de blocs fonctionnels (cf. figure 6.2). Il


s'agit de la fonction de convergence MAC (MCF), de la fonction de convergence
orientée connexion (COCF) et de la fonction de convergence isochrone (ICF) qui
fournissent les différents types de service DQDB. Nous allons détailler le
fonctionnement de ces différentes entités.
DQDB (Distributed Queue Dual Bus) 17 3

6.5.1. Fonction de convergence MAC (MLh)

Ce bloc fonctionnel fournit à la couche LLC le service MAC DQDB pour les
services asynchrones.

6.5.1.1. Processus d'émission

Le processus d'émission du bloc M C F est responsable de la création d'une IM-


PDU à partir des paramètres de la primitive MA-UNITDATA.request reçue de la
couche LLC. Il assure ensuite la fragmentation de cette IM-PDU ainsi que
1'encapsulation des fragments obtenus dans des DM-PDU. Chaque DM-PDU est
ensuite passée à l'entité Q A F (Queue Arbitrated Function) qui effectue la
transmission des DM-PDU dans des segments QA, à la priorité demandée (figure
6.11).

LLC - Logical Link Control


M A_UN1TD ATA.request

MCF - MAC Convergence Function


création d'une IM-PDU

IM-PDU

segmentation de l'IM-PDU

unité de segmentation

création d une DM-FDL

DM-PDU, VCI,
type de charge utile,
priorité de segment

OAF - Queue Arbitrated Functions

F i g u r e 6 . 1 1 . Le processus d'émission du bloc de convergence MAC

6.5.1.2. Processus de réception

Ce processus de réception a pour but de réassembler une IM-PDU à partir des


fragments contenus dans les DM-PDU reçues par le bloc MCF. Le réassemblage est
réalisé à partir des DM-PDU effectivement adressées à la station et sous les
conditions suivantes : Segment_Type de type QA, VCI identiques dans l'en-tête de
segment (en mode connecté), DM-PDU reçues sans erreur, MID identiques dans l'en-
tête de la DM-PDU. Le processus de réception initialise une nouvelle IM-PDU à
chaque fois qu'il reçoit une DM-PDU de type BOM (Beginning Of Message)
destinée à la station. Il enregistre alors VCI et MID, puis il concatène les DM-PDU
1 74 Architecture des réseaux haut débit

correctes correspondantes et de type COM (Continuation Of Message) dans l'ordre de


leur numéro de séquence ; le réassemblage est terminé lors de la réception de la DM-
PDU de type EOM (End Of Message).

LLC - Logical Link Control


MAJJN1TDATA. indication
MCF - MAC Convergence Function

extraction de MSDU

DM-PDU (SSM;
validation de 1'IM-PDl

IM-PDU
réassemblage de l'IM-PDl

DM-PDU (BOM, COM, EOM)


sélection du processus de
réassemblage

D M - P D U , VUl,
type de charge utile,
priorité de segment

QAF - Queue Arbitrated Functions

Figure 6.12. Le processus de réception du bloc de convergence MAC

Chaque IM-PDU reconstituée est validée si elle vérifie les quatre critères
suivants :

- la valeur du sous-champ Length est égale au nombre d'octets reçus pour l'IM-
PDU moins 8 octets (ces derniers correspondent à la longueur des champs Common
PDU Header et Common PDU Trailer qui ne sont pas comptabilisés dans le champ
Length) ;

- la valeur du champ BEtag de l'en-tête est égale à celle du suffixe ;

- le total de contrôle (s'il existe) est correct ;

- la valeur du champ HEL de l'en-tête MCP est comprise entre 0 et 5.


D Q D B (Distributed Q u e u e Dual B u s ) 175

Si l'un des critères n'est pas vérifié, 1TM-PDU est rejetée. Si ces quatre
conditions sont vérifiées, la fonction d'extraction extrait le champ de données de
l'IM-PDU correspondant à la MSDU et initialise les paramètres de la primitive
MA_UNITDATA.indication à partir des autres champs de l'IM-PDU (adresses et
priorité). Ensuite, une primitive MA_UNITDATA.indication est transmise avec ses
paramètres vers la sous-couche LLC (figure 6.12).

6.5.2. Fonction de convergence isochrone (ICF) et entité


fonctionnelle PAF

L'entité fonctionnelle PAF (Pre-Arbitrated Functions) de la couche DQDB assure


le contrôle d'accès aux canaux isochrones. Les canaux isochrones sont préalablement
établis par un processus de signalisation qui ne fait pas partie de la couche DQDB.
L'établissement définit, entre autres, la valeur de l'identificateur de la connexion, le
VCI, qui permet à l'entité fonctionnelle PAF de reconnaître les segments utilisés
pour cette connexion. A l'établissement, est aussi défini pour cette connexion, le
déplacement des octets dans le segment pour lire ou écrire ses données. Chaque
station enregistre ces paramètres (VCI et déplacement des octets) associés au point
d'extrémité de connexion (CEP) dans une table des connexions isochrones établies.

Les blocs de fonctions PAF reçoivent et transmettent des octets du service


isochrone, à débit moyen garanti, mais ces octets ne sont pas forcément distribués
régulièrement. L'irrégularité de leurs arrivées dépend de la distribution des slots PA
générés par la fonction de marquage de slots de la station d'extrémité, ainsi que du
nombre d'octets portés par chaque slot PA pour chaque connexion isochrone. Le rôle
de l'ICF (Isochronous Convergence Function) est, si nécessaire, de fournir une
temporisation afin de lisser toute irrégularité d'arrivée des octets de service isochrone,
de façon à obtenir le taux d'arrivée souhaité par l'utilisateur du service isochrone. Un
bloc ICF maintient deux tampons séparés (un d'arrivée, l'autre de transmission). Il
existe différents types d'ICF définis pour différents types de service isochrones,
suivant les exigences de temporisation d'un utilisateur particulier de service
isochrone.

6.5.3. Fonction de convergence orientée connexion (COCF)

Comme les connexions isochrones, les connexions asynchrones sont établies par
une procédure de signalisation qui retourne la valeur du VCI allouée à la connexion.
L'entité COCF (Connection Oriented Convergence Function) mémorise pour chaque
connexion établie son point d'extrémité de connexion (CEP) qui identifie
l'utilisateur, son VCI et le bus sur lequel elle émet ou reçoit des segments. Lors
d'une demande de transfert de données, les procédures de fragmentation et de
réassemblage sont les mêmes que pour le bloc MCF. Toute donnée émise par le
1 76 Architecture des réseaux haut débit

bloc COCF est une IM-PDU, avec quelques différences cependant, par rapport à
l'IM-PDU transférée par le bloc MCF :
- les champs réservés (Res) de l'en-tête d'IM-PDU (Common PDU Header) et du
délimiteur de fin de PDU (Common PDU Trailer) peuvent contenir des valeurs non
nulles ;
- le champ BAsize de l'en-tête d'IM-PDU peut contenir une valeur supérieure ou
égale à celle du champ Length du délimiteur de fin de PDU pour la même donnée à
transférer, pour des raisons d'allocation de tampons à la réception.

Autre différence, le champ de données des DM-PDU issues d'une telle IM-PDU,
de type BOM ou COM, peut être partiellement rempli. Comme l'accès aux cellules
vides est dynamique, c'est la station qui initialise le VCI dans la cellule au moment
où elle écrit le segment dans une cellule QA. Le VCI est donc utilisé comme
identificateur d'une communication entre stations alors que le MID identifie un
message particulier de cette communication.

6.5.4. Fonctions communes (CF)

Le bloc de fonctions communes (CF — Common Functions) utilisé par les


entités fonctionnelles QAF et PAF définit un protocole entre ces entités et la couche
physique. Il réalise le relais des slots et des octets de gestion entre les deux SAP
physiques.

6.6. Les services DQDB

La couche DQDB fournit trois types de services : le service MAC (ou service
asynchrone sans connexion), le service isochrone et le service asynchrone orienté
connexion. Il est donc défini différents ensembles de primitives de service
correspondant à chacun de ces services.

6.6.1. Primitives du service MAC

Trois primitives de services sont définies pour le service MAC fourni à la couche
LLC, Rappelons que la couche LLC est responsable de l'établissement de la
connexion logique entre stations. Ces primitives sont :
- MA_UNITDATA.request (adresse_source, adresse_destination, priorité,
données, classe_de_service) permet le transfert d'une unité de données MAC depuis
une entité LLC à une autre entité LLC ou plusieurs entités LLC dans le cas d'une
adresse de destination de groupe. Les paramètres adresse_source et adresse_destination
indiquent les adresses d'émission et de destination des données. Le paramètre priorité
DQDB (Distributed Queue Dual Bus) 177

indique la priorité souhaitée pour le transfert de données et peut prendre une valeur
parmi 8 possibles. Le paramètre données correspond à la SDU à transférer. Enfin, le
paramètre classe _de ^service indique la classe de service à utiliser pour le transfert de
données : synchrone, asynchrone avec connexion ou isochrone ;

- MA_UNITDATA.indication (adresse_source, adresse_destination, priorité,


données, classe_de_service) indique la réception de l'unité de données MAC à une
entité LLC. Si aucune erreur ne s'est produite, alors le contenu de cette primitive est
identique à celui de la primitive MA_UNITDATA.request de l'émetteur ;

- MA_STATUS.indication (status) indique à l'entité LLC un changement d'état


dans le fonctionnement du service MAC DQDB. Elle n'a qu'une portée locale. Les
différents états de fonctionnement de la couche DQDB sont :
- fonctionnement normal,
- données non transmises car le nœud est isolé du réseau,
- données non transmises car le réseau est en cours d'initialisation ou de
reconfiguration,
- autre raison de non-fonctionnement.

6.6.2. Primitives du service isochrone DQDB

Le service DQDB isochrone permet le transfert de données entre deux utilisateurs


de ce service à travers une connexion isochrone préalablement établie. Ce service
fournit une période moyenne d'envoi des données ainsi qu'une bande passante
garantie sur le support. Les primitives définies pour ce service sont :

- ISU_DATA.request (ISDU) qui permet le transfert d'un octet du service


isochrone à travers une connexion préalablement établie. Le paramètre ISDU
transporte un seul octet de service isochrone ;

- ISU_DATA.indication (ISDU) qui indique l'arrivée d'un octet isochrone sur


une connexion.

La table des connexions isochrones établies pour ce nœud permet de déduire le


VCI à partir du CEP de la primitive de requête et inversement, pour la primitive
d'indication.

6 . 6 . 3 . Primitives du service de données asynchrones orienté


connexion

Ce service supporte le transfert de données à travers des canaux virtuels. Il est


asynchrone car il ne garantit aucune périodicité de transfert des données. Les détails
de ce service et des primitives utilisées sont en cours d'étude au sein du groupe de
1 78 Architecture des réseaux haut débit

normalisation IEEE 802.6. La figure 6.13 résume l'ensemble des primitives


utilisées par la couche DQDB.

MA_UNITDATA.request

LLC MAJJNITD ATA. indicatior


M A _ J 1A1 U à . indication couche
DQDB
service ISU DATA.reauest
isochrone ISILDATA.indication

F i g u r e 6 . 1 3 . Primitives de service de la couche DQDB

fi.!. T. a r n n r h p nhvKÏnne

6 . 7 . 1 . Les différents supports

La couche DQDB est indépendante de la couche physique, aussi peut-on mettre


en œuvre différents supports et différents débits tout en conservant le même
protocole d'accès. Trois systèmes de transmission ont été retenus dans le standard
802.6 :
- le système ANSI DS-3, à un débit de 44,736 Mbit/s sur câble coaxial ou fibre
optique ;
- le système de transmission SONET/SDH, à des débits de 155,52 Mbit/s et
plus sur fibre optique monomode ;

- le système de transmission G.703, à des débits de 34,368 Mbit/s et


139,264 Mbit/s sur des supports métalliques.

Pour chaque système de transmission, une sous-couche de convergence est définie


pour fournir le même service à la couche D Q D B . A l'heure actuelle, seule la
fonction de convergence correspondant au système de transmission DS3 est définie.

6 . 7 . 2 . Le service physique

Chaque station appartenant au réseau DQDB qui n'est pas en tête de bus (c'est-à-
dire générateur de slots) est reliée physiquement aux deux bus, A et B. Deux points
d'accès au service physique (PH-SAP) sont donc définis : PH-SAP_A permet de
recevoir sur le bus A et d'émettre sur le bus B, PH-SAP_B permet de recevoir sur le
bus B et d'émettre sur le bus A (figure 6.14).
DQDB (Distributed Queue Dual Bus) 179

couche DQDB

PH-SAP_A PH-SAP.B

couche physique

bus A bus A
busB busB

F i g u r e 6 . 1 4 . Les services de la couche physique

Les primitives fournies par la couche physique et utilisées par la couche DQDB
sont :
- PH_DATA.request (octet, type) demande le transfert d'un octet depuis la
couche DQDB locale à la couche DQDB distante. Le paramètre type indique le type
de l'octet, SLOT_START pour le premier octet d'une cellule, SLOT_DATA pour
un octet suivant dans la cellule et DQDB JvlANAGEMENT pour des données de
gestion ;
- PH_DATA.indication (octet, [status]) est générée par la couche physique afin
d'indiquer la réception d'un octet. Le paramètre status, facultatif, indique à la couche
physique que l'octet proposé pour le transfert est soit valide, soit invalide ;

- PH_STATUS.indication (status) est générée par la couche physique afin


d'indiquer l'état opérationnel du lien de transmission bidirectionnel associé avec l'un
des SAP ;
- PH_TIMING_SOURCE.request (source) fournit l'origine de la fréquence
d'horloge à la couche physique. L'horloge est fournie soit de manière externe ou
interne au nœud ou encore reçue de l'un des bus ; dans ce dernier cas, une autre
station fournit l'horloge au bus, par exemple, le générateur de cellules ;

- PH_TIMING_MARK.indication signale l'arrivée d'une information de


synchronisation toutes les 125 us.
1 80 Architecture des réseaux haut débit

Exercices

Exercice 6.1

Un réseau métropolitain utilisant le protocole DQDB comporte cinq stations


désignées par A, B, C, D et E.
bus A

A B C D E
bus B

On suppose que le temps de propagation de A à E est égal au temps de


transmission d'un slot. On suppose aussi qu'une station incrémente son compteur
avant de le décrémenter et avant d'effectuer une requête de transmission
(positionnement du bit RQ sur l'autre bus). Rappelons enfin qu'une nouvelle requête
ne peut être effectuée que lorsque la précédente est satisfaite et qu'une requête ne
permet la transmission que d'un seul segment.

Le scénario étudié est le suivant :

- les stations ne désirent transmettre des données que sur le bus A ;


- les slots 0, 1,2, 3, 5, 10 et 15 sont occupés par des transmissions isochrones
(slots PA) ;
- à t = 1, D veut émettre 3 segments ;
- à t = 2, B et C veulent émettre chacune 2 segments ;
- à t = 5, E veut émettre 3 segments ;
- à t = 9, A veut émettre 3 segments.

1. Sur un tableau, où chaque ligne représente un slot du bus A, montrez l'évolution


dans le temps des compteurs RQ et CD pour chacune des stations. On utilisera
les conventions suivantes :
- un slot occupé par la transmission du premier segment de la station 1 sera
noté A l ;
- un slot occupé par une transmission isochrone est représenté par X (une
croix).

bus A bus B A B c D
commentaires
temps émission requêtes
RQ CD RQ CD RQ CD RQ CD
0 X — 0 0 0 0 0 0 0 0

Remarque — Il est inutile de faire figurer les compteurs de la station E car ils
restent à zéro.
DQDB (Distributed Queue Dual Bus) 1 81

2. Pour chacune des stations, calculez le débit effectif (ou débit utile) de
transmission des slots. Commentez.

Exercice 6.2

Commentez les courbes ci-dessous qui représentent le débit maximum obtenu


pour les réseaux FDDI et DQDB pour différentes tailles de trames et longueurs de
réseaux [Ahmad 92].
débit maximum (Mbit/s)

160 200
taille réseau (km)
taille trame technologie
= FDDI
I »1« 64 octets 1 518 octets 4 000 octets
= DQDB
1 82 Architecture des réseaux haut débit

Exercice 6.3
Commentez les courbes ci-dessous qui représentent le comportement de DQDB
pour différentes stations situées à différentes positions sur le bus [Ahmad 92].
délai d'accès (us)

position de l'utilisateur

10 km 50 km 100 km 200 km j
Chapitre 7

LLC (Logical Link Control)

7.1. Introduction

Dans l'architecture IEEE, la couche liaison de données est divisée en deux sous-
couches, MAC pour le niveau inférieur et LLC pour le niveau supérieur. Nous avons
pu voir à plusieurs reprises que les réseaux locaux et métropolitains se singularisent
par le partage du support de transmission. C'est le rôle de la sous-couche MAC que
de gérer et de contrôler l'accès des stations du réseau à ce support unique. Ses
fonctions ne vont pas au-delà. La sous-couche LLC intervient alors, au-dessus de
MAC, afin de rendre un service comparable à un service de liaison OSI. En
particulier, LLC est chargé de gérer les communications entre stations et d'assurer
l'interface avec les couches supérieures (couche réseau). Ses spécifications sont
données dans le standard IEEE 802.2 et sont reprises dans la norme internationale IS
8802-2 de l'ISO.

Le standard 802.2 définit :

- le protocole de la sous-couche LLC commune aux standards IEEE de niveau


MAC (802.3, 802.4, etc.),
- l'interface de service fournie à la couche réseau,
- l'interface de service fournie par la sous-couche MAC.
1 84 Architecture des réseaux haut débit

7.2. Services fournis à la couche réseau

LLC offre un certain nombre de services à la couche réseau. Conformément aux


principes de structuration en couches du modèle OSI, une entité de réseau désirant
accéder aux services de LLC doit le faire à travers un mécanisme d'identification de
service, appelé "point d'accès au service" (SAP — Service Access Point). Trois types
de services sont fournis à la couche réseau :

- service sans connexion,


- service avec connexion,
- service sans connexion avec acquittement.

7.2.1. Service sans connexion : LLC1

Le service LLC1 est un service en mode datagramme. Le transfert de données peut


se faire en point à point, en point à multipoint ou en diffusion. LLC1 n'offre donc
que l'émission et la réception de trames sans :

- aucun séquencement ;
- aucune forme d'acquittement de la part du destinataire (par conséquent, pas de
garantie de livraison, ni de notification en cas d'échec) ;
- aucun contrôle d'erreur.

Le service LLC 1 repose donc sur un protocole peu complexe et trouve son utilité
dans les contextes suivants :
- lorsque les couches supérieures fournissent déjà un service de détection et de
traitement d'erreur ainsi qu'un service de séquencement. Dans de nombreux réseaux
locaux, les systèmes d'extrémité implantent les couches 3 à 7 et utilisent un service
datagramme au niveau réseau et un service en mode connecté au niveau transport, par
exemple TCP/IP ou TP4/CLNP. Il est donc inutile de dupliquer ce service, avec
toute la lourdeur qui en découle, au niveau LLC ;

- lorsque l'application n'exige pas une garantie de transmission de chacune de ses


unités de données. En particulier, il existe des applications pour lesquelles le mode
connecté est injustifié voire même pénalisant. Citons, entre autres :
• la collecte de données : c'est le cas d'applications qui recueillent des données
provenant de différents capteurs permettant de contrôler l'exécution d'une tâche. La
perte occasionnelle d'une donnée ne compromet pas le contrôle si l'on sait que les
données suivantes devraient arriver rapidement ;
• la diffusion de données : comme, par exemple, la diffusion de messages
d'intérêt commun à tous les utilisateurs d'un réseau (changement de l'adresse d'un
service, distribution des tops d'une horloge, etc.) ;
• le transactionnel : l'interrogation d'un serveur se limite souvent à une seule
séquence de type question-réponse. L'établissement d'une connexion n'est
LLC (Logical Link Control) 185

généralement pas nécessaire, l'utilisation du service étant contrôlée au niveau


applicatif ;
• le temps réel : pour les applications qui présentent des contraintes
temporelles strictes, l'utilisation du mode connecté introduirait des délais trop longs
ou trop variables.

Les primitives qui permettent d'utiliser ce service sont au nombre de deux et


portent, bien sûr, sur le transfert de données. La figure 7.1 montre l'enchaînement de
la primitive de requête et de la primitive d'indication.

utilisateur fournisseur utilisateur


, du service
DL.UNITDATA.req DL.UNITDATA.ind
( adresse source, ( adresse source,
adresse destination^ adresse destination,
données, priorité ) ^ .données, priorité )

Figure 7.1. Les primitives de service LLC1

Les paramètres ont la signification suivante :

- l'adresse source spécifie l'utilisateur local de LLC ;


- l'adresse destination spécifie l'utilisateur distant de LLC. Elle peut représenter
une adresse individuelle ou de groupe (puisque LLC1 permet de fonctionner en point
à point, en multipoint ou en diffusion) ;

- la priorité indique le niveau de priorité désiré pour le transfert de la donnée. Ce


paramètre est directement passé à l'entité MAC qui a la responsabilité d'implanter ou
non un mécanisme de priorité (CSMA/CD, par exemple, ne supporte pas de système
de priorités). Le standard ne spécifie pas l'intervalle de valeurs possibles : cela est
dicté par la sous-couche MAC et les valeurs possibles doivent être connues de
l'utilisateur de LLC.

7.2.2. Service avec connexion : LLC2

Le service LLC2 utilise les trois phases de fonctionnement du mode connecté, à


savoir, la phase d'établissement de la connexion, la phase de transfert de l'information
ainsi que la phase de libération de la connexion. Par essence, l'existence d'une
connexion logique implique que le fournisseur du service LLC, à chaque extrémité de
la connexion, garde une trace des données en cours d'émission et de réception.
Pendant le transfert de données, LLC2 garantit que toutes les unités de données sont
correctement délivrées à leur destinataire (sans erreur, ni perte, ni duplication, ni
déséquencement). S'il y a échec, LLC2 le notifie à son utilisateur.
1 86 Architecture des réseaux haut débit

Le mode LLC2 est donc bien adapté aux applications qui nécessitent des échanges
de longue durée (transfert de fichiers, accès distant à un système fonctionnant en
temps partagé).

La couche réseau accède aux services LLC2 au moyen de primitives réparties en


cinq groupes.

7.2.2.1. Etablissement de connexion

Pour l'établissement de connexion, les quatre primitives utilisées sont :


- DL_CONNECT.request (adresse source, adresse destination, priorité),
- DL_CONNECT.indication (adresse source, adresse destination, priorité),
- DL_CONNECT.response (adresse source, adresse destination, priorité),
- DL_CONNECT.confirmation (adresse source, adresse destination, priorité).

Dans le cas de l'établissement réussi (figure 7.2), la priorité de l'indication est la


même que celle de la requête. Par contre, celle de la réponse peut lui être inférieure.
La priorité de la confirmation est égale à la priorité de la réponse. La priorité est
associée à l'ensemble de la connexion et peut être utilisée pour déterminer les
ressources que l'entité LLC va allouer à la connexion. Elle est passée à l'entité MAC
pour chaque unité de données transférée sur la connexion logique.

utilisateur fournisseur utilisateur


du service
DL_CONNECT.req
DL_CONNECT.ind
( adresse source,
( adresse source,
adresse destinatiolïr
adresse destination, priorité )
priorité )

DL_CONNECT.conf DL_CONNECT.resp
( adresse source, ( adresse source,
adresse destination, adresse destination, priorité )
priorité )

Figure 7.2. Etablissement de connexion réussi

Dans le cas d'un croisement de requêtes de connexion (figure 7.3), une seule
connexion est établie, les entités LLC fournissant une confirmation à chacun des
utilisateurs. La priorité la plus faible est la priorité reconnue.
LLC (Logical Link Control) 187

utilisateur fournisseur utilisateur

du service
DL_CONNECT.req DL_CONNECT.req
( adresse source, ( adresse source,
adresse destination, adresse destination, priorité )
priorité )

DL_CONNECT.conf DL_CONNECT.conf
( adresse source, ( adresse source,
adresse destination, adresse destination, priorité )
priorité )

F i g u r e 7 . 3 . Croisement de requêtes de connexion

7.2.2.2. Libération et refus de connexion

La libération de connexion est un service non confirmé. Les primitives utilisées


sont donc au nombre de deux :

- DL_DISCONNECT.request (adresse source, adresse destination),


- DL_DISCCONNECT.indication (adresse source, adresse destination, raison).

Le paramètre raison indique la raison de la déconnexion et si la libération provient


du fournisseur (figure 7.4 (a)) ou de l'un des deux utilisateurs (figure 7.4 (b)).

utilisateur fournisseur utilisateur


du service
DL_DISCONNECT.ind
DL.DISCONNECT.ind
( adresse source,
( adresse source,
adresse destination, raison )
adresse destination,
raison ) ^-^^
(a) par le fournisseur

utilisateur fournisseur utilisateur


du service
DL_DISCONNECT.req
( adresse source, DL_DISCONNECT.ind
adresse destination ) ( adresse source,
adresse destination, raison )

(b) par un utilisateur

F i g u r e 7 . 4 . Libération de connexion
1 8 8 Architecture des réseaux haut débit

Le fournisseur peut refuser d'établir une connexion (figure 7.5 (a)). Cela arrive par
exemple, lorsque :
- l'entité LLC locale n'est pas capable d'établir la connexion (manque de
ressources, mauvais fonctionnement local, etc.),
- l'entité LLC distante ne répond pas à la requête de connexion, malgré N
tentatives successives.

De même, l'utilisateur appelé a la possibilité de refuser l'appel entrant en


répondant par une demande de déconnexion (figure 7.5 (b)).

utilisateur fournisseur utilisateur


du service
DL_CONNECT.req
( adresse source,
adresse destination,
priorité )

DL.CONNECT.conf
( adresse source,
adresse destination,
raison) (a) par le fournisseur

utilisateur fournisseur utilisateur


du service
DL_CONNECT.req
DL_CONNECT.ind
( adresse source,
( adresse source,
adresse destination,
adresse destination, priorité )
priorité )

DL_CONNECT.conf DL_CONNECT.resp
( adresse source, ( adresse source,
adresse destination, adresse destination,)
priorité )

(b) par l'utilisateur distant

Figure 7.5. Refus d'établissement

7.2.2.3. Transfert de données

En mode connecté, le transfert de données se fait en point à point, soit d'un


utilisateur de LLC vers un autre utilisateur. Les primitives invoquées sont (figure
7.6) :
- DL_DATA.request (adresse source, adresse destination, données),
- DL_DATA.indication (adresse source, adresse destination, données).
LLC (Logical Link Control) 189

utilisateur fournisseur utilisateur


du service
DL_DATA.req
DL_DATA.ind
( adresse source,
( adresse source,
adresse destination,
adresse destination, données )
données)

Figure 7.6. Transfert de données

Une confirmation à l'utilisateur émetteur n'est pas nécessaire, puisque le service


en mode connecté garantit la remise correcte de ses données. En cas de problème,
l'utilisateur est averti par des fonctions de déconnexion ou de réinitialisation.

7.2.2.4. Réinitialisation de connexion

utilisateur fournisseur utilisateur


du service
DLJŒSET.ind DL_RESET.ind
( adresse source, ( adresse source,
adresse destination, adresse destination, raison )
raison ) k.
DL_RESET.resp DL_RESET.resp
( adresse source, ( adresse source,
adresse destination ) adresse destination )

(a) par le fournisseur

utilisateur fournisseur utilisateur


du service
DL.RESET.req
DL_RESET.ind
( adresse source,
( adresse source,
adresse destination T
adresse destination, raison )
DLJRESET.conf
( adresse source, DL_RESET.resp
adresse destination ) ( adresse source,
adresse destination )
(b) par un utilisateur

Figure 7.7. Réinitialisation de connexion réussie

A tout moment, le fournisseur ou l'un des utilisateurs peut réinitialiser la


connexion logique sur détection d'une erreur grave ; il y a éventuellement perte de
données (existence de données envoyées par une entité LLC mais non encore
acquittées par l'autre entité) puisque la connexion retrouve son état initial et que tous
1 90 Architecture des réseaux haut débit

les numéros de séquence utilisés par le protocole sont remis à 0. La réinitialisation


constitue un service confirmé, avec les quatre primitives suivantes :
- DL_RESET.request (adresse source, adresse destination),
- DL_RESET.indication (adresse source, adresse destination, raison),
- DL_RESET.response (adresse source, adresse destination),
- DL_RESET.confirmation (adresse source, adresse destination).

Le paramètre raison indique qui est à l'initiative de la réinitialisation, le


fournisseur (figure 7.7 (a)) ou l'un des utilisateurs du service LLC (figure 7.7 (b)).

7.2.2.5. Contrôle de flux

Le contrôle de flux dans le service LLC2 intervient à l'interface réseau/LLC et


repose sur deux primitives :
- L_CONNECTION_FLOWCONTROL.request (adresse source, adresse destina-
tion, valeur),
- L_CONNECTION_FLOWCONTROL indication (adresse source, adresse desti-
nation, valeur).

Elles servent à réguler le flot de données entre la couche réseau et la sous-couche


LLC. Chaque fois que cela s'avère nécessaire, la couche réseau utilise une primitive
de requête L_CONNECTION_FLOWCONTROL pour indiquer à la couche LLC la
quantité de données qu'elle est prête à recevoir (figure 7.8 (b)). De même, la sous-
couche LLC utilisera l'indication pour signifier à la couche réseau combien de
données elle peut accepter sans risque d'en perdre (figure 7.8 (a)). Si le paramètre
valeur est nul, le flot de données associé à la connexion est suspendu.

utilisateur fournisseur utilisateur


du service
DL_CONNECTION_
FLOWCONTROL.ind
( adresse source,
adresse destination,
valeur )
(a) par le fournisseur

utilisateur fournisseur utilisateur


du service
DL_CONNECTION_
FLOWCONTROL.req
( adresse source,
adresse destination,
valeur )
(b) par un utilisateur

Figure 7.8. Contrôle de flux à l'interface


LLC (Logical Link Control) 191

7.2.3. Service sans connexion avec acquittement : LLC3

On peut se demander quelle peut être l'utilité d'un tel type de service. Considérons
le fait que le mode connecté oblige l'entité LLC à gérer une table pour chaque
connexion active. Si un utilisateur émet vers un grand nombre de destinataires et
qu'il souhaite une garantie sur la remise de ses données, le service en mode connecté
devient très difficilement gérable à cause du nombre de tables nécessaires. Un
exemple de ce type d'application est le contrôle de processus pour lequel un site
central doit communiquer avec de nombreux processeurs ou contrôleurs
programmables. Un autre intérêt du service LLC3 est de fournir un système de
polling avec garantie de réponse. Ici encore, dans le cas d'un contrôle de processus, il
peut être nécessaire d'acquérir des données de la part d'un capteur possédant une faible
capacité de calcul. Dans ce cas, l'implantation de ce service est plus simple et mieux
approprié que le service en mode connecté. Un dernier exemple concerne aussi
l'environnement industriel pour lequel certains signaux d'alarme ou de contrôle sont
très importants et possèdent des contraintes de temps. Un acquittement est alors
nécessaire pour garantir à l'expéditeur que son signal a été reçu mais le caractère
urgent du signal oblige l'expéditeur à ne pas perdre de temps avec l'établissement
préalable d'une connexion.

LLC3 est un service qui s'utilise en point à point uniquement. On peut le voir
comme étant constitué de deux services indépendants :
- DL_DATA_ACK : service avec remise garantie ;
- DL_REPLY : service de polling avec réponse garantie, qui permet à un
utilisateur de demander des données préalablement préparées par un autre utilisateur
ou d'échanger des données avec un autre utilisateur.

7.2.3.1. Service avec remise garantie

Ce service repose sur l'utilisation de trois primitives :


- DL_DATA_ACK.request (adresse source, adresse destination, données, priorité,
classe_de_service),
- DL_DATA_ACK.indication (adresse source, adresse destination, données,
priorité, classe_de_service),
- DL_DATA_ACK_STATUS.indication (adresse source, adresse destination,
priorité, classe_de_service, status).

Ce service permet à un utilisateur :


- d'envoyer des données à un utilisateur distant,
- de recevoir une confirmation immédiate de la remise de ses données (figure
7.9 (a)) ou de l'échec de la remise (figure 7.9 (b)).
1 9 2 Architecture des réseaux haut débit

utilisateur fournisseur utilisateur


du service
DL_DATA_ACK.req
DL_DATA_ACK.ind
( adresse source,
( adresse source,
adresse destination,
adresse destination,
données, priorité,
données, priorité,
classe de service )
classe de service )

DL.DATA.ACKJ*-""""^
STATUS, ind
( adresse source,
adresse destination,
priorité, classe de service,
status )
(a) réussite

utilisateur fournisseur utilisateur


du service
DL_DATA_ACK.req
( adresse source,
adresse destination,
données, priorité,
classe de service )

DL_DATA_ACK_
STATUS.ind
( adresse source,
adresse destination,
priorité, classe de service,
status )
(b) échec

F i g u r e 7.9. Service avec remise garantie

Le paramètre classe_de_service indique si un service d'acquittement doit être mis


en œuvre dans la sous-couche MAC pour le transfert de la donnée. Cette option est
notamment possible avec le standard IEEE 802.4. Token Bus.

Le paramètre status indique si l'unité de données transmise a été reçue


correctement par l'entité LLC distante ou sinon la cause de l'échec. Un échec peut
avoir une cause locale ou distante telle que l'impossibilité de transmettre ou l'absence
de réponse de l'entité distante.

7.2.3.2. Service de polling avec réponse garantie

Ce service permet à un utilisateur de solliciter une donnée d'un utilisateur distant


et, optionnellement, de transmettre une unité de données en même temps.
LLC (Logical Link Control) 193

II utilise les primitives suivantes :


- DL_REPLY.request (adresse source, adresse destination, données, priorité,
classe_de_service),
- DL_REPLY.indication (adresse source, adresse destination, données, priorité,
classe_de_service),
- DL_PvEPLY_STATUS.indication (adresse source, adresse destination, données,
priorité, classe_de_service, status),
- DL_REPLY_UPDATE.request (adresse source, données),
- DL_REPLY_UPDATE_STATUS.indication (adresse source, status).

Considérons le cas d'un système à polling avec un utilisateur primaire et


plusieurs utilisateurs secondaires. Si un utilisateur secondaire a une unité de données
à transmettre, il doit attendre d'être sollicité pour le faire. Les primitives
DL_REPLY_UPDATE permettent d'éviter cette attente. Un utilisateur peut, par la
primitive de requête, délivrer une unité de données à son entité LLC locale qui la
conserve en l'associant au SAP de son utilisateur, et qui l'enverra à un utilisateur
distant chaque fois que cela lui sera demandé. Chaque fois que l'utilisateur local
voudra faire une mise à jour sur la donnée qu'il met à la disposition des autres
utilisateurs, il pourra le faire en invoquant à nouveau la primitive
D L _ R E P L Y _ U P D A T E . r e q u e s t . L'entité LLC répond à une D L _ R E P L Y _
UPDATE.request par une DL_REPLY_UPDATE-STATUS.indication (figure 7.10).
Le paramètre status indique un succès si l'unité de données a bien été associée au
SAP de l'utilisateur, ou un incident si cette association n'a pu être réalisée (pour
cause d'insuffisance de tampons par exemple).

utilisateur fournisseur utilisateur


du service
DL_REPLY_UPDATE. req
( adresse source,
données )
\
DL_REPLY_UPDATE_
STATUS.ind
( adresse source,
status )

Figure 7.10. Preparation de données pour une réponse à un polling

Du côté de l'utilisateur demandeur de données, le service peut être invoqué grâce à


la primitive DL_REPLY.request. Cette primitive permet, outre le fait de solliciter
des données associées au paramètre adresse destination, de transférer optionnellement
de l'information (paramètre données). Si l'entité locale ne peut pas traiter la requête,
elle retourne immédiatement une primitive DL_REPLY_STATUS.indication avec le
1 94 Architecture des réseaux haut débit

paramètre status indiquant la nature de l'incident (figure 7.11 (b)). Sinon (figure 7.11
(a)), la requête est transmise à l'entité destinataire avec les résultats suivants :

- l'entité LLC destinataire génère une DL_REPLY.indication vers l'utilisateur


distant. Si la requête de l'utilisateur local était accompagnée d'une unité de données,
cette dernière est délivrée à l'utilisateur destinataire par la primitive d'indication ;
- si une unité de données est associée au SAP du destinataire (suite à une
invocation par ce dernier de la primitive DL_REPLY_UPDATE.request), elle est
transmise en retour à l'entité LLC source. Si aucune unité de données n'est associée,
l'entité LLC destinataire envoie un message à l'entité LLC source pour l'informer de
cette absence de données.

Quand le message est reçu par l'entité LLC source, elle génère une DL_REPLY_
STATUS.indication. Si tout s'est bien passé, l'entité source délivre l'unité de
données provenant de l'entité LLC distante. Sinon, le paramètre status indique la
nature de l'incident comme par exemple, l'absence de réponse de l'entité destinataire
ou l'absence d'unité de données associée au SAP distant.

utilisateur fournisseur utilisateur


du service
DL_REPLY.req
( adresse source, DL_REPLY.ind
adresse destination, ( adresse source,
données, priorité, adresse destination,
classe de service )~~ données, priorité,
D L R E P L Y STATUS.ind classe de service )
( adresse source,
adresse destination,
données priorité,
classe de service, status )
(a) réussite

utilisateur fournisseur utilisateur


du service
DL_REPLY.req
( adresse source,
adresse destination,
données, priorité,^
classe de service )
\
DL_DATA_ACK
STATUS.ind
( adresse source,
adresse destination,
données priorité,
classe de service, status )
(b) échec

F i g u r e 7 . 1 1 . Service de polling
LLC (Logical Link Control) 195

7.3. Interface MAC/LLC

Cette interface, spécifiée dans le standard 802.2, est totalement sans connexion.
Elle contient les primitives qui permettent à la sous-couche LLC d'accéder aux
services de la sous-couche MAC :
- MA_UNITDATA.request (adresse source, adresse destination, données, priorité,
classe_de_service),
- MA_UNITDATA.indication (adresse source, adresse destination, données,
status_réception, priorité, classe_de_service),
- MA_UNITDATA_STATUS.indication (adresse source, adresse destination,
status_transmission, priorité_utilisée, classe_service_utilisée).

Les paramètres ont la signification suivante :


- les adresses source et destination spécifient des adresses MAC. Une adresse
destination peut être individuelle ou de groupe ;
- le paramètre données contient la PDU LLC ;
- la priorité spécifie la priorité désirée pour le transfert de l'unité de données ;
- la classe_de_service spécifie si un mécanisme d'acquittement doit être utilisé
pour la transmission de l'unité de données ;
- le paramètre status_réception indique le succès ou l'échec de la transmission de
la trame entrante : par exemple, si une erreur est détectée dans une trame entrante,
cette information est reportée à la sous-couche LLC qui peut l'utiliser dans le cadre de
son propre contrôle d'erreur ;
- la primitive MA_UNITDATA_STATUS.indication est passée de l'entité MAC
à l'entité LLC pour confirmer le succès ou l'échec du service demandé par une requête
antérieure. Si la classe_de_service indique une non-utilisation de l'acquittement (ce
qui est le cas général), la primitive d'indication est générée immédiatement après la
tentative de transmission et indique seulement si l'entité MAC locale a ou n'a pas
réussi à transmettre la trame. Dans le cas contraire, la primitive d'indication n'est
passée que lorsqu'un acquittement est reçu de l'entité MAC destinataire ou lorsque le
nombre maximum de transmissions pour une trame a été atteint ou encore lorsqu'une
panne locale se produit. Remarquons que cette primitive d'indication de compte rendu
sert de confirmation pour l'entité émettrice ; on la retrouve ainsi dans d'autres
spécifications sous le nom de MA_UNITDATA.confirmation ;

- le paramètre status transmission est utilisé pour retourner de l'information


d'état à l'entité locale LLC demandante. Les types de status qui peuvent être associés
avec cette primitive sont dépendants de ('implementation et du type de protocole
MAC utilisé (par exemple, un nombre excessif de collisions peut constituer une
information de compte rendu retourné par une entité MAC CSMA/CD).
1 96 Architecture des réseaux haut débit

7.4. Protocoles LLC

Le protocole LLC défini dans le standard IEEE 808.2 s'apparente au protocole


HDLC [IS 3309] utilisé par les réseaux grande distance : ils ont des formats et des
fonctions similaires. Cela est surtout vrai dans le cas du mode connecté.

Il y a en fait trois protocoles LLC, selon le type de service offert. Il est possible,
pour une station donnée, de supporter plus d'un type de service et donc d'implémenter
plus d'un protocole.

7.4.1. Unités de données

Les trois protocoles LLC utilisent le même format de trames, similaire au format
des trames HDLC (cf. figure 7.12).

1 octet 1 octet 1 ou 2 octets n octets (n > 0 )


adresse adresse
contrôle information
DSAP SSAP

Figure 7.12 Format des trames LLC

Les deux champs d'adresse comportent chacun une adresse de 7 bits et un bit de
contrôle : dans le cas du DSAP, il indique s'il s'agit d'une adresse individuelle ou
d'une adresse de groupe (autorisée uniquement en LLC1) (bit I/G) ; dans le cas du
SSAP, il indique si la trame est une commande ou une réponse (bit C/R).

Le champ de contrôle identifie le type de PDU — trame d'information, trame de


supervision ou trame non numérotée — et spécifie plusieurs fonctions de contrôle ;
sa longueur est de 1 ou 2 octets, selon son type (figure 7.13). Les trames qui sont
numérotées (champs N(S) et N(R)) le sont modulo 128. Le bit P/F (Poil/Final)
permet à une trame de commande de demander une réponse et à une trame de réponse
d'être associée à la commande l'ayant suscitée.

trame d'information (I) 0 N(S) P/F N(R)

trame de supervision (S) 1 0 S S 0 0 0 0 P/F N(R)

trame non numérotée (U) 1 1 M M P/F M M M


N(S) - numéro de séquence en émission
N(R) - numéro de séquence en réception
S - bit de fonction de supervision
M - bit de fonction de modification
P/F - bit Poil/Final

Figure 7.13. Champ de contrôle des PDU LLC


LLC (Logical Link Control) 197

Le tableau 7.1 donne l'ensemble des trames employées par la sous-couche LLC.

code commande réponse code binaire


service en mode non connecté
information non numérotée UI X 110OP0O0
échange d'identification XID X X 1111 P/F 101
test TEST X X 1100P/F111
service en mode connecté
information I X X OxxxP/Fxxx
prêt à recevoir RR X X 10000000
non prêt à recevoir RNR X X 10100000
rejet REJ X X 10010000
fonctionnement en mode équilibré SABME X 1111P110
libération ou déconnexion DISC X 1100P010
acquittement non numéroté UA X 1100F110
mode déconnecté DM X 111F000
rejet de trame FRMR X 1110F001
service en mode non connecté acquitté
information acquittée sans connexion X X 1110P/F110
ACO
séquence 0
information acquittée sans connexion AC1 X X 1U0P/F111
séquence 1

Tableau 7.1. Trames utilisées par le protocole LLC

7.4.2. Protocole LLC de type 1


Le service LLC de type 1 se réduisant au minimum, le protocole qui lui est
associé est extrêmement simple, avec seulement trois PDU.
La trame UI est utilisée pour transférer des données utilisateur, qui sont fournies
et délivrées via les primitives DL_UNITDATA. Il n'y a ni acquittement, ni contrôle
de flux, ni contrôle d'erreur (toutefois, il y a détection d'erreur et rejet éventuel au
niveau de la sous-couche MAC).
Les deux autres trames, XID et TEST, servent aux fonctions d'administration
associées aux trois types de LLC. Elles sont toutes deux utilisées de la façon
suivante : chaque entité LLC peut émettre une commande (bit C/R = 0) XID ou
TEST. L'entité LLC destinataire doit alors envoyer en retour une réponse XID ou
TEST. Le champ d'information contient de l'information d'administration.
1 98 Architecture des réseaux haut débit

Le standard n'impose pas une utilisation précise de la trame XID, mais suggère
plusieurs cas d'utilisation possibles, par exemple :

- une commande XID avec un LSAP nul peut être utilisé pour solliciter une
réponse d'une station quelconque ("Etes-vous là ?") ;

- une commande XID avec une adresse de DSAP de groupe peut servir à
déterminer l'appartenance à un groupe. En particulier, une adresse globale (diffusion)
peut servir à identifier toutes les stations actives ;

- un échange de XID avec des LSAP nuls peut servir à identifier les types de
protocoles LLC implémentés ;

- un échange de XID avec des LSAP différents peut servir à identifier les types de
service offerts à ces LSAP ;

- une entité LLC peut annoncer sa présence avec une adresse globale.

La commande TEST est utilisée pour forcer l'entité LLC distante à répondre par
une autre réponse TEST, afin de réaliser un test de base du chemin de transmission
entre deux entités LLC.

7.4.3. Protocole LLC de type 2

Le principe est très similaire à celui de HDLC avec un fonctionnement en mode


équilibré (ABM — Asynchronous Balanced Mode). Il utilise les trois types de trames
I, S et U (figure 7.13 et tableau 7.1) :

- les trames d'information (I) permettent de transférer les données utilisateur. Les
champs N(S) et N(R) servant au contrôle d'erreur et au contrôle de flux et véhiculent
respectivement un numéro de séquence en émission et un numéro de séquence en
réception (numéro d'acquittement) ;

- les trames de supervision (S : RR, REJ, RNR) mettent en œuvre les


mécanismes d'acquittement, de contrôle d'erreur et de contrôle de flux ;

- les trames non numérotées (U : SABME, DISC, UA, DM, FRMR) réalisent
principalement les fonctions d'établissement, de libération de connexion, ainsi que
d'autres fonctions de contrôle.

7.4.4. Protocole LLC de type 3

Chaque PDU transmise est acquittée. Le protocole utilise deux nouvelles PDU
(inexistantes dans HDLC) non numérotées : ACO (Acknowledged Connectionless,
Seq. 0) et AC1, leur codage ne différant que par un seul bit. Les données utilisateur
sont encapsulées dans une trame de commande AC et doivent être acquittées par une
LLC (Logical Link Control) 199

trame de réponse AC. Le contrôle de flux est de type send-and-wait (utilisation d'une
fenêtre d'émission de taille égale à 1 ) et le contrôle d'erreur de type ARQ (utilisation
d'acquittements positifs et de retransmissions sur temporisateur). Pour se prémunir
contre les pertes de PDU, un émetteur alternera l'utilisation de ACO et de AC1 dans
ses trames de commande ; le destinataire répondra avec une PDU ACn de numéro
opposé à celui contenu dans la commande.

Il est à noter qu'un protocole LLC de type 4 fut un moment candidat à la


normalisation des protocoles LLC mais qu'il n'a finalement pas été adopté.
200 Architecture des réseaux haut débit

Exercices

Exercice 7.1

Pour les différents types d'application énumérés ci-après, quelle est la classe de
procédure LLC qui convient le mieux ? Justifiez brièvement votre réponse.
Les types d'application sont :

- application transactionnelle,
- messagerie X.400,
- télécopie,
- transfert de fichiers,
- contrôle de processus.

Exercice 7.2

Sur un réseau local Ethernet, une station effectue la diffusion d'une trame à toutes
les autres stations. Au niveau LLC, indiquez comment est réalisée la reprise sur
erreur, le cas échéant, de cette trame si le protocole est de type :

- LLC1,
- LLC2,
- LLC 3.

Exercice 7.3

Pourquoi n'y a-t-il pas de PDU de commande associée au service de contrôle de


flux de LLC2 ?

Exercice 7.4

On considère une architecture utilisant LLC3 au-dessus de Token Ring. La


primitive MA_DATA.confirmation est-elle d'une réelle utilité dans le cadre du
service avec remise garantie offert par LLC3 ? Que se passe-t-il lorsque des erreurs de
transmission se produisent sur une trame ?

Exercice 7.5

On considère une architecture de communication en environnement manufacturier


utilisant LLC3 au-dessus de Token Bus. Dans cet environnement, une console de
supervision A vient scruter une variable d'état mise à jour périodiquement par un
automate programmable industriel B. Montrez sur un diagramme l'enchaînement des
primitives aux interfaces LLC et MAC et les échanges de PDU dans les couches
LLC et MAC lors de l'activation du service de polling avec réponse garantie par
l'utilisateur UA de LLC situé sur la console A.
LLC (Logical Link Control) 201

Exercice 7.6
Deux stations A et B sont connectées à un réseau local 802.3. L'échange se fait
avec le protocole LLC2. La station A souhaite transférer deux trames d'information à
la station B. Montrez sur un diagramme l'enchaînement des primitives aux interfaces
LLC et MAC ainsi que les LLC-PDU et MAC-PDU transmises, pendant les phases
d'établissement et de transfert.
Chapitre 8

ATM (Asynchronous Transfer Mode)

8.1. Introduction

Actuellement, les services du téléphone, de transfert de données et d'image sont


supportés par des réseaux distincts. Du fait du coût de ces différents réseaux et de leur
partitionnement, le réseau large bande doit offrir sur un réseau unique l'ensemble de
ces services avec comme objectif l'optimisation des coûts de câblage, de maintenance
et de gestion pour l'opérateur. Les moyens de réaliser cette intégration sont d'une
part, la fibre optique qui offre les débits nécessaires aux services d'images numérisées
et d'autre part, la technique de commutation ATM qui permet une grande souplesse
dans l'allocation des débits aux connexions réseau.

8.2. Nouveaux services et multimédia

8.2.1. Les services large bande

Aux applications classiques d'interconnexion de réseaux locaux ou de super-


calculateurs qui demandent de plus en plus de bande passante viennent s'ajouter de
nouveaux services dits services large bande.
Les récents développements dans les technologies de traitement de l'information
ont permis le développement d'applications innovantes (vidéoconférence,
visiophone, bases de données géographiques, vidéodiffusion, télédiffusion haute
définition, etc.) alliant informatique et télécommunications et concernant de
nombreux domaines : médecine, édition, tourisme, journalisme, administration,
information [Szuprowicz 95]. Les particuliers sont également visés avec le
204 Architecture des réseaux haut débit

développement de nouveaux services de loisirs, tels la vidéo à la demande ou les jeux


interactifs. Toutes ces nouvelles applications nécessitent des traitements complexes
et variés : des systèmes d'archivage d'images fixes associés à des bases de données,
des serveurs vidéo haute performance, des transmissions haut débit et des moyens
d'impression de documents couleur ainsi que l'accès multiple et à distance aux
banques d'informations. Dans le même temps, il a été défini de nouvelles méthodes
de travail coopératif, comme l'élaboration de documents communs par des
utilisateurs distants ou la mise en place de conférences où les conférenciers sont
situés dans des sites différents. Au fur et à mesure que les stations de travail gagnent
en puissance et en possibilités, la demande pour ces nouvelles applications croît
rapidement pour s'étendre des milieux professionnels aux particuliers.

Pour s'imposer sur le marché, le réseau large bande devra proposer un vaste
éventail de services. Ces derniers sont classés dans la recommandation 1.211 en deux
grandes catégories :

- les services dits interactifs représentant les services de conversation, de


messagerie et de consultation,
- les services de distribution comprenant les services liés à la diffusion
d'information ou d'images.

Le tableau 8.1 donne des exemples d'applications associées à chacune des


catégories de services. La plupart des services large bande mettent en jeu plusieurs
types d'information et sont donc appelés services multimédias. Les services
multimédias sont des services numérisés par un processus spécifique ; ils
manipulent des données sonores, des données informatiques ainsi que des images,
qu'elles soient fixes ou animées.

catégorie services applications


services interactifs conversation téléphonie, visiophonie,
télécopie, données interactives
messagerie courrier vidéo, courrier
électronique avec transfert de
documents
consultation vidéotext large bande,
télévente, consultation de
journaux, d'images fixes
services de distribution sans commande de vidéo (TV, TVHD), journal
présentation à l'usager électronique, canaux TV
multilangues
avec commande de enseignement à distance,
présentation à l'usager téléenseignement

Tableau 8.1. Services large bande et applications


ATM (Asynchronous Transfer Mode) 205

8.2.2. Caractéristiques des trafics multimédias

La difficulté du transfert de toutes ces informations sur le même réseau réside


dans le fait qu'aucune application ne demande le même débit et n'obéit aux mêmes
contraintes. On distingue deux types de contraintes : les contraintes temporelles et
les contraintes de qualité de service (QoS — Quality of Service).

Les contraintes temporelles concernent le caractère temps réel, asynchrone ou


isochrone de l'application. Les services de distribution avec commande de
présentation à l'usager ont un caractère temps réel, comme par exemple la
distribution de programmes de télévision. Les services interactifs ont aussi un
caractère temps réel (cas du téléphone). De par la technique de codage MIC —
Modulation par Impulsion et Codage, la voix téléphonique génère un trafic
isochrone (un octet toutes les 125 us) en plus de son caractère temps réel. De leur
côté, les applications informatiques de transfert de données sont qualifiées
d'asynchrones car elles ne présentent aucune contrainte temporelle forte (toute
proportion gardée, de l'ordre de la seconde à la minute).

Les contraintes de QoS des services du réseau large bande sont définies dans la
recommandation 1.356 par trois paramètres qui sont le taux de perte de cellules, le
délai de transfert de la cellule et la variation du délai de transfert (également appelée
gigue cellule ou encore CDV — Cell Delay Variation).
Le tableau 8.2 donne pour quelques exemples d'applications multimédias, des
valeurs indicatives pour les paramètres de QoS qui leur sont associés. MPEG1 et
M P E G 2 (Moving Picture Expert Group) sont des normes définissant la
numérisation du son et des images animées [IS 11172].

taux taux de perte délai de gigue


application débit
d'erreur bit des cellules transfert
données 2 Mbit/s lu" 7
io 6
1 ms —
64 kbit/s -
videophone 3.10 " 10 8
300 ms 130 ms
2 Mbit/s
64 kbit/s -
vidéoconférence
5 Mbit/s
m-" 10 8
300 ms 130 ms

distribution TV 20-50 Mbit/s 3.10 13


4.10 " 0,8 ms 1 ms
MPEG1 1,5 Mbit/s 4.10" io-'° 5 ms 6,5 ms
M PEG 2 10 Mbit/s 9 7 7
6.10 12
2.10

Tableau 8.2. Contraintes de quelques applications multimédias

Dans ce tableau, on constate que les applications citées sont plus ou moins
sensibles aux pertes, les informations ayant subi une compression étant les plus
sensibles. Certaines sont aussi très sensibles au délai de transfert, telle la
distribution de programmes de télévision haute définition qui présente un caractère
temps réel excluant toute reprise sur erreur par retransmission.
206 Architecture des réseaux haut débit

(a) trafic CBR

(b) trafic VBR

F i g u r e 8 . 1 . Trafics CBR et VBR

Les trafics issus des services multimédias sont très différents. Ils se divisent en
deux familles : les trafics à débit constant ou continu (CBR — Constant Bit Rate)
et les trafics à débit variable (VBR — Variable Bit Rate) (figure 8.1). Le trafic CBR
peut être caractérisé simplement par son débit maximal encore appelé débit crête ;
par exemple le débit crête d'un transfert de voix numérisée est de 64 kbit/s [G.711].
Le tableau 8 . 3 donne des exemples de débit crête pour les principaux services CBR.
La gestion du trafic CBR est aisée pour le réseau. En général, elle consiste à allouer
la bande passante correspondante au débit crête de la source pendant toute la durée de
la communication, que celle-ci soit active ou pas.

Services Débit crête


Téléphone 64 kbit/s
Son HI-FI stéréo 1,4 kbit/s
Télécopie Groupe III 14.4 kbit/s
Télécopie Groupe IV 64 kbit/s

Tableau 8 . 3 . Débits crêtes de certains services CBR

Le trafic VBR est qualifié de trafic sporadique. Typiquement, il alterne des


périodes d'activité pendant lesquelles des données sont générées à un débit très élevé
(on parle de rafale ou de burst en anglais) avec des périodes de silence où très peu de
données sont générées voire aucune ; la durée de chacune de ces périodes est aléatoire
ainsi que le débit de la période d'activité. Dans certains cas, le trafic VBR peut varier
de manière continue sans distinction de périodes. On est amené ainsi à définir le
débit crête comme étant le débit maximum pendant la période d'activité et le débit
moyen comme le débit calculé sur les deux périodes (activité et silence). Compte
tenu des spécificités du processus de numérisation utilisé, les différents services à
débits variables ne présentent pas les mêmes caractéristiques en termes de débit crête,
de périodes d'activité et de silence ; ces paramètres dépendent pour beaucoup de
l'information elle-même et sont difficilement prédictibles.
ATM (Asynchronous Transfer Mode) 207

8.3. Le réseau large bande

8.3.1. Normalisation

Dès 1990, l'UIT-T a établi un ensemble de recommandations qui définissent le


cadre général et les principes de base du réseau large bande ou RNIS-LB (Réseau
Numérique à Intégration de Services-Large Bande ou B-ISDN pour Broadband-
Integrated Service Digital Network) (celles-ci sont notées en gras dans le tableau
8.4). D'autres recommandations concernent des points spécifiques du RNIS-LB.

Description Recommandations UIT-T


Aspects large bande du RNIS 1.121
Aspects service 1.211
Architecture fonctionnelle 1.327

Modèle de référence 1.321


Aspects réseau généraux 1.311
Couche ATM 1.150, 1.361
Couche AAL 1.362,1363
Interface Usager-Réseau (UNI) 1.413,1.432
Principes OAM 1.610
Contrôle de congestion 1.371
Performance du transfert de cellule ATM I.35B
Services de données sans connexion 1.364
Relais de trames au-dessus d'ATM 1.555,1.365
Signalisation Usager-Réseau (en cours) Q.2931
Signalisation AAL Q.2100, Q.2110. Q.2130. Q.2140
Vocabulaire 1.113

T a b l e a u 8 . 4 . Recommandations RNIS-LB

8.3.2. Modes de transfert dans un réseau commuté

Le mode de transfert dans un réseau vise à partager la ressource réseau entre


plusieurs communications simultanées en combinant deux techniques : le
multiplexage et la commutation. Le multiplexage consiste à mélanger plusieurs
canaux basse vitesse sur un même canal haute vitesse. La commutation aiguille une
communication provenant d'un lien en entrée vers un lien en sortie.
Conceptuellement, le multiplexage prend place à l'entrée du réseau tandis que la
commutation est au cœur du réseau.
208 Architecture des réseaux haut débit

Le mode de transfert utilisé sur un réseau à commutation dépend étroitement du


service offert. Sur le réseau téléphonique, c'est le mode synchrone (STM —
Synchronous Transfer Mode) encore appelé mode circuit. Sur les réseaux de
transmission de données, c'est le mode asynchrone (ATM — Asynchronous Transfer
Mode) encore appelé mode paquet.

8 . 3 . 2 . 1 . Le mode de transfert synchrone

Dans le réseau téléphonique, l'information transportée est la voix numérisée. Du


fait de la numérisation par le procédé MIC, elle se présente sous la forme d'un octet
émis périodiquement, toutes les 125 us. Le multiplexage temporel synchrone est
alors bien adapté.

Dans cette technique, le temps est découpé en cycles, eux-mêmes découpés en


tranches de temps de taille fixe. Chaque tranche de temps contient exactement un
octet de voix numérisée. Le cycle est appelé multiplex. Lors de l'établissement
d'une communication, il y a réservation d'une tranche de temps nominale à
l'intérieur du cycle et ce pendant toute la durée de la communication ; l'allocation de
bande passante est donc statique. Le cycle est strictement synchronisé avec la voie
basse vitesse, il est donc répété toutes les 125 u s de manière à respecter la
contrainte d'isochronisme (figure 8.2).

A- - multiplex—

B M A B C D E : A B
lignes U
C
basse X ligne haute vitesse
D vitesse
E

Figure 8.2. Le multiplexage synchrone

La reconnaissance d'un canal particulier au sein d'un multiplex se fait par la


position de sa tranche de temps à l'intérieur du cycle ; elle est fixe pour la durée de
la communication.

La fonction de commutation est réalisée grâce à une table de translation mise à


jour lors de l'établissement d'une communication. Elle indique pour chaque tranche
de temps la nouvelle position qu'elle occupera dans le prochain multiplex. Du fait
que les multiplex arrivent et repartent à la même vitesse au niveau d'un
commutateur, il n'y a pas de stockage de l'information (seulement un stockage
transitoire de durée très brève).

8.3.2.2. Le mode de transfert asynchrone

Le trafic de données informatiques ne suit quant à lui aucune régularité, alternant


l'envoi de grandes quantités de données avec des périodes de silence ; il est qualifié
ATM (Asynchronous Transfer Mode) 209

d'asynchrone. Dans ce contexte, l'allocation statique de la bande passante n'est pas


très efficace, aussi a-t-on préféré une allocation dynamique en fonction des besoins
instantanés de chaque communication [Doll 72]. Les unités de données sont
structurées dans des paquets. L'en-tête du paquet permet d'identifier à quelle
communication le paquet appartient, soit grâce aux adresses source et destination
soit par un identificateur de communication délivré lors de l'établissement de cette
d e r n i è r e . A la différence du mode de transfert synchrone, il n'y a aucune
synchronisation entre voies basse vitesse et voie haute vitesse et par conséquent, pas
de structure de cycle. L'arrivée des paquets se produisant de manière asynchrone et le
débit de la voie haute vitesse pouvant être inférieur à la somme des débits des voies
basse vitesse, les paquets peuvent être stockés temporairement dans des tampons
avant d'être retransmis.

tp tl t2 t3 bande passante perdue

A Al Bl B2 C2
premier ^ deuxième
cycle cycle
B
(a) multiplexage synchrone
en-tête bande passante gagnée
~C~
| \
5 Al Bl î B2 C2
~D~ - < - à t l - » - •—à t;

b) multiplexage asynchrone

Figure 8.3. Multiplexages synchrone et asynchrone

La figure 8.3 montre la différence en termes d'utilisation de la bande passante


entre les techniques synchrone et asynchrone. La commutation asynchrone consiste à
recevoir un paquet, à examiner son en-tête puis à le retransmettre vers un lien de
sortie. Les paquets sont là aussi stockés dans des tampons avant leur commutation
et également avant la retransmission en sortie. Ce mode utilise des files d'attente qui
introduisent une part plus ou moins importante d'indéterminisme. Les voies basse
vitesse n'étant pas toutes actives en même temps, on peut accepter davantage de
voies basse vitesse en entrée du multiplexeur, on qualifie alors le multiplexage
asynchrone de multiplexage statistique. Les tampons sont là pour absorber un
surplus temporaire de trafic. Si toutes les voies sont actives en même temps, il peut
y avoir perte de paquets par suite d'une saturation des tampons.

8.3.2.3. Choix de l'ATM

En mode synchrone, les mécanismes du réseau déterminent le débit d'une


communication et le terminal doit adapter son débit à celui-ci. Si le terminal n'a rien
à envoyer, il y a gaspillage de bande passante. De plus, le débit disponible sur le
réseau est toujours multiple d'un débit de base. En mode asynchrone, le terminal
2 10 Architecture des réseaux haut débit

dicte le débit d'émission et peut envoyer des débits qui varient de quelques kbit/s à
plusieurs dizaines de Mbit/s. Le mode asynchrone possède donc la propriété de
multidébit nécessaire aux services décrits en 8.2. Il assure donc l'indépendance entre
les terminaux et les équipements de multiplexage et de commutation ; on parle
d'anisochronisme à l'accès.
La deuxième motivation provient du fait que les applications multimédias
demandent, outre des débits élevés, des délais de transfert courts. Cette deuxième
contrainte a conduit à simplifier au maximum le protocole de transfert. Nous
présentons ses caractéristiques dans le paragraphe suivant.

8.3.3. Principes fondamentaux du mode ATM

La technique ATM spécifiée pour le réseau large bande se caractérise par :

- l'absence de contrôle de flux à l'intérieur du réseau à partir du moment où la


communication a été acceptée ;
- l'absence de contrôle d'erreur car d'une part, la transmission sur fibre optique
présente une bonne qualité de transmission et d'autre part, détection et reprise
diminuent le débit utile ;
- un mode orienté connexion pour faciliter la réservation des ressources et
assurer le séquencement des PDU ;
- l'absence de contrôle de perte au niveau du réseau car des ressources suffisantes
ont été allouées aux connexions lors de leurs établissements ;
- une unité de transfert appelée cellule, de taille réduite pour faciliter l'allocation
mémoire dans les commutateurs et permettre un meilleur entrelacement des flux et
une commutation rapide ;
- un en-tête de cellule de taille limitée et aux fonctions réduites pour assurer une
commutation rapide.
La cellule ATM de 53 octets contient 48 octets d'information (encore appelés
champ payload) et 5 octets d'en-tête (figure 8.4). La longueur de la cellule est le
résultat d'un consensus technologique entre les Américains (64 octets) et les
Européens (32 octets).

8 7 6 5 4 3 2 1
1
2
en-tête 3
5 octets 4
5
6
information
48 octets 53

F i g u r e 8 . 4 . Format général de la cellule ATM


ATM (Asynchronous Transfer Mode) 2 11

8.3.4. Connexions ATM

8.3.4.1. Principe de la connexion virtuelle

L'acheminement des cellules dans le réseau large bande se fait par établissement
préalable d'une connexion de voie virtuelle (VCC — Virtual Channel Connection)
de bout en bout entre les intervenants de la communication (source et destinataire).
Par abus de langage, nous appelons simplement connexion virtuelle, la connexion
de voie virtuelle. Une connexion virtuelle ATM est une concaténation de tronçons de
voie virtuelle (VCL — Virtual Channel Link) juxtaposés. Un tronçon de voie
virtuelle est défini sur un lien entre deux nœuds. Le protocole d'établissement
consiste à choisir le chemin que doit emprunter la connexion virtuelle dans le réseau
en fonction de ses besoins en bande passante, de sa destination finale et des
ressources disponibles. Une fois la connexion établie, les cellules transmises sont
transférées en séquence sur le chemin tracé.

Le protocole d'établissement d'une connexion ATM fait partie du plan de


signalisation (qui sera défini en 8.3.6). Les connexions sont de bout en bout et
peuvent être point à point ou point à multipoint (d'ores et déjà pour les
spécifications de l'ATM Forum et à partir de la phase 2, selon le planning établi par
l'UIT-T), unidirectionnelles ou bidirectionnelles (dans ce dernier cas, symétriques ou
asymétriques en termes de bande passante).

8.3.4.2. Translation des valeurs de VCI

La connexion virtuelle est identifiée sur chaque tronçon de voie virtuelle par un
identificateur de voie virtuelle appelé VCI (Virtual Channel Identifier). Cet
identificateur ainsi que le lien emprunté sont enregistrés au moment de
l'établissement, dans chaque nœud traversé par la connexion, dans une table de
translation.

Prenons comme exemple une connexion virtuelle unidirectionnelle de bout en


bout établie entre deux terminaux utilisateur A et B. Quand A demande la connexion
à B, le réseau initialise le VCI à la valeur a. Les cellules transmises par A seront
donc étiquetées avec un VCI égal à a. D'autre part, le réseau affecte la valeur z à la
connexion arrivant en B (figure 8.5).

VCI = a ^ VCI = b VCI = x VCI = y VCI = z


A Ll L2 L3
f c
L4 1 B
VC VC VC VC

VC

connexion de voie virtuelle (VCC)

Figure 8.5. Exemple de connexion virtuelle


2 1 2 A r c h i t e c t u r e d e s r é s e a u x h a u td é b i t

Les valeurs des VCI en entrée et en sortie du commutateur sont enregistrées avec
les informations de routage dans une table de translation. Lors de la commutation
d'une cellule, le commutateur effectue la translation des valeurs de VCI en même
temps qu'il route la cellule sur le lien adéquat en sortie. En reprenant l'exemple de la
figure 8 . 5 , une connexion virtuelle provenant du lien de A et identifiée a sera
commutée vers le nœud L 2 et portera le VCI b sur ce lien (figure 8 . 6 ) . Le nouveau
VCI servira à la prochaine unité de commutation rencontrée par la cellule. A l'entrée
du nœud L l , la cellule arrive sur le port A avec le VCI a et sort sur le port L 2 avec
le VCI b.

e n t r é e sortie
a A V C I a b
p o r t A L 2
nœud Ll

L 2 b j

F i g u r e 8.6. Translation des valeurs de VCI au nœud Ll

Comme plusieurs dizaines de milliers de connexions virtuelles peuvent traverser


un commutateur, la table de translation peut occuper un espace mémoire
considérable et le temps de recherche à l'intérieur de la table devenir important. Pour
pallier cet inconvénient, les connexions virtuelles de l'utilisateur sont multiplexées
dans des connexions de conduit virtuel (VPC — Virtual Path Connection) que nous
appelons par abus de langage, conduit virtuel.

8 . 3 . 4 . 3 . Le conduit virtuel

Une connexion de conduit virtuel (VPC — Virtual Path Connection) contient


des faisceaux de voie virtuelle qui sont commutés ensemble comme une seule unité
(figure 8 . 7 ) . De la même manière que pour la voie virtuelle, la connexion de conduit
virtuel est composée d'une concaténation de tronçons de conduit virtuel (VPL —
Virtual Path Link) juxtaposés. La connexion de conduit virtuel est établie par
l'opérateur du réseau de manière permanente. La notion de conduit virtuel est
transparente à l'utilisateur.

v r VC
VP VP
couche
vr physique VC
VP VP

F i g u r e 8.7. Multiplexage des VC et des VP


ATM (Asynchronous Transfer Mode) 2 1 3

L'identification d'une connexion virtuelle se fait donc par deux champs de l'en-
tête de la cellule :

- VCI (Virtual Channel Identifier) : l'identificateur de voie virtuelle identifie les


connexions allouées dynamiquement. Avec 16 bits, le champ VCI autorise jusqu'à
64 000 connexions de voie virtuelle pour chaque conduit ;

- VPI (Virtual Path Identifier) : l'identificateur de conduit virtuel identifie les


connexions statiques (semi-permanentes). Le champ VPI est codé sur 8 ou 12 bits et
permet ainsi 256 ou 4 096 conduits virtuels.

8.3.4.4. Commutation à deux niveaux

Le réseau ATM s'organise en deux sous-couches comme le montre la figure 8.8.

VCI

VPI

transmission
brasseur commutateur

F i g u r e 8 . 8 . Brasseur et commutateur

A chacune de ces sous-couches correspond un équipement de commutation


particulier. Les commutateurs de VP (niveau inférieur) n'examinent que la partie
VPI. A ce niveau, toutes les connexions de VC de même VPI sont commutées
ensemble. Un tel commutateur est appelé brasseur de conduits. Seule la valeur de
VPI y est translatée. Les commutateurs de VC (niveau supérieur) examinent la partie
VPI + VCI. La commutation de la cellule est alors réalisée sur la base de la
concaténation du VCI et du VPI. Ce type de commutateur termine un tronçon de
voie virtuelle et nécessairement une connexion de conduit virtuel.

8.3.4.5. Exemple d'allocation de VCI/VP1 dans un réseau ATM

On considère le réseau RNIS-LB de la figure 8.9 :

F i g u r e 8 . 9 . Exemple de RNIS-LB
2 1 4 Architecture des réseaux haut débit

Dans ce réseau, on suppose que :


- les usagers F et H accèdent par des accès distincts sur le nœud 2 et
communiquent avec l'usager X,
- le serveur X a un tronçon de VP avec le nœud 3,
- une connexion de VP ne comporte, dans la mesure du possible, qu'un seul
tronçon de VC.

On distingue deux cas :


a. Les deux VCC sont multiplexées sur la même VPC.
b. Chaque VCC passe dans une VPC différent.

La figure 8.10 donne un exemple de tables de routage où les nœuds 1, 2, 3 et 4


sont des brasseurs de VP et les autres nœuds des commutateurs de VC. Les
contraintes pour les valeurs de VPI et VCI des deux connexions entre elles sont :

- VPI différents entre 2-4 et 4-6,


- mêmes VPI, VCI différents entre 6-1, 1-3 et 3-X (hypothèse 2).

Figure 8.10. Exemple d'allocation de VC1/VP1 dans un résea,

La figure 8.11 donne un exemple de tables de routage où les nœuds 2 et 3 sont


les commutateurs de VP, les autres nœuds étant des commutateurs de VC. Les
:ontraintes pour les valeurs de VPI et VCI des deux connexions entre elles :

- VPI différents entre 6-7 (hypothèse 3),


- VPI identiques, VCI différents entre 7-3 et 3-X (hypothèse 2).
ATM (Asynchronous Transfer Mode) 2 1 5

Figure 8.11. Exemple d'allocation de VCIA^PI dans un réseau

La configuration (a) est la plus intéressante car elle comporte le moins de


commutations de VC. Les VC sont commutées en faisceaux par les brasseurs.

8.3.5. Architecture du réseau large bande

Le réseau large bande est constitué de trois parties, le réseau de distribution qui
permet de relier les utilisateurs, le réseau de commutation qui réalise la commutation
à haut débit et le réseau de transmission qui a la charge du transport physique de
l'information.

8.3.5.1. Interfaces du RNIS-LB

Comme pour le RNIS-BE (Bande Etroite), la normalisation s'est dotée d'une


configuration de référence de l'installation privée. La frontière avec le réseau public
est définie par des interfaces normalisées à des points de référence (figure 8.12).
L'accès au réseau par un utilisateur se fait par deux points de référence, Tg et SR.
Au point de référence TR, est définie l'interface usager-réseau (UNI — User-Network
Interface). L'UNI fournit un service de réseau. Dans le modèle de référence du RNIS-
LB, ce service est découpé horizontalement en deux couches, PHY et ATM. Au
point de référence SR, l'interface de raccordement terminale est à l'étude.

La connexion de deux réseaux ATM est décrite quant à elle par la NNI (Network-
Node Interface). L'interface SNI (Subscriber-Network Interface) est définie pour un
réseau SMDS (Switched Multimegabit Data Service) (cf. chapitre 9).
216 Architecture des réseaux haut débit

UNI
I
NT2
NNI réseau réseau privé
public 1
réseau
public 2 SNI »SB

SMDS
V

F i g u r e 8 . 1 2 . Les différentes interfaces d'accès

8.3.5.2. Configuration de référence à l'UNI

L'utilisateur peut désigner comme terminal un ensemble de terminaux raccordés


entre eux par un réseau local. L'accès au RNIS-LB est alors soit direct soit via une
installation privée d'abonné c'est-à-dire un réseau local (figure 8.13).

R
TE2 —• B-TA-
SB TB
ou
B-TE2
• B-NT2
c
B-NTl

B-TE1

installation d'abonné -opérateur-


toint de reterence groupement tonctionnel

F i g u r e 8 . 1 3 . Configuration de référence de l'utilisateur

Les groupements fonctionnels sont :


- B - N T 1 (Broadband Network Termination), terminaison de la liaison de
raccordement, se trouve chez l'usager mais appartient à l'opérateur et comporte les
équipements pour le raccordement de l'installation privée au point de référence T 3 .
Ce point de référence est la limite légale du domaine privé. B - N T 1 effectue la
terminaison de la ligne de transmission et les fonctions OAM (Operation And
Maintenance) associées ;

- B - N T 2 constitue l'ossature de l'installation privée (réseau privé) avec des


topologies possibles en étoile, bus ou anneau. Ce groupement exécute la
commutation et le multiplexage des cellules ATM et comporte les fonctions de
raccordement multiple de terminaux au point S B et de mise en communication
interne ;
ATM (Asynchronous Transfer Mode) 2 17

- B-TA (Broadband Terminal Adaptor) est un module d'adaptation lorsque le


terminal ne présente pas d'interface compatible à l'interface définie au point de
référence S B - Il comporte en particulier les couches ATM et AAL (définies en 8.3.6)
nécessaires au terminal considéré ;

- B-TE1 (Broadband Terminal Equipment), le terminal RNIS-LB lui-même.

L'installation privée a d'abord été construite autour d'un PABX. Puis, avec
l'apparition de l'informatique décentralisée, les concepts de réseaux locaux et
récemment de réseaux métropolitains ont émergé et se sont imposés. Pour jouer son
rôle fédérateur, il est probable que l'installation privée devra s'orienter vers un mode
de transfert ATM. Ainsi, elle pourrait tirer profit de tous les avantages de l'ATM
(flexibilité, simplicité, rapidité, indépendance aux applications). De plus, la
compatibilité avec le RNIS-LB serait assurée. Si les souhaits des opérateurs
coïncident avec ceux des utilisateurs, la technique retenue doit alors être la même.
On parle dans ce cas de réseau local ATM ; ce dernier est organisé en un réseau de
VP.

8.3.5.3. Réseau de distribution

Le réseau de distribution est lui-même divisé en un réseau d'accès et un réseau de


collecte (figure 8.14).

-réseau de distributioi
-réseau d'accès- eseau de collecte

réseau
MUX

mmutatei
TLO
1KCJ

vers le

usager veis ie
brasseur
TRC

r ï
5 c:
-
\MUXI/E

-
EE

z
TRO

/
M U X I/E

F i g u r e 8 . 1 4 . Le réseau de distribution
2 1 8 Architecture des réseaux haut débit

Les équipements du réseau de distribution sont les suivants :


- T R O : la Terminaison de Réseau Optique est placée soit chez l'usager soit
dans le réseau, au point de concentration situé à quelques centaines de mètres de
l'usager ;
- T L O : le Terminal de Ligne Optique regroupe toutes les fonctions de contrôle
et de maintenance du réseau d'accès ;
- M U X I/E : le Multiplexeur d'Insertion-Extraction est capable d'insérer et
d'extraire les données d'un ou de quelques usagers particuliers dans un flux de
données. Il s'agit en réalité d'un brasseur dériveur ;
- MUX : le multiplexeur de collecte a le même rôle que le multiplexeur
précédent mis à part qu'il ne comporte pas de fonction d'insertion/extraction ;

- brasseur de collecte : son rôle est d'aiguiller les différents flux ATM du réseau
de collecte, essentiellement vers les nœuds du réseau de commutation.

Le multiplexeur peut être de type STM ou de type ATM. Le multiplexeur STM


retransmet les cellules telles qu'elles arrivent. Le multiplexeur ATM extrait les
cellules ATM de la trame de transmission (dans le cas d'une trame SDH (cf.
8.2.5.7)), supprime les cellules vides (et les cellules non valides) et multiplexe les
cellules valides pour les mettre dans un conteneur virtuel.

Le réseau d'accès permet le raccordement des usagers au réseau de collecte. Bien


que le coût des équipements optiques soit en baisse (TRO, TLO), un raccordement
par câblage optique pour les particuliers reste actuellement relativement onéreux. Ce
type de raccordement reste économiquement viable pour les usagers professionnels.
Deux topologies du réseau d'accès sont possibles :

- en point à multipoint (anneau, bus, arbre-étoile) : le câblage optique est


partagé entre plusieurs usagers (entreprises à débits d'accès faibles ou particuliers)
pour diminuer le coût du câblage ;
- en point à point : pour les grands utilisateurs professionnels.

Le réseau de collecte vise à faciliter la gestion des conduits du réseau de


distribution. Par son dimensionnement, il garantit à l'opérateur la souplesse
d'exploitation et la possibilité d'évolution. La figure 8.15 montre la topologie
maillée d'un réseau de collecte.
ATM (Asynchronous Transfer Mode) 2 19

reseau
d'accès

brasseui
réseau de collecte ^ers le réseau de
7
transport ATM

| T | multiplexeur I/E |M | multiplexeur

F i g u r e 8 . 1 5 . Topologie maillée du réseau de collecte

8.3.5.4. Réseau de commutation ATM

Du fait de ses deux niveaux de commutation, le réseau de commutation du RNIS-


LB est hiérarchisé en deux sous-réseaux : le réseau commuté qui traite les appels des
utilisateurs en temps réel et le réseau brassé qui s'occupe de la commutation des
conduits virtuels (figure 8.16). La couche de réseau brassé permet de constituer une
infrastructure de conduits servant de support à un réseau superposé de commutateurs
publics ou privés.

' reseau commuté

voie .commutateur/
virtuelh

reseau brasse

brasseur

F i g u r e 8 . 1 6 . Le réseau de commutation

Le réseau de commutation utilise comme équipements d'une part, des brasseurs


numériques — qui ne commutent que des VP — et d'autre part, des commutateurs
ATM — qui commutent à la fois des VP et des VC.
2 2 0 Architecture des réseaux haut débit

La figure 8.17 illustre le fonctionnement d'un commutateur ATM. L e


commutateur reçoit une cellule ATM, analyse son en-tête, effectue la translation des
VCI/VPI. Grâce au routage enregistré dans la table de translation, il commute
immédiatement la cellule vers le lien prédéfini de sortie. La commutation des
cellules étant en fait effectuée par plusieurs modules en parallèle, il est nécessaire de
veiller à ce que deux cellules n'arrivent pas au même instant en entrée du tampon de
sortie (contrôle de collision). La cellule devra éventuellement avoir à attendre avant
d'être multiplexée et retransmise sur le lien de sortie. Il n'y a donc aucune relation
temporelle entre les instants d'arrivée et de sortie de la cellule ; on parle
d'anisochronisme à la commutation.

analyse de l'en-tête
traduction commande de
de l'en-tête commutation

cellule reçue| file d'attente


multiplexage de
sortie cellule émise

m
commutation
de cellules
contrôle ue
collision

Figure 8.17. Fonctionnement d'un commutateur ATM

Le développement du réseau ATM se fait en deux temps, tout d'abord le


déploiement du réseau brassé, puis celui du réseau commuté, ce dernier offrant les
services commutés.

8.3.5.5. Réseau de transmission

L'ATM peut être utilisé sur n'importe quel système de transmission. L'UIT-T
propose trois systèmes de transmission du flux de cellules (figure 8.18) :

- un système reposant sur le système hiérarchique numérique plésiochrone


(PDH — Plesiochronous Digital Hierarchy),
- un système reposant sur le système hiérarchique numérique synchrone
(SDH — Synchronous Digital Hierarchy),
- un système reposant sur une structure équivalente à la cellule.

Les deux premiers sont des systèmes hiérarchiques issus de systèmes existants ;
le mode de transmission y est synchrone. PDH est le système de transmission
numérique actuellement en vigueur. SDH provient du système SONET proposé
antérieurement par Bellcore.
ATM (Asynchronous Transfer Mode) 2 21

système de transmission
et support physique

basé sur hiérarchie numérique


la cellule

f PDH SDH
Synchronous
Plesiochronous Digital
Digital Hierarchy
Hierarchy

Figure 8.18. Les trois systèmes de transmission

8.3.5.6. Le système de transmission PDH

Le système PDH est le système de transmission numérique actuel fondé sur le


débit d'une voie téléphonique du RNIS à 64 kbit/s (un octet de voix transféré toutes
les 125 us). Le multiplexage de voies téléphoniques consiste par conséquent en un
multiplexage temporel synchrone par caractères de 8 bits chacun, avec un octet par
canal transporté.

PDH repose sur deux hiérarchies différentes définies dans des recommandations de
l'UIT-T :

- en Amérique du Nord et au Japon, la hiérarchie utilise un multiplex de 24


canaux (soit 24 octets auxquels est ajouté un bit de synchronisation), soit un débit
de 1,544 Mbit/s (recommandation G.733) (figure 8.19 (a)) ;

- en Europe, elle utilise un multiplex de 32 canaux (soit 32 octets), soit un


débit de 2,048 Mbit/s (recommandation G.732) (figure 8.19 (b)).

^ 193 bits =125 us ^

«4—canal 1—^*—canal 2—»-> |-4-canal 24—fc» \

12 3 4 5 6 7 8 1 2 3 4 5 6 7 8 ^ 1 2 3 4 5 6 7 g'|'
(a) Multiplex G.733 (USA et Japon) bit 193

-256 bits = 125 us-

- canal 1 - canal 2- -canal 32-

1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8 1 2 3 4 5 6 7

(b) Multiplex G.732 (Europe)

Figure 8.19. Format du multiplex


222 Architecture des réseaux haut débit

La hiérarchie du système plésiochrone comprend cinq niveaux appelés ordres


(figure 8.20).

64 kbit/s
er 2 Mbit/s
1 ordre
e 8 Mbit/s
2 ordre
30 e
3 ordre 34 Mbit/s
4 ordre 140
e Mbit/s
5 ordre 1565
e Mbit/s

Figure 8.20. Les cinq niveaux de la hiérarchie plésiochrone

A partir du deuxième ordre, les équipements sont des multiplexeurs numériques.


Ils multiplexent les trames des systèmes d'ordre précédent reçues en entrée en une
nouvelle trame appelée affluent.

8.3.5.7. Le système de transmission SONET

SONET (Synchronous Optical NETwork) a été initialement développé au sein de


la société Bellcore (Bell Communication Research) avant d'être adopté par l'UIT-T
dans les recommandations G.707, G.708 et G.709. Sa motivation provient du
remplacement des supports électriques utilisés en téléphonie par de la fibre optique
permettant des débits plus élevés. C'est l'un des protocoles les plus répandus pour la
transmission sur fibre optique. Son objectif est de permettre la flexibilité du
multiplex (c'est-à-dire la possibilité de le réorganiser simplement), la facilité
d'exploitation, la prise en compte des évolutions futures vers les hauts débits et le
raccordement par des interfaces optiques.

SONET fournit une hiérarchie des débits. Le premier niveau de la hiérarchie est
désigné par STS-1 (Synchronous Transport Signal level 1) en notation numérique
ou OC-1 (Optical Carrier level 1) en notation optique et fournit un débit de
51,84 Mbit/s. Les autres niveaux, notés STS-« ou OC-n, sont des multiples de n
fois STS-1 ou OC-1 (tableau 8.5). Le système de transmission est synchrone.

débit (Mbit/s) désignation SONET - STS/OC désignation ITU-T - STM


51,84 1 —
155.52 3 1
622,08 12 4
1244,16 24 8
2488,32 48 16

Tableau 8.5. Hiérarchie de débits SONET-SDH


ATM (Asynchronous Transfer Mode) 223

Les données sont transmises dans des trames, chaque trame étant vue comme un
tableau d'octets de 90 colonnes et 9 lignes d'octets (figure 8.21). SONET est un
système synchrone qui répète une trame toutes les 125 us, ce qui conduit au débit de
51,84 Mbit/s. L'en-tête SOH (Section OverHead) occupe les trois premières
colonnes et comprend les informations liées au transport et nécessaires aux fonctions
de contrôle et de gestion du réseau. La section de régénération est prise en compte à
chaque répéteur SONET. La section de multiplexage est prise en compte par les
multiplexeurs SONET. La quatrième ligne comporte des pointeurs.

1 2 3
î Regenerator Section
2 Overhead
3
4
pointers
• • ™
5
1
6 Multiplexor Section
7 Overhead
S O N STS-l
8
u

trame SONET en-tête (SOH)

F i g u r e 8 . 2 . La trame SONET et son en-tête

La règle est qu'une trame STS-H est construite avec n trames S T S - 1 , ce groupe
de n trames devenant ainsi l'unité de transmission du niveau n. Avec S T S - 1 , les
trames de données sont émises une à une. Avec S T S - 3 , elles sont émises par
groupes de trois.
S O N E T définit également une hiérarchie logique en termes de couches de
fonctionnalités et une hiérarchie physique en termes d'équipements utilisés. La
figure 8.22 montre les quatre couches utilisées dans la hiérarchie logique :
- la couche photonique ou couche physique proprement dite qui transfère le
signal optique modulé,
- la couche section qui convertit les signaux électriques en signaux lumineux,
- la couche ligne, responsable de la synchronisation et du multiplexage et qui
comporte les fonctions de maintenance et de protection,
- la couche conduit qui prend en charge le transport de bout en bout des données.

|services services]
<
enveloppe
conduit
bloc STS-n
ligne
trame T
section
lumière
photonique
terminal répéteur multiplexeur SONET terminal

F i g u r e 8 . 2 2 . Hiérarchie logique SONET


224 Architecture des réseaux haut débit

La hiérarchie physique de SONET comporte les différents équipements indiqués


dans la figure 8.23. Le multiplexeur d'insertion et extraction (ADM — Add and
Drop Multiplexor) est capable d'insérer et d'extraire des canaux de la trame SONET.

multiplexeur multiplexeur
d'insertion et d'insertion et
d'extraction multiplexeur d'extraction
!•—~~ SONET
iCr-
répéteur
-o
section

(STE)
•- "ligne -

(LTE) - •
(PTE + LTE)
-conduit-
STE - Section Terminal Equipment
LTE - Line Terminal Equipment
PTE - Path Terminal Equipment

F i g u r e 8 . 2 3 . Hiérarchie physique de SONET

8.3.5.8. Le système de transmission SDH

C o m m e S O N E T , le système de transmission SDH (Synchronous Digital


Hierarchy) est un système qui peut transporter différents types de flux comme par
exemple, les canaux du RNIS ou les cellules ATM. Son but est d'apporter un
système planétaire unique de transmission numérique normalisée. SDH a été
développé pour assurer le multiplexage sur des supports dont les débits sont de
plusieurs centaines de Mbit/s. Pour cela, il propose un jeu élémentaire de normes
internationales de multiplexage pour des liens à haut débit. Il vise à éviter
l'apparition de plusieurs standards de multiplexage pour les liens à haut débit comme
cela a été le cas pour les liens téléphoniques à faible débit utilisant PDH. Toutes les
fonctions de synchronisation sont réalisées par le système SDH, générant ainsi un
surdébit supplémentaire. Son avantage tient dans le fait que des produits SDH sont
déjà opérationnels dans les réseaux de certains opérateurs. Par ailleurs, SDH fournit à
l'ATM le support de transmission de qualité dont il a besoin en raison de la quasi
absence de correction d'erreur dans l'ATM. De plus, grâce à ses capacités de gestion,
SDH s'impose face à la PDH.

SDH est un dérivé de SONET, mais avec des normes et des débits différents. Les
débits de l'UIT-T commencent à 155,52 Mbit/s, débit désigné par STM-1
(Synchronous Transport Module level 1). La raison de ce choix est que STM-1 est le
premier signal à s'adapter au mieux aux signaux plésiochrones, en l'occurrence au
signal d'ordre 4 (139,264 Mbit/s). Chaque niveau de débit est noté STM-n. Le
premier niveau STM-1 est identique au niveau STS-3 de SONET. Le tableau 8.5
montre la relation entre les niveaux SONET et SDH.
ATM (Asynchronous Transfer Mode) 225

La trame SDH est composée d'un SOH (Section OverHead), d'un POH (Path
OverHead) et d'une zone de données (figure 8.24).

1 9 10 270

H S O H
1 P t r charge utile

HS O
STM-1
H
155,52 Mbit/s

F i g u r e 8 . 2 4 . La trame SDH

La trame STM-1 est le plus petit granule de la ligne SDH ; elle a un débit de
155,52 Mbit/s, une durée de 125 us et une fréquence de répétition de 8 kHz. La
trame comporte 19 440 bits (9 * 270 octets).

8.3.5.9. Le système de transmission en mode cellule

La trame transportée par le système de transmission correspond ici à la cellule.


Le système de transmission fournit une séquence de bits, transportée de manière
continue, sans cadencement régulier, dans laquelle la cellule est directement
transmise (figure 8.25). Comme aucune horloge n'est fournie au récepteur, l'horloge
de ce dernier peut être soit dérivée du signal reçu du nœud local, soit fournie par
l'horloge de l'équipement utilisateur. Des systèmes de ce type pourraient être utilisés
à la périphérie du réseau pour des configurations d'accès exigeant un système de
transmission optimisé.

champ
^~~de données cellule vide

en-tête cellule de
Je cellule maintenance

F i g u r e 8 . 2 5 . Système basé sur la cellule

8.3.6. Modèle de référence du RNIS-LB

Dans les systèmes de communication récents, une approche en couches est


utilisée pour l'organisation de toutes les fonctions de communication. Les fonctions
de ces couches et les relations inter-couches sont décrites dans un modèle de référence
de protocole. Ont été ainsi spécifiés :
- le modèle de référence OSI dans la recommandation X.200 en 1978,
- le modèle de référence du RNIS-Bande Etroite dans la recommandation 1.320 en
1988,
226 Architecture des réseaux haut débit

- le modèle de référence du RNIS-Large Bande dans la recommandation 1.321 en


1991.

Le modèle de référence du RNIS-BE a introduit le concept de plans séparés pour


la distinction des fonctions de gestion, de contrôle et d'usager. Ce concept a été
repris et étendu pour le RNIS-LB. Le modèle de ce dernier organise les fonctions de
communication en couches et en plans en principe homogènes et indépendants les
uns des autres.

plan de gestion

de couches
couches de

gestion
niveaux supérieurs

de plans
gestion
couche AAL

couche ATM

couche PHY |

F i g u r e 8 . 2 6 . Modèle de référence du RNIS-LB

Les plans sont au nombre de trois (figure 8.26) :

- le plan d'usager décrit le transfert d'informations d'usager ; tous les


mécanismes associés, tels que le contrôle de flux ou d'erreur, y sont inclus. Dans ce
plan, la pile de protocoles met l'accent sur la couche ATM, qui incarne le caractère
multiservice (et donc multidébit) de la technique ; cette couche est commune à
double titre : différentes couches AAL (Adaptation ATM Layer) permettent de porter
les différentes applications ; différentes couches PHY traduisent la compatibilité de
l'ATM avec différents systèmes de transmission sous-jacents (par exemple, SDH,
PDH ou transmission en mode cellule) ;

- le plan de commande matérialise le fait que les fonctions de traitement d'appels


utiliseront un réseau de signalisation fondé sur l'ATM et il comporte les fonctions
de signalisation nécessaires pour établir, superviser et libérer un appel ou une
connexion ;

- le plan de gestion illustre le fait que des liens entre couches sont
indispensables à la gestion et à l'exploitation d'un réseau. Il est scindé en deux sous-
ensembles, la gestion de plans et la gestion de couches. La gestion de plans est
responsable de la coordination de tous les plans et comprend, en conséquence, toutes
ATM (Asynchronous Transfer Mode) 227

les fonctions de gestion qui portent sur le système global. Elle n'est pas structurée
en couches, contrairement à la gestion de couches. Cette dernière réalise les
fonctions de gestion relatives aux ressources et aux paramètres résidant dans ses
entités de protocole. En particulier, elle gère les flux spécifiques d'information OAM
(Operation And Maintenance) pour chaque couche.

8.3.7. La gestion du réseau large bande

Le plan de gestion est spécifié principalement dans la recommandation 1.610 qui


décrit les fonctions de maintenance de l'interface UNI et les accès au réseau. Les
opérations de contrôle et de maintenance (OAM — Operation And Maintenance)
concernent cinq fonctionnalités (cf. tableau 8.6).

Actions Description
l'entité administrée est surveillée par des
gestion des performances fonctions de vérification continues ou périodiques
les défaillances présentes ou prévisibles sont
détection des pannes détectées par des vérifications continues ou
périodiques
la localisation de l'entité en panne est déterminée
localisation des défaillances par des systèmes de test internes ou externes si
l'information sur les pannes est insuffisante

les effets d'une entité en panne sont réduits au


maximum en la circonspectant ; l'entité est exclue
protection du système des opérations
les moyens de protection et de reconfiguration
sont activés
information sur les pannes l'information de panne est communiquée aux
et les défaillances autres entités administrées

Tableau 8.6. Fonctionnalités de F OAM

Les fonctions OAM dans un environnement ATM coïncident avec les cinq
niveaux hiérarchiques associés à ATM et PHY (figure 8.27). Ces dernières sont
réalisées au moyen de flux de maintenance bidirectionnels composés de cellules
spécifiques : les cellules OAM. Elles sont insérées ou extraites aux différents points
de connexion des VCC : commutateur, brasseur, multiplexeur, répéteur. Elles
permettent de réaliser des mesures de qualité sur les équipements situés entre les
points d'insertion et d'extraction. Les cellules de maintenance sont véhiculées par la
228 Architecture des réseaux haut débit

connexion virtuelle et sont routées comme les données normales ; elles suivent
donc le même chemin physique. La distinction entre les cellules du flux de
maintenance et celles du flux de données normales est faite grâce au champ PTI
(Payload Type Identification) de l'en-tête de la cellule (cf. 8.5.5).

Flux Niveau Connexion de voie virtuelle


OAM
Tronçon de voie
virtuelle
Voie
Couche ATM

F5
virtuelle
Connexion de conduit virtuef

Tronçon de
Conduit .Conduit virtuel
F4 virtuel

Conduit de transmissio
Conduit de
F3
transmission
Couche physique

Section numérique

F2

Section de
Point de connexion des niveaux
répétition
Extrémité des niveaux
Fl

Figure 8.27. Flux de maintenance OAM

Il existe cinq types de flux de maintenance : F l , F2, F3, F4, et F5. L'ensemble
des cellules Fl constitue un flux pour l'exploitation et la maintenance des répéteurs.
Le flux F3 a le même rôle mais opère au niveau du conduit (cf. SONET). Le flux
F2 permet la gestion du multiplexage des cellules dans une structure de trame. Les
flux F4 et F5 se situent respectivement au niveau du chemin virtuel et de la
connexion virtuelle. Les cellules OAM sont identifiées par le champ PTI de la
cellule. La hiérarchie des flux ATM détermine une portée pour chaque flux OAM à
l'interface usager-réseau (UNI) (figure 8.28).
A T M ( A s y n c h r o n o u s Transfer M o d e ) 229

B-NT2 B-NT1 LT Brasseur LT


-Xh - 0 - 0
Fl Fl
-« -
F2 F2 F2

F3 F3

F4

F5

ET : Exchange Termination
LT : Line Termination

Figure 8.28. Portée des flux à l'interface usager réseau

8.4. La coucne r n i

8.4.1. Structure de la couche PHY

La couche physique, définie dans la recommandation 1.432, est applicable à


l'interface UNI (User-Network Interface). Le support souhaité est la fibre optique
mais il est envisageable d'utiliser également des supports électriques.
La couche physique est responsable du transport correct de cellules et de la
remise, aux couches supérieures, d'information de synchronisation afin de permettre
des services tels que l'émulation de circuit.
La couche physique est divisée en deux sous-couches afin de permettre plusieurs
supports différents tout en offrant toujours le même service à la couche ATM. Il
s'agit de :
- la sous-couche TC (Transmission Convergence) qui présente à la couche ATM
un service uniforme indépendamment du support de transmission utilisé. Elle assure
les fonctions d'adaptation du débit, de génération de la séquence de contrôle HEC
portant sur l'en-tête, de délimitation des cellules, d'adaptation de trame et de
génération/réception des trames ;
- la sous-couche PM (Physical Medium) qui dépend du support de transmission
utilisé. Elle assure principalement les fonctions de synchronisation bit et d'accès au
support.
230 Architecture des réseaux haut débit

L'unité de données échangée entre les deux sous-couches est constituée d'un flot
d'octets associé à des informations de synchronisation (figure 8.29).

ATM

cellules valides
synchronisation

PHY
TC - Transmission Convergence

suite d octets
synchronisation

PM - Physical Medium

Figure 8.29. Flux d'information entre sous-couches physiques

8.4.2. La sous-couche Physical Medium (PM)

Cette sous-couche est responsable de la transmission et de la réception correctes


des bits sur le support. Elle assure principalement la synchronisation bit en
réception ainsi que les fonctions dépendantes du support (support de type optique ou
électrique). L'émetteur est tenu d'insérer des bits de synchronisation et d'assurer le
bon codage de l'information. Pour une interface électrique, il est recommandé
d'utiliser deux câbles coaxiaux de longueur comprise entre 100 et 200 m. Pour une
interface optique, la longueur de la fibre est d'au moins 800 m. Cependant, les
caractéristiques du support sont encore à l'étude.

Quatre débits d'accès sont définis à l'interface UNI [ATM Forum 94] :
44,736 Mbit/s, 100 Mbit/s et deux interfaces à 155,52 Mbit/s (STS-3c et STM1).
D'autres débits et d'autres supports physiques pourront être ultérieurement définis.

8.4.3. La sous-couche Transmission Convergence (TC)

8.4.3.1. Fonctionnalités

A ce niveau, les bits sont déjà reconnus puisqu'ils proviennent de la couche PM.
La sous-couche réalise cinq fonctions :

- la génération/réception de la trame de transmission,

- l'adaptation du flux ATM au système de transmission,


ATM (Asynchronous Transfer Mode) 23 1

- la délimitation (ou cadrage) des cellules,


- la génération/vérification du HEC (Header Error Control),

- l'adaptation du débit cellule.

Les deux premières fonctions permettent d'adapter le flux de cellules ATM au


format utilisé par le système de transmission sur le support physique et vice versa.
Elles sont donc spécifiques au système de transmission utilisé dans le réseau de
transmission (PDH, SDH, mode cellule). Les autres fonctions sont identiques quel
que soit le système de transmission.

8.4.3.2. Adaptation au système SDH

Le transport du flux des cellules ATM est fait par une projection dans un
conteneur appelé C-4. On lui ajoute un en-tête de conteneur de 9 octets, le Path
OverHead (POH), qui contient des informations de gestion de la sous-couche TC. Le
conteneur C-4 et le POH constituent un conteneur virtuel appelé VC-4 qui compose
la charge utile de la trame STM-1 (figure 8.30). Le champ POH est transmis de bout
en bout du conduit de transmission. Un de ses pointeurs (H4) est utilisé pour
déterminer le déplacement entre lui-même et la frontière de la cellule. Avec STM-1
(155,52 Mbit/s), le débit utilisable par les cellules est de 149,760 Mbit/s.

1 9 10 270

1
S O H
4 Ptr
STM-1

9
S O H
/ VC-4
VC-4 /
/
a. O

C-4
149,760 Mbit/s
I

F i g u r e 8 . 3 0 . Format du conteneur virtuel VC-4

La longueur du champ d'information de la trame SDH n'est pas multiple de celle


de la cellule. Aussi, les limites de cette dernière n'ont pas une position fixe au sein
de la trame, ce qui impose une fonction de délimitation de cellules. Les cellules sont
cadrées à partir de la première colonne et de la première ligne du tableau de la trame
STM-1 jusqu'à remplissage de la ligne (figure 8.31). Si une cellule ne tient pas
complètement sur une ligne, elle est coupée et le premier segment se trouve au bout
de la ligne ; tandis que le deuxième segment est transporté au début de la ligne i+l.
232 Architecture des réseaux haut débit

debit de
CL

gestion conteneur
O I

ATM
conteneur
virtuel
CL
O X

réseau SDH

"D
I O
ATM

Figure 8.31. Adaptation au format SDH

8.4.3.3. Adaptation au système PDH

La structure de trame est celle définie dans la recommandation G.751 (définition


des structures de trames pour le multiplexage d'affluents). La différence avec SDH
porte sur la faiblesse des moyens de maintenance offerts par cette trame. Le transport
des cellules ATM dans des trames PDH présente l'avantage d'utiliser un réseau de
transmission existant. La fourniture des fonctions de gestion équivalentes à celles de
la SDH est en cours de normalisation.

8.4.3.4. Adaptation au mode cellule

Si le système de transmission repose sur la cellule, la trame de transmission


contient exactement une cellule. La mise en trame ou cadrage ainsi que la
synchronisation sont réalisées par la fonction de délimitation de trames décrite ci-
dessous. Elle sert à retrouver la cellule dans le flux de bits.

Les informations pour l'exploitation et la maintenance de la couche physique


elle-même (qui sont véhiculées dans le SOH et le POH dans le système SDH) sont
transmises dans des cellules spéciales PL-OAM (Physical Layer-Operation And
Maintenance). Ces cellules sont identifiées par un en-tête spécial (champ Payload
Type de la cellule) et ne sont pas remises à la couche ATM. Il y a au maximum 26
cellules ATM consécutives qui seront suivies d'une cellule de gestion (figure 8.32).

26 cellules ATM maximum cellule


vide
Fl F3

Figure 8.32. Séquence de cellules et délimitation


ATM (Asynchronous Transfer Mode) 233

Une cellule de maintenance ou une cellule vide doit être insérée toutes les 26
cellules ATM car l'interface UNI reste la même quel que soit le système de
transmission (SDH ou mode cellule). Le débit utile doit donc rester le même : le
ratio 26/27 est égal au ratio 149,76/155,52.

8.4.3.5. Délimitation de cellules

Il s'agit ici de délimiter les cellules à l'intérieur du flux de bits ou d'octets délivré
par la sous-couche PM. Le mécanisme conventionnellement utilisé et qui consiste à
délimiter par des drapeaux de début et de fin n'est pas aisé à mettre en œuvre à des
vitesses élevées. Mais, comme les cellules ATM sont de longueur fixe, d'autres
mécanismes de délimitation sont par ailleurs possibles. La technique qui a été
retenue utilise le champ HEC (Header Error Control) de la cellule.

Le principe en est le suivant : si un champ HEC est reconnu correct pour n


cellules consécutives, la synchronisation est considérée comme obtenue ;
inversement, la synchronisation est considérée comme perdue si ce champ a été
trouvé incorrect pour m cellules consécutives. L'algorithme de délimitation de
cellules utilise le diagramme à trois états de la figure 8.33.

RECHERCHE

SYNC PRESYNC
n confirmations successives
ie délimiteurs de cellule corrects

F i g u r e 8 . 3 3 . Automate de delimitation de cellule

Initialement, le récepteur est dans l'état RECHERCHE. Dans cet état, le système
scrute bit par bit la suite de bits entrants tout en recherchant un mot de code de 5
octets pour lequel le calcul du HEC est correct (c'est-à-dire un en-tête correct). Si
c'est le cas, il passe dans l'état PRESYNC où les délimiteurs sont vérifiés cellule
par cellule ; n'importe quel délimiteur faux fait retourner à l'état RECHERCHE. Si
/; délimiteurs de cellule corrects et consécutifs sont découverts, le système bascule
dans l'état SYNC. Le système considère qu'il a perdu la "délimitation de cellule" si
un délimiteur de cellule est manquant m fois consécutives. Les paramètres n et m
déterminent respectivement les vitesses à laquelle le système obtient la
synchronisation de cellules et à laquelle il détecte la perte de synchronisation de
cellules. Pour les valeurs de n = 6 et m = 7 (utilisées lorsque le système de
transmission est SDH), le temps de cadrage est de l'ordre de 30 us pour un débit de
155,52 Mbit/s.
234 Architecture des réseaux haut débit

Ce mécanisme est fiabilisé en introduisant un embrouillage du champ


d'information de la cellule qui rend aléatoires les bits du champ d'information. Ce
brouilleur garantit que les bits du champ d'information suivent une séquence pseudo-
aléatoire, de manière à ce que la probabilité que le résultat du HEC corresponde au
champ d'information soit négligeable.

8.4.3.6. Calcul et vérification du champ HEC

Dans l'en-tête de chaque cellule, un champ d'un seul octet, le HEC (Header Error
Control), protège le transfert de l'en-tête de la cellule. Le champ HEC est calculé par
un polynôme générateur qui permet la correction d'une seule erreur bit et la détection
de plusieurs erreurs bit.

La couche physique ne doit transmettre que des cellules valides à la couche ATM.
Par conséquent, chaque en-tête de cellule est vérifié. Les cellules qui comportent des
erreurs multiples sont détruites alors que les cellules correctes ou corrigées sont
considérées comme valides et passées à la couche ATM. Pour minimiser les
fonctions des protocoles ATM et assurer l'indépendance sémantique d'ATM par
rapport aux informations véhiculées, le champ d'information n'est pas concerné par
cette vérification. La correction d'un seul bit en erreur (dans l'en-tête de la cellule)
n'est possible que si l'automate de délimitation des cellules est dans l'état SYNC.

L'état par défaut de l'automate de protection de l'en-tête est le mode correction.


L'automate est très bien adapté aux types d'erreurs attendus avec les systèmes
optiques, qui sont soit des erreurs simples, soit des erreurs groupées. Devant une
première erreur, l'automate fait l'hypothèse qu'il s'agit d'un groupe d'erreurs,
hypothèse infirmée ou confirmée par l'en-tête de la cellule suivante (figure 8.34).

pas d'erreur erreurs multiples erreur(s) détectée(s)


(pas action) (cellule détruite) (cellule détruite)

pas d'erreur
mode (pas d'action) mode
correction détection

erreur simple
(erreur corrigée)

F i g u r e 8 . 3 4 . Automate de détection d'erreurs sur l'en-tête de cellule

8.4.3.7. Adaptation de débit

Le débit du flux utile ATM doit être adapté à celui du système de transmission.
Le flux de cellules ATM est complété par insertion de cellules vides (figure 8.35).
En réception, ces cellules sont supprimées. Cette justification permet au flux ATM
d'ignorer toutes les caractéristiques de la structure de transmission sous-jacente autre
que le débit mis à sa disposition ; on parle d'anisochronisme à la transmission. Un
multiplex A T M peut être alors transporté par n'importe quel système de
transmission. Les cellules vides sont distinguées des autres types de cellules par un
champ de l'en-tête, le champ Payload Type. Le débit inutilisé sur une artère est
ATM (Asynchronous Transfer Mode) 235

récupéré par le filtrage des cellules vides au passage d'un multiplexeur ou d'un nœud
de commutation ATM. De ce fait, le réseau ne transporte que les informations
utiles.

cellules ATM
ATM " (débit D l )

PHY autres cellules PHY


1_ (débit D2)

cellules vides
+ - - (débit D3)

T
L I
conduit de transmission

Figure 8.35. Insertion de cellules vides

8.4.4. Services de la couche PHY

L'unité de service de la couche physique (PHY-SDU) est la cellule. La primitive


DATA.indication (présence d'une unité de données) ne communique que les cellules
valides à la couche ATM, en d'autres termes les cellules dont l'en-tête a été reconnu
correct par la vérification du HEC. Une information supplémentaire d'horloge est
également fournie, non pas pour les besoins propres de la couche ATM, mais pour
être renvoyée au niveau supérieur AAL qui pourra en déduire, si nécessaire, l'horloge
de réseau. Les fonctions liées au HEC sont exécutées par la couche PHY (figure
8.36).

DATA.request cellule valide


ATM I
en-tete champ Information
PHY horloge
HEC

en-tete k champ Information

Figure 8.36. Service PHY


DATA.indication

On distingue deux types de cellules valides :


- les cellules ATM qui sont remises au niveau ATM et qui sont soit assignées à
une application (cellules assignées) soit non assignées (cellules non assignées) telles
les cellules OAM ou les cellules de réservation de ressources ;
236 Architecture des réseaux haut débit

- les cellules du niveau physique qui ne sont pas remises à la couche ATM et
parmi lesquelles on trouve les cellules vides et les cellules de gestion (OAM) du
niveau physique.

8.5. L a c o u c h e ATM

8.5.1. Fonctions de la couche ATM

La couche ATM est définie dans les recommandations 1.150 (B-1SDN ATM
Functional Characteristics) et 1.361 (B-ISDN ATM Layer Specification). La couche
ATM est totalement indépendante du support physique utilisé et par conséquent de la
couche PHY. Par ailleurs, afin de satisfaire sa vocation multiservice, la couche
ATM est indépendante de l'application. Quatre fonctions se dégagent de cette
couche :

- le multiplexage/démultiplexage de cellules : dans le sens de la transmission,


les cellules en provenance de VP et VC individuels sont multiplexées formant ainsi
un flux composite, normalement non continu. Côté récepteur, la fonction de
démultiplexage éclate le flux de cellules entrant en plusieurs flux de cellules, un par
VP ou VC ;

- la commutation de cellules (translation de VPI/VCI) : cette fonction est


appliquée dans les nœuds de commutation et/ou les brasseurs. Dans un brasseur, la
valeur du champ VPI de chaque cellule entrante est translatée en une nouvelle valeur
de VPI pour la cellule sortante. Dans un commutateur, les valeurs des champs VPI
et VCI sont translatées en de nouvelles valeurs ;

- la génération/extraction de l'en-tête de cellule : cette fonction est appliquée aux


points de terminaison de la couche ATM. En émission, après avoir reçu le champ
d'information de la cellule en provenance de la couche supérieure (AAL). la fonction
de génération ajoute les quatre premiers octets de l'en-tête (le HEC étant calculé par
la sous-couche TC). En réception, la fonction d'extraction enlève l'en-tête et passe
uniquement le champ d'information de la cellule à l'AAL ;

- le contrôle de flux générique (GFC — Generic Flow Control) : cette fonction


n'est présente qu'à l'interface UNI. Elle est encore sujette à des travaux de
normalisation. A l'origine, il s'agissait de fournir à des terminaux le moyen de se
partager de façon équitable le même accès au réseau dans des configurations logiques
en multipoint.

8.5.2. Structure de l'en-tête de la cellule

La recommandation 1.113 (Vocabulary of terms for broadband Aspects of ISDN)


définit la cellule comme suit : "Une cellule est un bloc de longueur fixe. Elle est
ATM (Asynchronous Transfer Mode) 237

identifiée par un en-tête à la couche ATM du modèle de référence RNIS-LB" (figure


8.37). L'en-tête ne comporte que des informations relatives, directement ou
indirectement, au bon acheminement de la cellule à travers le réseau. L'octet de
protection correspond au champ HEC utilisé par la couche PHY.

en-tête 4 octets

ATM
protection 1 octet PHY

champ 48 octets

AAL et application
Information

Figure 8.37. Cellule et couches du modèle RNIS-LB

Deux structures d'en-tête ont été définies, une par type d'interface. Ces interfaces
sont l'UNI (User-Network Interface) ou le NNI (Network-Node Interface) (figure
8.38).

8 7 6 5 4 3 2 1 8 7 6 5 4 3 2 1

1 GFC VPI 1 VPI

2 VPI VCI 2 VPI VCI

3 VCI 3 VCI

4 VCI PTI CLP 4 VCI PTI CLP

5 HEC 5 HEC

(a) à l'interface UNI (b) à l'interface NNI

Figure 8.38. Les structures d'en-tête de cellule

A l'interface UNI, l'utilisation des différents champs est la suivante :

- GFC (Generic Flow Control) permet l'accès multiple à une connexion


virtuelle ;
- VPI (Virtual Path Identifier) et VCI (Virtual Channel Identifier) identifient la
connexion virtuelle établie et permettent la commutation des cellules ;
238 Architecture des réseaux haut débit

- PTI (Payload Type Identifier) identifie le type du contenu de la zone de


données ;

- CLP (Cell Loss Priority) indique le niveau de priorité à la perte de la cellule,


haut lorsque CLP = 0 et bas lorsque CLP = 1 ;

- HEC (Header Error Control) contient la séquence de contrôle d'erreur sur l'en-
tête (calculée par la couche PHY).

L'en-tête de cellule utilisé à l'interface NNI ne diffère du précédent que par


l'absence du champ GFC et par l'extension du champ VPI de 8 à 12 bits.

8.5.3. La gestion des erreurs

Trois types d'erreurs peuvent affecter la cellule transmise :

- les pertes et les arrivées incorrectes de bits de la zone de données, suite à des
erreurs de transmission,

- les pertes et les arrivées incorrectes de cellules causées par un mauvais routage
de la cellule, lui-même dû à une erreur de transmission sur l'en-tête ou à une
mauvaise interprétation de l'en-tête par un commutateur,

- les pertes de cellules dues à la congestion d'une file de commutateur.

Les erreurs ne sont pas reprises au niveau ATM mais laissées au soin des
couches supérieures.

8.5.4. Priorités

Deux sortes de priorités existent :

- la priorité spatiale : certaines cellules ont une probabilité de perte plus élevée
(en cas de congestion, il y a élimination des cellules de faible priorité) ;

- la priorité temporelle : certaines cellules peuvent rester dans le réseau plus


longtemps que d'autres (lorsque la durée de vie des cellules est limitée, elle permet
d'augmenter les performances temps réel du réseau).

La fourniture de ces priorités est réalisée de deux manières :

- explicitement, en définissant un champ dans l'en-tête pour identifier la priorité


(bit CLP),

- implicitement, en affectant à l'établissement une priorité à chaque connexion


virtuelle, négociée par signalisation.
ATM (Asynchronous Transfer Mode) 239

8.5.5. Type du contenu

Les cellules de données et les cellules de maintenance OAM suivent le même


chemin. On les distingue grâce au champ PTI (Payload Type Identifier) de l'en-tête.
Le champ PTI indique (tableau 8.7) :

- le type de contenu transporté (cellule de données utilisateur, cellule de


gestion),
- le type de données utilisateur (niveau 0, niveau 1),
- si la cellule a rencontré des situations de congestion.

valeur signification
000 données utilisateur, niveau 0. pas de congestion
001 données utilisateur, niveau 1, pas de congestion
010 données utilisateur, niveau 0, congestion
011 données utilisateur, niveau 1, congestion
100 cellule de gestion du flux OAM F5 de bout en bout
101 cellule de gestion du flux OAM F5 local
110 cellule de gestion des ressources
111 réservé

Tableau 8.7. Le champ PTI

8.5.6. Services de la couche ATM

L'unité de service de la couche ATM (ATM-SDU) est le champ d'information de


48 octets de la cellule. Seules deux primitives sont définies pour le transfert de
données dans le plan d'usager :

- ATM_DATA.request permet à la couche AAL de demander à la couche ATM


le transfert de données. Elle utilise les paramètres suivants :
• les données à transmettre contenues dans l'ATM-SDU,
• la priorité à la perte (valeur du bit CLP),
• l'indication d'encombrement (valeur du champ PTI),
• l'indication de type du données (valeur du champ PTI) ;

- ATM_DATA.indication permet à la couche ATM de signaler à la couche AAL


la réception de données. Elle transmet les paramètres suivants :
• les données reçues contenues dans l'ATM-SDU,
• l'indication d'encombrement (valeur du champ PTI),
• l'indication du type de données (valeur du champ PTI).

D'autres paramètres sont en cours de discussion dans les instances de


normalisation.
240 Architecture des réseaux haut débit

8.6. La couche AAL

8.6.1. Rôle

La couche ATM étant indépendante du type de service offert à l'application, la


couche AAL doit assurer la translation et l'adaptation entre ce que demande
l'application et ce qu'offre le service ATM. L'indépendance entre application et
réseau s'exprime selon deux aspects, temporel et sémantique. Reprenons les
caractéristiques du service de couche ATM :

- caractéristiques temporelles :
• indépendance du rythme terminal/réseau : la mise en cellules des
informations du terminal (source) se fait selon son activité et à sa propre cadence
(non pas à celle du réseau). Côté réseau, l'émission de ces cellules se fait lorsque
le réseau a des ressources disponibles. Tout lien de synchronisation entre
l'horloge du terminal et celle du réseau est donc supprimé : on parle
d'asynchronisme ou encore d'anisochronisme à l'accès ;
• respect de l'ordre de la séquence d'émission ;
• variation du délai de transfert des cellules (gigue de cellule ou CDV — Cell
Delay Variation) ;
• absence de contrôle de flux au niveau cellule ;
- caractéristiques sémantiques :
• transparence au réseau : il n'y a pas de relation entre les unités de service
(générées par les applications) et les unités de transfert (les cellules) ;
• absence de tout contrôle du réseau sur les données utilisateur transportées ;
• possibilité d'erreurs de transmission affectant l'information (puisque seules
les erreurs portant sur l'en-tête de cellule sont détectées par le HEC) ;
• pertes ou insertions (gains) de cellules.

On peut ainsi voir que le format fixe des cellules entraîne une conversion de
format, que l'indépendance temporelle application/réseau impose si nécessaire une
synchronisation du destinataire sur la source et que l'absence de contrôle d'intégrité
sur les informations transférées nécessite des mécanismes de contrôle d'erreur de bout
en bout. En fait, les mesures à prendre pour corriger ces effets dépendent des
contraintes posées par les applications : si l'application ne présente aucun caractère
temps réel, aucun mécanisme de récupération d'horloge n'est nécessaire (cas d'un
service de données par exemple) ; par ailleurs, si l'application n'a pas de contrainte
forte quant à l'intégrité des données, aucun mécanisme de contrôle d'erreur n'est
nécessaire (cas d'un service de vocal). Une série de mécanismes d'adaptation destinés
à répondre aux contraintes de format, de temps et de sémantique propres aux
différentes applications ont été définis. Le rôle de l'AAL est donc de restaurer la
qualité requise par l'application à partir de la qualité offerte par le réseau.
ATM (Asynchronous Transfer Mode) 241

8.6.2. Classification des services

Les services large bande qui sont fournis au-dessus de la couche ATM sont
répertoriés en quatre classes, chacune ayant ses propres exigences vis-à-vis de l'AAL.
La classification repose sur trois paramètres :

- la relation temporelle entre la source et la destination : quelques services


nécessitent une relation temporelle entre la source et la destination, pour d'autres,
elle n'a pas lieu d'être. Par exemple, les échantillons de voix numérisée à 64 kbit/s
ont une relation temporelle claire, ce qui n'est pas le cas d'un transfert de fichiers
entre machines. Quelquefois, les services à relation temporelle sont également
appelés services temps réel ;

- le débit binaire : certains services présentent un débit constant, d'autres un


débit variable ;

- le mode de connexion : les services peuvent être soit connectés soit non
connectés.

Parmi les huit combinaisons théoriquement possibles ont été retenues les quatre
classes suivantes (tableau 8.8) :

classe A classe B classe C classe D


synchronisation nécessaire non nécessaire
débit constant variable
mode connecté non connecté

Tableau 8 . 8 . Les quatre classes de service et leurs caractéristiques

Des exemples possibles sont :

- pour la classe A : la voix à 64 kbit/s et la vidéo à débit constant (ces services


sont du type émulation de circuit) ;

- pour la classe B : les services audio et vidéo à débit variable ;

- pour la classe C : le transfert de données et la signalisation en mode


connecté ;

- pour la classe D : le transport de données en mode non connecté (un exemple


étant donné par SMDS).
242 Architecture des réseaux haut débit

8.6.3. Structuration de la couche AAL

L'AAL est divisée en deux sous-couches : la SAR (Segmentation And


Reassembly), sous-couche inférieure, et la CS (Convergence Sublayer), sous-couche
supérieure.

8.6.3.1. La sous-couche SAR


Cette sous-couche est orientée réseau et elle est responsable du changement de
format entre les AAL-SDU et les cellules. En émission, elle segmente la AAL-SDU
selon la longueur appropriée au champ d'information d'une cellule ATM. Elle
masque donc aux couches supérieures la transmission par cellules. En réception, elle
réassemble les contenus du champ d'information des cellules ATM afin de restituer
le flux d'origine pour la couche supérieure. De manière générale, les fonctions
couvertes par SAR concernent la segmentation/réassemblage et la détection des
pertes/gains de cellules (par numérotation).

8.6.3.2. La sous-couche CS
La sous-couche CS est orientée service et elle est de loin la plus complexe des
deux sous-couches de l'AAL. Son rôle est de fournir le service AAL au niveau de
l'AAL-SAP. Elle comporte les fonctions spécifiques à la restauration des
caractéristiques du service considéré. Par conséquent, chaque service fait appel à une
CS dédiée et adaptée à ses exigences propres. Il faut donc définir des CS sur mesure
au cas par cas. En effet, il est difficilement envisageable de couvrir l'ensemble des
besoins des applications avec quelques CS génériques. De façon générale, les
fonctions couvertes par CS portent sur le multiplexage de connexions AAL sur une
connexion ATM, la reprise sur erreurs (pertes), la récupération d'horloge
(synchronisation de bout en bout) et l'absorption de la gigue de cellule.
Dans l'état actuel des travaux de normalisation, il n'y a pas de points d'accès au
service (SAP) définis entre ces sous-couches. Dans certaines applications, SAR
et/ou CS peuvent être vides. La recommandation 1.363 décrit les combinaisons de
protocoles SAR et CS à utiliser avec les différentes classes de service. Néanmoins,
d'autres combinaisons peuvent être utilisées et d'autres SAR et CS peuvent être
définies.

8.6.4. Mécanismes utilisés par l'AAL

Les protocoles de la couche A A L reposent sur les mécanismes de segmentation


de la SDU, de compensation de la gigue cellule, de traitement des pertes et gains de
cellules et de synchronisation des extrémités.
ATM (Asynchronous Transfer Mode) 243

8.6.4.1. Segmentation

La segmentation des données utilisateur se fait en cinq étapes (figure 8.39) :

application SDU utilisateur


1
,
CS-PDU
partie utile
ES-
AAl.

segmentation - ' ajout du préfixe ' ' i


SAR

'éassemblage et du .uffixeSAR 1 SAR-PDU


partieutile
i ^ l É
ajout de l'en-tête AT vl ' cellule
AT1V

j^J^ partie utile O'y'y'

F i g u r e 8 . 3 9 . Segmentation au sein de la couche AAL

1. AAL reçoit la SDU utilisateur


2. CS y ajoute un suffixe et un préfixe pour constituer la CS-PDU
3. SAR découpe la CS-PDU en morceaux de taille fixe pour l'adapter au champ
d'information de la cellule
4. SAR ajoute également des informations de contrôle (qui dépendent du service
AAL)
5. Les SAR-PDU (ou segments) sont passées à la couche ATM

8.6.4.2. Compensation de la gigue de cellule

La gigue représente les variations des temps de transfert des cellules. Borner ces
variations revient à déterminer l'excursion maximale. Cette dernière représente la
différence entre le transfert le plus rapide et le transfert le plus lent. Une fois cette
excursion connue, il suffit alors de différer initialement la restitution au terminal
récepteur de la valeur de cette excursion (figure 8.40).

emission t ttt f
sortie du réseau
A\ A \k

sortie de l'AAL --•>-:t--f-:t-,t


délai initial
de restitution

F i g u r e 8 . 4 0 . Compensation de la gigue cellule


244 Architecture des réseaux haut débit

8.6.4.3. Traitement des gains et pertes de cellules

La détection des pertes et des gains de cellules est faite grâce à une numérotation
en séquence des cellules émises. La numérotation est une fonction de la sous-couche
SAR. Elle est faite modulo 8 dans le champ SN (Sequence Number). Les cellules
insérées sont détruites. Les pertes de cellules sont signalées à la sous-couche CS qui
entreprend les actions spécifiques à chaque application, les alternatives possibles
étant de :

a) ne rien faire ;
b) s'accommoder de la perte en masquant le défaut : avec les informations déjà
reçues, le récepteur va chercher à imaginer les informations manquantes. Par
exemple, pour une application vidéo, il peut y avoir interpolation entre les points
adjacents ou recopie des points manquants à partir de l'image précédente ;

c) tenter de recréer le champ d'information manquant à l'insu de l'application :


des codes correcteurs sont insérés dans le flux. La méthode est puissante mais elle
doit être appréciée selon deux paramètres, le surdébit (overhead) engendré et le temps
de traitement associé ;
d) procéder à la retransmission du champ d'information manquant.

Bien évidemment, le choix de l'action à entreprendre dépend du service


considéré : si l'on a affaire à un service à contraintes temps réel (de la vidéo par
exemple), l'action d) n'est pas envisageable à cause du délai de propagation trop
important que cela engendrerait ; a contrario, l'action d) est préférable aux autres
pour un service de transfert de données informatiques.

8.6.4.4. Synchronisation des extrémités

La synchronisation des extrémités permet d'obtenir un rythme d'émission des


données équivalent à celui de leur réception. Elle sert aussi à corriger les variations
de fréquence de l'horloge de restitution. Les méthodes de synchronisation se divisent
en deux familles : synchronisation du récepteur sur l'émetteur et synchronisation
grâce à l'horloge réseau.

Une méthode de synchronisation entre le récepteur et l'émetteur consiste en


l'asservissement de l'horloge de restitution sur le niveau de remplissage du tampon
de réception (figure 8.41). Cette méthode utilise le fait que le réseau ATM véhicule
une horloge de manière implicite en comptant le nombre de bits par seconde
parvenant au récepteur. Néanmoins, il faut être en mesure d'éliminer la gigue qui
perturbe la mesure du niveau de remplissage. Ce procédé ne fonctionne correctement
que pour des débits d'émission constants.
ATM (Asynchronous Transfer Mode) 245

du réseau

max accélère

moyen H)
ralentit
min rythme
f d'extraction
vers les couches supérieures

Figure 8.41. Synchronisation par asservissement sur le niveau de remplissage

La deuxième méthode consiste à synchroniser les deux extrémités sur une


horloge de référence commune, typiquement celle fournie par la couche physique à
savoir le réseau de transmission. Cette méthode ne fonctionne pas lorsque l'une des
extrémités est raccordée au RNIS-LB via un réseau privé local (qui est purement
asynchrone).

8.6.5. Types d'AAL

Les contraintes de service ne sont pas les mêmes pour chacune des quatre classes
de service. Le service AAL est rendu avec des variantes qui donnent lieu à plusieurs
types de protocole AAL. L'UIT-T a choisi de développer un nombre limité de
protocoles AAL ; actuellement, quatre types d'AAL sont déjà définis ou en cours de
définition.

La correspondance classe de service/type d'AAL n'est pas encore définitive. Le


tableau 8.9 donne cependant une première ébauche de correspondance :

classes de services A B C D

type d'AAL 1 2 3/4 ou 5

Tableau 8.9. Correspondance entre classes et types d'AAL

Jusqu'en juin 92, les quatre types suivants d'AAL étaient définis :

- AAL Type 1 : service à contraintes temporelles et à débit constant,

- AAL Type 2 : service à contraintes temporelles et à débit variable,

- AAL Type 3 : service sans contraintes temporelles (données), à débit variable


et en mode connecté,

- AAL Type 4 : service sans contraintes temporelles (données), à débit variable


et en mode non connecté.
246 Architecture des réseaux haut débit

Début 1994, les deux derniers types ont été regroupés en raison de leur grande
ressemblance dans un même type tandis que sous la poussée de certains constructeurs
on définissait un nouveau type également adapté au transfert de données :

- A A L Type 3/4 : service sans contraintes temporelles (données) à débit


variable,
- A A L Type 5 (SEAL — Simple and Efficient Adaptation Layer) : service sans
contraintes temporelles (données) en mode non connecté.

Pour les AAL de données (3/4 et 5), la CS subit un découpage supplémentaire en


deux sous-couches, CPCS (Common Part Convergence Sublayer) qui comporte les
fonctions communes de la CS et SSCS (Service Specific Convergence Sublayer) qui
comporte des fonctions spécifiques à un service donné (figure 8.42).

AAL-SAP
SSCS
Service Specific CS
(éventuellement nulle)
CS-

primitives-
CPCS I

AAL

Common Part CS

-primitives—
SAR

SAR

ATM-SAP

F i g u r e 8.42. Découpage des AAL de donnée

8.6.6. AAL 1

L'AAL de type 1 est dédiée aux services de classe A . Son utilisation sert à rendre
un service d'émulation de circuit. Elle offre les services suivants :

- le transfert de SDU avec un débit d'émission constant et leur remise au même


débit,
- le transfert d'information temporelle entre la source et la destination,
- le transfert d'information de structure entre source et destination,
- l'indication, si nécessaire, de perte ou d'erreur sur l'information non récupérée
par l'AAL.
ATM (Asynchronous Transfer Mode) 247

8.6.6.1. Fonctions de la SAR

La couche SAR définit un format de SAR-PDU sur 48 octets dont 47 octets


utiles (figure 8.43).

4 bits 4 bits 47 octets

SNP SN charge utile


en-tête

Figure 8.43. Format de la SAR-PDU de l'AAL I

La charge utile (payload) est constituée de 47 octets provenant de la CS-PDU. Le


champ SN (Sequence Number) est constitué d'un bit CSI (CS Indicator) indiquant
l'existence d'une fonction CS (CSI est fourni pour la signalisation) et d'un numéro
de séquence SC (Sequence Count) codé sur 3 bits. Ce dernier est initialise à 0 et
incrémenté modulo 8 ; il permet à la CS de détecter des pertes ou des insertions de
payloads de SAR-PDU — qui correspondent à des pertes ou des insertions de
cellules. Le champ SNP (Sequence Number Protection) protège l'en-tête de la SAR-
PDU avec la correction d'erreurs simples et la détection d'erreurs multiples. Il
correspond à un CRC-3 renforcé par un bit de parité. Le récepteur passe le résultat de
sa vérification (valide/invalide) à la CS.

8.6.6.2. Fonctions de la CS

Elles dépendent du type de service traité : émulation de circuit, vidéo, voix,


audio. Ce sont la récupération en réception de la structure des données, la
récupération en réception de l'horloge d'émission, la gestion de la gigue de cellule, la
fourniture de rapports de performance de bout en bout (occurrences de
pertes/insertions de cellules, de famine/débordement de tampons, d'erreurs bit, etc.) et
le contrôle d'erreur. Pour ce dernier, dans le cas de l'émulation de circuit et de la
vidéo, le SC (Sequence Count) passé par l'émetteur et qui est transporté par la SAR
permet de détecter puis de détruire les insertions de cellules. Par ailleurs, SC associé
au niveau de remplissage du tampon de réception permet de détecter les pertes de
cellules : elles peuvent être compensées en introduisant des payloads de SAR-PDU
de bourrage. Pour la vidéo, de manière optionnelle, l'information manquante peut
être récupérée en utilisant un mécanisme d'autocorrection (FEC — Forward Error
Control) associé à un mécanisme d'entrelacement d'octets.

8.6.7. AAL 2

L'AAL de type 2 est dédiée aux services de classe B. Les services qu'elle offre
sont :

- le transfert de SDU avec un débit d'émission variable,


- le transfert d'information temporelle entre la source et la destination,
248 Architecture des réseaux haut débit

- l'indication, si nécessaire, de perte ou d'erreur sur l'information non récupérée


par l'AAL.

Ces fonctions sont en cours d'étude.

8.6.8. AAL 3/4

L'AAL de type 3/4 est dédiée aux services de données orientés connexion ou sans
connexion (classes C et D). Les caractéristiques de service sont :

- le transfert de l'AAL-SDU d'un AAL-SAP vers un ou plusieurs AAL-SAP à


travers le réseau ATM (figure 8.44) ;

(AAL-SAP AAL-SAP) AAL-SAP (AAL-SAP) (AAL-SAP)

connexion A A L connexion A A l

AAL
ATM
connexion ATM connexion ATM
point-à-point multipoint

Figure 8.44. Connexions AAL 3/4

- le choix d'une qualité de service (QoS — Quality of Service) via le choix d'un
AAL-SAP pour le transfert de données (figure 8.45) ;

(AAL-SAP?) AAL-SAP2) (AAL-SAP3J

QoSl QoS2 QoS3


AAL

lATM^SAPl) IATM-SAP
ATM

Figure 8 . 4 5 . Choix de la QoS à l'AAL 3/4

- 1 existence de deux modes de service :


• le mode message par lequel une AAL-SDU est transportée dans une AAL-
IDU (Initial Data Unit) (figure 8.46 (a)),
ATM (Asynchronous Transfer Mode) 249

• le mode continu par lequel une AAL-SDU est transportée en plusieurs


AAL-IDU (figure 8.46 (b)) ;

AAL-SDU

- interface A A L — AAL-IDU

SSCS-PDU

(a) mode message

AAL-SDU

nterface AAL AAL-IDU AAL-IDU AAL-IDU-

SSCS-PDU

(b) mode continu

F i g u r e 8 . 4 6 . Modes de service

- l'existence de deux modes de fonctionnement :


• le mode assuré par lequel toute AAL-SDU assurée est remise avec le
contenu exact envoyé par l'utilisateur,
• le mode non assuré par lequel des AAL-SDU entières peuvent être altérées
voire perdues.

8.6.8.1. Fonctions de la SAR


Ces fonctions permettent de transférer plusieurs SAR-SDU de longueur variable
de façon simultanée sur une même connexion ATM entre entités AAL.

La fonction de segmentation et de réassemblage consiste à accepter des SAR-


SDU de longueur variable de la CPCS et à construire des SAR-PDU contenant
jusqu'à 44 octets de données (figure 8.47).

en-tête— — charge utile • suffixe •

ST SN MID pay load LI CRC


2 bits 4 bits 10 bus 44 octets 6 bits 10 bits

F i g u r e 8 . 4 7 . Format de la SAR-PDU de l'AAL 3/4

Il y a préservation de la SAR-SDU grâce aux champs ST (Segment Type) et Ll


(Length Indicator). ST indique si la SAR-PDU véhicule le début (valeur BOM), un
segment intermédiaire (valeur COM), la fin (valeur EOM) ou l'intégralité (valeur
250 Architecture des réseaux haut débit

SSM) d'une SAR-SDU. Ll donne le nombre d'octets de données d'utilisateur dans le


champ payload.

Le contrôle d'erreur est assuré grâce au champ CRC (Check Redundancy Control)
de la SAR-PDU. Les SAR-PDU erronées sont rejetées. Il est toutefois prévu de
fournir une option de remise de données altérées avec l'indication adéquate en mode
non assuré. Les pertes/insertions de SAR-PDU sont détectées grâce au champ SN
(Sequence Number). Les SAR-SDU avec pertes ou insertions de SAR-PDU sont
rejetées ou bien délivrées avec l'indication appropriée.

Le multiplexage/démultiplexage de connexions AAL-CPCS sur une même


connexion ATM est réalisé grâce au champ MID (Multiplexing IDentifier) : toutes
les SAR-PDU d'une même SAR-SDU ont le même MID. Le MID étant spécifique à
une CPCS-PDU, l'entité AAL réceptrice peut procéder au réassemblage de la CPCS-
PDU. Ce même champ MID permet également le maintien en séquence des SAR-
SDU à l'intérieur d'une connexion CPCS.

Il est possible d'abandonner (en mode continu) une SAR-SDU partiellement


transmise, par l'utilisation d'une SAR-PDU d'abandon (identifiée par des valeurs
particulières de champs : ST = EOM, payload = 0, Ll = 63).

8.6.8.2. Fonctions de la CPCS

La CPCS présente les caractéristiques de service suivantes :

- le transfert non assuré de trames de données d'utilisateur de longueur


quelconque (mais comprise entre 1 et 63 535 octets),

- une ou plusieurs connexions CPCS peuvent être établies entre deux entités
CPCS homologues,

- les connexions CPCS sont établies par le plan de commande ou le plan de


gestion,

- les CPCS-SDU sont maintenues en séquence sur chaque connexion CPCS.

en-tete • suffixe

CPI Btag BASize payload PAD AL Etag Length


1 octet 1 octet 2 octets n octets 1 octet 1 octet 2 octets
0<n<3

Figure 8.48. Format de la CPCS-PDU de l'AAL 3/4

La sémantique et le rôle de chacun des champs sont les suivants :

- CPI (Common Part Indicator) permet d'interpréter les autres champs du préfixe
(header) et du suffixe (trailer) en indiquant, entre autres, les unités utilisées pour
BASize et Length ;
ATM (Asynchronous Transfer Mode) 25 1

- Btag (Beginning Tag) permet d'associer le préfixe et le suffixe de la CPCS-


PDU, le principe étant le suivant : l'émetteur insère la même valeur dans les
champs Btag et Etag d'une CPCS-PDU donnée et en change pour chaque nouvelle
CPCS-PDU (pour une valeur de MID donnée). Le récepteur vérifie alors la cohérence
entre le champ Btag de l'en-tête et le champ Etag de l'en-fin (il ne vérifie pas la
séquence de Btag/Etag sur une succession de CPCS-PDU) ;

- BASize (Buffer Allocation Size) indique à l'entité homologue réceptrice les


besoins en tampons pour recevoir la CPCS-SDU. En mode message, sa valeur
correspond à la longueur du payload de la CPCS-PDU, alors qu'en mode continu, sa
valeur est supérieure ou égale à la longueur du payload ;

- PAD (PADding) est nécessaire pour avoir un payload multiple de 4 octets. Ce


champ contient de 0 à 3 octets mis à 0 qui seront ignorés en réception ;

- AL (ALignment) est un octet de bourrage mis à 0 afin d'obtenir un suffixe de


4 octets ;
- Etag (End Tag) permet l'association du préfixe d'une CPCS-PDU avec son
suffixe ;
- Length est la longueur du payload de la CPCS-PDU.

Les fonctions de la CPCS dépendent du mode de service de son utilisateur


(message ou continu) et couvrent :
- la préservation des CPCS-SDU au niveau de leur délimitation et de leur
transparence (champs Btag/Etag) ;
- le contrôle d'erreur : les CPCS-SDU corrompues (Btag/Etag incorrect,
longueur reçue ne correspondant pas au champ Length, débordement de tampon,
format de CPCS-PDU incorrect, erreurs signalées par la SAR, etc.) sont soit rejetées
soit délivrées en option à la SSCS avec l'indication adéquate ;

- la communication à l'entité réceptrice des besoins maxima en tampons pour


recevoir la CPCS-SDU (champ BASize) ;
- l'abandon d'une CPCS-SDU partiellement transmise.

8.6.8.3. Fonctions de la SSCS

Les fonctions de la SSCS sont à l'étude. Selon le mode de service et le mode de


fonctionnement, elles comporteront vraisemblablement le blocage/déblocage, la
segmentation/réassemblage, le contrôle d'erreur, le contrôle de flux et la gestion des
connexions AAL 1-vers-N (multicast).
252 Architecture des réseaux haut débit

8.6.9. AAL 5

L'AAL de type 5 traite également les services de données mais en mode non
connecté. L'utilisation visée est le transfert de données sur un réseau local ATM ou
l'interconnexion de réseaux locaux via un réseau ATM grande distance.

8.6.9.1. Fonctions de la SAR

La sous-couche SAR est réduite à son expression minimum (découpage en


segments de 48 octets). La SAR accepte des SAR-SDU de longueur variable mais
multiples de 48 octets et construit des SAR-PDU contenant 48 octets de données de
la SAR-SDU (figure 8.49). Il n'y a pas d'en-tête SAR à proprement parler puisque la
sous-couche SAR se réduit en fait à un seul bit dans l'en-tête de cellule ATM.

en-tête
~de cellule -
-SAR-PDU

;PTI; payload
5 octet; 48 octets

F i g u r e 8 . 4 9 . Format de la SAR-PDU de l'AAL 5

La délimitation des trames se fait hors bande, contrairement à la SAR de l'AAL


3/4. En effet, la SAR utilise le paramètre AUU (ATM-layer user to ATM-layer user)
des primitives ATM pour indiquer qu'une SAR-PDU contient la fin d'une SAR-SDU
et ce faisant, fournit ainsi une indication de fin de SAR-SDU. Le champ PTI
(Payload Type Identifier) de l'en-tête de cellule véhiculera de bout en bout la valeur
du paramètre AUU. Cette violation volontaire de l'indépendance des couches de
protocole permet un gain en performances.

De plus, la SAR offre des fonctions de transfert d'information de congestion et de


priorité à la perte entre ses couches supérieures et sa couche inférieure, les transferts
s'effectuant dans les deux sens.

8.6.9.2. Fonctions de la CPCS

La CPCS présente les caractéristiques de service suivantes :

- le transfert non assuré de trames de données utilisateur de longueur quelconque


(de 1 à 65 535 octets), ainsi que le transfert, pour chaque trame, d'un octet
indépendant d'information utilisateur,
- la connexion CPCS est établie par le plan de commande ou le plan de gestion,
- détection et indication d'erreur (erreur bit, perte/gain de cellule),
- intégrité de séquence des CPCS-SDU sur chaque connexion CPCS.
ATM (Asynchronous Transfer Mode) 253

Les champs de la CPCS-PDU (figure 8.50) ont la sémantique et le rôle


suivants :
- le payload (charge utile) véhicule la CPCS-SDU et représente donc un nombre
entier d'octets compris entre 1 et 65 535 ;
- PAD (PADding) permet d'aligner la fin du suffixe sur une frontière de
48 octets ;
- CPCS-UU véhicule de façon transparente l'octet qui correspond à l'information
CPCS User-to-User ;

- CPI (Common Indication Part) a pour fonction première d'aligner le suffixe


sur 8 octets, d'autres fonctions restant à l'étude ;

- Length donne la longueur du payload.

- CRC permet de détecter des erreurs sur l'ensemble de la CPCS-PDU (sauf le


champ CRC lui-même).

en-fin

payload PAD CPCS-UU CPI Length CRC


n octets 1 octet 1 octet 2 octets 4 octets
0 < n < 47

Figure 8.50. Format de la CPCS-PDU de l'AAL 5

Tout comme pour l'AAL 3/4, les fonctions de la CPCS dépendent du mode de
service de son utilisateur (message ou continu). Elles couvrent (la liste n'est pas
définitive) :
- la préservation des C P C S - S D U au niveau de leur délimitation et
transparence ;
- la préservation de l'information CPCS User-to-User par le transfert transparent
d'un octet d'utilisateur à utilisateur (champ CPCS-UU) ;

- la détection et la gestion d'erreurs : les CPCS-SDU corrompues (erreurs


détectées par le CRC, incohérence entre le champ Length et la longueur de la trame
effectivement reçue, etc.) sont soit rejetées soit délivrées en option à la SSCS avec
l'indication appropriée ;
- l'abandon d'une CPCS-SDU partiellement transmise (avec un champ Length
mis à 0) ;
- le bourrage qui est nécessaire dès lors que la SAR n'accepte qu'une longueur
multiple de 48 octets pour les SAR-SDU ;

- la gestion de l'information de congestion transférée de la SSCS à la SAR et


inversement ;
254 Architecture des réseaux haut débit

- la gestion de l'information de priorité à la perte transférée de la SSCS à la


SAR et inversement.

8.6.9.3. Fonctions de la SSCS

Elles sont à l'étude. Aux fonctions pressenties pour la SSCS pour l'AAL 3/4, il
faut ajouter le multiplexage. En effet, avec l'AAL 5, plusieurs connexions AAL
peuvent être associées à une même connexion ATM, le multiplexage devant être
réalisé au niveau SSCS.

8.6.9.4. Comparaison AAL 3/4 et AAL 5

Tout comme l'AAL de type 3/4, l'AAL de type 5 traite des données, mais d'une
façon qui se veut plus simple et plus efficace que l'AAL 3/4. Elle a été proposée à
l'origine par l'industrie informatique (SUN Microsystems, Xerox-Parc) en réaction à
la complexité des mécanismes de l'AAL 3/4. L'AAL 5 a été conçue dans un souci de
simplicité pour un environnement haut débit, principalement dans le cadre de
l'interconnexion de stations de travail. La simplicité de l'AAL 5 est à l'origine de
l'intérêt croissant qu'elle suscite et de fait, sa prédominance sur les autres types
d'AAL semble s'affirmer de jour en jour. Notons également que l'AAL 5 a été
retenue par l'ATM Forum pour le support de la signalisation du B-ISDN (SAAL) et
que l'UIT-T en fera probablement autant.

Les différences essentielles entre l'AAL 5 et l'AAL 3/4 portent sur le contrôle
d'erreur, la délimitation des trames et le multiplexage.

L'AAL 5 utilise un CRC de 32 bits au niveau CPCS au lieu d'un CRC-10 au


niveau SAR. Le contrôle se fait donc sur la base d'un datagramme au lieu d'une
cellule. Il permet non seulement de détecter des erreurs de transmission (rôle du
CRC-10 de l'AAL 3/4) mais également les cellules hors séquence (rôle du champ
SN de la SAR de l'AAL 3/4) et les concaténations de datagrammes (rôle des champs
Btag et Etag de la CPCS de l'AAL 3/4).

La délimitation des trames se fait dans la bande avec l'AAL 3/4 : les 48 octets du
payload de la cellule se répartissent en 44 octets de données utilisateur et 4 octets
d'en-tête SAR dont le champ ST qui indique le début, le milieu ou la fin d'un
datagramme. L'AAL 5 fait une délimitation hors bande, à savoir que les 48 octets de
payload sont entièrement utilisés pour véhiculer la CPCS-PDU. Il n'y a pas d'en-tête
SAR à proprement parler : la délimitation utilise directement un bit de l'en-tête de la
cellule ATM.

Pour ces deux types d'AAL, plusieurs connexions AAL peuvent être
multiplexées sur une même connexion ATM. En AAL 3/4, le multiplexage est
réalisé au niveau de la sous-couche SAR. alors qu'en AAL 5, il doit être réalisé par
la SSCS.
ATM (Asynchronous Transfer Mode) 255

8.7. Réseau local ATM


La technologie ATM est susceptible d'être appliquée aux réseaux locaux où elle
offrirait une bande passante plus importante et la possibilité d'utiliser les services
large bande. Cependant, un réseau local ATM doit interagir avec les réseaux locaux
existants (Ethernet, Token Ring, etc.), leurs protocoles et leurs équipements
d'interconnexion (ponts, routeurs). Se pose alors le problème de l'interfaçage entre
les réseaux locaux classiques et le réseau ATM. Il est possible d'interfacer ATM au
niveau de la couche Transport ou de la couche Réseau mais cette approche nécessite
de modifier la pile de protocoles dans toutes les stations d'extrémité, c'est pourquoi
une interface au niveau MAC est proposée par l'ATM Forum.
Les différences entre le service MAC et le service fourni par la couche ATM sont
évidentes puisque — rappelons-le — le service MAC fournit : un service sans
connexion, un transfert de paquets de taille quelconque et de type best effort c'est-à-
dire sans souci de retransmission des paquets perdus ou erronés, des transferts point à
point, multipoint ou en diffusion, un adressage sur 48 bits, la possibilité
d'interconnecter les sous-réseaux de manière transparente par un pont (au niveau
MAC). Pour faire converger le service ATM, il s'agit donc d'offrir l'émulation de
réseau local sur un réseau ATM.

8.7.1. Emulation de réseau local


L'émulation de réseau local pose de nombreux problèmes dont certains ne sont
pas complètement résolus à ce jour. Pour tous ces problèmes, de nombreuses
solutions ont été proposées ; l'objet n'étant pas d'en faire une présentation
exhaustive, nous nous contentons de décrire les solutions retenues par l'ATM
Forum dans [ATM Forum 95]. La discussion concernant le choix de ces solutions
est clairement exposée dans [Truong 95] et [Newman 94].

'ATM Lan 1

ATM
Lan 2 ATM
Lan 3

F i g u r e 8 . 5 1 . Segments virtuels dans un réseau local émulé


256 Architecture des réseaux haut débit

Avec le service d'émulation de réseau local, les stations sont connectées à un


réseau ATM et communiquent entre elles comme si elles étaient connectées à un
réseau local traditionnel. Un réseau local émulé fournit à un groupe de stations un
service d'interconnexion similaire à un segment Ethernet ou Token Ring ; on parle
de "segment virtuel". Plusieurs segments virtuels peuvent être définis sur un même
réseau ATM. La segmentation du réseau local d'entreprise s'est depuis longtemps
généralisée et reflète la plupart du temps l'organisation de l'entreprise en services,
équipes ou projets ; elle permet une plus grande sécurité et une limitation du trafic
diffusé.

Le réseau local ATM permet une segmentation plus souple car elle n'est que
virtuelle, c'est-à-dire qu'elle ne dépend pas de l'attachement physique d'une station à
un commutateur. Plus explicitement, des stations d'un même segment virtuel ne
sont pas forcément connectées au même commutateur ATM. La figure 8.51 montre
un réseau A T M comportant trois commutateurs ATM S I , S2 et S3 et trois
segments virtuels appelés respectivement ATM Lan 1, ATM Lan 2 et ATM Lan 3
dont les stations ne sont pas toutes reliées au même commutateur.

L'émulation de réseau local consiste principalement à réaliser un service sans


connexion sur le service connecté d'ATM, à adapter les trames MAC à la taille de la
cellule, à offrir des connexions multipoint et à mettre en correspondance les adresses
MAC avec les adresses ATM.

8.7.2. Adaptation du format de la trame

L'adaptation d'une trame MAC de longueur quelconque en une cellule de


53 octets est traitée par la couche AAL. Les deux types d'AAL candidats sont ceux
dédiés au transfert de données. L ' A A L 3/4 n'a pas été retenue pour les raisons
suivantes :

- chaque segment comporte un CRC individuel de 10 bits alors que dans l'AAL
5, le C R C (32 bits) porte sur l'intégralité de la trame et est donc plus performant,
- la fonction de multiplexage supportée par le champ MID n'est pas utile dans
un contexte de réseau local,
- la charge utile est seulement de 44 octets, au lieu de 48 pour l'AAL 5,
- le protocole est plus complexe.

8.7.3. Adressage

L'ATM Forum spécifie deux formats d'adresse ATM, l'un correspond à l'adresse
RNIS-BE E. 164 et l'autre a été défini à partir du format de l'adresse réseau OSI
(figure 8.52). Cette seconde structure d'adresse comporte un champ initial de 7 octets
alloué par les autorités nationales et internationales, suivi par un champ de 4 octets
pour le domaine de routage et la zone qui sont choisis par l'organisation. Vient
ATM (Asynchronous Transfer Mode) 257

ensuite le champ Identificateur de Système Extrémité (ESI — End System Identifier)


qui fait 6 octets et qui contient l'adresse IEEE 802 MAC. Le champ SEL n'est pas
utilisé.

AFI DCC/CD DFI AA Reserved RD Area ESI SEL

octets 1 2 1 3 2 4 6 1

AFI : Authority and Format Identifier AA : Administrative Authority


DCC : Data Country Code RD : Routing Domain
ICD : International Code Designator ESI : End System Identifier
DFI : Domain Specific Part Format Identifier SEL : Unused

Figure 8.52. Format d'adresse ATM spécifié par l'ATM Forum

8.7.4. Service sans connexion et diffusion

Une propriété intrinsèque des réseaux locaux classiques est la diffusion qui
provient du support physique multipoint. Par voie de conséquence, le service de
transfert de données est sans connexion : l'émetteur se contente d'ajouter l'adresse de
destination à sa trame qui est diffusée à toutes les stations, chacune d'elles ne
conservant que les trames qui lui sont adressées. Cette caractéristique permet une
diffusion aisée des trames à toutes les stations au moyen d'une adresse universelle
(broadcast) ou à un groupe de stations (multicast) défini par la gestion du réseau.
Dans un réseau local, la diffusion étant de toute façon effectuée au niveau physique,
c'est au niveau MAC que l'on prend la décision de conserver ou non la trame reçue
(selon que la station en est destinataire ou non).

Dans un réseau orienté connexion comme ATM, ces deux aspects ne sont pas
évidents à traiter. S'il est possible d'assurer un service sans connexion au-dessus
d'un service en mode connecté en masquant les phases d'établissement et de
libération de connexion à l'utilisateur, il est plus difficile de réaliser la diffusion dans
un réseau où elle n'est pas naturelle.
Plusieurs solutions ont été envisagées, certaines exploitant les possibilités du
VP, d'autres proposant un maillage complet de connexions entre toutes les stations.
Elles n'ont pas été retenues du fait que la signalisation qui en découlait ne permettait
pas l'utilisation de commutateurs standards. La méthode retenue utilise des serveurs
dédiés distincts des commutateurs et greffés au réseau ; on les appelle serveurs sans
connexion (connectionless server). Toutes les stations participant au service sans
connexion possèdent une connexion avec au moins un serveur tandis que les serveurs
sont connectés entre eux. Une station qui veut diffuser une trame la transmet au
serveur auquel elle est directement reliée et qui se charge de la diffuser à toutes les
stations ; la station n'a pas besoin ainsi d'établir une connexion avec toutes les
autres stations. Bien que le serveur puisse devenir le goulet d'étranglement du réseau,
cette méthode a été choisie car elle ne nécessitait aucune modification des
commutateurs et de leur signalisation.
258 Architecture des réseaux haut débit

8.7.5. Architecture et configuration du réseau local émulé

L'architecture d'une station sur le réseau local émulé est présentée en figure 8.53.
Une nouvelle couche est insérée entre la pile des couches supérieures (par exemple
TCP/IP) et la pile ATM. Cette couche, appelée LAN Emulation Client (LEC),
assure la convergence entre le service ATM et le service MAC attendu par les
couches supérieures. Elle a également le rôle de gérer la signalisation et notamment
l'ouverture de connexions spécifiques au réseau local émulé.

couches supérieures

L A N Emulation Client

AAL 5 Signalisation

ATM

P H Y

F i g u r e 8.53. Architecture d'une station du réseau local émulé

L'approche retenue combine à la fois l'émulation de réseau local et l'utilisation


de serveurs dédiés notamment à la fonction de diffusion. Un serveur est un
équipement différent du commutateur et dédié au traitement de certaines opérations
non réalisées par le commutateur.

Les composants du réseau local ATM sont les suivants (figure 8.54) :

- chaque station connectée au réseau local ATM contient un LEC LAN


Emulation Client dont la fonction principale est de fournir une interface de type
MAC aux couches supérieures. Un LEC contient les couches PHY, ATM et AAL 5
chapeautées par une couche d'interface ;

- un serveur de diffusion (BUS — Broadcast/Unkown Server) réalise la diffusion


de message à tous les LEC ou à un groupe de LEC ;

- un serveur d'émulation de LAN (LES — LAN Emulation Server) réalise pour


les LEC la correspondance entre adresse MAC et adresse ATM ;

- un serveur de configuration (LAN Emulation Configuration Server) (non


représenté sur la figure).
ATM (Asynchronous Transfer Mode) 259

LAN Emulation
Server
(LES)
A
Control
/
(S
A rfi'recf
Control
VCC
direct VCC l \
Control distribute VCC

LE Client * \
Direct VCC
X
site B
utilisateur
(LEC)

Multicast \1 / Multicast
\send VCC Multicast forward VCC Send VCC J
V k /

Broadcast/unkown
Server
(BUS)

Figure 8 . 5 4 . Composants d'un réseau local ATM

Un LEC est identifié par deux adresses : une adresse MAC sur 48 bits et une
adresse ATM sur 20 octets. Sur réception d'un message d'une couche supérieure, un
LEC essaie d'abord d'envoyer directement le message au LEC destinataire sur une
connexion ATM directe et déjà établie ; les LEC directement joignables sont
enregistrés dans une table. Si le destinataire ne figure pas dans la table, le LEC
envoie une requête de résolution d'adresse au LES qui lui renvoie l'adresse ATM
correspondant à l'adresse MAC (ce mécanisme est similaire au mécanisme ARP
d'IP). Le LEC établit ensuite une VCC avec le LEC destinataire. Lorsque le
message est destiné à plusieurs destinataires (un groupe ou toutes les stations), le
LEC source envoie ce message au BUS qui se charge de la diffusion. En réception,
le LEC effectue un filtrage des trames reçues ne conservant que celles qui comportent
sa propre adresse MAC ou une adresse de groupe auquel il appartient.

Le BUS effectue principalement la diffusion et le multicast des trames d'adresses


de destination non connues de leurs émetteurs. Il permet d'éviter l'utilisation de
connexions multipoint dont chaque station serait la racine ou des délais
d'établissement si ces connexions étaient établies dynamiquement. Chaque LEC
identifie le BUS par une VCC particulière appelée Multicast Send VCC et établie à
l'initialisation. Comme on utilise AAL 5, le message est d'abord réassemblé avant
d'être retransmis à tous les LEC sur une Multicast Forward VCC qui est
généralement une VCC point à multipoint dont le BUS est la racine. Les Multicast
Send VCC sont contrôlées par chaque LEC tandis que le Multicast Forward VCC est
contrôlé par le BUS. Le BUS peut aussi se comporter de manière intelligente en ne
retransmettant les trames de multicast qu'aux stations appartenant au groupe visé.
260 Architecture des réseaux haut débit

Le LES a pour fonction principale la résolution d'adresse (LE-ARP — LE


Address Resolution Protocol) pour un LEC source qui ne connaît pas l'adresse ATM
d'un LEC destinataire. Le LES maintient une table des adresses MAC des stations et
des adresses ATM correspondantes. Le LEC envoie sa requête de demande d'adresse
au LES sur une VCC particulière appelée Control Direct VCC. Le LES envoie sa
réponse sur la même VCC. Dans un souci d'efficacité et de simplicité, toutes les
requêtes adressées au LES et toutes ses réponses de résolution d'adresse sont
diffusées à tous les LEC sur une connexion multipoint dont le LES est la racine et
appelée Control Distribute VCC.

Le serveur de configuration est chargé de maintenir la configuration du réseau


local émulé et de permettre l'initialisation des LEC ainsi que l'ouverture de
connexion entre les LEC et leur LES responsable, évitant ainsi de configurer
manuellement le réseau. Pour obtenir l'adresse ATM de son LES responsable, le
LEC se connecte d'abord au serveur de configuration. Ensuite, il peut établir une
Control Direct VCC avec son LES. A l'initialisation, un LEC doit d'abord obtenir
l'adresse du serveur de configuration auprès des fonctions de gestion MIB définies
dans les spécifications de l'UNI [ATM Forum 94]. Si cette action échoue, le LEC
essaie d'établir une connexion avec le serveur de configuration grâce à une adresse
ATM bien connue définie par l'ATM Forum. Si cela échoue aussi, le LEC exécute
le protocole de configuration avec une valeur de VCI/VPI bien connue. Le but de
cette procédure est de détruire toute configuration antérieure des LEC et de fournir
autant que possible le service plug-and-play de l'émulation de réseau local.
Cependant, il rend plus complexe la signalisation entre les commutateurs (en
particulier pour ce qui concerne la gestion des adresses bien connues). Le protocole
de configuration de l'ATM Forum définit, en plus de l'adresse du LES, d'autres
paramètres comme le type de réseau local et offre ainsi la possibilité, pour un
équipementier, d'ajouter des caractéristiques spécifiques.

Lorsque le réseau local ATM est segmenté, chaque segment virtuel possède ses
propres BUS et LES mais il n'y a toujours qu'un seul serveur de configuration. La
définition d'un segment virtuel est faite par les VCC ouvertes entre le LEC et ses
BUS et LES ainsi que par la table de correspondance des adresses située dans le LES.
La mobilité d'une station d'un réseau local émulé vers un autre consiste donc
simplement en changement de connexions et de table.

8.7.6. Format de la trame

L'interconnexion entre un réseau local émulé et un réseau local classique est


naturellement réalisée par un pont puisque tous deux offrent un service de niveau
MAC. Cet aspect n'est pas discuté ici. Pour éviter la modification des équipements
d'interconnexion (ponts), deux types d'émulation de service ont été définis, l'un pour
Ethernet et l'autre pour Token Ring, et deux formats de trame ont par conséquent été
définis (figure 8.55). Les deux octets d'en-tête LE contiennent l'identificateur de LEC
ATM (Asynchronous Transfer Mode) 261

alloué par son LES à l'initialisation du segment virtuel ; permet au LEC de filtrer
les trames qui ne lui sont pas destinées. On trouve ensuite un champ spécifique à
Token Ring qui contient les octets AC et FC de sa trame MAC (cf. chapitre 4), puis
enfin l'adresse MAC sur 6 octets. La charge utile est constituée du reste de la trame
MAC. Le champ FCS est inutile sur le réseau local émulé puisque cette trame sera
encapsulée dans une PDU de l'AAL 5 qui calcule son propre CRC sur 32 bits.

octet octet

en-tête LE 2 en-tête LE
octet
adresse 2
AC/FC
destination
adresse
MAC
6 destination
MAC
Reste
Reste
de la trame
de la trame
MAC
MAC
(hors FCS)
(hors FCS)

(a) (b)
Format Ethernet Format Token Ring
802.3 802.5

Figure 8.55. Format de trames de données

8.8. Le contrôle de congestion

Dans un réseau ATM, le débit de transmission impose de revoir les mécanismes


habituellement mis en œuvre dans les réseaux conventionnels. Il en est ainsi du
contrôle de congestion et des mécanismes qui lui sont associés.
Un élément du réseau (commutateur, multiplexeur, brasseur ou lien) est dit "dans
un état de congestion" lorsqu'il ne peut plus respecter la qualité de service négociée
pour les connexions déjà établies, pas plus qu'il ne peut satisfaire des requêtes de
demande de connexion. La congestion est due à l'allocation statistique des ressources
et aux fluctuations imprévisibles du trafic. A titre d'exemple, un nœud de
commutation est en situation de congestion quand il y a saturation de ses mémoires
tampons et donc contention d'accès entre les différents VC pour l'utilisation de cette
mémoire.

8.8.1. Les méthodes

On distingue deux familles de méthodes pour lutter contre la congestion du


réseau. Les méthodes préventives ont pour but d'éviter que la congestion
n'apparaisse, alors que les méthodes réactives visent à éliminer la congestion une
262 Architecture des réseaux haut débit

fois celle-ci apparue. En général, les méthodes préventives ne suffisent pas à elles
seules et il est préférable de les associer à des méthodes réactives.

8.8.1.1. Méthodes préventives

Les méthodes préventives de contrôle de congestion sont souvent désignées sous


le terme de contrôle de flux. Ce dernier n'est possible que lorsque la transmission se
fait en mode connecté. Il consiste à allouer des ressources à une connexion puis à
veiller au respect de cette allocation. Il intervient donc lors de l'établissement d'une
connexion, avec l'allocation de ressources et durant sa phase de transfert de données,
avec le contrôle de trafic.

Au moment de l'établissement d'une nouvelle connexion, le réseau vérifie qu'il


dispose bien des ressources nécessaires à sa prise en charge. Les ressources
demandées concernent la bande passante sur les différents liens empruntés par la
connexion et éventuellement, les tampons à l'intérieur des commutateurs traversés.
Dans un réseau classique à commutation de paquets, l'allocation de ressources est
facilitée car le nombre de mémoires nécessaires est un paramètre fixe de
l'abonnement de l'usager (il correspond à la taille de la fenêtre d'émission) et le débit
est au maximum celui du lien physique. Dans un réseau ATM, le débit d'accès d'une
source dépend de l'application (il ne correspond pas au débit de la ligne physique) et
peut être quelconque. Le besoin en tampons n'est pas non plus constant. Aussi,
l'utilisateur devra-t-il caractériser les paramètres de trafic de la connexion dans un
descripteur de trafic afin de prévoir la consommation de ressources de cette
connexion.

Dans un réseau à commutation de paquets, on utilise généralement pour le


contrôle de trafic un mécanisme de fenêtre. L'émetteur envoie un nombre maximum
de paquets (correspondant à la taille de la fenêtre) puis attend une autorisation à
émettre du réseau. Le retour de l'acquittement survient au plus tôt un temps de
propagation plus tard. Dans un réseau ATM, le temps de propagation est très grand
devant le temps d'émission d'une cellule. Si la fenêtre est réduite, l'émetteur sera
bloqué en attente d'autorisation à émettre la plupart du temps ; si la fenêtre est
grande, les ressources réseau qui sont allouées en conséquence seront en nombre
important. Par ailleurs, un acquittement porte en général un numéro de séquence ; si
la fenêtre est grande, le numéro de séquence occupera une place importante dans l'en-
tête de la cellule, ce qui est incompatible avec sa petite taille. Pour toutes ces
raisons, un contrôle de trafic par fenêtre coulissante a été abandonné.

8.8.1.2. Méthodes réactives

Les méthodes réactives sont des méthodes exceptionnelles à utiliser lorsque la


congestion ne paraît pas se résorber d'elle-même. Dans un premier temps, elles
forcent une source à diminuer son débit par un signal de feedback. Si cela ne suffit
pas, elles peuvent supprimer les cellules des connexions impliquées puis les fermer
autoritairement. Dans un réseau ATM. le délai de propagation étant très important
ATM (Asynchronous Transfer Mode) 263

par rapport au temps d'émission, un grand nombre de cellules aura déjà pénétré dans
le réseau avant que le signal de congestion n'atteigne la source et par conséquent, de
nombreuses cellules seront perdues !

8.8.2. Le contrôle de congestion dans le RNIS-LB

La recommandation 1.371 spécifie les fonctions de contrôle de trafic et de


contrôle de congestion dans le réseau large bande. En effet, distinction est faite entre
contrôle de trafic et contrôle de congestion. Le contrôle de trafic tend à éviter la
congestion ; on parle aussi de contrôle de flux. Le contrôle de congestion vise à
minimiser l'intensité, l'étendue et la durée de la congestion lorsqu'elle est apparue.

Les deux objectifs antagonistes du contrôle de congestion sont de garantir à la


fois la qualité de transfert pour les connexions déjà établies (aucune congestion) et la
bonne utilisation des capacités de transmission. Les propriétés souhaitables pour un
mécanisme de contrôle de congestion sont :
- la flexibilité : s'adapter à tous les types de qualité de service demandés,
- la simplicité : ne pas compliquer les équipements A T M et permettre
l'utilisation maximum du réseau,
- la robustesse : l'efficacité maximum des ressources en toutes circonstances.

Le contrôle de congestion est certainement le problème le plus difficile à résoudre


avec la technique ATM [Bae 91] [Hong 91] [Rathgeb 91]. Les difficultés
proviennent non seulement de la caractéristique haut débit mais aussi des données
multimédias qui seront transportées : elles induisent des trafics aux caractéristiques
très différentes en termes de qualité de service et de flux (cf. 8.2.2).

Les contrôles de trafic et de congestion sont spécifiés grâce à un ensemble de


fonctions génériques qui peuvent être utilisées conjointement afin d'assurer la QoS
requise :
- la gestion et la réservation des ressources du réseau (NRM — Network
Resource Management) pour certaines classes de trafic ;
- l'admission d'une nouvelle connexion (CAC — Connection Admission
Control) en fonction des besoins de la nouvelle connexion et des ressources
disponibles dans le réseau ;
- le contrôle de flux avec acquittement (FC — Feedback Control) pour signaler
à l'utilisateur l'état des éléments du réseau ;
- le contrôle d ' e n t r é e du réseau ( U P C / N P C — Usage P a r a m e t e r
Control/Network Parameter Control) pour vérifier que le trafic instantané de
l'utilisateur à l'entrée du réseau ne dépasse pas le trafic déclaré lors de l'établissement
de la connexion ;
264 Architecture des réseaux haut débit

- le contrôle de priorité (PC — Priority Control) dans un élément du réseau


pour favoriser les cellules de haute priorité par rapport à celles de basse priorité.

réseau 1 réseau 2
Sb Tb NNI
B-TE B-NT2 B-NT1 UPC NPC

-CAC -CAC
-NRM -NRM
. u n
-PC y

Figure 8.56. Localisation des fonctions génériques

8.8.3. Gestion et réservation de ressources

La gestion des ressources du réseau consiste à optimiser l'utilisation des


ressources du réseau tout en satisfaisant les requêtes des utilisateurs en termes de
débit et de contraintes de QoS. Elle est laissée à la discrétion de l'opérateur.

La notion de V P C joue un rôle clé dans cette gestion. Une VPC est une
connexion de conduit virtuel d'une capacité donnée qui est préétablie à l'intérieur du
réseau. Le multiplexage statistique de sources ayant les mêmes caractéristiques (en
termes de débit et de QoS) est plus performant, aussi une VPC peut-elle être dédiée à
l'acheminement d'un type de service particulier. L'acceptation d'une connexion
virtuelle consiste alors simplement à vérifier qu'il y a encore de la bande passante
disponible sur les VPC de ce type de service jusqu'à la destination finale.
L'allocation de ressources est donc liée de façon intrinsèque au routage de la
connexion virtuelle, les deux étant souvent confondus dans une même fonction.
L'établissement de VPC est fait grâce à une étude statistique à long terme des flux
circulant sur le réseau.

8.8.4. Admission d'une nouvelle connexion

L'admission d'une nouvelle connexion a lieu chaque fois qu'une requête


d'établissement en provenance d'un utilisateur est reçue. A l'établissement,
l'utilisateur décrit les paramètres de trafic de sa connexion dans un descripteur de
trafic source. Le seul paramètre normalisé pour l'instant est le débit crête qui
correspond au débit maximum pendant la période d'activité. Le trafic peut être
composé de trafic de basse priorité et de trafic de haute priorité ; dans ce cas, seront
spécifiés le débit crête pour le trafic de basse priorité ainsi que le débit crête des
trafics agrégés. Les paramètres suivants sont encore à l'étude à l'UIT-T :

- le débit moyen qui correspond au débit calculé sur les périodes d'activité et
d'inactivité,
- la caractéristique du trafic, variable ou constant.
ATM (Asynchronous Transfer Mode) 265

- la durée de la rafale ou durée de la période d'activité,


- le type de service (par exemple, visiophone ou vidéo).

L'utilisateur définit aussi les contraintes de qualité de service de sa connexion.


Lorsque le trafic de la connexion est composé de trafic de deux types, les paramètres
de qualité de service sont spécifiés pour chacun d'eux.
Le réseau vérifie alors qu'il dispose des ressources nécessaires pour accepter cette
connexion sans pour autant altérer la qualité des connexions déjà établies.
Après acceptation de la connexion, un contrat de trafic est établi entre
l'utilisateur et le réseau au moyen de la signalisation. Ce contrat est défini par :

- le descripteur de trafic,
- les paramètres de QoS pour cette connexion,
- la tolérance de gigue maximum,
- le positionnement de l'option "marquage des cellules" liée à la fonction de
contrôle d'entrée (cf. 8.7.5.1).

8.8.5. Contrôle d'entrée du trafic

8.8.5.1. Objectifs
Le contrôle d'entrée du trafic vérifie la conformité du trafic de la connexion avec
le contrat passé à l'ouverture. L'objectif de ce contrôle est d'être capable de détecter
toute situation illégale de trafic, de pouvoir déterminer si le trafic est conforme, de
réagir rapidement à toute violation, d'être transparent au trafic conforme et enfin,
d'être simple à implanter.
Les performances d'un tel mécanisme (taux de perte de cellules, retard induit, etc.)
doivent être incluses dans les performances de bout en bout d'une connexion. Le
mécanisme ne peut être parfait ; il peut en fait se tromper de deux manières :

- le trafic est conforme et l'utilisateur respecte son contrat mais le mécanisme


détecte des cellules en violation : si le taux de perte négocié pour la connexion est
9 10
de 10' alors ce type d'erreurs d'estimation doit avoir un taux de 10" ;

- le mécanisme ne détecte pas certaines cellules en violation (à cause du caractère


très aléatoire du flux).

Ces mécanismes peuvent admettre du trafic en excès dans le réseau si l'option de


marquage des cellules a été activée. Le marquage des cellules consiste à admettre du
trafic en excès par rapport au débit négocié et à le marquer à la priorité basse dans le
réseau. Les cellules détectées comme étant en excès sont marquées au moyen du bit
CLP de l'en-tête de la cellule (fonction de violation tagging).
266 Architecture des réseaux haut débit

Ils sont alors associés à une politique de gestion du trafic en excès dans le réseau
(fonction de contrôle de priorité). Mais l'inconvénient est double : tout d'abord, le
flux de cellules autorisé peut être perturbé par celui des cellules en excès ; ensuite, il
faudra prévoir des tampons de grande taille pour limiter les pertes.

Le mécanisme d'UPC/NPC (Usage Parameter Control/Network Parameter


Control) a pour objectif de contrôler que le trafic offert sur la connexion ATM ne
dépasse pas celui défini dans le contrat de trafic. Il réalise les actions suivantes :
- passage et espacement (en option) des cellules conformes,
- destruction ou marquage (en option) des cellules non conformes.

Plusieurs mécanismes se sont trouvés en concurrence pour la réalisation de cette


fonction. En fait, aucun d'eux ne sera normalisé, l'UIT-T s'étant contenté de spécifier
les fonctions qu'ils doivent assurer. Nous présentons dans la suite les deux
mécanismes qui sont les plus souvent cités dans la littérature. Ces mécanismes ont
en commun de procéder, en sus du contrôle de conformité, à un lissage (shaping) du
trafic afin de le rendre moins sporadique, ce qui facilite le multiplexage statistique
dans le réseau.

8.8.5.2. Le mécanisme du seau percé (Leaky Bucket)

Le mécanisme du Leaky Bucket a connu un grand succès pour la vérification de


conformité de trafic [Bala 90]. Il est illustré en figure 8.57 et fonctionne avec les
éléments suivants :

- une file d'entrée ou tampon d'entrée dans laquelle les cellules sont stockées
avant transmission ; un seuil K lui est associé ;

bac à jetons

/ b a c \ jeton
cellules s. oui.
à jetons
réseau
file d'entrée x y i d e 1/ seau

non U Mv Mr
jetons jetons
verts. rouges

taux fixes

Figure 8 . 5 7 . Le Leaky Bucket

- un double seau de jetons (verts ou rouges) de taille finie M ; M définit la


taille maximale de la rafale (nombre maximum d'arrivées de cellules groupées). Les
ATM (Asynchronous Transfer Mode) 267

jetons verts correspondent au trafic autorisé alors que les jetons rouges correspondent
au trafic en excès ;
- les jetons sont générés dans le bucket avec un taux constant y qui correspond
au débit moyen de la connexion ;
- un bac à jetons utilisé par le mécanisme d'espacement des cellules.

L'algorithme de traitement de la cellule en tête du tampon d'entrée est le


suivant :
1/ attendre que le bac à jetons soit vide

21 y a-t-il un jeton vert ?


oui : transmission sur le réseau et stockage du jeton dans le bac à jetons
non : nombre de cellules dans le tampon < Kl
oui : retour en 21
non : y a-t-il un jeton rouge ?
oui : marquage et transmission sur le réseau
stockage du jeton dans le bac à jetons
non : retour en 2

L'espaceur sert à maintenir un espace entre deux cellules consécutives qui


correspond au temps de vidage du bac à jetons. Ce dernier est vidé avec un taux
constant P avec P > max (YnYv)- Comme le tampon d'entrée est forcément fini, il
peut se produire des pertes de cellules lorsqu'il est plein. Mais ces pertes
correspondent le plus souvent à une situation de violation du contrat. Les deux types
de jetons ainsi que le seuil K permettent d'envoyer des cellules en excès et d'éviter
les pertes de cellules à l'entrée du réseau. Les cellules qui utilisent un jeton rouge
sont marquées comme étant en excès avant d'être envoyées sur le réseau ; le bit
CLP de leur en-tête est positionné à la valeur de priorité basse. En cas de congestion
d'un nœud, ces cellules seront les premières détruites.

8.8.5.3. Le contrôleur-espaceur du CNET

Le contrôleur-espaceur est soutenu par le CNET (Centre National d'Etudes de


Télécommunications) de Lannion [Guillemin 92]. Il est placé en coupure du
multiplex ATM. Son rôle est de "lisser les grumeaux", connexion par connexion ;
ces grumeaux pouvant être dus à la gigue, ou à un comportement malveillant de
l'utilisateur. Il est composé principalement de deux fonctions :

- la fonction de contrôle qui alloue à chaque connexion une certaine capacité de


stockage ;
- la fonction d'espacement des cellules qui arrivent trop rapprochées les unes des
autres par rapport à la période d'émission crête négociée.
268 Architecture des réseaux haut débit

Si pour une connexion, les cellules arrivent à un rythme trop élevé incompatible
avec le gabarit de gigue et/ou la période d'émission crête, la capacité allouée à la
connexion déborde et les cellules en excès sont détruites. La fonction d'espacement
est réalisée par un algorithme d'espacement, lequel est intégré dans une puce et
partagé par toutes les connexions.

L'algorithme du contrôleur-espaceur est donné en figure 8.58. Ses paramètres


sont T, la période d'émission crête ou d'espacement et t, le paramètre de gigue. A
chaque cellule arrivant à la date t, sont associées deux variables. La première est
notée TRT (Theoritical Retransmission Time) et représente l'heure théorique de
réémission de la cellule. Si la cellule n'est pas rejetée, elle doit être idéalement
réémise à cette heure. La seconde variable est ART (Actual Retransmission Time)
qui elle, donne l'heure réelle de réémission. ART correspond à la première heure libre
de transmission d'une cellule après TRT. Comme il peut y avoir contention de
réémission entre plusieurs connexions pour un TRT donné et comme les cellules
sont émises sur un support partagé, ART peut différer de TRT.

à t. arrivée d'une cellule

i
X := TRT + T

contrôle du débit crête


X<t oui
de la connexion tout en
tenant compte de la gigue
non

destruction oui
K >t + t X :=t
non

cellule stockée espacement statistique entre


et réémise à la date ART deux cellules consécutives

F i g u r e 8 . 5 8 . Algorithme du contrôleur-espaceur

Le fonctionnement de l'algorithme est montré dans le tableau 8.10 avec les


hypothèses suivantes :

- la première cellule a le numéro 0,


- soit TRT , la valeur de TRT juste avant l'arrivée de #n à t ,
n n

+
- soit TRT n sa valeur juste après la décision d'acceptation ou de rejet de la
cellule.
ATM (Asynchronous Transfer Mode) 269

si T R T n
+ T - tn >X la cellule #n est rejetée cellule n+3
le gabarit de gigue et/ou la
période d'émission ne sont
pas respectés et
+
TRT=TRT n #n est ennretard et
si T R T n
+ T- tn <0 la cellule
elle doit être réémise le plus
cellule n

tôt possible
+
si T R T n + T tn < 1
TRTn =t
la cellule #n est n acceptée et cellules n+1 et n+2
stockée en mémoire
+
TRT = TRT +T
n
Tableau 8 . 1 0 . Fonctionnement du
n
contrôleur-espaceur

On voit que le paramètre x est lié à l'amplitude de l'effet d'agglomération. La


figure 8 . 5 9 montre le déroulement d'un scénario de contrôle de conformité pour
quatre cellules successives notées n, n+\, n+2 et n + 3 .

arrivée
suite
cellule
rlétniite TRT

suite ART

reemission

n n+1 n+2

F i g u r e 8 . 5 9 . Scénario de conformité du contrôleur-espaceur

8.8.6. Contrôle de priorité et destruction sélective des cellules

L'une des rares techniques réactives à une situation de congestion consiste à gérer
les cellules en fonction de leur niveau de priorité marqué dans le bit CLP de l'en-tête
de cellule ; d'autres techniques sont encore à l'étude. Il existe deux manières
d'attribuer des priorités aux cellules :
- par l'application ; en effet, elle est à même de différencier des données
importantes de celles qui le sont moins dans le flux de données qu'elle crée ;
270 Architecture des réseaux haut débit

- par le marquage des cellules jugées en excès par le mécanisme d'UPC/NPC :


ces cellules sont marquées à la priorité basse, les cellules conformes ayant la priorité
haute.

De nombreux mécanismes de gestion de tampon de commutateur ATM ont été


proposés ; tous détruisent les cellules de basse priorité et cherchent à respecter les
objectifs de QoS spécifiés pour chaque type de flux. Parmi ceux-ci, le mécanisme de
Push-out consiste à allouer deux niveaux de priorité spatiale aux cellules [Gravey
91). Lorsque le tampon est plein, les cellules entrantes de basse priorité sont perdues
et les cellules entrantes de haute priorité prennent la place des cellules de basse
priorité déjà présentes dans le tampon. Un autre mécanisme, celui de Partial Buffer
Sharing [Kroner 90] définit un seuil (en nombre de cellules) d'acceptation des
cellules de basse priorité : lorsque le seuil est atteint, seules les cellules entrantes de
haute priorité sont admises dans le tampon tandis que les cellules entrantes de basse
priorité sont perdues. Il est à noter qu'aucun de ces mécanismes n'évite la perte des
cellules de haute priorité.

8.8.7. Gestion rapide de ressources

La gestion rapide de ressources permet à l'utilisateur d'envoyer des requêtes au


réseau pour augmenter de manière temporaire son débit crête de manière à envoyer
une rafale de cellules. Le réseau doit réagir rapidement à ces demandes en un temps
de propagation aller et retour au maximum. Cette fonction n'est pas complètement
spécifiée. Un tel mécanisme est proposé dans [Boyer 92]. La requête de l'utilisateur
sera envoyée dans une cellule de type RM (Resource Management).

en-tête ATM identificateui champs de


VCI = 6 et PTI = 110 pour RM-VPC de protocole fonctions réservé CRC
VCI = x et PTI = 110 pour RM-VCC RM spécifiques
5 octets 8 bits 45 octets 6 bits 10 bits

Figure 8.60. Format de la cellule RM

Le bit CLP de la cellule RM est toujours positionné à 0. Lorsque la cellule RM


se réfère à une VCC, son numéro de VCI est celui de la VCC et son champ PTI est
positionné à 110. Lorsqu'elle se réfère à toute la VPC, son champ VCI est égal à 6.

8.8.8. Notification de congestion

Le contrôle de congestion de type notification est une technique réactive à une


situation de congestion. Elle est désignée sous l'acronyme de EFCI (Explicit
Forward Congestion Indication). Son utilisation est optionnelle. Elle est issue du
protocole de relais de trames (Frame Relay) (cf. chapitre 9).
ATM (Asynchronous Transfer Mode) 27 1

Lorsqu'un élément de réseau est dans un état de congestion, il peut envoyer une
notification explicite de congestion vers la source du flux dans l'en-tête d'une cellule
(bit du champ Payload Type). Il faut alors que la source soit capable de diminuer
automatiquement son débit d'émission.
272 Architecture des réseaux haut débit

Exercices

Exercice 8.1
Justifiez le fait que la taille de la cellule soit si petite.

Exercice 8.2
Quelles sont les caractéristiques d'ATM qui en font une technique indépendante de
toute référence temporelle ?

Exercice 8.3
Le futur RNIS-LB devra pouvoir interfonctionner avec le RNIS-BE et aussi avec
des terminaux d'usager dont une proportion non négligeable reste encore analogique.
L'écho engendré par la transformation 2 fils-4 fils qui intervient entre le monde
analogique et le monde numérique doit rester dans certaines limites de niveau et de
délai. Les impératifs de qualité fixés par l'UIT-T permettent un délai d'écho aller et
retour de 20 ms. Or, le temps de mise en cellule (numérisation + remplissage) est de
6 ms. Si l'on considère un temps de propagation de 5 ms pour 1 000 km, quelle est
la distance maximum pour ne pas avoir de problème d'écho ?

Exercice 8.4
Soit le réseau RNIS-LB ci-dessous, construire pour chaque nœud les tables de
routage correspondantes lorsque :
1. les nœuds sont des commutateurs de VP,
2. les nœuds sont des commutateurs de VC.
ATM (Asynchronous Transfer Mode) 273

Exercice 8.5

On considère un réseau ATM, composé de 8 nœuds interconnectés de la manière


indiquée dans la figure ci-dessous. A, B et C sont des utilisateurs du réseau.

1. Les nœuds 3 et 5 sont des commutateurs de VP, les autres sont des
commutateurs de VC. Trois connexions sont ouvertes : A-2-3-5-7-C, A-2-3-1-B
et B-1-3-5-7-C. Donnez des tables de translation possibles pour chaque nœud.

2. Sur la machine A, on veut ouvrir une nouvelle connexion vers C. Donnez le


chemin et modifiez les tables de routage en conséquence.

3. Est-il possible de connecter un utilisateur au nœud 3 ?

Exercice 8.6

On considère un réseau ATM composé de quatre nœuds interconnectés comme


indiqué dans la figure ci-dessous. Sur ce réseau sont raccordés quatre utilisateurs A,
B. C et D. Les nœuds 1 et 4 sont des commutateurs alors que les nœuds 2 et 3 sont
des brasseurs de conduits. Deux communications sont établies entre A et C d'une
part et entre B et D, d'autre part.

1. On veut multiplexer les deux communications de A et B sur la même VCC.


Décrivez le multiplexage dans les cas suivants :
- lorsqu'il est effectué au niveau AAL,
- lorsqu'il est effectué au niveau ATM.

2. En fait, A et B possèdent des accès distincts sur le nœud 1, mais les deux VCC
sont multiplexées sur le même VP. Donnez un exemple des tables de translation
des nœuds 1, 2, 3 et 4.

Exercice 8.7

On s'intéresse ici à la détection de pertes et d'insertions de cellules en AAL 1. On


rappelle que ce mécanisme utilise la numérotation des cellules en séquence réalisée
274 Architecture des réseaux haut débit

sur 3 bits du champ SN de la SAR-PDU et que ce numéro est protégé contre les
erreurs par le champ SNP. A partir des données initiales suivantes :

1 2 | 3 | 4 5 6 7 8 19 1i q i l 12 13 14 15 16 17 18 19 20 ^

1. Dessinez la séquence obtenue en réception (données initiales, transmises, reçues


et restituées). On suppose que l'on peut mettre 4 données par cellule. Si la
troisième cellule est perdue, que pensez-vous de l'erreur ? Est-elle acceptable ?

2. Donnez une méthode qui permette de contourner ce problème. Dessinez la


séquence correspondante.

Exercice 8.8
On souhaite envoyer la totalité de l'encyclopédie Universalis (soit 253 millions
de caractères). L'application utilise directement les services fournis par l'AAL de type
5.

1. Complétez la figure suivante en précisant bien la convention d'appellation des


unités de données pour la couche AAL de type 5.

("AAL-SAP*")

9 |
CPCS—»H— sscs-

9 9 T

? ^

9
J
<
7 ?
<
-CS

~* ? »
SAR-*

^ ? •
V
ATM-SAP^ T
9

S
H
? J ? <
« ?
ATM (Asynchronous Transfer Mode) 275

On supposera qu'aucune perte ni altération ne se produit, que le mode de


service utilisé est le mode message et que la sous-couche SSCS est vide.

2. Combien de cellules faut-il pour ce transfert ?

3. Combien de temps faut-il au minimum avec un accès à 155 Mbit/s ?

Exercice 8.9

Comme dans la technique ATM, le réseau DQDB transfère les données utilisateur
dans des PDU de 53 octets. Rappelez la structure de cellule utilisée dans ATM et
dans DQDB. La compatibilité est-elle assurée pour autant ? Comment l'obtenir ?

Exercice 8.10

Un réseau ATM est utilisé pour interconnecter deux réseaux locaux Token Ring
(IEEE 802.5) offrant chacun un débit brut de 16 Mbit/s. Sur chaque Token Ring, 6
stations sont connectées qui génèrent le même trafic. La longueur des données d'une
trame Token Ring est de 1 ko.

1. Donnez l'architecture de la passerelle Token Ring/ATM.

2. Quelles sont les principales fonctions réalisées par cette passerelle ?

3. Combien de connexions faut-il ouvrir pour interconnecter les deux réseaux ?

4. Quel sera le débit crête demandé dans le descripteur de trafic d'une connexion ?

Exercice 8.11

Le réseau ATM a été conçu pour accepter des débits différents, tant au niveau de
leurs valeurs que de leur nature (constant/variable). Montrez sur un schéma les
conséquences qu'ont sur le flux de cellules générées :
- un transfert de voix numérisée MIC,
- un transfert de vidéo numérisée MPEG.

Exercice 8.12

Pour réaliser le multiplexage de connexions virtuelles sur le réseau ATM, on


peut utiliser deux types de multiplexage, déterministe et statistique. Faites un
tableau décrivant les avantages et les inconvénients de chacun.

Exercice 8.13

Il s'agit de vérifier la conformité d'un flux de cellules arrivant à l'entrée d'un


réseau ATM pour une connexion donnée. Le débit crête négocié à l'établissement de
276 Architecture des réseaux haut débit

la connexion est de 10,6 Mbit/s. Le paramètre de gigue T est de 10 us. La cellule 0


a été transmise au temps TRTo = 0. Les cellules 1 à 10 arrivent respectivement aux
dates :
ti (i=1..10) • 30, 50, 90, 110, 130, 160, 180, 200, 255, 280.

Déroulez l'algorithme du contrôleur-espaceur pour déterminer dans le flux


entrant, les cellules conformes, les cellules non conformes et dans ce cas, précisez si
elles sont soumises à un rejet ou à un retard.

Exercice 8.14
Trouvez les conditions sous lesquelles les mécanismes de Push-out et Partial
Buffer Sharing perdent des cellules de haute priorité.

Exercice 8.15
Un crédit maximal est défini de telle façon que l'instant d'envoi du dernier paquet
de la fenêtre d'émission corresponde à l'instant de réception de l'acquittement du
premier paquet. De cette manière, l'émetteur n'est jamais bloqué en attente
d'acquittement.
Calculez cette taille maximale de fenêtre pour un réseau ATM avec un débit de
155 Mbit/s dont le délai de traversée sur 500 km serait de 6,66 ms.
Quel est le nombre de cellules perdues si l'acquittement est une notification de
congestion ? Quelle est la taille de l'espace de numérotation nécessaire à un tel
mécanisme ?
Chapitre 9

Interconnexion

9.1. Introduction

L'interconnexion des réseaux est nécessaire dès que l'on veut accéder à des
ressources extérieures au réseau local. Dès lors, on se heurte à l'hétérogénéité des
protocoles développés dans des contextes différents et présentant donc des
caractéristiques différentes.
Le problème de l'interconnexion des réseaux se résume ainsi : comment faire
dialoguer deux architectures de réseau différentes, tant au niveau des supports que des
protocoles ? L'objectif de ce chapitre est de répondre à cette question en présentant
une méthodologie d'interconnexion ainsi qu'un panorama des équipements utilisés et
des services proposés. Parmi les équipements, nous décrirons en particulier les ponts
et les routeurs. Pour ces derniers, nous introduirons le protocole IP (Internet
Protocol). En termes de services, nous présenterons d'une part, SMDS (Switched
Multimegabit Data Service), service d'interconnexion de réseaux locaux à travers des
réseaux métropolitains ou publics pour le transfert de données à haut débit, et d'autre
part, le service de relais de trames, service d'interconnexion de réseaux locaux à
travers des réseaux publics, dédié également au transfert de données à haut débit.
278 Architecture des réseaux haut débit

9.2. Principes de l'interconnexion

9.2.1. Choix du niveau d'interconnexion

La méthodologie consiste à représenter, selon la structuration en couches du


modèle OSI, les architectures des sous-réseaux à interconnecter, à les comparer et à
identifier les différences de services, de protocoles ou de paramétrage d'un même
protocole (tailles des PDU, tailles de fenêtre, valeurs de temporisateurs, etc.). En
partant de la base de chaque architecture, on détermine le niveau à partir duquel les
couches supérieures sont identiques. La figure 9.1 présente deux architectures
compatibles à partir du niveau (N+l) ; la frontière d'hétérogénéité se trouve alors
entre les niveaux (N) et (N+l). L'interconnexion sera réalisée au niveau (N+l),
premier niveau commun aux deux architectures. L'architecture générique de
l'équipement d'interconnexion, appelé Unité d'Inter-Fonctionnement (UIF) ou plus
souvent Inter-Working Unit (IWU), comprend les protocoles des couches 1 à (N)
pour chacun des sous-réseaux ainsi que le protocole commun de niveau (N+l).

ensemble
homogène

(N+l) niveau d'interconnexion


frontière
d'hétérogénéité
(N) protocole PI protocole P2
ensemble
hétérogène

Figure 9.1. Frontière d'hétérogénéité et niveau d'interconnexion

9.2.2. Techniques d'interconnexion

Une fois le niveau d'interconnexion identifié, trois types de techniques


d'interconnexion sont possibles [Sunshine 90] :
- la conversion de services ou la concaténation de services,
- la conversion de protocoles,
- l'encapsulation.

La conversion de services intervient lorsque les niveaux inférieurs des sous-


réseaux sont différents mais compatibles (par exemple, deux couches MAC). Elle
traduit les primitives de service d'un sous-réseau en primitives utilisables sur l'autre.
La concaténation de services est applicable lorsque les protocoles du niveau
d'interconnexion sont identiques mais utilisés dans des contextes différents et avec
des valeurs de paramètres différentes : c'est donc la technique la plus simple. Elle
Interconnexion 279

fait essentiellement appel à des mécanismes de contrôle de congestion (en cas de


débits différents) et de fragmentation (en cas de longueurs de PDU différentes).

La conversion de protocoles travaille directement sur les PDU. Elle est par
conséquent plus complexe à mettre en œuvre que la conversion de services. En effet,
au niveau des coupleurs fournis par les constructeurs, on a plus facilement accès à
l'interface de service qu'aux unités de données du protocole.

L'encapsulation consiste, en émission, à envelopper chaque unité de données. En


réception, l'UIF extrait l'unité de données de son enveloppe. Ces deux actions sont
réalisées dans un niveau de protocole supplémentaire dédié à l'interconnexion.
L'intérêt de l'encapsulation réside dans sa généralité : elle s'applique à tous les cas de
figure [IS 8648]. Son inconvénient réside dans l'introduction d'un niveau de
protocole supplémentaire.

9.2.3. Classification des équipements d'interconnexion

La recommandation X.200 définit une terminologie spécifique à chaque


équipement d'interconnexion en fonction du niveau de l'interconnexion. Au niveau
physique, on parle de répéteur car son rôle se limite à régénérer le signal électrique
arrivant d'un support sur un autre support. Au niveau liaison, lorsque les couches
MAC sont identiques ou suffisamment semblables avec une même couche LLC, on
peut relier des sous-réseaux via un pont (bridge). Le pont permet de pallier les
limitations quant aux longueurs maximales spécifiées dans les protocoles (à titre
d'exemple, CSMA/CD spécifie une longueur maximale de 2,5 km pour tout chemin
de données, répéteurs compris). Contrairement aux répéteurs, le pont isole le trafic
de chacun des réseaux en effectuant un "routage" de manière transparente pour la
couche liaison de données. Dans le monde OSI, le niveau réseau est le niveau
d'interconnexion, puisqu'il est le premier à prendre en compte un schéma d'adressage
global. L'UIF est ici appelé routeur. Il peut s'agir d'un équipement spécifique ou
d'une station particulière du réseau. Aux niveaux supérieurs, on parle de passerelle de
niveau (N). A titre d'exemple, une passerelle d'application peut permettre la
communication entre systèmes de messagerie de constructeurs différents.

9.3. Les répéteurs

Les répéteurs sont le plus souvent utilisés pour étendre la couverture


géographique d'un réseau en juxtaposant localement plusieurs segments de câble. Au
passage d'un répéteur, le signal provenant d'un segment est amplifié puis retransmis
sur le segment suivant. Certains protocoles, tels que CSMA/CD, spécifient
explicitement le rôle et les fonctionnalités du répéteur. Le répéteur peut aussi fournir
des fonctions de conversion de signaux s'il relie des supports de types différents :
dans le cas d'un câble coaxial et d'une fibre optique, le répéteur assure la conversion
280 Architecture des réseaux haut débit

du signal électrique en signal optique et vice-versa. Cet équipement est donc


totalement transparent aux protocoles de niveaux supérieurs. Il est élémentaire et ne
fournit pas d'isolation entre les différents segments.

9.4. Les ponts

9.4.1. Qu'est-ce qu'un pont ?

Selon la technique utilisée, le pont a accès soit aux primitives et SDU de la


sous-couche MAC (conversion de services), soit aux PDU de cette même sous-
couche (conversion de protocoles). Il réalise principalement des fonctions de
mémorisation avant retransmission, de conversion (de primitives ou de formats de
PDU) et de routage des PDU de données ; remarquons que cela implique l'existence
d'une fonction d'adressage au niveau liaison. Parce qu'elle réalise une fonction de
routage, la couche liaison d'un pont n'est pas conforme au modèle de référence OSI.

Le pont est connecté à un réseau local via un port d'attachement ; un pont


rattaché à trois réseaux locaux possède donc trois ports et trois entités MAC
différentes avec trois adresses MAC différentes, une par port (figure 9.2). Chaque
entité MAC du pont se comporte conformément à son protocole de référence excepté
le fait que toutes les trames sont capturées et transmises vers l'entité de relais du
pont même si elles ne sont pas destinées au pont lui-même.

Ce type d'UIF a été normalisé par l'IEEE pour l'interconnexion des réseaux
utilisant les protocoles IEEE d'accès au support [IEEE 802.ld] [IEEE 802.1g]. Le
pont utilise le plus souvent une technique de conversion de services. Selon la
complexité de la fonction de routage, trois types de pont sont identifiés :

- le pont simple effectue le routage soit par diffusion, soit selon une table de
routage statique chargée par l'opérateur lors de l'installation. Dans le premier cas,
toute trame reçue sur un port du pont est retransmise sur tous les autres ports de
sortie (sauf si elle est destinée à une station du même sous-réseau que la station
source) ;

- le pont intelligent (ou pont transparent) est capable de construire de par lui-
même sa table de routage et de la mettre à jour dynamiquement. La construction de
la table se fait par apprentissage dynamique des adresses source puis par filtrage des
trames selon leur destination ;

- le pont à routage contrôlé par l'émetteur est spécifié dans le standard IEEE
802.5 du Token Ring. Le chemin que doit suivre la trame est indiqué de façon
explicite dans un champ prévu à cet effet par la station source. Ce chemin est connu
de la station source après un apprentissage dynamique. Ce mécanisme n'est donc pas
transparent vis-à-vis des stations.
Interconnexion 281

9.4.2. Apprentissage dynamique des adresses de routage

Un pont intelligent a la capacité d'acquérir seul les informations nécessaires à sa


fonction de routage. Il construit sa table de routage en mémorisant l'adresse source
d'une trame reçue associée au port de réception de celle-ci. II dirige les trames sur le
sous-réseau approprié après apprentissage.

La figure 9.2 donne l'exemple d'un pont connectant trois réseaux et possédant
donc trois ports de sortie : p l , p2 et p3. L'apprentissage des adresses par le pont
s'effectue de la manière suivante :
- étape 1 : le pont reçoit une PDU issue de la station A sur le port pl (figure
9.2 (a)) ; il la diffuse sur les ports pl et p2 et note que la station d'adresse A se
trouve sur le réseau 1 ;
- étape 2 : le pont reçoit une PDU issue de la station B sur le port p2 et
destinée à A (figure 9.2 (b)) ; le pont sait que la station A est sur le réseau 1 ; la
PDU n'est donc transmise que sur pl ; le pont mémorise que la station B se trouve
sur le réseau 2 ;

- étape 3 : une trame de A à B n'est retransmise que sur p2 (figure 9.2 (c)).

réseau 2 réseau 2 réseau 2


( réseau 1

f réseau
reseau

réseau 3 reseau J (réseau 3

(a) (b) (c)

F i g u r e 9 . 2 . Apprentissage du pont

Pour conserver une information valide, l'adresse source de chaque trame reçue est
comparée avec l'entrée correspondante de la table et éventuellement mise à jour.
Pour prévenir la saturation de la table et éliminer des entrées devenues obsolètes
(stations inactives, déplacées, etc.), un temporisateur est associé à chaque entrée.
Cette approche permet d'ajouter et d'enlever des équipements sur le réseau sans avoir
à reconfigurer les ponts qui s'y trouvent.
282 Architecture des réseaux haut débit

Lorsque la topologie des réseaux interconnectés par des ponts est complexe et
maillée — un ou plusieurs sous-réseaux connectés à plusieurs ponts — il se peut
qu'une station soit accessible par des chemins différents (figure 9.3). L'algorithme
d'apprentissage n'est alors plus efficace, en effet des chemins multiples associés aux
réseaux locaux à diffusion peuvent entraîner des duplications de trames. L'algorithme
de l'arbre couvrant minimal (Spanning Tree) permet d'assurer l'unicité des chemins.
L'ensemble des réseaux interconnectés est vu comme un graphe value où chaque
sous-réseau joue le rôle d'un nœud et chaque pont est représenté par un arc du
graphe ; la fonction de calcul d'un coût minimal permet de définir l'arbre couvrant.
Le coût d'un arc représente par exemple le nombre total de ponts sur le chemin entre
deux stations quelconques. S'il existe plusieurs chemins entre deux stations, celui de
coût minimal est retenu. La défaillance d'un sous-réseau ou d'un pont entraîne un
changement de topologie pris en compte par les ponts grâce aux informations qu'ils
échangent dans des unités de données particulières, des Bridge-PDU, qui permettent
de reconstruire l'arbre.

F i g u r e 9 . 3 . Chemins multiples

9.4.3. Les ponts MAC 802

9.4.3.1. Les standards IEEE

Au sein du comité 802 de 1TEEE, un groupe de travail s'emploie à spécifier


l'interconnexion des réseaux 802 et a établi deux extensions au standard 802.1 :

- P 8 0 2 . 1 d / D 9 (1993) spécifie une architecture et un protocole pour


l'interconnexion de réseaux locaux IEEE 802 géographiquement proches, par des
ponts locaux [IEEE 802. ld] ;

- P802.1g (1992) traite des spécificités de l'interconnexion de réseaux locaux


IEEE 802 géographiquement éloignés, par des ponts distants et via des technologies
autres que celles des réseaux locaux (liaisons spécialisées ou réseaux métropolitains,
par exemple) [IEEE 802.1g].
Interconnexion 283

L'ensemble des sous-réseaux interconnectés par des ponts IEEE y est défini
comme étant le réseau local étendu (ELAN — Extended Local Area Network). Dans
le cas où les deux réseaux sont géographiquement proches, ils peuvent être
interconnectés directement par un pont local utilisant la conversion de services. Dans
le cas contraire, on peut avoir recours à un pont distant constitué par deux demi-
ponts reliés entre eux par une liaison intermédiaire. La technique alors utilisée est
l'encapsulation afin d'assurer la transparence vis-à-vis de la liaison intermédiaire.

Les documents spécifient :


- le modèle architectural d'un pont,
- la situation des fonctionnalités du pont à l'intérieur de la sous-couche MAC,
- les principes de fonctionnement du pont afin de fournir et préserver le service
MAC et de maintenir la QoS,
- le service de chaque sous-couche MAC fourni à l'entité de relais du pont,
- le calcul de l'arbre couvrant ainsi que le protocole d'échange de Bridge-PDU
entre ponts pour la mise à jour de cet arbre,
- les objets gérés et les fonctions de gestion sur ces objets,
- les performances requises pour les ponts et des valeurs de qualité de service
(QoS — Quality of Service) par défaut.

9.4.3.2. Architecture de pont

Chaque port reçoit et transmet des trames du et vers le réseau local rattaché en
utilisant l'entité MAC associée. Chaque entité MAC manipule les fonctions
dépendantes de la méthode d'accès au support (protocole et procédures MAC). Une
architecture est spécifiée pour chaque type de pont, local (figure 9.4) et distant.

entités He couches
supérieures entité
entité entités de protoco le du pont, de gestion du pont entité
LLC A À
L
LLLC
C
T J entité de relais M A C w T
s e m c e
service j?. fonction indépenda ntes de i a ^ i
MAC r tec inique d'ac ces MAC
service de service de
sous-couche sous-couche
interne interne

entité M A C entité M A C
protocole et protocole et
procédures MAC procédures MAC

réseau local reseau local y

Figure 9 . 4 . Architecture de pont local


284 Architecture des réseaux haut débit

Les fonctions dédiées à l'interconnexion sont assurées par l'entité de relais MAC
qui coiffe les sous-couches internes M A C spécifiques à chaque sous-réseau.
Indépendamment de la méthode d'accès au support, l'entité de relais MAC effectue le
relais des trames entre ports, le filtrage de trames et l'apprentissage d'information de
filtrage. Elle utilise le service de chaque sous-couche interne fourni par chaque entité
MAC correspondant à un port donné.

9.4.3.3. Service MAC du pont

Le pont offre un service MAC sans connexion avec deux primitives qui sont
MA_UNITDATA.request et MA_UNITDATA.indication. Le service MAC offert par
un ELAN est similaire à celui d'un réseau local isolé, en conséquence :
- un pont n'est pas directement adressé par les stations communicantes (sauf à
des fins de gestion), il est transparent vis-à-vis des stations ;
- toutes les adresses MAC sont uniques ;
- les adresses M A C des stations ne sont pas limitées par la topologie ni par la
configuration du réseau étendu.

Les deux primitives de service ont pour paramètres :


- frame_type : type de trame, une trame pouvant véhiculer des données
d'utilisateur ou des informations de contrôle de niveau MAC ;
- mac_action : permet à l'entité émettrice, si elle le souhaite, de demander une
réponse de son homologue et à ce dernier de lui répondre ;
- destination_address, source_address : adresses respectivement du destinataire et
de l'émetteur ;
- M S D U : données utilisateur ;
- user_priority : priorité demandée par l'utilisateur du service, représentée par un
entier compris entre 0 et 7 ;
- access_priority (seulement dans la primitive de requête) : priorité de la
demande de transfert, représentée par un entier compris entre 0 et 7 ;
- FCS (Frame Check Sequence) : valeur de la séquence de contrôle d'erreur.
Le pont est chargé de mettre en œuvre la conversion de services selon le schéma
donné en figure 9.5.

station A pont station B


MA_UNITDATA. M.UNITDATA. M_UNITDATA. MA_UNITDATA.
request indication request indication LLC
i

h MAC
f(4) PHY

réseau 1 réseau 2

Figure 9.5. Enchaînement de requêtes pour la transmission d'une trame entre deux
stations interconnectées par un pont
Interconnexion 2 8 5

9.4.3.4. Fonctionnement du pont

L'entité de relais MAC réalise les fonctions d'interconnexion du pont (figure


9.6). Elle est modélisée par des processus et des entités :

- le processus d'apprentissage "apprend" les adresses source des trames reçues sur
chaque port et met à jour la base de données de filtrage en fonction de l'état du port
récepteur ;
- le processus de relais de trames retransmet les trames reçues sur un autre port
en fonction des informations contenues dans la base de données de filtrage et de l'état
des ports. La trame est soit retransmise sur un seul port, si l'adresse est connue, soit
diffusée sur tous les autres ports du pont dans le cas contraire ;

- la base de données de filtrage contient l'information de filtrage (obtenue


explicitement par administration, ou automatiquement par le processus
d'apprentissage). Elle répond aux requêtes du processus de relais.

état ~ \ _ relais _f état ~ \


du port J~ de trames V du Dort )

base de données
de fdtrage

réception transmission
de trames de trames .
sous-couche sous-couche
interne MAC interne MAC

Figure 9.6. Le relais de trames

Chaque port fonctionne comme une station terminale en fournissant le service


MAC à la couche supérieure. Suivant la topologie du réseau étendu déterminé par
l'algorithme de l'arbre couvrant, les ports peuvent être dans les états : blocking,
listening, learning ou forwarding. L'état blocking est consécutif à l'initialisation du
pont ou à une action de gestion ; il ne permet pas d'action. Dans l'état listening, le
pont échange des Bridge-PDU et recalcule l'arbre couvrant en coopération avec les
autres ponts ; il ne prend en compte et ne retransmet aucune trame utilisateur. Dans
l'état learning, le processus d'apprentissage met à jour la base de données de filtrage
mais ne relaie toujours pas de trames. Enfin, l'état forwarding permet au port de
participer au relais des trames. Pour pouvoir effectivement relayer une trame, les
quatre conditions suivantes doivent être impérativement respectées :

- le port de réception est dans l'état forwarding,


- le port sur lequel la trame doit être transmise est dans l'état forwarding,
- la base de données de filtrage indique que les trames avec cette adresse de
destination doivent être transmises sur le port de transmission,
286 Architecture des réseaux haut débit

- la taille maximale de la SDU supportée par le réseau local sur lequel on doit
transmettre est respectée.

Après réception, une trame peut ne pas être relayée et être détruite dans deux
situations : lorsque le système destinataire se trouve sur le même sous-réseau que la
source ou sur occurrence d'une condition d'exception (erreur de transmission, trame
de contrôle, service de demande de réponse actif, filtrage sélectif, longueur excessive,
dépassement du temps de transit dans le pont).
En réception, l'entité MAC associée à un port donné examine les trames en
provenance du réseau local auquel le port est attaché. Les trames sont soumises au
processus d'apprentissage et au processus de relais par l'invocation de la primitive
M_UNITDATA.indication, après vérification de l'état des ports impliqués. En
émission, l'entité MAC transmet, si l'état du port auquel elle est associée le lui
permet, les trames qui lui ont été soumises par l'entité de relais MAC par une
primitive M_UNITDATA_request.
En ce qui concerne la base de données de filtrage, les informations peuvent
provenir de configuration d'administration ou de configuration dynamique. La base
peut contenir aussi bien des entrées statiques que dynamiques. Les entrées
dynamiques sont créées et mises à jour par le processus d'apprentissage. A chaque
opération sur une entrée, on arme un temporisateur associé à l'entrée. Si le
temporisateur expire, l'entrée est détruite, car considérée comme inutilisée depuis
trop longtemps. Une entrée dynamique comporte les informations {adresse MAC,
n° de port, temporisateur}. A contrario, les entrées statiques ne peuvent être ajoutées
ou détruites que par l'administration.

9.4.3.5. Préservation de la QoS

Les ponts locaux et les ponts distants ne doivent pas dégrader de façon excessive
la qualité de service de chaque sous-réseau local. Les ponts distants utilisant des liens
intermédiaires plus lents que les sous-réseaux (sauf dans le cas de réseaux fédérateurs
à haut débit), ils entraînent généralement une dégradation de service plus importante
que celle causée par un pont local. Dans tous les cas, un pont ne peut violer les
invariants du service MAC et doit respecter le séquencement des trames.

9.5. Les routeurs et l'interconnexion de niveau réseau

9.5.1. Introduction

L'interconnexion devient plus complexe lorsqu'elle intervient entre des sous-


réseaux très différents comme, par exemple, entre un réseau local et un réseau grande
distance. Dans un réseau grande distance, la fonction d'adressage n'est assurée qu'au
niveau réseau. Le routeur sera alors chargé de la translation d'adresses, de la
translation de formats des paquets et du routage entre les réseaux. Ce paragraphe
présente dans un premier temps les différentes caractéristiques des routeurs, en se
Interconnexion 287

restreignant aux dispositifs supportant un seul protocole (c'est-à-dire reliant deux


réseaux utilisant le même protocole de haut niveau) et ensuite le protocole Internet
et son fonctionnement.

9.5.2. Qu'est-ce qu'un routeur ?

Dans la mesure où ils opèrent au niveau de la couche réseau, les routeurs


possèdent un logiciel plus élaboré que celui des ponts. Ils peuvent tirer profit des
chemins multiples dans les réseaux complexes. Le routeur est soit un équipement
dédié, soit une station particulière ; il est connecté à plusieurs réseaux aux schémas
d'adressage éventuellement différents. Par conséquent, il possédera autant d'adresses
différentes que de réseaux auxquels il est connecté, chaque adresse correspondant à un
port différent.
Utilisant un système d'adressage hiérarchique qui distingue les adresses système
des adresses réseau, les routeurs autorisent une séparation logique de sous-réseaux au
sein d'un réseau. Ces derniers constituent des domaines pouvant être administrés
indépendamment et de manière distribuée.
Les routeurs n'imposent pas de contraintes de topologie et peuvent, par
conséquent, fournir des contrôles de flux sophistiqués en partageant la charge à
travers le réseau. D'un autre côté, ils constituent des dispositifs actifs et les stations
leur adressent explicitement les paquets à router.
Il est à noter que dans le monde Internet le terme de passerelle est souvent préféré
à celui de routeur.

9.5.3. Fonctionnement d'un routeur

Les routeurs impliquent l'existence de tables de routage. Celles-ci sont utilisées


pour identifier les autres réseaux, les chemins vers ces derniers ainsi que l'efficacité
de ces chemins. Un routeur n'emploie pas ces tables pour déterminer explicitement
l'adresse des stations sur les autres réseaux, comme le font les ponts. Au contraire, il
compte sur les autres routeurs pour accomplir cette tâche. Alors qu'un pont ne fait
que transmettre ou abandonner une trame selon sa table de filtrage, un routeur
sélectionne le meilleur chemin pour chaque paquet.
Un routeur ne reçoit que les paquets que lui adresse une station ou un autre
routeur. En fonction de l'adresse du réseau de destination et des informations
contenues dans sa table, le routeur détermine le prochain sous-réseau sur lequel il
doit retransmettre le paquet. Le processus de routage complet repose sur ce principe
de sauts de routeur en routeur. Cette procédure sélective de transmission des paquets
explique que les chemins redondants puissent exister dans une topologie utilisant des
routeurs.
Les décisions de routage reposent le plus souvent sur un algorithme qui
détermine le nombre de sauts entre les réseaux, assurant que les paquets parcourent le
288 Architecture des réseaux haut débit

chemin le plus court possible. Le gestionnaire du réseau peut influer sur cette
décision en modifiant le nombre de sauts associés à un chemin, ce qui donne la
préférence à un chemin plutôt qu'à un autre.

9.5.4. Routeurs statiques et routeurs dynamiques

Les routeurs statiques ont besoin de l'intervention du gestionnaire du réseau pour


mettre à jour les tables de routage lorsqu'une modification a lieu ou lorsqu'un lien
tombe en panne. Ce type de routage, s'il autorise une mainmise complète du
gestionnaire sur le réseau, n'est pas envisageable dans le cas d'un réseau dont la
topologie est susceptible de subir des changements imprévisibles.
Les routeurs dynamiques utilisent des protocoles de routage spécifiques qui
régissent les échanges d'informations de routage à travers le réseau.

9.5.5. Le protocole Internet

Le protocole Internet (IP — Internet Protocol) [RFC 791] a été spécifié par le
DoD (Department of Defense, USA) pour interconnecter ses nombreux réseaux (cf.
chapitre 1). Le service est sans connexion et le protocole permet le transfert de
datagrammes. Chaque datagramme est traité comme une entité indépendante des
autres datagrammes. IP réalise deux fonctions de base, l'adressage (d'hôtes) et la
fragmentation. Il est souvent couplé avec un protocole de transport très fiable, TCP
(Transmission Control Protocol) [RFC 793]. On parle souvent de TCP/IP ; ce
couple de protocoles est très répandu car il a été intégré dans le noyau d'UNIX à
partir de la version Berkeley 4.2.

9.5.5.1. L'adressage Internet

Un nom désigne ce que l'on cherche ; une adresse indique sa localisation ; une
route indique comment y parvenir. Le protocole Internet traite des adresses : c'est
aux protocoles de niveaux supérieurs de mettre en correspondance des noms avec des
adresses, c'est à IP de mettre en correspondance des adresses IP avec des adresses de
sous-réseaux (ce que l'on a appelé adresses physiques) et c'est le rôle du niveau
inférieur que de mettre en correspondance les adresses de sous-réseaux avec des
routes.
Les adresses Internet sont des adresses hiérarchiques codées sur 32 bits et
composées de deux champs, <réseau> et <hôte>. Le champ <réseau> adresse un
réseau particulier : c'est une référence unique du réseau de par le monde, attribuée par
un organisme central. Le champ <hôte> désigne un hôte particulier ou une
connexion particulière sur le réseau considéré. Un hôte relié à deux réseaux possédera
donc deux adresses Internet, une par connexion réseau.
L'adressage Internet supporte trois classes d'adressage individuel, désignées par A,
B et C, qui permettent de couvrir aussi bien les réseaux locaux à quelques postes que
Interconnexion 289

les réseaux grande distance avec des milliers de postes raccordés. La classe D
supporte l'adressage multipoint. La figure 9.7 donne le format de l'adresse pour
chacune de ces classes. La notation habituelle d'une adresse Internet est le codage
décimal pour chacun des quatre octets la constituant (par exemple, 128.10.2.30 est
une adresse de réseau de classe B).

classe A Oj réseau adresse locale


0 8 31

classe B 10 ; réseau adresse locale


0 16 31

classe C 110 réseau adresse loc.


0 24 31

classe D 1110 adresse de multi-destination

Figure 9.7. Classes d'adressage Internet

9.5.5.2. Encapsulations successives

Le principe utilisé pour l'interconnexion dans Internet réside dans l'encapsulation


successive des PDU de chaque niveau, rendant de ce fait chaque sous-réseau
indépendant de l'autre.

hôte A hôte B
TCP TCP
passerelle R
IP IP \ IP
réseau 2
réseau protocole protocole protocole protocole
d'accès 1 d'accès 1 d'accès 2 d'accès 2

rèsrao t réseau 2

(a) Exemple d'interconnexion (b) Architecture d'interconnexion

en-tête encapsulation par TCP


u o n n e e s
TCP (émetteur)

en-tête en-tête , encapsulation par IP


jp TCP données (émetteur)

encapsulation par
en-tête en-tête en-tête
s
le protocole d'accès du réseau 1
réseau 1 IP TCP " (émetteur)
désencapsulation par
en-tete en-tete le protocole d'accès du réseau 1
o n n e e s routage par IP vers le réseau 2
IP TCP " (passerelle)
encapsulation par
en-tête ;n-tete en-tete , le protocole d'accès du réseau 2
IP T C P données
réseau '* (passerelle)

(c) Encapsulations successives

Figure 9.8. Encapsulations successives IP


290 Architecture des réseaux haut débit

La figure 9.8 présente les encapsulations successives correspondant à


l'interconnexion d'un réseau 1 et d'un réseau 2, en supposant que le protocole utilisé
pour le transport de bout en bout est TCP. L'émetteur se trouve sur le réseau 1, le
destinataire sur le réseau 2. Le message TCP est soumis à IP qui lui ajoute son
propre en-tête avec les adresses Internet de l'hôte source et de l'hôte destinataire. Le
datagramme IP est remis ensuite à la couche de niveau inférieur avec l'adresse
physique de la passerelle sur le réseau 1. Le niveau inférieur l'encapsule à son tour
dans un en-tête spécifique au protocole d'accès utilisé par le réseau 1 et qui comporte
l'adresse physique de la passerelle sur le réseau 1. A son arrivée dans la passerelle, le
paquet est débarrassé de son en-tête de réseau 1. IP effectue alors le routage de ce
paquet vers le réseau 2, puis le remet au protocole d'accès du réseau 2 qui lui ajoute
son en-tête spécifique avec l'adresse physique de l'hôte destinataire sur le réseau 2 et
qui le transfère sur le réseau 2.

L'exemple précédent supposait que le datagramme avait une longueur telle qu'il
pouvait être retransmis sans découpage sur le réseau 2. Ce n'est pas toujours le cas
et une passerelle peut être amenée à réaliser une fragmentation d'un datagramme. La
fragmentation est nécessaire lorsque le datagramme reçu a une longueur supérieure à
la longueur maximum tolérée par le réseau sur lequel il doit être retransmis. Le
datagramme est alors découpé en plusieurs fragments de longueur compatible avec le
maximum autorisé.

9.5.5.3. Routage Internet

Le routage Internet se fait saut par saut à partir de l'adresse de l'hôte destinataire.
L'entité IP locale examine donc cette adresse et détermine si le routage est direct —
le préfixe <réseau> de l'adresse destinataire est le même que le sien — ou s'il est
indirect — le préfixe est différent. Dans le cas d'un routage indirect, l'entité locale IP
choisit le routeur le mieux adapté pour atteindre la destination finale et envoie le
paquet IP à ce dernier en l'encapsulant au passage dans une PDU du protocole d'accès
du réseau sous-jacent. A la réception du paquet, l'entité IP de la passerelle détermine
s'il s'agit d'un routage direct ou indirect, et dans ce dernier cas, vers quelle passerelle
router le paquet. Elle remet alors au réseau de sortie correspondant le datagramme à
transférer vers la nouvelle passerelle. Ce processus se répète jusqu'à ce que le
datagramme ait atteint sa destination finale.

Pour simplifier le routage dans Internet, il a été défini une hiérarchie de sous-
réseaux qualifiés d'autonomes. Un réseau autonome correspond souvent à un pays
particulier, les politiques de télécommunication étant différentes d'un pays à l'autre.
L'échange d'information de routage dans un réseau autonome se fait par le protocole
IGP [RFC 1371]. Dans chaque sous-réseau, une passerelle est reliée à une ou
plusieurs passerelles d'autres sous-réseaux, formant ainsi le réseau central. Le
protocole EGP [RFC 904] permet l'échange d'informations entre les réseaux
autonomes et le réseau central.
Interconnexion 291

9.5.5.4. La datagramme IP
Le protocole IP ne définit qu'un seul type de PDU appelé datagramme IP dont la
figure 9.9 donne la structure. Les différents champs sont :

0 8 16 31

Vers. IHL ToS Total Length

Identification Flags Fragment Offset

Time To Live Protocol Header Checksum


Source Address

Destination Address

Options
Padding

Data

Figure 9 . 9 . Format du datagramme IP

- les quatre bits du champ Version donnent l'identification de la version IP


utilisée. La version en cours est la version 4. Ce numéro autorise la coexistence de
différentes versions et permet aux entités IP de décoder et d'interpréter les champs
suivants du datagramme traité ;

- IHL (Internet Header length) donne la longueur de l'en-tête du datagramme,


exprimée en mots de 32 bits. La valeur minimale est de 5 mots, la valeur maximale
de 15, ce qui limite la longueur du champ d'options à 40 octets ;

- le champ ToS (Type of Service) fournit une indication des paramètres abstraits
de la qualité de service souhaitée. Ce champ est utilisé par les passerelles pour
sélectionner les paramètres de transmission réels d'un sous-réseau donné, le prochain
sous-réseau ou la prochaine passerelle à emprunter. Les 8 bits du champ sont
répartis en trois bits P pour la priorité, un bit D pour le délai, un bit T pour le
débit, un bit R pour la fiabilité et deux bits réservés mis à 0. Les trois bits de
priorité permettent de définir huit niveaux de priorité d'acheminement d'un
datagramme (la valeur 000 correspondant à la priorité la plus basse). Pour les bits D,
T et R, seuls deux niveaux sont possibles, normal (valeur 0) ou élevé (valeur 1). Le
type de service est important puisqu'il permet de définir plusieurs niveaux de services
en fonction du type d'information transportée et de différencier les informations de
contrôle des données. En particulier, il peut constituer un support pour des
algorithmes de contrôle de flux dans des protocoles de couches supérieures dont les
informations de contrôle peuvent être transmises indépendamment des restrictions de
flux imposées. Il faut remarquer que ce champ n'est significatif que dans la mesure
292 Architecture des réseaux haut débit

où les unités d'interconnexion utilisées dans la traversée du réseau l'interprètent et le


respectent, ce qui n'est pas toujours le cas ;

- le champ Total Length indique la longueur totale du datagramme, exprimée en


octets, en-tête et données inclus. En cas de fragmentation, ce champ contient la
longueur du fragment courant. La taille d'un datagramme n'est en théorie limitée que
par les 16 bits servant à la coder. Néanmoins, les machines ont des contraintes
généralement beaucoup plus sévères. Ainsi, et par convention, tout module IP doit
pouvoir traiter des datagrammes de 576 octets (64 pour l'en-tête et 512 pour les
données). Au-delà, un module émetteur doit s'assurer au préalable que son
homologue récepteur est capable de gérer des longueurs supérieures ;

- le champ Identification de 16 bits permet (en association avec les champs


d'adresses et de protocole) d'identifier le datagramme initial lors de son envoi. Le
principal usage de ce champ est donc de permettre à une entité réceptrice de
reconnaître les différents fragments issus d'un même datagramme initial et devant
donc faire l'objet d'un réassemblage ;

- le champ Flags intervient au niveau de la fragmentation du datagramme. Sur


les 3 bits le composant, seuls deux sont utilisés, le troisième étant réservé et mis à
0. Le drapeau DF (Don't Fragment) permet, lorsqu'il est positionné à 1, d'interdire la
fragmentation sur le datagramme traité (si le datagramme porte un DF égal à 1 et
qu'il ne peut être délivré à sa destination sans être fragmenté, il est détruit). Le
drapeau MF (More Fragment) mis à 0 indique que le datagramme courant est le
dernier (ou le seul s'il n'y a pas eu fragmentation) d'une liste de fragments ; mis à 1,
il signale que d'autres fragments issus d'un même datagramme suivent ;

- Fragment Offset, codé sur 13 bits, indique la position relative (en unité de
8 octets) des données contenues dans ce datagramme par rapport au début des
données du datagramme initialement émis. Seuls un datagramme complet et un
premier fragment de datagramme peuvent avoir ce champ à 0 ;

- le champ Time To Live permet d'éviter à un paquet de circuler trop longtemps


ou de boucler dans le réseau et d'introduire des dysfonctionnements au niveau TCP.
La valeur de la durée de vie est comprise entre 0 et 255. Elle est initialisée à 255 par
l'émetteur du datagramme, puis décrémentée d'une unité à chaque traversée de
passerelle. Tout intermédiaire ou destinataire qui détecte le passage de ce champ à la
valeur 0 est supposé détruire le datagramme et renvoyer un message ICMP de
notification à l'émetteur. En cours de réassemblage, une machine réceptrice est
censée décrémenter ce champ toutes les secondes environ pour les datagrammes
composant le datagramme initial, tant que tous les fragments ne sont pas tous
arrivés. En ce sens, ce champ peut également être considéré comme un temporisateur
de réassemblage ;

- le champ Protocol identifie le protocole de niveau supérieur, utilisé pour le


champ de données du datagramme. A titre d'exemples, la valeur 00000001 identifie
ICMP. 00010001 UDP, 00000110 TCP, 00001000 EGP, 00001001 IGP ;
Interconnexion 293

- le champ Header Checksum véhicule une séquence de contrôle de 16 bits,


calculée uniquement sur l'en-tête du datagramme et permettant de vérifier que
l'information utilisée pour traiter le datagramme a été transmise de façon correcte. En
cas d'erreur, le datagramme est détruit par l'entité l'ayant détectée. La protection des
données, si nécessaire, est laissée à la charge du protocole de transport ;

- le champ Source Address transporte l'adresse Internet de la source ;


- le champ Destination Address transporte l'adresse Internet du destinataire ;

- le champ Options, de longueur variable (comprise entre 0 et 20 octets), sert à


des fonctions de contrôle nécessaires ou utiles dans certaines situations. Ces services
optionnels comptent entre autres l'estampillage (enregistrement de l'heure de chaque
passage de passerelle), l'enregistrement de route (enregistrement de l'adresse de chaque
passerelle traversée), le routage par la source, la sécurité (en permettant aux hôtes
d'indiquer des restrictions liées à la sécurité) ;

- le champ de bourrage, Padding, permet d'aligner l'en-tête de datagramme sur


une frontière de 32 bits.

9.5.5.5. Service Internet

Pour demander le transfert des données dans un datagramme, deux primitives de


service sont offertes à l'utilisateur : SEND et DELIVER. Elles correspondent à la
requête de transfert de données (primitive SEND) et à l'indication de réception de
données (primitive DELIVER). En émission, les paramètres de la primitive
permettent l'initialisation des champs du datagramme IP. Le tableau 9.1 donne la
liste des paramètres utilisés.

paramètres SEND DELIVER


adresse source X X
adresse destinatation X X
protocole de niveau supérieur X X
indicateurs de QoS (pour chacun, niveau normal ou élevé) X X
identificateur de l'unité de données X
indicateur de fragmentation (autorisé ou non) X
durée de vie du datagramme X
longueur des données X X
données optionnelles (liste d'adresses de passerelles
X X
pour un routage par la source, par exemple)

données X X

Tableau 9 . 1 . Paramètres des primitives SEND et DEL/VER


294 Architecture des réseaux haut débit

9.5.5.6. IPng et IPv6

Les concepteurs de TCP/IP étaient loin, au début des années 80, de se douter de
l'explosion à laquelle est confronté aujourd'hui le réseau Internet mondial. Des
estimations de 1987 prévoyaient le besoin d'adresser 100 000 réseaux dans un futur
assez vague. Il apparaît que ce seuil sera atteint dès 1996. D'autres estimations, cette
fois réalisées en 1994, projettent quelques millions de réseaux interconnectés dans un
futur pas trop lointain. Cette expansion constitue un véritable problème. En effet,
l'espace d'adressage offert par l'actuelle version d'IP devient complètement saturé.
Même si les 32 bits d'adresse permettent — en théorie — d'adresser 4 billions de
machines sur plus de 16 millions de réseaux, l'efficacité de la procédure d'attribution
d'adresses est telle qu'on est loin (très loin) de pouvoir approcher ces valeurs. La
granularité des adresses — répartition des adresses en trois classes, A, B et C —
n'arrange rien. De fait, la classe B est devenue, dès mars 1994, une ressource
extrêmement critique. D'autres facteurs contribuent également au besoin pressant
d'évolution d'IP. Ils sont pour la plupart liés à l'émergence de nouvelles
applications. Citons les applications multimédias, pour lesquelles les contraintes de
délais bornés imposent l'utilisation de mécanismes de gestion de qualité de service,
ou encore les applications sensibles qui exigent la mise en œuvre de mécanismes
d'authentification et de cryptage.
Face à cela, l'IETF (Internet Engineering Task Force) a mis en place, dès 1991,
des groupes de travail. Chercheurs, universitaires, constructeurs, équipementiers,
développeurs, fournisseurs venus de tous les horizons ont uni leurs efforts dans le
but de produire IPng, IP — The Next Generation. On peut aisément imaginer qu'un
consensus fut long à obtenir et que le choix d'un protocole parmi tous ceux proposés
ne fut pas chose aisée. Le lecteur intéressé pourra se référer au [RFC 1752] pour une
description des besoins exprimés pour IPng et des principales propositions.
Finalement, le protocole SIPP (Simple Internet Protocol Plus) [RFC 1710] a été
retenu comme base à la future version d'IP. Pour la distinguer de la version courante
(IPv4), la nouvelle version s'appellera IPv6 (le numéro de version 5 ayant été
attribué entre-temps au protocole ST).

IPv6 constitue une évolution d'IPv4. En tant que tel, il reprend bon nombre des
caractéristiques qui ont fait le succès de son prédécesseur : opération en mode non
connecté, fragmentation des datagrammes, possibilité de routage par la source, etc.
Ses principales caractéristiques résident dans :

- des fonctionnalités d'adressage et de routage accrues : la taille des adresses est


quadruplée ; passant de 32 à 128 bits, elle permet bien évidemment d'adresser un
nombre beaucoup plus important de machines, mais aussi de permettre davantage de
niveaux dans la hiérarchie d'adressage et une auto-configuration des adresses plus
simple ;
- un nouveau format d'en-tête de paquet : la structure du datagramme a été
entièrement modifiée, ce afin d'une part, de réduire le coût de traitement minimum
des paquets et. d'autre part, de limiter le surdébit associé à l'en-tête ; certains champs
ont ainsi été soit abandonnés, soit rendus optionnels ;
Interconnexion 295

- une souplesse dans l'ajout de fonctionnalités : contrairement à IPv4 qui repose


sur un en-tête à format fixe, où tous les champs, excepté les options, sont codés sur
un nombre fixe d'octets, IPv6 utilise un ensemble d'en-têtes optionnels. Les
options, de longueur quelconque, sont ainsi placées dans des en-têtes séparés qui
prennent place entre l'en-tête d'IPvô et l'en-tête de protocole de niveau supérieur
(TCP, par exemple). Cette organisation particulière permettra aux routeurs traversés
de ne traiter que les en-têtes indispensables et donc d'améliorer les performances ;
- la possibilité d'identification de flots de données : il sera possible d'attribuer
une étiquette aux paquets appartenant à des flots de trafic pour lesquels l'émetteur
souhaite un traitement spécial ; ceci sera particulièrement utile aux applications à
contraintes de qualité de service ;
- des fonctionnalités d'authentification et de protection des données tout au long
de leur acheminement.

La spécification détaillée du protocole IPv6, dans son état actuel, est donnée dans
[Deering 95].

9.6. S M D S (Switched Multimegabit Data Service)

9.6.1. Définition

Le service SMDS [Bellcore 92] est un service de transport de données pour


environnement d'interconnexion de réseaux locaux via un ou plusieurs réseaux
fédérateurs (réseaux métropolitains, RNIS-LB dans un proche avenir). SMDS est
issu du laboratoire américain Bellcore. Ce protocole haut débit fonctionne en mode
non connecté et effectue la commutation de paquets d'un sous-réseau à l'autre.
SMDS est indépendant de la technologie sous-jacente mais est dans un premier
temps supporté par des réseaux de type DQDB, puis sera supporté par le RNIS-LB.
L'appellation retenue en Europe par l'ETSI est CBDS (Connectionless Broadband
Data Services). Dans l'hexagone, France Télécom utilise d'ores et déjà CBDS pour
son offre Transrel/ATM disponible depuis la fin 1994 pour l'interconnexion à hauts
débits (64 kbit/s, 2, 4, 10, 16, 25 et bientôt 34 Mbit/s) de réseaux locaux.

Nous nous intéressons dans ce paragraphe au modèle défini pour SMDS/CBDS


puis à ses fonctionnalités.

9.6.2. Le modèle d'interconnexion

Les spécifications de SMDS définissent une nouvelle terminologie :


- les CPE (Customer Premises Equipment) représentent les réseaux locaux
d'usagers interconnectés aux réseaux de transport d'information ;
296 Architecture des réseaux haut débit

- les LEC (Local Exchange Carrier) représentent les réseaux de transport


d'information (i.e. les réseaux fédérateurs) ;
- les IC (Inter-exchange Carrier) sont des réseaux intermédiaires, en général
grande distance, utilisés pour interconnecter des LEC lointains. Aucun CPE n'y est
connecté directement ;
- les ICI (Inter-exchange Carrier Interface) sont les interfaces mises en place soit
entre deux LEC, soit entre un LEC et un IC ;
- les SNI (Subscriber Network Interface) permettent de relier un CPE à un LEC.

La figure 9.10 décrit l'interconnexion de deux CPE (deux réseaux locaux Ethernet
et Token Ring dans l'exemple) à travers deux LEC (deux réseaux métropolitains
DQDB) et un IC (un réseau RNIS-LB). Nous détaillons à présent les composants
que nous venons d'introduire.

9.6.2.1. Le modèle LEC

Les nœuds d'un réseau LEC sont appelés SS (Switching Systems). En fait, un
LEC peut être constitué d'un ou plusieurs nœuds. Dans ce dernier cas, la topologie
est maillée, ce qui permet des chemins multiples entre deux SS donnés. L'interface
entre deux SS est appelée ISSI (Inter-Switching System Interface) (figure 9.10). Le
service SMDS est assuré par les SS et grâce au protocole de dialogue entre SS, le
protocole ISSIP (Inter-Switching System Interface Protocol).

CP1

CPE - Customer Premises Equipment


IC - Inter-exchange Carrier
ICI - Inter-exchange Carrier Interface
ISSI - Inter Switching System Interface
IWU - Inter-Working Unit (UIF - Unité d'InterFonctionnement)
LEC - Local Exchange Carrier
SNI - Subscriber Network Interface
SS - SMDS Switching System

Figure 9.10. Le modèle LEC


Interconnexion 297

9.6.2.2. Le modèle SS
Les Switching Systems réalisent la commutation de paquets à haut débit. Un SS
est modélise comme étant un nœud du réseau LEC mais physiquement, il correspond
à un réseau métropolitain dont un ou plusieurs nœuds supportent SMDS. De ce fait,
un Switching System peut être centralisé — un seul nœud supportant SMDS — ou
réparti — plusieurs nœuds supportant SMDS. Dans ce dernier cas, chaque entité du
SS est appelée SS-NE (Switching System-Network Element).

Chaque SS pouvant gérer jusqu'à trois types d'interfaces différents (SNI, ISSI,
ICI) en fonction du type d'équipement connecté, un SS-NE (ou SS centralisé)
possède une architecture logique modulaire où chaque module est dédié à la gestion
d'une interface particulière (figure 9.11) :

-SS-NE- SS-NE-
CPE,
ressources ressources { CPE )
communes communes
CPE
;NIM SNIM
PIM \ PIM
SS—, SNIM I
ICIM I
aaim | IC
ISSIMj p
ss—
F i g u r e 9 . 1 1 . Le modèle Switching System

- le module SNIM (Subscriber-Network Interface Module) gère l'interface SNI et


supporte le protocole SIP (SMDS Interface Protocol) afin d'assurer les services de
transport de données offerts au réseau client ;
- le module ICIM (Inter-exchange Carrier Interface Module) gère l'interface ICI
et offre les fonctionnalités de SMDS pour transférer des données avec le protocole
ICIP (Inter-exchange Carrier Interface Protocol) au-dessus d'un réseau grande
distance ;
- le module ISSIM (Inter-Switching System Interface Module) gère l'interface
ISSI et assure le dialogue entre nœuds grâce au protocole ISSIP (Inter-Switching
System Interface Protocol). Il existe autant de modules ISSIM que de nœuds
connectés au nœud considéré.
Par ailleurs, dans un SS distribué, des modules nommés PIM (Proprietary Intra-
SS Interface Module) supportent le protocole de transfert de données interne au SS
(c'est-à-dire entre les différents SS-NE). Ce protocole est propre au support choisi
pour implanter le SS distribué.
298 Architecture des réseaux haut débit

Enfin, un SS-NE ou un SS centralisé contient des ressources partagées par les


différents modules. Il s'agit par exemple des fonctions d'échange d'informations entre
les différents modules, fonctions qui dépendent de la technologie utilisée.

9.6.3. Fonctionnalités de SMDS

Les fonctionnalités de SMDS sont définies sous forme de fonctions génériques à


savoir le transport de données, le routage des paquets, le contrôle de congestion, le
partage de charge ainsi qu'un ensemble d'activités permettant la gestion de réseaux.
Chacune de ces fonctionnalités est présentée dans la suite.

9.6.3.1. Les utilisateurs du service SMDS

Les utilisateurs du service fourni par le protocole SMDS sont des groupes de
fonctions utilisant les services des protocoles SIP, ISSIP et ICIP. Ces fonctions
supportent le transport des paquets de données et de gestion entre une SNI et un
LEC, entre un IC et un LEC ou entre deux LEC. De plus, ces fonctions assurent
l'adressage de groupe ainsi que la gestion et les opérations internes à un SS (tests de
boucles, tests de routage et administration des notifications).

9.6.3.2. Le transport de données

Le transport de données est la fonction essentielle de SMDS. Il peut être de deux


types : entre deux nœuds d'un même SS, il dépend de la technologie utilisée et n'est
pas défini dans SMDS ; par contre, pour transférer des données entre deux SS,
l'interface commune ISSI supporte le protocole ISSIP défini selon une architecture à
trois niveaux (figure 9.12).

utilisateurs du service SMDS

ISSIP niveau 3
interface indéDendante
de la technologie

làMP niveau 2 T F P F an? A ATM

ISSIP niveau 1 DS3 SONET |

F i g u r e 9 . 1 2 . Architecture du protocole ISSIP

9.6.3.3. Le routage

Chaque système SS n'étant pas connecté directement à tous les autres, un paquet
doit avancer par sauts successifs avant d'atteindre sa destination. Il faut donc
connaître le chemin que doit emprunter chaque donnée pour arriver à destination avec
un délai minimum. Cela constitue le rôle d'un protocole de routage qui est appelé
Interconnexion 299

RMP (Routing Management Protocol). RMP permet à chaque SS de connaître la


topologie complète du réseau afin qu'il puisse facilement déterminer le chemin le
plus court vers n'importe quel autre SS ou réseau externe. Dans le même ordre
d'idée, chaque changement dans la topologie est facilement pris en compte par les SS
et les nouveaux chemins sont rapidement calculés. Ce protocole réduit également le
déséquencement des données car le même chemin est utilisé pour les paquets qui ont
les mêmes adresses de source et de destination.
Enfin, les SS peuvent diffuser les paquets adressés à un groupe grâce à
l'algorithme de l'arbre couvrant. Cet algorithme donne les plus courts chemins pour
effectuer cette diffusion à partir du nœud concerné et tient compte des modifications
éventuellement apportées à la topologie du réseau.

9.6.3.4. Le contrôle de congestion

SMDS est destiné à être utilisé sur des réseaux métropolitains comportant un
très grand nombre de SS. Ainsi, lorsque l'on observe un phénomène de congestion,
il est nécessaire de l'isoler et de le contrôler au plus vite afin de ne pas étendre le
problème aux nœuds voisins. La spécification de SMDS définit un mécanisme de
contrôle de congestion distribué pour répondre à ces impératifs. Le but est de
résoudre la congestion d'un nœud à partir des autres SS du réseau en mettant au point
un mécanisme de contrôle réactif. A noter également que l'on peut chercher à éviter
la congestion grâce à un contrôle préventif mis en œuvre par un algorithme de
partage de charge.

Chaque SS doit détecter s'il est dans un état de saturation en comparant ses
paramètres d'utilisation avec des valeurs seuils. Lorsqu'un seuil est franchi, il envoie
une notification de son état aux autres SS. Le même message de notification est
ensuite envoyé périodiquement jusqu'à ce qu'il y ait un changement du niveau de
congestion. Lorsque le SS congestionné constate qu'il est repassé en-dessous du
seuil, il le notifie aux autres SS qui arrêtent leurs procédures correspondantes.
Lorsqu'un SS reçoit l'un de ces messages de notification, il l'interprète afin de
savoir quel nœud est congestionné et à quel niveau, il arme un temporisateur, puis il
effectue des actions afin d'essayer d'enrayer le phénomène. Ces actions consistent à
supprimer certains des paquets qui doivent passer par le nœud congestionné. Si le
temporisateur armé lors de la réception du message de notification expire avant que
le SS n'ait reçu un nouveau message de notification en provenance du même nœud,
il stoppe ses procédures de rejet.
Par ailleurs, les plate-formes d'administration peuvent aussi réagir lorsqu'elles
détectent une congestion ; elles peuvent par exemple envoyer de leur propre chef des
notifications aux SS afin qu'ils activent les procédures de rejet ou de re-routage.

9.6.3.5. Le partage de charge

Etant donné la possibilité d'avoir plusieurs liens à travers les interfaces ISSI
entre deux SS, SMDS définit un algorithme de partage de charge qui détermine pour
un paquet donné quel chemin il doit choisir.
300 Architecture des réseaux haut débit

9.6.3.6. La gestion

U s'agit de l'ensemble des activités d'un LEC portant sur la gestion du réseau.
Cela comprend les fonctions et outils offerts par les plate-formes d'administration,
les fonctions des différents éléments de réseau et les fonctions qui permettent de
faciliter les communications à travers les interfaces entre plate-formes, entre
éléments de réseau ou encore entre plate-forme et élément de réseau.

9.6.4. Le protocole ISS1P

L'architecture du protocole ISSIP comprend trois niveaux de fonctionnalités


(figure 9.12).

9.6.4.1. Niveau 3 du protocole ISSIP

Ce niveau offre les services au protocole d'utilisation. Il est composé de trois


protocoles :

- le protocole L3-DTP (Level 3 Data Transport Protocol) assure l'avancement,


le relais et la réception des paquets ainsi que le support de l'adressage de groupe. Il
encapsule les paquets reçus avec un en-tête de 40 octets afin de former une L3-
DTPDU ;
- le protocole ISSI-RMP (Inter-Switching System Interface-Routing
Management Protocol) tient à jour dans chaque SS la topologie du réseau et calcule
les plus courts chemins entre le SS considéré et les autres SS ;
- le protocole CMP (Congestion Management Protocol) supporte les procédures
de génération, de distribution et de réception des messages ECN (Explicit
Congestion Notification) de notification de congestion. Ceux-ci sont utilisés par le
L3-DTP pour déterminer si un paquet doit être rejeté suite à une congestion.

Il est important de noter que le niveau 3 ne dépend pas du support utilisé. Cela
est possible grâce à l'interface mise en place avec le niveau 2 qui est indépendante de
la technologie du réseau.

9.6.4.2. Niveau 2 du protocole ISSIP

Ce niveau est dépendant de la technologie employée dans le réseau fédérateur. Il


permet le transport de L3-DTPDU de taille variable et assure des fonctions de
détection d'erreurs de transmission, de segmentation et de réassemblage.
Le protocole associé à ce niveau est organisé en trois blocs de fonctions auxquels
sont associées trois unités de protocoles (PDU) différentes : le bloc des fonctions de
convergence construit des CVG-PDU, le bloc des fonctions de segmentation et
réassemblage construit des SAR-PDU et enfin, le bloc des fonctions des cellules
génère des cellules.
Interconnexion 301

Le déploiement de SMDS est prévu sur des réseaux de type DQDB (IEEE 802.6)
ou de type ATM. De toute évidence, la technologie employée dans le réseau
conditionne celle choisie pour le niveau 2 de SMDS.

9.6.4.3. Niveau 1 du protocole ISSIP

Le niveau 1 réalise le transfert physique des données ; il dépend lui aussi du


support choisi. Deux spécifications ont été définies. La première repose sur le
protocole DS3 et est utilisée lorsque le niveau 2 est conforme au standard IEEE
802.6 (DQDB). La seconde repose sur le standard SONET STS-3C ; elle est mise
en place lorsque le niveau 2 utilise ATM.

9.7. Le relais de trames

9.7.1. Généralités

Le relais de trames (Frame Relay) [ANSI 90] est considéré comme la solution
intermédiaire à la demande de hauts débits. En effet, les réseaux X.25 existants ne
sont capables que d'offrir des débits de l'ordre du kbit/s et ne peuvent satisfaire les
contraintes de délai requises par les nouvelles applications qui émergent. D'autre
part, les liaisons spécialisées, bien qu'offrant des débits de l'ordre du Mbit/s, ne sont
pas suffisamment flexibles en termes d'offre de débits et se révèlent coûteuses. Si le
réseau ATM est la solution à long terme, le relais de trames constitue une solution à
court et moyen termes.
Le relais de trames consiste en un système de commutation de paquets
"dépouillé" dont le débit peut actuellement atteindre 2 Mbit/s ; des débits supérieurs
seront prochainement proposés. Le contrôle d'erreur et le contrôle de flux sont
reportés au niveau des équipements d'extrémité. Les nœuds intermédiaires n'assurant
plus qu'une fonction de relais de trames, leur temps de traversée est cinq à dix fois
plus court que celui d'un commutateur X.25. Les données sont transmises à l'aide
d'un noyau de base utilisant une enveloppe de trame HDLC, avec détection mais
sans signalisation ni correction d'erreur. Différentes sessions peuvent être ouvertes
simultanément grâce à l'utilisation de numéros de voies logiques. Le relais de trames
permet également la concentration de flux synchrones X.25 ou asynchrones X.28.
La voix, compressée dynamiquement jusqu'à 8 kbit/s, est proposée par certains
constructeurs mais n'est pas encore normalisée au sein de l'UIT-T.

9.7.2. La trame Frame Relay

La trame a le même format (figure 9.13) que celui défini dans le protocole de
liaison de données HDLC (High-level Data Link Control) [IS 3309]. Une trame est
considérée comme valide lorsqu'elle est délimitée par les drapeaux "01111110" et
qu'elle comporte au moins cinq octets, hors drapeaux, soit au moins un octet
302 Architecture des réseaux haut débit

d'information. La longueur d'une trame est variable et au maximum de 2 048 octets.


La transparence au drapeau est faite par insertion d'un zéro après toute série de cinq
" 1 " consécutifs.

0 1 1 1 1 1 1 0
DLCI (MSB) C/R EA
FE BE
DLCI (LSB) CN CN
C/R EA

user data

FCS (MSB)
FCS(LSB)
0 1 1 1 1 1 1 0

F i g u r e 9 . 1 3 . Format de la trame Frame Relay

Les différents champs de la trame ont la signification suivante :

- DLCI (Data Link Connection Identifier) permet d'identifier la trame ou le


circuit virtuel. Le codage est réalisé sur 10 bits, donnant 1 024 valeurs possibles,
dont certaines sont réservées ;
- le bit C/R (Command/Response) n'est pas utilisé par le protocole ; il est
simplement transféré entre les utilisateurs du service de relais de trames et leur
permet de distinguer une trame de commande d'une trame de réponse ;
- les bits EA (Extended Address) servent à délimiter le champ d'adresse (EA = 0
dans le deuxième octet et EA = 1 dans le troisième) ; une valeur à 0 indique que
l'octet suivant fait partie du DLCI, une valeur à 1 indique que l'octet courant est le
dernier du DLCI ;
- le bit BECN (Backward Explicit Congestion Notification) est positionné à 1
par le réseau pour indiquer à l'émetteur que les trames qu'il pourrait émettre vont
traverser un réseau encombré ;
- le bit FECN (Forward Explicit Congestion Notification) est mis à 1 par le
réseau pour indiquer au récepteur que les trames qu'il reçoit ont traversé un réseau
encombré ;
- le bit DE (Discard Eligibility) est mis à 1 pour indiquer qu'en cas de
congestion cette trame peut être rejetée ;
- le champ User Data correspond au champ d'information transmis ; il n'est pas
interprété par le protocole de relais de trames (excepté le CV dédié au LMI (Local
Management Interface)) ;
- le champ FCS (Frame Check Sequence) contient sur deux octets la séquence de
contrôle d'erreur calculée sur tous les bits de la trame, hormis les drapeaux et le
FCS.
Interconnexion 303

9.7.3. Principe de l'adressage Relais de trames

Le DLCI identifie localement la connexion bidirectionnelle entre l'équipement


client et le commutateur de relais de trames : chaque DLCI n ' a qu'une signification
"locale", c'est-à-dire significative uniquement entre deux nœuds. Un même numéro
de DLCI peut donc être utilisé plusieurs fois dans un même réseau, pourvu qu'il ne
s'agisse pas de communications avec des nœuds communs.

La figure 9.14 montre l'exemple de l'interconnexion de quatre sites reliés par un


réseau de relais de trames. Les numéros indiqués sont ceux des DLCI utilisés. Le site
A utilise le DLCI 27 pour communiquer avec le site B, alors que le site B utilise le
DLCI 99 pour communiquer avec le site A. Lorsque A est prêt à émettre une trame à
destination de B, l'installation terminale de l'utilisateur positionne le DLCI à 27
dans la trame qu'elle émet vers le réseau. Ce dernier reconnaît cette valeur et
achemine donc la trame vers le site B. A son arrivée, la valeur de DLCI est translatée
en 99 afin d'indiquer la provenance de la trame. Le DLCI 27 peut être réutilisé entre
les sites C et D.

site A site B
utilisateur utilisateur

réseau
Frame Relay

site C site D
utilisateur utilisateur

F i g u r e 9 . 1 4 . Utilisation des DLCI

9.7.4. Etablissement d'une connexion

Lorsque l'application A émet une requête d'établissement de connexion, la


requête, après avoir traversé les couches présentation et session, arrive à la couche
transport qui transmet la demande d'appel sur le canal D, canal de signalisation du
RNIS-BE (Réseau Numérique à Intégration de Services-Bande Etroite), via le
protocole de signalisation Q.931 (figure 9.15). Sur ce canal D, le protocole LAP-D
réalise au niveau liaison les fonctions de commutation, de multiplexage, de contrôle
d'erreur et de contrôle de flux. Le message de signalisation est acheminé à travers le
réseau et sert à déterminer le circuit virtuel ainsi que les paramètres d'appel qui seront
utilisés durant le transfert de données.

Une fois la connexion établie, les données sont transférées à travers le réseau, de
l'application A à l'application B, en se servant du DLCI dans l'en-tête et en routant
304 Architecture des réseaux haut débit

les informations à chaque nœud selon le chemin déterminé lors de la phase


d'établissement de la communication. Le protocole V . 1 2 0 est une variante du
protocole LAP-D qui a pour objectif initial de permettre l'utilisation du canal B du
RNIS-BE par des terminaux non-RNIS.
Le grand avantage du relais de trames est de pouvoir optimiser les traitements de
chaque trame dans les nœuds, accélérant ainsi les transferts d'information.

équipement terminal A équipement terminal B

application A application A

presentation presentation
commutateur
session session
RNIS
transport transport |
RNIS réseau réseau
reseau réjeau
réseau de
liaison signalisation liaison

V 120 L|P-D LAPïD V.120

relais de tramts relais de trames relais de trames

physique physique physique

transfert de données
commutateur ae
établissement de connexion relais de trames

Figure 9.15. Connexion Frame Relay


Interconnexion 305

Exercices

Exercice 9.1

Comparez l'algorithme Spanning Tree et l'algorithme Source Routing.

Exercice 9.2
On considère les réseaux suivants : Ethernet, Token Bus, Token Ring, FDDI et
DQDB.

1. Comparez leurs caractéristiques en termes de topologie, de débit, de temps


d'accès, de longueurs de trame minimale et maximale et de gestion de priorités.
2. Comparez leurs formats de trame.

3. Déterminez les opérations effectuées par un pont interconnectant deux


quelconques de ces réseaux.

4. En considérant chaque couple possible de réseaux, indiquez les opérations


spécifiques que doit réaliser le pont.

Exercice 9.3

On interconnecte un réseau Token Ring et un réseau Ethernet.

1. Donnez l'architecture dans le cas d'une interconnexion au niveau MAC et dans


le cas d'une interconnexion au niveau réseau.

2. Indiquez pour chacun des éléments ci-dessous les traitements éventuels dans le
cas d'un pont et dans le cas d'un routeur :
a. Longueur de PDU
b. Fragmentation et réassemblage d'une PDU
c. Temps de réassemblage d'une PDU
d. Durée de vie d'une PDU
e. Priorité d'une PDU
f. Nombre de paquets déséquencés
g. Nombre de paquets dupliqués
h. Vérification du champ de contrôle de la PDU
i. Adresse destination de la PDU
j . Adresse source de la PDU

Exercice 9.4

Un utilisateur du service de réseau situé sur la machine A souhaite envoyer à un


utilisateur du service de réseau situé sur la machine B un volume de données
représentant 2 800 octets. Représentez sur un schéma l'enchaînement complet de
toutes les primitives de service MAC et LLC utilisées et les échanges de PDU
306 Architecture des réseaux haut débit

nécessaires à l'envoi de ces 2 800 octets. On considérera un en-tête IP de 22 octets,


des adresses MAC de 2 octets et que la couche LLC opère en mode connecté.

couches sup. couches sup.

IP nnnf IP

LLC2 interface du pont LLC2

CSMA/CD fSMA/CD Token Rine Token Ring

physique 1 physique 2 physique 2


physique 1

support physique support physique

Exercice 9.5
Un réseau métropolitain DQDB à 155 Mbit/s (IEEE 802.6) est utilisé comme
réseau fédérateur pour interconnecter deux réseaux locaux utilisant comme méthode
d'accès le protocole Token Ring spécifié dans le standard IEEE 802.5 et offrant
chacun un débit brut de 4 Mbit/s. Sur chaque Token Ring, 6 stations sont
connectées qui génèrent le même trafic. La longueur des données d'une trame Token
Ring est de 1 koctet.

générateur
de trames !

I Token Token
Ring DQDB Ring
passerelle passerelle

1. Donnez l'architecture de l'interconnexion Token Ring/DQDB.


2. Dans quel type de slots la passerelle doit-elle transmettre les trames Token
Ring sur le réseau DQDB ?
3. Quelles sont les principales fonctions réalisées par cet équipement
d'interconnexion ?
4. L ' U I F dispose de 4 ko de tampons en tout. Quels problèmes risque-t-il de
se produire '? Comment y remédier '?
Interconnexion 307

Exercice 9.6

1. Rappelez la structure de la table de filtrage d'un pont et en quoi consistent


les opérations de filtrage et de mise à jour.

2. On souhaite distribuer la fonction de filtrage afin de paralléliser les


traitements réalisés par le pont. Pour ce faire, une table de filtrage est utilisée par
port du pont. Comment le filtrage opère-t-il ? Quelle structure de table peut-on
utiliser ?

Exercice 9.7

Comparez les critères de QoS fournis par les ponts et les routeurs en
considérant : le temps de transit, la taille de l'information, le taux de pertes, le taux
d'erreurs, la durée de vie de l'information, les priorités, la sécurité et la réaction après
mise hors service d'une route.

Exercice 9.8

On souhaite interconnecter un réseau DQDB avec un réseau large bande utilisant


la technique ATM.

1. Sur le réseau DQDB, trois modes sont possibles : isochrone, asynchrone


sans connexion, asynchrone avec connexion. Sur le réseau large bande, le mode
ATM utilise un mode orienté connexion. Quel est à votre avis le mode DQDB qui
conviendrait le mieux pour interconnecter un utilisateur du réseau large bande et un
utilisateur du réseau DQDB ?

2. Sur le réseau large bande, quel type d'AAL serait le mieux adapté ?

3. Pour minimiser les temps de traitements induits par les protocoles,


l'interconnexion doit être réalisée au niveau le plus bas. Discutez des problèmes
posés par l'interconnexion au niveau s/of/cellule dans chaque sens de transmission,
tels que l'adressage, la compatibilité des couches d'adaptation des deux réseaux ainsi
que les similitudes et les différences de formats entre les diverses PDU.

4. Définissez une architecture pour leur interconnexion, ainsi que les


fonctionnalités à remplir.

Exercice 9.9

On souhaite surveiller le comportement du protocole IP. Quelles sont les sondes


logicielles nécessaires pour connaître l'état du protocole IP ?
Corrigés

Chapitre 1

Réponse 1.1

- Proposer un modèle général d'architecture de réseau,


- régler les problèmes de l'interconnexion de systèmes hétérogènes,
- préciser les concepts et la terminologie du domaine de la téléinformatique,
- etc (cf. 1.4.).

Réponse 1.2

Les TPDU sont les unités de données du protocole de transport (niveau 4). Les
paquets ou NPDU sont les unités de données du protocole de réseau (niveau 3). La
couche réseau étant immédiatement inférieure à la couche transport, ce sont les
paquets qui encapsulent les TPDU.

transport TPDU

reseau
NPCI NSDU

NPDU

Réponse 1.3

Quel que soit le type de paquet considéré (acquittement, appel, libération,


données, etc.), il sera encapsulé dans une trame de données. Cela fait référence à l'un
des concepts essentiels du modèle OSI : toute (N)PDU envoyée par une entité (N) à
3 1 0 Architecture des réseaux haut débit

une entité homologue est soumise au niveau inférieur, ( N - l ) , sous la forme d'une
(N-l)SDU (en l'absence de concaténation) qui sera transférée de manière transparente
par l'entité ( N - l ) sous-jacente lors de la phase de transfert de données au niveau
(N-l).

Réponse 1.4

mode connecté mode non connecté


Avantages - garantie de la présence d e - possibilité de diffusion
l'interlocuteur - efficacité en cas de petits
- qualité du temps de réponse en transferts isolés dans le temps
phase de transfert
- négociation possible de QoS et
d'options lors de l'établissement
- fiabilisation possible du transfert
de données (contrôle d'erreur,
contrôle de flux)
- minimisation du volume
d'information de contrôle du
protocole pendant la phase de
transfert
Inconvénients - présence obligatoire de - pas d e fiabilité (pertes,
l'interlocuteur erreurs, duplications,
- mise en œuvre de procédures déséquencements possibles)
lourdes pour l'établissement et la - surdébit important
libération (à un degré moindre) de (notamment, toute unité de
connexion données doit véhiculer
- immobilisation de ressources de l'information d'adressage)
communication pendant toute la - pas de négociation possible
durée de la connexion
- communications point à
multipoint mal supportées
- manque d'efficacité pour de petits
transferts isolés dans le temps

Réponse 1.5

Couche (N) en mode connecte' et couche (N-l) en mode non connecte'

Les (N-1 )SDU sont transférées de façon totalement indépendante entre elles et
sans aucune garantie de fiabilité. En conséquence, les (N)PDU qu'elles représentent
peuvent être altérées, perdues, dupliquées ou déséquencées. Si la couche (N) doit
rendre un service fiable, elle devra réaliser elle-même tous les contrôles qui
s'imposent (contrôle de flux, contrôle d'erreur — numérotation des (N)PDU,
acquittement des (N)PDU, calcul de séquences de contrôle, temporisations,
retransmission, etc.) avec la complexité protocolaire qui en découle.
Corrigés 3 1 1

Couche (N) en mode non connecté et couche (N-l) en mode connecté

L'envoi d'une (N)PDU nécessite l'existence préalable d'une connexion ( N - l ) .


Faut-il alors ouvrir une connexion (N-l), envoyer la (N)PDU et fermer la connexion
(N-l) ? Ou faut-il garder la connexion (N-l) ouverte pour d'autres (N)PDUs qui
seraient susceptibles d'être ultérieurement émises ? La première solution peut
engendrer, en cas de trafic important, un grand nombre d'établissements et de
libérations de connexion, avec tous les inconvénients qui y sont liés (délais, coûts).
La seconde peut, en cas de faible trafic, immobiliser des ressources de
communication (au moins en termes de mémoire) de manière inutile. Une troisième
solution consiste à associer à chaque connexion (N-l) ouverte un temporisateur,
réarmé à chaque trace d'activité et dont l'arrivée à échéance provoque la fermeture de la
connexion.

Réponse 1.6
Un mécanisme de contrôle d'erreur est nécessaire dès lors que la couche considérée
se doit de rendre un service fiable et que le service qu'elle utilise ne l'est pas
forcément. Les couches concernées sont donc les couches liaison de données et
transport. Au niveau liaison, il s'agit principalement de reprendre les erreurs de
transmission sur une ligne reliant deux équipements donnés. Au niveau transport, il
s'agit de reprendre toutes les erreurs, signalées ou non, qui n'ont pas été récupérées
par les niveaux inférieurs (erreurs de transmission résiduelles, pertes et
déséquencements d'unités de données, etc.) et cela de bout en bout. En théorie, le seul
cas de redondance possible est celui où les deux systèmes d'extrémité sont
directement reliés par une seule liaison.

Réponse 1.7
1. On définit le service en premier. A partir des spécifications du service (par
exemple, transfert fiable en mode connecté), on peut déduire les fonctions de la
couche (par exemple, contrôle d'erreur), puis les mécanismes (éléments de protocole)
qui réalisent ces fonctions (par exemple, numérotation des PDU, PDU
d'acquittement, temporisation avant retransmission, etc.). Les règles auxquelles se
soumettent ces mécanismes — règles de codage, de structuration et d'échange (par
exemple, champ de numérotation codé sur n bits, envoi d'une PDU d'acquittement
pour toute PDU de données reçue correctement, etc.) — constituent un protocole.

2. Oui, puisqu'il y a différentes manières possibles de rendre le même service.

3. Oui, à condition de l'avoir prévu dans la structure des PDU qu'il utilise. Tout
protocole opérant en mode connecté utilise généralement des PDU pour
l'établissement de connexion, des PDU pour la phase de transfert de données et des
PDU pour la libération de connexion. Pour que le protocole puisse rendre un service
en mode non connecté, une solution possible est de prévoir dans la PDU
d'établissement de connexion un champ d'information et un champ indiquant le type
de service utilisé (connecté ou non).
3 1 2 Architecture des réseaux haut débit

Réponse 1.8

1. Côté utilisateur appelant (A)


interface 6/5 interface 5/4 interface 4/3 interface 3/2
S.CONNECT. T.CONNECT. N_CONNECT L CONNECT.
request request request ^ request -

L CONNECT.

confirmation
L DATA
request
N CONNECT. L DATA >
confirmation ^ indication

N DATA LDATA -
request request
T CONNECT. N DATA. L DATA,
confirmation indication indication •
^
T DATA N DATA L DATA
request request ^ request -

S^CONNECT. T_DATA. N_DATA L^DATA


confirmation indication indication — indication -

2. Côté utilisateur appelé (B)


interface 2/3 interface 3/4 interface 4/5 interface 5/6
L.CONNECT.
indication

L CONNECT.
TVsnnrtSf:

L DATA, N CONNECT,
— indication indication
L DATA, N CONNECT,
request response
L_DÀTÀ. N DATA, T CONNECT,
*- indication indication indication
L DATA, N DATA. T CONNECT
request request — response
L DATA, N DATA. T DATA, SJTONNECT.
— • indication indication indication " — ^ indication
L DATA, N DATA. TJ3ATA: S.CONNECT.
request request request • response "
Corrigés 313

Chapitre 2

Réponse 2.1

topologie avantages inconvénients


étoile - conflits d'accès réglés par le - fiabilité du central
central - limitation du nombre de stations
- diffusion par la puissance du central
- technologie simple et éprouvée
- liens point à point adaptés à la
fibre optique et simples à
maintenir
bus - diffusion - risque de collisions
- retrait implicite des informations - taille d'un segment limitée à
- connexions des stations par des cause de l'atténuation
prises - lien multipoint non adapté à la
- facile à installer fibre optique et complexe à
maintenir
anneau - diffusion - risque de collisions
- pas de taille limite au réseau - retrait des informations
- liens point à point adaptés à la - coupure de l'anneau
fibre optique et simples à - répéteur complexe et coûteux
maintenir - gestion des pannes
- décalage d'horloge d'un lien en
amont à celui en aval

Réponse 2.2

accès avantages inconvénients


AMRT - simple et efficace si le nombre de - efficacité discutable (si une
stations est fixe station n'a rien à émettre durant sa
- accès équitable tranche de temps, celle-ci reste
- accès régulier inutilisée)
- mécanisme de priorités - synchronisation nécessaire des
facilement réalisable (en allouant stations (chaque cycle est démarré
plusieurs tranches à une station par une station primaire qui émet
prioritaire, par exemple) un petit message de
synchronisation)
- fiabilité de cette station primaire
- tout ajout/retrait de station
entraîne une modification des
cycles
3 1 4 Architecture des réseaux haut débit

accès avantages inconvénients


AMRF idem AMRT sauf : idem AMRT sauf :
- synchronisation non nécessaire - le découpage en sous-bandes
introduit, pour des raisons
techniques, des inter-bandes, d'où
un gaspillage de la bande passante
- chaque station pour recevoir a
besoin d'autant de démodulateurs
qu'il y a de sous-bandes
polling - flexibilité au niveau du contrôle - fiabilité de la station primaire
(une station peut envoyer plusieurs - complexité du primaire
messages avant de rendre la parole) - dans le cas d'une étoile, efficacité
- mécanisme de priorités réduite du fait que les messages
facilement réalisable (en sont propagés deux fois, de la
interrogeant plus fréquemment les source au primaire, puis du primaire
stations prioritaires, par exemple) au destinataire
- simplicité des stations - temps d'accès importants lorsque
secondaires et coût en proportion toutes les stations sont actives
- pas de contention d'accès
- permet de gérer des acquittements
jeton sur - délai d'accès borné - station de contrôle indispensable
anneau - mécanisme de priorités possible - complexité et surcoût associés au
- une station peut émettre plusieurs traitement et à la surveillance du
messages avant de rendre le jeton jeton
- temporisateur pour éviter qu'une
station ne monopolise le jeton
- retrait des informations
jeton sur - retrait implicite des informations - tout ajout/retrait de station
bus - utilise le câblage simple du bus nécessite une modification de la
- accès équitable séquence logique des stations
- accès déterministe - complexité de la gestion de
- mécanisme de priorités possible l'anneau virtuel
aléatoire - simplicité - collisions
- très bonnes performances sous - très mauvaises performances
faible charge sous forte charge
- accès non équitable
- temps d'accès non borné
- nécessite la mise en place d'une
reprise après contention
- pas de priorités possibles
Corrigés 315

Réponse 2.3

Il s agit principalement des paramètres suivants :


- nombre de stations sur l'anneau,
- vitesse de propagation,
- longueur de l'anneau et distances inter-stations,
- temps de gestion du jeton dans les stations,
- temps de traitement en émission,
- temps de traitement en réception,
- temps de latence des stations,
- longueur du jeton,
- longueur des trames,
- débit de l'anneau, etc.

Réponse 2.4
1. Il n'y a pas de structuration en trames donc il n'y a pas lieu de calculer T et
e

T. Le temps Tp n'est comptabilisé qu'une seule fois.

Du = 63,999 kbit/s

2. T = temps émission de la trame et de son acquittement + 2 * temps de


propagation

T , = temps de transfert total du fichier = nombre de trames d'information


w

envoyées * T

Dy = débit utile = nombre de bits utiles transférés pendant T

Nous donnons ci-après quelques courbes pour le réseau sur bus qui montrent
l'évolution du débit utile et du temps total de transfert d'une trame en fonction soit
de la distance soit de la taille de la trame.
316 Architecture des réseaux haut débit
DU : débit utile (kbit/s)

C = 5 Mbit/s

d : distance (km)

Courbe du temps de transfert T pour une capacité du réseau de 5 Mbit/s


T : temps total de transfert d'une trame (ms)

C = 50 Mbit/s

d : distance (km)

Courbes du temps de transfert T pour les valeurs de capacité


du réseau de 1, 5, 10 et 50 Mbit/s
Corrigés 317
DU : débit utile (kbit/s)

d : distance (km)

Courbe du débit utile DJJ pour une capacité du réseau de 5 Mbit/s


DU : débit utile (kbit/s)

d : distance (km)

Courbes du débit utile Dy pour les valeurs de capacité


du réseau de 1, 5, 10 et 50 Mbit/s
318 Architecture des réseaux haut débit
DU : débit utile (kbit/s)

L : longeur de la trame en bits

Courbes du débit utile Dy en fonction de la longueur de la trame


pour les valeurs de capacité du réseau de 1, 5, 10 et 50 Mbit/s
Corrigés 319
DU : débit utile (kbit/s)

L : nombre de bits dans la trame

Courbes du temps de transfert d'une trame Ten fonction de la longueur


de la trame pour les valeurs de capacité du réseau de I, 5, et 10 Mbit/s

3. L'acquittement se fait par positionnement au vol par le récepteur de bits sur la


trame : la trame est donc considérée comme acquittée lorsqu'elle retourne à