Vous êtes sur la page 1sur 124

École Supérieure des Communications de Tunis

Thèse
présentée pour obtenir le diplôme de

Docteur de l'École Supérieure des Communications de


Tunis
Spécialité : Technologie de l'Information et de la Communication

Olfa Bouatay

Titre de la thèse

Gestion de la consommation d'énergie dans les


réseaux ad hoc via la diérenciation de service

soutenue le 09/06/2010 devant le jury composé de

Mr Farouk Kammoun Président


Mr Rak Brahim Rapporteur
Mme Rahma Ben Ayed Rapporteur
Mr Tijani Chahed Examinateur
Mr Mounir Frikha Encadreur
Mr Sami Tabbane Directeur de thèse
Dédicace
À mes chers parents
À ma chère s÷ur Ouafa
À mon cher frère Fahmi
i

Remerciements

Je tiens à exprimer toute ma gratitude à mon encadreur M. Mounir Frikha, Maître de


conférence à SUPCOM pour son soutien, sa patience et pour ses conseils avisés.
Je tiens à témoigner ma sincère gratitude à mon directeur de thèse M. Sami Tabbane,
Professeur à SUPCOM.
Je tiens à remercier tous les membres de jury :
M. Farouk Kamoun, Professeur Émérite à l'ENSI de m'avoir fait l'honneur d'ac-
cepter la position de Président du jury.
Mme. Rahma Ben Ayed, Maître de conférence à l'ENIT et M. Rak Brahim, Pro-
fesseur à l'ISITCOM qui ont accepté d'être rapporteurs de ma thèse, et pour l'intérêt
qu'ils ont porté à ce travail.
M. Tijani Chahed, Professeur à TELECOM et Management SudParis, d'avoir eu
l'amabilité d'être examinateur de ma thèse, aussi pour l'intérêt qu'il a porté à ce travail.
Je tiens aussi à remercier tous les membres de MEDIATRON pour l'aide et les conseils
qu'ils m'ont apportés.
ii
iii

Résumé

Les WLANs basés sur la norme IEEE802.11, en modes infrastructure et ad hoc, ont
fait l'objet de nombreux travaux de recherches ; malgré cela, plusieurs dés restent encore
à surmonter. Dans le contexte ad hoc, où les n÷uds servent de routeurs aux autres n÷uds
et forment ainsi par eux même le réseau, plusieurs contraintes sont à prendre en considé-
ration, notamment la topologie changeante et la quantité d'énergie limitée. Cette dernière
est déterminante pour la durée de vie des diérents n÷uds et donc de tout le réseau.
Une source majeure de consommation d'énergie dans les réseaux IEEE802.11 provient
du mécanisme d'accès MAC, basé sur le CSMA/CA (Carrier Sense Multiple Access with
Collision Avoidance). Celui-ci régit l'accès multiple des diérents n÷uds au canal partagé
via un algorithme complexe où les n÷uds doivent écouter le canal pour éviter d'entrer
en collision avec d'autres n÷uds transmettant des paquets simultanément. En cas de
collision, un mécanisme de backo gère les retransmissions jusqu'au succès de celles-ci.
Chaque fonctionnalité : écoute, transmission, attente, retransmission, réception, a un coût
en terme d'énergie. Une optimisation de l'énergie et donc de la durée de vie du réseau
passe donc nécessairement par la couche MAC. Ceci est l'objectif de notre présente thèse.
Pour cela, nous avons tout d'abord proposé un nouveau modèle analytique de la
consommation d'énergie dans les réseaux ad hoc avec diérents niveaux de priorités dans
l'accès au canal, basé sur la norme IEEE802.11e. Nous avons observé dans ce cas que
les n÷uds les plus prioritaires consomment moins d'énergie dû au fait qu'elles attendent
moins longtemps que les autres avant d'accéder au canal, mais aussi grâce au fait que
le mécanisme de priorité partage les n÷uds dans des groupes de tailles plus petites que
l'ensemble du réseau, ce qui diminue à son tour la probabilité de collision.
En se basant sur ce constat, nous avons ensuite proposé un nouvel algorithme de
diérenciation de service inter-couche, opportuniste et équitable, où le niveau de priorité
est fonction du nombre de voisins. En eet, dans un contexte ad hoc où chaque n÷ud
a la charge de relayer le trac des voisins, plus on a de voisins, plus cette charge de
relayage est lourde et plus la consommation d'énergie pour le n÷ud sollicité est importante.
En donnant un niveau de priorité plus important à ces n÷uds les plus sollicités, nous
composons leurs consommation excessive d'énergie dû au relayage et allongeons donc
leur durée de vie individuelle, et protons en même temps de leurs positions de relayage
centrale avant leur déplacement vers des lieux moins denses du réseau. Nos résultats
montrent un gain d'énergie global de l'ordre de 80%.
iv
v

Table des matières

Remerciements i

Résumé ii

Table des matières iv

Table des gures vii

Liste des tableaux x

Introduction 1

1 Introduction générale 1
1.1 Problématique et contribution de la thèse . . . . . . . . . . . . . . . . . . 2
1.2 Organisation du manuscrit . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2 Les réseaux Ad hoc 5


2.1 Les environnements IEEE802.11 . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.1 Les réseaux avec infrastructure . . . . . . . . . . . . . . . . . . . . 6
2.1.2 Les réseaux sans infrastructure . . . . . . . . . . . . . . . . . . . . 6
2.2 Les réseaux Ad hoc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.2 Contraintes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.3 Domaines d'applications . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.4 Modèle en couche . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 L'accès MAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.1 Pourquoi le CSMA/CA ? . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3.2 Le protocole DCF . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3.3 L'algorithme de backo . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4 La consommation d'énergie . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.1 Le mécanisme d'économie d'énergie . . . . . . . . . . . . . . . . . . 21
2.4.2 Élements de la consommation d'énergie . . . . . . . . . . . . . . . . 22
2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
vi

3 Littérature sur la consommation d'énergie dans les réseaux Ad hoc 27


3.1 Facteurs aectant la consommation d'énergie . . . . . . . . . . . . . . . . 28
3.2 Optimisation au niveau de la couche physique . . . . . . . . . . . . . . . . 28
3.2.1 Mécanismes d'optimisation d'énergie . . . . . . . . . . . . . . . . . 29
3.2.2 Le protocole Transmit Power Control (TPC) . . . . . . . . . . . . . 30
3.3 Optimisation au niveau de la couche liaison de données . . . . . . . . . . . 33
3.3.1 La sous couche MAC . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3.2 La sous couche LLC . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4 Optimisation au niveau de la couche réseau . . . . . . . . . . . . . . . . . 38
3.4.1 Protocole LEAR-AODV . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4.2 Autres propositions . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4.3 Optimisation globale versus optimisation locale . . . . . . . . . . . 42
3.5 Optimisation au niveau de la couche transport . . . . . . . . . . . . . . . 43
3.6 Optimisation au niveau de la couche application . . . . . . . . . . . . . . 44
3.7 Les approches cross-layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

4 Modélisation de la consommation d'énergie dans les réseaux Ad Hoc


avec diérenciation de services 47
4.1 La diérenciation de service dans les réseaux Ad Hoc . . . . . . . . . . . . 48
4.1.1 Limitations de la méthode d'accès DCF . . . . . . . . . . . . . . . . 48
4.1.2 Travaux sur la diérenciation de service . . . . . . . . . . . . . . . 50
4.2 La norme IEEE802.11e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.1 La méthode d'accès EDCA . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.2 La méthode d'accès HCCA . . . . . . . . . . . . . . . . . . . . . . . 55
4.3 Modélisation du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.3.1 Modèle d'énergie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.2 Métrique d'évaluation . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4 Validation du modèle analytique . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.1 Modèle du réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.2 Modèles de propagation . . . . . . . . . . . . . . . . . . . . . . . . 65
4.4.3 Résultats et discussions . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.5 Évaluation de performance . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.5.1 Variation avec le nombre de stations . . . . . . . . . . . . . . . . . 70
4.5.2 Variation avec la taille des paquets . . . . . . . . . . . . . . . . . . 72
4.5.3 Indoor versus Outdoor . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

5 La diérenciation de service pour optimiser la consommation d'énergie 77


5.1 Notre proposition : Accès MAC diérencié suivant le voisinage . . . . . . . 77
5.2 Implémentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.2.1 Reconnaissance du voisinage . . . . . . . . . . . . . . . . . . . . . . 79
5.2.2 Le clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.2.3 Décomposition en clusters . . . . . . . . . . . . . . . . . . . . . . . 82
5.2.4 Approche globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
vii

5.2.5 Approche locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83


5.3 Évaluation des Performances . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

Conclusions et perspectives 92
6 Conclusions et perspectives 93
Bibliographie 96
viii
ix

Table des gures

2.1 Mode avec infrastructure . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6


2.2 Modélisation d'un réseau Ad hoc . . . . . . . . . . . . . . . . . . . . . . . 7
2.3 Exemple du changement de topologie en fonction du déplacement des n÷uds 8
2.4 La consommation d'énergie suivant la position des n÷uds . . . . . . . . . . 9
2.5 Illustration de la méthode PCF . . . . . . . . . . . . . . . . . . . . . . . . 12
2.6 Mécanisme d'accès DATA/ACK . . . . . . . . . . . . . . . . . . . . . . . . 14
2.7 Échange de données pour la méthode d'accès CSMA/CA de base . . . . . . 15
2.8 Illustration du problème de la station cachée/exposée . . . . . . . . . . . . 16
2.9 Échange de données pour la méthode d'accès CSMA/CA avec le mécanisme
de détection virtuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.10 Échange de données pour la méthode d'accès CSMA/CA avec le mécanisme
de détection virtuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.11 Illustration de l'algorithme de Backo . . . . . . . . . . . . . . . . . . . . . 20
2.12 Power Saving Mode (PSM) en mode ad hoc [17] . . . . . . . . . . . . . . . 22

3.1 Principe de contrôle de puissance de transmission [37] . . . . . . . . . . . . 32


3.2 Avantage de contrôle de puissance de transmission : portée radio (a) sans
et (b) avec contrôle de puissance de transmission [37] . . . . . . . . . . . . 32
3.3 Illustration de la méthode Poojary [44] . . . . . . . . . . . . . . . . . . . . 36
3.4 Insusance de la méthode Poojary [45] . . . . . . . . . . . . . . . . . . . . 37
3.5 La diusion des paquets CTS et RTS [45] . . . . . . . . . . . . . . . . . . . 37
3.6 Choix de route suivant la durée de vie du n÷ud . . . . . . . . . . . . . . . 40
3.7 Exemple montrant le problème avec la métrique : énergie/paquet . . . . . . 41
3.8 Illustration d'un exemple de communication de type cross layer à travers
la pile protocolaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

4.1 Performance du mode DCF en terme de délai [72] . . . . . . . . . . . . . . 49


4.2 Quatre les d'accès d'une station améliorée 802.11e [83] . . . . . . . . . . . 53
4.3 La contention au canal pendant une période EDCA [73] . . . . . . . . . . . 55
4.4 Procèdure HCF [71] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.5 Diagramme de transition d'états de consommation d'énergie . . . . . . . . 58
4.6 Consommation d'énergie dans le système pour une transmission réussie
d'un paquet avec le mécanisme de détection virtuelle . . . . . . . . . . . . 60
4.7 Consommation d'énergie dans le système pour une transmission réussie
d'un paquet en mode original . . . . . . . . . . . . . . . . . . . . . . . . . 60
x

4.8 La durée de vie des stations pour le modèle de propagation Two Ray
Ground en outdoor - Validation du modèle analytique . . . . . . . . . . . . 69
4.9 La durée de vie des stations pour le modèle de propagation Free Space en
Indoor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.10 La durée de vie des stations en fonction du nombre de stations ni pour
chaque AC (variation équitable) . . . . . . . . . . . . . . . . . . . . . . . . 71
4.11 La durée de vie des stations en fonction du nombre de stations ni pour
chaque AC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.12 La durée de vie des stations en fonction de la variation de la taille des
paquets transmis pour les diérentes catégories d'accès . . . . . . . . . . . 72
4.13 La durée de vie des stations pour le modèle de propagation shadowing en
outdoor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.14 La durée de vie des stations pour le modèle de propagation shadowing en
indoor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.15 Superposition des résultats des simulations . . . . . . . . . . . . . . . . . . 75

5.1 Gestion inter-couche pour optimisation de puissance dans les réseaux Ad


Hoc avec diérenciation de services . . . . . . . . . . . . . . . . . . . . . . 79
5.2 Algorithme de reconnaissance de voisinage . . . . . . . . . . . . . . . . . . 80
5.3 Probabilités pbi en fonction de la fraction de surface αApproche globale . 84
5.4 Probabilités pbi en fonction de la fraction de surface αApproche locale . . 85
5.5 Topologie utilisée comme exemple d'étude . . . . . . . . . . . . . . . . . . 86
5.6 Énergie consommée par n÷ud pour les diérents groupes de priorités gk ,
sans mécanisme de priorités d'accès . . . . . . . . . . . . . . . . . . . . . . 88
5.7 Énergie consommée par n÷ud pour les diérents groupes de priorités gk ,
avec mécanisme de priorités d'accès . . . . . . . . . . . . . . . . . . . . . . 88
5.8 La durée de vie du réseau avec et sans mécanisme de priorité d'accès (prio-
rités suivant le voisinage) . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.9 La durée de vie du réseau avec et sans mécanisme de priorité d'accès (prio-
rités aléatoires) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.10 La durée de vie du réseau en fonction de sa taille avec et sans mécanisme
de priorité (aléatoire et suivant le voisinage) . . . . . . . . . . . . . . . . . 91

6.1 Exemple de réseau de capteurs . . . . . . . . . . . . . . . . . . . . . . . . . 95


xi

Liste des tableaux

2.1 Valeurs des Slot Time, SIFS, DIFS et PIFS selon le mode de transmission 18
2.2 Des mesures expérimentales de puissance consommée au niveau des inter-
faces sans l. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

4.1 Aectation du AIFSN, CWmin et CWmax pour les diérentes ACs. . . . . 54


4.2 Paramètres du modèle d'énergie . . . . . . . . . . . . . . . . . . . . . . . 63
4.3 Paramètres de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4 Les caractéristiques de l'extension Monarch . . . . . . . . . . . . . . . . . 64
4.5 Quelques valeurs typiques de β et σdB . . . . . . . . . . . . . . . . . . . . . 67
4.6 Paramètres de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

5.1 Paramètres du voisinage réseau . . . . . . . . . . . . . . . . . . . . . . . . 87


5.2 Paramètres de diérenciation de services. . . . . . . . . . . . . . . . . . . . 87

6.1 Comparaison Capteurs/Ad hoc. . . . . . . . . . . . . . . . . . . . . . . . . 96


xii
xiii

Liste des abréviations

Pour des raisons de lisibilité, la signication d'une abréviation ou d'un acronyme n'est
souvent rappelée qu'à sa première apparition dans le texte d'un chapitre. Par ailleurs,
puisque nous utilisons toujours l'abréviation la plus usuelle, il est fréquent que ce soit le
terme anglais qui soit employé.

AC Access Category
ACK Acknowledgment
AIFS Arbitration Interframe Space
AIFSN Arbitration Interframe Space Number
ATIMRE ATIM Response
AODV Ad hoc On demande Distance Vector
BSS Basic Service Set
CAM Continous Aware Mode
CBR Constant Bit Rate
CP Contention Period
CSMA Carrier Sense Multiple Access
CSMA/CA Carrier Sense Multiple Access with Collision Avoidance
CSMA/CD Carrier Sense Multiple Access with Collision Detect
CTS Clear To Send
CW Contention Window
DCF Distributed Coordination Function
DIFS Distributed Inter Frame Spacing
DSSS Direct Sequence Spread Spectrum
EDCA Enhanced Distributed Channel Access
EIFS Extended Inter Frame Spacing
HC Hybrid Coordinator
HCCA Hybrid Coordination Function Controlled Channel Access
HCF Hybrid Coordination Function
HPN Higher Powered Node
IBSS Independent Basic Service Set
IEEE Institute of Electrical and Electronics Engineers
xiv

IETF Internet Engineering Task Force


LEAR-AODV Localised Energy Aware Routing based on AODV
LLC Logical Link Control
LPN Low Powered Node
MAC Meduim Access Control
MACA Multiple Access Collision Avoidance
MANET Mobile Ad Hoc NETwork
MSDU MAC Service Data Unit
MPDU MAC Protocol Data Unit
NAV Network Allocation Vector
NS-2 Network Simulator
P2P Peer-to-Peer
PAMAS Power Aware Multiple Access Protocol with Signalling
PC Point Coordinator
PCF Point Coordination Function
PF Persistence Factor
PIFS Priority Inter Frame Spacing
PLCP Physical Layer Convergence Procedure
PMD Physical Media Dependent PS Power Saving
PSM Power Saving Mechanism
QBSS QoS supporting BSS
QoS Quality of Service
RTS Request To Send
RTT Round Trip Time
SIFS Short Inter Frame Spacing
TBTT Target Beacon Transmission Time
TC Trac Category
TCP/IP Transmission Control Protocol/Internet Protocol
ST Slot Time
TXOP Transmissions OPportunity
UP User Priority
WiFi Wireless Fidelity
WLAN Wirless Local Area Network
WNIC Wirless Network Interface Card
1

Chapitre 1

Introduction générale

Depuis que les réseaux locaux sans l ont connu un grand succès, de nouveaux horizons
vers des applications utilisant ces technologies sans l sont apparues. Bien qu'initialement
prévus pour des services sans aucune garantie, les réseaux mobiles actuels ont tendance
à acheminer des ux de toutes sortes d'applications : FTP, mail, téléphonie, visiophonie,
web, etc. Ainsi, poussée par plusieurs facteurs économiques, la mobilité est devenue de
plus en plus un élément fédérateur des réseaux de communication.

A l'origine, ce sont les militaires qui se sont intéressés les premiers aux réseaux de
communication sans l fonctionnant de proche en proche tout en restant fonctionnels en
cas de mobilité ou de perte d'éléments de routage. A l'époque, cette nouvelle génération
de réseaux disposait déjà d'une architecture distribuée, permettant un partage dynamique
du canal de diusion par une combinaison des protocoles CSMA [1] et Aloha [2].

Cependant, au milieu des années 80, la DARPA a développé une nouvelle généra-
tion de réseaux appelée SURAN (Survivable Radio Networks) [3], dont l'objectif était
d'éviter certaines lacunes du projet PRNet (Packet Radio Networks) [3] et de permettre
entre autre, le passage vers des réseaux comportant jusqu'à une dizaine de milliers de
n÷uds mobiles supportant des protocoles évolués, avec des mécanismes radio simples,
où la consommation d'énergie et le coût restent faibles. En revanche, ce projet est resté
exclusivement militaire, jusqu'à son passage vers la n des années 90 pour être utilisé
par des applications civiles, où des recherches ont permis d'étudier la possibilité de passer
vers des réseaux mobiles totalement dynamiques et spontanés. Ceci a donné naissance aux
réseaux mobiles ad hoc. Ces recherches sur les réseaux ad hoc dans le domaine civil ont
en fait pris leur essor avec l'arrivée des premières technologies radio, principalement la
norme IEEE802.11 [4] et ses diérentes dérivées. Cette norme a été standardisée en 1999
par l'IEEE, dans le but d'assurer la communication entre ordinateurs utilisant le médium
radio. Cependant les contraintes et les problèmes imposés par ce type de réseau restent
nombreux et substantiellement diérents de ceux des réseaux laires (absence d'infra-
structure xe, changements fréquents de la topologie, manque de abilité des liens radio,
etc..).

L'objectif des réseaux ad hoc est d'orir aux utilisateurs un accès transparent à l'in-
2

formation indépendamment de la position géographique de chaque utilisateur. Un autre


objectif est de permettre d'atteindre des débits compatibles avec le transfert de ux mul-
timédia, soumis à de fortes contraintes. Cependant, l'aspect distribué et l'utilisation d'in-
terfaces de communication radio partagées imposent un certain nombre de problèmes,
notamment en ce qui concerne les services oerts aux diérentes applications. En eet,
obtenir une qualité équivalente à celle fournie par des réseaux laires s'avère une tâche
dicile. De nombreuses contraintes doivent être vaincues an de tirer les bénéces d'un
réseau ad hoc : l'accès au canal radio, la gestion de la mobilité, la gestion de l'énergie, la
sécurité et les solutions pour une meilleure garantie de la diérentiation de service.

1.1 Problématique et contribution de la thèse


Dans les réseaux ad hoc, l'énergie représente un facteur déterminant pour ce type
de réseaux autonomes et indépendants. Par conséquent, les n÷uds d'un réseau ad hoc
n'ont pas la possibilité d'avoir une énergie innie puisque celle-ci, une fois consommée,
doit être retrouvée ou rechargée. D'un autre côté, ce type de réseaux est utilisé dans des
environnements où il est dicile (ou déconseillé) d'enlever les batteries pour les changer
ou les recharger. En plus, malgré le fait que, chaque n÷ud possède une quantité d'énergie
limitée, ces n÷uds jouent à la fois, le rôle d'hôtes et le rôle de routeurs. Par conséquent,
chaque n÷ud utilise sa propre énergie pour acheminer des paquets destinés à d'autres
n÷uds du réseau. Il devient alors primordial d'introduire de nouvelles techniques permet-
tant de gérer la consommation de l'énergie de manière ecace. Pour cela, des modèles
d'évaluation de la consommation d'énergie dans les réseaux ad hoc ont été proposés [5, 6].
Ces modèles ont montré que l'énergie de chaque n÷ud est dépensée aussi bien en émis-
sion qu'en réception des paquets et que cette énergie est majoritairement consommée au
niveau de la couche MAC.

Notre contribution dans cette thèse se concentre sur la dénition et la résolution des
problèmes de la consommation d'énergie dans les réseaux ad hoc, via des mécanismes de
diérenciation de services au niveau de la couche MAC, en conformité avec le standard
IEEE 802.11e[7]. Notre objectif est de proposer un nouveau mécanisme permettant d'op-
timiser localement la durée de vie des diérents n÷uds ainsi que la durée de vie du réseau
dans sa globalité.

1.2 Organisation du manuscrit


La suite de ce mémoire s'organise autour de cinq chapitres comme suit.

Le deuxième chapitre présente une description des réseaux mobiles ad hoc, des dié-
rents concepts liés à ce type de réseau ainsi que les mécanismes l'économie d'énergie dans
ces réseaux.

Le troisième chapitre rapporte les travaux majeurs de la littérature traitant de la


3

consommation et l'économie d'énergie dans les réseaux ad hoc et ceux dans les diérentes
couches du stack.

Par la suite, nous introduisons dans le quatrième chapitre la diérenciation de service


dans les réseaux ad hoc et nous détaillons notre modèle analytique de la consommation
d'énergie au niveau de la norme IEEE802.11e.

Le problème d'optimisation d'énergie est abordé dans le cinquième chapitre par la


proposition d'un mécanisme de gestion inter-couches basé sur la gestion de groupes de
priorités pour l'accès au medium partagé. Nous abordons ici le concept de la décomposition
en clusters, de la reconnaissance du voisinage et de l'aectation de la priorité d'accès au
medium. Une étude de performances analytique validée par des simulations démontre
l'utilité de cette proposition.

Enn, le sixième chapitre conclut ce manuscrit de thèse et présente quelques perspec-


tives et orientations pour la poursuite de ce travail de recherche.
4
5

Chapitre 2
Les réseaux Ad hoc

Les équipements mobiles deviennent de plus en plus petits et puissants en terme de


capacité de traitement et de stockage de données. En plus, ils sont dotés d'une multitude
de fonctionnalités qui permettent d'assurer diérents types d'applications et de services.
Parmi ces derniers oerts via un équipement mobile, gurent les services de connexions
et les services de données correspondants. Ces derniers représentent le service le plus
demandé par les utilisateurs mobiles. De nos jours l'intérêt porté aux réseaux mobiles
s'est accru, ceci est dû aux demandes présentes des consommateurs, des applications
industrielles et à la miniaturisation des composantes électroniques. Contrairement aux
réseaux mobiles de types cellulaires qui nécessitent une infrastructure robuste, les réseaux
ad hoc [8] doivent être déployés rapidement et s'auto-organiser pour fournir des services.
Ils sont ainsi déployés en cas de sinistre, par exemple (tremblement de terre, incendie,
sauvetage...) et peuvent être aussi utilisés pour des applications spéciques. Un réseau
ad hoc est un système distribué d'entités mobiles interconnectées par une technologie
sans l formant un réseau temporaire sans l'aide de toute infrastructure préexistante ou
administration centralisée. Typiquement, ces n÷uds sont des PC portables, généralement
pas chers à l'achat, utilisant chacun une batterie avec des capacités limitées. Ces batteries
représentent des ressources chères, qu'on doit optimiser leurs utilisations pour augmenter
la durée de vie individuelle du n÷ud et par conséquence globale du réseau. Puisque les
stations du réseau sont déployées dans des endroits où il n'y a pas d'infrastructures, et
qu'elles sont sans assistance, elles doivent être capables de s'auto-organiser.

2.1 Les environnements IEEE802.11


Un environnement IEEE802.11 est un système composé de n÷uds mobiles et qui per-
met à ses utilisateurs d'accéder à l'information indépendamment de leurs positions géo-
graphiques. Les réseaux sans l, peuvent être classés en deux classes : les réseaux avec
infrastructure et les réseaux sans infrastructure.
6

Fig. 2.1  Mode avec infrastructure

2.1.1 Les réseaux avec infrastructure


En mode infrastructure, chaque station (STA) se connecte à un point d'accès via
une liaison sans l. L'ensemble formé par le point d'accès et les stations situés dans sa
zone de couverture est appelé BSS (Basic Service Set) et constitue une cellule (Figure
2.1). Chaque BSS est identié par un BSSID. Dans le mode infrastructure, le BSSID
correspond à l'adresse MAC du point d'accès.
Il est possible de relier plusieurs points d'accès entre eux (ou plus exactement plusieurs
BSS) par une liaison appelée DS (Distribution System) an de constituer ESS (Extended
Service Set).

2.1.2 Les réseaux sans infrastructure


Les réseaux sans infrastructure ne comportent aucune infrastructure xe. Toutes les
stations du réseau sont mobiles et communiquent d'une manière directe en utilisant leurs
interfaces de communication sans l. L'absence de l'infrastructure ou du réseau laire,
composé de points d'accès, oblige les stations à se comporter comme des routeurs qui
participent à la découverte et à la maintenance des chemins pour les autres hôtes du
réseau. Les environnements mobiles sont caractérisés par de fréquentes déconnexions et
des restrictions sur les ressources utilisées, surtout si tous les usagers du système sont
mobiles ce qui est le cas pour les réseaux ad hoc. Ces limitations transforment certains
problèmes, ayant des solutions évidentes dans l'environnement classique, en des problèmes
complexes et diciles à résoudre.
7

Fig. 2.2  Modélisation d'un réseau Ad hoc

2.2 Les réseaux Ad hoc

2.2.1 Dénition
Un réseau ad hoc est une collection d'unités mobiles munies d'interfaces de commu-
nication sans l qui forment en coopérant, et d'une manière spontanée, un réseau tem-
poraire. Ce réseau est réalisé indépendamment de toute infrastructure ou administration
centralisée ( voir Figure 2.2). Les unités mobiles (n÷uds, stations mobiles) sont équipées
d'émetteurs et de récepteurs sans l.

A un instant donné, selon la topologie du réseau (la position des noeuds, la congu-
ration des antennes d'émission/réception, la puissance du signal et les interférences entre
les canaux), une certaine connectivité existe entre les n÷uds (exemple Figure 2.3).

Cette topologie peut changer à tout moment, du fait qu'elle peut évoluer avec le
temps en fonction des déplacements des n÷uds. Elle est donc dynamique et imprévisible
ce qui fait que la déconnexion des unités soit très fréquente. Un réseau ad hoc peut être
autonome ou connecté à une infrastructure xe. La route entre un n÷ud source et un
n÷ud destination peut impliquer plusieurs sauts sans l, d'où l'appellation de " réseaux
sans l multi-sauts ". Un n÷ud mobile peut communiquer directement avec un autre n÷ud
s'il est dans sa portée de transmission. Au delà de cette portée, les n÷uds intermédiaires
jouent le rôle de routeurs (relayeurs) pour relayer les messages saut par saut.

2.2.2 Contraintes
Les réseaux ad hoc héritent des mêmes propriétés et problèmes liés aux réseaux sans
l, à savoir, le fait que le canal radio soit limité en terme de capacité, plus exposé aux
pertes (comparé au médium laire), et sujet à des variations dans le temps. En outre, les
liens sans l sont asymétriques et pas sécurisés. D'autres caractéristiques spéciques aux
réseaux ad hoc ajoutent une complexité et des contraintes supplémentaires qui doivent
8

Fig. 2.3  Exemple du changement de topologie en fonction du déplacement des n÷uds

être prises en compte lors de la conception des algorithmes et des protocoles réseaux, à
savoir :

 L'absence d'une infrastructure centralisée : chaque n÷ud travaille dans un environ-


nement distribué, et agit en tant que routeur pour relayer des communications en
plus de ses propres données. La gestion du réseau est ainsi distribuée sur l'ensemble
des éléments du réseau.
 La mobilité des n÷uds et maintenance des routes : la mobilité continue des n÷uds
crée un changement dynamique de topologie. Par exemple, un n÷ud peut joindre
un réseau, changer de position ou quitter le réseau. Ce déplacement a naturelle-
ment un impact sur la morphologie du réseau et peut modier le comportement du
canal de communication. Ajoutons à cela la nature des communications (longues
et synchrones, courtes et asynchrones, ..). Les algorithmes de routage doivent ainsi
résoudre ces problèmes et supporter la maintenance et prendre en charge en un
temps limité la reconstruction des routes tout en minimisant l'overhead généré par
les messages de contrôle.
 L'hétérogénéité des n÷uds : les n÷uds peuvent avoir des diérences en terme de
capacité de traitement (CPU, mémoire), de logiciel, de taille (petit, grand) et de
mobilité (lent, rapide). Dans ce cas, une adaptation dynamique des protocoles s'avère
nécessaire pour supporter de telles situations.
 L'énergie : suivant la topologie du réseau, certains mobiles peuvent se trouver dans
des positions clefs et assurer le routage pour un grand nombre de ux (entre plusieurs
9

Fig. 2.4  La consommation d'énergie suivant la position des n÷uds

sous-parties du réseau autrement indépendantes - exemple de la Figure 2.4). Ces


n÷uds peuvent être amenés à consommer très vite leurs ressources énergétiques. Le
trac de contrôle ainsi que la transmission radio peuvent également avoir un impact
important. Comme un réseau ad hoc doit s'auto-organiser, cela signie que d'une
manière ou d'une autre il va y avoir un trac de contrôle dépendant de la mobilité
dans le réseau. Plus la topologie sera dynamique, plus la charge du trac de contrôle
(et donc la consommation d'énergie) sera importante.
 La qualité de service : De nombreuses applications ont besoin de certaines garanties
relatives par exemple au débit, au délai ou encore à la gigue. Dans ces réseaux ad
hoc, ces garanties sont très diciles à obtenir. Ceci est dû à la nature du canal radio
d'une part (interférences et taux d'erreur élevés) et au fait que des "liens" entre des
mobiles peuvent avoir à se partager les ressources (alors qu'en laire, deux liens sont
par dénition indépendants). De ce fait, les protocoles de qualité de service habituels
(par exemple IntServ / RSVP ou Di-Serv) ne sont pas utilisables directement dans
le monde ad hoc et des solutions spéciques doivent être proposés [4][7].
 La taille des réseaux ad hoc : elle est souvent de petite ou moyenne taille ; le réseau est
utilisé pour étendre temporairement un réseau laire, comme pour une conférence ou
des situations où le déploiement du réseau xe n'est pas approprié (ex : catastrophes
naturelles). Cependant, quelques applications des réseaux ad hoc nécessitent une
utilisation d'un plus grand nombre de n÷uds, comme dans les réseaux de capteurs
[9]. Des problèmes liés au passage à l'échelle tels que : l'adressage, le routage, la
gestion de la localisation des capteurs et la conguration du réseau, la sécurité, etc,
doivent être résolus pour une meilleure gestion du réseau.
10

2.2.3 Domaines d'applications


Historiquement, les réseaux mobiles ad hoc ont été d'abord introduits pour l'amé-
lioration des communications dans le domaine militaire. Dans ce contexte, il n'y a pas
d'infrastructure existante pour relier les communications, vue la nature dynamique des
opérations et des champs militaires. Cependant, avec l'avancement des recherches dans le
domaine des réseaux et l'émergence des technologies sans l (ex : Bluetooth, IEEE 802.11
et Hiperlan) ; d'autres applications civiles sont apparues. On distingue :

 Les services d'urgence : opération de recherche et de secours des personnes, trem-


blement de terre, feux, inondation, dans le but de remplacer l'infrastructure laire,
 Le travail collaborateur et les communications dans des entreprises ou bâtiments :
dans le cadre d'une réunion ou d'une conférence par exemple,
 Home networking : partage d'applications et communications des équipements mo-
biles,
 Applications commerciales : pour un paiement électronique distant ou pour l'accès
mobile à l'Internet, où un service de guide en fonction de la position de l'utilisateur,
 Réseaux de capteurs : pour des applications environnementales (climat, activité
de la terre, suivi des mouvements des animaux, etc) ou domestiques (contrôle des
équipements à distance),
 Réseaux en mouvement : informatique embarquée et véhicules communicants,
 Réseaux Mesh : c'est une technologie émergente qui permet d'étendre la portée d'un
réseau ou de le densier en reliant les points d'accès par des liens sans ls.

En plus, dans un LAN, un réseau ad hoc fournit une solution pour étendre une cou-
verture sans l avec un moindre coût. Dans un WAN (ex : UMTS), il permet d'accroître
la capacité globale du réseau sans l. En fait, plus de bande passante agrégée peut être
obtenue en réduisant la taille des cellules et en créant des pico-cellules. An de supporter
une telle architecture, les opérateurs disposent de deux options : déployer plus de stations
de base (une station de base par cellule), ou utiliser un réseau ad hoc pour atteindre la
station de base. La deuxième solution est clairement plus exible et moins coûteuse.

2.2.4 Modèle en couche


L'IEEE adopta le premier standard pour les réseaux locaux sans-l (WLAN) en 1997 :
le IEEE802.11 qui couvre la sous couche du contrôle d'accès au médium (MAC) et la
couche physique (PHY) du modèle OSI. En 1999, l'IEEE adopta deux extensions pour la
couche physique [4], lui permettant des transmissions à des débits supérieurs : la norme
IEEE802.11a, utilisant la technologie OFDM (multiplexage en fréquences orthogonales) et
la norme IEEE802.11b, utilisant DSSS (Direct Sequence Spread Spectrum) à haut débit.

Comme tous les standards IEEE issus du comité 802, les réseaux Ad hoc couvrent les
deux premières couches du modèle OSI, à savoir la couche physique et la couche liaison
de données. Cette dernière est-elle même subdivisée en deux sous couches, la couche LLC
11

(Logical Link Control) et la couche MAC (Medium Access control) :


 La couche physique : Cette couche est divisée en deux sous-couches, PCLP (Physi-
cal Layer Convergence Protocol) et PMD (Physical Medium Dependent). La sous-
couche PMD s'occupe de l'encodage des données. Elle dénit trois techniques de
transmission :
 FHSS1 : cette méthode permet de faire des sauts de fréquences durant la trans-
mission entre émetteur et récepteur. Ces derniers se mettent d'accord sur une
séquence de sauts précise. Cette technique permet la réduction des interférences
de transmissions entre les stations d'une cellule mais en revanche son inconvénient
est la non sécurisation puisque les séquences de sauts sont connues par tous ;
 DSSS2 : c'est la deuxième technique qui consiste à diviser la bande de 83.5 MHz
en 14 canaux de 20 MHz de largeur. Elle consiste à transmettre pour chaque bit
une séquence Barker (Pseudo-random Noise noté PN) de bits.
 IR3 : cette technique a pour caractéristique principale l'utilisation d'une onde
lumineuse pour la transmission des données .
La sous-couche PLCP s'occupe de l'écoute du support et fournit un CCA (Clear
Channel Assessment), qui est le signal utilisé par la couche MAC pour savoir si le
support est occupé ou non.
 La couche liaison de données : Elle est composée essentiellement du LLC et MAC.
LLC utilise les mêmes propriétés que la couche LLC 802.2. Il est de ce fait possible
de relier un WLAN à tout autre réseau local appartenant à un standard de l'IEEE.
Le rôle de la couche MAC de la norme IEEE802.11 [4] est assez similaire à celle
d'Ethernet (IEEE802.3) puisqu'elle assure la gestion de l'accès de plusieurs stations à un
support partagé dans lequel chaque station écoute le support avant d'émettre.

Du fait que le support de transmission est hertzien, la couche MAC de la norme


IEEE802.11 intègre à la fois de nouvelles et d'anciennes fonctionnalités inhérentes à la
couche MAC, ainsi que d'autres, que l'on ne trouve généralement que dans les couches
hautes du modèle OSI. Parmi ces fonctionnalités, nous citons :

 contrôle d'accès au support ;


 adressage et formatage des trames ;
 contrôle d'erreurs permettant de contrôler l'intégralité de la trame à partir d'un
CRC (Cyclic Redundancy Check) ;
 fragmentation et ré-assemblage ;
 qualité de service (QoS) ;
 gestion de l'énergie ;
 gestion de la mobilité ;
 sécurité.

1 FHSS : Frequency Hopping Spread Spectrum


2 DSSS : Direct Sequence Spread Spectrum
3 IR : Technologie Infrarouge
12

Fig. 2.5  Illustration de la méthode PCF

2.3 L'accès MAC


La principale fonctionnalité de la couche MAC 802.11 [4, 9, 10] est de dénir les méca-
nismes d'accès au support physique. Deux méthodes d'accès sont retenues par le standard
actuel. La première méthode DCF (Distributed Coordination Function) est une méthode
distribuée qui fait intervenir la totalité des stations du réseau. Elle est basée sur le méca-
nisme d'accès CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance). La
deuxième méthode PCF (Point Coordination Function), adopte une approche centralisée
dans laquelle l'accès au support est contrôlé par un point d'accès suivant un schéma cy-
clique à partir d'une " polling list ". Une station ne peut émettre que si elle est autorisée et
elle ne peut recevoir que si elle est sélectionnée. Le PCF fonctionne en alternance avec le
DCF durant l'intervalle de répétition CFP (Contention Free Period) qui est aussi appelé
super trame PCF. Le CFP est composé de deux périodes qui sont déterminées par le PC4 .
La période de contention CP (Contention Period) correspond à la période de temps avec
contention durant laquelle DCF est utilisée. La période CP est précédée de la période
CFP qui est dénie comme étant la période de temps sans contention pendant laquelle le
PCF est utilisé (Figure 2.5).

Cette méthode est conçue pour les applications temps réel (vidéo, voix) nécessitant
une gestion du délai lors des transmissions de données.

Le DCF est l'accès de base disponible sur les cartes IEEE802.11, vu sa simplicité et
sa facilité de déploiement. Le mécanisme PCF n'a jamais été implémenté sur les cartes

4 Point Coordinator : utilisé par le PCF au niveau du point d'accès pour déterminer quelle station a
le droit de transmettre.
13

IEEE802.11, vu sa complexité de déploiement.

De plus, l'utilisation du point central est un handicap pour un déploiement complè-


tement ad hoc. Ainsi, le IEEE802.11 fait face à plusieurs limites qui se manifestent es-
sentiellement en terme de QoS. Dans ce qui suit, on présente ces limites et les diérentes
solutions qui ont été développées.

Nous détaillons ultérieurement le fonctionnement du mécanisme DCF en mettant l'ac-


cent sur son inaptitude à supporter des tracs avec qualité de service.

2.3.1 Pourquoi le CSMA/CA ?


Les réseaux locaux sans ls adoptent la méthode d'accès CSMA/CA au lieu de la
méthode CSMA/CD (Carrier Sense Multiple Access with Collision Detection) générale-
ment utilisée dans les réseaux LANs classiques. La méthode CSMA/CD consiste, pour
une station désirant transmettre des données, à écouter le canal. Si le canal est libre alors
la station peut transmettre. Sinon, elle attend que le canal redevienne libre. La station
doit pouvoir détecter d'éventuelles collisions. Elle avortera dans ce cas la transmission
et tentera de ré-émettre ultérieurement. Ce procédé ne peut cependant pas être appliqué
dans un contexte radio. En eet, le fort aaiblissement des signaux radio rend impossible
la détection d'un signal perturbateur par l'émetteur. La présence d'un signal interférant
au niveau de l'émetteur ne fournit aucune indication sur le niveau de bruit. De ce fait, le
mécanisme CSMA/CD ne peut pas être employé dans les réseaux sans l. Ainsi, la mé-
thode CSMA/CA a été retenue pour les WLANs puisque le canal varie au cours du temps.
Cette méthode abandonne la détection de collisions, tout en renforçant les mécanismes
pour les éviter.
Le CSMA/CA a pour principe de laisser les terminaux transmettre à leur guise. Ce
principe ne conduit pas à une utilisation ecace de la bande passante. Plusieurs amé-
liorations sont envisageables an d'utiliser au mieux la bande passante en réduisant les
collisions. Tout d'abord, il est possible de ne pas émettre si le médium est occupé. Les
terminaux attendent alors que le canal se libère avant d'émettre un signal. Ce principe
simple constitue la base des protocoles dits à détection de porteuse (Carrier Sense Mul-
tiple Access : CSMA). La norme dénit un unique protocole d'accès au médium, pouvant
fonctionner dans deux modes distincts, an de gérer les accès concurrents à un même
médium partagé. Ce protocole fait partie de la famille des protocoles de gestion des accès
multiples par détection de porteuse avec prévention des collisions (Carrier Sense Multiple
Access with Collision Avoidance : CSMA/CA). Il associe un mécanisme de détection de
porteuse avant transmission à un mécanisme d'attente aléatoire permettant de limiter le
nombre et l'impact des collisions.

2.3.2 Le protocole DCF


Le protocole DCF (Distributed Coordination Function) [11, 12] se base sur un algo-
rithme distribué. Il est exécuté localement au niveau de chaque station an de déterminer
14

Fig. 2.6  Mécanisme d'accès DATA/ACK

les périodes d'accès au médium. La méthode DCF emploie quatre mécanismes, à savoir ;

1. CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance)


2. Algorithme de Backo
3. Principe de réservation du médium
4. Détection virtuelle des collisions

L'accès au canal est régi par le mécanisme CSMA/CA, une fois le support est libre,
la station émettrice exécute son algorithme de Backo [13]. Après son exécution, si le
support est toujours libre, la station débute son émission par échange des paquets de
réservation. Au cours de son émission, la station gère un mécanisme de détection virtuelle
des collisions.

Principe de fonctionnement
La station qui a des données à transmettre écoute le réseau. Dans le cas où le support
est encombré, la transmission est diérée. Dans le cas contraire, si le média est libre
pendant un temps donné (DIFS : Distributed Inter Frame Space), alors la station peut
émettre. Les autres stations du réseau seront en état de veille durant la durée NAV
(Network Allocation Vector) (Figure 2.6).

Le mecanisme CSMA/CA de base se présente comme suit : Lorsque le canal est libre,
la station émet ses données et attend la réception d'un ACK de la station destination.
Une fois l'ACK reçu, la station émettrice comprendra que la transmission a été faite sans
collisions. Dans le cas contraire et à l'expiration d'un temporisateur, l'émetteur retransmet
la trame victime de collisions (gure 2.6).
15

Fig. 2.7  Échange de données pour la méthode d'accès CSMA/CA de base

La Figure 2.7 illustre le comportement du protocole CSMA/CA lorsque l'acquitte-


ment n'est pas reçu. Les données sont retransmises à cause de collisions ou de pertes des
données ou de l'acquittement en question. Le CSMA/CA a fait l'objet d'une nouvelle
spécication en introduisant le mécanisme de détection virtuelle. Il s'agit dans ce cas du
protocole d'accès à quatre étapes RTS/CTS/DATA/ACK. Ce mécanisme a été introduit
pour remédier aux problèmes des stations cachées et exposées (Figure 2.8).

Comme le montre la Figure 2.8 (a), le problème de la station cachée se produit lorsque
C, qui se trouve à la portée de B, veut lui émettre des informations alors que A est déjà
en communication avec B. Or, C, étant la station cachée, est hors de portée de A donc
elle ne peut pas s'apercevoir de la transmission de celle-ci. Ainsi, C trouve le canal libre
et donc elle émet. Une collision se produit alors au niveau de B. Pour le problème de la
station exposée, il s'agit du cas contraire. Dans la Figure 2.8 (b), B est en train d'émettre
vers A et C veut émettre vers D. La dernière émission ne sera pas eectuée du fait que
C se trouvant à la portée de B croit que le canal est occupé. Or, l'émission de B vers A
ne causerait pas de problème car D n'est à la portée ni de B ni de A. Ainsi, la station C,
exposée à l'émission de B vers A, est forcée d'attendre inutilement : le débit s'en ressent
donc. C'est ainsi que se présente les problèmes du CSMA/CA original auquel il a fallut
ajouter un mécanisme adéquat permettant d'un coté de diminuer les collisions et d'un
autre augmenter le débit et optimiser l'utilisation du canal.

Mécanisme détection virtuelle des collisions


Le mécanisme de détection virtuelle de la porteuse (VCS : Virtual carrier Sense) est
un procèdé qui réduit les chances de collisions entre deux stations qui ne sont pas en
visibilité. Il peut être introduit uniquement dans le cas de l'accès avec contrôle distribué
DCF. La Figure 2.9 illustre l'échange des données pour la méthode d'accès CSMA/CA
16

Fig. 2.8  Illustration du problème de la station cachée/exposée

avec le mécanisme de detection virtuelle. Ce mécanisme se présente comme suit. Chaque


station tient à jour un compteur NAV (Network Allocation Vector) contenant la durée
estimée des émissions et permettant ainsi de prévoir l'état d'occupation du support phy-
sique. Lorsqu'une station souhaite émettre, elle écoute le canal et s'il est libre elle transmet
un message appelé RTS (Ready To Send) indiquant la source, la destination et la durée
de la communication. La station réceptrice répond avec une trame CTS (Clear To Send)
incluant ces même informations. En détectant un RTS ou un CTS, les stations avoisi-
nantes mettent à jour leur NAV et patientent, alors, pendant un temps qu'elle considère
nécessaire à la transmission du volume d'information à émettre à la vitesse annoncée.
Chaque station décrémente alors le NAV jusqu'à N AV = 0 (événement correspondant à
la libération virtuelle du canal). C'est à ce moment qu'on peut lancer la procédure d'accès.
A la réception de toutes les données émises par la station, le récepteur envoie un accusé
de réception (Ack). Pour IEEE802.11 utilisant le mécanisme de détection virtuelle, les
collisions se produisent au niveau du RTS.

La Figure 2.10 illustre le comportement du mécanisme d'accès CSMA/CA utilisant le


mécanisme RTS/CTS lorsque le RTS n'est pas reçu.

Le RTS sera retransmis à cause de collisions ou de pertes. Bien entendu, ce mécanisme


n'élimine pas complètement le risque d'avoir des collisions. Cependant, s'il y a collision,
elle se produit entre des trames de petite taille, ce qui améliore la qualité des transmissions.
Ainsi le mécanisme VCS cesse d'être intéressent lorsque les trames de données à envoyer
sont de petite taille. Un seuil appelé RTSThreshold a donc été déni et le mécanisme VCS
ne sera adopté que si la taille des paquets de données à émettre est supérieure à ce seuil.
17

Fig. 2.9  Échange de données pour la méthode d'accès CSMA/CA avec le mécanisme

de détection virtuelle

Fig. 2.10  Échange de données pour la méthode d'accès CSMA/CA avec le mécanisme

de détection virtuelle
18

Espaces inter trames

L'accès au support est contrôlé grâce à l'utilisation du mécanisme d'espacement entre


deux trames, appelé IFS (Inter Frame Spacing). Cet espacement correspondant à l'inter-
valle de temps entre la transmission de deux trames. Pour dénir les diérentes sortes
d'IFS, la norme a tout d'abord introduit la notion de Slot Time5 (ST) comme étant l'in-
tervalle de temps qui permet à une station de savoir si une autre station a accédé au
canal au début du slot précèdent. La valeur d'un Slot Time dépend de la couche physique
utilisée. Pour la couche PMD à étalement de spectre à séquence directe, cette valeur est
20 µs.

A partir de cette notion, la norme a ensuite introduit 4 types d'espaces inter trames
dénis comme suit :
 SIFS (Short Inter Frame Spacing) est le plus court espace inter trames. Il sépare les
transmissions d'un unique dialogue, par exemple entre une trame émise et son ACK
ou encore entre plusieurs fragments d'une même trame. La valeur de SIFS retenu
par la norme est de 10,
 PIFS (Priority Inter Frame Spacing) est l'espace inter trames utilisé par le point
d'accès pour avoir une priorité d'accès au canal par rapport aux autres stations
(P IF S < DIF S), ce qui lui permet de basculer en mode d'accès. Sa valeur est
calculée comme suit : P IF S = SIF S + 1 × ST = 30,
 DIFS (Distributed Inter Frame Spacing) est l'espace inter trames utilisé par les
stations pour accéder au support. Sa valeur est donnée par : DIF S = P IF S + 1 ×
ST = 50,
 EIFS (Extended Inter Frame Spacing) est l'espace inter trames le plus long utilisé
si la station reçoit une trame erronée.

FHSS DSSS IR

ST (µs) 50 20 8

SIFS (µs) 28 10 7

DIFS (µs) 128 50 19

PIFS (µs) 78 30 15

Tab. 2.1  Valeurs des Slot Time, SIFS, DIFS et PIFS selon le mode de transmission

5 ST : durée d'un slot time dénie comme étant l'intervalle de temps nécessaire pour une station pour
savoir si une autre a accédé au canal au début du Slot Time précédant
19

2.3.3 L'algorithme de backo


Le protocole d'accès CSMA/CA est couplé avec l'algorithme de backo qui est un
mécanisme calculant une temporisation gérant les transmissions et les retransmissions. Le
backo est une méthode bien connue pour résoudre les conits entre plusieurs stations
voulant avoir accès au support. Il doit être exécuté dans les cas suivant :
 Quand la station écoute le support avant la première transmission d'un paquet et
que le support est occupé (voir Figure 2.11) ;
 Après chaque retransmission ;
 Après une transmission réussie.
La procédure de backo est un mécanisme simple, basé sur le calcul d'un temporisateur
gérant les transmissions et les retransmissions. Il permet de réduire la probabilité de
collision sur le canal en essayant de minimiser les chances d'avoir plusieurs stations qui
accèdent au support en même temps.

Une station S désirant envoyer des données attend pendant une période DIFS. Si après
cette durée le canal est libre, la station accède directement au canal. Dans le cas contraire,
la station déclenche le mécanisme de backo qui se déroule en 3 étapes :

 La station calcule son temporisateur Backof f _T imer :

Backof f _T imer ← Random() × ST (2.1)

avec :
 Random() : nombre pseudo-aléatoire choisi entre 0 et CW − 1 ;
 CW (Contention Window) : représente la taille de la fenêtre de contention. Elle a
pour valeur initiale CWmin . Dans le cas d'une transmission reussie, CW est réini-
tialisée à CWmin . si par contre, la station émettrice ne reçoit pas d'acquittement
au bout d'un certain temps (transmission échouée). CW est alors incrémentée de
la façon suivante : CWnew ← 2 × CWold + 1. La station suppose dans ce cas qu'il
y a eu collision lors de la transmission, et incrémente la taille de sa fenêtre de
contention an de diminuer les chances de collisions lors des prochaines retrans-
missions. Une valeur limite CWmax est cependant dénie. Si pour CW = CWmax
la transmission échoue toujours, la valeur n'est plus incrémentée et est maintenue
à CWmax .
 Quand le canal devient libre, et après un DIFS, la station commence à décrémenter
son temporisateur Slot Time par Slot Time.
 Lorsque la valeur de Backof f _T imer est égale à 0, la station peut alors envoyer. Si
par contre au cours de la phase de décrémentation, une autre station S2 termine de
décrémenter son temporisateur, la station S bloque son temporisateur. Elle pourra
continuer de le décrémenter une fois la transmission de la station S2 nie.
20

Fig. 2.11  Illustration de l'algorithme de Backo

La Figure 2.11 présente une illustration de la procédure de backo, où plusieurs sta-


tions désirent transmettre des données : Pendant que la station A transmet sur le support,
les stations ayant des données à transmettre (B, C et D) dièrent leurs transmissions. Une
fois que A eut terminé de transmettre, B, C et D attendent pendant une durée DIFS pour
ensuite commencer à décrémenter leurs temporisateurs de backo. Étant la première à
terminer de décrémenter son Backof f _T imer, la station C peut transmettre sur le sup-
port. Les stations B et D bloquent alors leurs temporisateurs respectifs. Lorsque C termine
sa transmission et après avoir attendu pendant un DIFS, les stations B et D reprennent
la décrémentation de leurs Backof f _T imer, là où ils les ont bloqués. Entre temps, une
nouvelle station E désirant transmettre active à son tour une procédure de backo. Les
mécanismes se répètent jusqu'à ce que toutes les stations aient accédé une à une au sup-
port.

2.4 La consommation d'énergie


Les n÷uds mobiles d'un réseau ad hoc utilisent des batteries comme principale source
d'énergie. La durée de vie de ces batteries est assez courte, c'est pour cela que ces réseaux
doivent incorporer des mécanismes d'économie d'énergie ecaces de façon à minimiser la
consommation. Pour une meilleure utilisation des n÷uds mobiles, le standard IEEE802.11
dénit deux modes d'énergie [14, 15] : le CAM (Continuous Aware Mode) et le PSM (Power
Save Mode). Du point de vue consommation en énergie, un n÷ud peut avoir trois états.
21

Il peut être en réception, dissipant une certaine énergie, en émission, dissipant une autre
énergie ou en mode veille (écoute passive du canal) et dans ce cas il dissipe aussi de
l'énergie mais en quantité moins importante que les deux premiers modes.

1. CAM : représente le mode de fonctionnement par défaut, où l'interface radio est


tout le temps allumée et écoute de façon permanente le canal radio. Il ne s'agit
donc pas d'un mode d'économie d'énergie. C'est sur ce mode par défaut que seront
eectuées nos contributions.
2. PSM : dans ce mode d'économie d'énergie, le point d'accès tient à jour une liste de
toutes les stations qui sont en mode d'économie d'énergie et stocke les données qui
leur sont adressées dans un élément appelé TIM (Trac Information Map). Ainsi,
les stations en veille s'activent à des intervalles de temps réguliers pour recevoir
une trame balise contenant le TIM diusé par le point d'accès. Entre deux trames
balises, les stations retournent en mode veille.

2.4.1 Le mécanisme d'économie d'énergie


Une station utilisant PSM peut voir un des deux états suivants à un instant donné
[4][5][16] :

 Awake : la station utilise toute sa puissance pour recevoir et envoyer des données à
tout moment,
 Doze : la station est incapable de transmettre ou de recevoir, elle utilise le minimum
de son énergie. Si elle a des messages à envoyer, elle les garde localement.

Une station peut être dans l'état Doze mais doit se réveiller et revenir à l'état Awake
pour recevoir certains messages de contrôle, de synchronisation et recevoir les paquets
sauvegardés. Tous les n÷uds du réseau doivent être réveillés en même temps pour échan-
ger les messages qu'ils auront sauvegardés durant la période Doze. De ce fait, la norme
IEEE802.11 dénit une fonction de synchronisation qui se base sur l'échange d'un paquet
appelé Beacon au début de chaque période BeaconInterval [5].

Cette période commence par une sous période appelée ATIMWindow durant laquelle
uniquement les messages de contrôle et des annonces (messages ATIM : Announcement
Trac Indication Message) sur des messages sauvegardés doivent être échangés entre les
n÷uds. Au terme du ATIMWindow, si un n÷ud n'a annoncé aucun paquet à envoyer et n'a
reçu aucune annonce, il peut alors entrer en état Doze pour le reste de BeaconInterval.
Dans le cas contraire, il doit rester Awake pour réaliser les transferts nécessaires. La
synchronisation des n÷uds du réseau au niveau du mécanisme PSM fait que tous les
n÷uds utilisant le mode PS doivent, si leurs activités le permettent, entrer en mode Doze
durant la même période puis se réveiller aux mêmes instants. Cette caractéristique fait
que durant une communication entre une source et une destination utilisant une route à
plusieurs sauts, plusieurs n÷uds en mode Doze peuvent se trouver sur la route. Un paquet
traversant le réseau peut rencontrer tout un îlot de n÷uds en mode Doze empêchant le
paquet d'être routé à la destination. Ceci représente une faille au niveau de PSM qui peut
22

Fig. 2.12  Power Saving Mode (PSM) en mode ad hoc [17]

induire un risque de partitionnement du réseau au moment du routage. Par ailleurs, un


n÷ud utilisant le mode PSM restera actif durant tout le reste de la période BeaconInterval
s'il a reçu des annonces de messages durant la période ATIM ou s'il a des messages à
envoyer. Cependant, le n÷ud ne sera pas réellement en communication durant toute la
période puisqu'il n'aura pas accès au canal à tout instant et peut terminer la réception
ou la transmission de ses données avant la n de la période. Une amélioration de PSM
consiste à limiter la durée d'activité d'un n÷ud durant le reste d'un BeaconInterval an
de limiter la consommation d'énergie inutile et ceci en lui allouant des slots prédénis
pour l'échange de ses données. En dehors de ses slots, le n÷ud peut entrer en mode Doze.

La Figure 2.12 représente une illustration de ce mécanisme. Supposons qu'une station


A veut transmettre des données vers une autre station B. Durant une période ATIMWin-
dow, une trame ATIM est envoyée de A vers B. En réponse à cette trame, B envoie un
ACK. Une fois ATIM window est terminé, A transmet ses données en utilisant le protocole
d'accès DCF.
Ces mécanismes d'économie d'énergie peuvent être utilisés uniquement au niveau des
n÷uds choisissant de les utiliser. En revanche, l'inconvénient de ces mécanismes est qu'ils
peuvent dégrader les performances globales de débit du réseau de 20 à 30% [17].

2.4.2 Élements de la consommation d'énergie


La diérence qui existe entre un n÷ud appartenant à un réseau ad hoc et un autre ap-
partenant à un réseau avec infrastructure en terme de consommation d'énergie réside dans
le fait que pour ce dernier, les points d'accès ne sourent d'aucune limitation énergétique.
23

La contrainte d'énergie ne se pose donc qu'au niveau des stations mobiles et qui sont
alimentées par des dispositifs énergétiques limitées. C'est pourquoi les stratégies adoptées
pour ces réseaux se basent sur la consommation d'énergie dans les points d'accès, pour
maximiser la durée de vie des terminaux. Ainsi la gestion de l'énergie individuelle des
n÷uds ne concerne que leurs applications locales propres à eux.

Le principe de consommation d'énergie change pour les réseaux ad hoc puisque les
n÷uds dans un tel réseau sont généralement alimentés par des batteries de durée de vie
limitée et sont liés et interdépendants entre eux. Ces n÷uds se trouvent alors dans l'obliga-
tion de coopérer pour assurer surtout les besoins de routage en plus de la charge nécessaire
pour l'accès au support de transmission et le transfert des données. Ils consomment ainsi
une charge énergétique supplémentaire en plus de l'énergie dépensée pour leurs applica-
tions locales propres à eux. Les n÷uds doivent aussi s'auto-organiser. Cela signie que
d'une manière ou d'une autre il va y avoir un trac de contrôle dépendant de la mobilité
dans le réseau. Plus la topologie sera dynamique, plus la charge du trac de contrôle (et
donc la perte d'énergie correspondante) sera importante. De plus, suivant la topologie,
certains n÷uds peuvent se trouver dans des positions clefs et assurer par conséquence le
relais pour un grand nombre de ux. Ces n÷uds peuvent être amenés à consommer très
vite leurs ressources énergétiques. Il est ainsi important d'avoir recours à des stratégies
qui auront pour but de maximiser la durée de vie individuelle des stations ainsi que la
durée de vie globale du réseau tout entier. Et c'est l'objet de notre thèse.

Avant de considérer les diérentes approches d'optimisation de la consommation d'éner-


gie, il est intéressent de s'interroger sur la contribution de l'interface réseau dans la
consommation d'énergie du système mobile.

L'énergie consommée par l'interface radio d'une station mobile dépend de son mode
opérationnel. En eet, un n÷ud dans un réseau ad hoc peut être en état de transmission,
de réception, inoccupé (idle), ou bien de veille (sleep). Nous les décrivons comme suit :
 Transmission : un n÷ud est en train d'émettre des données ;
 Réception : le n÷ud reçoit des messages de données ;
 Inoccupé : c'est un état transitoire entre la réception ou la transmission et l'état
de veille. Une station dans cet état elle est prête à passer aux états précédemment
cités ;
 Veille : le n÷ud est en état d'économie d'énergie. Ainsi la consommation d'énergie
sera la plus inférieure.
Dans ce dernier cas, la consommation de l'énergie est due au fait que le n÷ud doit écouter
le canal pour détecter l'arrivée d'un paquet qui lui est destiné. Cependant on peut négliger
l'énergie consommée en mode veille par rapport aux deux autres états, à cause du nombre
important d'éléments des circuits qui doivent être alimentés en mode transmission ou
réception. Entre ces deux modes, il convient de noter qu'une transmission est plus coûteuse
qu'une réception. Une veille est donc la moins coûteuse [5, 18]. A titre d'exemple, la
consommation d'énergie d'une carte WiFi IEEE802.11b est de 30mA pour la réception et
de 200mA pour la transmission en mode normal et de 10mA pour le mode veille. Dans le
cas d'une carte IEEE802.11a, la consommation d'énergie est beaucoup plus importante :
300mA pour la réception, 500mA pour la transmission et 15mA pour le mode veille.
24

Pour un n÷ud donné, l'énergie totale consommée par son interface radio peut être
modélisée par une équation linéaire :

ÉnergieTotale consommée (Joules)= (Pt ∗ Tt ) + (Pr + Tr ) + (Pi ∗ Ti ) + (Ps ∗ Ts )

Où Pt , Pr , Pi , Ps désignent respectivement la puissance consommée par un n÷ud en


transmission, réception, inoccupé et en veille pendant les durées Tt , Tr , Ti etTs [19].

Supportées par les avancées technologiques, les innovations au niveau du matériel ont
connu une évolution importante. En eet, Yi Cui et al. [20] viennent de trouver un moyen
de multiplier par 10 l'autonomie des batteries lithium-ion grâce à des nanols de silicium.
Leur nouvelle version de batterie est capable de produire 10 fois plus d'électricité que
les batteries lithium-ion actuelles. D'autre part, la consommation d'énergie au niveau
de l'interface réseau constitue un des axes de recherche les plus étudiés. Les mesures
eectuées dans [5] prouvent que l'interface de réseau représente un pourcentage signicatif
de l'énergie consommée par un laptop et est source dominante de consommation d'énergie
dans certains PDA.

L'énergie consommée par une interface dépend de son mode de fonctionnement : En


mode veille, l'interface ne peut ni émettre ni recevoir des données. Elle est donc à son
niveau de consommation minimal. Pour transmettre ou recevoir, une interface doit im-
pérativement faire la transition par l'état idle, ce qui provoque de la perte additionnelle
d'énergie. Le tableau suivant représente quelques mesures expérimentale de la consomma-
tion en Watts (puissance) au niveau de certains exemples d'interfaces sans l et ce pour
les diérents modes : transmission, réception, en veille, idle.

IEEE 802.11 Interfaces (2.4 GHz) Transmit (Watts) Receive (Watts) Idle (Watts) Sleep (Watts) Mbps

Aironet PC4800 [21] 1.4-1.9 1.3-1.4 1.34 0.075 11

Lucent Bronze [6] 1.3 0.97 0.84 0.066 2

Lucent Silver [6] 1.3 0.9 0.74 0.048 11

Cabletron Roamabout [22] 1.4 1.0 0.83 0.13 2

Lucent WaveLAN [23] 3.10 1.52 1.5  

Tab. 2.2  Des mesures expérimentales de puissance consommée au niveau des interfaces

sans l.

Le Tableau 2.2 résume des mesures expérimentales de la consommation de puissance


au niveau de quelques interfaces sans l. Malgré la variation des modèles et des carac-
téristiques des interfaces (diérents constructeurs), on remarque certaine compatibilités
entre les mesures eectuées. En eet, pour toute ces interfaces, une transmission exige
plus d'énergie que la réception, mais la diérence est inférieur à un facteur de deux. La
puissance consommée par station en mode Idle est assez élevée comparée avec celle qu'elle
consomme pendant une réception.
25

2.5 Conclusion
De par leur mobilité, leur déploiement rapide et le fait qu'ils ne nécessitent aucune
infrastructure xe, les réseaux ad-hoc trouvent de nombreuses applications tant dans le
civil, par exemple lors de catastrophes naturelles pour déployer les secours (avec des pro-
blématiques comme le rattachement à un réseau laire, on parle alors de réseaux hybrides)
que dans le monde militaire (avec des applications comme les réseaux de capteurs : sen-
sor networks). Toutefois, les réseaux ad hoc introduisent un grand nombre de contraintes
comme le routage, l'intégration avec Internet, la qualité de service et surtout l'écono-
mie d'énergie qui devient une question critique dans les mobiles à cause de la durée de
vie limitée de leurs batteries. Si certaines spécicités des réseaux ad-hoc comme la abi-
lité du médium, les problèmes d'accès concurrents, ou encore le routage sont aujourd'hui
largement étudiées, la gestion de l'énergie ne l'est pas assez.
26
27

Chapitre 3
Littérature sur la consommation
d'énergie dans les réseaux Ad hoc

Généralement, les terminaux dans les réseaux ad Hoc sont alimentés par des ressources
énergétiques limitées qui correspondent aux batteries de durée de vie limitée, ce qui est
par ailleurs le cas pour la plupart des réseaux sans l avec infrastructure. Cependant,
la diérence réside dans le fait que pour les réseaux avec infrastructure, les stations de
base ne sourent d'aucune limitation énergétique, la contrainte d'énergie ne se pose qu'au
niveau des n÷uds mobiles. C'est pourquoi les stratégies adoptées pour ces réseaux se
basent sur la consommation de l'énergie dans les stations de base, pour maximiser la
durée de vie des terminaux. Cette approche n'est plus valable si l'on parle des réseaux ad
hoc qui ne bénécient d'aucune infrastructure préexistante. D'autre part, dans les réseaux
avec infrastructure, les terminaux opèrent indépendamment l'un de l'autre en utilisant les
stations de base pour communiquer entre eux. La gestion de l'énergie pour un n÷ud ne
concerne alors que ses applications locales propres à lui. Ce n'est pas le même cas pour
les réseaux ad hoc puisque les n÷uds sont liés et interdépendants entre eux et doivent
coopérer pour assurer surtout les besoins de routage.

Les performances d'un tel réseau deviennent alors étroitement liées à son ecacité en
terme de conservation de l'énergie pour maximiser sa durée de vie, qui est dénie par un
seuil sur le pourcentage xe des n÷uds dans le réseau qui "meurent" en raison du manque
d'énergie. Il est ainsi important d'avoir recours à des stratégies qui auront pour but de
maximiser la durée de vie des stations et du réseau tout entier. La clef pour aboutir à
ces objectifs réside dans le développement des protocoles optimisés pour les diérentes
couches du modèle de référence.

Nous nous intéressons dans ce chapitre aux travaux traitant de cette problématique
les plus en vu dans la littérature.
28

3.1 Facteurs aectant la consommation d'énergie


Parmi les principaux facteurs aectant la consommation des batteries dans un réseau
ad hoc, nous pouvons citer [24] :

 La transmission radio : la consommation la plus importante est due à la transmission


radio. Il convient de noter qu'une émission est davantage coûteuse qu'une réception
et que comparativement une veille est la moins coûteuse ;
 La gestion du terminal : Une autre utilisation des batteries est due à l'alimentation
des ressources propre au terminal, qu'il s'agit du CPU, du disque dur, des mémoires
d'achage, etc ;
 Fonctionnalités des protocoles permettant d'assurer la liaison entre les stations pen-
dant une consommation : nous citons, par exemple, les protocoles de contrôle de
collision, de congestion, de routage assurant les transmissions radio quelles soient
des émissions, des réceptions ou même des attentes en veille ;
 Des applications utilisant des calculs pour la compression ou le cryptage de données.

Comme indiqué précédemment, la proportion la plus élevée d'énergie consommée par


les interfaces réseaux sans l (WNIC) est celle consommée durant l'activité de communi-
cation à travers essentiellement la transmission. De plus, il a été démontré que la consom-
mation d'énergie pour les cartes IEEE802.11 est due majoritairement au protocole d'accès
CSMA/CA supporté par la norme [5, 6].

Plusieurs études et recherches [5, 19, 20] ont montré que l'écoute du canal auquel opère
le protocole est la source primaire de la perte de puissance. En outre, il a été prouvé dans
[19, 20] que l'énergie consommée pour garantir la réception et l'écoute est équivalente à
celle requise pour la transmission d'un paquet pour le protocole d'accès CSMA/CA.

De plus, les informations échangées pour n'importe quel protocole de routage augmente
la charge des n÷uds et celle du réseau. Ceci induit une perte additionnelle d'énergie entre
la fonction de gestion et de maintenance des routes et celle de transmission. Dans ce
cas, plusieurs n÷uds et par manque d'énergie ne feront plus partie du réseau formé et
seront la cause de sa fragmentation évidente. Il est à signaler que pour les protocoles de
routage, l'énergie présente au niveau des n÷uds peut être un critère de choix du chemin
de la source vers la destination. Ainsi, il est crucial de pouvoir économiser et minimiser
davantage la consommation d'énergie pour satisfaire la présence de tels réseaux le plus de
temps possible.

3.2 Optimisation au niveau de la couche physique


Une communication entre deux n÷uds exige la création d'un lien physique entre deux
interfaces radios. La couche physique assure la communication à travers ce lien physique,
ce qui implique de moduler et coder les données de sorte que le n÷ud récepteur prévu
puisse les décoder de façon optimale même en présence de l'interférence sur le canal.
29

Au niveau de cette couche, les recherches se sont concentrées sur la réduction de


la consommation d'énergie au niveau matériel, logiciel et l'augmentation de la capacité
des batteries. Néanmoins, la communication dans ces réseaux devient de plus en plus
exigeante et l'énergie nécessaire pour la transmission d'un paquet dans le canal sans l
demeure signicative et peut s'avérer être la quantité d'énergie la plus élevé qu'un n÷ud
doit dépenser.

Exposant les diverses sources de consommation d'énergie par les interfaces WLANs, on
peut dire que le déploiement d'un tel réseau ne sera possible que si des mesures d'économie
d'énergie au niveau des cartes 802.11 soient mises en évidence.

Face à cette contrainte, la norme a résolue en partie le problème par la détermination


d'un mécanisme approprié. En eet, la norme 802.11 a dénie le mécanisme d'économie
d'énergie PSM : Power Saving Mechanism [6] (voir Section 2.4).

3.2.1 Mécanismes d'optimisation d'énergie


Le mécanisme PSM dénie par la norme 802.11 n'est pas ecace dans toutes les
situations. En eet, PSM prend comme hypothèse la synchronisation entre les n÷uds
d'un réseau ad hoc, le canal typiquement idéal ainsi que les transmissions généralement
réussies. Ces faits ne sont pas aussi faciles à réaliser. En eet, dans les MANET (Mobile Ad
hoc Network), la mobilité peut faire perdre toute synchronisation. De plus, les milieux de
propagation peuvent rendre le canal aussi bruité et le taux d'erreur assez élevé. En outre,
le nombre de stations en contention de plus l'ecacité du mécanisme d'accès peuvent
inuencer sur le taux de paquets correctement reçus. Cela conduira certainement à une
inecience du mécanisme d'économie d'énergie et donc il sera insusant pour faire face
au problème d'énergie dans les WLANs.

Le mécanisme PSM réduit la consommation d'énergie pour les stations réceptrices par
la translation au mode PS alors que les stations émettrices consomment leur énergie et
n'opèrent à aucune procédure d'économie. Ainsi ces méthodes permettent la réduction de
la consommation d'énergie dans la partie radio en état de transmission. Ainsi, plusieurs
améliorations ont été introduites pour permettre une vie plus longue aux communications
via les réseaux locaux sans l. Une amélioration de PSM consiste à limiter la durée
d'activité d'un n÷ud durant le reste d'un BeaconInterval6 an de limiter la consommation
d'énergie inutile et ceci en lui allouant des slots prédénis pour l'échange de ses données.
En dehors de ses slots, le n÷ud peut entrer en mode Doze.

Slotted PSM [25] consiste donc à diviser la période allant de la n de la période ATIM
jusqu'au reste de la période BeaconInterval en un certain nombre de slots de temps, cha-
cun sera alloué pour un n÷ud donné pour eectuer sa communication. Chaque n÷ud
restera actif uniquement durant les slots qui lui seront alloués et pourra ainsi être en
mode doze plus longtemps. La réservation des slots pour l'échange de données s'eectue

6 BeaconInterval : période durant laquelle des messages Beacon sont échangés entre les n÷uds.
30

dynamiquement durant la période ATIMWindow7 . La source inclut les informations de


réservation de slots dans les messages ATIM. Chaque n÷ud maintient une table de réser-
vation de slots qui sera actualisée à chaque réception de trames ATIM ou ACK-ATIM.
Un n÷ud source choisit les slots qu'il va inclure dans la trame ATIM en se basant sur
ses informations locales à partir de la table des états des slots et la quantité états des
slots et la quantité du trac qui sera échangé. A la réception du message ATIM, le n÷ud
destination réplique par un paquet ATIMRE (ATIM Réponse) dans lequel il inclut la liste
de ses slots libres. La source rectie alors sa réservation selon le nouvel état des slots et
envoie un nouveau paquet ATIM.

Une autre amélioration récente de PSM, adoptant le même principe que Slotted PSM,
est le mécanisme TA-PSM (Trac Aware Power Saving Mode) [26]. Cette nouvelle ap-
proche part de la constatation du fait que deux n÷uds en mode PS restent en état Awake8
pour le reste de BeaconInterval an d'échanger des paquets de données, mais peuvent ter-
miner leur communication avant la n de cette période. TA-PSM consiste à réduire la
consommation d'énergie des n÷uds du réseau activant PSM en les rendant plus sensibles
à la charge du trac. Chaque source doit à cet eet, indiquer à sa destination l'éventuelle
n de leur communication et ceci en activant un champ particulier dans le dernier pa-
quet qu'elle lui adresse. Ce mécanisme permettra ainsi à une source et une destination
d'entrer immédiatement en mode Doze dès qu'elles ne sont plus impliquées dans la trans-
mission d'aucun trac, sans attendre la n d'un BeaconInterval et ceci jusqu' à la n de
cette période. Ceci est réalisé par l'ajout d'une indication dans le dernier paquet transmis
de la source à la destination indiquant ainsi la n du transfert de données entre eux.
D'autres propositions [27] se basent sur une architecture à deux canaux radios assurant
une conservation de l'énergie a travers la mise en veille d'un premier canal et l'utilisation
du second à une puissance minimale pour réveiller un voisin spécique ou pour écouter
périodiquement le canal.

Dans la référence [28], les auteurs proposent une nouvelle amélioration du mécanisme
PSM appelé UTA-PSM (Unicast Topology Aware Power Saving Mecanism). Ce nouveau
mécanisme vise à minimiser le nombre de trames échangés an de réduire la période
d'announcement du trac [29].

3.2.2 Le protocole Transmit Power Control (TPC)


La puissance de transmission a un impact direct sur la durée de vie des batteries
et la capacité du réseau en terme de trac eectif transporté. En eet, les références
[30, 31] montrent que plus la porté des n÷uds est grande, plus la puissance nécessaire à
la transmission est grande. De plus, la portée d'un n÷ud inue directement sur la zone
d'interférence. Augmenter la portée implique aussi augmenter la probabilité d'interférence,
le taux de collisions et de perte et diminuer la capacité des n÷uds à transmettre.
7 ATIMWindow : période durant laquelle des message de contrôle doivent être échangés.
8 Awake : état dénit par le mécanisme PSM durant lequel un n÷ud utilise tout sa puissance pour
recevoir et envoyer des messages de données.
31

Le contrôle de puissance consiste à adapter les portées et les puissances de trans-


mission des n÷uds an d'assurer une consommation minimale d'énergie tout en gardant
la connectivité du réseau. Il s'agit de trouver une portée de transmission optimale pour
les n÷uds du réseau, pouvant être commune ou pas, permettant d'optimiser l'énergie
consommée lors des communications [32, 33]. Le contrôle de topologie vise à réduire la
portée des n÷uds ; la reduction des interférences et des collisions permettent une meilleure
conservation d'énergie [34, 35].

Plusieurs propositions existent pour assurer le contrôle de topologie en jouant sur le


rayon de transmission. Le mécanisme proposé dans [26] permet d'ajuster la puissance d'un
n÷ud jusqu'à ce qu'il ait un nombre de voisins limité. Ceci n'assure pas dans tous les cas
la connectivité du réseau. Souvent, les n÷uds peuvent se retrouver dans des îlots séparés
avec quelques voisins directs.

Le protocole COMPOW [33] a pour objectif d'ajuster la puissance des n÷uds selon une
valeur commune. Ce niveau de puissance est le niveau minimal permettant d'assurer la
connectivité du réseau. Ce protocole met en évidence l'importance des liens bidirectionnels
puisqu'une destination directe ne peut répondre à une source que si sa puissance de
transmission est au moins égale à celle de la source. De ce fait, assurer une puissance
commune permet d'assurer des liens bidirectionnels. Ce protocole vise aussi à augmenter
la capacité de transmission du réseau avec le plus petit niveau d'énergie ou de portée tout
en gardant la connectivité du réseau.

Assurer une portée minimale des n÷uds tout en gardant la connectivité du réseau pose
le problème de recherche de la meilleure couverture du réseau et du contrôle de partition-
nement. La référence [36] propose de calculer le diagramme de Voronoî sur l'ensemble des
n÷uds du réseau, dont la topologie et la localisation des n÷uds est connue à un instant
donné, puis d'en déduire la triangulation de Delaunay qui permet de relier les n÷uds
ayant des cellules voisines. Le diagramme de Delaunay assure une connectivité totale des
n÷uds du réseau selon des liens courts assurant une portée minimale.

Dans [37], un contrôle de puissance est implémenté dans chaque n÷ud au niveau
MAC. Le protocole proposé utilise les messages RTS/CTS/DATA pour choisir un niveau
de puissance parmi dix niveaux variant linéairement entre le maximum de puissance utilisé
par le protocole original et le 1/10 de cette puissance. Ainsi, un n÷ud communique avec
ses voisins avec des puissances diérentes. Ce mécanisme permet donc de réduire l'énergie
consommée lors des transmissions et aussi le taux d'interférences du niveau radio. En eet,
une réduction de la consommation d'énergie allant de 10% à 20% et une augmentation du
débit atteignant 15% a été observé par l'étude de performances du mécanisme proposé.

Ce protocole se base sur le fait que quand un n÷ud veut transmettre á un n÷ud
destinataire proche de lui, il n'est pas nécessaire de transmettre à la même puissance que
pour un n÷ud plus loin. On peut observer sur la Figure 3.1 que le n÷ud A n'aura pas
besoin d'envoyer des paquets vers B à la puissance de 20mW, alors que ce dernier est dans
une marge de 2mW . Ainsi, une quantité signicative d'énergie peut être sauvegarder. Ceci
devient plus important lorsque le nombre de transmissions augmente.
32

Fig. 3.1  Principe de contrôle de puissance de transmission [37]

Fig. 3.2  Avantage de contrôle de puissance de transmission : portée radio (a) sans et

(b) avec contrôle de puissance de transmission [37]


33

Ce protocole exige aussi que la portée de chacune des stations soit contrôlée de ma-
nière à être réduite au maximum pour minimiser la consommation des batteries, tout en
garantissant une connectivité globale. Pour cela, chaque n÷ud s'assure d'avoir un nombre
xe de voisins de manière à être ni isolé (tant que sa portée le permet), ni en interac-
tion avec un grand nombre de stations (pour réduire les interférences). La Figure 3.2
présente un exemple illustratif de l'avantage que peut avoir la politique de contrôle de
puissance dans la réduction des interférences. En eet, dans le cas (a) la communication
AB empêche les communications CD et EF d'avoir lieu. Alors que dans le cas (b), et
avec un contrôle de puissance intelligent, les trois communications AB, CD et EF peuvent
coexister simultanément sans qu'aucune n'empêche les autres d'exister.

La référence [37] propose aussi d'introduire ce mécanisme au niveau de la sous couche


MAC. En fait, les auteurs ont proposé un nouveau mécanisme au niveau duquel ils ont
modié le format des trames CTS et DATA pour supporter le contrôle de puissance.
Diérent niveaux de puissance de transmission sont dénis. La destination informe la
source sur le niveau de puissance approprié à utiliser à travers une trame CTS. La source
quand à elle sera avertie à travers une trame DATA. Ainsi, pendant un échange RTS-
CTS-DATA, la source et la destination peuvent déterminer le niveau de puissance de
transmission à utiliser. Les résultats montrent une réduction de 10 à 20% au niveau de la
puissance consommée.

3.3 Optimisation au niveau de la couche liaison de don-


nées

3.3.1 La sous couche MAC


La couche MAC (Medium Access Control) est la deuxième sous couche de la couche liai-
son de données. Elle fait l'interface avec la couche physique et comprend l'implémentation
du protocole d'accès CSMA/CA dénissant la manière d'allouer les canaux radios parta-
gés entre l'ensemble des n÷uds mobiles. Parmi les principales sources de perte d'énergie
nous citons les collisions. Ces derniers étant envoyés par plusieurs expéditeurs sur le même
canal. Ils peuvent aussi être causées par les n÷uds cachés et celles causées par les n÷uds
exposés. L'objectif principal de cette couche consiste à organiser l'accès au canal radio et
par conséquence éliminer, autant que possible, les collisions puisqu'elles provoquent des
retransmissions, et les retransmissions mènent à une consommation inutile de l'énergie.
On ajoute à ceci le coût de la transmission et réception des messages de données ainsi que
celui de l'écoute quasi continue du canal de transmission avant de déclencher la phase de
transmission. Tous ces faits rendent la couche MAC le principal facteur de consommation
d'énergie.

Dans la référence [38], les auteurs ont pu montrer grâce à un ensemble de résultats
analytiques et expérimentaux la non adaptabilité du protocole MAC IEEE802.11 à l'en-
34

vironnement ad hoc et la nécessité de lui apporter des améliorations. Ainsi, les chercheurs
se sont largement intéressés à cette sous couche et plusieurs propositions de protocoles
améliorés ont vu le jour se focalisant principalement sur le perfectionnement du protocole
d'accès dans le but d'optimiser la consommation d'énergie. Parmi les travaux qui se sont
intéressés à cette couche, on s'intéressé principalement aux références suivantes.

Le protocole PAMAS
Comme l'état de veille est celui qui consomme la plus faible quantité d'énergie du
moment que le n÷ud ne reçoit et ne transmet pas des paquets, l'idée était de dériver une
stratégie ecace qui permet à l'interface du n÷ud dans un réseau ad hoc de rester dans
l'état de veille aussi longtemps que possible. Tel est le cas avec le protocole Power Aware
Multiple Access Protocol with Signalling (PAMAS) [39].

PAMAS est basé sur le protocole MACA (Multiple Access Collision Avoidance) qui per-
met de palier aux problèmes de stations cachée et de "l'overhearing" : puisque le médium
est partagé, un n÷ud peut recevoir des paquets qui ne lui sont pas destinés. MACA repose
sur le modèle CSMA/CA et propose de se débarrasser de l'écoute nécessaire avant chaque
transmission. Les collisions sont évitées par l'écoute passive des RTS/CTS au niveau de
chaque mobile. Ce protocole, plus simple et plus léger techniquement que CSMA/CA,
n'est pas aussi bon que ce dernier. Il possède des performances proches d'ALOHA lors de
trac important avec de nombreux terminaux cachés.

Le principal apport de PAMAS par rapport à MACA, est la conservation des batteries
des n÷uds. Ceci est réalisé grâce à une optimisation de la couche MAC, en permettant
à toutes les stations d'éteindre leur interface radio an de réduire leur consommation
d'énergie à chaque fois que leur interface n'est pas utilisée. En eet, le protocole se base
sur le constat qu'une station ne peut pas recevoir de message tant qu'elle écoute une autre
communication, et ne peut pas émettre non plus si l'une de ses voisines est en train de
recevoir un message, an d'éviter les interférences. De ce fait, tout n÷ud dans le réseau
pourra éteindre son interface radio, c'est-à-dire "s'en dormir", dans l'un de ces cas :

1. Le n÷ud ne veut pas émettre et au moins un voisin est en train d'émettre vers une
autre station, puisque dans ce cas, même s'il y aura des paquets qui lui sont destinés,
il ne pourra pas les recevoir correctement.
2. Le n÷ud veut émettre et au moins un de ses voisins est en train de recevoir, puisque
s'il émet, il perturbe son voisin.
3. Le n÷ud veut émettre et tous ses voisins sont en train d'émettre, puisque dans ce
cas, aucun de ses voisins ne pourra lui acheminer ses données.

PAMAS utilise deux canaux distincts : l'un pour la signalisation, transportant donc les
messages de contrôle RTS/CTS qui sont envoyées par les stations pour accéder au canal
et l'autre pour le transport des messages de données. Ainsi une station ne peut perturber
que le canal de signalisation, n'aectant pas le transport de données.
35

Le problème réside maintenant dans la détermination de la période pendant laquelle


la station peut rester éteinte. Pour cela, elle doit envoyer un message pour s'informer
de la longueur de la transmission courante et attendre la réponse du voisin à travers les
messages RTS et CTS. Ce mécanisme va permettre aux stations d'économiser leur énergie
en éteignant leurs interfaces lorsqu'elles ne peuvent ni émettre ni recevoir. Les résultats
expérimentaux prouvent que PAMAS conserve de 40 à 70% de batteries des stations. De
plus, ce protocole est assez simple à intégrer avec les protocoles de routage classiques.

Les protocoles DCC et EDCC (Enhanced DCC)


Dans les références [40, 41], les auteurs présentent un nouvel algorithme d'accès ap-
pelé ( Distributed Contention Control algorithm : DCC). Il apporte une amélioration au
protocole d'accès DCF opérant au niveau de la sous couche MAC en essayant de donner
une estimation plus able des deux paramètres du mécanisme de backo à savoir le degré
de contention et la durée du slot. En eet, certaines études montrent que le protocole
de backo présente un inconvénient majeur : après une transmission réussie et dans un
réseau à forte charge, l'augmentation de la valeur de CW est obtenue au prix de collisions
continues car il n'existe aucune indication (mémorisation) sur l'état actuel de cette valeur.

Le principal objectif du protocole DCC est de résoudre ce problème en donnant une


estimation du Slot Time. Il utilise cette estimation pour prévoir ses transmissions sui-
vantes. Son inconvénient majeur est qu'il ne prend pas en compte la corrélation de cette
valeur estimée quand un n÷ud transmet avec succès deux trames successives. Ainsi la
variation de la valeur du Slot Time devient assez grande. En plus, DCC permet de sus-
pendre temporairement une transmission de données quand la probabilité de succès de
cette transmission est faible. Il est implémenté entre la couche physique et la couche MAC.

Le protocole Enhanced DCC [41] présente un remède à cet inconvénient en utilisant


une méthode ltre permettant de prendre avantage de cette corrélation et d'utiliser les
estimations successives des valeurs du slot utilisés.

Autres propositions
Parmi les solutions proposées dans la littérature, nous citons la technique citée dans
la référence [42]. Elle est venue pour apporter une amélioration au protocole d'accès
CSMA/CA et ce en terme de consommation d'énergie. Ceci est réalisé en essayant de
réduire dynamiquement le nombre de retransmissions requises après une collision. La
méthode prend en compte plusieurs hypothèses. Parmi ces derrières on trouve le fait que
l'une des sources principales de la consommation abusive de l'énergie est celle due aux
retransmissions causées par les collisions, les interférences ou un grand taux d'erreurs. La
première solution proposée par les auteurs consiste en un protocole d'accès CSMA/CA
avec une technique de retour en arrière. En eet, la technique propose d'utiliser dans un
premier temps lors d'une transmission la méthode de base DCF qui postule l'envoie des
données suivie d'une réception d'ACK. Lorsqu'une collision se produit, le DCF avec le
mécanisme de détection virtuelle (RTS/CTS) prend place. A la transmission réussie de la
36

Fig. 3.3  Illustration de la méthode Poojary [44]

trame ou l'obtention du nombre maximum d'essais de transmission, l'algorithme DCF de


base prend encore une fois le relais. La raison de ce choix est que les trames de contrôle
RTS et CTS sont plus petites que celles des données et donc la retransmission de telles
trames consomme moins d'énergie. Cette méthode a permis des performances meilleures
que le mode basique et le mode RTS/CTS du 802.11. En eet, les simulations ont montré
environ 50% d'énergie économisée [42].

An de réduire le nombre de collisions résultant de transmissions simultanées, le proto-


cole EC-MAC (Energy Conserving MAC) [43] élit un coordinateur jouant le rôle de point
d'accès. Les transmissions sont alors organisées par ce coordinateur, en cycles, eux-mêmes
divisés en plusieurs phases. Au début d'un cycle, le coordinateur transmet un message de
synchronisation de cycle. Ce message contient un certain nombre d'informations, comme
des informations de synchronisation et d'ordonnancement de transmission.

Un des principaux problèmes largement évoqués au niveau de la couche MAC est


le problème des stations cachées. Dans [44], Poojary et al. proposent une solution à ce
problème consistant à étendre le mécanisme de réservation du support RTS/CTS à tous
les n÷uds qui peuvent interférer la transmission des données pour qu'ils soient informés
de cette réservation. Il sut juste de retransmettre de nouveau les messages RTS et CTS
par les n÷uds qui les reçoivent. On les nomme respectivement Forwarding RTS (FRTS)
et Forwarding CTS (FCTS). Ceci dit, il ne faut pas que le nombre de retransmissions
devienne inni. Ainsi, les voisins des voisins seront alertés et ne viennent pas perturber
la communication établie. Ceci peut remédier au problème d'interférences causées par les
stations cachées.

Bien que ce protocole permet dans certains cas, de minimiser les interférences des
paquets de données au niveau des n÷uds de faible puissance de transmission (LPN : Low
Powered Nodes), il peut provoquer aussi des retransmissions inutiles du message FCTS
causant des collisions et d'autres retransmissions qui mènent à un gaspillage inutile de
l'énergie [45]. Les auteurs ont montré que ce message nécessite d'être propagé au plus
2N − 1 fois pour s'assurer qu'il arrive à une distance N du n÷ud source. N est dénit
37

Fig. 3.4  Insusance de la méthode Poojary [45]

Fig. 3.5  La diusion des paquets CTS et RTS [45]

comme étant le rayon de transmission des n÷uds HPN alors que celui des n÷uds LPN est
égale à 1 unité.

Pour minimiser les interférences des paquets de données au niveau des n÷uds LPN,
[45] considère le scénario de base adopté par Poojary auquel les auteurs ajoutent les trois
critères suivants :

 Seul un HPN (Higher Powered Node) retransmet les paquets CTS parvenus des
n÷uds de faibles puissances
 Si un n÷ud avec un paquet FCTS à transmettre écoute le canal et le trouve libre,
alors il transmet son paquet pour éviter d'éventuelles collisions.
 Seul les HPN retransmettent les paquets RTS parvenus des n÷uds de faibles puis-
sances de la même manière qu'un paquet FCTS.

S-MAC [46] est un mécanisme permettant aux n÷uds d'entrer en mode veille pour des
38

périodes assez longues. Dans S-MAC, un n÷ud entre en mode veille quand un voisin est en
cours de transmission. T-MAC [47] étend S-MAC en ajustant la longueur de la période de
réveil des n÷uds selon les communications environnantes. Ceci permet de réduire l'énergie
consommée suite à l'écoute passive du canal.

Dans la référence [48], les auteurs proposent un modèle analytique pour la consomma-
tion d'énergie au niveau MAC pour des stations supportant le mode IEEE802.11 DCF. Ce
modèle décrit les diérentes phases par lesquelles passe une station au cours de sa période
d'activité radio. Une description de la quantité d'énergie consommée par une station est
fournie. Les auteurs évaluent aussi la durée de vie moyenne d'une station dénie comme
étant le nombre maximal des paquets que pourrait transmettre cette station avant l'ex-
piration de la charge de sa batterie. Notre modèle analytique qui sera présenté dans le
Chapitre 4 se base sur ce modèle.

D'autres propositions se basent sur une architecture à deux canaux radios assurant
une conservation de l'énergie à travers la mise en veille d'un premier canal et l'utilisation
du second à une puissance minimale pour réveiller un voisin spécique ou pour écouter
périodiquement le canal [26].

3.3.2 La sous couche LLC


La couche LLC (Logical Link Control) est une sous couche de la couche liaison de don-
nées, qui implémente les fonctionnalités de contrôle d'erreur. La technique la plus utilisée
pour le contrôle d'erreur, dans un environnement laire est la méthode ARQ (Automatic
Repeat Request). Cette méthode consomme beaucoup d'énergie en raison des retrans-
missions et de la surcharge nécessaire pour la correction d'erreur. Utiliser ce genre de
protocole dans un environnement sans l nécessite une grande adaptation vu que le taux
d'erreur est plus élevé. Dans la référence [49], les auteurs proposent le mécanisme Hybride-
ARQ qui est un schéma de correction d'erreur où les blocs d'informations sont codés pour
mieux servir le FEC (Forward Error Correction) lors de la procédure de retransmission
requise par le récepteur en vue de remédier aux erreurs qui ont aecté la transmission ini-
tiale. L'hybride-ARQ est utilisé au niveau des canaux de trac sur le lien descendant pour
adapter les taux de codage de l'émetteur par rapport aux taux de données du récepteur.

3.4 Optimisation au niveau de la couche réseau


Trouver une route pour un seul message n'est pas une opération intéressante. En eet,
les algorithmes doivent inonder le réseau pour obtenir une route. Si le réseau ne doit
router que des événements peu fréquents, il faut se demander si recourir à une méthode
toute simple comme le " ooding " n'est pas la meilleure solution. De plus la latence
serait fortement diminuée (plus besoin d'attendre que la route se construise avant de
pouvoir transmettre). La référence [50] rappelle que le recours à cette méthode implique
que le message va être rediusé un grand nombre de fois et à chaque fois le coût de la
39

transmission sera un peu plus lourd avec une charge supplémentaire. Cette idée ne peut
être appliquée que dans la mesure où la taille des données (applicatives) est petite. Le
contrôle de la topologie consiste à limiter le voisinage dans un réseau dense et permet
ainsi d'épargner de l'énergie. Deux stratégies sont fréquemment mises en ÷vre.

Premièrement, il sut de contrôler la puissance d'émission. On rejoint ainsi l'idée déjà


évoquée avec COMPOW en favorisant un nombre de saut plus élevé, mais aussi moins
gourmand en énergie.

Deuxièmement, certains n÷uds peuvent s'endormir an de réduire la redondance et


ne plus participer au réseau. La référence [51] met en valeur cette idée au travers de deux
protocoles GAF (Geographic Adaptive Fidelity) et CEC (Cluster-based Energy Conser-
vation) qui peuvent s'ajouter (soit l'un, soit l'autre) à n'importe quel autre protocole de
routage. Ces opérations ne peuvent être faites qu'au niveau de la couche réseau car elle
est la seule à avoir une idée de la topologie du réseau et ainsi savoir si le n÷ud peut
être éteint sans porter préjudice au réseau. Des résultats viennent valider le principe et
démontrent un gain d'énergie important. Cette approche est acceptable seulement dans
la mesure où les n÷uds mis au repos ne représentent pas une destination.

Pour minimiser la consommation de l'énergie au niveau routage, il faut veiller à choisir


le meilleur chemin en se basant sur les contraintes d'énergie comme facteur de stabilité
du chemin. Ceci se traduit par le fait de choisir le chemin garantissant la consommation
d'énergie la plus faible ou encore de choisir le chemin passant par les n÷uds intermédiaires
ayant les batteries les plus chargées. Il faut aussi garantir une diminution de l'énergie
consommée par la procédure de découverte des routes et ce en adoptant une technique
ecace. Une autre technique pour diminuer la consommation de l'énergie consiste à op-
timiser le nombre de messages de contrôle engendrés par le protocole utilisé au niveau du
routage.

Dans un réseau ad hoc, un paquet nécessite d'être relayé par plusieurs n÷uds inter-
médiaires avant d'atteindre sa destination nale. Or, les protocoles de routage classique
adoptent des métriques tel que le nombre de sauts, la qualité du lien ou encore la sta-
bilité de position pour le choix des routes. On retrouve alors des protocoles basés sur le
but intuitif choisissant les chemins les plus courts, c'est à dire réduisant au minimum le
nombre de sauts. En raison d'un autre souci primaire dans les réseaux ad hoc, à savoir la
consommation d'énergie, le choix du chemin le plus court n'est pas toujours le meilleur
choix, puisqu'en général, il faut prendre en considération les contraintes énergétiques du
n÷ud qui devrait être le relais dans la crainte qu'on le perd une fois son énergie est ter-
minée. De ce fait, il convient d'introduire des nouvelles métrique de routage basées sur
la consommation de l'énergie, d'autant plus qu'elles ne sont pas forcément un frein à la
rapidité du processus de transmission.

An d'aboutir à de tels objectifs, des nouvelles utilités sont proposées dans la littéra-
ture [9, 23, 52, 53] :

1. Maximiser la conservation d'énergie : cette métrique se base sur le principe local


où chaque n÷ud doit optimiser sa consommation d'énergie pour allonger sa durée
40

Fig. 3.6  Choix de route suivant la durée de vie du n÷ud

de vie ;
2. Maximiser la durée de vie du réseau : Le but est de maximiser la durée de vie de
la totalité du réseau et ce même avec la perte de quelques n÷uds. En eet, les
n÷uds doivent coopérer ensemble pour optimiser la gestion globale des ressources
en énergie ;
3. Réduire la variation de niveau d'énergie entre les n÷uds du réseau : Cette métrique
se base sur le fait que tous les n÷uds sont de même degré d'importance et qu'au-
cun ne doit être pénalisé au prot des autres. L'objectif principal de cette métrique
est d'éviter le partitionnement du réseau. Par exemple, dans la Figure 3.6, le trac
allant du n÷ud S vers le n÷ud D passe dans la majorité des cas par les n÷uds B
et E, ce qui va provoquer la consommation de toute l'énergie et donc le décès de
ces derniers plus vite que les autres n÷uds voisins. Donc, il vaut mieux partager la
charge du réseau entre les diérents n÷uds joignables du réseau an de maintenir
la connectivité du réseau le plus longtemps possible ;
Si nous considérons l'optimisation de l'énergie et de la durée de vie du réseau comme
critères principaux à la sélection des routes, le deuxième chemin sera donc le meilleur
chemin vu que le n÷ud A possède le niveau le plus bas de puissance. Ainsi, an
de réduire la consommation de l'énergie, nous devons améliorer les techniques de
découverte des routes et réduire au maximum l'envoie des messages de contrôle ;
4. Réduire l'énergie consommée par paquet : en réduisant de la consommation d'éner-
gie par paquet, la consommation d'énergie totale sera, par conséquence, réduite.
Mais on peut facilement remarquer que, dans le cas où le réseau n'est pas trop
chargé la route sélectionnée en adoptant cette métrique sera la même que celle choi-
sie avec le routage classique où la métrique est le nombre minimum de saut. Un
inconvénient majeur pour cette métrique est que les n÷uds tendent à avoir des ni-
veaux d'énergie très diérents et que certains n÷uds vont mourir très tôt. Prenons
l'exemple de la Figure 3.7, dans laquelle le n÷ud E sera sélectionné pour acheminer
tout le trac entre les paires de n÷uds A -D, A-B, A-G et A-F. Par conséquent, ce
n÷ud va dépenser ses ressources énergétiques plus rapidement que les autres et sera
41

Fig. 3.7  Exemple montrant le problème avec la métrique : énergie/paquet

le premier à mourir. Ainsi cette approche va sourir du même problème que celui
des protocoles de routages classiques, si les mêmes chemins sont utilisés à plusieurs
reprises à cause de leur consommation minimale d'énergie ;
5. Réduire le coût maximum du n÷ud : Le but est de minimiser le coût nécessaire à
une station pour relayer un paquet. En utilisant cette métrique, nous nous attendons
à ce que le temps de décès du premier n÷ud dans le réseau soit retardé.

En se basant sur ces nouvelles métriques, de nombreux protocoles de routage optimisés


ont été spéciquement développés pour réduire la consommation d'énergie, en conduisant
les paquets sur les routes qui consomment la quantité minimum d'énergie. Ces protocoles
devraient aussi prendre en compte le coût énergétique d'une route lors de processus de
sélection de route.

3.4.1 Protocole LEAR-AODV


LEAR-AODV (Localized Energy Aware Routing based on AODV) [24, 54] est un pro-
tocole de routage réactif : il découvre et maintien des routes à chaque fois qu'une commu-
nication doit être établie. Ce protocole est attrayant pour sa simplicité et sa faible quantité
de messages de routage. Il réalise une compensation entre la consommation d'énergie équi-
librée et l'acheminement des données à travers le plus court chemin, et évite en même
temps les problèmes de blocage.

L'idée fondamentale du protocole LEAR-AODV est de mettre en jeu la " bonne volonté
" de chaque n÷ud mobile à participer à la sélection de route et relayer des paquets au
nom d'autres n÷uds. Il se base sur une approche locale, où chaque n÷ud intermédiaire
dans la route surveille la diminution de son énergie.
42

3.4.2 Autres propositions


Dans la référence [55], les auteurs proposent un nouveau protocole de routage basé
sur un mécanisme probabilistique prédéterminé. Ce protocole permet de réduire les coûts
de routage en minimisant le nombre des paquets de re-diusion pendant la phase de
découverte de la route sans avoir un impact sur les connexions établies entre les n÷uds et
la connectivité globale du réseau. Dans notre approche, nous allant reprendre cette idée
mais en visant la couche MAC et non pas réseau.

D'autres eorts ont notamment été déployés dans la perspective de gérer au mieux la
consommation d'énergie au niveau des protocoles de routage déjà implémentés et concevoir
ainsi de nouveaux protocoles de routage basés essentiellement sur des critères tenant
compte de la contrainte énergétique [56]. Divers protocoles ont été implémentés [57] :

1. Minimum Total Transmission Power Routing (MPTR) [58] : permet de choisir la


route minimisant la consommation totale d'énergie en considérant que le meilleur
chemin est celui assurant la consommation minimale des capacités des batteries.
L'inconvénient est que ce protocole ne reète pas directement la durée de vie d'un
n÷ud donné et qu'il ne tient pas compte des n÷uds qui se réveillent régulièrement
et redécouvrent leurs voisins.

2. Minimum Battery Cost Routing (MBCR) [59] : considère que la capacité restante
des batteries reète mieux la durée de vie d'un n÷ud et choisit la route qui maxi-
mise la capacité restante de la batterie. L'avantage de ce protocole est qu'il protège
les n÷uds contre l'épuisement et qu'il garantit le choix du meilleur chemin dans le
cas où les n÷uds présentent le même coût. Son inconvénient par contre est qu'un
chemin contenant un n÷ud avec une capacité faible peut quand même être choisi.

3. Min-Max Battery Cost Routing (MMBCR) [59] : choisit la route qui maximise la
capacité restante du goulot d'étranglement de la route (le n÷ud ayant le minimum
de capacité restante). Ce protocole a pour avantage d'équilibrer l'utilisation des bat-
teries des n÷uds. Par contre, il ne garantie pas que le chemin choisi soit le chemin
ayant la plus faible consommation d'énergie.

4. Conditional Min-Max Battery Capacity Routing (CMMBCR) [59] : propose de bor-


ner la capacité restante minimale d'un ensemble de chemins puis d'appliquer MTPR.
Ceci assurera le choix d'une route vériant que la capacité restante minimale est
au-dessus d'un certain seuil et que cette route minimise la consommation d'énergie.

3.4.3 Optimisation globale versus optimisation locale


Le coût énergétique d'un lien dans une route est la somme de l'énergie exigée pour
la transmission des paquets de données sur ce lien et le coût additionnel de signalisation
43

et de traitement de paquet. Il est à noter que les protocoles peuvent être de deux types,
selon que l'on veut suivre : une optimisation globale ou une optimisation locale

Optimisation globale
Cette approche consiste à minimiser l'énergie consommée pour atteindre la destination,
tout en cherchant le chemin de plus faible consommation. Cette approche est plutôt
adaptée aux protocoles réactifs. Parmi les solutions proposées, nous trouvons l'idée de
faire assigner à chaque lien un poids en fonction de l'énergie nécessaire à la transmission
d'un paquet sur cette route [24]. Dans ce cas le routage se fait de façon préférentielle
suivant les routes á faible poids, et cela en agrégeant l'ensemble des liens composant la
route.

Une autre solution est de tenir compte de l'état des batteries de chaque terminal
traversé et de choisir les routes mettant à contribution les stations les plus chargées et
cela an d'améliorer la durée de vie du réseau. Dans ce cas, chaque n÷ud estime la durée
de vie de sa batterie en se basant sur son ancienne activité. Lors d'une procédure de
découverte de route, le protocole de routage utilisé doit choisir la route ayant la durée de
vie maximale en d'autres termes la route qui ne contient pas des n÷uds dont la durée de
vie estimée est faible.

Optimisation locale
Cette approche cherche à augmenter la durée de vie du système en mettant en jeu
la volonté de chaque n÷ud de participer ou non au processus de sélection de route et
de relayer des paquets de données au nom d'autres n÷uds. En se basant sur son niveau
énergétique, un n÷ud peut conserver sa batterie en refusant de relayer des paquets qui
ne lui sont pas destinés.

3.5 Optimisation au niveau de la couche transport


Le service fourni par cette couche est un service de bout en bout. Le protocole de
transport le plus utilisé pour les réseaux xe est le protocole TCP [60, 61]. Ce dernier
n'est pas adapté aux réseaux sans l vu qu'il fait généralement appel à un nombre im-
portant de retransmissions et à des mesures de contrôle de congestion en cas d'erreurs
ou de pertes qui consomment inutilement l'énergie. Dans la référence [62], les auteurs
proposent d'analyser l'inuence du choix du protocole de transport sur la consommation
d'énergie : l'analyse comporte les versions de TCP, Tahoe, Reno, et NewReno. Les ré-
sultats montrent la sensibilité de la consommation d'énergie à la version utilisée. D'où
il devient très intéressent de concevoir des protocoles de transport plus adaptés à un tel
environnement et qui permettent d'économiser l'énergie. Dans la reference [63], Zorzi et
44

al. proposent se suspendre la transmission des paquets quand les conditions de communi-
cation deviennent diciles (par exemple, lorsque le taux d'erreur ou le taux de bruit au
niveau du canal physique atteint un certain niveau). Ensuite, les transmissions reprennent
quand les conditions de communication sont de nouveau satisfaisantes.

3.6 Optimisation au niveau de la couche application


Parmi les solutions proposées au niveau de la couche application, nous citons le principe
d'encodage des données. En eet, l'idée consiste à diminuer le nombre de bits transmis an
de réduire la consommation d'énergie tout en préservant une qualité visuelle acceptable.

D'autres travaux proposent des solutions pour qu'une application coopère avec le sys-
tème pour spécier ses besoins énergétiques. Dans ces approches la technique la plus
utilisée est l'adaptation dynamique de tension et de fréquence du processeur nommée
(DVS : Dynamic Voltage Scaling) [64].

3.7 Les approches cross-layer


Alors qu'une architecture en couches est simple et constitue un bon candidat pour
une conception de base, il y a toujours le besoin d'optimiser. En eet, plusieurs occasions
d'optimisation se présentent par l'interaction accrue à travers les couches. Le passé récent
a ainsi vu un engouement de propositions inter-couches (cross-layer) qui explorent une
interaction beaucoup plus riche entre les paramètres à travers les couches. Ainsi une sug-
gestion cross-layer particulière peut rapporter une amélioration en terme de performance
du réseau.

Il y a un intérêt croissant pour les approches cross-layer dans les réseaux sans l
avec pour but d'accroître les performances de la pile protocolaire dans son ensemble au
lieu d'eectuer des optimisations locale à chaque couche, on espère ainsi pouvoir créer
une architecture plus sensible aux spécicités des réseaux sans l, et dépasser les résultats
observés actuellement dans les réseaux ad hoc. Grâce à cette technique on va pouvoir eec-
tuer des optimisations dans lesquelles l'ensemble des informations des diérentes couches
protocolaire sera pris en compte en même temps [65, 66].

Les approches cross layer permettent la consultation en temps réel d'informations


disponibles dans chacune des couches du modèle de référence. Le fonctionnement en couche
oblige chaque protocole à obtenir les informations dont il a besoin par lui même ou par
l'intermédiaire de services provenant des couches adjacentes à travers les SAPs (Service
Acces Point). Ceci limite de beaucoup la transmission d'information inter-protocolaire. Un
mécanisme plus complexe de partage d'information devrait alors permettre d'améliorer
les performances de la pile protocolaire dans son ensemble. Par exemple on pourrait se
servir du RTT (Round Trip Time) du protocole TCP pour mettre à jour les informations
45

Fig. 3.8  Illustration d'un exemple de communication de type cross layer à travers la

pile protocolaire

utile à la couche réseau pour gérer la QoS.

Les informations disponibles dans une couche et pouvant être utilisées par d'autres
sont par exemple :

 Couche Physique : l'état du canal de transmission est utile pour adapter le débit en
fonction du taux d'erreur binaire, la couche physique peut modier la puissance de
transmission pour accroître la portée des transmissions ;
 Couche MAC : le nombre de retransmission eectuée au niveau de cette couche peut
donner une idée sur la qualité du lien sans l ; Énergie nécessaire pour la transmission
des données ...
 Couche réseau : faire intervenir des informations sur la qualité de transmission dans
l'algorithme de routage ; Consommation d'énergie ; voisinage des n÷uds ...

D'autres eorts ont notamment été déployés dans la perspective d'utiliser des ap-
proches cross-layer pour gérer au mieux la consommation d'énergie. Dans la référence
[66], les auteurs présentent un nouveau framework pour exclure des tentatives de trans-
mission des n÷uds HPN quand un n÷ud LPN est en cours de transmission. Leur objectif
est de minimiser l'énergie totale requise par la transmission des données tout en essayant
de garantir une QoS minimale.

La référence [67] présente une nouvelle approche se basant sur une politique de routage
prise au niveau de la couche réseau en fonction de la puissance du signal radio au niveau
de la couche physique. Cette approche propose de calculer le PL (Path Loss) requis par
une trame RREQ (Route Request) et juge selon le résultat de la capacité de la destination
à fournir une réponse. Les auteurs dans [68] proposent une optimisation cross-layer basée
sur le contrôle de la puissance de transmission et de la modulation adaptive. Ces deux
paramètres seront dynamiquement adaptés au taux des arrivés des paquets de données.

Mais il faut faire attention à ne pas trop remettre en cause le fonctionnement du


46

modèle générique en couche, car la séparation qui existe entre les couches a justement
permit d'obtenir une grande interopérabilité entre les éléments du réseau et d'intégrer
facilement de nouveaux protocoles sans remettre en cause le reste de la pile réseau. Il
faut donc développer un mécanisme qui s'interface correctement avec l'existant, c.à.d. qui
utilise les interfaces actuelles des diérentes couches.

3.8 Conclusion
Dans le mode sans infrastructure, la consommation d'énergie dans le 802.11 devient
de plus en plus importante et critique. Dans ce chapitre, nous avons évoqué les principales
sources de consommation d'énergie dans les réseaux ad hoc. Nous remarquons que l'énergie
consommée pour garantir la réception et l'écoute est équivalente à celle requise pour la
transmission d'un paquet pour le protocole d'accès CSMA/CA. De ce fait, la transmission
radio ainsi que l'écoute du canal radio auquel opère le protocole d'accès représentent les
sources primaires de la perte d'énergie. Nous concluons que la proportion la plus élevée
de cette énergie consommée par les interfaces réseaux sans l est due majoritairement au
protocole d'accès MAC supporté par la norme.

De ce fait et an d'optimiser la consommation d'énergie, nous devons opérer au niveau


de ce protocole dans le but de l'adapter pour optimiser la consommation d'énergie et ce
dans le cas d'une optimisation locale de la station et globale du réseau en entier.
47

Chapitre 4
Modélisation de la consommation
d'énergie dans les réseaux Ad Hoc avec
diérenciation de services

Le développement rapide et qualitatif des WLANs a été le fruit de recherches quantita-


tivement importantes. Bien qu'elles se multiplient de jours en jours, des dés restent encore
à surmonter. En eet, les réseaux ad hoc introduisent un grand nombre de contraintes : la
plus importante et qui a une inuence directe sur la durée de vie et l'existence même du
réseau étant celle sur l'énergie. Celle-ci devient la question la plus critique dans les mo-
biles à support énergétique limité par la durée de vie de leurs batteries. Particulièrement
dans les réseaux ad hoc où les fonctionnalités de relayage des n÷uds s'ajoutent à celle de
transmission et de reception.
Les mouvements des n÷uds aectent la qualité des liens et l'interconnexion des n÷uds
entre eux. Ce qui implique retard et/ou de la perte des paquets et dans certains cas des
paquets de données à retransmettre. Ceci présente un impact direct sur la consommation
d'énergie du fait que l'une implique l'autre et qu'elles sont toutes les deux décisives pour
la survie et connectivité des n÷uds dans un réseau ad hoc.
De plus, les n÷uds mobiles constituent dynamiquement leur propre réseau en re-
eectuant des opérations de découverte et de maintenance de route entre les n÷uds in-
termédiaires jouant le rôle de routeur.
Une précaution doit donc être prise non seulement pour réduire la consommation totale
d'énergie de tous les n÷uds pertinents mais également équilibrer les niveaux individuels
de la batterie.
C'est pour cette raison que notre travail se penche sur l'optimisation et la gestion de
l'énergie au niveau des n÷uds individuels ainsi que le réseau ad hoc dans sa globalité.
Dans ce sens, nous avons réalisé une première étude de la consommation de l'énergie
au niveau de la sous couche MAC en se focalisant sur l'aspect attribuant plus d'attention
à l'aspect diérenciation de service aux niveaux des diérents n÷uds constituant le réseau
ad Hoc. Et ce non pas pour rendre compte de niveaux de priorités diérentes mais pour
optimiser localement et globalement la durée de vie des n÷uds et du reseau. Nous nous
basons en cela sur le standard IEEE802.11e décrit ci-dessous.
48

4.1 La diérenciation de service dans les réseaux Ad


Hoc
Les applications multimédia (vidéo et voix) ont des exigences spéciques en termes
de délai et de bande passante [69] qu'on doit en tenir compte tout au long du chemin
séparant le n÷ud émetteur du n÷ud récepteur.
La nature dynamique des réseaux ad hoc rend dicile la garantie et la maintenance
de la diérenciation de service [70]. Il est très dicile de garantir une quelconque qualité
de service à une application temps réel dans un réseau ad hoc, car il faut prendre en
considération les spécicités de ces réseaux, à savoir : la bande passante limitée, l'énergie
limitées des diérents n÷uds, le changement dynamique de la topologie en fonction du
temps qui provoque des mises à jour permanentes des positions des n÷uds, ainsi que le
manque d'information complète sur l'état du réseau. On remarque aussi que certains ser-
vices multimédia consomment beaucoup de ressources et n'utilisent pas ecacement et
équitablement le support énergétique. Le protocole DCF ne fournie pas une méthode d'of-
frir la qualité de service. Il ne comporte aucun mécanisme de diérenciation qui augmente
par exemple le débit pour les tracs de hautes priorités.
Avec l'émergence des services multimédias temps réel, et les champs variés des applica-
tions des réseaux ad hoc, la diérenciation de service dans les réseaux ad hoc est devenue
un thème de recherche qui a suscité beaucoup d'intérêts.
Cette solution permet alors d'attribuer des degrés de priorités aux diérents ux tra-
versant les réseaux. Néanmoins, la diérenciation de service dans les réseaux ad hoc in-
uence tous les protocoles utilisés dans les diérentes couches OSI, à savoir les couches :
physique, lien, réseau, transport et application.

4.1.1 Limitations de la méthode d'accès DCF


Le protocole CSMA/CA permet un accès Best Eort au canal. Les utilisateurs ne
peuvent avoir aucune garantie de qualité de service minimale. Toutes les stations d'un
même BSS concourent pour l'accès au canal avec les mêmes priorités. Aucun mécanisme
de diérenciation entre plusieurs types de ux n'est mis en place. Le taux des erreurs
dues à la couche physique de la norme IEEE802.11 est à peu près trois fois plus grand que
celui observé dans les réseaux locaux laires [71]. Le nombre important de collisions et
de retransmissions implique des délais de transmission imprévisibles et une dégradation
de la qualité de transmission des ux temps réel tels que pour la voix ou la vidéo. Dans
[72], les auteurs ont utilisé le simulateur NS-2, pour simuler une topologie de n stations
(utilisant la couche physique 802.11a) fonctionnant en mode ad hoc. Ces stations qui sont
xes au cours des simulations gênèrent trois types de tracs : audio, vidéo et un trac
de fond (Background trac). La charge du réseau varie de 9,6% à 90% en augmentant le
nombre de stations de 2 à 18. Les résultats montrent que lorsque le nombre de stations
est supérieur à un certain seuil, la bande passante utilisée par les trois tracs décroît
rapidement. La bande passante est aux alentours de 60% quand le réseau est chargé à
49

Fig. 4.1  Performance du mode DCF en terme de délai [72]

90%. Les performances du mode DCF en termes de délai moyen sont présentées par la
Figure 4.1. Ces simulations démontrent clairement la limite du mode DCF.
Pour améliorer les performances de la méthode DCF, certains ont essayé dans un
premier temps de jouer sur un certain nombre de paramètres d'accès pour la couche
physique et la sous couche MAC 802.11 [73]. Parmi ces paramètres, on peut citer :

 L'intervalle balise (Beacon Interval) : détermine la période d'envoi des trames balises.
 le seuil RTS (RTS threshold) : détermine la valeur du seuil RTS
 Le seuil de fragmentation (Fragmentation threshold) : la bande passante varie pro-
portionnellement à ce paramètre uniquement quand il n'y pas d'erreurs de trans-
mission sur le canal
 Limites courtes et longues sur le nombre de retransmissions (short/long retry li-
mit) : C'est le nombre maximal de retransmissions permit pour les trames plus
courtes/longues que le seuil RTS.

Dans [74], Zhu et al. ont montré que la variation de l'ensemble de ces paramètres
ne permet pas de diérencier plusieurs types de ux. Il est donc nécessaire de recourir
à des solutions additionnelles pour garantir la diérenciation de service nécessaire aux
utilisateurs.

Pour permettre d'assurer des services temps réel, des travaux ont été proposés pour
assurer une diérenciation de service au niveau MAC, ce que revient essentiellement à
donner la priorité à certaines stations ou tracs pour accéder au canal.
50

4.1.2 Travaux sur la diérenciation de service

Les schémas de diérenciation de service au niveau MAC sont souvent basés sur un
contrôle centralisé. Dans les réseaux sans l multisauts, un contrôle distribué est né-
cessaire. Le protocole MACA/PR (Multihop Access Collision Avoidance with Piggyback
Reservation) [75] propose de fournir des garanties de bande passante pour les applications
temps réel via une réservation. Il permet d'établir des connexions temps réel à un saut
seulement. Il utilise un dialogue RTS/CTS avec acquittement, et diérencie la politique
d'accès au médium selon la nature des ux. Pour le trac prioritaire, une seule demande
d'autorisation à transmettre (RTS-CTS) au début du ux est utilisée (jusqu'à la perte
d'un paquet). Dans chaque paquet, des informations sur l'ordonnancement du paquet
suivant sont incluses pour empêcher les voisins d'entrer en collision avec les prochains
paquets.

Dans le but d'améliorer la méthode d'accès DCF du protocole 802.11, de nouvelles


techniques ont été proposées :

1. Fonction de backo diérente [76] : le principe est d'attribuer des valeurs de fenêtres
de contention (CW) supérieures pour les stations les moins prioritaires et inverse-
ment, permettant ainsi de donner plus de chance à une station prioritaire d'accéder
au canal.

2. Diérents DIFS [76] : dans le standard IEEE 802.11 de base les trames ACK ont une
priorité sur les trames RTS, en attendant un temps SIFS qui est inférieur à DIFS
(pour RTS). Dans cette technique de diérenciation, la même idée est utilisée, où
chaque station mobile dispose de sa propre valeur de DIFS qui dénit son niveau
de priorité pour l'accès au médium,

3. Distributed Fair Scheduling [77] : dans ce schéma d'accès la valeur du backo gé-
nérée avant un envoi, est proportionnelle à la longueur de la trame de donnée et
inversement proportionnelle au poids du ux,

4. BlackBurst [78] : il impose des conditions telles qu'un intervalle constant pour ac-
céder au lien et la possibilité de bloquer le canal pendant une période de temps,

5. Diérentes longueurs maximales de trames [76] : où chaque station a une priorité


qui lui permet d'envoyer des trames ayant une taille maximale diérente,

6. Diérenciation des valeurs de CWmin de la fenêtre de contention : il utilise des valeurs


de CWmin et CWmax diérentes, où CWmin (priorité haute) < CWmin (priorité basse),
et CWmax (priorité haute) < CWmax (priorité basse).

D'autres approches [79] utilisent une diérenciation basée sur les ots ou sur les les
au lieu d'une priorité aectée par une station mobile.
51

4.2 La norme IEEE802.11e

Pour supporter la qualité de service, le groupe de travail "e" du standard 802.11 dénit
des améliorations de la couche MAC de 802.11 [80] en introduisant une fonction de coor-
dination hybride (HCF : Hybrid Coordination Function). HCF dénit deux mécanismes
d'accès au canal (synonyme d'accès au médium dans 802.11e) : accès avec contention et
accès contrôlé. La méthode d'accès avec contention est nommée EDCA (Enhanced Dis-
tributed Channel Access). La deuxième méthode, orant un accès contrôlé, est nommée
HCCA (HCF Controled Channel Access).

Les stations sans ls opérant sous 802.11e [81] sont appelées stations améliorées (en-
hanced stations). La station améliorée qui joue le rôle de contrôleur central au sein de la
même cellule QBSS9 (QoS BSS) est appelée le point de coordination hybride (HC : Hy-
brid Coordinator). Le point de coordination hybride est typiquement combiné au point
d'accès. Un QBSS est un BSS qui inclut un HC et des stations améliorées.
Les paramètres QoS sont ajustés au cours du temps par le coordinateur hybride et sont
annoncés périodiquement à travers les trames balises. Plusieurs entités de Backo (Backo
Entity) fonctionnent en parallèle dans une station améliorée. Une entité de backo est une
le de transmission pour une classe de trac bien déterminée avec des paramètres d'accès
au canal spéciques. Une station 802.11e ou plus précisément une entité de backo ne
peut utiliser le canal que pour une durée limitée. L'intervalle de temps durant lequel la
station a le droit d'émettre est appelé l'opportunité de transmission TXOP (Transmission
Opportunity). TXOP est déni par un instant de début et une durée. Un intervalle TXOP
obtenu suite à une contention au canal est appelé EDCA-TXOP. Quand cet intervalle est
obtenu dans la période contrôlée par le HC, il est appelé HCCA-TXOP. La durée d'une
EDCA-TXOP est limitée par la valeur du paramètre QBSS-limit-TXOP régulièrement
distribuée par le point d'accès à travers les trames balises (beacon). Ce paramètre permet
donc de contrôler la durée maximale d'une transmission en cours ce qui est important
pour les délais d'accès et de transmission de l'ensemble des stations. L'utilisation de ce
paramètre permet aussi d'assurer à un instant précis et sans retard, le démarrage de
chaque période d'accès contrôlée par le HC. Une entité ne sera autorisée à transmettre
sur le support que si sa transmission arrive à terme avant le prochain TBTT. Le problème
d'écourtement ne peut plus se produire avec 802.11e.

Une autre amélioration est apportée par le nouveau standard : les stations améliorées
sont maintenant autorisées à transmettre directement des trames à une autre entité du
QBSS sans être obligées de passer par le point d'accès. Ce fait permet d'optimiser l'utili-
sation de la bande passante partagée entre les utilisateurs. Dans le standard 802.11, toutes
les communications passaient obligatoirement par le point d'accès.

9 QBSS : QoS BSS, réseau WLAN supportant la QoS


52

4.2.1 La méthode d'accès EDCA


Dans le mode d'accès EDCA, le support de la qualité de service est assuré par l'intro-
duction de plusieurs catégories d'accès (AC : Access Categories). On peut avoir au total
huit classes de tracs diérentes pour huit priorités utilisateurs dénies dans IEEE 802.1d
[82]. A chaque catégorie d'accès est associée une entité de backo ou le d'attente indé-
pendante. En utilisant des paramètres de contention spéciques, des priorités diérentes
sont attribuées à l'ensemble des AC.

Dans le modèle simplié du 802.11e, 4 catégories sont implémentées (Figure 4.2). Ce


modèle a été adopté en observant que les huit classes d'application utilisateurs dénies
précédemment ne se déroulent jamais simultanément [72]. L'utilisation d'un nombre ré-
duit de les d'attentes par rapport au nombre de priorités utilisateurs permet de limiter
les risques de saturation de la sous couche MAC. Les huit priorités utilisateurs sont alors
mappées dans 4 les d'attentes. Des applications spéciques [80] sont généralement asso-
ciées à chacune des les (Vidéo, Voix, Best Eort, Background).

La contention au canal est eectuée par chacune des entités de backo d'une façon
indépendante des autres [83]. Les paramètres utilisés pour l'accès au canal permettent
d'aecter des priorités diérentes pour chaque catégorie d'accès. Ces paramètres qui seront
identiques pour la même catégorie d'accès dans toutes les stations du QBSS, peuvent être
modiés par le HC au cours du temps. Ces paramètres sont :

 le temps inter trames AIFS[AC] : au lieu du temps DIFS d'une station 802.11,
avant d'accéder au canal une entité de backo doit attendre un temps AIFS[AC]
(Arbitration IFS). Les valeurs les plus faibles sont aectées aux priorités les plus
hautes. D'après [81], ce temps est calculé suivant :

AIF S[AC] = SIF S + AIF SN [AC] ∗ SlotT ime (4.1)


AIFSN (Arbitration IFS Number) est le nombre arbitraire de temps inter trames.
Un nombre arbitraire sera alors aecté à chaque catégorie d'accès (contrairement
à la norme de base, où une seule valeur est aectée à toutes les stations mobiles).
La valeur la plus faible de AIFSN sera égale à 2 ce qui donne une valeur de AIFS
minimale égale à DIFS (si AIFSN = 1, le temps inter trames serait égal à PIFS,
valeur toujours aectée à un AP).

 la valeur minimale de la fenêtre de contention CWmin [AC] : quand une collision


se produit, les entités de backo entrant en collision doivent choisir aléatoirement
un temps d'attente de backo. Ce temps est choisi dans l'intervalle [CWmin [AC],
CWmax [AC]]. Pour chaque entité de backo, si elle voit que le canal est libre pendant
une durée égale à AIFS[AC], elle commence le décompte du temps de backo qu'elle
a choisi. L'entité commence à transmettre un Slot Time après le décompte total du
temporisateur de backo. Pour les catégories d'accès à hautes priorités des valeurs
plus faibles du seuil minimal de la fenêtre de contention CWmin [AC] sont utilisées.
Les entités de backo correspondantes ont alors plus de chances d'accéder au canal.
Cependant, le choix de valeurs faibles augmente la probabilité de collision si plusieurs
53

Fig. 4.2  Quatre les d'accès d'une station améliorée 802.11e [83]

entités de backo de la même catégorie se trouvent dans le même QBSS.

 La valeur maximale de la fenêtre de contention CWmax [AC] : quand une collision se


produit, une deuxième valeur du compteur de backo, supérieure à la première doit
être choisie. Cette valeur reste toujours inférieure à une valeur maximale CWmax
correspondant à chaque catégorie d'accès. Les valeurs les plus faibles de CWmax
permettent une probabilité d'accès plus rapide et sont donc attribuées aux priorités
hautes.

 Un facteur de persistance PF[AC] : ce paramètre est utilisé pour réduire la probabi-


lité de collision entre plusieurs catégories d'accès. Dans le standard 802.11, la taille
de la fenêtre de contention est doublée après un échec d'accès au canal (facteur de
persistance égal à 2). EDCA utilise le paramètre PF pour incrémenter la taille de
la fenêtre CW diéremment pour chaque classe de trac ou catégorie d'accès.

 TXOPlimit[AC] : en plus des paramètres de backo, l'opportunité de transmission


peut être aectée diéremment pour les catégories d'accès. La dénition d'une durée
54

de transmission maximale plus large pour une catégorie d'accès permet à l'applica-
tion correspondante de bénécier d'une bande passante plus importante, le standard
802.11e autorise la transmission de plusieurs MSDU10 au sein d'une seule TXOP.

L'EDCA introduit quatre catégories d'accès (AC) relatives aux applications traitées
dans les couches supérieures. Elles sont notées respectivement :

 AC _V O : pour les applications temps réels tel que la voix


 AC _V I : pour les applications vidéo
 AC _BE : pour le trac " Best Eort "
 AC _BK : pour le trac Background

Le tableau suivant présente les valeurs des paramètres de la méthode d'accès EDCA
utilisés dans le standard [81].

AC CWmin CWmax AIFSN

AC_VO 3 7 2

AC_VI 7 15 2

AC_BE 15 1023 3

AC_BK 15 1023 7

Tab. 4.1  Aectation du AIFSN, CWmin et CWmax pour les diérentes ACs.

La diérenciation de service proprement dite se fait par une aectation d'espace inter
trames AIFS et de valeurs de CWmin et CWmax non identiques pour les catégories de
d'accès citées. En eet, on aecte à chaque AC un triplet (Tableau 4.1). Chaque AC
détient son propre compteur de Back-o qui est désormais compris entre 1 et 1+CW [AC].
Quand deux ACs nissent en même temps leur durée de backo, alors c'est le paquet de
plus haute priorité qui sera transmis. Les autres entités doivent augmenter leurs fenêtres
de backo.

Lorsqu' une trame arrive dans une le AC vide et le canal reste libre pendant AIF S[AC]+
SlotT ime, elle est transmise immédiatement. Dans le cas contraire (c-à-d canal occupé),
chaque trame qui arrive dans une des les AC doit attendre la libération du canal puis
elle dière sa transmission pendant AIF S + SlotT ime.

D'une façon similaire au standard 802.11, des compteurs de retransmission sont aussi
dénis pour 802.11e. Le 802.11e introduit en plus une durée de vie maximale des MSDU
10 MSDU : MAC Service Data Unit, contient les données des couches supérieures. Elle peut être frag-
mentée en plusieurs MPDU (MAC Protocol Data Unit)
55

Fig. 4.3  La contention au canal pendant une période EDCA [73]

dans chaque le d'attente. Dépassant cette durée dans la sous couche MAC la trame est
éliminée. Cette approche est ecace pour des applications temps réel pour lesquelles des
trames transmises en retard n'ont plus d'intérêt.

Durant la contention au canal, quand les compteurs de backo de deux ou plusieurs


entités de backo d'une station donnée atteignent la valeur zéro au même instant, une
collision virtuelle a lieu. Mises à part les autres stations essayant d'accéder au canal, pour
cette station, l'entité de backo avec la plus haute priorité va transmettre sur le canal.
Les autres entités réagissent comme si une vraie collision avait lieu sur le canal.

4.2.2 La méthode d'accès HCCA


Le mode d'accès contrôlé de la méthode HCF, nommé HCCA, est un mode d'accès
sans contention au canal. Les entités de backo d'une station donnée seront explicitement
sollicitées par le HC pour une possibilité de transmission sur le canal. Pour lancer ce
mode, le HC doit tout d'abord accéder au canal au cours du mode EDCA : le HC possède
la plus haute priorité par rapport à l'ensemble des catégories d'accès. En eet, le HC
est autorisé à transmettre si le canal est libre pendant une durée PIFS (sans backo). Le
point coordinateur ou HC commence par transmettre une trame de contrôle QoS CF-Poll.
Cette trame est utilisée pour scruter les stations voulant émettre par la suite en mode
sans contention. Elle dénit aussi les débuts et les durées maximales des transmissions
HCCA-TXOP. Durant une période HCCA-TXOP, une station peut transmettre plusieurs
56

Fig. 4.4  Procèdure HCF [71]

trames selon un algorithme d'ordonnancement dans la limite du temps maximal alloué


(TXOPlimit). Un temps SIFS sépare deux trames consécutives d'un même émetteur. Le
mode HCCA est beaucoup plus exible que le mode PCF du standard 802.11. En eet,
en plus de la période sans contention, un QAP11 peut initier une période HCCA-TXOP à
tout moment pendant la période avec contention. Cependant, pour garantir des périodes
de temps susantes pour le mode EDCA, une durée maximale du mode HCCA est dénie
par la variable TCAPLimit [71]. La Figure 4.4 illustre un exemple de supertrame 802.11e.

4.3 Modélisation du système


Considérons un système formé par n stations équipées de cartes 802.11e en mode
EDCA supportant le mécanisme d'accès de base (DATA/ACK).

Dans [48], les auteurs proposent un modèle analytique pour la consommation d'énergie
pour des stations supportant le mode IEEE802.11 DCF. Nous avons étendu ce modèle
pour le cas de plusieurs classes de tracs et diérents niveau de priorités. Ce.ci permet
l'introduction de la diérenciation de service

Dans [86, 87], nous présentons notre modèle analytique de consommation d'énergie
des stations dans un réseau ad hoc avec diérenciation de service. Dans notre système,
11 QAP : QoS Access Point : Point d'accès capable de gérer la QoS
57

nous dénissons K catégories d'accès (AC) avec des exigences diérentes en terme de
QoS. Pour chaque classe de trac ACk , k = 0, 1, .., K , il existe nk stations transmettant
des paquets de longueur Lk . En outre, le système obéit à la condition de saturation, c'est
à dire chaque station a toujours des paquets à transmettre. Ceci prend l'équivalent du
fait que chaque station ne verra jamais sa le d'attente vide de paquets.

Dans [84], l'auteur présente les modèles analytiques des probabilités de transmission
et de collision en mode IEEE802.11 DCF. Ces modèles ont été étendu dans [85] pour
permettre d'appliquer la dierentiation de service. Dans notre travail nous avons relié ces
modèles à la consommation d'énergie pour diérentes classes de tracs.

Comme nous l'avons déjà mentionné, le mécanisme EDCA exige diérentes catégories
d'accès avec des les d'attente diérentes pour chaque AC. Étant donné que les ACs
appartenant à une seule station sont indépendantes les unes des autres, la probabilité de
transmission qk pour chaque ACk est calculée de la même manière que pour le modèle de
Bianchi, mais à partir de diérents paramètres :
2(1 − 2pk )
qk = (4.2)
(1 − 2pk )(Wk + 1) + pk Wk (1 − (2pk )mk )
avec Wk and mk représentant, respectivement, la valeur minimale et le seuil maximale de
la fenêtre de contention pour chaque station de classe-k . La contention est eectuée par
chacune des entités de backo de façon indépendante des autres. En raison des plusieurs
et diérents paramètres dénies, l'opportunité de transmission ainsi que la probabilité
de collision pk peuvent être aectées diéremment pour les diérentes catégories d'accès.
Néanmoins, une seule AC dans une station peut obtenir cette opportunité. La probabilité
de transmission q est donnée par l'expression :
K−1
Y
q =1− (1 − qj ) (4.3)
j=0

Si, à un Slot Time donné, une seule AC parmi K tente de transmettre une trame,
elle sera transmise avec succès. Sachant que, lorsque plusieurs AC sont dénies dans la
même station, l'expiration simultanée de leurs temporisateurs de backo ne se traduit
pas automatiquement par une collision, mais plutôt un succès pour l'émission de la trame
correspondant à la catégorie d'accès de plus haute priorité. De ce fait, la probabilité de
collision pk pour la k ime catégorie d'accès est donnée par l'expression :
K−1
Y
N −1
pk = 1 − (1 − q) (1 − qj ) (4.4)
j>k
où j > k signie toutes les AC s dont les priorités d'accès sont supérieure à ACk .

Comme nous avons expliqué précédemment, le support de la diérenciation de service


en EDCA est assuré par l'introduction de plusieurs catégories d'accès. Quatre catégories
sont implémentées dans une seule station avec des paramètres spécique pour chaque AC.
58

Fig. 4.5  Diagramme de transition d'états de consommation d'énergie

Notre objectif dans cette thèse est d'étudier la diérenciation de service et donc nous
nous limitons dans notre modèle à un seul type de service pour chaque station ad hoc.

Pour pouvoir modéliser les quantités d'énergies consommées par les stations dans le
système, on dénie les paramètres suivants :
 α : La puissance requise pour transmettre
 βR : La puissance requise pour décoder les signaux reçus
 βS : La puissance requise pour écouter le canal
 β0 : La puissance du mode de consommation d'énergie minimale
 Toutes les puissances citées sont égales pour toutes les stations correspondantes aux
diérentes classes de trac ;
 La charge initiale des batteries des stations du système est égale à B0 pour toutes
les stations.

La partie radio des terminaux peut être dans un état parmi les états suivants :

 Transmission : le terminal est en train d'émettre des données avec une puissance de
transmission α ;
 Réception : la station reçoit des informations avec une puissance de réception βR ;
 Inoccupé : correspondant à un état transitoire entre la réception ou la transmission
et l'état de veille. Une station dans cet état consomme une puissance égale à βS et
est prête à passer aux états précédemment cités ;
 Veille : la station est en état d'économie d'énergie. Ainsi la consommation d'énergie
sera la plus petite et correspond à β0 .
59

La Figure 4.5 représente le diagramme de transition entre les états dénis.

4.3.1 Modèle d'énergie


Le modèle d'énergie considéré met en évidence toutes les opérations nécessaires à la
transmission d'un paquet (transmission eective, collisions, backo). Il s'agit en outre
d'un modèle linéaire.

Selon le modèle d'énergie introduit en [48], l'énergie requise pour transmettre un pa-
quet par la source est :

E = ET + ET c + EB (4.5)

avec :

 ET est l'énergie de transmission eective (avec sucées) d'unP paquet ;


 ET c est l'énergie consommée lors des collisions avec ET c = nj=1 c
ET c,j où ET c,j est
l'énergie gaspillée lors de la j ime collision et nc est le nombre total de collisions d'un
paquet avant qu'il ne soit transmis avec succès. Les conditions d'indépendance des
ET c,j entre elles et avec EB sont requises ;
 EB est l'énergie consommée lors de l'exécution de l'algorithme de backo.

Avec IEEE 802.11e, pour chaque classe de trac ACk l'Équation (4.5) s'écrit alors :

Ek = ETk + ET ck + EBk (4.6)

avec :

 ETk est l'énergie de transmission eective (avec sucées) d'un paquet pour la classe
de trac k ;
 P
ET ck est l'énergie consommée lors des collisions pour la classe de trac-k avec ET ck =
nc
j=1 ET ck ,j où ET ck ,j est l'énergie gaspillée lors de la j
ime
collision et nck est le
nombre total de collisions d'un paquet avant qu'il ne soit transmis avec succès pour
la classe de trac-k ;
 EBk est l'énergie consommée lors de l'exécution de l'algorithme de backo pour la
classe de trac k.

La détermination de cette énergie est fondamentale pour évaluer la durée moyenne de


vie d'une station appartenant à une classe de trac-k . Elle est représentée par le nombre
maximal (normalisé) de paquets transmis.

Pour expliquer les diérents termes de l'Équation (4.6), regardons de plus près les
diérentes phases de consommation d'énergie intervenant dans (i) le mode original et (ii)
le mode avec le mécanisme de détection virtuelle RTS/CTS.
60

Fig. 4.6  Consommation d'énergie dans le système pour une transmission réussie d'un

paquet avec le mécanisme de détection virtuelle

Fig. 4.7  Consommation d'énergie dans le système pour une transmission réussie d'un

paquet en mode original


61

Les Figures (4.6) et (4.7) montrent ces deux modes de consommation d'énergie. Dans
les deux cas, la durée SIFS est négligée. Nous ne tiendrons donc pas compte de cette
durée dans la modélisation des énergies. Dans la suite, nous détaillons les calculs de la
consommation d'énergie requise pour les diérents modes :

a. Le mode de réception
En mode de réception, les stations de classe-k consomme une énergie pouvant se dé-
composer en :

1. L'énergie requise pour recevoir un paquet par la station réceptrice (cas (b)) est
égale à :
½
ERk = βR TD + αTack + βS TAIF Sk (i)
(4.7)
ERk = βR (TRT S + TD ) + α(TCT S + Tack ) + βS TAIF Sk (ii)
avec :

 TD est la durée d'un paquet de classe de trac-k . TD = Lk /D où Lk est la longueur


des paquets et D est le débit du niveau liaison. On utilise la même notation pour
toutes les ACs car il ne s'agit pas d'un paramètre de diérenciation spécique à la
norme. En revanche, ce paramètre sera aecté diéremment pour chaque catégorie
d'accès par la suite ;
 Tack est la durée d'un ACK. Tack = Lack /D où Lack est la longueur de l'ACK ;
 TAIF Sk est la durée d'écoute pour une classe de priorité k , égale à AIF Sk
 TRT S est la durée du RTS. TRT S = LRT S /D où LRT S est la longueur du RTS ;
 TCT S est la durée du CTS. TCT S = LCT S /D où LCT S est la longueur du CTS ;

2. L'énergie requise pour supprimer un paquet par une station non réceptrice écoutant
le canal (cas(c)) est égale à :
½
EDk = βR TH + βS TAIF Sk + β0 TN AVRT S/CT S (i)
(4.8)
EDk = βR TRT S + βS TAIF Sk + β0 TN AVbasic (ii)
avec :

 TN AV = TD + Tack − TH est la durée d'écoute pour les stations autres que les stations
émettrice et réceptrice pour le mode de base ;
 TN AV = TD + Tack est la durée d'écoute pour les stations autres que les stations
émettrice et réceptrice pour le mode RTS/CTS ;
 TH est la durée de l'entête du paquet.

3. L'énergie requise pour traiter un paquet brouillé par les collisions est égale à :
62

½
ERck = αTH + βS (TC − TH + TAIF Sk ) (i)
(4.9)
ERck = αTH + βS (TRT S TAIF Sk ) (ii)
avec TC est la durée de collision en mode de base. La collision pour le mode RTS/CTS

se produit alors pour les paquets RTS uniquement.

b. Le mode de transmission
En mode de transmission, les stations de classe de trac k consomme une énergie
pouvant se décomposée en :

1. L'énergie requise pour transmettre un paquet en cas de succès est égale à :


½
ETk = αTD + βR Tack + βS TAIF Sk (i)
(4.10)
ETk = α(TRT S + TD ) + βR (TCT S + Tack ) + βS TAIF Sk (ii)

2. L'énergie requise pour traiter une collision est égale à :


½
ET ck = αTD + βS (TAIF Sk + Tack ) (i)
(4.11)
ET ck = αTR T S + βS (TAIF Sk + TCT S ) (ii)

4.3.2 Métrique d'évaluation


La métrique d'évaluation de notre modèle d'énergie est représentée par la durée de
vie moyenne d'une station appartenant à une classe de trac-k . Cette durée, comme
mentionné dans [48], est équivalente au nombre maximal de paquets, notée Nk , que peut
transmettre avec succès une station de catégorie d'accès k avant l'expiration de la charge
de sa batterie.

Nk = B0 /mEk (4.12)
avec mEk l'énergie moyenne consommée par une station de classe de trac-k et B0 la

charge initiale de la batterie.

Pour déterminer la valeur de mEk , on doit considérer l'équation suivante [48] :

¯
d ¯
mEk = HE (s) ¯¯ (4.13)
ds s=0
avec HE (s) = E[esE ] le moment de la fonction génératrice de la variable aléatoire continue
Ek donné par l'Équation (4.6). mEk est obtenu comme suit :
pk
mEk = mETk + mETck + R(pk )mξk (4.14)
1 − pk
63

Où R(pk ) est calculé à partir de l'expression suivante :

(1 − pk ) − pk (2pk )mk
R(pk ) = Wk −1 ∀ k = 0, 1, 2, 3 (4.15)
1 − 2pk
avec :

 mETk est l'énergie moyenne consommée par une station de classe de trac-k pour la
transmission eective d'un paquet ;
 mET ck est l'énergie moyenne consommée par une station de classe de trac-k lors
des collisions ;
 mξk est l'énergie moyenne consommée durant la durée de temps séparant deux dé-
crémentations successives du compteur de backo appelé aussi "Tick period"

mξk = σβS + p1,0 (pR mERk + (1 − pR )mEDk ) + p0,1 mERc (4.16)


k

avec :

 p1,0 est la probabilité pour qu'un seul n÷ud transmet à un instant donné
 p0,1 est la probabilité pour qu'au moins un n÷ud transmet à un instant donné

4.4 Validation du modèle analytique

4.4.1 Modèle du réseau


Pour valider notre modèle, nous comparons sa performance numérique aux simulations
obtenues en utilisant l'outil NS-2 [88, 89].

Puissance α βR βS β0

Valeurs (Watt) 1 0.67 0.82*βR = 0.5494 0.5*βS = 0.2747

Tab. 4.2  Paramètres du modèle d'énergie

Le modèle analytique proposé a été implémenté en considérant le mode basique du


CSMA/CA (DATA/ACK) via l'outil Matlab. L'implémentation tient compte des para-
mètres relatifs à la consommation d'énergie, ceux relatifs à la norme IEEE 802.11e et ceux
décrivant le trac. (Voir resp. les Tableaux 4.2 et 4.3).

Notre modèle considère en outre que le canal est pur et prend en considération la
condition de saturation. La métrique utilisée est le nombre de paquets maximal norma-
64

PHY header 16 bytes

MAC header 34 bytes

Ack packet 14 bytes

SIFS 12.5 µs

Slot Time 12.5 µs

Average Channel bit rate 11Mbps

Tab. 4.3  Paramètres de simulation

lisé qu'une station peut transmettre avec sucées avant l'expiration de sa charge initiale
(Équation 4.12).

Les modèles introduits par l'extension sans l de NS sont brièvement présentés dans le
Tableau 4.4. Depuis son implémentation, l'extension de NS-2 relative au réseau sans l a
fait l'objet de pas mal de développement. Plusieurs recherches et études ont mis en ÷uvre
les normes et les protocoles nouvellement dénis, y compris le modèle d'énergie ainsi que
des implémentations de la norme 802.11e et de ces améliorations.

Layer Model Détails

propagation radio atténuation du signal en 1/r2 pour le modèle Friis free-space et en

Physique 1/r4 pour le modèle Two-Ray ground

Antenne Antenne omni-directional avec gain unitaire

médium partagé Le mécanisme de partage du médium est implémenté.

Chaque n÷ud est en connaissance des paquets transmis par les autres

tant que les stations qui transmettent sont à sa portée.

MAC IEEE 802.11 DCF (Distributed Coordination Function)

DSR Dynamic Source Routing

Réseau AODV Ad-hoc On-Demand Distance Vector

DSDV Destination Sequence Distance Vector

TORA Temporally Ordered Routing Algorithm

Tab. 4.4  Les caractéristiques de l'extension Monarch

Le code d'implémentation utilisé dans les simulations est celui récemment implémenté
65

par Sven Wiethölter et Christian Hoene [88, 89]. Ce code supporte le mode de base du
protocole d'accès CSMA/CA sans mécanisme de détection virtuelle.

Comme décrit dans [90], notre modèle de simulation considère un réseau formé de n
n÷uds en mode ad hoc avec les paramètres suivants :

 Le taux d'erreurs des simulations est de 0% cád le canal est pur ;


 Le niveau liaison est le IEEE802.11e avec une bande passante de 11Mbits/s ;
 Le protocole de routage est le AODV ;
 Les tracs supportés sont des tracs CBR ;

4.4.2 Modèles de propagation

Le simulateur NS-2 supporte trois modèles de propagation : Free Space, Two Ray
Ground et Shadowing. Ces modèles sont utilisés pour prédire la puissance avec laquelle
chaque paquet sera reçu. Au niveau de la couche physique, il existe une limite inférieure
de réception :

 Le modèle Free Space considère que la propagation des signaux se fait en conditions
idéales. En eet, il est admit pour ce modèle qu'il n'existe qu'un seul chemin de
propagation entre l'émetteur et le récepteur et qui est celui de la vision directe.
Pour un récepteur se trouvant à une distance d de l'émetteur, la puissance de ré-
ception est donnée par l'équation suivante :

Pt Gt Gr λ2
Pr (d) = (4.17)
(4π)2 d2 L

avec Pt , Gt , Gr , L et λ respectivement la puissance de l'onde à l'émission, le gain de


l'antenne de transmission, le gain de l'antenne de réception, la longueur d'onde et
la perte du système. Ce modèle suppose que la portée des mobiles est typiquement
un cercle. Les n÷uds se trouvant dans cette portée reçoivent tous les paquets alors
que ceux qui ne sont pas à la portée de la source ne recevront aucun paquet.

 Le modèle Two Ray ground reection part du fait que dans la réalité un unique
chemin de propagation est rarement possible. C'est pour cette raison que le modèle
tient compte de deux chemins de propagation des ondes : le chemin direct entre
émetteur et récepteur et le chemin de réexion par la terre. L'équation qui permet
de calculer la puissance du signal au niveau réception à une distance d de l'émetteur
est :

Pt Gt Gr (ht )2 (hr )2
Pr (d) = (4.18)
d4 L
avec ht et hr respectivement l'hauteur de l'antenne de transmission et celle de la
66

reception

 Le modèle Shadowing est plus proche de la modélisation des eets réels que les deux
modèles cités précédemment. En eet, pour les deux premiers modèles, il s'agit d'une
prédiction de la puissance reçue comme une fonction déterministe de la distance. La
portée est considérée typiquement comme un cercle ce qui est en réalité non valide.
En fait, la puissance de réception à une certaine distance d est une variable aléatoire
à cause des eets de multi trajets.

Les modèles Two Ray ground et Free Space prédisent la valeur moyenne de puissance à
une distance déterminée. Le modèle Shadowing est un modèle plus général et plus utilisé.
En eet, le modèle est composé de deux composantes :

1. Path loss model prédit la valeur moyenne de la puissance reçue Pr (d) à une distance
d en utilisant une distance de référence d0 :
µ ¶β
Pr (d) d
= (4.19)
Pr (d) d0
β est est l'exposant du path loss, il s'agit d'une valeur empirique (β = 2 pour le
modèle Free Space).

2. Variation de la puissance reçue pour une distance donnée est donnée par l'équation
suivante :
· ¸ µ ¶
Pr (d) d
= −10βlog + XdB (4.20)
Pr (d) dB d0

où XdB est une variable Gaussiènne à moyenne nulle et variance σdB . Les valeurs
de β et σdB dépendent étroitement de l'environnement ( voir Tableau 4.5)et doivent
être congurées dans les simulations.

Ceci dit, il a était montré que le modèle Free Space est un modèle qui fonctionne mieux
pour les distance courtes que le Two Ray Ground. En eet, pour le second modèle et à
courte distance les raies oscillent à cause des combinaisons constructives et destructives
des deux ondes. De plus, Two Ray Ground augmente la perte en puissance avec la distance
(en 1/d4 ) que le Free Space avec (en 1/d2 ).

En eet, il existe une distance de croissement dc pour laquelle l'utilisation de l'un ou


l'autre des modèles est valable :

 Si d > dc alors le modèle à utiliser est le Two Ray Ground ;


 Si d < dc alors le modèle à utiliser est le Free Space ;
67

Environnement Valeur

Espace libre 2
Outdoor
Espace urbain 2.7 à 5

chemin direct 1.6 à 1.8


Dans les bâtiments
avec obstacles 4à6

σdB

Environnement Valeur

Outdoor 4 à 12

Oce 7 à 9.6

Espace libre 3à6


Usine
Avec obstacle 6.8

Tab. 4.5  Quelques valeurs typiques de β et σdB

Cette distance est donnée par l'équation suivante :

dc = 4πht hr /λ (4.21)

Le Shadowing est un modèle paramétrable pour le indoor et le outdoor selon les valeurs
de β et σdB (voir Tableau 4.5).

Dans nos simulations, nous prenons ht = hr = 1.5m et λ est telle que la fréquence est
de 2.472Ghz . Ceci donne, selon l'Équation (4.21), une valeur de dc ≈ 233m .

An de valider notre modèle, nous considérons quatre cas de gure :

1. Un environnement indoor ayant une taille de réseau de 200X200m2 avec le modèle


de propagation Free Space ;
2. Un environnement indoor ayant une taille de réseau de 200X200m2 avec le modèle
de propagation Shadowing conguré tel que donné dans le Tableau (4.5) avec un
espace libre d'obstacles (choix β = 1.6etσdb = 3) ;
3. Un environnement outdoor ayant une taille de réseau de 1000X1000m2 avec le
modèle de propagation Two Ray Ground ;
4. Un environnement outdoor ayant une taille de réseau de 1000X1000m2 avec le
modèle de propagation Shadowing conguré tel que donné dans le Tableau (4.5)
avec un espace libre d'obstacles (choix β = 1.6etσdb = 3)
68

Parmi les diérents protocoles de routage dans les réseaux Ad Hoc, nous avons choisi
le protocole AODV. En eet, ce protocole est le plus couramment utilisé dans ce réseau
et se présente comme un protocole qui permet une optimisation des chemins.

An de simuler des ux de données et des ux multimédia, nous avons généré 4
connexions de type CBR avec ces paramètres (Tableau 4.6). La diérenciation entre les
ACs est faite par le paramétrage de ces tracs (Tableau 4.6). Ce dernier dépend dans le
cas d'étude des valeurs choisies par le modèle analytique. En revanche, ces simulations
sont exécutées en changeant le paramètre correspondant à l'intervalle inter-arrivée des
paquets.

AC Application Propriétés des paquets (CWmin , CWmax , AIFS (en µs))

Taille (octets) Interarrivée (ms)

0 CBR 1700 10 (31, 1023, 50)

1 CBR 1500 12 (31, 1023, 25)

2 CBR 1464 12 (15, 31, 25)

3 CBR 96 24 (7, 15, 25)

Tab. 4.6  Paramètres de simulation

Enn, nous nous sommes basés sur des topologies aléatoires où les n÷uds sont répartis
de façon aléatoire dans l'espace : Les n÷uds qui se retrouvent à portée radio l'un de l'autre
se considèrent comme voisins.

4.4.3 Résultats et discussions


Les résultats des simulations pour les environnements indoor et outdoor couplés avec
les modèles de propagation appropriés ainsi que les résultats du modèle analytique sont
représentés respectivement dans les Figures 4.8 et 4.9 [87, 90].

La Figure 4.8 représente la durée de vie normalisée pour les diérentes catégories
d'accès en fonction du nombre croissant de stations. La normalisation se fait par rapport
à la durée de vie maximale d'une station dans le réseau.

La Figure 4.8 quantie l'impact de la diérenciation de services opérée par la norme


IEEE 802.11e sur la consommation d'énergie : les tracs les plus prioritaires consomment
moins d'énergie. Ainsi la durée des n÷uds qui utilisent un trac prioritaire est supérieure
à celle des n÷uds moins prioritaires.
Nous observons que la durée de vie normalisée diminue quand la taille du réseau
(respectivement le nombre de stations) et ce pour tous les ACs. La raison est que dans
69

Fig. 4.8  La durée de vie des stations pour le modèle de propagation Two Ray Ground

en outdoor - Validation du modèle analytique

le cas d'un nombre important de stations se partageant le même support de transmission


radio, la probabilité de collisions augmente considérablement. Ce qui impacte directement
la consommation d'énergie. Notons que, le comportement des classes de trac se rapproche
avec un nombre important de stations dans le réseau dû, encore une fois, à l'augmentation
des collisions.

La diérenciation se manifeste alors à travers la rapidité de décrémentation de la


métrique adoptée en fonction de la taille du réseau. Il est clair que pour la classe de trac
la plus prioritaire AC3 , la durée de vie reste nettement plus importante que celle des
autres classes. De même, la performance de la classe de trac AC2 est meilleure que celle
de AC1 . Enn, la durée de vie correspondante à la classe AC1 est légèrement meilleure
que celle de AC0 . Pour le dernier cas, le rapprochement entre AC1 et AC0 est dû au faite
que les paramètres de conguration des deux classes sont assez proches et que les tailles
des fenêtres de contention (CWmin , CWmax ) sont égales (Tableau 4.6).

4.5 Évaluation de performance


Dans cette section, nous évaluons les performances du modèle analytique proposé pour
la consommation d'énergie avec diérenciation de service. Celui ci étant validé, nous avons
mené des expérimentations an d'en apprécier les performances, en faisant varier la taille
des paquets délivrés ainsi que le nombre des n÷uds correspondant aux diérentes classes
70

0.8
AC0 Analytic
AC1 Analytic
AC2 Analytic
AC3 Analytic
0.6 AC0 sim−FS
AC1 sim−FS
Durée de vie normalisée

AC2 sim−FS
AC3 sim−FS

0.4

0.2

0
0 4 8 12 16 20 24 28 32 36 40
Taille du réseau

Fig. 4.9  La durée de vie des stations pour le modèle de propagation Free Space en

Indoor

de tracs dénies au niveau de notre réseau ad hoc, ou encore les modèles de propagation
[86, 87].

4.5.1 Variation avec le nombre de stations


Dans un premier temps, nous avons voulu voir la variation de la durée de vie lorsque
nous xons le nombre des n÷uds d'une catégorie d'accès donnée et on fait varier les autres
[87]. Les Figures 4.10 et 4.11 montrent la variation du nombre de stations ni pour chaque
catégorie d'accès ainsi que son inuence sur la durée de vie des autres ACs. La Figure 4.10,
on a xé le nombre des n÷ud ni des catégories d'accès ACi à 20 et nous avons varié, à
nombre égal, le nombre des n÷uds des autres ACj de 1 à 20. Par exemple, pour la courbe
représentant la variation de la durée de vie normalisée de la classe la plus prioritaire et
pour une taille de réseau égale à 30 n÷uds, nous avons 20 n÷uds (n3 ) correspondant
à la catégorie d'accès la plus prioritaire AC3 et 10 n÷uds des deux autres catégories
d'accès AC2 (n2 ) et AC0 (n0 ). Sans perte de généralité, nous avons considéré seulement
trois catégories d'accès, à savoir AC3 , AC2 , et AC0 . Ceci est dû au rapprochement des
performance des deux categories les moins prioritaire, à savoir AC1 et AC0 .

Les résultats obtenus dans la Figure 4.10 montre que la durée de vie des n÷uds d'une
catégorie d'accès ACi diminue en ajoutant des n÷uds appartenant à d'autres categories
d'accès. Nous remarquons aussi que le taux de décroissance est plus important pour les
catégories d'accès les plus prioritaires.
71

AC0
AC2
AC3

0.6
Durée de vie normalisée

0.4

0.2

0
20 25 30 35 40 45 50 55 60
Taille du réseau

Fig. 4.10  La durée de vie des stations en fonction du nombre de stations ni pour chaque

AC (variation équitable)

0.6
AC0, n3&n0=20
AC0, n0&n2=20
AC2, n2&n3=20
0.5
AC2, n2&n0=20
AC3, n3&n2=20
AC3, n3&n2=20
Durée de vie normalisée

0.4

0.3

0.2

0.1

0
40 43 46 49 52 55 58 60
Taille du réseau

Fig. 4.11  La durée de vie des stations en fonction du nombre de stations ni pour chaque

AC
72

Fig. 4.12  La durée de vie des stations en fonction de la variation de la taille des paquets

transmis pour les diérentes catégories d'accès

Pour la Figure 4.11, nous avons xé le nombre de n÷uds de deux diérentes catégo-
ries d'accès en faisant varier le troisième. C'est pour cette raison que nous avons deux
diérentes courbes pour chacune des trois catégories d'accès représentées. Par exemple,
pour les courbes représentant la durée de vie normalisée de la classe la moins prioritaire
et pour une taille de réseau égale à 50 n÷uds, celui-ci est constitué de n3 = 20, n2 = 20
et n0 = 10 n÷uds pour une courbe et n3 = 20, n0 = 20 et n2 = 10 n÷uds pour l'autre.

De même, nous observons la durée de vie des n÷uds d'une catégorie d'accès ACi
diminue en ajoutant des n÷uds appartenant à des catégories d'accès diérentes. Aussi, le
taux de décroissance est plus important lorsque le nombre des n÷uds les plus prioritaires
augmente. Nous remarquons aussi que la catégorie d'accès la plus prioritaire AC3 est
moins sensible à la variation du nombre des n÷uds des autres categories d'accès moins
prioritaires.

4.5.2 Variation avec la taille des paquets


Dans un deuxième temps, nous avons représenté la variation de cette même durée de vie
normalisée en faisant varier la taille des paquets transmis [87]. En eet, nous avons varié la
taille des paquets transmis de 500k octets à 1500k octets et ce pour diérentes catégories
d'accès dénies par notre modèle (Figure 4.12). Les résultats montrent une décrémentation
de la durée de vie normalisée des stations en augmentant la taille des paquets délivrés pour
les diérents ux de tracs dénis. Cette décrémentation est néanmoins plus importante
pour les ux de tracs les plus prioritaire.
73

Fig. 4.13  La durée de vie des stations pour le modèle de propagation shadowing en

outdoor

4.5.3 Indoor versus Outdoor


Les résultats obtenus à partir des simulations dont les environnements sont décrits
dans la section (4.4.1.) sont représentés dans les Figures (4.13) et (4.14). Nous retrouvons
les mêmes allures des courbes que précédemment. Nous remarquons alors que le choix
du modèle de propagation n'inue pas trop sur l'impact de la diérenciation de services
opérée par la norme IEEE 802.11e sur la consommation d'énergie. Nous remarquons que
pour les deux modèles de propagation, les tracs les plus prioritaires consomment moins
d'énergie.

Nous observons que la durée de vie diminue quand le nombre de stations augmente et
ce pour tous les ACs. Aussi, le comportement des classes de trac se rapproche avec un
nombre important de stations dans le réseau dû à l'augmentation des collisions.

La diérenciation se manifeste toujours à travers la rapidité de décrémentation de la


métrique adoptée en fonction de la taille du réseau. Il est clair que pour la classe de trac
la plus prioritaire AC3 , la durée de vie reste nettement plus importante que celle des
autres classes. De même, la performance de la classe de trac AC2 est meilleure que celle
de AC1 . Enn, la durée de vie correspondante à la classe AC1 est légèrement meilleure
que celle de AC0 .

En comparant les résultats obtenus pour tous les cas de gure des environnements
étudiés précédemment (Figure 4.15), on pourra déduire plusieurs faits. Ces faits observés
sont valables pour toutes les catégories d'accès impliquées.

Le premier fait est que pour les quatre modèles de propagation étudiés, la durée de
74

Fig. 4.14  La durée de vie des stations pour le modèle de propagation shadowing en

indoor

vie des n÷uds diminue en augmentant la taille du réseau. Cette durée de vie est toujours
plus importante pour les catégorie d'accès les plus prioritaires.

Nous remarquons ensuite que la diminution de cette métrique varie suivant le modèle
de propagation utilisé. En eet, quand le nombre total de n÷uds est inférieur à 20 les mo-
dèles de propagation Free Space et Shadowing en Indoor prennent le dessus par rapport
aux modèles de propagation Two Ray Ground et Shadowing en Outdoor. La raison est que
pour les deux premiers cas la propagation introduit un eet réducteur de la durée de vie
moindre qu'apportent les deux deuxièmes cas. En eet, dans notre cas d'étude l'environ-
nement est sans erreurs et libre d'obstacles. Ainsi les seuls facteurs qui peuvent inuencer
par diminution sur la durée de vie des stations sont la propagation, les interférences et les
collisions.

Ceci dit, notre réseau en indoor s'étend sur une surface carrée de dimension égale
à200X200m2 . En outdoor, cette surface est de dimension 1000X1000m2 . De plus, l'at-
ténuation de propagation en indoor est de 1/d2 (resp. 1/d1.6 ) pour le Free Space (resp.
Shadowing). Celle de l'environnement outdoor est de 1/d4 (resp. en 1/d2 ) pour le Two
Ray Ground (resp. Shadowing).

Un second fait remarqué est l'inversion de rôle observée au delà de 20 n÷uds émetteurs.
En eet, contrairement au premier fait observé les modèles de propagation pour le Outdoor
prennent en partie le dessus et on remarque la détérioration des modèles relatifs à Indoor.
En eet, les durées de vie pour ce dernier s'approchent de 0 en augmentant de plus en plus
le nombre de n÷uds pour toutes les catégories d'accès. Dans tous les cas observés, nous
remarquons que les résultats obtenus par les environnements outdoor sont meilleures, et
spécialement pour le modèle Two Ray Ground .
75

Fig. 4.15  Superposition des résultats des simulations

La raison est que pour un nombre de n÷uds devenant de plus en plus grand un facteur
inuant sur la durée de vie intervient. Ce facteur est l'interférence qui aecte encore plus
le indoor que le outdoor. De plus, il a été observé que les performances du réseau pour le
Free Space en présence d'un nombre de n÷uds important se détériorent considérablement
par l'eet des interférences.

Enn, nous remarquons que le modèle de propagation Shadowing congurable pour le


indoor et pour le outdoor est un modèle qui représente la réalité de propagation mieux
que d'autres modèles. C'est pour cette raison qu'il présente la moindre durée de vie que
les autres cas avec un nombre de trac important et spécialement pour le cas Outdoor.
En eet, le Free Space ainsi que le Two Ray Ground opèrent avec des conditions de
propagation prises pour idéales.

4.6 Conclusion
Dans ce chapitre, nous avons abordé un concept important pour la suite de notre
travail sur la gestion de la consommation d'énergie qu'est le support de la diérenciation
de service, un mécanisme qui donne un service préférentiel au niveau de la couche MAC
aux applications et aux données appartenant à des usagers ayant des priorités élevées.
Ceci permet de dénir des classes d'accès, pour lesquelles l'accès au niveau MAC doit être
aecté selon un mécanisme de priorités d'accès suivant la diérenciation de service. Par
la suite, nous avons présenté notre modèle analytique de consommation d'énergie pour les
réseaux ad hoc où opère ce mécanisme de diérenciation de service spécique à chaque
76

n÷ud. Ce modèle s'applique au niveau de la sous couche MAC et permet ainsi de calculer
l'énergie moyenne consommé par n÷ud et par ux de trac déni.
Nous avons évalué ce modèle analytique en réalisant un certain nombre d'applications
numériques et de simulations. Les résultats obtenus ont montrés un gain d'énergie moyenne
consommée au niveau de la sous couche MAC pour les n÷uds les plus prioritaires.
Ainsi dans le prochain chapitre, nous allons nous appuyer sur cette observation pour
développer une nouvelle idée permettent d'optimiser la consommation d'énergie dans les
réseaux ad hoc.
77

Chapitre 5
La diérenciation de service pour
optimiser la consommation d'énergie

Dans le chapitre précédent, nous avons présenté un modèle analytique pour la consom-
mation d'énergie au niveau MAC pour des n÷uds appartenant à un réseau ad hoc avec des
services diérenciés. Nous avons quantié l'impact du niveau de priorité sur la consom-
mation d'énergie. Nous avons remarqué que les n÷uds les plus prioritaires consomment
moins d'énergie. Notre idée consiste à prendre en considération ce résultat pour proposer
un nouveau mécanisme inter-couche basé sur la priorité d'accès au medium partagé en
fonction du voisinage.

5.1 Notre proposition : Accès MAC diérencié suivant


le voisinage
Dans le chapitre précédent, nous avons développé un nouveau modèle analytique de
la consommation d'énergie au niveau de la couche MAC, qui prend en compte les dié-
rentes tâche de transmission, réception et autres contrôles inhérents au fonctionnement
du mécanisme DCF qui régit l'accès MAC dans les réseaux ad hoc. Ce modèle analytique
a été ensuite enrichi pour le cas où les n÷uds ont des niveaux de priorité diérents, tel
que le dénit la norme IEEE802.11e. Nous avons ensuite montré, que les n÷uds les plus
prioritaires consomment nettement moins d'énergie, au niveau de la sous couche MAC,
que les autres n÷uds (possédant des priorités d'accès inférieurs). Nous avons remarqué
aussi des niveaux de consommation d'énergie diérents suivant les niveaux de priorités
aectés.

En plus, nous avons déjà remarqué que la majorité de l'énergie consommée est au
niveau de cette sous couche où beaucoup d'études ont prouvé que l'énergie consommée
pour garantir la réception et l'écoute est, à peu prés, équivalente à celle requise pour la
transmission d'un paquet pour le protocole d'accès CSMA/CA.
78

Notre principal objectif est de proposer un nouveau mécanisme permettant d'optimiser


localement la durée de vie des diérents n÷uds ainsi que la durée de vie d'un réseau ad
hoc dans sa globalité.

D'autre part, dans un réseau ad hoc, les n÷uds assurent aussi la fonction de relayage
des message de données entre eux. Un transfert de données peut aisément être interrompu
à cause de l'expiration de la charge de la batterie de l'un des n÷uds qui assurent le
relayage. En plus, un n÷ud qui possède beaucoup de voisins possède, généralement, une
charge plus importante que les autres n÷uds. Elle se traduit dans notre cas par une
ressource énergétique précieuse pour les n÷uds des réseaux ad hoc et que nous cherchons
à optimiser.

Notre idée est de prendre en consideration tous ces faits pour proposer un nouveau
mécanisme basé sur la priorité d'accès MAC diérencié en fonction du voisinage et donc
de la charge de relayage imposée sur les diérents n÷uds.

En s'appuyant sur notre résultat acquis dans le chapitre précèdent, nous avons eu
l'idée de donner l'opportunité d'accès MAC diérencié aux n÷uds les plus sollicités dans
le but de compenser leur charge de relayage supplémentaire. cette opportunité se base sur
un accès sélectif au médium radio en aectant aux n÷uds un niveau de priorité suivant
leur voisinage.

Du coup, on a intérêt à attribuer aux n÷uds les plus sollicités la priorité la plus haute
pour compenser l'énergie gaspillée par ces n÷uds et pouvoir eectuer leurs transferts de
données le plus vite que possible. Ils peuvent ainsi mieux servir les autres. Nous protons
aussi au maximum de ces n÷uds avant qu'ils changent de position.

Comme nous l'avons décrit dans [91], notre nouvelle approche est un mécanisme d'op-
timisation inter-couche (Cross-layer) qui gère les priorités d'accès MAC diérencié en
fonction du voisinage. La Figure 5.1 présente une description de la gestion des fonction-
nalités entre les couches (physique - MAC - Réseau). En eet, à travers cette approche
nous gérons L'énergie du n÷ud au niveau de la couche physique, l'accès MAC diérencié
au niveau de la couche MAC et le voisinage réseau au niveau de la couche réseau.

Dû au fait d'attribuer diérentes priorités d'accès MAC diérencié suivant le voisi-


nage, nous sommes face à l'obligation de créer des clusters (groupes) correspondant aux
diérents niveaux de priorités aectées aux diérents n÷uds constituant notre réseau ad
hoc.
79

Fig. 5.1  Gestion inter-couche pour optimisation de puissance dans les réseaux Ad Hoc

avec diérenciation de services

5.2 Implémentation

5.2.1 Reconnaissance du voisinage


Dans un réseau ad hoc, tout n÷ud peut avoir une idée sur son voisinage direct ou
bien immédiat, nous parlons alors de connaissance de voisinage à un saut. On parle de
connaissance partielle lorsque la connaissance nécessaire est dicilement identiable par
rapport au voisinage immédiat. Par exemple, dans le cas de la formation de groupes
de n÷uds, chaque n÷ud qui appartient à un groupe peut connaître l'intégralité de ses
membres, même s'il n'est pas en position centrale. Une connaissance du voisinage à 2 sauts
est donc nécessaire (i.e. chaque n÷ud connaît des informations sur les n÷uds joignables
avec le même message ayant été relayé au plus 2 fois).

La connaissance du voisinage peut être variable : un n÷ud peut connaître la liste de ses
voisins, mais aussi les liens entre ces derniers. Pour mettre à jour les informations acquises
sur le réseau, chaque n÷ud émet des messages relatifs à ces informations. Ces messages
font parties des messages HELLO. Ces derniers sont régulièrement émis par chaque n÷ud
pour informer le voisinage. Ainsi, une entité est en mesure de connaître l'ensemble de ses
voisins en écoutant les communications. D'autres informations peuvent aussi apparaître
dans ces messages. Chaque n÷ud est donc capable de déduire l'ensemble de la topologie
à un saut et l'ensemble de tous les n÷uds joignables à deux sauts. Par exemple, si un
mobile émet régulièrement un message HELLO avec son identité, alors chaque n÷ud est
en mesure d'avoir une liste des voisins qu'il peut joindre. Par contre, si un mobile émet
régulièrement un message HELLO avec la liste complète de son voisinage, alors chaque
n÷ud est en mesure de connaître les voisins respectivement à un et à deux sauts.

Comme nous l'avons décrit dans [91], nous utilisons dans notre travail un protocole
80

de reconnaissance de voisinage (Neighbor Protocol : NP). Il est un composant du proto-


cole TRAMA [92]. En eet, pour recueillir l'information de voisinage, il y a un échange
au niveau de chaque n÷ud de petits paquets de signalisation, dont le format est déni,
pendant une période d'accès sélectif. En eet, chaque n÷ud devra envoyer, périodique-
ment, des mises à jour de son voisinage à un saut contenant l'ensemble des n÷uds entrant
ou sortant de son voisinage. Les paquets de signalisation sont également employés pour
maintenir et garantir la connectivité globale du réseau en tenant compte de la mobilité
des n÷uds. Puisque un voisin connaît les voisins, à un saut, de ses voisins à un saut, il
peut connaître alors ses voisins à deux sauts et ainsi de suite jusqu' à recouvrir tout le
réseau. Ainsi, chaque n÷ud dans le réseau mémorise son voisinage et compte le nombre
de ses voisins directs. Nous nous sommes inspiré des travaux eectués dans [92, 93] pour
créer le diagramme d'état décrivant notre protocole.

La Figure 5.2 résume le fonctionnement de notre procédure de reconnaissance de voisi-


nage. Notons par cpt_neigh le nombre de cycle de mise à jour au bout duquel le message
de signalisation d'un n÷ud voisin n'a pas été reçu. Notons aussi par cpt_neigh_M ax la
valeur maximale de cpt_neigh au bout de laquelle un voisin est supprimer de la table de
voisinage.

Fig. 5.2  Algorithme de reconnaissance de voisinage


81

5.2.2 Le clustering

Le clustering, ou regroupement, est le découpage en zones d'un réseau étendu. Il permet


de l'organiser pour des problématiques d'adressage, de routage, d'agrégation de ux. Si
un chef est élu dans chaque zone, une hiérarchie est créée. De plus, la topologie de clusters
peut former une topologie virtuelle utile pour l'agrégation d'informations et pour cacher
les changements dans la topologie radio. Les clusters peuvent être utiles pour le routage
[94], la qualité de services [95], la couche MAC [96].

La décomposition en clusters possède diérents objectifs. Dans certains cas, elle a été
utilisée pour la mise à l'échelle des réseaux ad hoc, l'abstraction de la topologie pour le
contrôle de l'inondation dans les réseaux, la collecte d'informations dans les réseaux de
capteurs et le partage de bande passante [97].

Les premiers algorithmes de clustering Lowest-ID [98] et Mobic [99] ont des méca-
nismes assez proches. Ils se sont basés sur le choix d'un clusterhead ou chefs de groupe.
Ces clusterheads sont sélectionnés suivant un critère particulier, à savoir les identicateurs
des n÷uds, le nombre de voisins et le degré de mobilité, respectivement. Ces algorithmes
permettent de former des clusters à un seul saut. Ils considèrent une phase de forma-
tion des clusters ou " clustering set up ". Pendant cette phase, les n÷uds procèdent à la
connaissance de leurs voisins et déroulent entre eux l'algorithme de formation des groupes.
Toutefois, les n÷uds sont supposés xes au cours de cette étape et une synchronisation
entre eux est nécessaire pour le bon fonctionnement de l'algorithme. Cette phase de forma-
tion des clusters est répèté périodiquement suite aux changements fréquents de topologies
dans un réseau ad hoc.

L'algorithme "Distributed and Mobility Adaptive Clustering " [100] introduit la no-
tion de poids générique pour la sélection des cluterheads. C'est un mécanisme de regrou-
pement qui permet de réagir aux changements de topologies. L'algorithme ne nécessite
aucune synchronisation entre les n÷uds. Deux facteurs de performance ont été dénis
pour améliorer la stabilité des clusters formés. Le premier représente le nombre maximum
de clusterhead à être voisins directs. Le second permet de limiter les ré-aliations entre
les clusters. Les n÷uds ne se ré-alient à un nouveau clusterhead que si le poids de ce
dernier est supérieur d'un certain facteur au poids de leur clusterhead courant.

Dans d'autres travaux [101, 102], les auteurs ont essayé de présenter des algorithmes
adéquats à la formation de clusters à k sauts. Toutefois, La référence [102] gère la mobilité
par re-exécution périodique de tout l'algorithme. La référence [101] nécessite d'une part
des informations sur les voisins à k sauts et d'autre part que les n÷uds sont immobiles
pendant la phase de clustering. La référence [103] présente un mécanisme de clustering
basé sur deux critères : la connaissance préalable de l'aire de déploiement du réseau et la
prédiction des mouvements des n÷uds en considérant leur historique.
82

5.2.3 Décomposition en clusters

Pour prendre notre modèle analytique de consommation d'énergie comme référence, les
n÷uds constituant notre réseau, seront subdivisés en quatre groupes. Pour nos analyses,
nous supposons, que notre réseau Ad hoc s'étend sur une surface carrée A × A. Il est
supposé être constitué de n stations IEEE802.11e utilisant le mécanisme d'accès EDCA
en considérant le mode basique du CSMA/CA (DATA/ACK). Tous les n÷uds possèdent
le même rayon de transmission R. Enn, nous supposons aussi que si deux n÷uds i et j
se trouvent à distance di,j ≤ R alors ils sont voisins.

Pour les besoins de notre modèle, nous dénissons quatre groupes gk , k = 0, 1, 2, 3 où


chaque groupe contient nk n÷uds mobiles et possède τk voisins. Nous dénissons ensuite
pk , k = 0, 1, 2, 3 comme étant les probabilités de forwarding correspondant à chacun des
groupes gk . La probabilité de forwarding est proportionnelle au nombre de voisins.

Ainsi, l'énergie moyenne consommée par n÷ud appartenant au groupe pour diuser
un paquet est donnée par :

mEFk = pk × τk × mEk (5.1)


où mEk est l'énergie moyenne consommée pour chaque catégorie d'accès ACk , k = 0, 1, 2, 3.
Nous présentons maintenant deux approches : globale et locale, pour determiner l'ap-
partenance d'un no÷ud à un groupe donné.

5.2.4 Approche globale

En reprenant les mêmes notations que précédemment, notons par α la fraction de


surface que peut couvrir une station. Notons aussi par A la surface sur laquelle s'étend
notre réseau. Ainsi, α est dénit comme suit :

πR2
α= (5.2)
A
Le nombre moyen de voisins Nneighbors d'une station x est le nombre de stations ap-
partenant à la surface de couverture de cette station. Il est calculé à partir de la formule :

Nneighbors = (n − 1)α (5.3)


Notons pri , la probabilité pour qu'une station possède i voisins. La probabilité s'écrit
alors comme suit :
µ ¶
n−1
pri = (1 − α)(n−1−i) αi (5.4)
i
Ensuite, nous supposons que notre réseau est subdivisé en quatre groupes correspon-
dant aux quatre niveaux de priorités. Par la suite, nous essayons de déterminer la probabi-
lité pbi , i = 0, 1, 2, 3 pour qu'un n÷ud quelconque du réseau soit du groupe gi , i = 0, 1, 2, 3.
83

Le premier groupe comporte les n÷uds les plus prioritaires et est composé des n÷uds
qui ont le plus de voisins que n'importe quel autre n÷ud dans le réseau. Pour un réseau
constitué de n n÷uds, la probabilité pour qu'un n÷ud appartient à ce groupe est donnée
par :
n−1
X µ ¶µX
i−1 ¶i µ i−1
X ¶n−1−i
n−1
pb3 = pri prj 1− prj (5.5)
i
i=1 j=1 j=1

On accorde au second groupe une priorité inférieure à celle accordée au premier. Il


est composé des n÷uds dont le nombre des voisins qui possèdent moins de voisins que le
n÷ud courant est inférieur au nombre de voisins qui ont plus de voisins. La probabilité
pour un n÷ud appartenant à ce groupe est donnée par l'Équation (5.10) :

n−1
X µX
i/2 µ µ ¶ µ n−1
X ¶k µ i−1
X ¶i−k ¶¶
i
pb2 = pri prj 1− prj (5.6)
k
i=1 k=1 j=i j=1

Le troisième groupe est composé des n÷uds dont le nombre des voisins qui possèdent
plus de voisins que le n÷ud courant est supérieur au nombre de voisins qui ont moins de
voisins. Nous lui attribuons une priorité inférieure à celles attribuées aux groupes g3 et
g2 . La probabilité qu'un n÷ud puisse appartenir à ce groupe est :
n−1
X i µµ ¶µX
µX n−1 ¶k µ i−1
X ¶i−k ¶¶
i
pb1 = pri prj 1− prj (5.7)
k
i=1 k=i/2 j=i j=1

Enn, le quatrième groupe, quant à lui, est composé des n÷uds les moins prioritaires
et qui possèdent le moins de voisins que n'importe qui de leurs voisins. Un n÷ud peut
être de ce groupe avec une probabilité pb0 égale à :
n−1
X µ ¶µ X
n−1 ¶i µ n−1
X ¶n−1−i
n−1
pb0 = pri prj 1− prj (5.8)
i
i=1 j=i+1 j=i+1

La Figure 5.3 représente ces probabilités de diusion en fonction de la fraction de


surface α et ce pour les 4 groupes dénis précédemment. Nous remarquons, tout d'abord,
que les valeurs des probabilités pb3 et pb0 sont presque constantes qui tendent vers 0.
Tandis que, pb2 et pb1 prennent la part du lion et varient toutes les deux, d'une manière
complémentaire, entre [0.4, 0.6]. Ceci s'explique par la dénition même de nos groupes de
priorités : en eet, un n÷ud quelconque dans notre surface carrée, aura plus de chance
d'être parmi le groupe 1 ou 2 que dans le groupe 0 et 3.

5.2.5 Approche locale


Dans cette approche, nous proposons de déterminer localement, et non pas globalement
les probabilités d'avoir un certain nombre de voisins et ainsi de niveaux de priorités. La
modélisation de cette approche se base sur la determination de la fraction des n÷uds
84

0.9
pb3
0.8 pb2
pb
1
0.7
pb0

i
Probabilités pb 0.6

0.5

0.4

0.3

0.2

0.1

0
0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9
alpha

Fig. 5.3  Probabilités pbi en fonction de la fraction de surface αApproche globale

qui ont plus de voisins que leurs voisins. Ceci peut être utile par exemple dans le cas
où un groupe de n÷uds un peu isolé dans lequel un n÷ud qui fera parti du groupe g3 ,
possède par exemple trois voisins qui en ont un ou deux au maximum chacun. Partant de
cette dénition, nous proposons de créer les groupes gi selon des considerations locales.
Il s'agit seulement, pour un voisin, de déterminer à partir des informations locales que
lui donnent ses voisins dans quel groupe il est. En eet, chaque n÷ud prend sa décision
indépendamment des autres suivant les informations de voisinage de niveau 2.

En admettant ces conditions, les probabilités d'appartenance aux diérents groupes


g3 , g2 , g1 et g0 s'écrivent, respectivement, de la manière suivante :

 La probabilité pour qu'un n÷ud soit du groupe qui possède plus de voisins que
n'importe qui de ses voisins est donnée par :

n−1
X µX
i−1 ¶i
pb3 = pri prj (5.9)
i=1 j=1

 La probabilité pour qu'un n÷ud soit du groupe g2 est donnée par :

n−1
X µX
i/2 µ µ ¶ µ n−1
X ¶k µ i−1
X ¶i−k ¶¶
i
pb2 = pri prj 1− prj (5.10)
k
i=1 k=1 j=i j=1

 La probabilité pour qu'un n÷ud soit du groupe g1 est donnée par :

n−1
X µX
i µµ ¶µX
n−1 ¶k µ i−1
X ¶i−k ¶¶
i
pb1 = pri prj 1− prj (5.11)
k
i=1 k=i/2 j=i j=1
85

 La probabilité pour qu'un n÷ud soit du groupe g0 et qui possède le moins de voisins
que n'importe qui de ses voisins est donnée par :

n−1
X µ X
n−1 ¶i
pb0 = pri prj (5.12)
i=1 j=i+1

La Figure 5.4 représente ces probabilités de diusion en fonction de la fraction de


surface α et ce pour les 4 groupes dénis précédemment. Nous remarquons, tout d'abord,
qu'en augmentant la valeur de alpha, les valeurs des probabilités pb3 et pb0 décroissent et
tendent vers 0. En eet, lorsque alpha augmente, la surface de transmission d'un n÷ud
s'élargie. Par conséquence, le nombre de voisins par n÷ud augmente. Ainsi, le nombre de
n÷ud du groupe g3 va diminuer. D'une autre part, les probabilités pb2 et pb1 prennent
la part du lion et varient toutes les deux, d'une manière complémentaire, entre [0.4, 0.6].
Ceci s'explique par la dénition même de nos groupes de priorités : en eet, un n÷ud
quelconque dans notre surface carrée, aura plus de chance d'être parmi le groupe 1 ou 2
que dans le groupe 0 et 3.

0.9
pb3
0.8 pb
2
pb1
0.7
pb0
0.6
Probabilités pbi

0.5

0.4

0.3

0.2

0.1

0
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
alpha

Fig. 5.4  Probabilités pbi en fonction de la fraction de surface αApproche locale

5.3 Évaluation des Performances


Pour nos applications numériques, nous commençons par étudier notre modèle analy-
tique dans le cas d'une topologie simple constitué de 50 n÷uds répartis sur une surface
carrée (200m × 200m), tel que le montre la Figure 5.5 [91].
86

Cette topologie est un cas particulier de réseau de capteurs à accumulation où les


n÷uds envoient le trac vers le n÷ud central. Ceci permet de varier de manière contrôlée
le nombre de voisins.

Fig. 5.5  Topologie utilisée comme exemple d'étude

Pour ce cas, les probabilités de forwarding pi , i = 0, 1, 2, 3, sont obtenues comme suit.


p0 est la probabilité de forwarding pour les n÷uds appartenant au groupe g0 et n0 est leur
nombre et est égale à 30 dans ce cas. p1 =2p0 et n1 est égale à 15. p2 =3p1 et n2 est égale
à 5. p3 =5p2 et n3 est égale à 1. Aussi

p0 + p1 + p2 + p3 = 1 (5.13)

Les probabilités de forwarding sont proportionnelles au nombre de voisins. En eet,


elles correspondent, pour chaque n÷ud, à la charge à transmettre pour ses voisins.

Les paramètres réseaux sont décrits dans les Tableaux 5.1 et 5.2 et correspondent
aux diérentes probabilités de forwarding accordées aux n÷uds et déduites à partir de
l'Équation (5.13).

L'objectif de notre étude est de comparer l'énergie consommé au niveau de la sous


couche MAC, par n÷ud en appliquant une diérenciation de service basée sur le nombre
de voisins. Nous comparons ensuite la durée de vie normalisée du réseau sous diérentes
conditions. Trois cas de gure sont étudiés :

 Réseau auquel on applique notre mécanisme de priorité pour l'accès au medium


radio pour les n÷uds les plus sollicités ;
87

K 0 1 2 3

τk 1 2 3 5

nk 30 15 5 1

pk 0.026 0.05 0.15 0.77

Tab. 5.1  Paramètres du voisinage réseau

k AIFS CWmin CWmax (mk ) Packet Length(Bytes)

0 50 µs 31 1023(5) 1500

1 25 µs 31 1023(5) 1500

2 25 µs 15 31(1) 1500

3 25 µs 7 15(1) 1500

Tab. 5.2  Paramètres de diérenciation de services.

 Réseau auquel on applique un mécanisme de priorité uniforme entre les diérents


n÷uds pour l'accès au medium radio ;
 Réseau sans mécanisme de priorité d'accès au medium radio.

Pour nos analyses, nous évaluons le nombre maximum des paquets Nk qui peuvent être
transmis par la station de class-k avant d'épuiser sa charge initiale. Les paramètres réseau,
ceux de la diérenciation de services et des tracs ainsi que les priorités d'accès aectées
aux diérentes classes de tracs sont décrits dans les Tableaux 5.1 et 5.2. Rappelons que,
nous dénissons quatre groupes gk , k = 0, 1, 2, 3 où chaque groupe contient nk n÷uds
mobiles et possède τk voisins. Nous dénissons aussi pk , k = 0, 1, 2, 3 comme étant les
probabilités de forwarding aectées à chacun des groupes gk pour accéder au medium
partagé. Nous traitons toujours la diérenciation de service et de ce fait nous dénissons
une classe de trac par n÷ud.

Pour généraliser notre étude, nous avons considéré plusieurs topologies générées aléa-
toirement. Notons que nous gérons toujours le même nombre de n÷uds sur la même surface
carrée. Ainsi, le changement de topologie inue sur la densité de n÷uds par fraction de
surface. Ce changement provoque aussi la variation du nombre de voisins par n÷ud dans
le réseau ad hoc.

Les Figures 5.6 et 5.7 montrent la quantité d'énergie consommée par n÷ud appartenant
à chacun des groupes de priorités dénis et ce pour transmettre tous leurs paquets de
données avant que leurs charges initiales expirent. Nous étudions diérentes topologies
pour les deux cas suivants :
88

Fig. 5.6  Énergie consommée par n÷ud pour les diérents groupes de priorités gk , sans

mécanisme de priorités d'accès

Fig. 5.7  Énergie consommée par n÷ud pour les diérents groupes de priorités gk , avec

mécanisme de priorités d'accès


89

1. Avec mécanisme de priorités d'accès au medium


2. Sans mécanisme de priorités d'accès au medium

Nous avons étudié près de 120 diérentes topologies et nous avons représenté à chaque
fois l'énergie moyenne pour trois cas diérent.

Les résultats montrent un gain moyen de l'ordre de 90% pour les n÷uds pour qui
nous aectons la priorité la plus haute et qui correspondent aux n÷uds les plus sollicités.
En eet, vu qu'ils ont la priorité d'accéder au medium avant leurs voisins, ils possèdent
l'opportunité de transmettre leurs messages de données avant les autres et peuvent ainsi
économiser l'énergie perdue pendant la phase d'écoute.

Ce gain est de l'ordre de 65% pour les n÷uds de deuxième niveau de priorité. Ce sont
les n÷uds qui appartiennent à un groupe de priorité d'accès inférieure à celle du premier
et par conséquence auront moins de charge à diuser vu qu'ils se trouvent au deuxième
rang.

Quand aux n÷uds les moins prioritaires, groupes g3 et g4 , leur consommation d'éner-
gie est considérablement plus grande : leur perte d'énergie est de l'ordre 75% et 82%,
respectivement.

Les résultats de la Figure 5.8 représentent la durée de vie du réseau pour diérentes
topologies pour les deux cas : avec et sans mécanisme de priorité d'accès. Les priorités
d'accès MAC diérencié sont aectées d'une manière sélective à partir de l'Équation 5.13.

Fig. 5.8  La durée de vie du réseau avec et sans mécanisme de priorité d'accès (priorités

suivant le voisinage)
90

Fig. 5.9  La durée de vie du réseau avec et sans mécanisme de priorité d'accès (priorités

aléatoires)

D'après ce choix ces priorités dépendent du voisinage du n÷ud. Nous avons généré 180
diérentes topologies et nous avons représenté une moyenne sur 3 cas possibles.

Les résultats trouvés dans la Figure 5.8 montrent une augmentation de la durée de vie
du réseau de prés de 80% quand des priorités d'accès sont aectées aux diérents groupes
dénis selon le voisinage.

Nous avons refait la même expérience en donnant aux diérents n÷uds des priorités
d'accès MAC indépendantes du nombre des voisins. Ces priorités sont, en eet, aectées
de manière aléatoire sans prendre compte du nombre de voisins des n÷uds.

La Figure 5.9 représente la durée de vie du réseau pour diérentes topologies pour
les deux cas : avec priorités uniformes et sans priorités. Nous avons généré aussi 180
diérentes topologies et nous avons représenté une moyenne sur 3 cas possibles. Nous
observons un gain moyen de la durée de vie variant de 35% à 59%. ce gain s'explique par
le fait que le nombre de collisions diminue puisque toutes les stations n'émettent pas au
même moment.

Enn, la Figure 5.10 représente la durée de vie du réseau en fonction de sa taille et ce


pour les trois cas :

1. Sans mécanisme de priorité d'accès ;


2. Avec mécanisme de priorité d'accès basé sur le nombre des voisins ;
3. Avec mécanisme de priorité d'accès MAC aléatoire.
91

Fig. 5.10  La durée de vie du réseau en fonction de sa taille avec et sans mécanisme de

priorité (aléatoire et suivant le voisinage)

Les résultats montrent une diminution de la durée de vie du réseau en augmentant la


taille du réseau. Cette diminution est moins importante lorsqu'on applique le mécanisme
d'accès MAC diérencié qu'il soit sélectif ou aléatoire. Nous remarquons que cette durée
de vie est plus importante pour un réseau auquel on applique notre mécanisme de priorité
d'accès sélectif.
Nous remarquons aussi que même pour le troisième cas où on aecte les priorités
indépendamment du nombre de voisins des n÷uds, notre réseau présente une durée de vie
supérieure à celle d'un réseau qui n'applique pas notre mécanisme d'accès. Ceci s'explique
par le fait que dans ce cas les probabilités de collisions diminuent puisque tous les n÷uds
n'essayent pas d'accèder au canal en même temps.

5.4 Conclusion
Le cinquième chapitre de cette thèse nous a permis de présenter proposition d'accès
MAC diérencié en fonction du voisinage dans le but d'une meilleure optimisation de
l'énergie dans les n÷uds. Notre proposition dénit trois aspects : l'accès MAC, l'énergie
au niveau physique et la topologie au niveau réseau en terme de voisinage du n÷ud.

En eet, pour prendre avantage du résultat acquis dans le chapitre précédent, nous
avons eu l'idée d'aecter la priorité la plus haute aux n÷uds les plus sollicités pour
compenser l'énergie gaspillée par ces n÷uds. Nous protons aussi au maximum de ces
n÷uds avant qu'ils changent de position.
92

Nous avons subdivisé alors l'ensemble des n÷uds constituant notre réseau en quatre
diérents groupes et nous avons aecté à chacun un niveau de priorité diérent.

Les résultats de l'évaluation de notre nouvelle approche montrent un gain allant jusqu'à
de 82% dans la durée de vie normalisée du réseau. Même en présence d'aectation de
priorité aléatoire, nous observons un gain moyen de la durée de vie variant de 35% à 59%
en cas d'accès diérencié.
93

Chapitre 6

Conclusions et perspectives

Conclusions

Notre contribution dans cette thèse se concentrait la consommation d'énergie dans les
réseaux ad hoc, via des mécanismes de diérenciation de services au niveau de la couche
MAC, en conformité avec le standard IEEE 802.11e. Notre objectif a été de proposer
un nouveau mécanisme permettant d'optimiser localement la durée de vie des diérents
n÷uds ainsi que la durée de vie du réseau dans sa globalité. Nous avons tout d'abord
commencé par présenter les caractéristiques générales des réseaux ad hoc. Ensuite, nous
avons présenté les principales fonctionnalités de la couche MAC 802.11 en mettant l'accent
sur les mécanismes d'accès au support physique et sa relation avec la consommation
d'énergie.

La gestion de la consommation d'énergie est l'une des fonctions les plus complexes
dans un réseau ad hoc. En eet, un réseau ad hoc se présente comme un système dis-
tribué d'entités mobiles interconnectées par une technologie sans l formant un réseau
temporaire sans l'aide de toute infrastructure préexistante ou administration centralisée.
Typiquement, ces n÷uds fonctionnent avec des batteries dont la capacité est limitée. Ils
sont aussi déployés dans des endroits où il n'y a pas d'infrastructures, sans assistance,
et doivent alors être capable de s'auto-organiser. Du coup, Les performances d'un tel ré-
seau deviennent étroitement liées á son ecacité en terme de conservation de l'énergie
pour maximiser sa durée de vie. Pour étendre l'autonomie énergétique, seules deux mé-
thodes complémentaires existent : augmenter la quantité d'énergie embarquée et diminuer
la consommation du système.

Par la suite, nous avons évoqué les principales sources de consommation d'énergie dans
les réseaux ad hoc. Nous avons remarqué que la proportion la plus élevée de cette énergie
consommée par les interfaces réseaux sans l est due majoritairement au protocole d'accès
MAC supporté par la norme. En outre, nous avons remarqué que l'énergie consommée
pour garantir la réception et l'écoute est équivalente à celle requise pour la transmission
94

d'un paquet pour le protocole d'accès CSMA/CA. De ce fait, la transmission radio ainsi
que l'écoute du canal radio auquel opère le protocole d'accès représentent les sources
primaires de la perte d'énergie. An d'optimiser la consommation d'énergie, nous devons
opérer au niveau de ce protocole dans le but de l'adapter pour optimiser la consommation
d'énergie et ce dans le cas d'une optimisation locale de la station et globale du réseau en
entier.

Ensuite, nous avons abordé un concept important pour la suite de notre travail sur la
gestion de la consommation d'énergie qu'est le support de la diérenciation de service, un
mécanisme qui donne un service préférentiel aux applications et aux données appartenant
à des usagers ayant des priorités élevées.

Nous avons présenté, ensuite, notre modèle analytique de consommation d'énergie


pour les réseaux ad hoc où opère un mécanisme de diérenciation de service spécique à
chaque n÷ud. Ce modèle s'applique au niveau de la sous couche MAC et permet ainsi de
calculer l'énergie moyenne consommé par n÷ud.

Nous avons évalué ce modèle analytique en réalisant un certain nombre de simulations


qui nous ont permis de le valider. On remarque bien qu'entre les diérentes classes de
priorités dénies, la classe la plus prioritaire prend le dessus par rapport aux autres
catégories d'accès. Elle présente la durée de vie la plus importante et ceci pour tout
nombre de tracs présents. La classe de priorité AC0, la moins prioritaire, se voit alors
aectée une durée de vie moindre que toutes les autres classes. Ceci s'explique par un
gain d'énergie consommée au niveau de la sous couche MAC pour les n÷uds les plus
prioritaires.

Pour étudier plus amplement l'impact de la diérenciation de service sur la durée de


vie des n÷uds et du réseau, nous avons représenté cette même durée de vie en faisant
varier quelques paramètres : la taille des paquets transmis, le nombre de n÷uds par
catégorie d'accès et enn le modèle de propagation. Nous avons mis en évidence deux
environnement diérents : indoor et outdoor. En comparant les résultats pour les deux
cas, nous avons remarqué que les conditions peuvent s'avérer meilleures pour un réseau
plus petit (< 20nuds) en indoor plutôt qu'en outdoor. La raison est que pour un nombre
non important de n÷uds dans le réseau les facteurs agissant sur la diminution de la durée
de vie sont d'abord l'eet de propagation et en second lieu les collisions. Le rôle s'inverse
au delà d'un seuil sur le nombre de n÷uds. En eet, contrairement au premier fait observé
les modèles de propagation pour le outdoor prennent en partie le dessus et on remarque
la détérioration des modèles relatifs à l'indoor.

L'objectif de cette étude était de comprendre les diérents paramètres régissant la


diérenciation de service et son inuence sur la consommation d'énergie par n÷ud. Nous
avons pris en considération ce résultat et nous avons proposé une nouvelle approche pour
l'optimisation de l'énergie consommée au niveau de la sous couche MAC.

Notre idée est de prendre en considération ce résultat pour présenter un nouveau


mécanisme inter-couche basé sur la priorité d'accès au medium partage en fonction du
voisinage. En eet, un n÷ud qui possède beaucoup de voisins possède, généralement,
95

Fig. 6.1  Exemple de réseau de capteurs

une charge de relayage plus importante que les autres n÷uds. Elle se traduit par une
consommation accrue de l'énergie au niveau du n÷ud. Nous avons eu l'idée d'aecter la
priorité la plus haute aux n÷uds les plus sollicités pour compenser l'énergie de relayage
gaspillée par ces n÷uds. Nous protons aussi au maximum de ces n÷uds avant qu'ils
changent de position.

Les résultats de nos applications sont assez prometteuses et montrent un gain allant
jusqu'à 82% de la durée de vie du réseau et ce en cas d'application de notre mécanisme
d'accès sélectif. Même en présence d'aectation de priorité aléatoire, nous observons un
gain moyen de la durée de vie variant de 35% à 59%.

Perspectives
Les réseaux de capteurs (Sensor Networks) [16] sont des réseaux sans infrastructure
xe, qui doivent pouvoir être déployés de façon rapide, par exemple, dans des zones
sensibles. Leur but est par exemple de surveiller une zone, de prendre régulièrement des
mesures et de faire remonter des alarmes vers certains n÷uds déployés qui sont en mesure
de relayer l'information à grande échelle. Dans de tels endroits, des entités mobiles équipées
de capteurs et d'un émetteur - récepteur radio peuvent communiquer en réalisant un réseau
ad hoc (Figure 6.1). Chaque n÷ud agit comme n÷ud terminal et éventuellement aussi
comme passerelle an de relayer des messages quand les destinataires ne sont pas à portée
radio des émetteurs. La contrainte forte sur ces capteurs qui sont petits et donc limités
en capacité (mémoire / CPU / énergie) est de maximiser la durée de vie du réseau, i.e.,
le processus de surveillance qu'ils sont censé mettre en ÷uvre.

Parmi les applications où interviennent de tels réseaux, citons les applications envi-
ronnementales comme la prévention de catastrophes et la surveillance de forêts ou des
applications médicales comme l'acquisition de signaux physiologiques captés sur dié-
rentes parties du corps de patients. Dans ces applications, les n÷uds sont en général
mobiles et doivent être alimentés par batterie à ressource limitée et précieuse.
96

La problématique de l'autonomie énergétique au niveau de tel réseaux est donc cen-


trale. En plus, vu que le réseau compose avec des ressources (énergie, bande passante
et puissance de traitement) qui changent de manière dynamique, les n÷uds de capteurs
doivent être conçus de façon à permettre leur mise en ÷uvre aléatoire sur des terrains
inaccessibles ou lors d'opérations de secours d'urgence.

En relation avec notre présent travail sur les réseaux ad hoc, le Tableau 6.1 résume les
principales diérences avec le réseau de capteurs.

Sensors Ad Hoc

1. N÷uds collaborent pour remplir un objectif 1. Chaque n÷ud possède son propre objectif

2. Folt de données " Many to one " 2. Flot " Any to Any "

3. Très grand nombre de n÷uds n'ayant pas tous un ID 3. Chaque n÷ud doit avoir un identiant unique

4. Utilisation du broadcast 4. Communication point-a-point

Tab. 6.1  Comparaison Capteurs/Ad hoc.


97

Bibliographie

[1] G. Ferrari, O. K. Tonguz, "Performance of ad hoc wireless networks with Aloha and
PR-CSMA MAC protocol", Global Telecommunications Conference, GLOBECOM,
IEEE Volume 5, 1-5 December 2003.
[2] S. Jiang, N. Vaidya and W. Zhao, "Preventing Trac Analysis in Packet Ra-
dio Networks", In Proceedings of DARPA nformation Survivability Conference and
Exposition DISCEX2001,Anaheim USA. Mai 2001.
[3] I. Chlamtac, M. Conti, J. Liu, "Mobile ad hoc networking : imperatives and chal-
lenges", Elsevier Ad Hoc Networks Journal, vol 1, no. 1, July 2003.
[4] IEEE LAN MAN STANDARDS, "Part 11 : Wireless medium access control (MAC)
and physical layer (PHY) Specications". IEEE standard, ANSI/IEEE Std 802.11,
1999.
[5] M. Stemm and R. H. Katz. "Measuring and reducing energy consumption of network
interfaces in hand-held devices". IEICE Transactions on Communications, 1997.
[6] L. M. Feeney and M. Nilsson, "Investigating the Energy Consumption of a Wireless
Network Interface in an Ad Hoc Networking Environment", Proceedings of IEEE
Infocom, Avril 2001.
[7] IEEE 802.11 WG, "Draft Supplement to STANDARD FOR Telecommunications and
Information Exchange Between Systems-LAN/MAN Specic Requirements - Part
11 : Wireless Medium Access Control (MAC) and Physical Layer (PHY) specica-
tions : Medium Access Control (MAC) Enhancement for Quality of Service (QoS)",
IEEE 802.11e/Draft 3.0, May 2002.
[8] IETF MANET Working Group Information, http ://www.ietf.org/html.charters/manet-
charter.html
[9] J. Freebersyser and B. Leiner, "A DoD perspective on mobile ad hoc networks",
Ad Hoc Networking , pp. 29-51, Addison Wesley 2001
[10] A. Chandra, V. Gummalla and J. O. Limb," Wireless medium access control
protocol", IEEE Communications surveys, http ://www.comsoc.org/pubs/surveys,
second quarter 2000.
[11] Y. C. Tay and K. C. Chua, "A capacity analysis for the IEEE 802.11 MAC protocol",
Wireless networks, 2001.
98

[12] G. Bianchi, "Throughput evaluation of the IEEE 802.11 distributed coordination


function", Proceedings of the 5th workshop on mobile multimedia communications (
MoMuc), October 1998.
[13] G. Binachi, "Performance analysis of the IEEE 802.11 distributed coordination func-
tion", IEEE journal on selected areas in communications, vol. 18, 2000.
[14] F. Albinali and C. Gniady, "CPM : Context-Aware Power Management in WLANs",
Proceedings of The Twenty-First National Conference on Articial Intelligence and
the Eighteenth Innovative Applications of Articial Intelligence Conference, Boston
USA, Juillet 2006.
[15] Y. C. Tseng, C. S. Hsu, and T.Y. Hsieh," Power-Saving Protocols for IEEE 802.11-
Based Multi-Hop Ad Hoc Networks",IEEE INFOCOM, 2002.
[16] R. Shorey, A. Ananda, M. Choon Chan and W. Tsang Ooi, "Mobile, Wireless, and
Sensor Networks : Technology, Applications, and Future Directions", Wiley-IEEE
Press, April 2006.
[17] M. S. Gast, "802.11 Réseaux sans l - Création et administration de réseaux sans
l", Edition française - 2ème édition, Décembre 2005.
[18] S. Basagni, M. Conti, S. Giordano and I. Stojmenovic, " Mobile Ad Hoc Networking",
IEEE PRESS, A JOHN WILEY and SONS , 2004.
[19] M. Malaki, K. Dantu and M. Pedram, "Lifetime Prediction Routing in Mobile Ad
HocNetworks", IEEE Wireless Communication and Networking Con, Mars 2003.
[20] Y. Cui, K.C Chan, H. Peng, G. Liu, K. Mc.Ilwrath, X.F. Zhang, R. Huggins, "High-
performance lithium battery anodes using silicon nanowires", Nature Nanotechnology,
2008.
[21] J. P. Ebert, B. Burns and A. Wolisz. "A trace-based approach for determining the
energy consumption of a WLAN network interface", Proceedings of European Wire-
less, pp. 230-236, February 2002.
[22] B. Chen, K. Jamieson, H. Balakrishna, and Robert Morris, "Span : An energy-ecient
coordination algorithm for topology maintenance in ad hoc wireless networks", ACM
Wireless Networks Journal, September 2002.
[23] R. Kravets, K. Calvert and Karsten Schwan," Power-aware communication for mo-
bile computers", Proceedings of Sixth International Workshop on Mobile Multimedia
Communications (MoMuc-6), 1999.
[24] S. M. Senouci, "Applications de techniques d'apprentissage dans les réseaux Mobiles",
thèse de doctorat, Université de Pierre et Marie Curie, Octobre 2003.
[25] C. Suh, K. Young-Bae and K. Jai-Hoon, " Enhanced Power Saving for IEEE 802.11
WLAN with Dynamic Slot Allocation", LNCS, Vol. 3794, pp. 466-477, 2005.
[26] J. M. Rabaey, M. J. Ammer, J.L. da Silva, D. Patel and S. Roundy, " PicoRadio
Supports for Ad Hoc Ultra-Low Power Wireless Networking ", confeerence IEEE
Computer, Juillet 2000.
[27] J. R. Lorch and A. J. Smith, " Software Strategies for Portable Computer Energy
Management", IEEE Personal Communications Magazine, June 1998.
99

[28] A. Belghith, W. Akkari, " Neighborhood aware power saving mechanisms for ad hoc
networks", Local Computer Networks, LCN 2008, 33rd IEEE Conference on , october
2008.
[29] W. Akkari, A. Belghith, " Enhancing Power Saving Mechanisms for Ad hoc Networks
", : Wireless Communications and Mobile Computing Conference, August 2008.
[30] M. Krunz, A. Muqattash and L. Sung-Ju, "Transmission power control in wireless
ad hoc networks : challenges, solutions and open issues", IEEE Network Volume 18,
Issue 5, Sept-Oct 2004.
[31] P. Gupta and P.R. Kumar ," The capacity of wireless networks", IEEE transactions
sur l'informatique théorique, 2000.
[32] W.H. Yuen, " On energy eciency and network connectivity of mobile ad hoc net-
works ,IEEE ICDCS 2003, Rhode Island, Mai 2003.
[33] S. Narayanaswamy, V. Kawadia, R.S. Sreenivas and R. Kumar, " Power control in ad
hoc networks : theory, architecture, algorithm and implementation of the COMPOW
protocol", European Wireless Conference, 2002.
[34] M. Burkhart, P. von Rickenbach, R. Wattenhofer and A. Zollinger, "Does topology
control reduce interference ?", 5me symposium international ACM sur les réseaux
mobiles ad hoc, Japan , 2004.
[35] R. Ramanathan and R. Rosales-Hain, "Topology control of multihop wireless net-
works using transmit power adjustment", Proceedings of INFOCOM, 2000.
[36] S. Meguerdichian, F. Koushanfar, M. Potkonjak and M.B. Srivastava, " Coverage
problems in wireless ad hoc sensor networks", 2nd conférence internationale ACM
sur les réseaux sans l et de sensors et leurs applications, San Diego, USA, 2003.
[37] S. Agarwal, S. V. Krishnamurthy, R.K. Katz and S.K. Dao, "Distributed Power
Control in Ad-Hoc Wireless Networks", Proc. IEEE PIMRC'01, 2001.
[38] S. XU and T. Saadawi, " Does the IEEE 802.11 MAC Protocol Work Well in Multihop
Wireless Ad Hoc Networks", IEEE Communications Magazine, 2001.
[39] S. Singh and C. S. Raghvendra, "PAMAS-Power Aware Multi-Access protocol for
Signaling for Adhoc", ACM Computer Communication Review, 2000.
[40] H. Kyung, S. Seo, P. Sin-Chong, "Performance evaluation of enhanced distributed
contention control (EDCC) mechanism in IEEE 802.11e", IEEE International Confe-
rence on Communication, Volume 5, May 2005.
[41] H. He, " A Novel EDCC Algorithm for IEEE 802.11 Protocol", SCIENCE PRESS,
vol 28, 2005.
[42] A. EL Bourichi and H. Yasuura, "Low Power Design for IEEE 802.11 WLAN at the
Medium Access Control Layer", 2005.
[43] J. C. Cano et P. Manzoni. "A performance comparison of energy consumption for
mobile ad hoc routing protocols". In Proceeding of IEEE MASCOTS, 2000.
[44] N. Poojary, S. Krishnamurthy and S. Dao, " Medium access control in a network of
ad hoc mobile nodes with heterogeneous power capabilities", Proceedings of IEEE
ICC, vol 3, June 2001.
100

[45] T. Fujii, M. Takahashi, M. Bandai, T. Udagawa and I. Sasase "An Ecient MAC
Protocol in Wireless Ad-Hoc Networks with Heterogeneous Power Nodes", IEEE
Confrence, 2002.
[46] W. Ye, J. Heidemann and D. Estrin, " An Energy-Ecient MAC Protocol for Wireless
Sensor Networks", In Proceeding of IEEE INFOCOM , Juin 2002.
[47] T. Van Dam and K. Langendoen, " An Adaptive Energy-Ecient MAC Protocol for
Wireless Sensor Networks", conférence ACM SenSys 2003, November 2003.
[48] A. Zanella and F. De Pellegrini, "Mathematical Analysis of IEEE 802.11 Energy
Eciency", Proceeding of WPMC'04, September 2004.
[49] H. Zhao, S. Uebayashi, "A hybrid ARQ scheme for DS-CDMA mobile data commu-
nications", 5th IEEE International Conference, 1996.
[50] D. B. Johnson, D.A. Maltz, J. Broch, " DSR : The Dynamic Source
Routing Protocol for Multi-Hop Wireless Ad Hoc Networks", 2001
(http ://monarch.cs.rice.edu/monarch-papers/dsr-chapter00.pdf)
[51] W. Yu and J. Lee, " DSR-based Energy-aware Routing Protocols in Ad Hoc net-
works", IEEE Conference, 2004.
[52] A. A. Hanbali, P. Nain, and E. Altman. "Performance evaluation of packet relaying
in ad hoc network". Technical Report RR-5860, INRIA, Mar. 2006.
[53] A. Sankar and Z. Liu, "Maximum Lifetime Routing in Wireless Ad-hoc Networks",
INFOCOM, 2004.
[54] Y. Xu, S. Bien, Y. Mori, J. Heidemann, and D. Estrin. " Topology Control Protocols
to Conserve Energy in Wireless Ad Hoc Networks", CENS Technical Report, January
2003.
[55] Q. Zhang, D. P. Agrawal, " Analysis of leveled probabilistic routing in mobile ad hoc
networks", IEEE International Conference on Communication, July 2004.
[56] M. Lee, " Energy-ecient Routing protocols in Wireless Adhoc networks", Research
Project Report, Departement City College of City University of New York, 2001.
[57] H. Idoudi, W. Akkari, A. Belghith, M. Molnar, " Alternance synchrone pour la conser-
vation d'énergie dans les réseaux ad hoc ", Rapport de recherche INRIA N° 6045.
Décembre 2006
[58] S. Singh, M. Woo, and C. S. Raghavendra, " Power Aware Routing in mobile Ad hoc
networks", proceeding of mobicom'98, Dallas, Texas, octobre 1998.
[59] C. K. Toh, " Maximum Battery Life Routing to Support Ubiquitous Mobile Compu-
ting in Wireless Ad Hoc Networks", IEEE Communications Magazine, Juin 2001.
[60] M. Zorzi and R. R. Rao, "Is TCP energy ecient ?", In Proc.of IEEE MOMUC,
1999.
[61] M. Zorzi and R. Rao, "Energy Eciency of TCP in a Local Wireless Environment",
ACM/Kluwer Mobile Networks and Applications (MONET), 2001.
[62] H. Singh and S. Singh, "Energy consumption of TCP reno, newreno, and SACK in
multihop networks", In Proceeding of ACM SIGMETRICS, 2002.
101

[63] M. Zorzi and R. R. Rao, "Energy constrained error control for wireless channels",
IEEE personal Communication Magazine, 1997.
[64] R. J. Lorch and A. J. Smith, " Software Strategies for Portable Computer Energy
Management", IEEE Personal Communications Magazine, June 1998.
[65] V. Kawadia and P. R. Kumar, " A cautionary perspective on cross layer design",
IEEE Wireless communication Magazine, July 2003.
[66] V. shah, S. Krishnamurthy, " Handling Asymmetry in Power Heterogenous Ad Hoc
Networks : A Cross Layer Appraoch", Proceedings of the 25th IEEE International
Conference on Distributed Computing Systems ICDCS, Washington, 2005.
[67] B. Machandran, S. Shanmugavel, " Performance Analysis of Cross Layer AODV for
Heterogeneously Powered Ad-hoc Networks", Wireless and Optical communications
Networks, Chennai, 2006.
[68] H. Weilan, K. B. Letaief, " Cross-layer scheduling and power control combined with
adaptive modulation for wireless ad hoc networks", Global Telecommunications
Conference, March 2007.
[69] Q. Ni and al., "QoS issues and enhancements for IEEE 802.11 Wireless LAN", INRIA
Research Report No. 4612, Nov. 2002.
[70] Z. J. Haas and al., "Guest Editorial", IEEE JSAC, Special Issue on Wireless Net-
works, vol. 17, no. 8, Aug. 1999.
[71] Q. Ni, " Performance analysis and enhancements for IEEE802.11e wireless networks",
IEEE Network, 2005.
[72] Q. Ni, L. Romdhani and T. Turletti, " A survey of QoS enhancements for IEEE
802.11 wireless LAN", Journal of wireless communications and mobile computing,
Vol. 4, No. 5, pp. 547-566, 2004.
[73] M. Gast, "802.11 Wireless networks : the denitive guide", O'reilly, 2002.
[74] H. Zhu, M. Li, I. Chlamtac and B. Prabhakaran, " A survey of quality of service in
IEEE 802.11 networks", IEEE Wireless Communications, special issue mobility and
ressource management, Vol. 11, No. 4, 2004.
[75] C. R. Lin and M. Gerla, " MACA/PR : An Asynchronous Multimedia Multihop
Wireless Network", Proceedings of IEEE INFOCOM '97, Apr. 1997.
[76] I. Aad and C. Castelluccia, " Dierentiation mechanisms for IEEE 802.11", IEEE
Infocom 2001, Alaska, April 2001.
[77] N. H. Vaidya, P. Bahl, and S. Gupta, "Distributed fair scheduling in wireless LAN",
Sixth Annual International Conference on Mobile Computing and Networking, Bos-
ton, USA August 2000
[78] J. L. Sobrinho, A. S. Krishnakunar, " Quality-Of-Service in Ad hoc Carrier sense
multiple access Wireless networks", IEEE Journal on Selected Preas in Communi-
cations, August 1999.
[79] I. Aad and C. Castelluccia, " Remarks on per-ow dierentiation in IEEE 802.11",
European Wireless 2002, Florence, Italy, February 2002.
102

[80] S. Mangold, S. Choi, G. R. Hiertz, O. Klein et B. Walke, " Analysis of IEEE 802.11e
for QoS support in wireless LANs", IEEE Wireless Communications, Vol. 10, 2003.
[81] IEEE Standard for Information technology - Telecommunications and information
exchange between systems - Local and metropolitan area networks - Specic requi-
rements Part 11 : Wireless LAN Medium Access Control (MAC) and Physical Layer
(PHY) specications : Amendment 8 : Medium Access Control (MAC) Quality of
Service Enhancements.
[82] 802.1D-1998, Part 3 : Media Access Control (MAC) Bridges, ANSI/IEEE Std.
802.1D.
[83] Y. L Kuo, C. H. Lu, E. H. K. Wu, G. H. Chen and Y. H. Tseng, " Performance analysis
of the enhanced distributed coordination function in the IEEE 802.11e", IEEE 58th
Vehicular Technology Conference, VTC 2003-Fall, Vol. 5, Pages : 34883492, 2003.
[84] G. Bianchi, "Performance Analysis of the IEEE 802.11 Distributed Coordination
Function", IEEE Journal on Selected Areas in Communications, vol.18, March 2000.
[85] Y. Hayoung, K. JongWon, "Saturation Throughput Analysis of IEEE802.11e
Contention-Based Channel Access", IEEE Proceedings of 2005 International Sym-
posium on Intelligent Signal Processing and Communication Systems, Hong Kong,
December 2005.
[86] O. Bouattay, T. Chahed, M. Frikha, S. Tabbane, "Optimizing Energy Consumption
in Ad Hoc networks", Premier Workshop GET sur les réseaux Spontanés, Renne,
Novembre 2006.
[87] O. Bouattay, T. Chahed, M. Frikha, S. Tabbane, "Modeling and analysis of energy
consumption in EEE802.11e networks", 4th European Conference on Universal Mul-
tiservice Networks ECUMN, Toulouse, February 2007.
[88] Package of IEEE 802.11e's EDCF/EDCA mode. Available on
http ://sourceforge.net/projects/ieee80211e-ns2/
[89] Model of IEEE 802.11e's EDCF/EDCA mode for the network simulator ns-2. Avai-
lable on http ://www.tkn.tuberlin.de/research/802.11e-ns2/
[90] M. Abdelmoumen, O. Bouattay, M. Frikha, " Energy Consumption in Wireless
Networks with Services Dierentiation : Implementation and Simulation", IEEE
VTC2007-Spring, Ireland, April 2007.
[91] O. Bouattay, T. Chahed, M. Frikha, S. Tabbane, "Improving energy consumption in
ad hoc networks through prioritization", IEEE 66th Vehicular Technology Confe-
rence, Baltimore, USA, October 2007.
[92] V. Rajendran, K. Obraczka, J.J. Garcia-Luna-Aceves, "Energy-Ecient, Collision-
Free Medium Access Control for Wireless Sensor Networks", Proceedings of the First
International Conference on Embedded Networked Sensor Systems, (SensSys'03),
2003.
[93] N. A. Tabbane, "Modèles Stochastiques pour la Prévision de la Qualité de Service
dans les Réseaux Ad Hoc Multimédia", thèse de doctorat, Sup'Com & Université de
Versailles Saint-Quentin-en-Yvelines, Juillet 2006.
103

[94] M. Jiang, J. Li, and Y. C. Tay, " Cluster based routing protocol (CBRP)". Internet
draft version 01, IETF, July 1999.
[95] I. Cardei, S. Varadarajan, A. Pavan, L. Graba, M. Cardei, and M. Min, " Resource
management for ad hoc wireless networks with cluster organization", Cluster Com-
puting, January 2004.
[96] T. C. Hou and T. J. Tsai, " An access-based clustering protocol for multihop wireless
ad hoc networks", IEEE Journal on Selected Areas in Commnications, Vol. 19, July
2001.
[97] S. Ghiasi, A. Srivastava, X. Yang and M. Sarrfzadeh, " Optimal Energy Aware Clus-
tering in Sensors Netwoks", Sensors Magazine, 2002.
[98] M. Gerla and J. Tai, " Multicluster, mobile and multimedia radio networks", ACM
Blatzer Journal of Wireless Networks, Vol 1,
[99] P. Basu, N. khan, D. Thomas and C. Little, " A Mobility based Metric for clustering
in Mobile Ad Hoc Networks", Internatonal Conference on Distributed Computing
Systems Workshop (ICDCSW'01), 2001.
[100] A. Siddiqui, R. Prakash, " Eect of availability factor threshold and clustering gap
on performance of clustering mechanisms for multi-cluster mobile ad hoc networks",
IEEE International Conference on Communication, ICC, 2002.
[101] G. Chen, F. Nocetti, J. S. Conzalez and I. Stojmenovic, "Connectivity-based k-
Hop clustering in wireless networks", In Proc. Of the 35th Hawaii International
Conference on System Sciences, Janvier 2002.
[102] A. Amis, R. Prakash, T. Vuong, D. Huong, " Max-Min D-cluster formation in wi-
reless ad hoc networks", Proceeding Of IEEE infocom, mars 2000.
[103] S. Sivavakeesar, G. Pavlou, C. Bohoris and A. Liotta, " Ective Management
through Prediction-Based-Clustering Approach in the Next-Generation Ad Hoc Net-
works", Proc. Of the IEEE International Conference on Communications (ICC'04),
France, 2004.
104
105

Liste de mes Publications

Conférences
1- O. Bouattay, T. Chahed, M. Frikha, S. Tabbane, "Optimizing Energy Consump-
tion in Ad Hoc networks," Premier Workshop GET sur les réseaux Spontanés, Renne,
Novembre 2006.

2- O. Bouattay, T. Chahed, M. Frikha, S. Tabbane, "Modeling and analysis of


energy consumption in IEEE802.11e networks", 4th European Conference on Uni-
versal Multiservice Networks ECUMN, Toulouse, February 2007.

3- M. Abdelmoumen, O. Bouattay, M. Frikha, " Energy Consumption in Wire-


less Networks with Services Dierentiation : Implementation and Simulation",
IEEE VTC2007-Spring, Ireland, April 2007.

4- O. Bouattay, T. Chahed, M. Frikha, S. Tabbane, "Improving energy consump-


tion in ad hoc networks through prioritization", IEEE 66th Vehicular Technology
Conference, Baltimore, USA, October 2007.

Journal soumis
O. Bouattay, T. Chahed, M. Frikha, S. Tabbane, "Prioritization at MAC access
to increase lifetime of ad hoc networks", submitted at Springer Telecommunication
System Journal.
106

Vous aimerez peut-être aussi