Vous êtes sur la page 1sur 36

Introduction

P lein d’avenir et très prometteur, tel es t le vis age des rés eaux ad hoc
aujourd’hui qui s e dis tinguent des autres formes de rés eaux s ans fil par une
abs ence totale d’infras tructure fixe. U n nombre quelconque de mobiles
équipés de cartes d’interface radio et des couches protocolair es adéquates
suffis ent pour former un rés eau ad-hoc. Les débits attein ts aujourd’hui sur
ce type de rés eaux rendent poss ible le trans fert de flux multimédi a soumis
à de fortes contraintes . D ès lors , il es t légit ime de chercher à fournir aux
applications des garanties sur le délai, s ur les taux de pertes ou encore s ur
la bande pass ante. Les solutions utilis ées dans le monde filaire sont
inadaptées aux contraint es liées à l’util is ation du médium radio et à
l’abs ence d’adminis tration centralis ée.

En effet, les ondes hertziennes s e propagent moins vite que la lumière. En


cons équence, les rés eaux radio s ont moins rapides que les rés eaux filaires
utilis ant des fibres optiques . D e plus , la propagation des ondes radio es t
très s ens ible à l’environnement. U ne onde radio peut être fortement
atténuée par un obs tacle. Le médium radio es t donc moins fiable que s on
homologue filaire. P lus ieurs s ignaux peuvent auss i entrer en collis ion et il
n’es t pas poss ible d’is oler des parties du rés eau au moyen de
commutateurs . En cons équence, la bande pas s ante es t partagée entre les
mobiles proches les uns des autres . Le fonctionnem ent ad-hoc ajoute
d’autres contraintes à celles - ci. D’une part, l’abs ence totale
d’adminis tration centralis ée rend complexe et coûteus e l’utilis at ion des
techniques de multipl exage des communic ations utilis ées dans les rés eaux
avec point d’accès (FD M A , TDM A etc.). En effet, pour utilis er ce type de
mécanis mes , il faut concevoir un protocole dis tribué permettant aux noeuds
de s e partager les fréquences , les codes ou les unités de temps . D ’autre
part, la mobilité des noeuds d’un tel rés eau provoque des changements
fréquents de topologie. Le routage dans de tels rés eaux étant aus s i
dis tribué, les routeurs s ont les mobiles et un trans fert de données peut
ais ément être interrompu par le départ d’un noeud s ur la route utilis ée.

La plupart des algorithmes de qualité de s ervice du monde filaire repos ent


sur la connais s ance d’informations précis es sur l’état du rés eau,
cons idèrent que les pertes s ont faibles , que la bande pas s ante dis ponible es t
large ou encore que la topologie du rés eau es t globalemen t s table.

La Q oS es t maintenant un point important dans tous les rés eaux


(informatique et Telecom). Il s emble intéres s ant d' étudier les moyens
permettant d' introduire cette notion dans les rés eaux ad hoc et en
particulier dans les rés eaux ad hoc mobiles (M AN ETs ) où les terminaux
sont en mouvement les uns par rapport aux autres . En effet, les applica tions
multimed ia que l' on connait aujourd' hui néces s itent des garanties de Q oS
plus ou moins importantes qu' il s erait bon de pouvoir propos er dans ce type
de rés eaux encore expériment aux.
Figure 1: Réseaux Ad Hoc - source O.Bamouh / H.Lalaoui

I- Présentation succinte des réseaux ad-hoc (MANETs)

On peut définir un rés eau ad hoc mobile (MA N ET : M obile A d hoc


N ETw ork) comme étant un s ys tème autonome dynamique compos é de
noeuds mobiles interconnectés via des connexions sans fil (typiquement en
WiF i) s ans l’utilis at ion d’une infras tructure fixe de type point d' accès par
exemple et s ans adminis tra tion centralis ée.
Figure 2:Le modèle sans infrastructure des réseaux mobiles- source O.Bamouh / H.Lalaoui

Le modèle de réseau sans infrastructure préexistante ne comporte pas l'entité «site fixe ».
Tous les sites du réseau sont mobiles et communiquent d'une manière directe en utilisant leurs
interfaces de communication sans fil. L'absence de l'infrastructure ou d'un réseau filaire
composé des stations de base, oblige les unités mobiles (UM) à se comporter comme des
routeurs qui participent à la découverte et la maintenance des chemins pour les autres hôtes du
réseau. La communication des nœuds du réseau ce fait directement, à la manière d'un réseau
peer-to-peer. Les noeuds sont donc libres de se déplacer aléatoirement et s’organisent
arbitrairement. Cependant, la route entre un noeud source et un noeud destination peut
impliquer plusieurs sauts sans fil, d’où l’appellation des réseaux sans fil multi-sauts. Un
noeud mobile peut donc communiquer directement avec un autre noeud s’il est dans sa portée
de transmission. Au delà de cette portée, les noeuds intermédiaires jouent le rôle de routeurs
(relayeurs) pour relayer les messages saut par saut.
Dans l’exemple suivant le nœud a envoie un flux de données au nœud g. Pour cela, les
données sont acheminées par les nœuds b et e. Après le mouvement, nous remarquons que le
routage des données devient plus complexe puisque le flux parcours non seulement les nœuds
b et e mais aussi les nœuds d, c et f. Le réseau est donc dynamique et imprévisible ce qui fait
que la déconnexion des unités est généralement très fréquente. La figure suivante est un
exemple de réseau adhoc. Chaque lien indique qu'une liaison directe existe entre les
L’avantage des M AN ETs c’es t qu’elles introduis ent plus de dynamis me que
dans les rés eaux ad hoc s imples , puis que les nœ uds s ont mobiles les uns par
rapport aux autres . Imaginant une application milita ire où les rés eaux ad
hoc mobile s eraientt cons titué de véhicules milit aires en mouvement,
déployés sur un champ de bataille et communiquan t tous les uns avec les
autres , créant ains i s pontanément une infras tructure de communicat ion
quelque s oit leur pos ition.
Initialem ent ce type de rés eaux, propos é à des fins mili taires , était des tiné
à permettre le déploiement rapide de sys tèmes de communica tion dans des
zones difficiles (champs de batail le ou catas trophe naturelle par exemple).
Aujourd' hui, ces rés eaux sont en pas s e de prendre bien plus d' importanc e
puis que les opérateurs commencen t à imaginer des offres commercial es à
l' intention des civils .
Le développement des bes oins de nombreus es applications en terme de Q oS
a amené les chercheurs à tenter d' introduire ces mécanis m es dans les
MA N ETs .

1.1 Domaines d' application des rés eaux ad hoc

Les communica tions et les opérations dans le domaine mili taire demeurent  
les   toutes premières applicat ions des rés eaux ad hoc. Cependant, avec
l’avancemen t des recherches dans le domaine des rés eaux et l’émergence
des technologies s ans fil (ex : Bluetooth, IEEE 802.11 et H iperlan) ;
d’autres applica tions civiles s ont apparues .
On dis tingue :
 Les services d’urgence   : opération de recherche et de s ecours des
pers onnes , tremblemen t de terre, feux, inondation, dans le but de
remplacer l’infras tructur e filaire,

 Le travail collaboratif  et les communicat ions dans des entrepris es ou


bâtiments  dans le cadre d’une réunion ou d’une conférence par exemple.

 Home netw ork  : partage d’applicat ions et communications des


équipements mobiles .

 Applicat ions commercia les  : pour un paiement électron ique dis tant
(taxi) ou pour ’accès mobile à l’Internet, où s ervice de guide en
fonction de la pos ition de      l’utilis a teur.

 R és eaux de s ens eurs  : pour des applicat ions environnementa les


(climat, activité de la terre, s uivi des mouvements des animaux, …
etc.) ou domes tiques (contrôle des équipements à dis tance).

 R és eaux en mouvement  : informatique embarquée et véhicules


communicants .

 R és eaux M es h  : c’es t une technologie émergente qui permet d’étendre


la portée d’un rés eau ou de le dens ifier

1.2 P roblémes s pécifiques pos és par les M AN ETs

Les M AN ETs pos ent des problèmes s pécifiques ayant une influence
importante sur les solutions à mettre en place pour as s urer la Q oS . Les
problèmes principaux sont la mobili té de nœ uds , l' incerti tude s ur les liens
et la limita tion des res s ources des terminaux.

 Mobilit é des nœ uds

La mobilité des nœ uds provoque des changements fréquents /dynamiques


dans la topologie du rés eau. D es routes peuvent s e créer et dis paraître très
souvent. Ce déplacem ent a naturellem ent un impact s ur la morphologie du
rés eau et peut modifier le comportement du canal de communica tion.
A joutons à cela la nature des communic ations (longues et s ynchrones ,
courtes et as ynchrones ,. .).Ces modificat ions doivent être pris es en compte
le plus rapidemen t poss ible par le protocole de routage afin de  :

o maintenir une vis ion correcte de la topologie par les nœ uds


o supporter la maintenance
o prendre en charge en un temps limit é la recons truction des
routes tout en minimis ant l’overhead généré par les mes s ages
de contrôle.

La réactivit é du dis pos itif mis en place face à ces modifica tions a un
impact direct s ur la qualité du s ervice propos é à l' utilis ateur. P récis ons tout
de même que les nœ uds du rés eau ne doivent pas trop bouger pour pouvoir
permettre une utilis ation rais onnable du rés eau. P ar trop, on entend as s ez
lentement pour lais s er le temps à l' information d' un changement de
topologie d' être diffus ée s ur le rés eau avant qu' une autre modification
mettant en jeu ces mêmes nœ uds ne se produis e.
On voit ici que la maintenanc e des tables de routage es t un travail
particulièr emen t difficile dans ce type de rés eaux.

 L’hétérogénéi té des noeuds

Un noeud mobile peut être équipé d’une ou plus ieurs interfaces radio ayant
des capacit és de trans mis s ion variées et opérant dans des plages de
fréquences différentes . Cette hétérogénéité de capacit é peut engendrer des
liens as ymétriques dans le rés eau. D e plus , les noeuds peuvent avoir des
différences en terme de capaci té de traitemen t (CPU , mémoire), de logicie l,
de taille (petit, grand) et de mobilit é (lent, rapide). D ans ce cas , une
adaptation dynamique des protocoles s ’avère néces s aire pour s upporter de
telles s ituations .

 La taill e des rés eaux ad hoc


S ouvent de petite ou moyenne taill e (une centaine de noeuds ) ; le rés eau es t
utilis é pour étendre temporaire ment un rés eau filaire, comme pour une
conférence ou des s ituations où le déploiem ent du rés eau fixe n’es t pas
approprié (ex : catas trophes naturelles ). Cependant, quelques applications
des rés eaux ad hoc néces s itent une utilis at ion allant jus qu’à des dizaines de
milliers de noeuds , comme dans les rés eaux de sens eurs . D es problèmes liés
au pas s age à l’échelle tels que : l’adres s age, le routage, la ges tion de la
localis ation des s ens eurs et la configuration du rés eau, la s écurité, …etc,
doivent être rés olus pour une meilleure ges tion du rés eau.

 R ess ources limitées

Il es t important de rappeler que les rés eaux ad-hoc obéis s ent à des
contraintes très s trictes en terme de res s ources . Les terminaux mobiles s ont
par es s ence de petits terminaux, poss édant des res s ources limité es . La
mobilité de ces terminaux impos e une limi tat ion sur leur capacité d' énergie
qui a un impact e direct s ur le rayon de trans mis s ion. D' autre part, les débits
dis ponibles s ont inférieurs à ceux que l' on peut obs erver dans les rés eaux
filaires . C' es t une res trict ion supplémenta ire à prendre en compte dans la
mis e au point d' un mécanis me de QoS .

 L’abs ence d’une infras tructure central is ée

  C haque noeud travaille dans un environnement pair à pair dis tribué, et agit
en tant que routeur pour relayer des communicat ions , ou génère s es propres
données . La ges tion du rés eau es t ains i dis tribuée sur l’ens emble des
éléments du rés eau.

 Incertitudes s ur les liens

D ans ce type de rés eau, on n' a aucune garantie s ur le débit de chaque lien.
D e plus la puiss ance d' émis s ion des terminaux peut varier dans le temps
pour s' adapter aux res s ources énergétiques du termina l par exemple.

 La contraint e d’énergie
Les équipements mobiles dis pos ent de batteries limit ées , et dans certains
cas très limit ées tels que les P DA , et par cons équent d’une durée de
traitemen t réduite. S achant qu’une partie de l’énergie es t déjà cons ommée
par la fonctionnalit é du routage. Cela limite les s ervices et les applicat ions
supportées par chaque noeud.

D e nombreux défis sont donc à relever avant de pouvoir garantir une


qualité de service dans ces rés eaux.

II- . Solutions actuelles: Principaux modéles de QOS dans les réseaux Ad Hoc

Dans les réseaux de télécommunication, l’objectif de la qualité de service est d’atteindre un


meilleur comportement de la communication, pour que le contenu de cette dernière soit
correctement acheminé, et les ressources du réseau utilisées d’une façon optimale. La qualité
de service QoS (Quality of Service) peut être définie comme le degré de satisfaction d’un
utilisateur des services fournis par un système de communication. La QoS est définie dans
comme la capacité d’un élément du réseau (ex : routeur, noeud ou une application) de fournir
un niveau de garantie pour un acheminement des données. Le RFC 2386 caractérise la QoS
comme un ensemble de besoins à assurer par le réseau pour le transport d’un trafic d’une
source à une destination. Ces besoins peuvent être traduits en un ensemble d’attributs pré-
spécifiés et mesurables en terme de : Délai de bout en bout, Variance de délai (gigue), Bande
passante, Pertes de paquets.
Besoin du débit, gigue et délai pour le multimédia - source O.Bamouh / H.Lalaoui

Suivant le type de l’application, les besoins de QoS sont différents. Par exemple, pour les
applications temps réel, comme la voix et la vidéo, le délai de bout en bout d’un paquet doit
être limité, autrement le paquet est inutile. Les applications non temps réel, comme le transfert
de fichier ou la messagerie, quant à elles se focalisent sur la fiabilité des communications.

Besoin en délai et bande passante des applications - source O.Bamouh / H.Lalaoui

Le support de la qualité de service a été largement étudié dans les réseaux filaires. Le réseau
ATM (Asynchronous Transfert Mode) a considéré le support de la QoS pour les trafics en
plusieurs classes. Des solutions ont été proposées par l’IETF pour améliorer le réseau Internet
afin de fournir la QoS aux communications multimédia. Des mécanismes ont été fournis pour
gérer efficacement les ressources réseau (bande passante, mémoire tampons) pour répondre
aux exigences des applications. Dernièrement, avec l’émergence des services multimédia
temps réel, et les champs variés des applications des réseaux ad hoc, la qualité de service dans
les réseaux ad hoc est devenu un thème de recherche qui a suscité beaucoup d’intérêts. Dans
ce contexte, des travaux pour l’introduction des applications multimédia dans les réseaux ad
hoc ont été proposés. Cependant, il est très difficile de garantir une quelconque qualité de
service à une application temps réel dans un réseau ad hoc, car il faut prendre en considération
les spécificités de ces réseaux, à savoir : la bande passante limitée, le changement dynamique
de la topologie en fonction du temps, ainsi que le manque d’information complète sur l’état
du réseau. En outre, la communication entre les stations mobiles étant par voix radio, la
qualité du lien sans fil reste peu fiable, et susceptible à des variations suivant la configuration
et l’état du réseau. Les recherches concernant la qualité de service dans les réseaux ad hoc
sont souvent classées en quatre grandes catégories :

- Les protocoles d’accès au medium cherchent à ajouter des fonctionnalités aux


couches basses du modèle OSI afin de pouvoir offrir des garanties
- Les protocoles de routage avec qualité de service recherchent les routes ayant
suffisamment de ressources disponibles pour satisfaire une requête
- Les protocoles de signalisation cherchent à offrir des mécanismes de réservation de
ressources indépendants du protocole de routage sous-jacent.
- Les modèles de qualité de service définissent des architectures globales dans
lesquelles des garanties peuvent être fournies.

les composants de la QoS- source O.Bamouh / H.Lalaoui 2.1

Les protocoles d'accés au medium a. Description de la couche MAC IEEE 802.11 Beaucoup
de protocoles de routage avec qualité de service pour les réseaux Ad-hoc pourraient tirer parti
des protocoles de niveau 2, notamment le protocole d’accès au medium. Il est en charge
d’éviter les collisions, d’assurer le partage de la bande passante et de résoudre certains
problèmes spécifiques aux transmissions hertziennes. De ce fait, ce protocole est capable de
gérer une certaine qualité de service. La couche MAC du standard 802.11 se base sur la
méthode d'accès appelée ‘Distributed Coordination Function’ (DCF) qui utilise CSM/CA
(Carrier Sense Multiple Access/Collision Avoidance) pour supporter des transmissions
asynchrones de données. La deuxième fonction d’accès, optionnelle, est la PCF (Point
Coordination Function) qui sert à supporter les trafics temps réel. La fonction DCF est
employée pour les réseaux Ad hoc. Le principe de la fonction DCF consiste à écouter le
médium pour voir si un autre noeud est en train d'émettre, pour savoir si le médium est libre
pour une certaine durée appelée (DIFS) avant d’émettre.Sinon, la transmission est différée
d’un temps de Backoff, choisi aléatoirement entre 0 et une valeur maximale appelée
Contention Window (CW). Cette dernière ne sera décrémentée que si le médium est libre.

Principe de la fonction DCF- source O.Bamouh / H.Lalaoui

Néanmoins, la détection de collision par une station qui est entrain d’émettre simultanément
avec une autre n’est pas possible. Pour cela, un acquittement (ACK) est utilisé pour informer
la station émettrice que la trame est reçue avec succès

Méthode d’accès DCF


Un principe RTS/CTS (Request To Send / Clear To Send) est utilisé pour résoudre le
problème des stations cachées. Avant toute émission la station devra envoyer un message
RTS pour réserver le canal, la destination répond donc par un message CTS pour dire si elle
est prête à recevoir. Ainsi, le canal est réservé pour la durée de la transmission. Les messages
RTS/CTS et ACK sont prioritaires à l’accès au médium, car ils disposent d’un temps d’attente
IFS (Inter Frame Space) inférieur à celui des paquets de données. Dans la fonction DCF, les
trames n’ont pas de priorités, ce qui est inadapté pour les applications temps réel. Un
mécanisme de priorité pour la fonction DCF de la couche MAC 802.11 consiste à différencier
les trafics, et introduire une priorité en modifiant les paramètres de la fonction l'accès DCF.
Son principe consiste à associer des DIFS ou des temps de backoff plus court pour les flux
prioritaires. Ainsi, les flux prioritaires auront une plus grande probabilité d'accéder au
médium que les autres. D’autres paramètres de la fonction DCF peuvent aussi être utilisés
pour différencier des services. b. IEEE 802.11e La spécification du draft IEEE 802.11e
propose le support de la QoS dans les réseaux sans fil avec une nouvelle fonction de contrôle
EDCA (Enhanced Distributed Channel Access), considérée comme la nouvelle version de la
fonction DCF, et une fonction de coordination hybride (HCF). EDCA introduit quatre
catégories de trafics (TC). Les priorités sont contrôlées par les stations en modifiant le schéma
d’accès de base (DCF). Plus flexible que la fonction PCF, HCF est utilisée par les points
d’accès pendant la période d’accès contrôlée (CAP), qui peut commencer à n’importe quel
moment durant ’la superframe’. Autrement dit, ça lui permet d’avoir accès au médium pour
faire passer un trafic ayant des contraintes de QoS. Cette norme réimplémente la couche MAC
(Medium Access Control) en ajoutant un mécanisme de réservation de la bande passante au
niveau matériel. Elle est compatible avec les normes 802.11a, 802.11b (Wi-FI) et 802.11g.
Cependant, il est clair que tant qu’on n’aura pas amélioré le fonctionnement du coeur d’un
réseau Infrastructure, c'est-à-dire la borne d’accès et plus précisément le protocole qui la gère,
on ne pourra pas avoir une amélioration de la QoS. Il faut pour cela se rappeler que tous les
paquets envoyés dans l’air doivent passer à travers la borne d’accès pour être routé vers leur
destination. Un autre problème sensible affectant la QoS dans le lien air est la façon dont est
partagée la bande passante en fonction des utilisateurs, mais là encore, comment partager
différemment la bande passante si on n’a aucun moyen de différencier les différents flux de
données arrivant à la borne d’accès. C’est pourquoi l’arrivée de la norme 802.11e a été
attendue avec impatience par tous les utilisateurs de réseau WLAN voulant faire de la VoIP
ou d’autres applications temps réel. c. Différenciation de services pour 802.11 Afin de
concevoir des mécanismes de différenciation de services efficaces, un mécanisme de priorités
entre les trames est déployé. Pour ce faire, il faut adapter certains paramètres de la fonction de
coordination distribuée (DCF) du protocole selon la priorité des paquets. Cette dernière repose
sur la détection de porteuse (CSMA). Avant d’émettre, tout noeud doit s’assurer que le canal
est libre depuis un certain temps (DIFS puis CCA). Certains paquets de signalisation peuvent
être plus privilégies en leur accordant un temps SIFS (Short Inter Frame Spacing) plus court
que le DIFS. Dans le but d’améliorer la méthode d’accès DCF du protocole 802.11, les
techniques suivantes ont été proposées : 1. La fonction de backoff différente: Consiste à
attribuer des valeurs de fenêtres de contention (CW) supérieures pour les stations les moins
prioritaires et inversement, permettant ainsi de donner plus de chance à une station prioritaire
d’accéder au canal. 2. Les différents DIFS: Dans le standard IEEE 802.11 les trames ACK ont
une priorité sur les trames RTS, en attendant un temps SIFS qui est inférieur à DIFS. Dans
cette technique de différenciation chaque station mobile dispose de sa propre valeur de DIFS
qui définit son niveau de priorité pour l’accès au médium. 1. Un délai supplémentaire,
constant, aléatoire est ajouté au DIFS, permettant ainsi en cas de collision de réinitialiser le
processus et d’allonger le délai supplémentaire. 1. Distributed Fair Schedulzng: Dans ce
schéma d’accès la valeur du backoff générée avant un envoi, est proportionnelle à la longueur
de la trame de donnée et inversement proportionnelle au poids du flux ainsi les trames peu
prioritaires occupent le canal moins longtemp d. MACA / PR Le protocole MACA/PR
(Multiple Access Collision Avoidance with Piggyback Reservation) propose de différencier la
politique d’accès au médium selon la nature des flux. Il propose une bande passante garantie
dans le réseau via une réservation pour les trafics temps réel. Les flux non privilégiés
bénéficient du servuce « Best Effort ». Les paquets des flux non privilégiés sont traités de
façon standard. Pour les flux temps réel, une unique demande d’autorisation à transmettre
(échange RTS-CTS) est effectuée en début de flux
Principe du MACA/PR - source O.Bamouh / H.Lalaoui

Dès qu’un paquet n’est pas acquitté, une nouvelle demande d’autorisation est émise. Afin de
traiter les réservations de bande passante, l’émetteur inclut des informations dans chaque
paquet sur l’ordonnancement du paquet suivant. Tous les voisins du noeud récepteur, en
écoutant l’acquittement d’un paquet de données, possèdent des informations sur la date
d’arrivée du prochain paquet et peuvent différer leurs transmissions. Ce mécanisme permet de
résoudre le problème des stations cachées sans avoir recours à des paquets de signalisation
particuliers. 2.2 Les protocoles de routage avec qualité de service Le routage avec QoS est un
élément clé pour réaliser une architecture de QoS pour les MANETs. Il est important de
définir les objectifs visés par le routage avec QoS. Le routage au mieux (sans QoS) consiste
en général à trouver le plus court chemin en terme de distance ou de délais entre une source et
une destination. Dans le cas du routage avec QoS, l'objectif n'est pas seulement de trouver le
meilleur chemin selon un critère précis, mais de trouver un chemin "admissible"satisfaisant
certaines contraintes. Plusieurs paramètres peuvent être utilisés tels que le délai, la bande
passante, la disponibilité en terme de QOS ou encore le coût de transmission. On voit
apparaître donc des spécificités où les routes doivent être calculées par flux et non par
destination. En effet, un flux peut avoir des besoins de QoS alors qu'un autre flux entre ces
mêmes nœuds en aura d'autres. Le routage avec QoS est très difficile dans les MANETs car il
engendre un overhead important. En effet, les nœuds doivent mettre en place un mécanisme
permettant de stocker et mettre à jour les états de liens dans un environnement mobile. Cette
mobilité rencontrée rend le maintient de l'état précis des liens très difficile et très coûteux. De
plus, la mobilité ou le manque d'énergie peuvent causer des ruptures dans les chemins établis,
le protocole doit donc être capable de réagir très vite à ce genre d'événement en recalculant
des routes valides. Par conséquent, la complexité de la recherche de routes optimales dépend
des types de contraintes. L'idée est donc de trouver un équilibre entre le gain apporté par le
routage QoS et l'importance de l'overhead. Le routage avec qualité de service ajoute en
général des protocoles de routage usuels un contrôle d’admission afin de sélectionner parmi
les routes disponibles celles qui sauront satisfaire les contraintes du flux. a. Routage avec QoS
sur DSDV : DSDV(Dynamic Destination Sequenced distance-Vector) ou vecteur de distance
à destination dynamique séquencée est un protocole de routage proactif implémenté avec la
qualité de service afin de résoudre les problèmes liés aux stations cachées. En effet, Lors
d’une demande de réservation, DSDV évalue la quantité de bande passante disponible sur la
route principale. Tout en évaluant le nombre d’unités TDMA (Division du temps en unités)
appelées slots, disponible sur chaque lien tout au long de la route. Il est nécessaire de ne pas
utiliser les mêmes unités pour les transmissions entre deux liens adjacents. Dès que le
destinataire reçoit la demande de route, il renvoie à l’émetteur une confirmation indiquant la
politique d’allocation des unités choisie sur la route empruntée, la réservation de ressources se
fait parallèlement à cette réponse. Pour pallier aux problèmes liés à la mobilité, une route
secondaire non optimale en terme de nombre de sauts est maintenue. Bien que ce protocole
évalue bien la bande passante disponible sur un chemin et offre le calcul de la probabilité de
rejet des appels lors des simulations, il est incapable de résoudre les problèmes
d’interférences, en particulier lorsque deux nœuds utilisant les mêmes unités TDMA se
rapprochent et arrivent à portée d’émission l’un de l’autre. b.Ticket Based Probing : Ticket-
Based QoS Routing est un protocole de routage qui permet de réduire la quantité des
messages de routage diffusée pour la découverte de la route, car la recherche de routes par
inondation peut être très coûteuse. Ce protocole de routage QoS a été conçu pour des réseaux
à faible mobilité pour éviter de réel problème (scénario de type salle de conférence). La durée
de vie des routes doit être grande devant le temps nécessaire à l’établissement ou à la
restauration d’une route. Le protocole utilise une technique de réparation locale des routes. Le
but de Ticket Based Probing est de limiter ce surcoût et de fournir des garanties de qualité de
service. La découverte de route est limitée, car l’émetteur va associer une demande de route à
un certain nombre de tickets logiques qui va limiter la diffusion des requêtes. Chaque message
de découverte (ou d’observation) de route doit avoir au moins un ticket. Quand un message
arrive à un noeud, il peut être divisé en plusieurs message d’observation, qui sont relayés vers
les prochains sauts. Chaque message ’fils’ contiendra un sous ensemble des tickets de son
message ’père’. Evidemment, un message ayant un seul ticket ne peut être divisé. Lors de
l’arrivée d’un message de découverte de route à la destination, le chemin saut par saut est
connu et les informations de délai ou de bande passante peuvent être utilisées pour effectuer la
réservation de ressources pour la route répondant aux besoins de QoS. Par conséquent, chaque
noeud aura la connaissance des caractéristiques des liens vers ses voisins immédiats grâce à la
transmission périodique de paquets de signalisation. Il peut donc ainsi sélectionner
efficacement les voisins à qui transmettre les demandes de route. Plus un flux de données aura
de contraintes, plus on associera de tickets à la demande correspondante; Le nombre de tickets
généré est fonction de la précision des informations d’états disponibles à la source et les
besoins de QoS de la communication. Deux problèmes sont étudiés: Etablir des routes, les
plus proches de l’optimal possible, de moindre coût avec des contraintes de délai (NP
complet). Etablir des routes de moindre coût avec des contraintes de débit (solvable en temps
polynômial). Afin d’augmenter la probabilité de trouver une route, deux types de tickets sont
utilisés: Des tickets jaunes : Pour permettre rechercher des chemins respectant la contrainte
imposée. Des tickets verts : Pour permettre d’obtenir des solutions à faible coût. Malgré le fait
que les noeuds ne connaissent que leur voisinage immédiat, Ticket Based Probing est efficace
car il permet de trouver des routes avec une probabilité proche de celle des algorithmes basés
sur l’inondation du réseau et meilleure que des algorithmes recherchant un plus court chemin.
Il permet en outre de trouver des routes de plus faible coût que ces deux types d’algorithmes.

Principe de Ticket Based Probing- source O.Bamouh / H.Lalaoui


c. CEDAR : CEDAR ou (Core-Extraction Distributed Ad hoc Routing Algorithm) est un
protocole réactif avec qualité de service basé sur une élection dynamique d’un coeur de réseau
stable. Le processus distribué d’élection de ces noeuds est local et dynamique. Le rôle des
noeuds du cœur est de propager efficacement des informations sur la bande passante
disponible dans les liens, d’assurer le routage dans le réseau en impliquant un minimum de
noeuds dans ce processus et de limiter autant que possible les diffusions. La distance de
propagation des informations dépend de la qualité du lien en terme de stabilité et de bande
passante disponible. CEDAR repose sur l’utilisation de protocoles d’accès au canal de type
CSMA/CA minimisant les risques de collision qui doivent être capables d’estimer la bande
passante disponible sur les liens. Les noeuds à l’extrémité des liens mesurent les variations de
bande passante sur ces liens et propagent ces informations. Afin de résoudre les problèmes
liés à la mobilité, on conserve des routes de secours utilisées pendant le temps de
reconstruction de la route principale lorsque celle-ci est perdue. La reconstruction peut être
locale, à l’endroit de la cassure ou être à l’initiative de la source. Il est basé sur trois
composantes essentielles : – Extraction d’un coeur du réseau : un ensemble de noeud est
dynamiquement choisi pour calculer les routes et maintenir l’état des liens du réseau.
L’avantage d’une telle approche est qu’avec un ensemble réduit de noeuds les échanges
d’information d’état et de route seront minimisés, évitant ainsi plus de messages circulant
dans le réseau. En outre, lors d’un changement de route, seuls les noeuds du coeur serviront
au calcul. – Propagation d’état de lien : Les noeuds à l’extrémité des liens mesurent les
variations de bande passante sur ces liens et propagent ces informations. L’objectif est
d’informer les noeuds distants sur les liens de grande capacité, alors que les liens de faible
capacité reste connus au niveau local (ces noeuds n’ont pas une information sur la topologie
globale du réseau). Calcul de route : celui-ci est basé sur la découverte et l'établissement d’un
plus court chemin vers la destination satisfaisant la bande passante demandée. Afin de
résoudre les problèmes liés à la mobilité, on conserve des routes de secours utilisées pendant
le temps de reconstruction de la route principale quand cette dernière est perdue. La
reconstruction peut être locale, à l’endroit de la cassure ou être à l’initiative de la source. Les
noeuds du coeur du réseau auront plus de trafics à gérer, en plus des messages de contrôle
(pour la découverte et la maintenance des routes). En outre, en cas de forte mobilité, la
convergence de l’algorithme est difficile à atteindre
d. AODV avec qualité de service :

Le protocole de routage AODV avec QOS a pour objectif de : 1. • Introduire une métrique
plus appropriée que la distance (nombre de sauts). 2. • Faire face aux changements fréquents
de la topologie due à la mobilité des noeuds. AODV se base sur un algorithme « à la demande
» cela veut dire qu'il ne construit des routes entres noeuds que lorsqu'ils sont demandés par
des noeuds sources. L’ajout dans les paquets de contrôle d’un champ ‘route response’ RREP
associé au paramètre délai ou au paramètre bande passante, À la réception d’un message
‘route request’ RREQ ajouté également. Du fait que les informations suivantes sont ajoutées
dans la table de routage: bande passante minimale, délai maximum, et la liste des sources qui
ont demandé des garanties de délai ou de bande passante.
Chaque mobile vérifie s’il est en mesure d’honorer le service demandé, avant de retransmettre
le message. Si un nœud détecte que la QoS demandée n’est pas satisfaite alors il envoie un
message à la source ayant initiée cette demande de QoS, pour l’informer. Une métrique
appelée BWER (Bandwidth Efficicency Ratio) est utilisée pour l’estimation de la bande
passante résiduelle au niveau de chaque noeud. C’est la ration entre le nombre de paquets
transmis et reçus. A un saut, ce protocole messages Hello pour collecter les informations de
bande passante des mobiles dans son voisinage. La bande passante résiduelle d’un mobile est
égale au minimum de la bande passante résiduelle estimée par ce mobile et de celle des
mobiles dans son voisinage à un saut.

2.3 Les protocoles de signalisation


Le but des protocoles de signalisation est de fournir un moyen de propagation des
informations de contrôle à travers un réseau. Les informations transmises peuvent être de
différentes natures. Il peut s’agir d’informations topologiques, de demandes de recherche de
routes satisfaisant certaines contraintes ou encore de rapports sur l’état du réseau et la
disponibilité des ressources. De ce fait, la conception d’un protocole de signalisation
consistera à définir les données et la manière de les échanger pour la réalisation d’une tâche
particulière. a. INSIGNIA : INSIGNIA fut le premier système de signalisation in-band
permettant la QoS pour les MANET en 1998. Comme c’est un protocole qui repose sur la
signalisation in-band, les messages de contrôle sont alors encapsulés comme une option dans
les paquets de données IP, ce qui permet de réduire l’overhead généré par les messages de
signalisation, et ce afin d’éviter de surcharger le réseau ; Contrairement à une signalisation
out-band. INSIGNIA supporte deux types de services (temps réel et best effort). Il offre des
algorithmes de réservation, restauration et d’adaptation rapides pour répondre aux
changements de topologie du réseau et aux dégradations des liens . INSIGNIA offre des
garanties sur la base d’une granularité par flot aux applications adaptatives capables de
modifier leur comportement en fonction de la quantité de bande passante qui leur est allouée.
Ainsi, chaque application spécifie deux niveaux de qualités de service : Le niveau de base
(TR: Temps Réel) : Permet de spécifier la bande passante minimale nécessaire au trafic c’est
le niveau dégradé. Le niveau amélioré (BE : Best Effort) : Permet de spécifier le débit optimal
à atteindre lorsque les ressources sont disponibles. Description de l'algorithme de réservation
de ressources: La demande de réservation est effectuée lors de l’envoi du premier paquet de
données avec le champ INSIGNIA Option (20 bits). Le bit Reservation Mode indiquant si ce
paquet est en cours de réservation (REQ) ou s'il a déjà réservé des ressources (RES). Dans le
cas REQ, le paquet est envoyé au module INSIGNIA qui va se charger de la suite du
traitement. Le module INSIGNIA va alors définir si des ressources peuvent être allouées à ce
paquet ou non. Si les ressources peuvent être allouées, le champ Service Type est mis à RT,
sinon, il est descendu à BE. Dans les deux cas le paquet sera transmis au prochain nœud et la
demande de réservation sera rafraîchie. Arrivé à la destination, le paquet contient donc soit la
valeur RT soit la valeur BE La quantité de bande passante demandée par le paquet se trouve
dans le champ Bandwidth Request, qui indique un minimum et un maximum pour cette
valeur. En se basant sur cette information, le module INSIGNIA peut déterminer la quantité
de bande passante à attribuer. Enfin le bit Bandwidth Indicator est un drapeau utilisé par le
récepteur pour savoir si la demande de bande passante maximale a été satisfaite. Le
destinataire informe donc la source de l’état de la route en envoyant des rapports de QoS
(QoS Reporting), qui contiennent des statistiques sur la latence, le taux de perte et le débit,
afin qua le source puisse réguler son débit d’émission. Lorsque le débit d’un flux ne peut plus
être assuré, la destination est chargée d’avertir la source afin qu’elle prenne les mesures
adéquates. Lorsqu’un flux transite à débit réduit dans le réseau, la disponibilité de nouvelles
ressources est signalée à la destination qui, encore une fois, avertit la source explicitement. Ce
qui permettra de réagir rapidement aux changements de topologie. Il faut noter que dans
certaines situations, des nœuds peuvent être des goulots d'étranglement pour diverses raisons.
Cela signifie que tous les flux qu'ils vont transmettre vont être dégradés. Il est important de
rappeler que INSIGNIA est seulement un protocole de signalisation. On doit l'associer à un
protocole de routage tel que AODV ou DSR qui va détecter les changements de topologie et
mettre à jour les tables de routage. On a aussi besoin d'un module de contrôle de disponibilité
des ressources ainsi que d’un mécanisme de contrôle d'admission qui va allouer les
ressources. Les simulations montrent que ce mode de réservation est très rapide. INSIGNIA
possède néanmoins quelques lacunesUn problème de passage à l'échelle. En effet, INSIGNIA
suit le modèle Intserv et le problème du maintient de l'état des flux dans chaque nœud ne peut
pas être évité. La gestion de la bande passante n'est pas très optimale car la réservation
effectuée avant un goulot d'étranglement est perdue. Meme si ce gaspillage ne dure que
pendant un temps limité, car la source va rapidement être informée du problème. INSIGNIA
ne propose que sur deux classes de service: RT ou BE, une granularité plus fine pourrait
permettre plus de flexibilité pour les applications.
b.Dynamic Qos / dRSVP

Dans les protocoles usuels, les applications demandent une quantité précise de bande
passante. Très souvent, le même niveau de service est conservé durant toute la transmission.
Les auteurs de Dynamic QoS remettent en cause cet aspect statique de la réservation de bande
passante. Lors de la demande de réservation, les applications ne spécifient pas une valeur
précise mais un intervalle de valeurs. La borne inférieure représente le débit nécessaire au
fonctionnement de l’application et la borne supérieure le débit maximal qui pourra être atteint.
Lors de la confirmation de réservation, le réseau indique à l’émetteur la quantité de bande
passante qui lui a été effectivement allouée. D’autre part, on considère souvent qu’un lien a
une capacité fixe mais sur le canal qu’est l’air, cette capacité est variable. Dans Dynamic
QoS, la quantité de bande passante réservée par les applications peut être modifiée en cours
de transmission, soit l’initiative du réseau dans le cas où les ressources deviennent rares ou se
libèrent, soit l’initiative de l’application émettrice elle-même afin de libérer des ressources
dans le réseau. Si cette approche est originale et peut permettre de diminuer la probabilité de
rejet des demandes de réservation, elle nécessite un accord entre les différents émetteurs s’il
n’y a pas d’administration centralisée. Elle pourrait être très efficace dans des réseaux avec
AP.

III- . Modéles de qualité de service dans les réseaux ad-hoc

Actuellement les travaux qui ont été réalisés pour offrir une meilleure qualitéde service pour
les applications multimédia reposent sur certains aspects liés aux réseaux ad hoc qui sont, les
modèles de qualité de service pour les MANETs en plus de l’introduction de la différenciation
de service au niveau de la couche MAC. Ces travaux se sont inspirés de ce qui a été réalisé
pour les réseaux filaires pour intégrer les aspects tels que : – L’adaptation de la puissance
d’émission en maximisant cette puissance pour les trafics prioritaires ; Le partage de charge
entre les différents noeuds du réseau ; – L’économie de batterie en essayant de trouver le
chemin le plus court afin d’économiser l’énergie consommée. Définition d’un modèle de
qualité de service Un modèle de qualité de service décrit un ensemble de services bout-en-
bout, qui permettent aux clients de sélectionner un nombre de garanties qui gouvernent des
propriétés telles que le temps, l’ordonnancement et la fiabilité. Le modèle de qualité de
service spécifie l’architecture qui va nous permettre d’offrir un service meilleur que celui
offert par le modèle best-effort traditionnel. Cette architecture doit prendre en considération
les défis imposés par les réseaux ad hoc, comme le changement de la topologie et les
contraintes de délai et de fiabilité. Cependant, des modèles tels que Intserv/RSVP [18],
proposés pour les réseaux filaires, ne prennent pas en compte les contraintes de limitation de
ressources imposées par les réseaux ad hoc. 3.1 Les modèles standard existants a. IntServ Le
premier modèle s'appelle " Services Intégrés " ou IntServ. Il utilise un concept basé sur la
réservation ou chaque application transmet ses conditions à tous les nœuds de réseau traversés
jusqu'au nœud de destination. Quand tous les nœuds ont acceptés les conditions, l'application
commence l'acheminement de ses données. IntServ aborde la qualité de service en reprenant
le concept du " meilleur effort " et en y rajoutant le support du trafic en temps réel. Le modèle
IntServ est donc un modèle incluant le concept du " best effort ", un service en temps réel, et
un partage de lien contrôlé. Le modèle de service gère deux sortes de trafic en temps réel :
garanti et prévisible. Les services intégrés nécessitent des routeurs capables de réserver des
ressources (telles qu'une quantité fixe de bande passante) pour différents flux de trafic.
Cependant, IntServ, en rendant possible la réservation de ressources, permet des requêtes très
précises en terme de qualité de service. Les clients obtiennent donc soit exactement ce qu'ils
ont demandé soit leur requête échoue. La réservation de ressources est demandée par le
récepteur, il émet une requête de QoS correspondant à ses besoins. Celle-ci parvient à
l'émetteur sous forme d'un message RSVP. Ce mode d'attribution de ressources à l'avantage
d'être effectué par le récepteur qui, ainsi, peut demander une QoS adaptée à ses besoins et à la
consommation désirée. Principe de Fonctionnement du protocole IntServ - source O.Bamouh /
H.Lalaoui Pour assurer un chemin unique au cours d'une communication, il faut que les
systèmes terminaux fonctionnent en mode connecté. Cependant, RSVP n'assure pas un mode
connecté avec les routeurs et une mise à jour dynamique de la réservation est nécessaire. Les
récepteurs sont donc obligés de d'envoyer périodiquement des messages RSVP aux routeurs
assurant le chemin. Les requêtes RSVP sont des messages de différentes natures permettant à
l'émetteur comme au récepteur d'avoir un chemin dédié de transfert
Principe de Fonctionnement du protocole IntServ - source O.Bamouh / H.Lalaoui Pour
assurer un chemin unique au cours d'une communication, il faut que les systèmes terminaux
fonctionnent en mode connecté. Cependant, RSVP n'assure pas un mode connecté avec les
routeurs et une mise à jour dynamique de la réservation est nécessaire. Les récepteurs sont
donc obligés de d'envoyer périodiquement des messages RSVP aux routeurs assurant le
chemin. Les requêtes RSVP sont des messages de différentes natures permettant à l'émetteur
comme au récepteur d'avoir un chemin dédié de transfert.

Routeur à intégration de service,

Notons que RSVP fournit une qualité de service tenant compte des modifications de
ressources. En revanche, le problème majeur du modèle IntServ/RSVP est celui du facteur
d’échelle car il maintient des états par flux, ce qui pose certains problèmes lors du passage à
l’échelle. En effet plus le nombre de flux à gérer est important plus la charge de traitement
devient insupportable. Les Integrated Services (IntServ) vont permettre de gérer des flux
entiers de données. Les routeurs implémentant ce modèle sont capables de séparer les flux
pour les traiter individuellement. Il apparaît tout de suite que des mécanismes complexes vont
être nécessaires pour isoler et traiter chaque flux. Ce modèle propose deux classes de service
en plus du Best Effort: Le Guaranteed Service proposé aux applications ayant des contraintes
sur les délais. Le Controlled Load Service proposé aux applications requérant un service Best
Effort amélioré, plus fiable. IntServ se compose de plusieurs composants: la signalisation, le
contrôle d'admission, la classification des flux, et l'ordonnancement des paquets. La
signalisation permettant la réservation de ressources est assurée par le protocole RSVP
(Resource ReSerVation Protocol). La fonction du contrôle d'admission est de bloquer les flux
dont les ressources demandées ne sont pas disponibles. Ce contrôle est opéré par chaque
routeur sur le chemin. Chacun d'entre eux va accepter ou rejeter la demande de service suivant
l'état actuel du réseau. Les routeurs indiquent à l'application, via RSVP, si le besoin de QoS
peut être satisfait ou non. Ensuite la classification des flux est, elle aussi, effectuée par chaque
routeur. Cette phase complexe permet de séparer les flux et d'insérer les paquets entrant dans
les files d'attente appropriées. Enfin, l'ordonnanceur gère l'ordre de sortie des paquets des files
d'attente afin d'assurer la QoS demandée.

le modèle Intserv Ce modèle n'est pas applicable aux MANETs car: Les informations sur les
flux augmentent proportionnellement au nombre de flux gérés. Il n'y a pas d'agrégation. Ce
problème de passage à l'échelle n'est pas spécifiques au MANETs, on le retrouve aussi dans
l'internet. La maintenance de cette quantité d'information par des terminaux mobiles dont les
ressources sont limitées n'est pas envisageable. Même si aujourd'hui les MANETs restent de
petite taille et ne sont destinés à gérer qu'un nombre restreint de flux, cette solution n'est pas
viable à long terme, puisqu'il est probable que les MANETs vont être amenés à se développer.
Les paquets de signalisation RSVP utilisent une quantité non négligeable de bande passante
sur des liens déjà limités. Chaque nœud doit se charger de gérer le contrôle d'accès, la
classification et l'ordonnancement des flux. C'est une charge trop importante pour des
terminaux aux ressources limitées. b. DiffServ Le deuxième modèle, " Services Différenciés "
ou DiffServ, utilise une technique de marquage des paquets (chaque paquet est tagué d'un
code dans son entête IP pour indiquer à quelle classe de trafic il appartient. Les commutateurs
traversés sur le chemin manipulent donc les paquets différemment en fonction de la classe de
service à laquelle ils appartiennent Le comportement à chaque nœud du réseau est en effet
choisi en se basant sur la classe de chaque paquet. Diffserv emploie le champ ToS dans l'en-
tête d'IP pour déterminer à quelle classe un paquet spécifique appartient.
Principe de Fonctionnement du protocole DiffServ - source O.Bamouh / H.Lalaoui L'émetteur
de flux spécialisé, au travers du champ "Type Of Service", spécifie une classe de service qu'il
souhaite donner à ses paquets. Au cours de son voyage dans le réseau, ce paquet traverse des
modules (routeurs) qui, équipés d'algorithmes (Packet Classifier), lisent le champ TOS.
Ensuite un répartiteur de paquet (Packet Scheduler) met en œuvre le traitement différencié en
lui affectant une discipline de service adaptée (file d'attente spécialisée). Rappelons que les
routeurs sont soumis à de grands nombres de demandes qui les obligent à gérer des files
d'attente. La stratégie des services différenciés (Diffserv) est apparue pour faire face à la
complexité et au coût de l'approche " Services Intégrés ". Cette approche est différente
d'IntServ par son concept de classification des flux. Le Differenciated Service (DiffServ) est
destiné à combler les défauts d'IntServ. On cherche à supprimer le problème de passage à
l'échelle en définissant des classes permettant d'agréger plusieurs flux. Ainsi, tous les flux
appartenant à une même classe reçoivent le même service. Deux types de routeurs sont donc
définis: Les routeurs de bord (Edge Routers), chargés de la classification, du marquage et du
maintient de l'état des flux. Les routeurs de cœur (Core Routers), chargés uniquement de
l'acheminement des paquets selon le marquage. La complexité de ce dispositif se trouve donc
dans les bords, puisque l'acheminement par les routeurs de cœur est très simple et rapide.
C'est un bon compromis entre complexité et garantie de service dans l'internet.
Le modèle DiffServ

L’avantage de ce modèle est qu’il offre des classes de QoS sans modifications en terme de
gestion du trafic et il fournit des solutions de continuité par rapport au service au mieux (best
effort) traditionnel. En plus, il permet le passage à l’échelle pour les données. Par rapport à
IntServ, on perd en terme de flexibilité et de fermeté des garanties. Le problème du plan de
contrôle reste entier (comment réaliser un contrôle d’admission sans maintenir d’état par
flux ?). Dans le cas du multicast, les choses se compliquent davantage, en effet aucune
approche n’a été proposée sur la façon de dimensionner le réseau et de conditionner un trafic
de multicast. Malheureusement, ce modèle ne convient pas aux MANETs car la question de la
définition des routeurs de bord et des routeurs de cœur reste très ambiguë dans ces réseaux.
Intuitivement, la source fait parti des routeurs de bords et les nœuds du chemin font parti des
routeurs de cœur. Mais dans les MANETs, chaque nœud doit pouvoir jouer les deux rôles à la
fois, puisqu'il peut être source d'une communication et relais pour une autre. Cela
engendrerait donc une charge trop importante sur tous les nœuds du réseau. 3.2 Les
principaux modèles utilisés a. FQMM (Flexible quality of service model for MANETs) Les
concepteurs du modèle FQMM prennent en compte le fait que les réseaux ad hoc pourraient, à
terme, être connectés à des réseaux filaires de type Internet. Il apparaît dès lors nécessaire
d’offrir un mécanisme de qualité de service suffisamment proche des protocoles filaires afin
de s’interfacer avec ces derniers. Le modèle repose sur une architecture réseau plate (non
hiérarchique), constituée d’une cinquantaine de noeuds mobiles. Il combine les propriétés des
modèles filaires IntServ et DiffServ, en offrant une méthode d’approvisionnement hybride :
par flux, pour les trafics prioritaires. par classe, pour les autres trafics

Afin d’obtenir les deux types de granularité (par flot ou par classe) des modèles filaires,
FQMM définit plusieurs classes de service dont la plus haute permet à chaque flux de
spécifier les contraintes qui lui sont propres. A l’image de DiffServ, FQMM définit trois types
de noeuds : Les noeuds d’entrée (émetteurs) Les nœuds intermédiaires Les noeuds de sortie
(récepteurs). Les noeuds d’entrée permettent de marquer et classifier les paquets, qui seront
ensuite relayés par les noeuds intermédiaires suivant leurs PHB (Per Hop Behavior), jusqu’à
arriver au noeud destinataire. Ce modèle repose essentiellement sur la couche IP, où les
fonctionnalités sont séparées en deux grands plans : le plan relayage de données et le plan
contrôle et gestion. Compte tenu du fait que dans un réseau ad hoc, chaque noeud assure la
fonction de routeur, chaque mobile joue différents rôles pour différents flux. Le
conditionnement du trafic (lissage, marquage, etc.) est à la charge des émetteurs. FQMM
requiert l’utilisation d’un protocole de routage capable d’offrir une certaine qualité de service,
c'est-à-dire capable de rechercher des routes satisfaisant certaines contraintes. Dans ce
modèle, le protocole de routage est supposé fournir des routes ayant suffisamment de
ressources. Par son approche hybride, FQMM entend résoudre certains problèmes liés aux
modèles filaires. De plus, la résolution de la plupart des problèmes liés au fonctionnement Ad
Hoc (volume de signalisation, consommation d’énergie, bande limitée et difficile à estimer)
est laissée à la charge du protocole de routage sousjacent. L’avantage d’une telle approche est
la possibilité d’interfacer le réseau avec l’Internet, vu les mécanismes de qualité de services
offerts qui sont proches des protocoles filaires. Cependant, plusieurs mécanismes ainsi que
l’interaction avec la couche MAC restent à définir pour s’adapter aux conditions variables du
réseau ad hoc.
Le modèle FQMM - source O.Bamouh / H.Lalaoui

En revanche, ce modèle souffre de plusieurs problèmes : – L’absence de tout contrôle


explicite du nombre de services par flux offerts pose un problème de scalabilité, comme dans
le cas du modèle IntServ. – Dans DiffServ, les noeuds intermédiaires expédient les paquets
selon leurs PHB dans le champ DS. Il est donc difficile de coder le PHB dans le champ DS
s’il contient une granularité par flux (taille limitée du DS égale à un octet sans extension). – Il
est très difficile de faire un profil dynamiquement négocié du trafic. – La résolution de la
plupart des problèmes liés au fonctionnement ad hoc (tels que le volume de signalisation, la
consommation d’énergie et la bande passante limitée) est laissée à la charge du protocole de
routage sous-jacent b. SWAN (Service differentiation in wireless ad hoc networks ) Ce
modèle fait partie de ces protocoles mythiques cités dans presque tous les articles traitant de la
qualité de service dans les réseaux ad hoc, La philosophie du protocole est de ne pas garder
d’état dans les noeuds mais se base sur des algorithmes de contrôle distribués dans le but
d’assurer une différenciation de services dans les réseaux ad hoc. Ce modèle offre la priorité
(au niveau paquet) aux trafics temps réel en contrôlant la quantité de trafics best effort
acceptée par noeud. Pour accepter un nouveau trafic temps réel, le contrôle d’admission sonde
la bande passante minimale disponible sur la route (valide et obtenu par un protocole de
routage). Une prise de décision est alors faite à la source suivant la bande passante obtenue.
Dans le but de maintenir la qualité de service des trafics déjà acceptés, le débit des trafics best
effort est régulé en utilisant comme paramètre, les mesures de délais au niveau MAC. Un
classificateur et un shaper qui permet de différencier les deux types de trafic. Face à une
congestion, les bits ECN (Explicit Congestion Notification) de l’entête des paquets IP sont
positionnés pour permettre à la source de re-initier le contrôle d’admission. Si la route ne
dispose pas d’assez de bande passante, le trafic est supprimé. Plusieurs solutions sont
proposées pour le choix des flux à ré-établir. L’idée est d’introduire un mécanisme aléatoire
dans le choix des flux à stopper afin de ne pas arrêter trop de flux en même temps dans les
endroits congestionnés. Si cette approche est assez simple, le fait d’être indépendant d’un
protocole de routage avec qualité de service peut conduire à un rejet de certains flux, puisque
les routes reconstruites seront très probablement les mêmes qu’avant la congestion et que par
conséquent il ne sera pas possible d’acheminer sur ces mêmes routes tous les flux qui ont
provoqué précédemment une congestion. Ceci dit, un flux prioritaire admis n’est pas toujours
sûr d’avoir des garanties pour l’entière durée de la communication, et peut être violé à tout
moment par d’autres demandes de trafics. Néanmoins un contrôle d’admission est réalisé pour
le trafic temps réel afin d’assurer certaines garanties. Ce contrôle d’admission se base sur le
calcul de la bande passante disponible sur le chemin qu’empruntera le flux (ce chemin étant
déterminé par un protocole de routage indépendant de SWAN). Or ce calcul présente deux
inconvénients la bande passante disponible au niveau de chaque noeud est déduite du trafic
temps réel perçu par chaque noeud et ne prend donc pas en compte la bande passante
consommée au niveau de la zone de détection de porteuse. Par ailleurs, le calcul de la bande
passante disponible sur le chemin ne prend pas en compte le fait que les paquets qui traversent
un lien consomment aussi de la bande passante sur certains autres liens du chemin. Par
conséquent, SWAN effectue une sur-estimation de la bande passante diponible. La régulation
du trafic Best Effort est effectuée grâce à un lissage de type AIMD : tant que le délai n’a pas
atteint une valeur seuil, le débit est augmenté de manière additive ; lorsque la valeur seuil est
atteinte ou dépassée, le débit est diminué de manière multiplicative. Cette valeur seuil est
importante. Selon les configurations considérées et la géographie des flux Best Effort, ces
derniers pourront avoir des impacts différents sur les débits des trafics temps réel. Par
conséquent, une bonne utilisation des ressources implique des valeurs seuils différentes sur les
noeuds selon les configurations
Le modèle SWAN

c. QPART (QoS Protocol for Ad hoc Real-time Traffic) Ce modèle se situe dans le même état
d’esprit que SWAN ceci par rapport à la différentiation de services entre différents types de
trafic et garanties pour certains trafics sans garder d’états dans les noeuds. QPART considère
trois types de trafic : le trafic sensible au délai, le trafic sensible à la bande passante et le trafic
Best Effort. La garantie des contraintes et celle de la différentiation sont réalisés par des
modifications des tailles des fenêtres de contention pour les différents types de trafic. En ce
qui concerne les trafics sensibles au délai, la taille de la fenêtre de contention sur chaque
noeud dépend du délai connu par le paquet sur le lien précédent et de celui qu’il aurait dû
avoir. QPART n’effectue ni routage avec contraintes ni contrôle d’admission. Il n’agit donc
que sur la résolution de conflits, lorsqu’une congestion apparaît, en arrêtant certains flux dont
le choix se fait en fonction de leur priorité (l’âge d’un flux) : plus le flux est vieux, plus il est
prioritaire (la mise à jour est réalisée périodiquement), jusqu’à atteindre une priorité
maximale. Chaque priorité correspond à un seuil d’admission qui lui-même correspond à un
temps libre moyen entre deux périodes d’occupation du médium. Lorsqu’un temps libre
moyen inférieur à ce seuil est détecté par une station, le flux est arrêté pendant un certain
temps. Si au bout de ce temps, le temps libre moyen perçu pas la station est toujours inférieur
à ce seuil alors le flux est définitivement rejeté, sinon il est redémarré. Les choix de ces
paramètres et de ces seuils sont bien entendu les points clés de ce type d’approche.
L’inconvénient de la solution est que chaque lien est sensé avoir un délai similaire, ce qui
n’est pas une hypothèse réaliste. De plus, le traitement sur le délai ne prend aucunement en
compte l’impact qu’il peut avoir sur les délais des autres flux existants dans le réseau. Pour les
trafics sensibles à la bande passante, la modification de la fenêtre de contention est fonction
de la taille de la file d’attente dédiée à ce flux. Cette file doit rester de taille constante pour
garantir le débit du flux. Cela implique donc que si un flux subit beaucoup de collisions, sa
file d’attente va grossir et il va donc diminuer sa fenêtre de contention pour réduire la taille de
sa file, ce qui peut générer encore plus de collisions. Une telle approche peut être
consommatrice de ressources inutilement. Pour les flux Best Effort, la taille de la fenêtre de
contention est régulée en fonction d’un seuil de congestion. Ce seuil correspond à un temps
libre moyen entre deux périodes d’occupation du médium. Si le temps libre moyen détecté est
inférieur à ce seuil, alors la station considère que le médium est congestionné et va donc
augmenter sa fenêtre de contention ; si en revanche le temps libre moyen détecté est supérieur
à ce seuil, alors la station considère qu’il reste de la bande passante de libre et qu’elle peut
donc émettre plus de trafic Best Effort en diminuant sa fenêtre de contention. Avec ce type
d’approche, la même remarque que pour SWAN peut être faite : ce seuil est très dépendant de
la configuration et ne peut être choisi de manière fixe comme c’est le cas dans QPART

Le modèle QPART d.

Modèle iMAQ Ce modèle fournit le support des transmissions des données multimédia dans
un MANET. Il inclut une couche ad hoc de routage et une couche de service logiciel
(Middleware). Dans chaque noeud, ces deux couches partagent les informations et
communiquent afin de fournir les garanties de QoS aux trafics multimédia. Le modèle est
basé sur la prédiction de la position des noeuds (predictive location-based) et orienté QoS. La
couche Middleware communique également avec la couche application et la couche réseau et
essaye de prévoir le partitionnement du réseau. Pour fournir une meilleure accessibilité
Conclusion

En somme, Plusieurs contraintes sont liées au mode Ad Hoc et au médium sans fil, dont
notamment la peu fiabilité du médium, bande passante limitée, routage plus complexe,
beaucoup de contraintes physiques ( interférences…) Néanmoins, il existe toujours un
compromis entre le volume d’informations échangées (volumes et profils de trafics au niveau
de chaque noeud, mobilité des noeuds, etc.) et précision des garanties. Plus les noeuds sont au
courant de l’état du réseau, plus ils seront capables d’évaluer la capacité résiduelle de ce
dernier. Nous avons en outre présenté les architectures proposées par les groupes de travail
IntServ et DiffServ et qui se sont montrés inadaptés aux réseaux Ad Hoc. Nous avons
explicité par la suite l’émergence de nouvelles techniques telle FQMM qui combine les
propriétés des modèles filaires IntServ et DiffServ, en offrant une méthode
d’approvisionnement hybride: par flux (pour les trafics prioritaires) et par classes (pour les
autres flux), la technique SWAN qui se base sur des algorithmes de contrôle distribués, la
QPART qui rejoint le même état d’esprit que la SWAN, ceci par rapport à la différentiation de
services entre différents types de trafic et aussi par rapport à la garantie offerte pour certains
trafics sans se soucier de l’état des noeuds tout en considérant trois types de trafic: le trafic
sensible au délai, le trafic sensible à la bande passante et le trafic Best Effort. Le dernier
modèle traité iMAQ fait la transmission des données multimédia dans un MANETen incluant
une couche Ad Hoc de routage et une couche de service logiciel. Un travail important serait
de fournir une base d’évaluation standard des différentes solutions définissant les scénarios,
les outils et les paramètres de simulations possibles. Dans un futur proche, un grand nombre
de travaux devront être menés pour aboutir à une connaissance suffisante des spécificités de
ces réseaux. Alors, un travail fédérateur pourra peut être effectuée afin de concevoir « la
solution de qualité de service pour les réseaux Ad Hoc »

Vous aimerez peut-être aussi