Académique Documents
Professionnel Documents
Culture Documents
P lein d’avenir et très prometteur, tel es t le vis age des rés eaux ad hoc
aujourd’hui qui s e dis tinguent des autres formes de rés eaux s ans fil par une
abs ence totale d’infras tructure fixe. U n nombre quelconque de mobiles
équipés de cartes d’interface radio et des couches protocolair es adéquates
suffis ent pour former un rés eau ad-hoc. Les débits attein ts aujourd’hui sur
ce type de rés eaux rendent poss ible le trans fert de flux multimédi a soumis
à de fortes contraintes . D ès lors , il es t légit ime de chercher à fournir aux
applications des garanties sur le délai, s ur les taux de pertes ou encore s ur
la bande pass ante. Les solutions utilis ées dans le monde filaire sont
inadaptées aux contraint es liées à l’util is ation du médium radio et à
l’abs ence d’adminis tration centralis ée.
Le modèle de réseau sans infrastructure préexistante ne comporte pas l'entité «site fixe ».
Tous les sites du réseau sont mobiles et communiquent d'une manière directe en utilisant leurs
interfaces de communication sans fil. L'absence de l'infrastructure ou d'un réseau filaire
composé des stations de base, oblige les unités mobiles (UM) à se comporter comme des
routeurs qui participent à la découverte et la maintenance des chemins pour les autres hôtes du
réseau. La communication des nœuds du réseau ce fait directement, à la manière d'un réseau
peer-to-peer. Les noeuds sont donc libres de se déplacer aléatoirement et s’organisent
arbitrairement. Cependant, la route entre un noeud source et un noeud destination peut
impliquer plusieurs sauts sans fil, d’où l’appellation des réseaux sans fil multi-sauts. Un
noeud mobile peut donc communiquer directement avec un autre noeud s’il est dans sa portée
de transmission. Au delà de cette portée, les noeuds intermédiaires jouent le rôle de routeurs
(relayeurs) pour relayer les messages saut par saut.
Dans l’exemple suivant le nœud a envoie un flux de données au nœud g. Pour cela, les
données sont acheminées par les nœuds b et e. Après le mouvement, nous remarquons que le
routage des données devient plus complexe puisque le flux parcours non seulement les nœuds
b et e mais aussi les nœuds d, c et f. Le réseau est donc dynamique et imprévisible ce qui fait
que la déconnexion des unités est généralement très fréquente. La figure suivante est un
exemple de réseau adhoc. Chaque lien indique qu'une liaison directe existe entre les
L’avantage des M AN ETs c’es t qu’elles introduis ent plus de dynamis me que
dans les rés eaux ad hoc s imples , puis que les nœ uds s ont mobiles les uns par
rapport aux autres . Imaginant une application milita ire où les rés eaux ad
hoc mobile s eraientt cons titué de véhicules milit aires en mouvement,
déployés sur un champ de bataille et communiquan t tous les uns avec les
autres , créant ains i s pontanément une infras tructure de communicat ion
quelque s oit leur pos ition.
Initialem ent ce type de rés eaux, propos é à des fins mili taires , était des tiné
à permettre le déploiement rapide de sys tèmes de communica tion dans des
zones difficiles (champs de batail le ou catas trophe naturelle par exemple).
Aujourd' hui, ces rés eaux sont en pas s e de prendre bien plus d' importanc e
puis que les opérateurs commencen t à imaginer des offres commercial es à
l' intention des civils .
Le développement des bes oins de nombreus es applications en terme de Q oS
a amené les chercheurs à tenter d' introduire ces mécanis m es dans les
MA N ETs .
Les communica tions et les opérations dans le domaine mili taire demeurent
les toutes premières applicat ions des rés eaux ad hoc. Cependant, avec
l’avancemen t des recherches dans le domaine des rés eaux et l’émergence
des technologies s ans fil (ex : Bluetooth, IEEE 802.11 et H iperlan) ;
d’autres applica tions civiles s ont apparues .
On dis tingue :
Les services d’urgence : opération de recherche et de s ecours des
pers onnes , tremblemen t de terre, feux, inondation, dans le but de
remplacer l’infras tructur e filaire,
Applicat ions commercia les : pour un paiement électron ique dis tant
(taxi) ou pour ’accès mobile à l’Internet, où s ervice de guide en
fonction de la pos ition de l’utilis a teur.
Les M AN ETs pos ent des problèmes s pécifiques ayant une influence
importante sur les solutions à mettre en place pour as s urer la Q oS . Les
problèmes principaux sont la mobili té de nœ uds , l' incerti tude s ur les liens
et la limita tion des res s ources des terminaux.
La réactivit é du dis pos itif mis en place face à ces modifica tions a un
impact direct s ur la qualité du s ervice propos é à l' utilis ateur. P récis ons tout
de même que les nœ uds du rés eau ne doivent pas trop bouger pour pouvoir
permettre une utilis ation rais onnable du rés eau. P ar trop, on entend as s ez
lentement pour lais s er le temps à l' information d' un changement de
topologie d' être diffus ée s ur le rés eau avant qu' une autre modification
mettant en jeu ces mêmes nœ uds ne se produis e.
On voit ici que la maintenanc e des tables de routage es t un travail
particulièr emen t difficile dans ce type de rés eaux.
Un noeud mobile peut être équipé d’une ou plus ieurs interfaces radio ayant
des capacit és de trans mis s ion variées et opérant dans des plages de
fréquences différentes . Cette hétérogénéité de capacit é peut engendrer des
liens as ymétriques dans le rés eau. D e plus , les noeuds peuvent avoir des
différences en terme de capaci té de traitemen t (CPU , mémoire), de logicie l,
de taille (petit, grand) et de mobilit é (lent, rapide). D ans ce cas , une
adaptation dynamique des protocoles s ’avère néces s aire pour s upporter de
telles s ituations .
Il es t important de rappeler que les rés eaux ad-hoc obéis s ent à des
contraintes très s trictes en terme de res s ources . Les terminaux mobiles s ont
par es s ence de petits terminaux, poss édant des res s ources limité es . La
mobilité de ces terminaux impos e une limi tat ion sur leur capacité d' énergie
qui a un impact e direct s ur le rayon de trans mis s ion. D' autre part, les débits
dis ponibles s ont inférieurs à ceux que l' on peut obs erver dans les rés eaux
filaires . C' es t une res trict ion supplémenta ire à prendre en compte dans la
mis e au point d' un mécanis me de QoS .
C haque noeud travaille dans un environnement pair à pair dis tribué, et agit
en tant que routeur pour relayer des communicat ions , ou génère s es propres
données . La ges tion du rés eau es t ains i dis tribuée sur l’ens emble des
éléments du rés eau.
D ans ce type de rés eau, on n' a aucune garantie s ur le débit de chaque lien.
D e plus la puiss ance d' émis s ion des terminaux peut varier dans le temps
pour s' adapter aux res s ources énergétiques du termina l par exemple.
La contraint e d’énergie
Les équipements mobiles dis pos ent de batteries limit ées , et dans certains
cas très limit ées tels que les P DA , et par cons équent d’une durée de
traitemen t réduite. S achant qu’une partie de l’énergie es t déjà cons ommée
par la fonctionnalit é du routage. Cela limite les s ervices et les applicat ions
supportées par chaque noeud.
II- . Solutions actuelles: Principaux modéles de QOS dans les réseaux Ad Hoc
Suivant le type de l’application, les besoins de QoS sont différents. Par exemple, pour les
applications temps réel, comme la voix et la vidéo, le délai de bout en bout d’un paquet doit
être limité, autrement le paquet est inutile. Les applications non temps réel, comme le transfert
de fichier ou la messagerie, quant à elles se focalisent sur la fiabilité des communications.
Le support de la qualité de service a été largement étudié dans les réseaux filaires. Le réseau
ATM (Asynchronous Transfert Mode) a considéré le support de la QoS pour les trafics en
plusieurs classes. Des solutions ont été proposées par l’IETF pour améliorer le réseau Internet
afin de fournir la QoS aux communications multimédia. Des mécanismes ont été fournis pour
gérer efficacement les ressources réseau (bande passante, mémoire tampons) pour répondre
aux exigences des applications. Dernièrement, avec l’émergence des services multimédia
temps réel, et les champs variés des applications des réseaux ad hoc, la qualité de service dans
les réseaux ad hoc est devenu un thème de recherche qui a suscité beaucoup d’intérêts. Dans
ce contexte, des travaux pour l’introduction des applications multimédia dans les réseaux ad
hoc ont été proposés. Cependant, il est très difficile de garantir une quelconque qualité de
service à une application temps réel dans un réseau ad hoc, car il faut prendre en considération
les spécificités de ces réseaux, à savoir : la bande passante limitée, le changement dynamique
de la topologie en fonction du temps, ainsi que le manque d’information complète sur l’état
du réseau. En outre, la communication entre les stations mobiles étant par voix radio, la
qualité du lien sans fil reste peu fiable, et susceptible à des variations suivant la configuration
et l’état du réseau. Les recherches concernant la qualité de service dans les réseaux ad hoc
sont souvent classées en quatre grandes catégories :
Les protocoles d'accés au medium a. Description de la couche MAC IEEE 802.11 Beaucoup
de protocoles de routage avec qualité de service pour les réseaux Ad-hoc pourraient tirer parti
des protocoles de niveau 2, notamment le protocole d’accès au medium. Il est en charge
d’éviter les collisions, d’assurer le partage de la bande passante et de résoudre certains
problèmes spécifiques aux transmissions hertziennes. De ce fait, ce protocole est capable de
gérer une certaine qualité de service. La couche MAC du standard 802.11 se base sur la
méthode d'accès appelée ‘Distributed Coordination Function’ (DCF) qui utilise CSM/CA
(Carrier Sense Multiple Access/Collision Avoidance) pour supporter des transmissions
asynchrones de données. La deuxième fonction d’accès, optionnelle, est la PCF (Point
Coordination Function) qui sert à supporter les trafics temps réel. La fonction DCF est
employée pour les réseaux Ad hoc. Le principe de la fonction DCF consiste à écouter le
médium pour voir si un autre noeud est en train d'émettre, pour savoir si le médium est libre
pour une certaine durée appelée (DIFS) avant d’émettre.Sinon, la transmission est différée
d’un temps de Backoff, choisi aléatoirement entre 0 et une valeur maximale appelée
Contention Window (CW). Cette dernière ne sera décrémentée que si le médium est libre.
Néanmoins, la détection de collision par une station qui est entrain d’émettre simultanément
avec une autre n’est pas possible. Pour cela, un acquittement (ACK) est utilisé pour informer
la station émettrice que la trame est reçue avec succès
Dès qu’un paquet n’est pas acquitté, une nouvelle demande d’autorisation est émise. Afin de
traiter les réservations de bande passante, l’émetteur inclut des informations dans chaque
paquet sur l’ordonnancement du paquet suivant. Tous les voisins du noeud récepteur, en
écoutant l’acquittement d’un paquet de données, possèdent des informations sur la date
d’arrivée du prochain paquet et peuvent différer leurs transmissions. Ce mécanisme permet de
résoudre le problème des stations cachées sans avoir recours à des paquets de signalisation
particuliers. 2.2 Les protocoles de routage avec qualité de service Le routage avec QoS est un
élément clé pour réaliser une architecture de QoS pour les MANETs. Il est important de
définir les objectifs visés par le routage avec QoS. Le routage au mieux (sans QoS) consiste
en général à trouver le plus court chemin en terme de distance ou de délais entre une source et
une destination. Dans le cas du routage avec QoS, l'objectif n'est pas seulement de trouver le
meilleur chemin selon un critère précis, mais de trouver un chemin "admissible"satisfaisant
certaines contraintes. Plusieurs paramètres peuvent être utilisés tels que le délai, la bande
passante, la disponibilité en terme de QOS ou encore le coût de transmission. On voit
apparaître donc des spécificités où les routes doivent être calculées par flux et non par
destination. En effet, un flux peut avoir des besoins de QoS alors qu'un autre flux entre ces
mêmes nœuds en aura d'autres. Le routage avec QoS est très difficile dans les MANETs car il
engendre un overhead important. En effet, les nœuds doivent mettre en place un mécanisme
permettant de stocker et mettre à jour les états de liens dans un environnement mobile. Cette
mobilité rencontrée rend le maintient de l'état précis des liens très difficile et très coûteux. De
plus, la mobilité ou le manque d'énergie peuvent causer des ruptures dans les chemins établis,
le protocole doit donc être capable de réagir très vite à ce genre d'événement en recalculant
des routes valides. Par conséquent, la complexité de la recherche de routes optimales dépend
des types de contraintes. L'idée est donc de trouver un équilibre entre le gain apporté par le
routage QoS et l'importance de l'overhead. Le routage avec qualité de service ajoute en
général des protocoles de routage usuels un contrôle d’admission afin de sélectionner parmi
les routes disponibles celles qui sauront satisfaire les contraintes du flux. a. Routage avec QoS
sur DSDV : DSDV(Dynamic Destination Sequenced distance-Vector) ou vecteur de distance
à destination dynamique séquencée est un protocole de routage proactif implémenté avec la
qualité de service afin de résoudre les problèmes liés aux stations cachées. En effet, Lors
d’une demande de réservation, DSDV évalue la quantité de bande passante disponible sur la
route principale. Tout en évaluant le nombre d’unités TDMA (Division du temps en unités)
appelées slots, disponible sur chaque lien tout au long de la route. Il est nécessaire de ne pas
utiliser les mêmes unités pour les transmissions entre deux liens adjacents. Dès que le
destinataire reçoit la demande de route, il renvoie à l’émetteur une confirmation indiquant la
politique d’allocation des unités choisie sur la route empruntée, la réservation de ressources se
fait parallèlement à cette réponse. Pour pallier aux problèmes liés à la mobilité, une route
secondaire non optimale en terme de nombre de sauts est maintenue. Bien que ce protocole
évalue bien la bande passante disponible sur un chemin et offre le calcul de la probabilité de
rejet des appels lors des simulations, il est incapable de résoudre les problèmes
d’interférences, en particulier lorsque deux nœuds utilisant les mêmes unités TDMA se
rapprochent et arrivent à portée d’émission l’un de l’autre. b.Ticket Based Probing : Ticket-
Based QoS Routing est un protocole de routage qui permet de réduire la quantité des
messages de routage diffusée pour la découverte de la route, car la recherche de routes par
inondation peut être très coûteuse. Ce protocole de routage QoS a été conçu pour des réseaux
à faible mobilité pour éviter de réel problème (scénario de type salle de conférence). La durée
de vie des routes doit être grande devant le temps nécessaire à l’établissement ou à la
restauration d’une route. Le protocole utilise une technique de réparation locale des routes. Le
but de Ticket Based Probing est de limiter ce surcoût et de fournir des garanties de qualité de
service. La découverte de route est limitée, car l’émetteur va associer une demande de route à
un certain nombre de tickets logiques qui va limiter la diffusion des requêtes. Chaque message
de découverte (ou d’observation) de route doit avoir au moins un ticket. Quand un message
arrive à un noeud, il peut être divisé en plusieurs message d’observation, qui sont relayés vers
les prochains sauts. Chaque message ’fils’ contiendra un sous ensemble des tickets de son
message ’père’. Evidemment, un message ayant un seul ticket ne peut être divisé. Lors de
l’arrivée d’un message de découverte de route à la destination, le chemin saut par saut est
connu et les informations de délai ou de bande passante peuvent être utilisées pour effectuer la
réservation de ressources pour la route répondant aux besoins de QoS. Par conséquent, chaque
noeud aura la connaissance des caractéristiques des liens vers ses voisins immédiats grâce à la
transmission périodique de paquets de signalisation. Il peut donc ainsi sélectionner
efficacement les voisins à qui transmettre les demandes de route. Plus un flux de données aura
de contraintes, plus on associera de tickets à la demande correspondante; Le nombre de tickets
généré est fonction de la précision des informations d’états disponibles à la source et les
besoins de QoS de la communication. Deux problèmes sont étudiés: Etablir des routes, les
plus proches de l’optimal possible, de moindre coût avec des contraintes de délai (NP
complet). Etablir des routes de moindre coût avec des contraintes de débit (solvable en temps
polynômial). Afin d’augmenter la probabilité de trouver une route, deux types de tickets sont
utilisés: Des tickets jaunes : Pour permettre rechercher des chemins respectant la contrainte
imposée. Des tickets verts : Pour permettre d’obtenir des solutions à faible coût. Malgré le fait
que les noeuds ne connaissent que leur voisinage immédiat, Ticket Based Probing est efficace
car il permet de trouver des routes avec une probabilité proche de celle des algorithmes basés
sur l’inondation du réseau et meilleure que des algorithmes recherchant un plus court chemin.
Il permet en outre de trouver des routes de plus faible coût que ces deux types d’algorithmes.
Le protocole de routage AODV avec QOS a pour objectif de : 1. • Introduire une métrique
plus appropriée que la distance (nombre de sauts). 2. • Faire face aux changements fréquents
de la topologie due à la mobilité des noeuds. AODV se base sur un algorithme « à la demande
» cela veut dire qu'il ne construit des routes entres noeuds que lorsqu'ils sont demandés par
des noeuds sources. L’ajout dans les paquets de contrôle d’un champ ‘route response’ RREP
associé au paramètre délai ou au paramètre bande passante, À la réception d’un message
‘route request’ RREQ ajouté également. Du fait que les informations suivantes sont ajoutées
dans la table de routage: bande passante minimale, délai maximum, et la liste des sources qui
ont demandé des garanties de délai ou de bande passante.
Chaque mobile vérifie s’il est en mesure d’honorer le service demandé, avant de retransmettre
le message. Si un nœud détecte que la QoS demandée n’est pas satisfaite alors il envoie un
message à la source ayant initiée cette demande de QoS, pour l’informer. Une métrique
appelée BWER (Bandwidth Efficicency Ratio) est utilisée pour l’estimation de la bande
passante résiduelle au niveau de chaque noeud. C’est la ration entre le nombre de paquets
transmis et reçus. A un saut, ce protocole messages Hello pour collecter les informations de
bande passante des mobiles dans son voisinage. La bande passante résiduelle d’un mobile est
égale au minimum de la bande passante résiduelle estimée par ce mobile et de celle des
mobiles dans son voisinage à un saut.
Dans les protocoles usuels, les applications demandent une quantité précise de bande
passante. Très souvent, le même niveau de service est conservé durant toute la transmission.
Les auteurs de Dynamic QoS remettent en cause cet aspect statique de la réservation de bande
passante. Lors de la demande de réservation, les applications ne spécifient pas une valeur
précise mais un intervalle de valeurs. La borne inférieure représente le débit nécessaire au
fonctionnement de l’application et la borne supérieure le débit maximal qui pourra être atteint.
Lors de la confirmation de réservation, le réseau indique à l’émetteur la quantité de bande
passante qui lui a été effectivement allouée. D’autre part, on considère souvent qu’un lien a
une capacité fixe mais sur le canal qu’est l’air, cette capacité est variable. Dans Dynamic
QoS, la quantité de bande passante réservée par les applications peut être modifiée en cours
de transmission, soit l’initiative du réseau dans le cas où les ressources deviennent rares ou se
libèrent, soit l’initiative de l’application émettrice elle-même afin de libérer des ressources
dans le réseau. Si cette approche est originale et peut permettre de diminuer la probabilité de
rejet des demandes de réservation, elle nécessite un accord entre les différents émetteurs s’il
n’y a pas d’administration centralisée. Elle pourrait être très efficace dans des réseaux avec
AP.
Actuellement les travaux qui ont été réalisés pour offrir une meilleure qualitéde service pour
les applications multimédia reposent sur certains aspects liés aux réseaux ad hoc qui sont, les
modèles de qualité de service pour les MANETs en plus de l’introduction de la différenciation
de service au niveau de la couche MAC. Ces travaux se sont inspirés de ce qui a été réalisé
pour les réseaux filaires pour intégrer les aspects tels que : – L’adaptation de la puissance
d’émission en maximisant cette puissance pour les trafics prioritaires ; Le partage de charge
entre les différents noeuds du réseau ; – L’économie de batterie en essayant de trouver le
chemin le plus court afin d’économiser l’énergie consommée. Définition d’un modèle de
qualité de service Un modèle de qualité de service décrit un ensemble de services bout-en-
bout, qui permettent aux clients de sélectionner un nombre de garanties qui gouvernent des
propriétés telles que le temps, l’ordonnancement et la fiabilité. Le modèle de qualité de
service spécifie l’architecture qui va nous permettre d’offrir un service meilleur que celui
offert par le modèle best-effort traditionnel. Cette architecture doit prendre en considération
les défis imposés par les réseaux ad hoc, comme le changement de la topologie et les
contraintes de délai et de fiabilité. Cependant, des modèles tels que Intserv/RSVP [18],
proposés pour les réseaux filaires, ne prennent pas en compte les contraintes de limitation de
ressources imposées par les réseaux ad hoc. 3.1 Les modèles standard existants a. IntServ Le
premier modèle s'appelle " Services Intégrés " ou IntServ. Il utilise un concept basé sur la
réservation ou chaque application transmet ses conditions à tous les nœuds de réseau traversés
jusqu'au nœud de destination. Quand tous les nœuds ont acceptés les conditions, l'application
commence l'acheminement de ses données. IntServ aborde la qualité de service en reprenant
le concept du " meilleur effort " et en y rajoutant le support du trafic en temps réel. Le modèle
IntServ est donc un modèle incluant le concept du " best effort ", un service en temps réel, et
un partage de lien contrôlé. Le modèle de service gère deux sortes de trafic en temps réel :
garanti et prévisible. Les services intégrés nécessitent des routeurs capables de réserver des
ressources (telles qu'une quantité fixe de bande passante) pour différents flux de trafic.
Cependant, IntServ, en rendant possible la réservation de ressources, permet des requêtes très
précises en terme de qualité de service. Les clients obtiennent donc soit exactement ce qu'ils
ont demandé soit leur requête échoue. La réservation de ressources est demandée par le
récepteur, il émet une requête de QoS correspondant à ses besoins. Celle-ci parvient à
l'émetteur sous forme d'un message RSVP. Ce mode d'attribution de ressources à l'avantage
d'être effectué par le récepteur qui, ainsi, peut demander une QoS adaptée à ses besoins et à la
consommation désirée. Principe de Fonctionnement du protocole IntServ - source O.Bamouh /
H.Lalaoui Pour assurer un chemin unique au cours d'une communication, il faut que les
systèmes terminaux fonctionnent en mode connecté. Cependant, RSVP n'assure pas un mode
connecté avec les routeurs et une mise à jour dynamique de la réservation est nécessaire. Les
récepteurs sont donc obligés de d'envoyer périodiquement des messages RSVP aux routeurs
assurant le chemin. Les requêtes RSVP sont des messages de différentes natures permettant à
l'émetteur comme au récepteur d'avoir un chemin dédié de transfert
Principe de Fonctionnement du protocole IntServ - source O.Bamouh / H.Lalaoui Pour
assurer un chemin unique au cours d'une communication, il faut que les systèmes terminaux
fonctionnent en mode connecté. Cependant, RSVP n'assure pas un mode connecté avec les
routeurs et une mise à jour dynamique de la réservation est nécessaire. Les récepteurs sont
donc obligés de d'envoyer périodiquement des messages RSVP aux routeurs assurant le
chemin. Les requêtes RSVP sont des messages de différentes natures permettant à l'émetteur
comme au récepteur d'avoir un chemin dédié de transfert.
Notons que RSVP fournit une qualité de service tenant compte des modifications de
ressources. En revanche, le problème majeur du modèle IntServ/RSVP est celui du facteur
d’échelle car il maintient des états par flux, ce qui pose certains problèmes lors du passage à
l’échelle. En effet plus le nombre de flux à gérer est important plus la charge de traitement
devient insupportable. Les Integrated Services (IntServ) vont permettre de gérer des flux
entiers de données. Les routeurs implémentant ce modèle sont capables de séparer les flux
pour les traiter individuellement. Il apparaît tout de suite que des mécanismes complexes vont
être nécessaires pour isoler et traiter chaque flux. Ce modèle propose deux classes de service
en plus du Best Effort: Le Guaranteed Service proposé aux applications ayant des contraintes
sur les délais. Le Controlled Load Service proposé aux applications requérant un service Best
Effort amélioré, plus fiable. IntServ se compose de plusieurs composants: la signalisation, le
contrôle d'admission, la classification des flux, et l'ordonnancement des paquets. La
signalisation permettant la réservation de ressources est assurée par le protocole RSVP
(Resource ReSerVation Protocol). La fonction du contrôle d'admission est de bloquer les flux
dont les ressources demandées ne sont pas disponibles. Ce contrôle est opéré par chaque
routeur sur le chemin. Chacun d'entre eux va accepter ou rejeter la demande de service suivant
l'état actuel du réseau. Les routeurs indiquent à l'application, via RSVP, si le besoin de QoS
peut être satisfait ou non. Ensuite la classification des flux est, elle aussi, effectuée par chaque
routeur. Cette phase complexe permet de séparer les flux et d'insérer les paquets entrant dans
les files d'attente appropriées. Enfin, l'ordonnanceur gère l'ordre de sortie des paquets des files
d'attente afin d'assurer la QoS demandée.
le modèle Intserv Ce modèle n'est pas applicable aux MANETs car: Les informations sur les
flux augmentent proportionnellement au nombre de flux gérés. Il n'y a pas d'agrégation. Ce
problème de passage à l'échelle n'est pas spécifiques au MANETs, on le retrouve aussi dans
l'internet. La maintenance de cette quantité d'information par des terminaux mobiles dont les
ressources sont limitées n'est pas envisageable. Même si aujourd'hui les MANETs restent de
petite taille et ne sont destinés à gérer qu'un nombre restreint de flux, cette solution n'est pas
viable à long terme, puisqu'il est probable que les MANETs vont être amenés à se développer.
Les paquets de signalisation RSVP utilisent une quantité non négligeable de bande passante
sur des liens déjà limités. Chaque nœud doit se charger de gérer le contrôle d'accès, la
classification et l'ordonnancement des flux. C'est une charge trop importante pour des
terminaux aux ressources limitées. b. DiffServ Le deuxième modèle, " Services Différenciés "
ou DiffServ, utilise une technique de marquage des paquets (chaque paquet est tagué d'un
code dans son entête IP pour indiquer à quelle classe de trafic il appartient. Les commutateurs
traversés sur le chemin manipulent donc les paquets différemment en fonction de la classe de
service à laquelle ils appartiennent Le comportement à chaque nœud du réseau est en effet
choisi en se basant sur la classe de chaque paquet. Diffserv emploie le champ ToS dans l'en-
tête d'IP pour déterminer à quelle classe un paquet spécifique appartient.
Principe de Fonctionnement du protocole DiffServ - source O.Bamouh / H.Lalaoui L'émetteur
de flux spécialisé, au travers du champ "Type Of Service", spécifie une classe de service qu'il
souhaite donner à ses paquets. Au cours de son voyage dans le réseau, ce paquet traverse des
modules (routeurs) qui, équipés d'algorithmes (Packet Classifier), lisent le champ TOS.
Ensuite un répartiteur de paquet (Packet Scheduler) met en œuvre le traitement différencié en
lui affectant une discipline de service adaptée (file d'attente spécialisée). Rappelons que les
routeurs sont soumis à de grands nombres de demandes qui les obligent à gérer des files
d'attente. La stratégie des services différenciés (Diffserv) est apparue pour faire face à la
complexité et au coût de l'approche " Services Intégrés ". Cette approche est différente
d'IntServ par son concept de classification des flux. Le Differenciated Service (DiffServ) est
destiné à combler les défauts d'IntServ. On cherche à supprimer le problème de passage à
l'échelle en définissant des classes permettant d'agréger plusieurs flux. Ainsi, tous les flux
appartenant à une même classe reçoivent le même service. Deux types de routeurs sont donc
définis: Les routeurs de bord (Edge Routers), chargés de la classification, du marquage et du
maintient de l'état des flux. Les routeurs de cœur (Core Routers), chargés uniquement de
l'acheminement des paquets selon le marquage. La complexité de ce dispositif se trouve donc
dans les bords, puisque l'acheminement par les routeurs de cœur est très simple et rapide.
C'est un bon compromis entre complexité et garantie de service dans l'internet.
Le modèle DiffServ
L’avantage de ce modèle est qu’il offre des classes de QoS sans modifications en terme de
gestion du trafic et il fournit des solutions de continuité par rapport au service au mieux (best
effort) traditionnel. En plus, il permet le passage à l’échelle pour les données. Par rapport à
IntServ, on perd en terme de flexibilité et de fermeté des garanties. Le problème du plan de
contrôle reste entier (comment réaliser un contrôle d’admission sans maintenir d’état par
flux ?). Dans le cas du multicast, les choses se compliquent davantage, en effet aucune
approche n’a été proposée sur la façon de dimensionner le réseau et de conditionner un trafic
de multicast. Malheureusement, ce modèle ne convient pas aux MANETs car la question de la
définition des routeurs de bord et des routeurs de cœur reste très ambiguë dans ces réseaux.
Intuitivement, la source fait parti des routeurs de bords et les nœuds du chemin font parti des
routeurs de cœur. Mais dans les MANETs, chaque nœud doit pouvoir jouer les deux rôles à la
fois, puisqu'il peut être source d'une communication et relais pour une autre. Cela
engendrerait donc une charge trop importante sur tous les nœuds du réseau. 3.2 Les
principaux modèles utilisés a. FQMM (Flexible quality of service model for MANETs) Les
concepteurs du modèle FQMM prennent en compte le fait que les réseaux ad hoc pourraient, à
terme, être connectés à des réseaux filaires de type Internet. Il apparaît dès lors nécessaire
d’offrir un mécanisme de qualité de service suffisamment proche des protocoles filaires afin
de s’interfacer avec ces derniers. Le modèle repose sur une architecture réseau plate (non
hiérarchique), constituée d’une cinquantaine de noeuds mobiles. Il combine les propriétés des
modèles filaires IntServ et DiffServ, en offrant une méthode d’approvisionnement hybride :
par flux, pour les trafics prioritaires. par classe, pour les autres trafics
Afin d’obtenir les deux types de granularité (par flot ou par classe) des modèles filaires,
FQMM définit plusieurs classes de service dont la plus haute permet à chaque flux de
spécifier les contraintes qui lui sont propres. A l’image de DiffServ, FQMM définit trois types
de noeuds : Les noeuds d’entrée (émetteurs) Les nœuds intermédiaires Les noeuds de sortie
(récepteurs). Les noeuds d’entrée permettent de marquer et classifier les paquets, qui seront
ensuite relayés par les noeuds intermédiaires suivant leurs PHB (Per Hop Behavior), jusqu’à
arriver au noeud destinataire. Ce modèle repose essentiellement sur la couche IP, où les
fonctionnalités sont séparées en deux grands plans : le plan relayage de données et le plan
contrôle et gestion. Compte tenu du fait que dans un réseau ad hoc, chaque noeud assure la
fonction de routeur, chaque mobile joue différents rôles pour différents flux. Le
conditionnement du trafic (lissage, marquage, etc.) est à la charge des émetteurs. FQMM
requiert l’utilisation d’un protocole de routage capable d’offrir une certaine qualité de service,
c'est-à-dire capable de rechercher des routes satisfaisant certaines contraintes. Dans ce
modèle, le protocole de routage est supposé fournir des routes ayant suffisamment de
ressources. Par son approche hybride, FQMM entend résoudre certains problèmes liés aux
modèles filaires. De plus, la résolution de la plupart des problèmes liés au fonctionnement Ad
Hoc (volume de signalisation, consommation d’énergie, bande limitée et difficile à estimer)
est laissée à la charge du protocole de routage sousjacent. L’avantage d’une telle approche est
la possibilité d’interfacer le réseau avec l’Internet, vu les mécanismes de qualité de services
offerts qui sont proches des protocoles filaires. Cependant, plusieurs mécanismes ainsi que
l’interaction avec la couche MAC restent à définir pour s’adapter aux conditions variables du
réseau ad hoc.
Le modèle FQMM - source O.Bamouh / H.Lalaoui
c. QPART (QoS Protocol for Ad hoc Real-time Traffic) Ce modèle se situe dans le même état
d’esprit que SWAN ceci par rapport à la différentiation de services entre différents types de
trafic et garanties pour certains trafics sans garder d’états dans les noeuds. QPART considère
trois types de trafic : le trafic sensible au délai, le trafic sensible à la bande passante et le trafic
Best Effort. La garantie des contraintes et celle de la différentiation sont réalisés par des
modifications des tailles des fenêtres de contention pour les différents types de trafic. En ce
qui concerne les trafics sensibles au délai, la taille de la fenêtre de contention sur chaque
noeud dépend du délai connu par le paquet sur le lien précédent et de celui qu’il aurait dû
avoir. QPART n’effectue ni routage avec contraintes ni contrôle d’admission. Il n’agit donc
que sur la résolution de conflits, lorsqu’une congestion apparaît, en arrêtant certains flux dont
le choix se fait en fonction de leur priorité (l’âge d’un flux) : plus le flux est vieux, plus il est
prioritaire (la mise à jour est réalisée périodiquement), jusqu’à atteindre une priorité
maximale. Chaque priorité correspond à un seuil d’admission qui lui-même correspond à un
temps libre moyen entre deux périodes d’occupation du médium. Lorsqu’un temps libre
moyen inférieur à ce seuil est détecté par une station, le flux est arrêté pendant un certain
temps. Si au bout de ce temps, le temps libre moyen perçu pas la station est toujours inférieur
à ce seuil alors le flux est définitivement rejeté, sinon il est redémarré. Les choix de ces
paramètres et de ces seuils sont bien entendu les points clés de ce type d’approche.
L’inconvénient de la solution est que chaque lien est sensé avoir un délai similaire, ce qui
n’est pas une hypothèse réaliste. De plus, le traitement sur le délai ne prend aucunement en
compte l’impact qu’il peut avoir sur les délais des autres flux existants dans le réseau. Pour les
trafics sensibles à la bande passante, la modification de la fenêtre de contention est fonction
de la taille de la file d’attente dédiée à ce flux. Cette file doit rester de taille constante pour
garantir le débit du flux. Cela implique donc que si un flux subit beaucoup de collisions, sa
file d’attente va grossir et il va donc diminuer sa fenêtre de contention pour réduire la taille de
sa file, ce qui peut générer encore plus de collisions. Une telle approche peut être
consommatrice de ressources inutilement. Pour les flux Best Effort, la taille de la fenêtre de
contention est régulée en fonction d’un seuil de congestion. Ce seuil correspond à un temps
libre moyen entre deux périodes d’occupation du médium. Si le temps libre moyen détecté est
inférieur à ce seuil, alors la station considère que le médium est congestionné et va donc
augmenter sa fenêtre de contention ; si en revanche le temps libre moyen détecté est supérieur
à ce seuil, alors la station considère qu’il reste de la bande passante de libre et qu’elle peut
donc émettre plus de trafic Best Effort en diminuant sa fenêtre de contention. Avec ce type
d’approche, la même remarque que pour SWAN peut être faite : ce seuil est très dépendant de
la configuration et ne peut être choisi de manière fixe comme c’est le cas dans QPART
Le modèle QPART d.
Modèle iMAQ Ce modèle fournit le support des transmissions des données multimédia dans
un MANET. Il inclut une couche ad hoc de routage et une couche de service logiciel
(Middleware). Dans chaque noeud, ces deux couches partagent les informations et
communiquent afin de fournir les garanties de QoS aux trafics multimédia. Le modèle est
basé sur la prédiction de la position des noeuds (predictive location-based) et orienté QoS. La
couche Middleware communique également avec la couche application et la couche réseau et
essaye de prévoir le partitionnement du réseau. Pour fournir une meilleure accessibilité
Conclusion
En somme, Plusieurs contraintes sont liées au mode Ad Hoc et au médium sans fil, dont
notamment la peu fiabilité du médium, bande passante limitée, routage plus complexe,
beaucoup de contraintes physiques ( interférences…) Néanmoins, il existe toujours un
compromis entre le volume d’informations échangées (volumes et profils de trafics au niveau
de chaque noeud, mobilité des noeuds, etc.) et précision des garanties. Plus les noeuds sont au
courant de l’état du réseau, plus ils seront capables d’évaluer la capacité résiduelle de ce
dernier. Nous avons en outre présenté les architectures proposées par les groupes de travail
IntServ et DiffServ et qui se sont montrés inadaptés aux réseaux Ad Hoc. Nous avons
explicité par la suite l’émergence de nouvelles techniques telle FQMM qui combine les
propriétés des modèles filaires IntServ et DiffServ, en offrant une méthode
d’approvisionnement hybride: par flux (pour les trafics prioritaires) et par classes (pour les
autres flux), la technique SWAN qui se base sur des algorithmes de contrôle distribués, la
QPART qui rejoint le même état d’esprit que la SWAN, ceci par rapport à la différentiation de
services entre différents types de trafic et aussi par rapport à la garantie offerte pour certains
trafics sans se soucier de l’état des noeuds tout en considérant trois types de trafic: le trafic
sensible au délai, le trafic sensible à la bande passante et le trafic Best Effort. Le dernier
modèle traité iMAQ fait la transmission des données multimédia dans un MANETen incluant
une couche Ad Hoc de routage et une couche de service logiciel. Un travail important serait
de fournir une base d’évaluation standard des différentes solutions définissant les scénarios,
les outils et les paramètres de simulations possibles. Dans un futur proche, un grand nombre
de travaux devront être menés pour aboutir à une connaissance suffisante des spécificités de
ces réseaux. Alors, un travail fédérateur pourra peut être effectuée afin de concevoir « la
solution de qualité de service pour les réseaux Ad Hoc »